3단계 거버넌스를 통한 체계적인 리스크 관리
매월 'Tech Ethics' 매거진을 통해 기술 투명성 공개
[서울=뉴스핌] 양태훈 기자 = 카카오가 인공지능(AI) 기술 개발과 운영 과정의 리스크를 관리하는 'Kakao AI Safety Initiative(ASI)'를 구축했다고 23일 밝혔다.
Kakao ASI는 AI 시스템의 설계부터 개발, 테스트, 배포, 모니터링까지 전 생애 주기에서 발생할 수 있는 위험을 최소화하기 위한 종합 지침이다. AI뿐 아니라 인간의 부주의나 실수로 발생할 수 있는 리스크까지 관리 범위를 포괄적으로 지정했다.
카카오는 전날 열린 개발자 컨퍼런스 'if(kakaoAI)2024'에서 'Kakao ASI'를 처음 공개했다. 김경훈 카카오 AI Safety 리더는 "AI와 인간을 리스크 발생 주체로 구분하고 각각의 특성을 반영해 평가·대응 방안을 마련한 것이 타사와의 차별점"이라고 설명했다.
카카오가 인공지능(AI) 기술 개발과 운영 과정의 리스크를 관리하는 'Kakao AI Safety Initiative(ASI)'를 구축했다. [사진=카카오] |
'Kakao ASI'는 ▲Kakao AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스 3가지로 구성된다. 윤리 원칙은 지난해 3월 발표한 '카카오 그룹의 책임 있는 AI를 위한 가이드라인'을 토대로 사회 윤리, 포용성, 투명성 등을 담았다.
리스크 관리 사이클은 식별-평가-대응의 순환 단계로, AI 시스템의 안전성과 신뢰성 확보를 위해 전체 수명 주기에 걸쳐 반복 적용된다. AI 리스크 거버넌스는 AI Safety, ERM 위원회, 최고 의사 결정 기구의 3단계로 구성된 의사 결정 체계다.
카카오는 ASI 구축 후에도 체계를 지속적으로 점검·고도화하며, 관련 내용은 기업 홈페이지의 온라인 매거진 'Tech Ethics'를 통해 공개할 예정이다.
dconnect@newspim.com