하민회 이미지21대표(코가로보틱스 마케팅자문)
'니들이 생성형AI를 알아?'
챗GPT로 대변되는 생성형AI는 등장한지 채 1년도 되지 않아 '모르는 사람은 없지만 다 아는 사람도 없는' 존재가 되었다. 눈 뜨면 신박한 새기술을 선보이며 확실히 전과 다른 AI, 뭐든 다 해낼 수 있을 것 같은 기대를 불러 일으켰지만 그 이면에 숨은 부작용도 만만치 않다.
AI 전망을 조사한 각종 보고서들에 의하면 생성형 AI 기술이 삶의 방식은 물론 업무 방식을 변화시켜 생산성을 획기적으로 향상시킬 것이라는 전망은 지배적이다. 하지만 응답자의 절반가량에 해당하는 기업들이 생성형AI를 도입할 준비를 하지 못한 상태다. 기술 인프라와 인재의 부족, 미진한 구현 로드맵, AI 활용 가이드라인 부재 등이 원인이다.
특히 심각하게 봐야 할 것이 AI 활용 가이드라인의 부재다. 가이드라인은 AI활용에 대한 기업의 정책이자 인재 교육과 직결되는 중요한 사안이기 때문이다.
하민회 이미지21 대표. |
챗GPT 도입 초기 삼성 반도체 사업부의 정보유출 사고. 한 엔지니어가 오류 확인 목적으로 챗GPT에 기밀 소스 코드를 붙여 넣었고, 다른 엔지니어는 챗GPT와 코드를 공유해 코드 최적화를 요청했다. 직후 사내 챗GPT사용을 금지한 삼성전자는 연내 자체 생성형AI를 개발해 도입할 계획이라 한다. 강력한 기술일수록 도입에는 사전 준비와 지침이 요구된다는 사실을 확인시켜 준 사례다.
내부정보 유출 사고로 인한 챗GPT 금지령은 국내 기업 만의 일은 아니다. 월스트리트저널(WSJ)에 따르면 미국의 애플, 통신업체인 버라이즌, 뱅크오브아메리카(BofA), 골드만삭스와 씨티그룹 등도 자사 소프트웨어 시스템에서 챗GPT를 자동 차단했다. 이들 기업은 내부정보유출을 물론 자칫 고객 정보나 소스 코드에 대한 통제를 잃을 수 있는 위험을 감수하기보단 챗GPT 사용 금지를 택했다.
글로벌 업무관리 플랫폼 아사나의 '기업 내 AI 활용 현황(The State of AI at Work)' 보고서에 의하면 직장에서 일상적으로 AI를 사용하지만, 직원에게 정확한 AI 활용 지침을 제시하는 기업은 4분의 1일에 불과하다. 전체 응답 직원의 48%가 회사에서 상세한 AI 사용 지침을 알려주길 원했지만 직장에서 AI 사용 지침을 받았다고 답한 비율은 24%에 그쳤다. 또 전체 응답자의 39%는 AI 교육이 입사 결정에 영향을 미친다고 답했다.
생성형AI는 경이로운 속도로 발전하고 있지만 개선되어야 할 점도 많다.
프린스턴대·스탠퍼드대·IBM 공동연구에 의하면 챗GPT 등 대형언어모델(LLM)은 미세조정을 하면 모델의 안전 기능이 떨어진다는 연구결과가 나왔다.
미세조정은 이미 훈련된 모델에 새로운 데이터셋을 넣어 재학습하는 기술이다. 막대한 비용을 들여 자체 LLM을 만들 여력이 부족한 다수의 중소 중견 기업은 미세조정을 통해 맞춤형 AI모델을 구축하는 추세다.
연구진은 LLM에 탑재된 '안전 정렬 인프라 (유해하거나 틀린 답변을 내지 못하도록 제어하는 시스템)'가 미세조정 후 어떻게 변하는지 연구했다. 연구 대상인 챗GPT 3.5 터보 모델은 단 10개의 예시를 통한 미세조정으로 거의 모든 유해한 질문과 명령에 반응을 보였다.
이는 악의적인 의도가 아니더라도 일반적인 데이터셋을 사용한 단순한 미세조정만으로도 LLM의 안전성이 떨어질 수 있음을 의미한다. 연구진은 논문 게재 전 연구 결과를 오픈AI에 공유, API에 새로운 안전 개선 사항을 통합할 수 있도록 제언했다.
이제 미세조정 시장에도 안전정렬에 대한 새로운 가이드라인이 생기게 된 셈이다.
생성형AI 활용 가이드라인 못지 않게 AI윤리 가이드라인의 필요성도 커지고 있다.
최근 MS는 생성형AI를 활용한 콘텐츠의 심각성을 점수화해 정책 준수 여부를 쉽게 확인할 수 있는 서비스를 출시했다. 증오나 폭력 같은 잠재적으로 유해한 콘텐츠를 감지해 이를 심각성 점수로 표시함으로써 기업 정책에 근거해 차단하거나 플래그 표식 등으로 콘텐츠 서비스를 맞춤화 할 수 있고 사용 목적과 사례에 맞춰 세분화된 검수 기준을 설정하는 것도 가능하다.
에너지 기업 쉘(Shell)의 경우 자체 개발한 생성 AI 플랫폼을 통해 애플리케이션을 구축하고 배포하는데, 이 과정에서 MS의 서비스를 통해 부적절하거나 유해한 콘텐츠를 거르고 온라인 공개 이전에 관련 정책의 준수 여부를 확인한다.
서구에 비해 보수적인 데다 미성년자 인증제도까지 있어 AI윤리 기준 설정에 어려움을 겪고 있는 국내 콘텐츠 기업들의 경우 AI 윤리가이드라인 준수 여부를 스스로 테스트해볼 수 있는 진단키트나, 관련 법률서비스 등 정책 당국의 현실적이고 구체적인 가이드라인이 절실하다고 말한다.
생성형 AI는 노동의 본질을 바꾸었다. 단순하고 반복되는 번거로운 업무는 AI에게 시키고 인간은 보다 창의적이고 의미로운 일을 하라 한다. 하지만 많은 이들이 동의하지 못한다. AI가 주는 편익과 여유를 누리기커녕 AI 활용조차 익숙하지 않는데 변화의 속도가 무섭기 때문이다. 어쩌면 우리 모두는 성취감, 경제적 안정성, 정체성에 타격을 느끼고 있을지 모른다.
가이드라인이 필요하다. 가이드라인은 혼란을 최소화시키고 방향을 제시하는 역할을 한다. 경험해보지 못한 일에 대한 불안감을 줄이고 치명적인 실수를 방지할 수 있도록 돕는다.
AI 활용 가이드라인이든 AI 윤리 가이드라인이든 지침이 있어야 한다. 급변하는 AI기술 앞에 처음부터 완벽한 가이드라인은 기대하기 어렵다.
최소한이라도 가장 핵심적인 지침을 세우고 기술 발전과 함께 지속적으로 다듬어가야 한다. 지금 당장 우리가 해야 할 창의적이고 의미로운 일은 AI 가이드라인을 세우는 일이다.
◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등