업계 "구글의 람다 기반 '바드' 보수적 예상"
윤리적·저작권·허위사실·책임 문제에 소송전 시작
유로존 AI법·미국 등 법제화 가속화
[실리콘밸리=뉴스핌]김나래 특파원= "우리는 챗GPT를 세상에 내놓는 것에 두려움도 느꼈다. 챗GPT의 높은 인기는 일부 윤리적 문제를 불러 일으키고 있다"
마이크로소프트(MS)가 투자한 오픈AI가 지난해 12월 공개한 챗GPT 개발을 이끄는 미라 무라티 CTO(최고기술책임자)는 5일(현지시간) 미국 시사주간지 타임지와의 인터뷰에서 이같이 밝혔다. 무라티 CTO는 챗GPT가 오용되거나 악의적인 행위자에 의해 사용될 수 있다는 점을 역설했다.
전문가들은 오픈AI의 무라티 CTO의 발언을 미뤄 봤을 때 챗GPT의 폭발적 인기에 대한 책임감도 커지고 있다는 점에 주목했다.
무라티 CTO는 "철학자, 사회과학자, 인문학자, 예술가 등 다양한 목소리를 듣는 게 중요하다"며 "AI 기업들은 소수이므로 정부 규제를 비롯해 더 많은 이들의 관여가 필요하며 기술이 미칠 영향을 고려하면 모두가 참여를 시작하는 게 중요하다"고 강조했다.
실제로 챗GPT가 인간에 버금가는 능력으로 '만능 AI(인공지능)' 기술로 각광받고 있지만 저작권과 오류 등으로 인한 소송에 대한 우려도 커지고 있기 때문에 법제화에 대한 논의가 필요하다는 목소리가 커지고 있다.
챗GPT 모바일 구동화면.[사진=블룸버그] |
◆ 구글 '바드' 공식 발표…보수적 운용 전망
주요 외신들은 6일 일제히 무라티 CTO의 인터뷰를 보도하며 경종을 울렸다. 이에 다시 한 번 업계는 챗GPT 열풍이 뜨거운 가운데 내부 개발 고위 관계자의 발언에 술렁였다.
실리콘밸리에서는 챗GPT의 인기로 오픈AI가 뜨겁게 치고 나가고 있지만, 결국은 각종 소송전이 난무하고 윤리와 법제화의 벽에 부딪힐 것이라는 전망도 제기되고 있다. 이날은 공교롭게도 구글이 AI 챗봇 '바드(Bard)'를 GPT의 대항마로 공식 발표하며 더욱 관심을 뜨겁게 달궜다.
구글 모회사 알파벳의 순다르 피차이 최고경영자(CEO)는 이날 회사 공식 블로그를 통해 "새로운 대화형 인공지능(AI) 서비스 '바드'(Bard)가 신뢰할만한 테스터들에게 개방될 것"이라며 "향후 수 주 안에 일반인들을 위한 서비스를 준비하고 있다"고 밝혔다.
이에 업계에서는 검색 광고가 회사의 주된 사업인 구글이 신뢰성을 중요시하는 만큼 신중하고 보수적으로 움직일 것이라고 관측했다.
챗GPT는 마이크로소프트에서 개발한 GPT-3.5 모델을 사용하는 반면 구글은 람다(LaMDA·Language Model for Dialogue Application)를 사용한다. 람다는 지난해 자사의 엔지니어가 지각 능력을 갖췄다고 주장해 업계에 충격을 주기도 했다.
CNBC에 따르면 현재 구글은 바드를 회사 내부직원들을 통해 피드백을 받고 테스트를 시켰다. 이같은 테스트로 미뤄 볼 때 상향된 기술들을 공개를 하되, 회사가 잘못된 정보를 제공하는 서비스들은 출시하지 않거나 AI에 대한 공개 액세스를 허용하는 데 있어 보수적일 것으로 업계는 예상했다. 구글은 앞서 자율주행을 지속적으로 연구하는 웨이모 역시 보수적으로 운용한다는 평가를 받아왔다.
챗GPT 화면 [사진=블룸버그] |
◆ 생성 AI 기술 부작용 다양한 업계에서 발생…소송전도 시작
실제로 GPT 부작용은 이미 곳곳에서 발생하고 있다. 현직 판사가 챗GPT로 최근 판결문을 작성해 뜨거운 논란을 가져왔다.
콜롬비아의 후안 마누엘 파디야 판사는 현지 라디오를 통해 한 부모가 저소득 등을 이유로 자폐 자녀의 의료비 면제를 청구한 사건의 판결문을 작성하는 과정에서 챗GPT를 활용했다고 밝혔으며, 당시 그는 자폐아 부모 편에 유리한 판결을 내렸다. 이같은 사실이 알려지면서 판사는 역풍을 맞았다. 이 현직 판사가 직접 해결해야 할 문제를 챗GPT에 문의하는 것은 무책임하고 윤리적이지 않다는 여론의 비판이 거세진 것이다.
또 세계 최대 이미지 플랫폼인 게티이미지도 스테빌리티 AI를 상대로 지적 재산권 침해 소송을 제기했다. 게티이미지에 따르면 스테빌리티 AI가 자사 소프트웨어를 학습시키기 위해 저작권 보호를 받는 이미지 수백만 개를 불법 복제하고 있으며 재정적 이익을 얻었다고 주장했다.
이처럼 챗GPT의 열풍이 뜨거운 만큼 윤리적이고 법적인 소송 문제도 다양하다. 챗GPT의 가장 큰 문제 중 하나는 생성 AI의 저작권이 지목된다. 이들이 콘텐츠를 만들어내는 과정에서 창작자의 동의를 얻지 않은 채 기존의 창작물을 대량으로 학습하는 점 때문에 향후 소송이 줄을 이을 것이라는 전망이 제기되고 있다.
또 뉴욕시가 모든 공립학교에서 챗GPT 접속을 금지한 것처럼 창작의 영역 침투로 인한 윤리 문제와 표절 시비 등도 문제로 떠오르고 있다. 현재 작품의 저작권을 어떻게 인정해야 하는지도 명확하지 않는데다, 대부분 국가에서는 현행법상 인공지능이 저작권자가 될 수 없다. 윤리 문제에 있어서는 AI로 판단을 내리는 여부의 기준이 적합한지와 이로 인한 사고 위험으로 책임 소재도 논란이 될 수 있다.
정보의 소스가 명확하지 않은데서 오는 정보의 오류로 인한 피해도 있다. 챗GPT가 내놓는 답변은 오답률도 굉장히 높음에도 불구하고 사용자가 일반화된 답변으로 받아들일 수 있으며 이를 검증할 수 있는 도구도 내부 사이트에서는 없다. 이렇게 되면 가짜뉴스에도 악용될 수 있고, 표절에 이용될 가능성도 높다.
또 이를 이용한 범죄 가능성도 업계에서는 큰 문제로 지적하고 있다. AI와 딥러닝 분야의 세계적인 권위자인 스탠퍼드 대학교 로스쿨의 랜스 엘리엇 박사는 "챗GPT의 단점은 생성 기반 AI 앱으로 생성된 말 가운데 명백히 사실이 아니거나 오해의 소지, 완전히 조작된 명백한 사실 등 다양한 허위 정보가 포함될 수 있다는 것"이라고 밝혔다. 또 "지적재산권(IP)에 대한 AI 지위 부여 여부와 침해 확장 여부는 논란이 계속될 수 있다"고 밝혔다.
◆ 챗GPT가 쏘아올린 AI 법제화 가능할까
업계에서는 고품질 데이터 기반으로 신뢰할 수 있는 AI를 보장하기 위해 견고한 규제와 법제도가 마련해야 한다는 주장이 거세지고 있다.
유럽연합(EU)은 일찌감치 2021년 4월 AI법을 제안해 초안을 만들었으며 올해 시행하는 게 목표지만 여전히 논의 중인 상태다. EU의 AI법은 개발사에 투명성, 공정성, 책임성을 요구하는 것이 주요 골자다. AI가 오류를 범하거나 실제로 피해 보는 사람이 생기면 개발자 쪽에 그 책임을 묻는 것이 목표다. 이에 따라 이용자의 권리를 보호할 수 있다.
미국에서는 빅테크 기업들이 AI 기술개발을 많이 내놓고 있는 가운데 입법 논의는 걸음마 수준이다. 아직까지 규제보다는 자발적 협의에 초점을 맞추고 있다. 민간에서는 여전히 AI 규제가 챗GPT 같은 오픈소스 기반의 AI 개발을 위축할 수 있다고 우려하고 있기 때문이다.
자넷 해븐 데이타 앤 소사이어티 전무는 니먼랩에 "우리는 수년 간의 연구를 통해 사람들이 항상 제작자가 의도하지 않은 방식으로 기술을 사용한다는 사실을 알고 있다"면서 "인공지능과 알고리즘, 데이터 중심 기술의 발전은 이러한 종류의 평가 및 통제를 벗어나 대부분 작동하는 경향이 있어 미국이 규제를 시행하기 위한 조치를 취하기 시작해야 하며 그 작업을 가속화해야 한다"고 밝혔다.
ticktock0326@newspim.com