생성형 AI 열풍에 비전문 기업 우후죽순...정보 유출 우려도
품질 기준 확보 필요성 높아져..."정부, 검증 기준 정립해야"
[서울·대전=뉴스핌] 김수진 기자 = #1. 대구에서 입시학원 여러 개를 운영하는 김씨는 챗GPT을 활용해 원생 등을 관리하는 프로그램을 개별 제작해주겠다는 한 플랫폼 회사 제안에 돈을 지불했다, 기존과 다를 게 없는 결과물에 환불 요청을 했다. 하지만 회사는 설계비, 인건비 등을 이유로 지불금액의 절반도 안되는 돈을 김씨에게 돌려줬다. 그는 해당 회사를 사기로 고소하겠다는 계획이다. 김씨는 "챗GPT에 대해 잘 알아보지 않은 제 탓도 있지만, 챗GPT을 '만능'으로 포장하고 있는 시장 분위기도 문제"라고 주장했다.
#2. 얼마전 한 재능거래 강의서비스 사이트에서 챗GPT를 활용한 디자인으로 돈을 벌 수 있는 방법을 알려준다는 내용이 게재됐다. 포토샵이나 일러스트를 할 줄 몰라도 챗GPT으로 디자인해 돈을 벌 수 있다는 내용이다. 이와 비슷한 강의만 수십개가 검색된다. 업계 관계자들은 "관련 열풍이 과도한 상황으로 과장 광고 가능성이 높다"고 우려했다.
챗GPT가 핫한 아이템으로 급부상하면서 생성형 인공지능(Generative AI, 생성형 AI)에 대한 관심이 뜨겁다. 생성형 AI란 사전에 학습된 데이터를 기반으로 새로운 결과물을 만들어내는 AI 모델로, 챗GPT도 생성형 AI 기술 중 하나다. 그간 자연스럽지 못한 답변을 구사하던 것과 달리, 마치 사람과 대화하는 것처럼 자연스럽게 답변을 만들어내는 챗GPT 기술 구현에 전세계가 집중했다.
미국 워싱턴주 리치먼드의 마이크로소프트(MS) 본사에서 인공지능(AI) 챗봇이 탑재된 검색엔진 빙(Bing)을 체험해보는 시민. 2023.02.07 [사진=블룸버그] |
이렇듯 챗GPT에 전 세계 관심이 쏠리자 산업계 전반으로 이를 활용한 미래 먹거리 창출에 적극 나서고 있다. 구글과 마이크로소프트(MS), 메타 등 글로벌 기업 뿐만 아니라 네이버와 카카오 등 대기업부터 스타트업까지 국내에서도 관련 기술을 활용하기에 열혈이다. 하지만 돈과 사람이 한 번에 시장에 몰리면서 이를 악용하는 사례가 급증하고 있다. 때문에 생성형 AI에 대한 품질 기준 정립과 대중적 공론화가 시급하다는 지적이다.
챗GPT 악용 사례 늘어나..."신뢰성 저하 우려"
생성형AI 서비스가 국내에서 다양한 분야로 확대·적용되고 있다. 대부분 오픈 AI 응용프로그램 인터페이스를 기반으로 쉽게 적용할 수 있다는 점을 강점으로 내세우고 있다. 스타트업과 중소기업에서는 비즈니스 분야의 글쓰기 작성부터 사업계획서·보고서 작성, 챗GPT 기반 건강기술 정보 제공, 업무용 AI 활용 툴 등 다양한 서비스를 매일같이 출시하고 있다.
국내 대기업에서는 한국 특화 서비스를 강점으로 한 생성형AI 챗봇 서비스에 중점을 두고 있다. 카카오는 자사 AI모델 '코(ko)GPT'를 활용해 챗봇과 헬스케어 등 국내 서비스 이용자를 대상으로 한 모델을 연내 선보이겠다는 계획이다.
네이버는 지난 2021년 개발한 하이퍼클로바를 고도화해 오는 7월 '하이퍼클로바 X'를 공개한다. 차세대 검색 기술인 '서치 GPT'와 포털 검색 기능을 지금보다 업그레이드하겠다는 포부다. 이밖에도 한글과컴퓨터는 한국형 업무 솔루션에 챗GPT를 활용해 출시하겠다고 밝혔다.
이렇듯 생성형 AI 등을 활용한 기술 개발이 활발히 이뤄지고 있는 가운데, 이를 악용하거나 오용하는 경우도 급증하고 있다.
실제로 챗GPT를 국내 포털사이트에 검색하면 '챗GPT 전문기업' '챗GPT 활용 챗봇 구축' '챗GPT 업무자동화' 등 수십개의 관련 광고가 뜬다. 하지만 상당수 챗GPT를 어떻게 활용해 제품서비스를 하겠다는 내용은 찾아보기 힘들다. 작년까지 웹디자인을 주로 서비스하던 한 기업은 올 초부터 갑자기 챗GPT 활용 전문 디자인 플랫폼 회사를 표방하고 있다. 중국에서는 챗GPT와 유사하지만 지능적이지 못한 챗봇이 등장하기도 했다.
유튜브에서도 '챗GPT로 돈 버는 법', '광고 수익 얻는 법' 등의 수십 수백개의 영상이 검색된다. 챗GPT로 전문적인 내용을 작성해 해당 검색 유입으로 광고수익을 얻는 방법 등이다. 여기에는 결과물(정보)에 대한 검증법은 당연 찾아볼 수 없다.
업계 관계자도 우려가 크다. 특히 생성형 AI를 활용한 악용 정보물이 늘어날 경우 챗GPT 신뢰성이 훼손될 수 있다는 점을 가장 걱정한다. 대전의 한 스타트업에서 근무하는 최영준 개발자는 "본인들이 개발 전문기업인 양 광고를 마구잡이로 하는 회사 중 생성형AI를 제대로 적용해 서비스하는 기업이 몇이나 될까 싶다"며 "생성형AI를 악용한 결과물이 늘어나면서 정보가 오염될 가능성이 높아지는데 이로 인해 이제 막 성장 중인 산업발전에 해가 될까 걱정"이라고 밝혔다.
[사진=로이터 뉴스핌] |
삼성서도 정보 유출...개발 중지 주장까지
정보 유출도 큰 문제로 떠오르고 있다. 해킹에 챗GPT를 악용하는 시도가 늘어나고 있다. 악성코드인 멀웨어 생성에 챗GPT를 활용하거나 피싱 메일 등 해킹도구 개발에 사용되고 있는 것. 전문가들은 아직 기초적인 낮은 수준이지만 관련 악용이 반복될 수록 기술수준도 높아질 것이라고 우려했다.
개인·기업 정보 유출도 문제다. 챗GPT의 개인정보보호 규칙 규정이 느슨하다는 지적이 연일 나오고 있다. 실제로 이탈리아는 개인정보 침해 우려로 지난 1일(현지시각)부터 챗GPT접속을 차단하며, 유럽연합의 '일반데이터 보호 규정법(GDPR)' 위반여부확인을 위해 오픈AI를 대상으로 조사에 착수하겠다고 밝혔다.
국내에서도 관련 문제가 터졌다. 국내 굴지의 대기업인 삼성전자에서 반도체 부분에서 챗GPT를 사용하다 반도체 설비정보 2건과 회의 내용 1건이 외부로 유출됐다. 챗GPT에 내부 프로그램 소스코드를 입력하다 챗GPT가 자동으로 관련 정보를 학습한 것이 확인됐다. 삼성 측은 재발 방지 등 후속 조치에 나서고 있는 상황이다.
부작용이 연일 터지자 아예 개발을 일시 중지해야 한다는 주장까지 나왔다. 오픈AI 공동 설립자였던 일론 머스크 등이 '오픈AI의 GPT-4강화 모델의 일시 훈련 중단 촉구'에 서명하기도 했으며, 미국 비영리단체 'AI디지털정책센터'는 오픈AI가 AI지침을 위반했다며 연방거래위원회에 고발하기도 했다.
일론 머스크 테슬라 CEO.[사진=로이터 뉴스핌] |
산업계 "정부, 산업 발전 위해 적극 나서줘야"
챗GPT로 난립 중인 산업·시장이 바르게 성장하기 위해서는 AI 품질 기준부터 세워야 한다는 분위기가 고조되고 있다. 관련 산업 발전과 시장 선점을 위해 애초부터 바른 데이터와 정보를 AI에 학습시켜야 한다는 주장이다.
현재 국내에서 관련 기준안 설립에 관심이 높다. 전세계 최초로 '인공지능법'이 지난해 7월 발의돤 상태다. 현재 해당 법은 국회 과학기술정보방송통신위원회 정보통신방송 법안심사소위원회를 통과했다. 법을 대표발의한 국회 정필모(더불어민주당, 비례) 의원은 "국내 AI 기술 발전 기반과 국가역량 집중 투자 등을 위한 제도 마련을 위해 관련 법 제정이 시급한 상황"이라고 주장하고 있다.
업계에서도 난립하는 시장부터 바로 잡아야 건강하게 산업이 성장할 수 있다는 분위기가 조성되고 있다. AI 관련 기업을 운영 중인 한 대표는 전문성이 결여된 기업들 때문에 이제 막 걸음마 단계인 AI 산업 발전이 저해될 수 있음을 우려했다. 그는 "챗GPT가 산업계에 폭발적인 영향을 미치면서 전문성이 부족한 기업들도 관련 분위기에 편승하고 있다"며 "아직 AI와 데이터 등에 대한 기술 기준이 불명확한 상황이다보니 '과연 좋은 기술이 무엇인지' 잘 모르는 소비자(기업)들이 피해를 입게 될 것"이라고 지적했다.
데이터 편향성 최소화도 대안으로 제시됐다. 소프트웨어 공학 전문기업 씽크포비엘 박지환 대표는 "대다수 AI편향이나 안정성, 오작동 등과 같은 사회적 이슈는 데이터가 충분치 못해 발생한 형태"라며 "담당자의 경험이나 주관에 의존하지 않는 과학적이고 객관적인 검증 방법이 필요하다"고 강조했다.
이어 박지환 대표는 "대중과 정부의 분별 수준이 낮다는 점을 악용해 시장을 왜곡할 경우 산업이 올바르게 성장할 기회를 놓치게 될 것"이라며 "AI신뢰성 기준을 정하는 일은 미래 지능화 산업 발전에 무척 중요한 만큼, 정부는 기업에만 역할을 맡기지 말고 기준안 확보에 적극 나서야 한다"고 말했다.
nn0416@newspim.com