하민회 이미지21대표(코가로보틱스 마케팅자문)
2023년이 저물고 있다. 챗GPT로 시작해 구글의 제미나이(Gemini)로 마무리되는 2023년은 그야말로 생성형 AI 개발 원년이었다.
챗GPT는 1년 만에 생산성 도구로 빠르게 자리잡으며 일하는 방식을 바꿔 놓았다. 글로벌 투자은행 골드만삭스 연구에 따르면, AI로 완전히 대체되는 일자리는 약 7%에 불과하지만 모든 직업 중 3분의 2는 '부분적으로' AI로 자동화가 가능하다.
챗GPT는 국제학술지 '네이처'(Nature)가 올 한 해 과학계에서 화제를 불러일으킨 인물을 선정하는 '네이처 10′(Nature's 10)에도 선정되었다. 네이처는 "그것(It)은 과학 논문을 같이 쓰고, 드래프트를 제공하고, 연구 아이디어에 대한 제안을 준다" 며 "이를 통해 과학자들의 일하는 방식을 바꿨다"고 선정 이유를 밝혔다. 네이처10에 비인간(非人間·nonhuman)이 선정된 것은 이번이 처음이다.
하민회 이미지21 대표. |
업계에서는 2024년엔 AI기술이 전 산업에 적용되는 '+AI'가 본격 전개될 것으로 본다.
세계 최대의 IT전시회인 'CES 2024'의 핵심 키워드는 '알파'(ALPHA). 소형화 최적화로 옮겨가고 있는 AI 개발 트렌드부터, 디바이스간 경계를 허무는 초 연결, 인류 난제 해결을 위한 기술변화, 인류 번영을 위한 헬스케어와 자율주행 등 모든 산업에 스며드는 AI에 주목한다.
전 산업에 결합 적용되는 AI. 망막 사진만으로 자폐 스펙트럼 장애(ASD)를 잡아내는가 하면 일상의 건강 및 노동데이터로 사람의 수명을 예측한다. 잡초만 골라 레이저로 태우는 농업로봇과 사과 따는 드론에 거침없이 적국의 잠수함을 추적하는 기술까지. 소설에서 볼 법한 다이내믹한 일상이 펼쳐진다는데 즐겁지만은 않다. 기대 반 우려 반인 마음 탓이다.
AI의 활용이 증가되면 우리는 그 만큼의 윤리적 측면을 고려해야 한다. AI에게 더 많은 임무를 위임할수록 사람은 그 기술에 더 많이 의존하게 된다. 이렇게 AI 의존성이 커지고 AI가 인간의 일을 대신하게 되었을 때 그 기술로 인한 이득과 피해의 책임은 누구에게 있을까? 만일 일이 잘못되면 누가 책임져야 할까?
제너럴 모터스(GM)의 자율주행 크루즈는 새삼 AI윤리를 생각하게 만드는 사례다.
최근 크루즈는 전체 직원의 24%에 해당하는 900여명을 해고했다. 지난 10월 보행자를 덮친 사고에 대한 조치다. 지난 8월, 크루즈는 캘리포니아주 교통당국으로부터 샌프란시스코 시내 연중무휴 유료운행을 허가 받았다. 24시간 무인 택시 활보가 가능해진 최초의 사례로 당국으로부터 기술적 안정성을 인정받은 셈이다.
하지만 긴급출동차량의 운행을 방해하고, 갑작스럽게 운행을 멈추는 등 여러 사고로 안정성 지적을 받아왔다. 급기야 횡단보도를 건너다 차량에 치여 옆 차선으로 튕겨 나간 피해자 위로 덮치는 인명사고까지 냈다.
사고 직후 크루즈는 샌프란시스코에서 운영하던 로보택시 약 950대를 전량 리콜했다. 공동 창업자이자 CEO인 카일 보그트 와 핵심 임원들도 사임했다. 크루즈의 누적 손실은 80억 달러(약 10조3,600억 원)가 넘는 것으로 알려졌다.
크루즈의 사례는 AI가 인간의 행위주체성을 대체할 때의 책임 소재를 보여준다. 사고는 기계(AI자율주행차)가 냈지만 책임은 사람이 진다. 여기서 책임 없는 기계와 설명할 수 없는 결정의 문제가 대두된다.
오픈AI와 챗GPT 로고 [사진=뉴스핌DB] |
보통 사람의 일 처리와 결정에는 행위주체성과 도덕적 책임이 연결된다. 자신이 행한 일이나 결정이 세상과 타인에게 영향을 미친다면 책임을 져야 한다는 명제는 어린 시절부터 받아온 사회적 교육이기도 하다. 행위주체성 뿐 아니라 자신이 무얼 하고 있는지 인식한다면 이 또한 책임이 따른다. 행동과 결정에 대한 인식은 그로 인해 초래되는 결과까지 알 수 있기 때문이다.
AI는 책임을 져야 할 행동 (자율주행)을 하거나 결정(갈 것이냐 멈출 것이냐 하는 순간적 판단)을 내릴 수는 있지만 원칙적으로 자기가 무얼 하고 있는지 '알지'못한다. 자기 행위가 어떤 결과를 불러올지 인식하지 못한다는 뜻이다. 때문에 어린이나 동물에게 책임을 묻지 않는 것처럼 AI에게 책임을 지우지 못한다. 대신 인간에게 AI가 한 일의 책임을 지운다.
책임이란 답변과 설명가능성을 의미한다. 인간은 일이 잘못되면 답변과 설명을 원한다. 판사의 판결문, 범죄자의 자백이 중요한 이유다. AI의 경우 본질적으로 많은 사람이 연루된다. 크루즈의 경우만 봐도 그렇다. 자동차회사, 서비스 운영팀, 프로그래머, 교통당국, 도로를 이용하는 다른 사용자까지 모두가 관계가 있지만 누구 한 사람에게 전적인 책임을 돌릴 수 없고 그렇게 해서도 안 된다. 연루된 사람이 많다는 건 그만큼 복잡하고 잠재적 결과를 예측하기가 어렵다는 것을 뜻한다.
더구나 자율주행차는 레이더, 라이다, 카메라, GPS 등 다양한 센서 결합과 운전 경로, 장애물, 표지판을 식별해야 하며 주변환경을 봐 가며 다양한 변수에 신속하게 반응해야 한다. 그 자체로 AI, 센서 기술, 데이터 처리 능력 등 첨단 기술의 총 집합체이다. 만든 사람도 사용하는 사람도 문제의 결정에 대해 제대로 설명하기 어려울 수밖에 없다.
크루즈의 사례는 AI 도입 준비에 미진한 우리의 현실을 보여준다. 기술개발이 우선인지 안전이 먼저인지, AI기술에 있어 어떤 원칙과 규범을 따르고 있는지, AI 기술에 대한 책임과 윤리에 대한 사회적 합의는 어느 정도 이루어지고 있는지 자문하게 만든다.
2024년은 AI기술이 일상 속으로 녹아 드는 '적용'의 원년이 될 것이라 예측한다. 현란한 기술에 그저 놀라기 보다 앞으로 펼쳐질 현실을 준비해야 한다. 무엇보다 AI로 제기되는 각종 윤리적, 사회적 도전에 대처하는 것이 시급하고 중요하다는 인식의 공유가 필요하다.
[서울=뉴스핌] 한태희 기자 = [자료=NH농협카드] 2023.11.22 ace@newspim.com |
글로벌 고객관계관리(CRM) 세일즈 포스의 연구조사에 의하면 '전 세계 직장인의 4분의 1이 넘는 28%가 직장에서 생성형 인공지능(AI) 기술을 활용하고 이들 중 55%는 미 승인 제품을 사용한 경험이 있다. 응답자의 69%가 생성형 AI에 관한 교육을 이수한 경험이 전혀 없다고 답했으며 기업 내 명확한 가이드라인과 사용방침이 부재하다는 응답도 79%에 달했다. 안전하게 제대로 쓰기보다는 일단 쓰고 보자는 식이라는 말이다.
AI의 잠재력을 최대한으로 실현하기 위해서는 기술 자체만큼 기술을 사용하는 사람들을 위한 투자가 병행돼야 한다. 명확한 가이드라인과 트레이닝을 통해 AI활용의 위험요소를 줄이는 각종 교육이 필요하다.
AI가 직접적으로 새로운 위험을 유발하지 않는다 해도 기존 위험을 특별히 증식시킬 수 있다. 예를 들어 사용자가 이미지와 글을 보며 사실과 허구를 구분하지 못하거나, 지금 나누는 대화의 상대방이 인간인지 AI인지 구별할 수 없다면 소통에 대한 신뢰 상실은 물론 사회적 불신으로 확장될 수 있다. 실지로 AI 가짜뉴스로 인한 혼란과 사회적 편견은 이미 심각한 상태다.
AI는 인간과 상호작용 여지가 많은 기술이다. 인간의 피드백에 따라 AI는 모델을 지속적으로 업데이트한다. 기술의 잠재적 위험성과 윤리적 문제를 모르거나 기술에 대해 잘못된 기대를 품은 이들의 손에 길들지 않은 많은 AI가 놓여있다.
가장 큰 위험은 지식이 없어서 무책임하게 기술의 힘을 행사하는 것이며 더 나쁜 것은 다른 사람들을 기술 악용의 대상으로 삼는 것이다.
모든 산업에 AI가 결합 적용되는 세상에 AI윤리 이해는 무엇보다 현실적인 문제다. 아예 운전면허증처럼 의무적인 AI윤리교육을 받고 이수증을 받는 제도를 만들어보는 건 어떨까?
◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등