전체기사 최신뉴스 GAM 라씨로
KYD 디데이
산업 생활경제

속보

더보기

[김정호의 4차혁명 오딧세이] 인공지능의 소통 방법

기사입력 : 2019년07월22일 08:00

최종수정 : 2019년08월06일 19:35

김정호 교수.

펀치 카드의 추억

필자가 대학 1학년때 배운 컴퓨터 언어가 ‘포트란’이라는 과학기술용 컴퓨터 언어였다. 이러한 컴퓨터 언어란 인간과 컴퓨터의 소통을 가능하게 해주는 도구이다. 그 포트란은 주로 수학과 과학기술 계산에 편리한 컴퓨터 언어였다. 1980년대인 그때 학교에서 포트란 언어를 읽고 실행하는 컴퓨터가 IBM360/380 시리즈로 기억 한다. 그런데 프로그램을 직접 짜면 ‘펀치카드’라는 두꺼운 종이에 구멍이 뚫리는 방식으로 프로그램이 기록이 된다.

지금 생각해 보면 아주 원시적인 기록이며 컴퓨터 입력 방식이다. 타이프 치듯이 프로그램을 입력하면 이 펀치카드 종이에 구멍이 뚫린다. 이렇게 완성된 이 수 십장, 또는 수 백장의 펀치카드 뭉치를 학교 전산실에 제출하고 그 이후 1-2일 후에 계산 결과를 얻는다. 그때 계산 결과는 종이에 숫자 형식의 데이터로 프린트 되어 나온다. 그러니 1980년대초 컴퓨터의 입력은 종이에 구멍이 뚫린 펀치카드였고, 출력은 프린트 용지였다. 종이가 많이 필요했다. 이때 프린트 용지 맨 바깥쪽에는 프린트 기기에 쉽게 연결이 되게 작은 구멍이 아래 위로 쭉 뚫려 있었다. 이 수 백장의 프린트 용지는 추후 전공 관련 수학 수식을 풀때 요긴하게 쓰인 ‘이면지’였다. 종이가 이면지이자 컴퓨터와의 소통 방식이었다.

그런데 한번 포트란 프로그램에서 실수를 하면 몇 일이 지난 후에야 그 결과를 보고, 다시 고치고 입력해야 한다. 디버깅에 시간이 엄청 많이 걸린다. 그래서 프로그램을 짤 때 실수를 최소화해야 한다. 그때 필자는 학교를 전철을 타고 다녔는데, 전철에 앉아 펀치카드에 입력된 프로그램의 오류를 찾기 위해 몇 번이고 다시 검토하고 읽어 보기도 한 기억이 난다. 이처럼 이러한 초기 컴퓨터의 입출력 방식은 수시로 고치고 편집하거나 다시 실행하기 어려웠다. 그리고 종이의 낭비가 심했다고 볼 수 있다. 요즘 말로 ‘copy’, ‘paste’ 가 불가능하다. USB 에 작게 담거나 인터넷으로 파일을 보낼 수도 없다. 그때는 펀치카드 한 개의 박스로 담아 이동했다. 시간과 비용이 많이 드는 소통방식이다.

그 이후 몇 년이 지나 애플 8비트 컴퓨터가 학과에 한 대가 도입이 되었다. 이제는 펀치카드나 프린트 종이 필요 없이 화면을 보고, 프로그램을 편집하고, 입력하고, 그 계산 결과도 바로 화면으로 보았다. 컴퓨터와의 소통에 종이가 사라지기 시작했다. 편집이나 수정은 한 줄, 한 줄 했다. 요즘처럼 화면 전체를 왔다 갔다 하면서 고친 것이 아니라, 한 줄, 한 줄 고쳤다. 그야말로 줄 편집(line editing)이었다. 이 때 사용한 프로그램으로 ‘베이직’이 기억한다. 이후 IBM XT/AT 개인용 컴퓨터가 등장하면서 컴퓨터가 더욱 대중화 되었다. 워드 프로세서도 등장했다. 이제 펀치카드는 사라졌다. 이처럼 컴퓨터가 발전하면서 입력, 출력 장치도, 다르게 말하면 소통 방식도 인간에게 더 편리하게 발전해 왔다. 따라서 인공지능 컴퓨터의 입출력 형태와 소통 방식도, 또 다시 진화할 것으로 기대한다.

인공지능의 입력과 출력

현재 가장 많이 사용되고 있는 대표적인 인공지능 알고리즘이 CNN(Convolution Neural Network)이다. 주로 사진 이미지나 동영상을 판독하고, 이해하는데 사용하는 알고리즘이다. 특히 인터넷과 유튜브에 널린 수많은 사진과 영상 자료가 CNN 학습 데이터가 된다. 이때 컴퓨터가 자동적으로 인터넷에서 읽어서 긁어 모은다. 펀치카드도 필요가 없고 자판기도 필요가 없다. CNN은 이들 사진들을 입력하고, 출력으로는 예를 들어 그 사진 속의 물체를 인식(Classification)하거나 사진(Image) 속의 장면으로 글(Caption)로 쓰거나, 이야기(Text)를 만들 수도 있다. 또는 사진 속의 인물이 다음에 할 행동을 예측(Prediction)하거나 추후 일어날 사건을 예측한다. 또는 화면 속의 상황을 이해(Explain)할 수 있다. 이렇게 CNN의 출력은 ‘Tag(이름), ‘설명문(Caption)’, ‘문학 작품(Text)’이 되기도 한다. 때로는 음성 단어나 스토리로 만들어 출력할 수도 있다. 그리고 더 나아가 그 내용에 맞게 영상도 제작 가능하고, 음악도 창작 가능하고, 그림도 창작 가능하다. 출력으로 창작물을 만들 때 GAN(Generative Adversary Network) 알고리즘이 CNN과 같이 결합될 수 있다. 이 경우 출력은 창작 그림, 시, 문학작품, 음악, 영화도 된다.

입력 ‘사진’을 보고, ‘새’라고 확률(출력)을 제시(Classification)해 주는 CNN의 내부 구조. [출처=KAIST]

인공지능에서 CNN 다음으로 많이 사용하는 알고리즘이 RNN(Recurrent Neural Network)이다. 주로 시간 차이를 두고 순차적으로 입력되는 데이터의 해석과 이를 기초한 미래 예측에 사용된다. 대표적으로 사용하는 말을 알아듣는 인공지능 알고리즘이다. 말은 문법에 따라 순서대로 들어 온다. 그래서 입력의 순서에 따라 의미와 해석이 달라진다. 이 때문에 인공지능이 컴퓨터 내부에서 순차적으로 데이터를 받아 들이고, 순차적으로 학습하고 판단하도록 설계되어 있다. 다른 말로 시간과 순서 개념이 있는 인공지능이다. 그래서 RNN의 입력은 문장 혹은 사람의 말이 된다. 또는 영화의 장면과 장면의 연속이 입력이 될 수 있다.

책 한 권 전체가 RNN의 입력이 될 수도 있다. 그 속에 단어가 순서대로 나열되어 있게 때문이다. 더 나아가 인류가 유사이래 만든 모든 문서, 모든 책이 RNN 의 입력이 될 수 있다. 여기에 전세계 수 백 개 언어의 책과 문서, 녹음 파일 전체가 입력 데이터가 되는 엄청난 분량이 된다. 인공지능 컴퓨터가 책을 모두 쉽고 빠르게 읽는 입력 장치만 개발되면 된다.

전화 상담하면 녹음이 되고, 디지털화되면 그 파일이 바로 RNN의 입력이 된다. 지하철 속에서 주고 받는 대화 모두가 누군가 기록한다면 RNN 입력이 된다. 스마트폰으로 주고 받는 문자와 통화내용도 입력이 된다. 집에 설치된 아마존 인공지능 스피커도 ‘알렉사’도 RNN 입력이 된다. 그래서 CNN의 영상 이미지 이상으로 많은 RNN 입력 데이터가 지구상에 존재한다.

이러한 RNN의 출력은 ‘정답’, ‘독후감’, 설명문’ 또는 ‘다음 문장’이 된다. 입력 데이터를 읽고 이해하고, 그 전체를 요약하거나 문맥을 설명하는 것이 출력도 된다. 또는 그에 해당하는 사진이나 영상을 출력할 수도 있다. 또는 입력 문장에 맞게 음악, 그림, 소설, 영화 등을 창작할 수 있다. 이때는 RNN 과 GAN이 결합해야 한다. 이처럼 RNN의 입력은 문자이나, 녹음, 영상, 책이 되고 출력은 단어, 해설, 또는 창작물이 된다. 이것이 RNN의 소통방식이다.

순서대로 들어오는 입력 문장을 통해 출력으로 해석하거나 단어로 표현하는 RNN 구조. [출처=KAIST]

궁극적인 인공지능의 입출력

결국 인공지능이 사람같이 생각하고, 행동하고 교류하려면 입출력 방식이 인간을 닮은 모습이 아닌가 한다. 결국 인공지능 소통 방식이 인간과 같아야 한다. 그렇게 되면, 인공지능의 입력은 사람처럼 말을 알아 듣고, 눈으로 볼 수 있어야 한다. 그리고 인공지능의 출력은 말을 하거나 글을 쓰거나, 단어로 표현하거나 한 단계 더 나아가, 문장, 소설, 시, 그림, 음악, 영화와 같은 창작물이 될 수 있다. 더 똑똑한 인공지능은 말을 하지 않아도, 문맥이나 표정만 보고 알아서 판단하고 행동을 하면 더 좋다. 궁극적으로 말 끼를 알아듣고, 눈치가 빠른 인공지능이 되어야 한다. 그 때 인공지능은 IQ 뿐만 아니라 EQ 도 좋아 사회성과 도덕성을 가지면 더욱 바람직하다.

미래 자율주행자동차에서는 이런 인공지능의 입출력 방법이 인간과 인공지능 컴퓨터와의 소통과 대화의 방식이 된다. 자율주행자동차의 기능에서 인공지능 자체의 기능도 중요하지만, 인간과의 소통을 위한 입출력 기능도 그에 못지 않게 같이 중요하다. 그래야 완전한 자율주행자동차 시대가 된다. 결국 인공지능이 발전하면서 인공지능의 소통 기술도 함께 발전되어야 한다. 궁극적으로는 소통의 방식은 ‘인간의 모습’을 닮아 간다. 언제인가 인공지능의 소통 방식으로 ‘텔리파시’까지 사용될 수도 있다.

 

[김정호 카이스트 전기 및 전자공학과 교수] joungho@kaist.ac.kr

[뉴스핌 베스트 기사]

사진
[단독]삼성전자 '클래시스' 인수 추진 [서울=뉴스핌] 김연순 기자 = 삼성전자가 'K뷰티' 미용의료기기 제조업체 클래시스(대표 백승한) 인수를 검토하고 있다. 삼성전자가 지난해 의료기기 사업을 신성장 동력으로 삼은 이후 홈 헬스케어 등 B2C 시장에 대한 신사업 확대의 일환으로 해석된다. 26일 IB업계 및 관련업계 등에 따르면 삼성전자는 지난해 말 클래시스 인수 검토를 위한 태스크포스(TF)를 꾸린 것으로 확인됐다. 삼성전자가 클래시스 인수 검토에 들어간 건 의료기기 사업 강화 일환으로 홈 헬스케어 시장을 주목하고 있기 때문인 것으로 풀이된다. 클래시스는 고강도집속형초음파수술기 '슈링크'와 고주파 전류를 사용해 피부 조직을 응고시키는 기기 '볼뉴머' 등 의료기관용 피부과 의료기기 전문 기업으로 명성을 쌓았다. 올해 초 가정용 뷰티 디바이스 볼리움(VOLIUM)을 출시하며 B2C 시장을 확장했다. 고주파, 저주파, 발광 다이오드(LED) 등 의료기관용 제품에 적용된 기술과 노하우가 가정용 제품 개발에 활용됐다. 클래시스는 국내 뿐 아니라 홍콩과 태국 등 글로벌 시장 진출도 서두르고 있다. 개인 맞춤형 트렌드에 따라 삼성전자가 홈 헬스케어 시장에서 AI를 활용한 신사업 강화에 포석을 두고 있다는 해석이 나온다. 삼성전자는 지난 1월 세계 최대 가전·IT 전시회 'CES(Consumer Electronics Show) 2025'에서 AI 피부 분석 및 케어 솔루션을 삼성전자 마이크로 LED 뷰티 미러에 탑재해 선보이기도 했다. 이는 카메라 기반의 광학적 피부 진단과 디바이스를 활용한 접촉식 피부 진단 기술을 융합한 기술이다. 삼성전자 퍼스트 룩(First Look) 부스를 방문하는 고객들에게 피부 상태 분석, 맞춤형 제품 추천, 스킨케어 방법 제안 등 다양한 미래형 뷰티 경험을 제공하기도 했다. 백승한 클래시스 대표가 16일(현지 시각) '2025 JP모건 헬스케어 콘퍼런스'에서 발표하고 있다.[사진=클래시스] 경영권 매각을 추진하고 있는 클래시스는 작년 하반기 주관사를 선정했다. 매각 대상은 클래시스 최대주주인 베인캐피탈이 보유한 클래시스 지분 61.57%다. 베인캐피탈은 2021년 초 이 지분을 약 6700억원에 인수했다. 클래시스 시가총액은 전일(24일) 기준 3조7800억원 수준으로 베인캐피털 측 단순 지분 가치는 2조3000억원 수준에 달한다. 경영권 프리미엄을 고려하면 매각가가 3조원에 달할 수 있다는 관측이다. 그간 클래시스 인수 후보로는 글로벌 사모투자펀드(PEF) 블랙스톤, EQT 등이 거론됐으며, 최근에는 솔브레인그룹이 새로운 인수 후보로 거론되기도 했다. 사모투자펀드들은 높은 몸값 탓에 인수에 난색을 보인 것으로 알려져 있다. 다만 클래시스 관계자는 "경영권 매각과 관련해서는 내용을 알지 못하고 언급할 만한 게 없다"고 전했다. 삼성전자 관계자도 클래시스 인수 추진과 관련해 "사실무근"이라고 밝혔다.  한편 클래시스는 이달 들어 17일부터 21일까지 한국, 홍콩, 싱가포르에서 기관투자자 대상 기업설명회(IR)을 진행했다. 17~18일에는 한국투자증권 주관으로 국내 기관투자자 대상 NDR을 진행했고, 17~19일에는 씨티증권의 '씨티스 2025 코리아 코퍼레이트 데이'에 참가했다. 이어 20~21일에는 싱가포르에서 열린 'JP모건 코리아 컨퍼런스'에도 참석했다. 클래시스는 2024년 매출액 2429억원, 영업이익 1225억원을 기록하며 전년 대비 각각 34%, 36% 증가하는 성장세를 보였다. 특히 합병법인의 첫 실적이 반영된 4분기 영업이익률은 48%까지 상승했다. 같은 기간 당기순이익은 976억원으로 31% 증가했다. y2kid@newspim.com 2025-02-26 06:00
사진
알리바바, 영상생성 AI '완 2.1' 공개 [서울=뉴스핌] 고인원 기자= 중국 거대 전자상거래 기업 알리바바가 26일(현지시간) 자사가 개발한 영상 생성 인공지능(AI) 모델 '완(Wan) 2.1'을 공개했다. 미국 CNBC에 따르면 알리바바는 이날 완 2.1 시리즈의 네 가지 모델을 오픈소스 형태로 공개했다. 알리바바는 완 2.1이 영상 생성 AI 평가 도구 브이벤치(Vbench)에서 총점 86.22%를 기록해 오픈AI의 영상 생성 AI '소라'의 84.28%를 뛰어넘는 성능을 보였다고 밝혔다. [사진 = 알리바바그룹 공식 홈페이지] 2019년 2월 25일 열린 '글로벌 모바일 통신 대회'에 마련된 알리 클라우드(阿裏雲∙알리윈) 전시 부스. 특히 중국어 이해 능력이 뛰어나며, 회전과 점프, 구르기와 같은 인물 및 캐릭터들의 다양하고 복잡한 신체 움직임을 안정적으로 표현할 수 있다는 평가도 받았다. 사용자들은 텍스트 및 이미지를 기반으로 이미지와 비디오를 생성할 수 있으며, 알리바바의 자사 클라우드의 '모델 스코프'와 대규모 AI 모델 저장소인 '허깅페이스' 등을 통해 누구나 다운로드하여 이용할 수 있다. 앞서 1월에는 중국 스타트업 딥시크가 오픈AI의 '챗GPT'에 버금가는 성능의 LLM(거대 언어 모델)을 공개했으며, 알리바바가 조만간 '제2의 딥시크'를 공개할 것이라고 밝히는 등 생성형 AI 모델 개발에서 선두를 차지하기 위한 기업 간 경쟁도 치열해지고 있다. 특히 중국 기업들은 오픈소스 모델 개발을 적극적으로 추진하고 있으며, 현재 알리바바와 딥시크의 AI 모델은 전 세계적으로 가장 널리 사용되는 모델 중 하나로 자리 잡고 있다. 알리바바는 2023년 8월에 첫 오픈소스 AI 모델'큐원-7B(Qwen-7B)'를 공개했으며 이후 언어, 멀티모달, 수학, 코드 모델을 포함한 후속 버전들을 지속적으로 선보이고 있다.  미국에서는 메타(Meta)가 라마(Llama) 모델을 통해 오픈소스 AI 개발을 주도하고 있다. 오픈소스 기술은 오픈AI의 챗GPT와는 달리 직접적인 수익을 창출하지 않지만, 기술 개방을 통해 혁신을 촉진하고 제품 중심의 커뮤니티를 형성하는 등의 여러 가지 목적을 가질 수 있다. 한편, 알리바바의 주가는 올해 들어서만 66% 상승하는 등 가파른 오름세를 보이고 있다. 회사의 개선된 실적, 중국 내 주요 AI 기업으로의 입지 강화, 그리고 시진핑 중국 국가주석이 민간 기업에 대한 추가적인 지원을 시사한 점 등이 긍정적인 영향을 미친 것으로 분석된다. koinwon@newspim.com 2025-02-26 19:59
안다쇼핑
Top으로 이동