구글, 차세대 AI '패스웨이' 진화한 PaLM 공개
딥 러닝 아닌 퓨삿 러닝으로 응용·추론 가능
AI 편향된 사고 등 윤리적 이슈가 과제
[편집자주] '여기는 실밸'은 돈과 인재가 몰리는 실리콘밸리의 벤처투자자(VC)들이 주목하고 있는 유망한 기업들을 소개합니다. 향후 기업공개(IPO) 가능성이 있는 유망한 기업이나 유니콘 기업들을 브리핑 해드립니다. '여기는 실밸'에서 실리콘밸리의 최신 산업 트렌드 및 기업 정보들을 확인할 수 있습니다.
[실리콘밸리=뉴스핌]김나래 특파원="헤이 구글, '비관론자에게 돈을 빌려라. 그들은 기대하지 않을 것' 이라는 문장이 왜 웃긴지 설명해줘"
구글 인공지능(AI)가 이제 사람의 농담까지 이해해 웃긴 이유까지 설명이 가능해졌다. 위의 질문에 구글 AI는 "대부분 사람들은 돈을 빌려줄 때 상대방이 돈을 갚을 것으로 기대하지만, 비관주의자는 항상 최악의 상황을 가정하는 사람이므로 돈을 빌린다면 어쨌든 갚지 않을 것으로 기대할 것으로 생각하기 때문이다"라고 답할 것이다.
이외에도 굉장히 전문적이고 이해하기 어려운 농담도 구글AI는 해석할 수 있다. 예컨대, "구글 TPU팀에서 고래를 고용한 거 봤어? 커뮤니케이션을 잘하던데"라는 농담은 일반인이 들어서는 알아 듣기 어렵다.
[뉴스핌=김나래 기자] 구글 리서치에서 설명한 유머 글을 해석하는 작동 방식. [사진=구글 블로그] 2022.04.29 ticktock0326@newspim.com |
이는 TPU칩의 팟(pod)을 고래에 비유한 것으로 TPU는 구글이 딥 러닝에 사용하는 일종의 컴퓨터 칩을 말한다. 구글 AI는 팟의 사전적인 의미가 고래와 같은 동물들의 무리를 말하기 때문에 이를 이용한 유머라는 것을 분석해준다. 즉, "구글 TPU팀에서 고래를 고용해서 통신을 시키는거야?"라는 해석을 확장해 설명해 줄 수 있다.
구글 리서치는 최근 새로운 AI 언어 모델 'PaLM(Pathways Language Model)'을 공개하고 AI가 이를 인식하는 방식들을 소개했다. PaLM은 작년 10월 구글이 차세대 AI 아키텍처로 소개한 '패스웨이(Pathways)'를 적용했으며, 패스웨이는 단일 모델을 학습시키는 데 특화된 시스템을 말한다.
제프 딘 구글 리서치의 수석 부사장은 지난 10월 패스웨이에 대해 "개발자가 한 가지만이 아닌 수천 또는 수백만 가지를 수행하도록 단일 모델을 훈련할 수 있는 차세대 AI 아키텍처"라고 소개했다.
실제로 패스웨이를 통해 항공 사진으로 어떤 지역의 지형을 파악하게 되면, 이 데이터는 해당 지역에 홍수가 발생했을 때 물이 어떻게 흐를지 예측하는 데에도 사용될 수 있다.
딘 부사장은 "이 기술로 많은 개별 작업을 처리할 수 있을 뿐만 아니라 기존 기술을 활용하고 결합해 새로운 작업을 더 빠르고 효과적으로 학습할 수 있는 하나의 모델을 훈련하고 싶다"며 "이렇게 하면 모델이 한 작업에 대한 교육을 통해 학습한 내용을 예측하는 지까지 배울 수 있다"고 설명했다.
그가 설명한 것처럼 기존 AI 모델은 딥 러닝을 통해 학습하며, 학습한 내용 하나마다 한 가지 문제나 예시를 해결할 수 있다. 따라서 딥 러닝으로 학습한 모델을 제대로 활용하려면 수백만 개의 예제를 학습시켜야 했다.
하지만 패스웨이는 딥러닝보다 한단계 나아간 '퓨삿 러닝'으로 단일 모델을 학습시켜도 이를 다른 작업이나 문제를 해결할 때 활용할 수 있다. 다시 말해 기존의 딥 러닝은 새로운 작업이 필요한 경우 다시 학습을 해야 적용할 수 있지만 이번 구글의 퓨삿 러닝은 기존 학습 내용을 응용하고 추론이 가능하다.
구글 TPU의 모습. [사진=구글] 2022.04.29 ticktock0326@newspim.com |
이에 PaLM은 패스웨이를 보다 구체적인 형태로 구현해 노력의 결실을 맺었다는 평가를 받고 있다. PaLM은 패스웨이로 훈련된 5400억 개의 매개변수가 포함됐으며, 이를 통해 수백 가지의 언어를 이해하고 생성할 수 있으며 지금까지 개발된 다른 언어 모델보다 학습 효율이 높다는 것이 장점이다.
구글도 "PaLM은 현재까지 교육에 사용된 가장 큰 TPU 기반 시스템 구성으로 교육을 확장하기 위해 패스웨이 시스템을 처음으로 대규모로 사용하는 것을 보여줬다"면서 "여러 클라우드 TPU v4 팟에서 수행된 해당 교육은 6144개의 칩으로 확장됐다"고 평가했다.
이번 구글이 발표한 자료에 따르면 영어와 다국어 데이터 세트의 조합을 사용해 훈련된 PaLM은 29개 작업 가운데 28개가 다른 기존 언어모델(머스크의 오픈 AI인 GPT-3, AWS가 제공하는 서버리스 기술인 람다) 보다 성능면에서 앞섰다. 질의응답과 문장 완성, 문맥 이해, 상식 추론 등 처리 작업 성능이 월등했다.
구글 리서치는 "PaLM은 원인과 결과를 구별하고 적절한 맥락에서 개념적 조합을 이해하고 있다"며 "영어가 아닌 언어, 코딩 및 산술 작업에 능숙함을 보여줬다"고 발표했다.
업계에서는 올해 더 많은 산업과 사용 사례에 서비스를 제공하기 위해 사용되는 대규모 언어모델(LLM)의 가속화된 성장이 이어질 것으로 보고 있다. 방대한 양의 산업별 데이터에 대해 교육을 받은 LLM은 전문 훈련과 감독이 없어도 심층 도메인 질문에 답할 수 있다. 또 언어를 번역하며 문서를 이해·요약하고, 스토리를 작성하고 프로그램을 계산이 가능하다.
하지만 본격적인 PaLM 상용화를 위해 해결해야 할 문제가 있다. AI가 온라인으로 학습하는 이상 잘못된 정보나 차별·혐오 등이 반영될 가능성이 있어 편향된 사고 오류를 줄이는 것이 관건이다.
실제로 구글에서는 AI의 편향성 문제가 이슈가 된 적이 있다. AI 윤리 확립에 앞장서고 있는 팀닛 게브루 박사는 이같은 대규모 언어 모델에 대한 윤리적 문제를 지적하며 인종 차별적 비방을 무심코 받아들이는 것부터 무슬림을 폭력과 연관시키는 등 편향된 사고에 대해 지적했다. 이 같은 대형 모델들의 편향성이 있으면 소외된 사람에게 더 타격이 클 수 있다는 위험성이 있기 때문이다.
그는 구글 AI윤리팀을 신설하고 2020년 12월까지 근무했지만 이후 연구소를 운영하고 있다. 그는 당시 대규모 언어모델의 단점을 논문을 통해 지적한 바 있다.
이에 구글 리서치 연구원들도 윤리적으로 위험한 부분에 대해 과제로 언급했다. 구글 리서치는 향후 언어 모델의 악의적인 사용에 대한 가이던스와 확장 가능한 솔루션 개발과 함께 지속적인 연구주제로 보완해 나간다는 방침이다.
ticktock0326@newspim.com