요즘 AI 신의 가장 뜨거운 주제 중 하나가 AGI(Artificial General Intelligence)라고 한다. AGI에 대한 정의가 여러 기관마다 다르다. 예를 들어 오픈 AI는 "가장 경제적으로 가치 있는 작업에서 인간을 능가하는 고도로 자율적인 시스템"으로 정의한다. 또 뉴욕 대학교의 게리 마커스 교수는 "유연하고 일반적이며, 인간 지능에 필적하는(또는 그 이상의) 수완과 신뢰성을 갖춘 모든 지능"으로 정의한다. 영화 "아이, 로봇"에서 등장하는 VIKI(Virtual Interactive Kinetic Intelligence)나 "아이언맨"에 등장하는 JARVIS(Just A Rather Very Intelligent System)처럼 ChatGPT, Gemini를 넘는 범용적인 AI가 AGI지 아닐까 싶다.
이 책은 AGI의 정의부터 시작해서 연구자, 기업, 국가 등 여러 이해관계자들이 AGI에 대해서 어떤 생각을 가지고 무슨 일을 하고 있는지 등 AGI의 전체적인 현황을 다룬다. 몇 가지 기억에 남는 내용을 정리해 보면....
AGI 파멸론자, 효과적 가속주의자, 효과적 이타주의자
AGI가 인류 생존에 위협적인 존재가 될 것인가에 대한 세 가지 관점에 대한 이야기다.
- 파멸론자: AI 위협이 명확하고 예상보다 그 시기가 빠르게 올 것이기 때문에 개발 속도를 늦추고 중단해야 한다.
- 효과적 가속주의자: AI 위협은 단순한 걱정이고 인류의 번영을 위해 더 적극적으로 개발해야 한다.
- 효과적 이타주의자: 위협이 있을 수 있지만 이를 적극적으로 대응하고 극복해서 장점을 취해 유용하게 사용해야 한다.
얼라인먼트
인간의 가치에 일치하는 판단을 하도록 AI 시스템을 어떻게 만들 것인가에 대한 이야기다.
- AI가 인간의 의도를 이해하고 목적을 달성하게 하는 것이 가능할까?
- 종이 클립 재앙 - AI에게 "종이 클립 생산을 최대화해 줘"라는 명령을 주면 세상의 모든 자원을 효율적인 종이 클립 생산을 위해 사용하고 방해되는 모든 것을 제거하려 한다.
- AI 키케로 - 인간은 AI가 하는 속임수를 감지할 수 있을까?, 인간을 속이는 AI를 과연 믿을 수 있을까?
- 트롤리 문제 - AI는 학습된 데이터를 바탕으로 모델마다 다른 도덕관념을 가지고 있다. 인간 통념에 맞는 도덕관념을 어떤 기준으로 정의하고 이를 적용하는 것이 가능할까?
규제, 감시 집단과 정책적 대응
다가올 AGI 시대를 위해 다양한 목적과 관점 아래에서 여러 가지 법과 표준을 정의하는 집단에 대한 이야기다.
- G7 히로시마 AI 프로세스 - 국제 거버넌스가 AI 기술의 성장 속도에 따라가지 못하고 있다.
- EU - 세계 최초로 AI에 관련된 법을 제정했고 4단계로 위험 범주를 정의했다.
- 영국 AI안전연구소 - 블래츨리 정상회의 이후 공익을 위한 AI 기술에 초점을 맞춰 AI 국제 거버넌스 및 규제를 다루기 위해 설립했다.
저자는 미디어에서 혼란스럽게 떠도는 AGI 이야기를 명확하게 이해하는 것을 돕기 위해 작성했다고 한다. 그리고 이 책은 그 의도를 충분히 달성하는 책이라고 생각한다. ChatGPT에게 "AGI의 역사와 현황에 대해서 책 한 권 정도 분량으로 정리해 줘"라고 하면 이 책이 나오지 않을까 싶을 정도로 전문가, 비전문가 모두에게 유익한 정보를 잘 녹여냈다고 생각한다. AI 문외한인 나도 책을 다 읽고 나니 언젠가 다가올 AGI의 시대와 그 시대를 사는 개인의 역할, 그리고 무엇을 준비해야 할까에 대해서 생각해 볼 기회가 되었다.
한빛미디어 서평단 <나는리뷰어다> 활동을 위해서 책을 제공받아 작성된 서평입니다.