2023년 2월 1일 수요일

AI는 우리 삶을 어떻게 바꿀까?

 ChatGPT의 비상은 단기간에 수백만 명의 사용자를 끌어들였고, 일반인도 AI를 사용하고 그 놀라운 기능을 직접 목격하면서, 인공지능의 분수령이 되었다.

아직 한계가 있긴 하지만, ChatGPT는 인상적인 결과를 전달했고, 인공지능이 이미 어디까지 왔는지 사람들에게 알려주었다. 이달 초 알파벳과 마이크로소프트가 구조조정 계획을 발표하면서 자기들이 직면한 가장 큰 도전 과제 중 하나로 AI로의 전환을 꼽은 것도 우연이 아니다.

사티아 나델라 마이크로소프트 CEO는 다가오는 플랫폼 전환에 대해 언급하면서, 아마도 모바일로의 전환 이후 다음번 최고의 변화로 AI가 가능하게 해주는 서비스를 언급했다.

그렇다면 소비자들은 인공지능의 사용 증가로 인해 궁극적으로 어떤 변화를 예상하고 있으며, 향후 3~5년 내에 어떤 생활 부문이 가장 큰 영향을 받을 것으로 예상하고 있을까? 다음 차트는 그 결과를 요약해 준다.

****

Artificial Intelligence / The New York Times


지피티-3이 코딩(, 블로깅, 논쟁)법까지 배웠다!


이 최신의 자연 언어 시스템은 트윗을 하고, 시를 쓰고, 이메일 내용을 요약하고, 시시콜콜한 질문들에 답하고, 외국어를 번역하고, 심지어는 자체 컴퓨터 프로그램까지 짠다.

올 여름 오픈에이아이라고 하는 샌프란시스코 소재 인공 지능 연구소가 여러 달째 제작 중인 기술을 하나 공개했다. 지피티-3이라고 하는 그 새 시스템은 그 몇 달의 제작 기간 동안 자연 언어의 굽이굽이를 세세히 배웠다. 디지털 도서 수천 권, 위기피디아 전 항목, 그리고 블로그, 소셜 미디어, 기타 인터넷에 포스팅된 거의 1조 개의 단어를 분석했다고 한다.



맥케이 리글리는 솔트레이크시티 출신의 스물세 살 먹은 컴퓨터 프로그래머다. 이 시스템을 갖고 놀아도 좋다는 초빙을 받은 몇 안 되는 인원에 리글리도 뽑혔다. 이 시스템은 광대한 디지털 텍스트의 바다에서 스스로 배운 모든 것을 활용해, 독자적으로 새로운 언어를 창출해 낸다. 리글리는 것(thing)이 과연 유명인들을 흉내낼 수 있을지가 궁금했다. 그들처럼 쓰고, 어쩌면 나아가서 농담 따먹기까지 해낼 수 있을지가 말이다.


그의 실험 중의 하나에 대중 심리학자 스콧 배리 코프먼이 연루됐다. 시스템이 코프먼의 이름과 토론 주제 '창의성'을 받았다. 질문이 던져졌다. "우리가 더 창조적이 되려면 어떻게 해야 할까?" 지피티-3이 냉큼 대답한다.



내 생각에는 말이죠, 창의성이란, 자라면서 다양한 세계를 접하는 과정의 자연스런 부산물이라고 봐요. 접하는 세계가 더 다양하면, 여러 다른 사람과 여러 다른 기회와 여러 다른 장소와 여러 다른 과제에 더 노출되죠. 접하는 세계가 더 다양하면, 그 점들을 결합해 뭔가 새로운 것을 만들어 낼 가능성이 늘어납니다. 내 생각은 그래요, 여러 방면에서 당신이 창의적이 되고 싶다면, 뭔가를 시도해야만 합니다. 작가가 되고 싶어요? 쓰세요. 음악가가 되고 싶나요? 음악을 창조하면 됩니다. 희극인이 되고 싶어요? 희극을 만드세요. 그리고, 더 많이 창조할수록, 뭔가 흥미로운 것과 조우할 가능성도 늘어납니다.



후에 리글리가 이 문단을 트위터에 게시하자, 누군가가 진짜 스콧 배리 코프먼에게 관련 실험을 알려주고 나섰다. 코프먼은 깜짝 놀랐고, 이렇게 트윗했다. "분명 내가 할 법한 말이다." 그러고는 이렇게도 덧붙였다. "에이아이, 미쳤군."


지피티-3은 공개 후 몇 주 동안에 걸쳐 이런 실험 수십 개에 노출됐고, 사람들이 눈썹을 치켜뜨는 것도 대동소이했다. 지피티-3은 트윗을 하고, 시를 쓰고, 이메일 내용을 요약하고, 시시콜콜한 질문들에 답하고, 언어들을 번역하고, 심지어 자체 컴퓨터 프로그램까지 짠다. 이 모든 일에 사람의 유도나 지시는 거의 없다. 지피티-3의 이런 기술들에 전문가들조차 당황한 기색이 역력했다.


인공 지능 연구자 다수에게, 지피티-3은 변덕스런 인간 언어를 이해하는 기계로 가는 예기치 않은 1보 전진이었다. 그리고 이 기계가 어쩌면 인간의 다른 기술조차 뺏을지도 모르겠다.


뉴멕시코 소재의 또 다른 연구소인 산타페 연구소의 에이아이 연구자 멜라니 미첼도 지피티-3을 써보았다. "깜짝 놀랐습니다. 나만 그런 게 아니라, 많은 사람이 그럴 거예요. 이 물건이 정확히 뭘 하고 있는지 파악하기가 어렵네요."


물론 지피티-3은 무결점과는 거리가 멀다. 불량하고 편향된 말을 토해내기 일쑤다. 스콧 배리 코프먼 스타일로 열 문단 정도 요구해 보면, 설득력 있는 문단을 다섯 개 정도 얻을 수는 있다. 하지만 다른 다섯 개는 전혀 그렇지 않다. 실제로 코프먼이 그 에이아이 도플갱어와 한담을 주고받았는데, 처음만큼 그렇게 깊은 인상을 받지는 못했다.



스콧 배리 코프먼: 상상력이란 뭘까?


'스콧 배리 코프먼': 상상력이란 뭘까요? 당신이 알려줘야죠!


스콧 배리 코프먼: 네가 알아야지!


'스콧 배리 코프먼': 천만에요, 당신이 알아야죠. 당신이야말로, 상상력이 뭔지 알잖아요. 상상력이 뭐라고 생각하죠?



하지만 이 내용조차도 진짜 대화처럼 들린다. 주목할 만한 게 또 있다. 지피티-3은 별도의 코딩이나 미세 조정 없이 완전히 독자적으로 뭔가를 할 수 있다.


지피티-3은 세계를 선도하는 인공 지능 연구소들이 지난 몇 년 간에 걸쳐 해낸 연구 작업의 절정이다. 개발사 오픈에이아이는 마이크로소프트가 10억 달러를 투자한 별도의 법인이다. 구글과 페이스북의 랩들도 있는데, 구글의 비슷한 시스템이 이 회사 검색 엔진의 문의 사항들에 답하는 것을 돕는다.


이들 시스템은 보편언어 모형이라고 하는데, 광범위한 도구를 막강하게 지원할 수 있다. 가령, 뉴스 기사를 자동 요약하는 서비스라든가, 온라인 대화를 하도록 설계된 '챗봇'이 대표적이다. 지금까지는 실생활 기술에 이들 시스템이 미치는 영향이 작았다. 허나, 지피티-3이 열어젖힌 문호는 광범위한 가능성으로 이어진다. (이전 시스템들보다 훨씬 더 많은 온라인 텍스트를 바탕으로 학습했다.) 신형 스마트폰에 들어갈 앱을 더 빨리 개발할 수 있는 소프트웨어라든가, 이전 기술들보다 훨씬 더 인간답게 대화할 수 있는 챗봇을 떠올려 보라.


소프트웨어 설계자, 기업가, 전문가, 예술가 들이 이 시스템을 시현해 보는 중으로, 매번 새로운 실험이 발표될 때마다 이런 류의 기술이 종국적으로 얼마나 막강할지와 관련해 열띤 논쟁이 벌어지는 사태를 더 한층 부추기고 있다. 지피티-3이 진정으로 지능적인 기계로 나아가는 과정이라고 말하는 사람이 있는가 하면, 이들 실험이 엄청나게 매혹적이긴 하지만, 오해의 소지도 있다고 다른 사람들은 주장한다.


마크 리들은 조지아 공(학)대(학교)의 교수 겸 연구자다. "지피티-3은 아주 유창합니다. 표현이 아주 분명해요. 합리적으로 들리는 텍스트를 곧잘 생성합니다. 하지만, 지피티-3이 못 하는 게 있는데, 미리, 사전에 생각하는 거예요. 지피티-3은 무슨 말을 할지 계획을 수립하지 않습니다. 지피티-3한테는 사실 목표가 없어요."


어떤 특질이 과연 '창발'할까?


조던 싱어는 실리콘밸리에서 모바일 지불을 개발하는 스퀘어란 회사의 제품 설계자다. 그가 설계하는 스마트폰 앱은 어떤 내용으로 구성될까? 그의 설계에 따라, 그래픽, 메뉴, 단추, 기타 위젯들이 만들어지고, 앱의 외모와 느낌이 빚어진다. 그는 지피티-3 소식을 접하면서, 그 자동 시스템이 과연 자기의 설계 일도 해낼 수 있을지 궁금했다.


그가 지피티-3에게 스마트폰 앱이 뭔지 간단하게 설명을 해줬다. 그리고, 앱을 만드는 데 필요한 컴퓨터 코드도 입력했다. 설명 내용은 평이한 영어였고, 코드는 피그마 안에 짰다. 피그마는 싱어 같은 전문가들이 사용하는 설계 툴이다.


그가 이 일을 반복해서 몇 차례 수행했다. 그러니까, 지피티-3 시스템에 상응하는 피그마 코드와 함께 영어로 된 설명을 수 차례 입력했단 말이다. 그가 입력을 마무리하자, 지피티-3이 혼자 힘으로 그런 코드를 짜냈다.


인스타그램처럼 사진을 포스팅하고 볼 수 있는 간단한 앱을 그가 설명하자, 지피티-3이 그 앱을 만드는 데 필요한 코드를 짰다. 물론 그 코드는 결함도 있었다. 하지만 늘 그렇듯이, 싱어가 한두 가지 수정을 가하자, 앱이 그가 원하는 대로 작동했다. "절대적으로 완벽한 것은 아니에요. 하지만, 상당히 근접했습니다."


지피티-3의 이런 거동은 완전히 새로운 것이다. 심지어 지피티-3을 설계한 사람들도 여기에 깜짝 놀랐을 정도이니. 그들은 지피티-3이 컴퓨터 코드를 생성하도록 제작하지 않았던 거다. 이것은, 문제의 시스템이 코프먼처럼 쓰고, 트윗을 하고, 언어들을 번역하도록 지어지지 않은 것과 독같다. 시스템 제작자들은 지피티-3이 딱 한 가지만 하도록 만들었을 뿐이다. 단어열에서 다음 단어를 예측하라.


지피티-3은 인공 지능 연구자들이 말하는 소위 신경망이다. 지피티-3 신경망은 뇌 속의 뉴런 그물을 느슨하게 모형화한 수학적 체계이다. 페이스북에 사진을 올릴 텐데, 이것은 사진 속에서 얼굴을 알아내는 것과 같은 기술이다. 당신이 아이폰에다 대고 하는 명령을 인식하는 것과도 같은 기술이다.


신경망이 이런 기술을 어떻게 배울까? 엄청난 양의 디지털 데이터에서 패턴을 찾아냄으로써 그렇게 한다. 가령 신경망은 고양이 사진 수천 장을 분석해서 고양이를 인식하는 법을 배운다.


약 3년 전에 오픈에이아이 같은 최고 랩들과 구글의 연구자들이, 엄청난 양의 산문을 바탕으로 학습을 하는 신경망 설계를 개시했다. 미간행 도서와 수천수만 명이 작성한 위키피디아의 기사도 여기 포함됐다. 이 보편 언어 모형들은 번역 같은 한 가지 과제뿐만 아니라, 여러 가지 복수의 과제에도 적용 채택할 수 있었다.


지피티-3이 전대미문의 규모로 디지털 산문을 분석했다. 인터넷에 올라온 엄청난 양의 텍스트에서 수개월 동안 패턴, 곧 양상을 찾아낸 것이다. 지피티-3은 이런 식으로 시퀀스, 곧 순서 배열에서 다음 단어를 예측해 내는 법을 학습했다. 당신이 지피티-3에 두세 단어를 타이핑해 넣으면, 것이 기동해서는 당신의 생각을 완전한 단락으로 완성해 준다.


그런데, 놈이 이 특별한 기술을 습득하는 과정에서 훨씬 더 많은 것을 배워냈다. 지피티-3은 수개월 동안 훈련을 받으면서, 파라미터(패러미터)라고 하는 매개 변수를 무려 1750억 개 이상 알아냈다. 여기서 패러미터란, 앞에서 말한 패턴, 곧 양상의 수학적 대체물이다. 이 패턴들이 인간 언어의 지도에 해당한다. 무슨 말인가? 우리가 블로그를 하든, 소프트웨어 프로그램을 짜든, 아무튼지간에 결국은 글자들을 조립하는데, 그 방법이 수학적으로 기술되었다는 얘기이다. 지피티-3은 이 지도를 바탕으로, 애초에 하도록 설정되지 않은 온갖 과제를 수행해 낸다.


지피티-3한테 텍스트를 산출해 내도록 요구하기 전에, (것에게) 훈련 중 배웠을 수 있는 특정한 양상(패턴)들에 집중토록 할 수도 있다. 시스템으로 하여금 특정한 과제를 도모하도록 도폭할 수 있는 거다. 아까처럼, 스마트폰 앱에 대한 설명과 상응하는 피그마 코드를 입력할 수도 있고, 많은 양의 인간 대화를 보여줄 수도 있다. 그러고 나서 타이핑 입력을 개시하면, 것이 더 구체적으로 차례 배열을 완료한다. 가령 것이 대화로 도폭 유인되면, 당신과 담소를 나누는 식이다.


댓글 없음:

댓글 쓰기