2023년 6월 18일 일요일

인공지능에 대한 가장 큰 3가지 두려움입니다. 정말 그럴까요?

 

Artificial general intelligence, or AGI, is closer than we think, according to some experts.

최근 몇 달 동안 첨단 AI의 잠재적 위험성에 대한 경고가 증가하고 있습니다.

이러한 경고 중 일부는 모호하고 전문가들 사이에서도 주요 위험이 정확히 무엇인지에 대해 의견이 분분합니다.

다음은 고급 AI의 잠재적 위협과 그 위험에 대해 생각하는 방법입니다.

AI는 핵전쟁이나 세계적 대유행병만큼이나 위험합니다.

이는 AI 안전 센터(CAIS)가 최근 발표한 경고에 따른 것입니다. 이 성명은 ChatGPT 개발사 OpenAI의 대표인 샘 알트먼을 비롯한 AI 업계의 주요 인사들의 지지를 받고 있습니다. 

이 경고는 최근 몇 달 동안 발령된 여러 경고 중 하나입니다. 인공지능의 초기 개발자들 중 일부는 인공지능이 인류의 멸망을 향해 달려가고 있다고 주장하고 있으며, 다른 이들은 규제가 절실히 필요하다고 경고하고 있습니다.

이러한 주장 중 일부는 점점 더 과장된 주장을 이해하기 위해 고군분투하는 사람들을 남겼습니다.

AI 전문가이자 케임브리지 대학의 조교수인 데이비드 크루거는 사람들이 AI의 실존적 위험에 대해 구체적인 시나리오를 원할 수 있지만, 어느 정도의 확신을 가지고 이를 지적하기는 여전히 어렵다고 말했습니다.

"위협이 무엇인지 정확히 알 수 있다는 의미에서 임박한 위협이 있기 때문에 걱정하지 않습니다. 하지만 앞으로 다가올 잠재적 위협에 대비할 시간이 많지 않다고 생각합니다."라고 그는 Insider에 말했습니다.

이를 염두에 두고 전문가들이 우려하고 있는 몇 가지 잠재적 문제를 소개합니다.

1. **인공지능에 의한 일자리 탈취**

가장 일반적으로 언급되는 위험 중 하나는 AI가 개발자의 통제에서 벗어나는 것입니다.

인공 일반 지능(AGI)은 광범위한 작업에서 인간만큼 똑똑하거나 인간보다 더 똑똑한 AI를 말합니다. 현재의 AI 시스템은 지각은 없지만 인간과 비슷하게 만들어졌습니다. 예를 들어 ChatGPT는 사용자가 다른 사람과 채팅하는 것처럼 느낄 수 있도록 만들어졌다고 앨런 튜링 연구소의 제니스 웡은 말했습니다.

전문가들은 AGI를 정확히 정의하는 방법에 대해 의견이 분분하지만, 이 잠재적인 기술이 인류에게 위험을 초래할 수 있으므로 연구와 규제가 필요하다는 데는 대체로 동의하고 있다고 인사이더의 아론 목(Aaron Mok)이 보도했습니다.

크루거는 이러한 위험의 가장 명백한 예로 국가 간의 군사적 경쟁을 들었습니다.

"설계상 물리적 세계에 영향을 미치고 해를 끼칠 수 있는 자율 무기를 이용한 군사 경쟁은 이러한 시스템이 어떻게 많은 사람을 죽일 수 있는지 더 분명해 보입니다."라고 그는 말했습니다. 

"사람보다 더 똑똑한 첨단 시스템을 갖춘 미래에 AI로 구동되는 전면전 시나리오는 시스템이 통제 불능 상태가 되어 결과적으로 모든 사람이 죽게 될 가능성이 매우 높다고 생각합니다."라고 그는 덧붙였습니다.

2. **대량 실업을 유발하는 AI**

AI가 일부 일자리를 위협한다는 공감대가 확산되고 있습니다.

몬트리올 AI 윤리 연구소의 설립자인 아비셰크 굽타는 AI로 인한 일자리 상실 전망이 가장 "현실적이고 즉각적이며 아마도 긴급한" 실존적 위협이라고 말했습니다.

"우리는 사람들이 일자리를 한꺼번에 잃게 될 때 느낄 목적의 부재를 살펴볼 필요가 있습니다."라고 그는 Insider에 말했습니다. "실존적인 부분은 사람들이 무엇을 할 것이며 어디에서 목적을 얻을 것인가 하는 것입니다."

"일이 전부는 아니지만 우리 삶의 상당 부분을 차지하는 것은 사실입니다."라고 그는 덧붙였습니다.

CEO들은 AI 활용 계획에 대해 솔직하게 밝히기 시작했습니다. 예를 들어, IBM의 CEO 아빈드 크리슈나는 최근 AI로 대체할 수 있는 직무에 대한 채용을 늦추겠다고 발표했습니다. 

굽타는 IBM에 대해 "4~5년 전만 해도 아무도 그런 말을 진지하게 받아들이지 않았을 것"이라고 말했습니다.

3. **AI 편향성**

AI 시스템이 보다 광범위한 사회적 의사결정을 내리는 데 사용될 경우, 체계적인 편향성이 심각한 위험이 될 수 있다고 전문가들은 Insider에 말했습니다.

ChatGPT의 초기 버전을 포함하여 생성형 AI 시스템에서 편향성을 보인 사례는 이미 여러 차례 있었습니다. 여기에서 챗봇의 충격적인 답변 중 일부를 읽어보실 수 있습니다. OpenAI는 ChatGPT가 시스템에 불쾌한 콘텐츠를 요청하는 사용자의 문제가 있는 답변을 회피할 수 있도록 더 많은 가드레일을 추가했습니다.

올해 초 Insider에서 실시한 테스트에 따르면 생성형 AI 이미지 모델은 유해한 고정관념을 생성할 수 있습니다. 

복지 혜택 승인과 같은 실제 의사 결정에 사용되는 AI 시스템에서 감지되지 않은 편견이 발견된다면 심각한 결과를 초래할 수 있다고 굽타는 말합니다.

웡에 따르면 학습 데이터는 주로 영어 데이터를 기반으로 하는 경우가 많으며, 다른 언어로 다른 AI 모델을 학습하기 위한 자금은 제한되어 있습니다.

"따라서 배제되는 사람들이 많거나 특정 언어가 다른 언어만큼 잘 훈련되지 않을 것입니다."라고 그녀는 말했습니다.


댓글 없음:

댓글 쓰기