한 AI 안전 전문가는 무기화부터 권력 추구 행위까지 다양한 추측성 최후의 날 시나리오를 설명했습니다.
헨드릭스는 이러한 위험은 "미래 지향적"이고 "종종 낮은 확률로 여겨지는" 위험이지만, AI 시스템의 프레임워크가 아직 설계되는 과정에서 안전을 염두에 두어야 할 필요성을 강조하는 것일 뿐이라고 말합니다."매우 불확실합니다. 하지만 불확실하기 때문에 더 멀리 있다고 가정해서는 안 됩니다."라고 그는 인사이더에 보낸 이메일에서 말했습니다. "우리는 이미 이러한 시스템에서 소규모 문제를 발견하고 있습니다. 우리 기관은 이러한 문제를 해결하여 더 큰 위험이 나타날 때 대비할 수 있도록 해야 합니다.""서두르면서 안전하게 무언가를 할 수는 없습니다."라고 그는 덧붙였습니다. "그들은 점점 더 강력한 AI를 구축하고 안전에 대한 노력을 기울이고 있습니다." 안전 문제를 해결하는 방법을 찾기 위해 멈추면 경쟁자들이 앞서 나갈 수 있기 때문에 그들은 멈추지 않습니다."최근 엘론 머스크와 다른 여러 AI 안전 전문가들이 서명한 공개 서한에서도 비슷한 의견이 표명되었습니다. 이 서한은 GPT-4보다 더 강력한 AI 모델 훈련을 중단할 것을 촉구하고, 가장 강력한 버전의 기술을 개발하기 위한 AI 기업 간의 현재 군비 경쟁의 위험성을 강조합니다.**더버지(The Verge)에 따르면, 오픈AI의 CEO 샘 알트먼은 MIT에서 열린 한 행사에서 이 서한에 대해 기술적 뉘앙스가 빠져 있으며, 회사는 GPT-5를 훈련시키는 과정에 있지 않다고 말했다.
댓글 없음:
댓글 쓰기