최신 버전의 ChatGPT는 미국 의료 면허 시험을 무난히 통과했으며, 10만 분의 1의 확률로 질환을 단 몇 초 만에 진단했습니다.
OpenAI CEO Sam Altman. OpenAI developed ChatGPT, and its most refined network yet, GPT-4.의사이자 하버드 컴퓨터 과학자인 한 의사는 GPT-4가 "많은 의사들"보다 임상적 판단력이 더 뛰어나다고 말합니다.
그는 챗봇( chatbots)이 "저처럼" 희귀 질환을 진단할 수 있다고 말합니다.
하지만 GPT-4도 실수를 할 수 있으며, 히포크라테스 선서(Hippocratic oath)를 하지 않았습니다.
하버드의 컴퓨터 과학자이자 의사인 아이작 코헤인(Dr. Isaac Kohane) 박사는 두 명의 동료와 팀을 이루어 OpenAI의 최신 인공지능 모델이 의료 환경에서 어떤 성능을 발휘하는지 확인하기 위해 GPT-4를 테스트했습니다.
"그는 독립 저널리스트인 캐리 골드버그와 Microsoft 연구 부사장인 피터 리가 공동 집필한 곧 출간될 책 '의학의 AI 혁명'에서 "제가 관찰한 많은 의사들보다 더 뛰어났다는 사실에 놀랐습니다."라고 말합니다. (저자들은 Microsoft와 OpenAI 모두 이 책에 대한 편집 감독을 요구하지 않았다고 말하지만, Microsoft는 OpenAI의 기술 개발에 수십억 달러를 투자했습니다.)
2023년 3월 유료 구독자를 대상으로 출시된 GPT-4는 미국 의사 면허 시험 문제를 90% 이상 정답을 맞힌다고 이 책에서 밝히고 있습니다. 이전 ChatGPT AI 모델인 GPT-3 및 -3.5보다 훨씬 더 나은 시험 응시자이며, 일부 면허를 가진 의사들보다 더 나은 시험 응시자라고 합니다.
하지만 GPT-4는 훌륭한 시험 응시자이자 사실 확인자만이 아닙니다. 훌륭한 번역가이기도 합니다. 이 책에서는 포르투갈어를 사용하는 환자를 위해 퇴원 정보를 번역하고, 어려운 전문 용어를 초등학교 6학년이 쉽게 읽을 수 있는 문장으로 변환할 수 있습니다.
저자가 생생한 예시를 들어 설명하듯이 GPT-4는 의사에게 병상 매너에 대한 유용한 제안을 할 수도 있고, 환자에게 자상하고 명확한 언어로 환자의 상태에 대해 이야기하는 방법에 대한 팁을 제공하며, 긴 보고서나 연구를 읽고 눈 깜짝할 사이에 요약할 수 있습니다. 심지어 인간과 비슷한 수준의 지능이 필요한 문제를 통해 추론을 설명할 수도 있습니다.
하지만 GPT-4에게 이 모든 것이 어떻게 가능한지 물어본다면, 이 모든 지능은 여전히 "데이터의 패턴에 국한되어 있으며 진정한 이해나 의도는 포함되지 않는다"고 답할 가능성이 높습니다. 이 책의 저자들이 실제로 인과적 추론에 참여할 수 있는지 물었을 때 GPT-4는 이렇게 답했습니다. 이러한 한계에도 불구하고 코헤인( Kohane )이 이 책에서 발견한 것처럼 GPT-4는 의사들이 불완전하지만 놀라울 정도로 성공적으로 질환을 진단하는 방법을 모방할 수 있습니다.
**GPT-4가 의사처럼 진단하는 방법**
Isaac Kohane is a doctor and computer scientist focused on the intersection of medicine and AI.코헤인은 이 책에서 몇 년 전에 치료했던 신생아를 대상으로 한 실제 사례를 바탕으로 GPT-4와 함께 임상 사고 실험을 진행합니다. 신체 검사를 통해 수집한 아기에 대한 몇 가지 주요 세부 정보와 초음파 및 호르몬 수치 정보를 봇에 제공한 결과, 봇은 "수년간의 연구와 경험을 바탕으로 저처럼 선천성 부신 과형성이라는 질환을 10만 분의 1의 확률로 정확하게 진단할 수 있었습니다."라고 Kohane은 썼습니다.
의사는 감동과 공포를 동시에 느꼈습니다.
그는 "한편으로는 컴퓨터 프로세스를 통해 정교한 의학적 대화를 나누고 있었다"며 "다른 한편으로는 수백만 명의 가족이 곧 이 놀라운 의학적 전문 지식에 접근할 수 있게 될 것이라는 불안한 현실과 함께 GPT-4의 조언이 안전하거나 효과적이라는 것을 어떻게 보장하거나 인증할 수 있을지 알 수 없었다"고 썼습니다.
**GPT-4가 항상 옳은 것은 아니며 윤리적 나침반도 없습니다.**
GPT-4는 항상 신뢰할 수 있는 것은 아니며, 이 책에는 실수의 예가 가득합니다. 방금 전에 정확하게 계산한 BMI를 잘못 입력하는 등의 단순한 사무적 오류부터 스도쿠 퍼즐을 잘못 '풀거나' 방정식의 한 항을 제곱하는 것을 잊어버리는 등의 수학 실수까지 다양합니다. 이러한 실수는 종종 미묘한 경우가 많으며, 시스템이 이의를 제기해도 자신이 옳다고 주장하는 경향이 있습니다. 잘못 배치된 숫자나 잘못 계산된 무게가 어떻게 처방이나 진단에 심각한 오류를 초래할 수 있는지 상상하는 것은 무리가 아닙니다.
이전의 GPT와 마찬가지로 GPT-4도 "환각"을 일으킬 수 있는데, 이는 AI가 답을 지어내거나 요청에 불응하는 경우를 기술적으로 완곡하게 표현한 것입니다.
이 책의 저자가 이 문제에 대해 질문했을 때 GPT-4는 "누군가를 속이거나 오도할 의도는 없지만, 불완전하거나 부정확한 데이터를 기반으로 실수나 가정을 할 때가 있습니다. 또한 인간 의사나 간호사의 임상적 판단이나 윤리적 책임을 가지고 있지 않습니다."라고 말합니다.
저자가 이 책에서 제안하는 한 가지 잠재적인 교차 점검 방법은 GPT-4로 새 세션을 시작하여 "새로운 눈"으로 자신의 작업을 "다시 읽고" "확인"하도록 하는 것입니다. 이 전략은 때때로 실수를 발견하는 데 효과적이지만, GPT-4는 잘못을 인정하는 데 다소 과묵합니다. 또 다른 오류를 발견하는 방법은 봇(bot)에게 작업을 보여주도록 명령하여 사람이 직접 확인할 수 있도록 하는 것입니다.
저자들은 GPT-4가 클리닉에서 귀중한 시간과 리소스를 확보하여 임상의가 "컴퓨터 화면 대신 환자에게 더 집중할 수 있도록" 할 수 있는 잠재력이 있는 것은 분명하다고 말합니다. 하지만 저자들은 "우리는 점점 더 똑똑해지는 기계가 있는 세상을 상상해야 하며, 결국에는 거의 모든 면에서 인간의 지능을 능가할 것입니다. 그리고 그 세상이 어떻게 작동하기를 원하는지 아주 열심히 생각해야 합니다."
댓글 없음:
댓글 쓰기