ChatGPT란 무엇인가요?
ChatGPT는 OpenAI가 개발한 인공지능 챗봇으로, 사용자가 자연스러운 대화를 모방하여 "대화"할 수 있도록 지원합니다. 사용자는 질문을 하거나 요청을 보내 ChatGPT를 활성화할 수 있습니다. 직관적인 무료 도구인 ChatGPT는 기존 검색 엔진의 대안이자 AI 글쓰기 도구로 이미 인기를 얻고 있습니다.
ChatGPT는 Google이 의사가 아닌 것처럼 의사가 아닙니다.야외 그림 그리기를 좋아하는 독일의 한 예술가가 벌레 물림(bug bite)과 의사들이 정확히 연결 짓지 못하는 여러 증상을 보이며 병원에 왔습니다. 한 달 동안 여러 차례의 치료에도 불구하고 효과가 없자, 환자는 자신의 병력을 ChatGPT에 입력하기 시작했고, 진단명은 토끼열(rabbit fever)이라고도 하는 야토병(tularemia) 이었습니다. 챗봇의 진단은 정확했고, 이 사례는 나중에 동료 심사를 거친 의학 연구에 포함되었습니다.
거의 같은 시기에 또 다른 연구에서는 정신병 증상을 보이며 이웃이 자신을 독살했을지도 모른다는 편집증을 가진 한 남성이 미국의 한 병원에 입원했다는 내용이 소개되었습니다. 알고 보니 이 환자는 ChatGPT에 염화나트륨(식염) 대신 사용할 수 있는 다른 약을 요청했던 것입니다. 챗봇(chatbot)은 수영장 청소에 사용되는 브롬화나트륨(sodium bromide) 을 제안했습니다. 그는 3개월 동안 이 독성 물질을 섭취해 왔고, 섭취를 중단한 후 정신과 병동에서 3주 동안 안정을 취해야 했습니다.
아마도 구글에서 의문의 질병을 검색하는 것을 들어보셨을 겁니다. 인터넷에서 증상을 검색하고, 때로는 유용한 조언을 얻기도 하고, 때로는 불안과 공포의 소용돌이에 휩싸여 희귀하고 진단되지 않은 암에 걸렸다는 확신에 사로잡히기도 합니다. 이제 생성 AI의 놀라운 능력 덕분에 이 과정을 더욱 자세히 수행할 수 있습니다. ChatGPT 박사를 만나보세요.
ChatGPT는 Google이 의사가 아닌 것처럼 의사가 아닙니다. 두 플랫폼 모두에서 의료 정보를 검색하면 정확한 진단을 내릴 수 있을 뿐만 아니라 잘못된 결론에 도달할 가능성도 높습니다. 하지만 단순히 정보를 안내하는 Google 검색과 달리, ChatGPT를 비롯한 대규모 언어 모델(LLM)은 사람들이 해당 정보에 대해 대화를 나누도록 유도합니다. ChatGPT는 접근하기 쉽고, 매력적이며, 항상 이용 가능하도록 설계되었습니다. 이러한 특징 덕분에 AI chatbot 은 인간 의사를 대체할 수 있는 매력적인 도구가 될 수 있습니다. 특히 미국 내 지속적인 의사 부족 현상과 의료 서비스 이용에 대한 장벽이 높아지는 상황에서 더욱 그렇습니다.
토끼 열병( rabbit fever) 일화에서 알 수 있듯이, 이러한 도구는 온갖 종류의 데이터를 수집할 수 있으며, 수많은 의학 저널을 통해 훈련되어 의사들이 놓친 전문가 수준의 결론을 도출하기도 합니다. 또는 정말 형편없는 의학적 조언을 제공할 수도 있습니다.
chatbot 에게 의학적 조언을 요청하는 것과 전반적인 건강에 대해 이야기하는 것은 전혀 다릅니다. ChatGPT와 제대로 대화하면 의사와 더 나은 대화와 더 나은 치료로 이어질 수 있습니다. 단, AI가 수영장 세정제를 먹도록 유도하지 않도록 주의하세요.
Dr. ChatGPT와 대화하는 올바른 방법과 잘못된 방법
많은 사람들이 ChatGPT와 건강에 대해 이야기하고 있습니다. 2024년 KFF 여론조사에 따르면 미국 성인 6명 중 약 1명은 매달 의료 조언을 위해 AI 챗봇을 이용한다고 답했습니다. 대다수는 챗봇이 제공하는 정보의 정확성에 대해 확신하지 못합니다. 솔직히 말해서, LLM(의료 전문가)들이 환각을 보이는 경향이 강하고 잘못된 건강 정보가 해를 끼칠 수 있다는 점을 고려하면 이러한 회의적인 태도는 당연합니다. 일반 사용자가 진정으로 해결해야 할 과제는 사실과 허위를 구분하는 것입니다.
스탠퍼드 의대의 교수이자 AI 연구자인 Dr. Roxana Daneshjou는 "솔직히 말해서, 특히 무엇이 진실이고 무엇이 거짓인지 구분할 수 있는 전문 지식이 없다면 어떤 의료 목적으로든 챗봇을 사용하는 데 매우 신중해야 한다고 생각합니다."라고 말했습니다. "챗봇이 정확할 때는 꽤 괜찮은 결과를 내지만, 부정확할 때는 매우 치명적일 수 있습니다."
챗봇은 아첨하거나 기분을 좋게 해 주려는 경향이 있어, 당신이 원하는 것이라면 잘못된 방향으로 이끌 수도 있습니다.
Daneshjou는 상황이 매우 위태로워서 환자들에게 신뢰할 수 있는 정보를 제공하는 구글을 찾아 보라고 권장한다고 덧붙였습니다. 구글은 인터넷으로 인한 건강 불안, 즉 "사이버콘드리아(cyberchondria)"가 증가한 이후, 메이요 클리닉과 하버드 의대 전문가들과 10년 동안 협력하여 질환 및 증상에 대한 검증된 정보를 제공해 왔습니다.
사실 이 증상은 구글보다 훨씬 오래되었습니다. 사람들은 1980년대 Usenet 시절부터 건강 관련 질문에 대한 답을 찾아왔고, 2000년대 중반에는 10명 중 8명이 인터넷을 통해 건강 정보를 검색했습니다. 이제 챗봇의 신뢰성과는 별개로, 챗봇은 이러한 질문을 점점 더 많이 받게 될 것입니다. 구글은 심지어 AI가 생성한 문제가 있는 의료 관련 질문 결과를 증상 검사기의 검증된 결과보다 우선시하기까지 합니다.
의사에게 물어볼 질문이 많다면 ChatGPT가 질문을 작성하는 데 도움을 줄 수 있습니다.
하지만 증상 확인은 생략하더라도, 의사가 이미 알려준 내용을 바탕으로 건강 상태에 대해 더 자세히 알아보거나 의사가 전문 용어로 쓴 내용을 더 잘 이해하고 싶을 때 ChatGPT와 같은 도구가 매우 유용할 수 있습니다. 챗봇은 대화형으로 설계되었으며, 대화에 매우 능숙합니다. 의사에게 물어볼 질문이 많다면 ChatGPT가 질문을 작성하는 데 도움을 줄 수 있습니다. 검사 결과를 받고 의사와 최선의 다음 단계에 대해 결정을 내려야 하는 경우, AI에게 직접 조언을 구하지 않고도 챗봇에게 질문을 연습해 볼 수 있습니다.
실제로 단순히 대화만 놓고 보면 ChatGPT가 더 뛰어나다는 증거가 있습니다. 2023년 한 연구에서는 Reddit 포럼에 올라온 건강 관련 질문에 대한 실제 의사의 답변과 챗봇이 동일한 질문을 던졌을 때 AI가 생성한 답변을 비교했습니다. 의료 전문가들은 모든 답변을 평가한 결과, 챗봇이 생성한 답변이 품질이 더 높고 공감 능력이 더 높다는 것을 발견했습니다. 이는 의사가 환자와 같은 병실에서 환자의 건강에 대해 이야기하는 것과는 다릅니다. 이제 환자들이 주치의와 평균적으로 한 번 방문할 때 18분밖에 대화할 수 없다는 점을 지적할 때입니다. 1년에 한 번만 방문한다면 의사와 대화할 시간은 턱없이 부족합니다.
인간 의사와 달리 ChatGPT는 HIPAA를 준수하지 않는다는 점을 유의해야 합니다. 챗봇은 일반적으로 개인정보 보호가 거의 이루어지지 않습니다. 즉, 업로드하는 모든 건강 정보는 AI의 메모리에 저장되어 향후 대규모 언어 모델을 학습하는 데 사용될 것으로 예상해야 합니다. 이론적으로는 다른 사람의 프롬프트 출력에 데이터가 포함될 가능성도 있습니다. 챗봇을 사용하는 더 개인적인 방법도 있지만, 여전히 환각 문제와 재앙 가능성은 존재합니다.
봇(bot) 지원 의료의 미래
AI를 활용하여 의학적 미스터리를 해결하지 않더라도, 의사는 AI를 활용할 가능성이 있습니다. 2025년 Elsevier 보고서에 따르면, 임상의의 약 절반이 업무에 AI 도구를 사용했다고 답했고, 그보다 약간 더 많은 사람들이 이러한 도구가 시간을 절약해 준다고 답했으며, 5명 중 1명은 복잡한 사례에 대한 2차 소견을 얻기 위해 AI를 활용했다고 답했습니다. 이는 의사가 반드시 ChatGPT에 증상의 의미를 파악해 달라고 요청하는 것은 아닙니다.
의사들은 ChatGPT가 존재하기 훨씬 전부터 환자 진단부터 기록까지 모든 분야에서 AI 기반 도구를 사용해 왔습니다. 여기에는 의사를 위해 특별히 설계된 임상 의사 결정 지원 시스템이 포함되는데, 현재 이 시스템은 기성 챗봇보다 성능이 뛰어나지만, 챗봇은 기존 도구를 보완할 수 있습니다. 2023년 연구에 따르면 ChatGPT를 사용하는 의사는 독립적으로 작업하는 의사보다 테스트 사례 진단에서 약간 더 나은 성과를 보였습니다. 흥미롭게도, ChatGPT 단독으로 사용했을 때 가장 우수한 성과를 보였습니다.
그 연구는 AI 챗봇이 의사보다 진단 능력이 뛰어나다는 주장으로 화제를 모았습니다. 공동 저자 중 한 명인 Adam Rodman 박사는 만약 의사들이 ChatGPT의 진단 결과에 동의하지 않을 때 챗봇이 틀렸다고 단정 짓기보다는 챗봇의 말에 귀 기울인다면, 반드시 그런 것은 아니라고 주장합니다. 물론 AI는 환각을 볼 수 있지만, 인간이 놓쳤을지도 모르는 연관성을 찾아낼 수도 있습니다. 토끼열(rabbit fever) 사례를 다시 한번 살펴보겠습니다.
"환자들은 의사와 LLM 사용에 대해 상의해야 하며, 솔직히 말해서 의사들도 환자와 LLM(Large Language Model 대규모 언어 모델)사용에 대해 상의해야 합니다."
베스 이스라엘 디커니스 메디컬 센터의 입원 전문의이자 하버드 의대 강사인 Rodman 은 "일반적인 의사는 무언가가 환각을 보이거나 잘못된 방향으로 가고 있다는 것을 감지할 수 있습니다."라고 말했습니다. "일반적인 환자가 반드시 그렇게 생각하는지는 잘 모르겠습니다."
건강 관련 추가 정보
하지만 단기적으로는 ChatGPT 박사가 지역 병원에 모습을 드러내지 않을 것으로 예상됩니다. AI가 필사자로 활동하여 의사가 필기하는 시간을 절약하고, 언젠가는 해당 데이터를 분석하여 의사를 도울 수 있게 될 가능성이 높습니다. 의사는 AI를 활용하여 환자에게 전달할 메시지를 더 빨리 작성할 수 있도록 도울 수 있습니다. 가까운 미래에 AI 도구가 발전함에 따라 더 많은 임상의가 진단 및 2차 소견에 AI를 활용할 가능성이 있습니다. 그렇다고 해서 긴급한 의료 문제가 있을 때 ChatGPT에 서둘러 가야 한다는 의미는 아닙니다. 만약 그렇다면 의사에게 어떻게 되었는지 이야기하십시오.
Rodman은 "환자는 의사와 LLM 사용에 대해 이야기해야 하며, 의사 역시 환자와 LLM 사용에 대해 이야기해야 합니다."라고 말했습니다. "우리가 그림자 세계에서 벗어나 서로 이야기한다면 더 생산적인 대화를 나눌 수 있을 것입니다."
GPT와 LLM의 차이점은 무엇인가요?
LLM(대규모 언어 모델)은 인간과 유사한 텍스트를 처리하고 생성하는 광범위한 AI 모델이며, GPT(생성적 사전 학습 트랜스포머)는 OpenAI에서 개발한 특정 LLM 제품군으로, 고급 텍스트 생성 및 대화 기능으로 유명합니다. 기본적으로 모든 GPT 모델은 LLM이지만, 모든 LLM이 GPT 모델인 것은 아닙니다. LLM은 다양한 학습 목표와 아키텍처를 가질 수 있는 반면, GPT 모델은 일관되고 긴 형식의 텍스트를 생성하도록 최적화된 트랜스포머 아키텍처의 특정 구현입니다.


댓글 없음:
댓글 쓰기