2026년 1월 7일 수요일

ChatGPT는 새로운 WebMD입니다.

 챗봇(Chatbots)은 모든 사람을 아마추어 변호사와 의사로 만들고 있습니다.


마이애미에서 의료 과실 전문 변호사로 활동하는 Jonathan Freidin은 일주일에 몇 번씩 의뢰인들이 그의 로펌 연락처 양식을 작성할 때 이모티콘과 제목이 뒤섞인 텍스트를 사용하는 것을 발견한다고 말합니다. 이는 그들이 ChatGPT에서 복사하여 붙여넣기 했다는 명백한 증거입니다. 다른 의뢰인들은 AI를 이용해 잠재적인 소송 사건에 대해 "많은 조사를 했다"고 말하기도 합니다. Freidin 변호사는 "ChatGPT나 Gemini가 의사나 간호사가 여러 면에서 의료 기준을 지키지 않았다고 말했기 때문에 소송 가능성이 있다고 생각하는 사람들이 점점 더 많아지고 있습니다."라고 말하며, "물론 그 말이 맞을 수도 있지만, 그것이 반드시 소송으로 이어질 수 있는 것은 아닙니다."라고 덧붙였습니다.

사람들은 저녁 식사 레시피부터 복잡한 법률 및 의료 문제에 이르기까지 모든 것을 조사하기 위해 생성형 AI 챗봇을 점점 더 많이 활용하고 있습니다. 법률 소프트웨어 회사인 Clio가 2025년 12월에 실시한 설문조사에 따르면, 응답자의 57%가 법률 관련 질문에 답을 얻기 위해 AI를 사용했거나 사용할 의향이 있다고 답했습니다. 2025년 Zocdoc의 설문조사에서는 미국인 3명 중 1명이 매주 생성형 AI 도구를 사용하여 건강 관련 조언을 얻고 있으며, 10명 중 1명은 매일 사용한다고 밝혔습니다. Zocdoc의 CEO인 Oliver Kharraz는 보고서에서 "AI는 증상 확인, 진료 분류, 정보 탐색과 같은 진료 전 단계의 필요 사항뿐만 아니라 처방전 재발급 및 검진과 같은 일상적인 업무에도 핵심적인 도구가 될 것"이라고 예측했습니다. 그러나 그는 또한 "환자들은 AI가 대부분의 의료 서비스, 특히 인간적인 판단, 공감, 복잡한 의사결정이 필요한 상황에서는 인간 전문가를 대체할 수 없다는 것을 깨닫게 될 것"이라고 경고했습니다. 만약 그의 예측이 틀린다면, Zocdoc과 경쟁사들은 심각한 문제에 직면하게 될 것입니다.

의사와 변호사들은 이제 생성형 AI로 작성된 이메일을 검토하거나, 일반인들에게 자신들이 가진 전문 지식과 각 지역 판사의 성향, 환자의 병력이 질병에 미치는 영향 등 미묘한 부분까지 이해하고 있다는 것을 설득해야 하는 상황에 놓였습니다. 생성형 AI는 이전에는 접근하기 어렵고 비용이 많이 들었던 정보에 대한 접근성을 민주화했지만, 동시에 법률 및 의료 전문가들이 사람들과 소통하는 방식과 사람들이 그들에게 기대하는 바를 변화시키고 있습니다.

ChatGPT는 새로운 WebMD이자 LegalZoom처럼, 일반인들이 몇 가지 질문만으로도 전문가처럼 행동하게 만들고 있습니다. 그리고 이는 진짜 전문가들을 당황하게 만들고 있습니다.

뉴저지에서 가족법 변호사로 활동하는 Jamie Berger는 "의뢰인들이 얻은 정보와 실제 사건 상황 사이의 차이를 바로잡고, 역으로 접근해야 합니다."라고 말합니다. 예를 들어,  Berger 변호사는 최근까지 대부분의 사람들이 이혼 소송 절차에 대해 거의 알지 못했고, 변호사를 찾아와 정보를 얻으려 했다고 설명합니다. 하지만 이제는 의뢰인들이 단계별 계획을 세워 오지만, 그 계획은 일반적이고 자신의 상황에 적합하지 않은 경우가 많습니다. Berger변호사는 의뢰인과 이메일을 주고받다가 갑자기 말투가 바뀌는 것을 발견하면, 의뢰인이 AI를 이용해 장문의 법률 전략이나 질문을 작성했을 가능성이 있다고 생각합니다. 그러면  Berger 변호사는 "그것이 당신의 실제 상황과 반드시 ​​일치하는 것은 아닙니다."라고 설명하고, 의뢰인이 제기한 여러 가지 문제들을 하나하나 해결해야 합니다.  Berger 변호사는 "예전에는 존재하지 않았던 방식으로 변호사와 의뢰인 관계를 재구축하거나 새롭게 만들어야 합니다."라고 말합니다. "의뢰인들은 A에서 Z까지 일직선으로 진행되는 것이 아니라, 과정 중에 수많은 변수가 있다는 것을 깨닫지 못합니다."

인공지능은 기다릴 필요 없이 두 번째 의견을 제공하는 역할을 합니다.

진정한 전문가처럼 생성형 AI 챗봇은 권위 있는 어조로 말합니다. 이는 법률 문제에 대한 블로그 게시물을 읽거나 포럼에서 의료 질환 요약을 읽는 것보다 훨씬 더 설득력이 있을 수 있습니다. Survey Monkey와 금융 서비스 회사인 익스프레스 리걸 펀딩이 2025년에 실시한 설문조사에서 미국인의 3분의 1이 "ChatGPT를 인간 전문가보다 더 신뢰할 수 있습니까?"라는 질문에 "그렇다"고 답했습니다. 다만 응답자들은 의료 및 법률 자문보다는 교육 및 금융 자문에 챗봇을 활용할 가능성이 더 높았습니다.

Chatbots은 또한 의사에게 가장 소중한 자원인 시간을 무한정 제공합니다. 의사들은 환자를 신속하게 진찰하고 상담해야 한다는 압박을 받는 반면, 챗봇은 항상 이용 가능하며 사용자를 안심시키는 방식으로 응답하도록 설계되어 있습니다. 사람들은 스마트워치나 오우라 링과 같은 웨어러블 기기를 통해 그 어느 때보다 많은 건강 데이터를 보유하고 있습니다. 정보와 서비스를 온디맨드로 이용하는 데 익숙해진 사람들에게 의사에게서 답변을 얻는 것은 여전히 ​​어려운 일이었습니다. 사람들은 종종 전문의와의 진료 예약을 위해 몇 달을 기다리거나 보험 회사와 비용 청구를 위해 몇 시간씩 씨름해야 했습니다. AI 의료 기록 도구인 하이디(Heidi)의 최고 의료 책임자Hannah Allen은 "사람들은 ChatGPT가 사라지지 않고, 잠들지 않고, 거절하지 않고, '죄송하지만 목록이 너무 깁니다'라고 말하지 않는다는 점을 매우 좋아합니다."라고 말합니다.

인공지능(AI)은 기다릴 필요 없이 두 번째 의견을 제공하는 역할도 합니다. 원격 치료 플랫폼인 마빈 행동 건강(Marvin Behavioral Health)의 임상 서비스 책임자인 Heidi Schrumpf는 상담 후 환자들이 돌아와서 자신의 조언을 ChatGPT나 다른 AI 챗봇에 입력해 봤는데, 챗봇이 자신의 말을 확인해 줘서 자신을 더 신뢰하게 되었다고 말했다고 전했습니다. 하지만 Schrumpf는 자신의 의견이 재확인되는 것에 대해 불쾌해하지 않습니다. "환자들이 빠르고 쉽게 두 번째 의견을 얻을 수 있다는 것은 좋은 일입니다. 만약 AI의 의견이 저와 다르다면, 환자들이 저에게 더 나은 질문을 할 수 있도록 도와줄 수 있습니다."


건강 정책 연구 그룹인 KFF가 2024년에 실시한 건강 관련 잘못된 정보 추적 설문조사에 따르면, 미국 성인의 17%가 한 달에 한 번 이상 AI 챗봇을 이용한다고 답했지만, 이들 중 56%는 AI 챗봇에서 얻은 정보가 정확하다고 확신하지 못했습니다. 그럼에도 불구하고 ChatGPT를 이용하는 사람들은 점점 늘어나고 있습니다. Allen은 "이러한 기술은 환자들이 계속해서 AI와 소통하도록 유도합니다."라고 말합니다. "궁극적으로는 소통의 미묘한 차이, 부드러운 소통 기술, 비언어적 소통, 그리고 환자의 전체적인 병력과 상황을 이해하기 위해서는 인간의 역할이 필요합니다."

자세한 정보가 없으면 챗봇은 일반적인 조언을 제공할 가능성이 높습니다. 그러나 너무 많은 개인 정보를 제공하는 것도 위험합니다. 사람들은 자신의 전체 의료 기록을 ChatGPT에 넘겨주고 있지만 기밀 건강 정보를 보호하는 연방법인 HIPAA는 소비자 AI 제품에는 적용되지 않습니다. 또한 사람들이 자신의 사건에 대한 구체적인 정보를 챗봇에 너무 많이 입력하면 변호사-의뢰인의 기밀 유지 특권을 통해 받는 종류의 보호를 무효화할 위험도 있다고 챗봇은 일반적인 정보가 없으면 제공할 가능성이 높다고 말합니다. 하지만 너무 많은 개인 정보를 제공하는 것도 위험합니다. 사람들은 자신의 전체 의료 기록을 ChatGPT에 제공하고 있지만, 전문 의료 정보를 보호하는 법인 HIPAA는 소비자용 AI 제품에는 적용되지 않습니다. 버몬트 로스쿨 학장인Beth McCormack은 사람들이 자신의 사건에 대해 너무 많은 유용한 정보를 챗봇에 입력하는 경우 변호사-의뢰인은 유지 관리와 동일한 장치가 중복화될 위험이 있다고 말합니다. 또한, AI의 선택의 의미를 올바르게 이해하여 선택자의 도움을 받을 가능성이 있습니다. McCormack 학장 "법에는 아주 많은 차이가 있다"며 "사실 관계에 따라 결과가 크게 달라지고 있다".

OpenAI 대변인은 이 기사에 대한 공식적인 답변을 거부했지만, ChatGPT는 법률 또는 의료 자문을 대체하기 위한 것이 아니라 사람들이 의료 및 법률 정보를 이해하는 데 도움이 되는 보조적인 도구 역할을 하도록 설계되었다고 밝혔습니다. 대변인은 또한 회사가 모델의 답변을 개선하기 위해 노력하고 있으며, 법적 문의가 발생할 경우 개인 데이터를 보호하기 위한 조치를 취하고 있다고 덧붙였습니다. OpenAI는 지난 가을 정책을 변경하여 사용자가 "면허를 소지한 전문가의 적절한 개입 없이 법률 또는 의료 자문과 같이 면허가 필요한 맞춤형 조언을 제공받기 위해 ChatGPT를 사용할 수 없다"고 명시했지만, 챗봇은 여전히 ​​건강 및 법률 관련 질문에 답변하고 있습니다.

전문가들은 환자나 고객이 생성형 AI를 활용하는 것에 대해 전적으로 반대하는 것은 아닙니다. 의사 부족 현상이 심각하고, 변호사를 선임하려면 사람들이 감당하기 어려운 비용을 미리 지불해야 하는 경우가 많습니다. AI가 제공하는 정보가 항상 완벽한 것은 아니지만, 이전에는 전문가들만 접근할 수 있었던 법률 및 의료 정보를 일반인들이 이해하기 쉽게 제공한다는 점에서 큰 장점이 있습니다. 캘리포니아에서 개인 상해 및 고용 전문 변호사로 활동하는 Golnoush Goharzad는 변호사 선임 비용을 감당할 수 없는 사람들에게 AI가 도움이 될 수 있다고 말합니다. 사람들은 ChatGPT를 이용해 법정에서 스스로를 변호하거나, 치료사, 영양사, 물리치료사 역할을 대신하게 하기도 합니다. 변호사를 고용할 여유가 없는 사람들이 퇴거 문제나 소액 소송 같은 문제에 직면했을 때 AI 도구의 도움으로 승소한 사례도 있습니다. 하지만 Goharzad 변호사는 친구들과 대화하다 보면 집주인이나 다른 사람들을 고소할 만한 사안이라고 생각하는 경우가 있는데, 이유를 물어보면 "ChatGPT가 그렇게 생각한다"고 답하는 것을 들었다고 합니다.

챗봇 시대가 도래했고, 전문가들이 이를 막기에는 이미 늦었습니다. 사람들은 앞으로도 계속해서 스스로 정보를 찾아볼 것입니다. 전문가들은 이러한 흐름에 저항하기보다는, 사람들이 챗봇을 효과적으로 활용할 수 있도록 지도하고 조언하는 데 집중해야 한다고 말합니다. Schrumpf 는 "임상의로서 우리는 챗봇이 환자들이 사용하는 도구가 될 수 있다는 점을 염두에 두어야 하며, 특히 적절한 지침을 제공하고 치료 계획에 통합한다면 매우 유용할 수 있습니다."라고 말합니다. "하지만 우리가 주의를 기울이지 않으면 문제가 발생할 수도 있습니다." 전문가들에게 이제는 인공지능이 진료 과정에 관여하고 있다는 사실을 인정해야 할 때가 온 것입니다.

댓글 없음:

댓글 쓰기