Korean J Med > Volume 98(3); 2023 > Article
ChatGPT 시대, 의료 인공지능이 의사를 대신할 수 있을까?

Abstract

Whether artificial intelligence (AI) can replace the role of doctors has seriously been discussed since the appearance of Chat Generative Pretrained Transformer (ChatGPT). Unlike past expectations that limit the role of AI in the medical field, doctors seem to both admire and be threatened by recent advances in AI models. Because previously developed and approved AI models have been managed and reviewed by medical experts during the preparation, refining, annotation, and verification of data, those systems can be considered to be based on evidence-based medicine. However, the current version of the ChatGPT model derives the most meaningful results from unverified open data. This approach enhances the accessibility to new information but is significantly different from the methodology of evidence-based medicine. Like all AI models developed to date, ChatGPT needs a system that can be rigorously verified and regulated by doctors to facilitate its use in the medical field.

서 론

Chat Generative Pre-trained Transformer (ChatGPT)는 인간과 같은 텍스트를 만들어 낼 수 있는 인공지능(artificial intelligence, AI) 모델로서, open AI에 의해 개발되었다. ChatGPT는 세상에 등장한 지 얼마 되지 않았지만 사회 전반에 걸쳐 충격적인 영향을 주고 있음이 분명하다[1,2]. 의료계에서도 AI가 의사를 대체할 것인가라는 질문을 시작한 지 오래되었고, ChatGPT 이전에는 다소 냉소적인 반응이 대부분이었다. 하지만 최근에는 그 분위기가 많이 달라지고 있고, 대부분의 의사들이 AI에 대한 찬사와 위협을 동시에 느끼고 있는 듯하다. 본 논문에서는 현재까지 개발된 의료 분야 AI와 ChatGPT 간의 근본적인 차이점에 대해서 살펴보고, ChatGPT와 같은 기술이 향후 의료에 미칠 영향과 궁극적으로 의사를 대체할 수 있을지에 대한 필자의 주관적인 견해를 기술하고자 한다.

본 론

AI 모델을 포함하여 모든 연구 모델이 실제 의료 현장에 적용되기 위해서는 엄격한 과정을 거치게 된다. 이는 연구 가설 및 계획을 세우는 과정, 의학연구윤리심의위원회(Institutional Review Board)의 심의를 거쳐 그 적절성과 윤리성을 검토하는 과정, 의료 전문가로부터 데이터를 준비하고 정제하며 연구 모델을 학습시키기 위하여 데이터의 정답지(ground-truth)를 받는 과정(annotation), 이러한 데이터 및 정답지를 기반으로 모델을 개발하는 과정(model development), 그 모델의 정확성 및 적절성을 검증하는 과정(validation), 실제 임상 현장에서 구체적인 적응증에 대해서 가장 최선의 방법론과의 우월성 혹은 비열등성을 입증하는 임상시험, 마지막으로 규제 기관에서 임상시험 결과에 대한 허가를 받는 과정으로 구성된다. 기존에 개발되고 허가를 받아 현재 임상 현장에서 활용되고 있는 대부분의 AI 모델은 위와 같은 단계를 모두 적합하게 수행했다. 이는 기존의 근거중심의학이 추구하는 바를 새로운 방법론으로 구현하는 것이라 이해해도 되겠다.
하지만 ChatGPT와 같은 모델의 기본적인 전제는 제한되지 않은 공개 데이터셋을 기반으로 시작되기에, 포함된 자료의 적절성을 감독할 수 있는 장치가 마련되지 않았다. 예를 들어 일정 비용을 내야만 열람할 수 있는 최신 논문의 내용은 제외되고, 일반 블로그에 게시된 신뢰성이 없는 가짜 전문가의 글은 오히려 분석 모델 내의 주요 데이터로 포함될 수 있다. 또한 모델의 개발 과정 자체에 옳고 그름을 판단해 주는 전문가의 결정이 포함되어 있지 않은 것도 중요한 위험 요소라고 볼 수 있다. 마지막으로 모델의 결과물이 유동적으로 변화할 수 있고, 좁은 영역에서의 정확성보다는 포괄적인 영역에서 전반적으로 틀리지 않는 결과물을 추구하기에, 이 모델에서 나온 결과물을 특정 구체적인 임상적 적응증에 활용하는 것은 상상하기 어렵다.
기존의 AI 모델이든 ChatGPT와 같은 모델이든 새롭게 등장한 AI 모델이 의사를 대체할 수 있을 것인가에 대해서는 다음과 같은 고찰이 필요하다. 먼저 새롭게 개발된 모델이 얼마나 임상 현장의 미충족 수요를 해결해 주는지, 그리고 그 결과들이 의사를 대신할 수 있는지, 아니면 현실적으로 불가능한지를 살펴보아야 한다. 만약에 미충족 수요가 너무 높은 일이고 의사가 현실적으로 수행하는 것이 불가능한 일이라면, 해당 영역에서 AI 모델은 의미 있는 임상적 활용이 가능할 것이다. 이것은 꼭 AI 모델이 아니라도 매일 수행되는 피 검사의 전혈구 계산(complete blood count)도 마찬가지였을 것이다. 전혈구 계산은 임상적 주요 결정에 꼭 필요한 과정이나 사람이 하나하나 정확하게 세기 어려운 것을 기계의 힘을 빌려 정확히 셀 수 있고, 이러한 기능이 검증된 경우 의사는 그 결과를 믿고 이에 기반하여 결정을 한다. 어떠한 영역이든 의사가 현실적으로 하기 어려운 일을 기계의 힘을 빌려 빠르고 정확하게 수용할 수 있고, 이 결과를 의사가 점검 후 최종 판단을 할 수 있다면, 이러한 모델은 의사를 대체한다기보다는 의사의 역할과 의료의 범주를 더 확장해 주는 역할을 하는 것으로 볼 수 있겠다.
반면에 기존의 의사가 어렵지 않게 할 수 있는 일이고, 굳이 다른 방법론의 도움이 필요하지 않은 일의 경우에는 그 미충족 수요도가 떨어지기에 진료 현장에 들어오기 어려운 모델이 될 것이다. 또한 의사의 최종 점검 없이 AI 모델의 결정에 따라 진료 방침이 결정되어 버리는 형태의 모델 역시 진료 현장에 적용되기 어려울 것이다. 이것은 현재의 모든 의학적 결정의 책임은 이를 서명한 의사가 짊어지는 구조로 되어 있는데, 특정 모델이 환자의 운명을 바꿀 수 있는 결정을 하게 될 경우 잘된 것이든 잘못된 것이든 이 결정에 대한 책임 소재가 불분명하기 때문이다. 이러한 논거로, 기존의 AI 모델을 개발할 때에도 최종 결정을 의사가 점검할 수 있는가를 중요한 관문으로 보고 있으며, ChatGPT와 같은 방법론의 경우에도 모델이 출력한 결과물을 최종적으로 점검 및 결정하는 주체는 의사가 되어야 의료 현장에 들어올 수 있을 것이다[3,4]. 이러한 진단 및 치료의 용도로 이용될 수 있는 AI 알고리즘에 대한 Food and Drug Administration (FDA)의 규제 또한 매우 엄격할 것으로 예상되고 있다[5].

결 론

의료 AI의 등장, 특히 최근 ChatGPT의 등장으로 의료계에서는 의사의 역할에 대한 재정립이 중요하게 대두되고 있다. 하지만 의료계는 근거중심의학의 기조를 놓지 않을 것이며, 이는 전문가 집단의 정교한 설계에 의해 개발된 모델만이 실제 환자에게 닿을 수 있을 것이라는 확신으로 이어진다. 또한 ChatGPT를 포함한 어떠한 AI 모델이 나온다고 하더라도, 의료 현장에 실제 도입되기 위해서는 의사에 의해 검증을 받고, 의사에 의해 최종 확인을 받아야 하는 구조가 되어야 할 것이다.

Notes

CONFLICTS OF INTEREST

No potential conflict of interest relevant to this article was reported.

FUNDING

None.

AUTHOR CONTRIBUTIONS

SK, as a first author and a corresponding author, contributed to drafting the manuscript.

Acknowledgements

None.

REFERENCES

1. Cascella M, Montomoli J, Bellini V, Bignami E. Evaluating the feasibility of ChatGPT in healthcare: an analysis of multiple clinical and research scenarios. J Med Syst 2023;47:33.
crossref pmid pmc

2. Xue VW, Lei P, Cho WC. The potential impact of ChatGPT in clinical and translational medicine. Clin Transl Med 2023;13:e1216.
crossref pmid pmc

3. Biswas SS. Role of Chat GPT in public health. Ann Biomed Eng 2023;51:868–869.
crossref pmid

4. King MR. The future of AI in medicine: a perspective from a Chatbot. Ann Biomed Eng 2023;51:291–295.
crossref pmid

5. DiGiorgio AM, Ehrenfeld JM. Artificial intelligence in medicine & ChatGPT: De-Tether the physician. J Med Syst 2023;47:32.
crossref pmid

TOOLS
METRICS Graph View
  • 1 Crossref
  •  0 Scopus
  • 1,802 View
  • 243 Download

Editorial Office
101-2501, Lotte Castle President, 109 Mapo-daero, Mapo-gu, Seoul 04146, Korea
Tel: +82-2-2271-6791    Fax: +82-2-790-0993    E-mail: kaim@kams.or.kr                

Copyright © 2024 by The Korean Association of Internal Medicine.

Developed in M2PI

Close layer
prev next