문헌 검토·논문 구성·초안 작성 등에 사용할 수 있어
챗GPT가 논문 저자로?…의학계 "연구 책임질 수 없다면 인정 안 돼"

▲이미지 출처 : 게티이미지뱅크.
▲이미지 출처 : 게티이미지뱅크.

[메디칼업저버 박선혜 기자] 전 세계적으로 챗GPT(Chat GPT) 열풍이 뜨겁다. 미국 오픈AI(Open AI)가 개발한 대화형 인공지능(AI) 챗봇인 챗GPT는 지난해 11월 GPT-3.5 버전이 출시된 이후 화제의 중심에 섰다.

챗GPT는 사용자가 대화창에 텍스트를 입력하면 그에 맞게 답변을 줘 사용자와 AI 간 대화가 가능하다. 특히 번역, 논문 작성, 코딩 작업 등 여러 분야의 업무를 수행할 수 있어 똑똑한 비서 역할을 하고 있다.

의료 분야에서도 챗GPT를 주목하고 있다. 질환 진단 및 치료 결정에 도움을 줄 수 있을 뿐만 아니라 임상연구 진행 및 논문 작성에도 활용할 수 있기 때문이다.

챗GPT 답변의 신뢰도와 윤리적·사회적 문제에 대한 우려도 있지만, 챗GPT 열풍은 피할 수 없는 흐름이라는 게 전문가들의 중론이다.

본지는 창간 22주년을 맞아 의료 분야에서 챗GPT가 어떤 역할을 할 수 있을지와 앞으로 나아가야 할 방향을 짚어봤다.

<1> ChatGPT, 미래 의료 이끄는 도구 될까?

<2> 의사면허시험 통과한 챗GPT, 진단에 도움 줄까?

<3> "당신의 건강 관리를 도울 '챗GPT'입니다"

<4> 챗GPT, 의학논문 작성도 척척…그럼에도 한계는?

임상기록·논문 등 비구조화된 데이터 분석 연구 필요 영역 식별

챗GPT는 진료현장에 더해 의학연구에도 도움이 될 것으로 기대를 모은다. 챗GPT는 임상기록, 논문 등 비구조화된 데이터를 분석할 수 있어 환자 증상이나 약물 상호작용 등에 대한 정보 추출이 가능하다. 이를 활용해 예측모델을 개발하거나 잠재적으로 연구가 필요한 영역을 식별할 수 있다.

뿐만 아니라 챗GPT를 신약 개발에도 활용할 수 있다. 그동안 신약후보물질을 찾기 위해서는 상당한 시간이 걸리고 많은 데이터베이스를 확인해야 해 쉽지 않았다. 챗GPT는 이 같은 한계점을 극복해 대규모 화학 화합물 데이터베이스를 신속하게 분석하고 치료 효과가 있을 것으로 추정되는 화합물을 찾을 수 있을 것으로 예상된다.

챗GPT는 방대한 양의 의료 데이터를 높은 정확도로 빠르게 분석할 수 있어 의학연구에 급격한 변화를 가져올 것으로 보인다. 하지만 이를 위해서는 무엇보다 정확하고 포괄적인 고품질 데이터가 필요하다. 또 개인정보 및 의료 데이터 보안에 대한 우려 역시 챗GPT가 의학연구에 활용되기 위해 해결해야 할 숙제다. 

챗GPT 작성 논문 흐름 따라가면  오류 발생할 수도

▲이미지 출처 : 게티이미지뱅크.
▲이미지 출처 : 게티이미지뱅크.

챗GPT는 자연스러운 문장 구사가 가능해 사람이 해야 할 과제물이나 논문을 대신 작성할 수 있어 의학계뿐 아니라 교육 등 여러 분야에서 파장을 일으키고 있다. 챗GPT는 논문 작성 시 연구 질문 및 가설 정의, 문헌 검토, 데이터 수집 및 분석, 논문 구성 및 구조화, 초안 작성, 편집 및 교정 등에 사용될 수 있다.

지난해 12월에는 의학논문 사전 공개사이트인 medrxiv에 챗GPT를 저자로 올린 논문이 발표되면서 챗GPT가 논문 공동 저자로 등재될 수 있는지가 의학계 화두로 떠올랐다<그림2>. 이 논문은 실제 PLOS Digital Health 저널에 실리면서 챗GPT를 저자에서 제외했다. 

하지만 챗GPT를 저자로 올릴 수 있다는 여지를 남겨 파장을 일으켰다. 이후 Oncoscience 저널에도 챗GPT를 공동 저자로 포함시킨 연구자 견해(Research perspective)가 실리며 논란이 이어졌다(Oncoscience 2022;9:82~84).

의학계는 연구자들이 챗GPT가 작성한 논문을 본인의 것으로 속이거나 신뢰할 수 없는 작업을 수행해 연구 투명성에 문제가 있을 것으로 판단한다.

이에 따라 각 저널에서는 챗GPT 관련 논문 작성 원칙을 제시하고 있다. Nature는 지난 1월 챗GPT 등 대규모 언어 모델(LLM)은 논문에 책임을 질 수 없으므로 저자로 인정하지 않는다고 발표했다. 이어 LLM을 사용한 연구자는 방법 또는 감사의 말(acknowledgements section)에 LLM 사용을 문서화하도록 주문했다.

Science 저널 역시 챗GPT 등 인공지능(AI) 도구는 과학의 투명성을 위협하고 연구에 책임을 질 수 없다며 저자가 아니라는 사설을 발표했다. JAMA 편집장도 챗GPT를 논문 저자로 올리면 안 되며, 오직 사람만 연구에 책임을 질 수 있다는 견해를 밝혔다.

국내 전문가들은 챗GPT가 논문 작성에 도움 될 수 있지만 지적저작권 침해 우려가 있다고 지적한다. 만약 챗GPT로 논문을 작성한다면 내용에 오류가 없는지 연구자 검토가 반드시 필요하다고 강조한다. 

연세의대 윤덕용 교수(의생명시스템정보학교실)는 "의학계는 연구를 통해 발견한 객관적 사실에 집중하고, 이를 표현하는 역할은 챗GPT가 도울 수 있다"고 전망했다.

이어 "문제는 지적저작권이다. 챗GPT는 기존 문헌을 참고해 비슷하게 글을 작성한다"면서 "의도치 않게 챗GPT가 다른 사람의 창작물을 흉내 낸다면 지적저작권을 침해하는 문제가 생길 수 있다. 앞으로 학계에서는 이러한 문제에 어떻게 대응할지 논의해야 할 것"이라고 덧붙였다.

가톨릭대 서울성모병원 오규철 교수(순환기내과)는 "챗GPT는 연구자들이 효율적으로 연구하고 논문을 작성하는 데 활용할 수 있는 좋은 도구지만, 내용에 문제가 없는지 연구자가 직접 검토해야 한다"며 "또 개인정보 유출 우려가 있으므로 윤리적 문제를 항상 고려해야 한다"고 밝혔다.

챗GPT로 논문 작성 시 할로시네이션(Hallucination)이라 불리는 환각(또는 작화증) 문제가 생길 수 있다는 우려도 있다. 챗GPT 환각은 챗GPT가 실제로 존재하지 않는 이야기 등 거짓을 마치 사실인 것처럼 지어내는 경우를 뜻한다.

동아대병원 권인호 교수(응급의학과, 대한의료정보학회 지역정보이사)는 "챗GPT는 작화증 문제가 가장 크다. 연구자가 챗GPT 등 생성형 AI가 작성한 논문 흐름을 따라가면 오류가 발생할 가능성이 있다"며 "연구자는 챗GPT를 이용한 논문 작성에 주의해야 한다. 같은 선상에서 챗GPT를 저자로 인정하기 어렵다"고 지적했다.

챗GPT 열풍 속 전문가 역할 달라져야

챗GPT 열풍이 식을 줄 모르는 가운데 전문가들은 챗GPT 정확도 우려를 제기한다. 챗GPT가 그럴듯한 문장을 만들지만 때때로 거짓말을 하거나 엉뚱한 답변을 내놓기 때문에, 오류를 잡아내려면 결국 사람의 역할이 무엇보다 중요하다.

권 교수는 "챗GPT가 실제 존재하지 않는 이야기를 지어내는 경우가 많다"며 "때문에 환자를 진단하거나 치료를 결정한다면 문제가 발생할 소지가 있다"고 꼬집었다.

윤 교수는 "걱정되는 점은 챗GPT가 제시할 결과를 예측할 수 없을 뿐만 아니라 잘못된 내용도 진짜처럼 보여줘 오류를 찾아내기 쉽지 않다는 것"이라며 "챗GPT가 잘못된 판단과 결과를 내놓았을 때 이를 필터링하는 시스템을 갖춰야 한다. 실제 의료현장에 챗GPT 도입 시 오류를 어떻게 필터링할지가 중요한 이슈가 될 것"이라고 전망했다.

챗GPT 등 AI 발전은 피할 수 없는 현실이 되면서 의사, 연구자 등 전문가 역할이 달라져야 한다는 목소리도 나온다. 

윤 교수는 "기존 전문가 역할은 고도의 지식을 쌓아 어떻게 활용하느냐였다. 하지만 지금은 지식을 쌓고 검색하는 능력이 챗GPT가 사람보다 뛰어나며 앞으로 더 잘할 것"이라며 "전문가 역할은 지식을 쌓고 활용하기보단, 챗GPT 등 AI를 이용해 정책적 결정을 내리거나 기존 지식을 디자인에 어떻게 환자에게 이롭게 할지 고민하는 역할로 바뀌어야 한다"고 제언했다.

저작권자 © 메디칼업저버 무단전재 및 재배포 금지