Friday 29th November 2024,
최윤섭의 디지털 헬스케어

정신과와 외과 의사는 인공지능에서 자유로울까

앞서 언급된 학과들과는 달리 정신의학과와 외과는 인공지능의 영향에서 다소 자유로운 것으로 여겨지기도 한다. 하지만 알고 보면 이러한 정신의학과 외과에서도 인공지능의 발전은 빠르게 일어나고 있다. 이 분야의 경우 아직 전문의와 비슷한 수준에 도달한 것은 아니지만, 상당히 흥미로운 발전들이 일어나고 있다. 인공지능으로 인해 앞으로 약해지는 인간 의사의 역할을 살펴보는 김에 두 학과에 관련된 기술 발전도 간략하게 짚고 넘어가도록 하자.

정신과는 인공지능에서 자유로운가

먼저 정신의학과의 영역을 살펴보자. 정신과의 경우, 사람이 사람의 심리와 정신 건강을 다루기 때문에 인공지능이 쉽게 접근하기 어려운 영역으로 꼽히기도 한다. 그만큼 환자의 상태에 대한 정량적 데이터를 얻기 어렵고, 진단과 치료를 표준화하기도 상대적으로 쉽지 않다. 특히, 사람과 사람, 즉 의사와 환자 사이의 인간적 상호작용이 차지하는 비중이 크기 때문에 인공지능이 이를 따라 하기는 어려울 것이라는 의견이 많다.

하지만 인공지능을 활용하여 환자의 상태를 정량적으로 파악하거나, 예후를 성공적으로 예측하는 연구들이 최근 적지 않게 소개되고 있다. 정신과 의사들은 환자와의 대화에서 나타나는 특징을 통해서 정신 질환을 진단하고 예후를 파악하기도 하고, 때로는 소위 직감을 통해서 위험군의 환자를 분류하기도 한다. 인공지능도 결과적으로 이와 같은 능력을 갖출 수 있다는 것이다.

2015년에 발표된 한 연구에서는 환자가 이야기한 내용과 형식을 인공지능으로 분석하여 조현병과 같은 정신병이 추후 발병할 것인지를 정확하게 예측했다. 총 34명의 젊은 환자가 이야기한 내용의 의미적인 구성뿐만 아니라, 구문의 길이나 한정사(determiners)의 사용과 같은 형식상의 특성도 분석하였다. 이를 바탕으로 정신병 발병 위험군 여부를 구분하는 인공지능을 만든 결과, 추후 정신병이 발병한 환자 5명을 100%의 정확도로 예측했다. 비록 소규모 연구였지만, 인공지능도 정신 질환을 진단하기 위해서 적용할 수 있다는 가능성을 보여주었다.

ff_robot_therapist

더 나아가서 또 다른 연구에서는 환자의 말에서 드러나는 언어적 요소뿐만 아니라, 목소리에서 나타나는 비언어적인 요소를 바탕으로 자살 위험군을 성공적으로 구분할 수도 있었다. 2016년 소개된 이 연구에서 연구자들은 환자가 몇 가지 질문에 구술로 답한 것을 분석하였다. 환자가 구술한 내용을 받아적어서 언어적 요소(linguistics)도 분석하였을 뿐만 아니라, 이번에는 목소리의 진동, 진폭, 공명, 침묵하는 시간의 길이 등을 기준으로 비언어적인 요소(acoustics)도 분석하였다.

연구진은 이러한 기준을 바탕으로 인공지능을 개발하여 연구에 참여한 환자들을 자살 위험군, 정신질환은 있으나 자살 위험은 없는 군, 정상군의 세 가지 그룹으로 환자를 구분해보았다. 그 결과 상당히 높은 정확도로 자살 위험군을 구분할 수 있었다. 예를 들어, 언어적 요소와 비언어적인 요소를 모두 이용하여 자살 위험군과 정상군을 AUC 0.9 이상의 정확도로 구분해낼 수 있었다. 또한, 이 경우 언어적인 요소만 고려하더라도 AUC가 0.93으로 높게 나왔다. 이는 의사들이 환자와 이야기해보고 ‘뭔가 좀 이상한데?’ 하고 직감적으로 알아차릴 수 있는 자살 위험군을 보다 정량적이고 체계적으로 구분할 수 있다는 의미로 해석할 수도 있다.

Moodies_3-2

사실 이렇게 사용자의 목소리에서 감정을 분석하려고 하거나, 우울증의 징후를 찾으려는 시도들은 사업적으로도 활발하게 진행되고 있다. 이스라엘의 스타트업 비욘드 버벌(Beyond Verbal)은 사용자의 목소리에서 감정을 80% 정도의 정확도로 분석할 수 있다고 주장한다. 말을 할 때의 목소리, 톤, 크기, 멈춤 정도 등의 비언어적 요소들만으로 목소리에 담긴 여러 감정을 약 20초 내외의 간격으로 분석한다. 무디스(Moodies)라는 스마트폰 앱으로도 나와 있어서 일반 사용자도 쉽게 사용해볼 수 있다.

그런가 하면, 퓨어테크 헬스(PureTech Health)라고 하는 미국의 스타트업은 목소리로 우울증을 진단하는 인공지능을 개발하고 있다. 이 회사는 아키리(Akili)라고 하는 아이패드 기반의 ADHD(주의력결핍 과잉행동장애) 치료 게임을 개발하는 것으로 잘 알려졌는데, 이외에 목소리로 우울증을 파악하는 연구도 하고 있다. 천 명 이상의 환자를 대상으로 한 초기 연구 결과에 따르면, 6초 정도의 짧은 목소리를 분석하여 우울증이 있는지를 AUC 0.93의 높은 정확도를 보여주기도 했다.

 

인공지능 의사와 환자의 유대감

그런데 사람이 아니라 인공지능이 환자와 정신과 상담을 진행한다면, 환자가 거부감을 느끼지 않을까? 인간이 아닌 존재에게 자신의 속 깊은 사정이나 아픈 기억을 털어놓는 것에 대해 환자들이 거부감을 느끼거나, 덜 신뢰할 수도 있다. 치료할 때에는 의사와 환자 사이에 소위 ‘라뽀(rapport)’라는 것이 중요하다고 이야기한다. 라뽀는 의사와 환자가 치료를 진행하면서 형성되는 신뢰나 유대관계를 말한다. 그런데 인간이 아닌 인공지능 의사라면 환자와의 라뽀를 형성하기가 불가능하지 않을까?

하지만 연구에 따르면 놀랍게도 결과는 정반대로 나타난다. 환자들은 오히려 인간 정신과 의사보다 인공지능에 더 솔직하게 이야기하는 것으로 드러났다. 환자들은 인간 의사들이 자신을 평가하고 판단하려고 한다고 생각해서 생각을 솔직하게 밝히거나 감정을 표출하는 것을 주저했다. 반면 인공지능 의사에게는 속마음도 좀 더 솔직하게 털어놓고, 체면을 차리느라 부정적 감정의 표출을 주저하는 경향도 더 적었다.

VIDEO-Virtual-AI-therapist-Ellie-helping-soldiers-PTSD

simsensei-1

남가주대학(Southern California University)의 연구진은 심센세(SimSensei)라는 일종의 인공지능 상담사를 만들었다[1, 2, 3]. 환자들은 스크린에 나타나는 가상의 여자 상담사와 함께 대화를 진행하는데, 주로 환자의 정신적인 스트레스에 대한 질문을 던지고 환자는 이에 대답하게 된다. 심센세는 환자가 하는 이야기를 인식할 뿐만 아니라, 환자의 시선, 미소를 짓는 정도, 머리의 3차원적인 움직임, 표정에서 감정이 드러나는지 등을 실시간으로 상세하게 분석한다.

흥미로운 것은 환자들이 이 심센세를 인간 의사보다 더 편하게 느끼고, 강한 감정이나 자신의 치부를 좀 더 솔직하게 드러내었다는 점이다. 환자들의 이러한 성향은 다음과 같은 연구를 통해 드러났다. 환자들은 심센세를 보면서 질문에 답을 하게 되는데, 연구자들은 환자들이 다음과 같이 두 그룹으로 나누어서 실험한다고 믿게 했다.

  • 상담사의 관여 없이, 인공지능이 상담(한다고 환자가 믿는) 그룹
  • 표면적으로는 인공지능이지만, 실제로는 내부에서 상담사가 상담(한다고 환자가 믿는) 그룹

위와 같이 환자들이 ‘믿는’ 것과는 완전히 별개로, 연구자들은 환자를 다시 아래의 두 가지 그룹으로도 나누었다.

  • ‘실제로’ 상담사의 관여 없이 인공지능이 상담하는 그룹
  • ’실제로’ 표면적으로는 인공지능이지만, 내부에서 사람이 상담하는 그룹

즉, 환자들은 자신도 모르는 사이에 이러한 기준들에 의해서, 네 종류의 그룹으로 나누어지게 된 것이다. 이 환자들은 심센세가 던지는 민감한 질문들에 답을 진행했다. 예를 들어서, 후회되는 과거가 있는지, 지워버리고 싶은 기억이 있는지, 무엇에서 죄책감을 느끼는지 등에 답해야 했다. 연구자들은 네 그룹에서 환자들이 이 민감한 질문들에 어떻게 답하는지를 분석해보았다.

simsensei-2

그 결과 자신이 인공지능과 상담한다고 ‘믿는’ 환자들은 인간과 상담한다고 ‘믿는’ 환자보다 더 솔직하게 이야기했으며, 자신의 치부를 드러내는 것도 덜 두려워했다. 또한, 슬픈 감정도 더 잘 드러내었고, 상대에게 일부러 좋은 인상을 주기 위한 노력도 덜 했다. 반면 이 환자들이 (자신들도 모르게) 실제로 사람과 상담했는지, 혹은 인공지능과 상담했는지를 기준으로 비교했을 때는 솔직함에 별다른 차이가 없었다. 그러므로 이 결과에 따르면 환자들이 사람보다 인공지능 상담사에게 더 솔직하고, 더 쉽게 마음을 연다고 결론을 내릴 수 있다.

이에 대해 연구자들은 환자들이 사람과 상담할 경우, 자신이 다른 사람에게 평가받는 것 같은 느낌을 받으며 가능하면 좋은 인상을 주려는 경향이 있지만, 인공지능에게는 이러한 경향이 적다고 설명했다. 실제로 연구에 참여한 환자들 몇몇은 이렇게 이야기 했다고 한다. “사람보다 인공지능과 이야기하는 것이 훨씬 좋았어요. 저는 개인적인 일에 대해서 사람과 이야기하는 것이 불편해요.” , “가상 상담사가 실제로는 사람이 조종하는 것이라는 걸 말해주지 않았으면 좋았을 텐데요. 사람이 뒤에 있지 않았다면 나는 더 많은 것을 이야기했을 것 같아요”

 

외과는 인공지능에서 자유로운가

그렇다면 외과는 어떨까. 외과는 정신과와 함께 인공지능의 위협에서 가장 멀리 있다고 여겨지는 학과로 꼽힌다. 그도 그럴 것이 외과 의사들은 주로 손을 사용해서 수술한다. 현재 인공지능은 대부분이 소프트웨어의 형태이며, 손발을 가지고 있지 않기 때문에 외과 의사들의 술기를 비슷하게 시행하기에는 기술적으로 어려운 점이 많다. 소위 로봇 수술이라고 불리는 다빈치(da Vinci) 시스템의 경우에도 로봇이 자동으로 수술하는 것이 아니라, 외과 의사가 3D 고해상도 카메라를 보면서 사람의 손목처럼 관절이 있는 소형 기구를 손으로 직접 조작하는 방식으로 이뤄진다.

하지만 최근 연구에 따르면 복잡한 수술까지는 아니더라도, 조직을 봉합(anastomosis)하거나 절개하는 정도의 간단한 술기는 외과 의사보다 로봇과 인공지능이 오히려 더 잘하는 것으로 드러났다. 2016년 미국의 국립소아 병원(Children’s National Medical Center)과 존스홉킨스대학은 인간의 손을 완전히 배제하고 동물의 연부조직(soft tissue)을 자동으로 봉합할 수 있는 STAR (Smart Tissue Autonomous Robot)을 개발했다. 이 STAR의 문합 실력은 경험 많은 외과 의사가 진행하는 기존의 다양한 수술법보다 여러 방면에서 더 우수했다.

연구진에 따르면 연부조직 수술은 특히 로봇으로 자동화하기 어렵다고 한다. 내장, 근육, 혈관과 같이 연한 조직을 의미하는 연부조직은 유연하고 탄력적이어서 수술 중에도 모양이 계속 변한다. 따라서 연부조직의 자동 수술을 위해서는 조직의 3차원적인 모양 변화, 움직임, 탄력 등을 실시간으로 측정하고 반영해야 하는데, 이것이 기술적으로 쉬운 문제가 아니다.

robot_surgery_0존스홉킨스의 자동수술로봇 STAR

Mjc0OTQ0Mg
봉합 중에 연부 조직의 움직임을 인식하여, 실시간 문합 방법을 조정

하지만 이 연구에서 개발한 STAR는 3D 컴퓨터 비전 등의 기술을 통해서 연부조직의 역동적인 움직임을 인식하고, 인공지능을 통해서 수술 중에 연부조직의 움직임에 맞춰서 실시간으로 봉합 방법을 조정해나가도록 개발되었다. 연구진은 이 STAR 기술의 정확성과 효과를 증명하기 위해 돼지의 연부조직을 외부로 꺼내어서(ex vivo) 봉합하는 것뿐만 아니라, 살아 있는 돼지(in vivo)의 위장을 경험 많은 외과 의사가 손으로 꿰매는 것(OPEN)과 복강경 수술(laparoscopy, LAP), 그리고 다빈치를 이용한 로봇 보조 수술(robot-assisted surgery, RAS)을 이용한 봉합 등 세 가지 기존 수술법과 비교했다.

ex-vivo STAR

죽은 돼지를 봉합하는 (ex-vivo) 것에 대한 여러 수술 방법들의 성과 비교 (출처: Sci Transl Med)

in vivo STAR

살아있는 돼지의 위장 봉합술에 대한 여러 수술 방법들의 성과 비교 (출처: Sci Transl Med)

그 결과 외부로 꺼낸 연부조직과 살아 있는 돼지의 위장을 문합하는 경우 모두 STAR가 기존의 수술 방법들보다 대부분 더 나은 성과를 보였다. 평가 기준은 꿰맨 간격의 일관성(spacing), 얼마나 압력을 가했을 때 꿰맨 부분이 새어 나오는지 (leak pressure), 봉합 실수로 바늘을 다시 빼내야 했던 횟수(number of mistakes), 총 수술 시간(completion time), 내강의 수축 여부(lumen reduction) 등이었다. 즉, STAR는 다른 수술 방식보다 꿰매는 간격도 일관적이고, 문합한 부분이 압력에도 더 잘 견뎠으며, 실수도 적었고, 내강 수축 여부도 비슷했다. 총 수술 시간은 사람이 손으로 직접 하는 것이 가장 빨랐으나, STAR는 나머지 두 수술법에 비해서는 큰 차이가 없었다.

이 연구 의미는 비교적 단순 반복적인 문합이라는 간단한 수술을 대상으로 한 것이지만, 그동안 자동화가 어려웠던 연부조직의 수술에도 사람의 손이 전혀 개입하지 않으면서도 기존의 수술법과 비교 가능할 정도의 성과를 내었다는 것이다. 특히, STAR는 하드웨어, 즉 수술 장비의 발전이라기보다는 연부조직의 3차원적 역동성을 시각적으로 인지하는 인공지능의 발전에 기인하는 바가 크다. 연구진은 이런 자동 수술 로봇을 통해 수술의 효과성, 일관성, 수술의 결과 등의 개선을 기대하고 있다. 또한, 외과 의사가 부족한 지역에서도 이런 기술을 활용할 수 있을 것이다.

 

의사보다 절개를 더 잘 하는 로봇

이 연구진은 더 나아가 2017년 캐나다에서 열린 한 지능 로봇 학회에서 STAR가 외과 의사보다 조직의 절개도 더 잘 한다는 결과를 발표했다. STAR는 외과 의사보다 더 정확하게 절개하고, 주변부 조직에 불필요한 상처도 덜 주며, 심지어 종양의 제거 수술에 대한 가능성도 보여주었다.

먼저, 연구진은 피부, 지방, 근육의 세 가지 돼지 조직을 이용해서 STAR가 조직을 얼마나 잘 절개할 수 있는지를 검증했다. 각각의 조직에 대해서 STAR가 다양한 속도, 깊이 등을 테스트하면서 정확하게 절개할 수 있도록 시험해보았다. STAR는 지난 연부조직을 봉합하는 연구와 비슷하게, 절개하는 부위와 수술 도구의 움직임을 시각적으로 관찰하면서 원래 계획했던 수술 도구의 움직임 등을 조정하면서 절개하였다.

star tissue

이렇게 STAR가 조직을 잘 절개할 수 있다는 것을 증명한 이후에, 연구자들은 돼지 피부를 절개하는 실력을 외과 의사들과 비교해보았다. STAR와 외과 의사들은 모두 일직선으로 5cm를 절개하였으며, 지정된 절개 라인으로부터 얼마나 벗어났는지, 그리고 수술 부위에 얼마나 많은 상처(char)를 남겼는지의 두 가지를 기준으로 비교해보았다. 그 결과 STAR의 절개가 지정된 라인과 더 가까웠고, 주변 조직에 상처도 덜 입히는 것으로 드러났다.

Mjk2NjE4Mw-2

외과 의사와 로봇의 일직선 절개 비교

마지막으로 연구자들은 돼지의 지방조직에 점토로 만든 가짜 종양을 설치해놓고, STAR가 이 종양을 잘 제거할 수 있는지를 테스트해보았다. 이 점토 종양 덩어리는 지방질 속에 묻혀 있어서 로봇이 파악하기가 더 어렵게 되어 있었다. 연구자들은 이 종양에 표식을 달아놓고 4mm의 여유 공간을 남기고 떼어내도록 하였더니, 이 제거 수술도 로봇이 정확하게 해낼 수 있었다. 이 모형 종양 제거 수술은 평면적인 2차원적인 조직에 대해서 테스트해본 것이며, 다음으로는 3차원적으로 복잡한 구조를 가진 종양을 제거하는 것에 도전해보겠다고 연구자들은 밝히고 있다.

pseudo tomour resection

이러한 기술의 발전이 계속된다면 향후에는 로봇이 CT나 MRI에서 종양의 위치를 파악한 다음, 이를 제거하는 수술을 자동으로 행하는 것도 상상해볼 수 있다. 사실 이는 아직은 먼 미래의 이야기처럼 보이기는 한다. 하지만 기존에 로봇이 자동으로 수행하기 어려울 것으로 생각했던, 연부조직의 봉합이나, 불균일한 조직의 절개, (아직은 제한적이지만) 종양을 정확하게 제거하는 비교적 간단한 술기에 대해서는 차츰 자동화에 대한 성과들이 보인다는 점은 인상적이라고 할 수 있겠다.

 

자율 주행차와 자동 수술 로봇

이런 자동 수술 시스템 때문에 외과 의사의 역할이 완전히 없어지지는 않을지도 모른다. 하지만 전체 수술 중에 이번 연구에서 증명된 기본적인 술기는 서서히 자동화되어갈 가능성이 있다. 이 연구를 진행한 소아외과 전문의 피터 김(Peter Kim) 박사는 이러한 자동 수술 로봇을 자동차의 크루즈 주행 기능에 비유해서 설명한다. “사람들은 자동차 운전할 때 크루즈 기능을 사용합니다. 수술에 대해서도 같은 원리가 적용됩니다”

크루즈 기능은 이미 많은 자동차에 적용되고 있는 기술로, 운전자가 엑셀에서 발을 떼도 운전자가 지정한 속력을 일정하게 유지하는 기능이다. 운전대는 여전히 운전자가 잡고 있어야 하지만, 크루즈 기능을 이용하면 고속도로 등에서 액셀을 계속 밟고 있지 않아도 되니 편하게 운전할 수 있다. 피터 김 박사에 따르면, 수술은 여전히 사람이 집도하더라도 일부 간단한 기능부터 자동화될 수 있다는 것이다.

이런 부분을 보면 자율 주행차가 구현되는 과정은 외과 의사에게도 의미심장할지도 모르겠다. 사실 운전자가 아예 필요 없는 자율 주행차가 상용화되기 위해서는 많은 기술적, 법적, 윤리적 난관을 해결해야 한다. 테슬라 등에서 자율 주행 성능을 구현했다고는 하지만 유사시에 사람이 운전하도록 핸들과 브레이크, 액셀러레이터가 달려 있다. 아예 운전대가 없는 자동차가 나오려면 더 오랜 시일이 걸릴 것이다.

하지만 자동차는 크루즈 기능 등으로 이미 자율 주행을 부분적으로는 실현하고 있다. 부분적 자율 주행과 관련된 기능은 계속 추가되고 있는데, 스마트 크루즈 기능 (앞차와의 간격을 센서로 측정하여, 간격이 줄어들면 속력을 자동으로 줄여주는 기능)과 자동 주차 및 자동 차선 변경 기능도 추가되고 있다. 이에 따라서 운전자들은 운전의 여러 기능적 측면 중 일부는 덜 사용하게 될 수도 있다. 필자는 개인적으로 좁은 공간에서 평행 주차를 어려워하는데, 자동 주차 기능이 적용되면 이런 걱정을 더 하지 않아도 될 것 같다.

이와 같은 단계적 자동화가 수술방에서도 서서히 일어날 것이다. 조직의 문합에서 시작하여, 조금씩 다른 영역으로 자동 수술 기술이 발전하고 적용되면, 수술을 진행하는 방식도 변화될 가능성이 있으며, 수술에 필요한 역량 및 중요도 역시 바뀌게 될 수 있다. 이러한 부분 역시 인공지능 때문에 변화되는 의사의 역할의 범주에 포함할 수 있겠다.

Like this Article? Share it!

About The Author

디지털 헬스케어를 통해 의료를 혁신하고 세상을 더 건강하게 만들고자 하는 벤처투자자, 미래의료학자, 에반젤리스트입니다. 포항공대에서 컴퓨터공학과 생명과학을 복수 전공하였고, 동대학원에서 전산생물학으로 이학박사를 취득했습니다. 스탠퍼드 대학, 서울대학교병원 등에서 연구하였습니다. 현재 디지털 헬스케어 스타트업 전문 투자사, 디지털 헬스케어 파트너스 (DHP)를 2016년에 공동창업하였고, 대표를 맡고 있습니다. 지금까지 40여 개의 디지털 헬스케어 스타트업에 투자하였습니다. 네이처의 디지털 헬스케어 분야 자매지 『npj 디지털 메디슨』의 편집위원이자, 식약처, 심평원의 전문가 협의체 자문위원입니다. 『디지털 헬스케어: 의료의 미래』 『의료 인공지능』 『헬스케어 이노베이션』 등을 집필하였습니다.

Leave A Response