Wednesday 01st January 2025,
최윤섭의 디지털 헬스케어

생성형 인공지능 의료기기 규제에 대한 FDA의 고민

최근 생성형 인공지능 관련 기술이 폭발적으로 발전하면서, 이 기술을 활용한 의료기기와 관련된 논의가 진행되기 시작했습니다. 특히 미국의 FDA와 한국의 식약처를 비롯한 각국의 규제기관들의 고민이 깊어지고 있는데요. 여러 포스팅에서 언급해드린대로, 기존의 의료기기 인허가 프레임워크가 생성형 인공지능에 대해서는 그대로 적용되기 어려운 부분들이 많기 때문입니다.

식약처는 지난 5월부터 발빠르게 전문가 협의체를 구성하여 “생성형 인공지능 의료기기 허가·심사 가이드라인”의 초안을 확정하고 현재 의견 조회가 진행 중입니다. (저도 부족하지만 이 협의체에 참여하여 의견을 보태었습니다. 이 가이드라인에 대해서는 확정이 되면 추후에 다뤄보겠습니다.)

반면 미국 FDA는 사실 최근까지도 생성형 인공지능 기반의 의료기기에 대해서는 공식적인 언급이나 움직임이 많지 않았습니다. 2023년 5월 FDA의 국장 Robert Califf가 외부 강연 중에 아주 간략하게만 언급했던 정도였습니다. 당시에는 “우리가 민첩(nimble)하게 LLM의 사용에 대해 적절히 규제하지 않으면, 우리가 이해하지 못하는 것에 빠르게 휩쓸려(swept up) 버릴 것”이라며 LLM을 규제하는 것에 대한 필요성을 언급하면서도, 구체적인 규제 방식에 대해서는 기존에도 인공지능 의료기기의 규제 방식의 핵심 원칙 중의 하나인 TPLC(Total Product Life Cycle, 제품 전주기적 규제) 방향성을 언급하는 정도였습니다.

그러던 FDA는 최근 생성형 인공지능 기반의 의료기기를 어떻게 규제할 것인지에 대한 고민을 본격적으로 진행하고 있습니다. 지난 11월 20-21일 양일에 걸쳐서 디지털 헬스케어 전문가 협의체 미팅을 공개적으로 진행하면서 이 논의를 본격적으로 시작하였고, 이에 앞서 이 협의체 미팅을 위해서 “Total Product Lifecycle Considerations for Generative AI-Enabled Devices“라는 제목의 30페이지 짜리 Executive Summary를 공개하였습니다. 양일간 진행된 협의체 미팅은 유튜브로 생중계 되었고, 다행히(?) 영상이 유튜브에 남아 있습니다. (저도 좀 보기는 했습니다만, 총 16시간 분량이라 다 보지는 못했는데요. 관심이 있으신 분들은 링크1, 링크2 의 영상을 참고하시면 됩니다.)

이번 포스팅에서는 “Total Product Lifecycle Considerations for Generative AI-Enabled Devices” 이 Executive Summary를 제가 읽으면서 인상깊었던 부분들과 중요하게 여겨지는 부분들을 정리해보려고 합니다. 미리 말씀드리자면, 이 문서는 FDA가 향후 생성형 인공지능 기반의 의료기기를 어떻게 규제할 것인지에 대한 큰 ‘방향성’과 함께 이 기술의 특성에 따른 규제적인 ‘고민’을 담았다고 할 수 있습니다. 문서 자체가 전문가 협의체의 토론을 위한 발제문의 역할을 하기 때문에, 구체적인 ‘결론’은 없습니다. 다만, FDA가 어떤 부분을 고민하고 있는지에 대해서 구체적으로 알 수 있기 때문에 살펴볼만한 가치가 있다고 생각합니다.

 

두 가지 규제적 챌린지

FDA는 생성형 인공지능 기반 의료기기(GenAI-enabled devices)에 대해서, 아래와 같이 크게 두 가지의 규제적인 챌린지를 제시합니다.

  • 생성형 인공지능 기반 의료기기를 분류하고 결정하기 위해서 ‘risk-based approach’를 어떻게 적용할 것인가
  • TPLC 관점에서 안전성과 효과성을 평가하기 위해서 어떤 타입의 과학적 근거를 요구할 것인가

이번 문서에서 키워드를 두 가지만 꼽자면, ‘risk-based approach’와 ‘TPLC’입니다. 이 분야에 배경지식이 있으신 분들이라면, 이것을 보고 금방 눈치를 채실 수도 있겠습니다만, FDA의 기본 스탠스는 기존의 의료기기, 특히 인공지능 기반의 의료기기 인허가를 위해서 적용되던 원칙을 최대한 생성형 인공지능 기반의 인공지능의 규제에도 준용하겠다는 것입니다. 이 risk-based approach와 TPLC는 기존의 인공지능 의료기기를 허가 심사하기 위한 가장 기본적인 원칙이기 때문입니다.

다만, 생성형 인공지능의 특성상 이러한 두 가지 원칙에 위배되거나, 적용하기 애매하거나, 혹은 예외가 되는 상황이 발생할 가능성이 크기 때문에 (혹은 이미 발생하고 있기 때문에) 여기에 대한 고민이 담겨 있다고 할 수 있겠습니다. 즉, 최근에 소개해드렸던 Bakul Patel 박사님 등이 주장했던 “생성형 의료 인공지능을 ‘새로운 지적 존재’로서 규제하자” 정도의 파격적인 고민은 이번 FDA의 문서에 담겨 있지 않습니다.

기회가 되면 후술하겠습니다만, 생성형 인공지능 기반 의료기기에 대해서 얼마나 근본적이고 큰 규제적인 프레임워크의 변화를 시도할 것인지 자체가 중요한 이슈라고 생각합니다. 예를 들어, 최근의 규제적 고민은 대부분 LLM (거대 언어 모델)을 위주로 진행되고 있지만, 현재 인공지능은 언어를 포함한 멀티모달로 발전하고 있습니다. 또한 이번 FDA 문서처럼 최대한 기존의 규제 프레임워크를 유지한다는 것을 전제로 논의를 진행하고 있으나, 생성형 인공지능 혹은 그 이후의 혁신이 지속된다면 현재의 규제 프레임워크 자체를 근본적으로 바꿔야 할 필요가 언젠가는 생기지 않을까 하는 고민도 해보게 됩니다.

 

Risk-based Approach를 적용할 때의 고려점

먼저 첫번째 챌린지인, risk-based approach를 적용할 때의 여러 고민들에 대해서 알아보겠습니다. 표현이 어려운 것 같지만, risk-based approach는 미국과 한국 및 여러 국가들이 의료기기 여부를 정의하고, 등급을 매기고 규제하기 위해서 가장 기본적으로 사용하는 원칙입니다.

먼저 심사 대상이 되는 제품이 의료기기인지를 판단하기 위해서는 결국 의료기기의 정의가 필요합니다. 미국에서 의료기기의 정의는 FD&C Act의 section 201(h)에서 “질병의 진단, 완화, 치료, 예방을 목적으로 하는 기구, 장치, 구성 요소 등”으로 정의됩니다. 특히 여기에서 ‘사용 목적 (intended use)’이 무엇인지가 중요합니다.  또 한가지는 해당 기기가 사용 목적에 대해서 가지는 위험 수준(risk)입니다. 의료기기는 위험 수준에 따라서 (미국에서는) Class I, Class II, Class III로 나뉘고, 이런 위험 수준에 따라서 (+ 유사한 기존 제품 존재 여부에 따라서), 510(k), De Novo, PMA 등 다른 사전 승인 경로를 거치게 됩니다.

앞서 언급했듯이, FDA는 의료기기의 정의와 이러한 risk-based approach를 가능한 생성형 인공지능 기반 의료기기에도 그대로 적용하겠다는 것입니다. 하지만 생성형 인공지능의 특성 때문에 여러 고민에 부딛히게 됩니다. 먼저, 생성형 인공지능의 가장 유니크한 특성은 바로 ‘새로운 정보’를 생성할 수 있다는 것입니다. 어떤 경우는 이런 능력을 의도적으로 활용하여 더욱 ‘창의적인’ 답변을 유도하기도 하는데요. 하지만 이는 결국 할루시네이션을 증가시키기도 합니다.

이러한 특성은 규제 관점에서 의료기기의 behavior에 불확실성을 더해줍니다. 때문에 risk-based approach의 기본적인 출발점인 사용 목적(intended use)에 대한 구체적인 범위를 결정하는 데 어려움을 줍니다. 예를 들어, 의사와 환자와의 대화를 요약하는 생성형 인공지능이 있다고 가정해보면, 의사의 discussion 부분에서 할루시네이션이 발생하는 경우와, 의사의 진단 혹은 처방 부분에서 할루시네이션이 발생하는 경우에는 risk-based approach에 큰 차이가 있습니다.

더 나아가서, 파운데이션 모델과 생성형 인공지능은 매우 다양한 범위의 과업을 수행할 수 있습니다. 특히 기존에 훈련 받지 않은 목적으로도 사용이 될 수 있습니다. 그렇기 때문에 일반적으로 파운데이션 모델과 생성형 인공지능은 구체적인 ‘사용 목적’을 가지지 않습니다. 따라서, 이를 의료기기로 만들었을 경우에 역시 risk-based approach를 어떻게 적용할지에 대한 고민이 생깁니다.

또한, 만약 생성형 인공지능을, 특정 사용 목적을 가진 의료기기의 일부분으로 사용하는 경우라면, 이 의료기기는 FDA의 관리감독을 받게 될 것인데요. 만약 의료기기 제조사가 자체적으로 파운데이션 모델을 만들지 않고, 외부의 모델을 사용한 경우라면, 제조사는 파운데이션 모델에 대한 세부적인 정보 (예를 들어, 모델 아키텍쳐, 트레이닝 방법, 데이터셋, 모델이 locked or unlocked 여부 등)을 알기 어려울 수 있습니다. 즉, 규제를 받아야 하는데 디테일한 정보를 제조사도 알 수 없는 상황이 발생할 수 있습니다.

이렇게 의료기기 제조사가 파운데이션 모델에 대한 권한이나 접근권을 제한적으로 가지는 경우에는 파운데이션 모델의 데이터 구성이 바뀔 경우, 이를 기반으로 하는 생성형 인공지능 의료기기의 사용 목적에 영향을 주거나, 성능에 대한 문제가 생길 수 있습니다. 더 나아가서, 이 파운데이션 모델이 unlocked, 즉, 지속적으로 변화할 가능성도 있습니다. FDA는 지금까지 unlocked 모델의 인공지능 의료기기를 승인한 적이 없는데요. 하지만 써드 파티 파운데이션 모델이 unlocked 상태인 경우, 이를 기반으로 한 어플리케이션이 의료기기인 경우 FDA 심사과정에는 새롭고도 중대한 문제가 발생할 수 있습니다.

 

FDA의 디지털 헬스케어 정책의 영향

이러한 생성형 인공지능의 특징과 불확실성 때문에, 이를 기반으로 한 프로덕트가 FDA의 기존 디지털 헬스케어 정책의 범위에 들어오는지 알기가 어려운 경우가 발생할 수 있습니다. 이번 문서에는 아래와 같은 흥미로운 사례가 예시로 제시되고 있습니다.

일단 생성형 인공지능을 사용하지 않는, 다음과 같은 앱을 가정해봅시다. 이 앱은 사용자가 동시에 복용하는 약을 입력하면, 기존 문헌에서 관찰된 약의 상호작용에 따른 부작용 여부와 유형에 대한 정보를 요약해서 제공합니다. 기존의 MMA(Mobile Medical Application) 관련 FDA 가이드라인에 따르면, 이런 소프트웨어는 공공에 큰 리스크가 없기 때문에, FDA가 법 집행 재량을 적용하는 (enforcement discretion, 즉 엄격히 적용하지 않는) 것에 해당합니다.

하지만, 여기에 생성형 인공지능이 더해지는 경우를 생각해보면, 좀 상황이 복잡해집니다. 여전히 동일한 사용 목적을 가진다고 할지라도, 다음과 같은 여러 가능성을 고려해볼 수 있습니다.

  • 사용 목적을 넘어서는 새로운 기능을 생성하는 경우: 예를 들어, 입력 받은 약의 상호작용에 기초해서, 사용자에게 다른 약의 조합을 복용하라고 지시하는 경우
  • 입력된 약에 대해서 틀린 정보를 생성하는 경우

두 번째의 경우, 이 프로덕트는 여전히 의료기기의 정의에 해당되지 않을 수 있지만, 생성형 인공지능을 활용해서 새로운 컨텐츠나 정보를 생성하는 것이 잠재적인 불확실성과 리스크를 초래하는지 판단하는 것이 중요하다고 합니다.

이를 좀 더 일반화하면, 생성형 인공지능을 사용하지 않았을 때에는 리스크가 낮고 FDA의 규제를 받을 필요가 없던 프로덕트가, 생성형 인공지능을 적용함으로써 잠재적인 불확실성과 리스크를 가지게 되는지를 고려하는 것이 중요합니다. 이렇게 제조사와 개발자는 생성형 인공지능을 특정 사용 목적에 활용함으로써 발생하는 잠재적 불확실성과 위험을 신중하게 고려해야 하는데요. 다시 말해, 특정 사용 목적에 대해서, 생성형 인공지능이 반드시 최선의 기술인지를 고려할 필요가 있다고 언급되어 있습니다.

 

의료기기 등급 분류에 미치는 영향

앞서 언급한대로 FDA의 의료기기 분류 및 등급 부여, 관리 감독은 risk-based로 이뤄집니다. 하지만 (역시 앞서 언급한대로) 생성형 인공지능 기반 프로덕트의 사용 목적을 특정짓기가 어렵거나, 혹은 의도적으로 폭넓게 만든 경우, 또는 퍼포먼스의 불확실성이 존재할 경우에는 이런 risk-based approach를 적용하는 것에 대한 근본적인 챌린지가 있습니다.

생성형 인공지능은 정보를 기억하거나 예측하도록 훈련되기 보다는, 학습한 데이터와 ‘유사한’ 새로운 데이터를 생성하도록 설계됩니다. 또한 다양한 결과물을 내어놓도록 의도적으로 디자인 될 수도 있습니다. 이러한 측면은 모두 할루시네이션의 원이이 될 수 있으며, 할루시네이션은 결국 생성형 인공지능 기반의 프로덕트가 한정된 사용 목적을 지니거나, 정확하고, 일관적이고, 신뢰가능한 결과물을 내어놓는다는 것에 대한 장애물이 됩니다.

더 나아가면, FDA의 기존 규제 프로세스와 등급 분류에도 고민이 필요합니다. 특히, FDA의 최대의 premarket program인 510(k)에 영향을 줄 가능성이 있습니다. 510(k)의 경우, 심사 받는 기기와 선행 기기(predicate device) 사이의 substantial equivalence를 검증해야 하는데, 특히 사용 목적과 기술적 특성(technological characteristics) 측면에서 비교해야 합니다. 그런데, 선행 기기가 비-생성형 인공지능 의료기기이고, 같은 사용 목적을 가진 생성형 인공지능 의료기기를 심사하는 경우라면, 서로 기술적 특성이 다르기 때문에 안전성과 유효성을 검증하기 위해 다른 종류의 질문이 필요합니다.

그리고 이번 FDA의 문서에는 따로 언급되지 않지만, 제 생각에는 추후 심사받는 기기와 선행기기가 모두 생성형 인공지능 기반의 의료기기인 경우에는 substantial equivalence의 검증이 더 까다롭지 않을까 합니다.

또한 FDA가 risk-based approach를 위해서 시행하는 risk control을 생성형 인공지능 기반 의료기기에는 어떻게 적용할지에 대해서도 고민이 필요합니다. 특히, Class I, II에 적용되는 general control과 class II에는 special control이 적용되는데, 생성형 인공지능 기반 의료기기에는 이것을 어떻게 적용할지도 세부적인 고민 거리입니다.

 

TPLC 관점에서 요구되는 과학적 근거에 대한 고민

여기서부터는 이번 FDA 문서의 두 번째 키워드인 TPLC (Total Product Life-Cycle) 관점의 고민입니다. 특히 TPLC를 위해서 어느 정도 수준의, 어떠한 과학적 근거를 요구할지에 대한 고민이 언급되고 있습니다.

TPLC는 말 그대로 제품의 전 과정에 대한 관리를 의미하는 개념으로, 제품의 개발 단계부터, 시장 출시, 사용, 사후 관리까지 전 과정을 포괄적으로 규제하는 접근 방식입니다. 이는 특히 인공지능 의료기기와 같이 인허가 및 시장 출시 이후에도 지속적인 모니터링과 유지보수, 업데이트 등이 필요한 경우에 강조되는 개념입니다. 몇년 전부터 FDA가 인공지능을 포함한 소프트웨어 의료기기의 규제를 위해서 특히 강조하고 있는 개념이라고 보시면 됩니다.

역시 이 부분에 대해서도, 기본적으로는 기존에 FDA가 인공지능 의료기기의 안전성과 효과성을 위해 필요한 근거가 생성형 인공지능 의료기기에도 적용될 것이지만, 예외적으로 추가적이거나 다른 근거가 더 요구될 수 있다는 점이 언급됩니다. 예를 들어, 기존처럼 triage, detection, diagnosis 등을 보조하는 기기의 경우에는 기존의 평가 방식이 생성형 인공지능 의료기기에도 적용될 수 있습니다.

하지만 open-ended input, output format을 사용하는 생성형 인공지능 의료기기는 필요한 근거를 결정하기가 챌린징합니다. 특히, 일부 생성형 인공지능 의료기기의 광범위한 application은 사용 목적을 결정하는 데 어려움을 줄 수 있고, 이것은 심사 과정에서 도전 과제가 됩니다.

또한 기기에서 구현된 생성형 인공지능 모델에 대한 디테일 이외에도, 이 모델이 기반하고 있는 파운데이션 모델에 대한 정보 역시 필요합니다. 이는 모델 아키텍쳐, 훈련 방법, 데이터셋, attributes를 포함하지만, 제조사(manufacturer)가 쉽게 얻기가 어려울 수 있는 정보입니다.

하지만 파운데이션 모델에 대한 정보를 얻는 것은 아주 중요합니다. 왜냐하면 파운데이션 모델은 일반적으로 방대한 데이터에 기반하고 있어서, 컨트롤이 잘 안 되기 때문입니다. 더구나, 파라미터의 구조가 크고 복잡해서, input data에 아주 작은 변화로도, output에 큰 변화가 있을 수 있습니다. 예를 들어, 프롬프트에 작은 변화를 준다고 해도, 생성형 인공지능 모델의 반응이나 예측에 큰 변화가 있을 수 있습니다.

더 나아가, 생성형 인공지능은 input이 open-ended 즉, 무한대이기 때문에, 모델이 받아들일 수 있는 모든 input에 대하여 평가를 한다는 것은 합리적이지 않고, 특히 (보통은 파라미터를 공개하지 않는) 써드 파티 파운데이션 모델을 사용하는 경우에는 이것이 현실적으로 가능하지도 않습니다. 이러한 생성형 인공지능과 그 파운데이션 모델의 투명성 부족과 예측하기 어려운 behavior의 가능성은 premarket evaluation에 큰 챌린지가 됩니다.

이번 FDA 문서에는 이러한 위험을 줄이기 위해서, TPLC 전반에서 기기의 안전성과 효과성을 확보해야 하고, 특히 시장 출시 전 리뷰 (premarket review)가 출시 후 모니터링 전략과 상호 보완을 이뤄야 한다는 점을 강조하고 있습니다.

 

사전 심사에 대한 기존 근거 관련

FDA의 심사를 위해서는 의료기기와 그 디자인에 대한 일반적인 이해(general understanding)을 가져야 합니다. 인공지능 의료기기에 대해서 이는 design specifications, data management, model development information, characeristics of model을 포함하는데요. 생성형 인공지능 의료기기에 대해서도 필요한 정보는 동일하지만, 디테일이 다양할 수 있고, 생성형 인공지능의 특징에 맞는 정보가 필요할 수 있습니다. 이는 사용 목적을 적절히 정의하거나, 기기 성능의 허용 가능한 범위(variability)를 정의하는 데 도움을 줄 수 있다고 합니다.

생성형 인공지능 의료기기의 디자인 디테일은 아래와 같은 것들을 포함한다고 언급되어 있습니다:

  • specific design specifications (어텐션 메커니즘, 모델 머징 등)
  • 모델 파라미터 (temperature, top-K, top-p 등)
  • build-in prompting strategies (in-context learning, zero-shot 등)
  • 엔드 유저가 활용할 수 있는 프롬프팅 기능 등

생성형 인공지능 의료기기의 학습과 관련해서는 파운데이션 모델의 데이터 관리, 모델 관리 정보와 특정 기기를 만들기 위한 파인 튜닝(fine-tuning) 과정에 대한 구체적인 정보가 필요할 수 있습니다. 특히 특정 기기로 adapdation하기 위한 파인 튜닝은 기기의 사용 목적을 결정하기 위해서 중요하기 때문에, 이를 이해하는 것이 중요합니다.

의료기기의 출력의 특성(output characteristics)을 이해하는 것은 기존 인공지능 의료기기에서도 중요하지만, 생성형 인공지능 의료기기에서 특히 중요합니다. 왜냐하면 의도적으로 변동가능한 새로운 정보를 output으로 만들어낼 수 있기 때문입니다. 이러한 제품은 복잡성이 기존의 인공지능 의료기기에 비해 높기 때문에 사용자에게 투명성을 보장하는 것이 중요합니다.

투명성에 대해서는 기기 설계, 테스트 방식, 자율성 수준(level of autonomy), 최종 사용자 통제권 등이 포함되는데요. 자율성 수준은 인간이 개입하는지 (human-in-the loop) 방식인지 혹은 완전 자율 기기 (즉, 사용자의 개입 없이 작동하는지) 여부, 그리고 사용자가 얼마나 컨트롤을 가지는지도 포함됩니다.

 

사전 심사 근거를 위한 새로운 평가 방법

이 섹션에서는 생성형 인공지능 의료기기를 평가하기 위한 새로운 평가 방법(methodolgies)이 필요하다는 점이 언급되고 있습니다. 일부 생성형 인공지능 의료기기에는 성능 측정 (performance evaluation)을 위해서 기존의 평가 방법이 여전히 적용될 것입니다. 예를 들어, 프롬프트 엔지니어링, input/output 타입에 대한 QC, 그리고 topic-specific한 파운데이션 모델의 사용 등은 기존의 정량적인 성능 측정 방법이 (적어도 일부) 생성형 인공지능 의료기기에는 사용될 수 있을 것입니다.

하지만 생성형 인공지능 의료기기의 안전성과 유효성을 보장하기 위해서는 궁극적으로 새로운 평가 방법이 개발되어야 한다는 점이 강조되어 있습니다. 기존의 정량적인 방법은 총체적(thorough)이거나, 완전한(complete)한 평가를 제공하지 못하기 때문에, 추가적인 퍼포먼스 메트릭으로 보완할 필요가 있습니다. 예를 들어서, 정성적인 성능 측정 방법을 통해서 level of autonomy, transparency, explainability 를 평가하기 위해 활용할 수 있습니다. 더 나아가, 이런 방법은 여러 의학 분야에 걸쳐서 사용이 가능한 생성형 인공지능 의료기기를 평가하기 위해서도 유용할 수 있습니다.

하지만 요구되는 성능 평가 방법은 결국 사용 목적과 설계 방법에 따라서 달라질 수 있으며, 어떤 경우는 사용 목적에 맞는 아예 새로운 퍼포먼스 메트릭을 만들어내는 것이 필요할 수 있다고 언급합니다.

 

제품 출시 이후에 필요한 새로운 근거

이 섹션에서는 출시 이전의 사전 심사에서도 새로운 평가방식이 필요할뿐만 아니라, 제품 출시 이후에도 새로운 근거가 필요하다는 점이 언급됩니다. 전반적으로 인공지능 의료기기 자체가 잠재적으로 지속적인 조정(continuous adjustment)(예를 들어, 새로운 라이브 데이터, 유저 인터렉션, 상황 변화에 따라서)을 거치게 되지만, 특히 생성형 인공지능 의료기기는 파운데이션 모델 때문에 이러한 변화에 더욱 취약할 수 있습니다. 즉, 이러한 지속적인 조정과 관련해서는 생성형 인공지능을 관리감독하기가 더욱 까다로운데요. 예를 들어, 생성형 인공지능 제조사의 입장에서는 파운데이션 모델에 대한 통제권이나 접근성이 부족할 수 있기 때문입니다.

더 나아가서, unlocked model을 사용하기 시작하거나, site-specific or patient specific model 을 사용하기 시작한다면, 출시 이후 평가와 관련해서는 더욱 많은 규제적인 챌린지들이 생겨날 것으로 예상할 수 있습니다. 이에 관해서 제조사는 강건한 출시 이후 모니터링 전략을 가져야 하며, 생성형 인공지능의 안전성과 성능을 proactive하게 모니터링 할 수 있어야 한다고 강조합니다.

 

나가는 말

30페이지 짜리 FDA 문서를 정리해보려고 했더니, 역시나 생각보다 긴 포스팅이 되어버렸습니다. 분량은 좀 길어졌지만, 생성형 인공지능 의료기기의 규제와 관련하여  FDA가 가지고 있는 여러 고민들과, 앞으로 관련한 규제가 어떠한 방향으로 나아가야 할지에 대한 여러 가지 힌트를 얻을 수 있는 문서라고 할 수 있습니다.

하지만 현재의 규제 프레임워크 하에서는 이번 문서에서 고민하고 있는 것처럼, 생성형 인공지능 의료기기에 대해서는 완벽하게는 풀기 어려운 여러 딜레마들이 있습니다. FDA의 기본적인 스탠스가 risk-based approach와 TPLC 등 기존의 인공지능 의료기기를 규제하기 위한 기본 원칙을 최대한 유지한다는 것이므로, 이러한 원칙 하에서 생성형 인공지능의 기술적인 특징 때문에 야기되는 다양한 새로운 이슈들에 대해서 FDA가 어떻게 합리적으로 규제 방안을 마련할지 주목할 필요가 있습니다.

이건 제 개인적인 생각입니다만, 어쩌면 궁극적으로는 이렇게 기존의 규제 프레임워크를 고쳐서 쓰는 것이 아니라, 생성형 인공지능에 대해서는 완전히 새로운 규제 프레임워크를 개발하는 것이 결국에는 필요하지 않을까 하는 생각이 들기도 합니다. 향후 생성형 인공지능의 기술적 특징을 더욱 적극적으로, 폭넓게 활용하는 의료기기들의 사례가 더 많이 나올수록 기존의 규제 프레임워크에 잘 들어맞지 않는 예외 상황들이 더 많이 나올 것이기 때문입니다.

저는 ‘의료기기 산업의 수준은 규제의 수준에 수렴한다’는 말을 좋아합니다. 결국 규제가 발전해야, 그 규제 하에서 기술과 산업이 발전할 수 있습니다. 기존의 의료 인공지능에 대해서는 지금까지 기술의 특성을 잘 반영하여 규제가 발전한 덕분에 여러 기술적, 산업적 발전이 가능했습니다. 의료 분야의 생성형 인공지능과 관련해서도 이런 발전이 잘 이뤄지기를 기대해봅니다.

Like this Article? Share it!

About The Author

디지털 헬스케어를 통해 의료를 혁신하고 세상을 더 건강하게 만들고자 하는 벤처투자자, 미래의료학자, 에반젤리스트입니다. 포항공대에서 컴퓨터공학과 생명과학을 복수 전공하였고, 동대학원에서 전산생물학으로 이학박사를 취득했습니다. 스탠퍼드 대학, 서울대학교병원 등에서 연구하였습니다. 현재 디지털 헬스케어 스타트업 전문 투자사, 디지털 헬스케어 파트너스 (DHP)를 2016년에 공동창업하였고, 대표를 맡고 있습니다. 지금까지 40여 개의 디지털 헬스케어 스타트업에 투자하였습니다. 네이처의 디지털 헬스케어 분야 자매지 『npj 디지털 메디슨』의 편집위원이자, 식약처, 심평원의 전문가 협의체 자문위원입니다. 『디지털 헬스케어: 의료의 미래』 『의료 인공지능』 『헬스케어 이노베이션』 등을 집필하였습니다.

Subscribe
Notify of
guest
2 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
이경훈
이경훈
2 days ago

Academic & career background 에 걸맞게
대단히 가치 의미있는 소중한 작업을 하고 계시네요. 성원합니다!

error: Content is protected !!
0
Would love your thoughts, please comment.x
()
x

Discover more from 최윤섭의 디지털 헬스케어

Subscribe now to keep reading and get access to the full archive.

Continue reading