기준 명확화와 별도 허가·인증 체계 필요…의사 대체는 '글쎄', 직능 숙련 하락은 '조심'

21일 열린 '제1회 국가생명윤리포럼:인공지능(AI)의 의료적 활용과 생명윤리'에서 김강립 보건복지부 보건의료정책실장이 축사하고 있다.

최근 '왓슨' 등 의료계 화두인 인공지능(AI)의 향후 발전 방향과 윤리 이슈를 탐색하는 자리에서 법적 책임과 허가‧인증, 직능인 숙련 수준 하락에 이르기까지 다양한 문제제기가 진행됐다.

21일 국가생명윤리심의위원회가 주최하고 국가생명윤리정책연구원이 주관한 제1회 국가생명윤리포럼:인공지능(AI)의 의료적 활용과 생명윤리에서 과학계, 의료계, 산업계, 윤리계, 정부 등 각 계의 다양한 전문가들이 의견을 개진하고 논쟁을 펼쳤다.

이날 포럼에 참석한 발제자와 참석자들은 크게 △오작동과 법적 책임, 허가‧인증 △인간의 숙련도 하락과 AI의 지속 가능한 발전 가능성 △데이터 기반 구조로 인한 차별 가능성 △환자와 의사의 관계 설정 △현지화(Localizing) 등의 이슈를 제기했다.

법적 책임과 허가‧인증 : AI와 관련, 가장 실질적으로 의료계에 와닿는 현안은 ‘AI 쓰다가 문제 생기면 법적 책임은?’이다.

이를 포함, 오작동 책임과 허가‧인증 이슈를 두고 발제자와 토론 참석자들은 현재 모호한 기준의 명확화와 별도의 허가‧인증 체계 필요성 등을 제기했다.

특히 발제자와 토론 참석자들이 밝힌 오작동 관련 내용은 ‘인공지능의 오작동을 실제로 사용자가 인식할 수 없는 경우’까지 포괄하기 때문에 향후 이 문제를 두고 논쟁이 심화될 것으로 예측된다.

윤혜선 한양대학교 법학전문대학원 교수는 ‘인공지능의 의료적 활용과 법적·정책적 쟁점’을 주제로 한 발제에서 인공지능의 안정성 및 안전성 확보를 위한 제도적 방안으로 인공지능 기기의 품질인증제도 및 안전 관리감독제도의 도입 강구가 필요함을 강조했다.

이와 함께 제조물책임법의 정비, 보안 및 관리 강화를 위한 민형사상 책임제도 강화, 행정형벌제도 정비 등도 고려될 수 있음을 덧붙었다.

윤 교수는 “다양한 주체간의 책임 및 위험 배분 기준 확립이 필요하며, 오작동 및 의료사고에 대한 인과관계 입증이 어려우므로 입증책임 완화 내지 전환, 또는 무과실책임까지 고려돼야 한다”고 설명했다.

장동경 삼성융합의과학원 디지털헬스학과 교수도 “인공 지능의 오작동을 실제로 사용자가 인식할 수 없는 경우의 문제가 있다”면서 “판단에 대한 책임 소재는 의료기기인 경우에는 제조자와 사용자가 책임 공유, 비의료기기인 경우에는 사용자 책임으로 가야 한다”고 밝혔다.

이는 허가‧인증에 대한 기준으로도 이어진다. 장 교수는 “비의료기기인 경우에는 사용자 또는 사용자 그룹이 평가하고 판단하며, 의료기기인 경우에는 성능 및 임상적 유효성 검증부터 학습 데이터 관리 정책 수립, 작용 원리에 대한 평가까지 함께 이뤄져야 한다”고 주장했다.

정채연 포항공과대학 인문사회학부 교수도 “인공지능 알고리즘의 복잡성으로 인해 오작동 여부 혹은 원인 파악에 있어 한계가 있으며 인공지능에 기반한 의료판단의 경우, 의료사고에 대한 과실 입증이 더욱 어렵다”고 진단했다.

그는 이를 해결할 수 있는 대안으로 “ 의료사고책임보험을 통해 손해의 전보가 이루어지도록 하는 법정책이 필요하다”고 조언했다.

의사 숙련도 하락과 AI의 대체 가능성 : 의료계에서 고민하는 또 하나의 이슈인 ‘과연 AI가 의사 인력을 대체할 수 있는가’에 대한 논의에서는 대부분 유보적으로 판단했다. 다만, AI 의존성이 높아질수록 직업 숙련도가 떨어질 수 있음은 경계해야 할 것으로 전망됐다

장동경 삼성융합의과학원 디지털헬스학과 교수는 “AI가 직종 전체를 대체한다기 보다는 특정 작업을 대체한다고 봐야 한다”고 설명했다.

이는 ‘인공지능의 의료적 활용 전망 및 한계’를 발표한 이예하 Vuno Korea 대표이사의 견해와도 일치한다. 이예하 대표의 자료에 따르면 800개 직업 중 AI로 완벽한 대체 가능한 직업은 5%에 머물렀으나, 800개 직업 내 2000개 작업 중 45%가 자동화가 가능했다. 즉, 대체 가능 대상은 ‘작업’ 단위로 평가돼야 한다는 것이 이예하 대표의 견해다.

여기에 더해 고인석 인하대학교 철학과 교수는 발제 ‘인공지능을 통한 의료계 패러다임의 변화와 사회적 담론: 환자와 의사의 관계 변화 등’에서 귀납적 탐구의 가치와 한계를 들며 AI 기반 의료의 한계점을 지적했다.

고인석 교수는 “AI기반 의료가 증거기반의학과 정밀의학이라는 두 트렌드 이념을 수렴시키지만 귀납적 방법의 문제들, 즉 관찰의 이론적재성 문제가 있다”면서 “과학연구의 (포괄적 의미의) 귀납주의에 대한 파이어아벤트의 비판인 ‘유관한 변수를 어떻게 선택하고 제한할 것인가’를 고민할 필요가 있다”고 밝혔다.

다만 그는 “의료가 보수적 성향을 지닌 전문영역일 수밖에 없다는 전제 속에서 앞서 축적된 것을 중시할 수밖에 없는 이런 영역에서는 AI 특유의 힘이 높은 적합성을 드러낸다”고 설명하기도 했다.

이와 연계해 AI에 의존하는 의사가 숙련도 하락 및 환경 변화 대처 능력이 저하될 수 있다는 경고도 함께 제기됐다.

이예하 대표는 인공지능의 발달로 인공지능의 활용도가 높아지면 최적화된 환경에 적응돼 갑작스런 환경 변화에의 대처능력이 저하되거나 자연적이지 않은 기계와 알고리즘이 구성한 환경에 대한 의존성이 높아질 수 있다고 설명했다.

이예하 대표는 이에 대한 예시로 에어프랑스 에어버스 A330기 추락 사건을 소개하면서 자동화의 도움 없이 비행하는 시간과 조종 능력에 상관관계가 있음을 보고한 연구 결과를 소개하기도 했다.

의사‧환자 관계 재설정 : 포럼에 참석한 패널 대부분은 현재 의료시스템에서의 의사‧환자 관계보다 더욱 민주화되고 수평적 구조로 개편될 것이라고 입을 모았다.

장동경 삼성융합의과학원 디지털헬스학과 교수는 AI의 진료적용이 국민의료서비스의 질 향상에 기여할 수 있는 효과로 의료의 민주화를 들었다. 이는 유효성, 접근성, 환자 또는 사회 수용성이 향상됨을 뜻한다.

이중원 서울시립대 철학과 교수도 진료용 AI인 ‘왓슨’에 대한 대중 신뢰의 증가로 조력자로서의 왓슨의 위상과 역할의 변화가능성을 제기했다.

이중원 교수의 말에 따르면 여기에는 의사와 환자 간의 사회적 신뢰관계, 기술에 대한 인간의 지나친 의존 문제 등이 종합적으로 반영될 것이라는 설명이다.

이에 따라 이중원 교수는 의사의 역할 등 의료문화의 변화가 예상되며, 기술에 대한 의존 심화 및 전반적인 인간 자율성의 위축이 될 것이라고 예측했다.

정채연 포항공과대학 인문사회학부 교수는 법조계의 관점에서 인공지능의 개입이 의사-환자 간의 치료적 대화(therapeutic dialogue)의 가치를 침해하지 않는 방식으로 이루어져야 함을 강조했다.

또한 의료분야에서 인공지능이 상용화될 경우, 의사의 설명의무와 환자의 사전동의 (informed consent) 문제)가 발생할 수 있음도 덧붙었다.

저작권자 © 의학신문 무단전재 및 재배포 금지