Korean J General Edu Search

CLOSE


Korean J General Edu > Volume 19(2); 2025 > Article
AI와 생명윤리를 위한 교양 교과목 제안 -서사적 접근을 중심으로

Abstract

본 연구는 대학 교양 교육 차원에서 <AI와 생명윤리> 교과목의 내용과 교수-학습 방법을 서사적 접근법을 중심으로 제안하는 것을 목적으로 한다. 주요 연구문제는 다음 두 가지로 설정된다. 첫째, AI 생명윤리 교과목의 교육 내용은 어떤 주제로 구성될 수 있는가? 둘째, AI 생명윤리 교수-학습 과정은 어떤 흐름으로 설계될 수 있는가? 연구 결과, 교육 내용은 ‘AI 생명윤리의 이론적 배경’, ‘AI 기반 생의학의 윤리적 쟁점’, ‘AI 기반 생명공학의 윤리적 쟁점’, ‘인간 대상 연구에서 AI의 역할과 연구 윤리’, ‘AI 생명윤리와 관련된 법과 제도’ 등 다섯 가지 교육 모듈로 구성될 수 있음을 제안하였다. 또한 교수-학습 과정은 ‘관계와 상황에 대한 숙의’, ‘윤리 원칙에 대한 숙의’, ‘감정에 대해 숙의’, ‘최종 책임의 지속성 및 공공성에 관한 숙의’, ‘최종 결정에 대한 반 전체 구성원의 상호 피드백 및 성찰 과정을 동반한 숙의’ 등 다섯 가지 단계로 설계될 수 있음을 제시하였다. AI 시대에 실제로 직면하게 될 생명윤리적 딜레마를 현실의 임상 경험과 연결하여 교육할 경우, 윤리적 사고와 감수성을 키우면서, 학습자들이 현실에서 윤리적 결정을 내리는 능력을 배양하는 데 효과적으로 기여할 수 있을 것이다.

Abstract

This study aims to propose the content and teaching-learning methods for a liberal arts course titled AI and Bioethics, with a focus on the narrative approach. The research addresses two main questions: (1) What topics should be included in the curriculum for an AI and bioethics course? (2) How should the teaching-learning process for AI bioethics be structured?
The findings suggest that the course content can be structured into five educational modules: (1) Theoretical foundations of AI bioethics, (2) Ethical issues in AI-based biomedicine, (3) Ethical issues in AI-based biotechnology, (4) The role of AI in human subject research and research ethics, (5) Laws and regulations related to AI bioethics. Additionally, the teaching-learning process can be designed in five stages: (1) Deliberation on relationships and contexts, (2) Deliberation on ethical principles, (3) Deliberation on emotions, (4) Deliberation on the continuity of ultimate responsibility and public accountability, (5) Deliberation involving peer feedback and self-reflection on the final decision.
By linking bioethical dilemmas encountered in the AI era with real-world clinical experiences, this educational approach can effectively foster ethical reasoning, moral sensitivity, and the ability to make ethical decisions in practical contexts.

1. 서론

2022년 챗GPT 모델이 등장한 이래 인공지능 기술은 다양한 분야에서 빠르게 도입되며 사회 전반에 막대한 영향력을 미치고 있다. AI가 인간 수준의 지능에 도달하는 데는 시간이 더 필요할 것이라는 전망이 지배적이지만 이미 개인의 삶뿐만 아니라 사회의 여러 측면에서 필수적인 요소가 되고 있다. AI는 특정 문제를 제시받았을 때 스스로 추론할 수 있는 능력을 갖추고 있으며, 이를 바탕으로 의료, 법률, 금융, 교육 등 오늘날 사회 대부분의 분야에서 핵심적인 의사결정을 수행하는 도구로 자리 잡고 있다. 범용 기술로서 AI는 우리가 일하고, 상호 작용하며, 생활하는 방식을 급격하게 변화시키고 있다.
그러나 AI의 발전은 심각한 윤리적 문제를 야기하기도 한다. 데이터 편향성으로 인한 편견과 차별의 재생산, 개인정보 유출, 알고리즘의 불투명성, 딥페이크와 페이크 뉴스 문제, AI 기술 기반 사고 발생 시 책임 소재의 불분명성, 디지털 격차로 인한 사회적 불평등의 심화(Cohen, 2023) 등 인공지능 도입이 가져올 위험과 부작용의 가능성이 곳곳에서 표출되고 있다.
이러한 문제를 해결하기 위해, 유네스코는 2021년 11월 인공지능 윤리에 관한 최초의 글로벌 표준안인 『인공지능 윤리에 관한 권고안』을 제정하였다. 이 권고안에서는 인권과 인간 존엄성의 보호는 AI 기술의 투명성과 공정성 같은 기본 원칙의 발전에 기초한다는 점과 함께, AI 시스템에 대한 인간 감독의 중요성이 역설되었다. 또한 AI 사용과 관련하여 개인의 자유, 다양성과 포용성 보장 등이 필수적인 윤리적 가치로 제시되었다(UNESCO, 2021).
특히 AI 기술은 의료 분야에서 급격한 변화를 불러올 것으로 예측되고 있다. AI는 의료 진단과 치료, 의료 업무 자동화 등의 분야에서 핵심 기술로 자리 잡아가고 있으며, AI 의료 시장의 규모는 2025년까지 604억 달러(약 80조 원)로 성장할 것이라 전망된다. 2020년 프라이스워터하우스쿠퍼스(PricewaterhouseCoopers, PwC)의 조사에 따르면 전 세계 병원의 약 80%가 AI 도입을 계획 중이며, AI 활용을 통해 2030년까지 의료기관의 연간 경제적 비용은 9600억 달러(약 1270조 원) 절감할 수 있을 것으로 예상된다(Victorivna & Eduardivna, 2024).
현재 AI는 의학 및 생명공학 분야에서 활발히 적용되고 있다. 예컨대 AI 기반 영상 분석을 활용한 질병 진단, 개인 유전자 분석을 통한 맞춤형 치료, AI를 사용한 신약 개발 및 후보 물질 탐색, AI 기반 의료 데이터 관리 및 헬스 케어 최적화, AI 챗봇을 통한 원격의료 상담 등이 대표적인 사례로 꼽힌다(Victorivna & Eduardivna, 2024).
그러나 이러한 AI 기반 의료 기술의 확산은 단순한 기술적 문제를 넘어 인간 생존과 직결되는 중요한 윤리적 문제를 포함하고 있다. AI의 발전은 의료 서비스의 질을 향상시킬 수 있지만, 동시에 인간 생명을 위협할 가능성도 크다. 의료 데이터가 대규모로 수집 및 활용되면서 환자의 프라이버시를 침해할 가능성이 높아지고 있으며 AI가 오진을 내렸을 경우, 법적 책임을 누구에게 물을 것인지도 애매모호하다. AI 의료 기술이 인간 의료진을 대체한다면 기계에게 인간의 생명을 맡기는 셈이 되는데 과연 그러한 상황이 안전할 것인지도 우려된다. AI 의료기술이 경제적 격차를 심화시킬 가능성 또한 증가하고 있고, AI 기반 정밀 의학(Precision Medicine)의 발전으로 인해 인간의 생명이 연장되는 경우, 죽음과 인간 존엄성에 대한 윤리적 논쟁이 가속화되리라 예측된다(Elias et al., 2023).
따라서 AI 의료 기술이 인간 중심적으로 개발되고 운영될 수 있도록 윤리적 프레임워크가 마련될 필요가 있다. 인간 생명을 다루는 분야에서 AI의 투명성, 안전성, 데이터 보호를 위한 기준이 마련되지 않는다면 인간 존엄성과 기본적인 권리가 심각하게 훼손될 위험이 있다. 결과적으로 일반적인 AI 윤리와는 또 달리 AI 의료와 생명공학 기술 분야에 적용될 수 있는 보다 정교한 윤리적 프레임워크, 즉 ‘AI 생명윤리 가이드라인’이 필요하다. 이러한 윤리적 기준은 의료진, 생명과학자, 생명공학자뿐만 아니라 일반 대중도 필수적으로 익혀야 할 윤리적 덕목으로 평가될 수 있다.
연구는 대학 교양 교육 차원에서 <AI와 생명윤리> 교과목의 내용과 교수-학습 방법을 서사적 접근법을 중심으로 제안하는 것을 목적으로 한다. 주요 연구문제는 다음 두 가지로 설정된다. 첫째, AI 생명윤리 교과목의 교육 내용은 어떤 주제로 구성될 수 있는가? 둘째, AI 생명윤리 교수-학습 과정은 어떤 흐름으로 설계될 수 있는가?
이를 위해 본론 첫 번째 부분에서는 이론적 틀로서 AI 시대 생명윤리 개념의 변화를 분석한다. 그 다음으로는 생명윤리 교육 접근법으로서 규범적 접근법 실증적 접근법을 설명한다. 뒤이어 두 가지 접근법을 결합할 수 있는 방법으로 서사적 접근법을 제안한다. 이러한 이론적 틀에 토대해 본론 두 번째 부분에서는 <AI와 생명윤리> 교과목이 설계된다. 먼저 교육 내용을 다섯 가지 모듈로 제시한다. 이어서 이 같은 주제들을 서사적 방식을 통해 교수-학습하는 과정을 논의한다.
기존 생명윤리 교육은 주료 의과대학이나 간호대학을 중심으로 직업윤리 함양에 초점을 맞춰 이루어져 왔다. 관련된 기존 연구들은 생명윤리 프로그램이 예비 의사나 간호사들의 윤리 의식과 도덕적 판단에 어떠한 영향을 미치는지 규명하는 데 초점을 맞춰왔다(김수경 외 2018; 김진동, & 김홍수, 2020; 박승미 & 장인순, 2023). 반면 교양교육 차원의 생명윤리 교육은 융복합적 사고를 배양하는 데 주안점을 두어 시도되었다. 관련된 선행 연구들은 생태문학을 통해 생태윤리 의식을 함양하거나(손민달, 2022), 소설 텍스트를 선별해 인공지능 윤리 요소를 모색하는 데 강조점을 두고 진행되었다.
본 연구는 기존 연구와 차별적으로 허구적 이야기가 아닌 실제 의료 현장 등의 이야기를 활용해 교양교육의 차원에서 AI 생명윤리를 교육할 수 있는 방안을 탐색한다. 이러한 접근은 기존 사례 연구(case study)의 교육 방식과 유사하지만, 경험 기반 스토리텔링을 활용하여 AI 시대 생명윤리 문제를 보다 깊이 있게 이해하면서 학생들의 사고 확장과 성찰의 기회를 제공한다(PANDyA et al., 2016)는 점에서 차별성을 가진다.
생명윤리 교육에서 가장 중요한 것은 단순한 개념 전달이 아니라, 실천적 학습과 반성적 사고를 유도하는 것이다. AI 시대에 실제로 직면하게 될 생명윤리적 딜레마를 현실의 임상 경험과 연결하여 교육할 경우, 윤리적 사고와 감수성을 키우면서, 학습자들이 현실에서 윤리적 결정을 내리는 능력을 배양하는 데 효과적으로 기여할 수 있을 것이다.

2. AI와 생명윤리의 이론적 틀

2.1. AI의 발전과 생명윤리의 변화

생명윤리는 생명과학의 윤리적 측면을 고려하는 학문이다. 1970년대에 등장한 이후 인간과 다른 생명체 간의 관계를 연구하는 응용 윤리의 한 분야로 자리 잡아 왔다. 일반적으로 생명윤리는 인간의 삶의 질에 영향을 미치는 주요 문제를 학제적으로 고찰하며, 세계보건기구(WHO)는 이를 건강과 관련된 윤리적 문제를 규명하는 학문으로 정의하고 있다(Morales-González et al., 2018).
생명 윤리는 그 접근 방식에 따라 미시 생명윤리학과 거시 생명윤리학으로 구분된다. 미시 생명윤리학은 임상 생명윤리(Clinical Bioethics)와 관련된 문제들을 다루며, 의료 치료 과정에서 발생하는 윤리적 이슈를 분석하고 의사결정을 내리기 위한 모델과 방법론을 개발하는 데 초점을 둔다. 반면, 거시 생명윤리학은 보다 광범위하고 복합적인 문제를 포함한다. 예를 들어, 보건 정책, 환경 문제, 동물의 권리, 바이오테러리즘, 빈곤과 취약성, 빅데이터와 알고리즘 윤리, 포스트휴머니즘 등의 주제가 거시 생명윤리학의 영역에 속한다. 요컨대 생명윤리는 생명과학 및 의료 분야에서 인간 행동을 체계적으로 연구하는 학문이며, 인간과 모든 생명체의 삶을 존중하고, 보호하며, 향상시키기 위한 도덕적 원칙과 가치의 조합을 모색하는 학문이다(Diaz, 2022).
최근 인공지능은 금융, 법률, 엔터테인먼트, 교통, 교육 등 다양한 분야에서 광범위하게 적용되고 있으며, 의료 분야에서도 혁신적인 변화를 가져올 것으로 예상된다. AI는 건강 정보학(Health Informatics)에서 중요한 역할을 하며, 의료 데이터를 수집, 저장, 검색, 활용하여 환자 치료를 개선하는 데 기여할 수 있다. 특히 클라우드 스토리지와 같은 원격 서버 네트워크가 확장됨에 따라 의료 빅데이터 분석 도구와 결합된 AI는 방대한 환자 데이터를 분석하여 의료 서비스를 최적화할 수 있다. 또한, AI는 의료진의 진단 및 의사결정 능력을 향상시킬 수 있으며, 방사선과, 안과, 피부과, 병리학 분야에서 자동화된 AI 기반 의료 영상 진단(AI-based Medical Imaging Diagnosis) 시스템이 대표적인 성공 사례로 평가받고 있다. 이와 더불어, AI는 공공 보건 정책 수립에도 기여할 수 있으며, 신뢰할 수 있는 데이터에 기반한 정책 결정을 지원할 수 있다(Elias et al., 2023).
그러나 AI 의료 기술의 발전에 대한 기대만큼이나 윤리적 우려도 커지고 있다. AI가 의료 행위에서 어느 정도까지 의사결정을 지원해야 하는지, 혹은 AI가 독립적인 의사결정을 내려야 하는지에 대한 논란이 점차 증가하고 있다. AI가 의료 결정을 내리는 경우, 인간이 그 과정을 이해하고 평가할 수 있어야 하지만, 딥러닝의 메커니즘 상 AI의 의사결정은 블랙박스 모델로 진행된다. 이로 인해 환자는 AI가 자신의 데이터를 어떻게 처리하는지 완전히 이해할 수 없으며, AI가 내린 의사결정의 설명 가능성(Accountability)이 임상 행위에서 무시될 위험이 있다(Hudha et al., 2024). 이는 법적, 사회적, 상업적인 문제로 이어질 뿐만 아니라, 생명윤리의 핵심 가치인 ‘생명에 대한 존중’이 간과될 가능성을 내포한다. 특히 의료 분야에서 AI의 의사결정은 곧 ‘인간 생명’과 직결되므로 보다 신중한 접근이 요구된다. 완전히 통제되지 않는 AI는 인간의 건강과 복지에 직접적인 해를 가할 수 있다.
이처럼 AI가 인간의 생명에 결정적인 영향을 미치는 상황이 도래함에 따라, 생명윤리를 의료 윤리의 협의적 관점에서만 바라봐서는 안 된다는 주장이 설득력을 얻고 있다. 현대 사회에서 생명윤리를 올바르게 이해하기 위해서는, 과학기술의 발전과 긴밀한 대화를 유지하는 엄격한 접근 방식이 필요하다. 단순히 환자 개인 차원에서 해결해야 할 의료 윤리 문제로서만 바라볼 것이 아니라, 임상적 과정에서 AI 도입으로 인해 발생할 수밖에 없는 생명윤리 논란을 인류 생존과 관련된 핵심적인 문제로 인식해야 한다(Diaz, 2022).
결국 AI 시대 생명윤리는 단순한 의료 윤리를 넘어 사회, 경제, 문화 및 환경적 차원을 포괄하는 개념으로 확장되어야 한다. 생명윤리는 정확한 과학이 아니며, 절대적인 정답이 존재하는 분야도 아니다. 따라서 전통적인 의학적, 생물학적 고려뿐만이 아니라 AI 기술과 관련된 공학적, 수학적 지식 체계, 도덕적 의사결정과 관련된 인문학적 사유, 그리고 이를 뒷받침하는 사회적, 행정적, 법적 지원에 대한 기획 등 다양한 학문적 사고를 융합하여 보다 나은 삶을 위한 실질적인 생명윤리 지식과 실천을 구축하는 것이 필요하다.

2.2. AI와 생명윤리 의사결정: 규범적 대 실증적 접근

AI와 관련된 생명윤리적 판단을 내리기 위해서는 어떤 가이드라인이 필요할까? 이 가이드라인을 설정하는 방식에는 두 가지 접근법이 있다. 첫 번째는 규범적 접근 방식이고, 두 번째는 실증적 접근 방식이다.
규범적 접근 방식은 기존의 윤리 원칙과 규범을 평가하고 설정하여 사회적 요구와 기대를 충족시키는 방식이다. 사전에 정의된 원칙과 가치를 바탕으로 윤리적 판단을 내리는 하향식(Top-down) 접근 방식에 해당한다. 반면 실증적 접근 방식은 현실에서 발생하는 사례나 현상을 관찰하여 귀납적으로 개념을 도출하는 방식이다. 다양한 도덕적 판단 사례를 분석한 후 그로부터 윤리적 기준을 형성하는 상향식(Bottom-up) 접근 방식이다.
본 논문에서는 규범적 접근을 기본 골격으로 삼되, 실증적 접근을 통해 보완하는 하이브리드의 방식으로 AI와 생명윤리 의사결정 모델을 제안하고자 한다. 먼저 기존 생명윤리의 원칙을 AI에 적용하거나 융합하는 논의를 검토할 필요가 있다.
미국 윤리학자인 보샴프와 칠드레스는 Principles of Biomedical Ethics 에서 의료 분야의 생명 윤리를 네 가지 원칙으로 정리하였다. 그들은 선행(Beneficence), 악행 금지(Non-Maleficence), 자율성(Autonomy), 정의(Justice)를 의료 윤리의 기본 원칙으로 제안하였다. 선행의 원칙은 환자의 건강과 복지를 증진하는 것이 의료인의 주된 목표라는 것이다. 악행 금지의 원칙은 의료인이 환자에게 해를 끼치는 행위를 해서는 안 된다는 점을 강조한다. 자율성의 원칙은 치료 과정에서 환자의 자기결정권이 존중되어야 함을 의미한다. 정의의 원칙은 의료 자원이 공평하게 분배되어야 하며, 누구도 경제적 상태나 문화적 배경, 인종 등의 이유로 의료 혜택을 받는 과정에서 차별받아서는 안 된다고 규정한다(Beauchamp & Childress, 1994).
이러한 네 가지 전통적인 생명윤리 원칙은 AI와 관련된 생명윤리적 논의에서도 일관되게 적용될 수 있다. 선행의 원칙에 따르면, AI 기술은 환자의 신체적⋅정신적 건강을 증진하고, 의료 시스템 및 사회 전체의 복지를 향상시키는 방향으로 설계되어야 한다. 악행 금지의 원칙은 의료 행위 중 AI 기술의 사용으로 인해 환자의 신체적⋅정신적 안전이 위협받아서는 안 되며, 개인의 의료 데이터가 유출되지 않아야 한다는 점을 강조한다. 자율성의 원칙과 관련해서는, 블랙박스 문제로 인해 AI가 환자의 자율성을 침해할 가능성이 높다는 점이 주목된다. 자율성의 원칙을 준수하기 위해서는 정보에 기반한 동의(Informed Consent)를 통해 환자가 AI 의학기술의 치료 방법을 스스로 선택하는 것이 필수적이다. 정의의 원칙 측면에서는 AI 의료 기술이 기존의 차별을 강화하거나 새로운 불평등을 초래하지 않도록 주의해야 한다. 알고리즘 편향으로 인해 특정 인종이나 사회적 배경을 가진 환자가 차별받는 일이 발생하지 않도록 의료 AI 시스템 설계 시 형평성을 고려해야 한다(Floridi et al., 2018).
최근 윤리학자들은 이러한 네 가지 원칙에 더해 다섯 번째 원칙으로 ‘설명가능성’의 원칙을 추가해야 한다고 주장한다. 설명 가능성이란 AI 시스템의 의학적 의사결정 과정이 명확하고 이해 가능해야 하며, 블랙박스 문제를 해소할 수 있어야 한다는 개념이다. AI 개발자는 모델의 작동 원리와 알고리즘의 합리성을 설명할 수 있어야 하며, 훈련 데이터와 데이터 관리의 투명성을 확보해야 한다. 환자는 AI가 어떤 근거로 질병을 진단하고, 치료를 추천하는지 알 권리가 있으며, 의료진 또한 AI의 결정을 신뢰하고 검토할 수 있어야 한다. 만약 설명 가능성이 부족할 경우 AI가 제안한 치료법을 환자가 이해하지 못하여 불안이 증가할 수 있으며, 의료 사고 발생 시 AI의 결정 과정을 검토하기 어려워 책임 소재가 불분명해질 수 있다. 또한, AI가 불공정하거나 편향된 데이터를 기반으로 작동할 경우, 의료 현장에서 비윤리적인 의사결정이 이루어질 가능성도 존재한다(Floridi et al., 2018).
그러나 이러한 규범적 접근 방식에는 몇 가지 한계가 존재한다. 첫째, AI와 관련된 생명윤리적 판단에서 어떤 원칙을 우선 적용할 것인지 결정하는 것이 쉽지 않다. 둘째, 원칙 간 충돌이 발생하는 경우 해결책을 제시하기 어렵다. 예를 들어, AI가 환자의 데이터를 활용하여 더 나은 치료법을 제공하는 것은 선행의 원칙을 충족할 수 있지만, 동시에 환자가 치료법을 스스로 선택할 권리를 제한하여 자율성의 원칙을 침해할 수도 있다. 셋째, 규범적 접근 방식은 현실에서 발생하는 복잡한 윤리 문제를 반영하기 어렵다. 의료 AI의 발전 과정에서 예상하지 못한 윤리적 딜레마가 빈번히 발생하는데, 기존의 윤리 원칙만으로는 이를 해결하는 데 충분하지 않을 수 있다. 넷째, 원칙 기반 접근 방식은 상황에 따라 유연성이 부족하거나, 해결책이 모호할 가능성이 크다(Sinnott-Armstrong & Skorburg, 2021).
반면 실증적 접근 방식은 원칙을 미리 설정하지 않고, AI와 생명윤리에 관한 실제 사례를 분석하여 윤리적 판단을 도출하는 방식이다. 실증적 접근 방식에서는 다양한 도덕적 판단 ‘사례’를 통해 AI의 생명윤리 문제가 탐구된다. 특정 윤리 이론에 의존하지 않고, 실제로 AI 관련 생명윤리를 어떻게 판단할지를 분석하는 데 초점을 맞춘다. 실증적 접근 방식의 장점은 다양한 도덕적 딜레마 사례를 바탕으로 보다 현실적인 윤리적 결정을 내릴 수 있다는 점이다. 또한, 특정 윤리 이론에 얽매이지 않으므로 기존의 규범적 접근 방식이 해결하지 못하는 문제를 보완할 수 있다.
물론 실증적 접근 방식에도 한계는 있다. 먼저, 실증적 접근이 특정 문화권의 도덕적 판단에만 의존할 경우, 그 윤리적 판단은 편향될 수 있다. 또한, 도덕적 판단은 개인과 상황에 따라 다르게 나타날 수 있어 보편적인 윤리 기준을 확립하기 어려울 수 있다. 마지막으로, AI 의료 윤리 사례가 충분히 축적되지 않은 경우, 실증적 접근 방식의 신뢰성이 떨어질 가능성도 존재한다.
따라서 AI와 생명윤리에 관련된 의사결정을 교육할 때에는 두 가지 접근법을 모두 활용할 필요가 있다. 윤리적 딜레마와 문제 상황에 직면했을 때, 우선 규범적 접근 방식을 적용하여 윤리 원칙을 기반으로 판단한 후, 해결되지 않는 도덕적 판단에 대해서는 실증적 사례를 활용하여 분석하는 방식이 효과적일 것이다. 이러한 하이브리드 접근 방식은 AI 시대의 생명윤리 문제를 보다 실용적으로 해결할 수 있다.

2.3. AI와 생명윤리 이슈 교육에서 서사적 접근의 필요성

AI와 생명윤리 교육에서 규범적 접근과 실증적 접근을 조화롭게 활용할 수 있는 효과적인 교육 방법은 무엇일까? 그중 하나의 대안으로, 실제 임상 과정에서 발생한 이야기를 활용한 생명윤리 교육이 제안될 수 있다. 이야기는 단순한 사례(Case)가 아니라 학습자들이 윤리적 원칙을 보다 쉽게 이해하고, 자신의 가치관을 반영하여 현실의 도덕적 딜레마를 성찰할 수 있도록 돕는 강력한 교육적 도구다. AI 생명윤리 교육에서 스토리텔링이 접목될 경우, 학습자들은 상위 윤리 원칙에 대한 원형적 판단을 내리는 동시에, 복잡한 현실적 상황을 고려한 수정된 판단을 할 수 있게 된다.
스토리텔링의 교육적 가치는 이미 여러 학자들에 의해 강조되어 왔다. 이야기는 우리가 세상을 이해하고, 질서를 부여하며, 타인의 경험과 연결될 수 있도록 하는 핵심적인 의사소통 방식이다. 인간은 본질적으로 ‘이야기하는 존재(Homo Narrans)’이며 우리는 일상적으로 이야기 구조를 통해 정보를 습득하고 공유한다(Linde, 1993). 이야기는 주제, 등장인물, 줄거리, 구조, 배경 및 시점 등의 요소로 구성되며, 교육적 맥락에서 윤리적 문제를 효과적으로 전달하는 도구로 작용한다. 특히 이야기 형식의 교육은 단순한 지식 전달을 넘어, 학습자의 윤리적 가치 형성과 도덕적 사고력 발달에도 기여할 수 있다(Kirkpatrick & Brown, 2004). 또한 스토리텔링은 직관적인 방식으로 윤리문제를 전달하며 학습자의 흥미와 몰입을 높인다(최시한, 2012).
기존의 생명윤리 교육은 철학적 또는 생물학적 접근을 중심으로 이루어져 왔다. 이는 합리적인 분석을 강조하는 반면 감정과 정서를 배제하는 경향이 있다. 그러나 생명윤리는 단순히 이성적 사고만으로 이해될 수 없는 복합적 문제이며, 윤리적 사고는 감정과 가치를 함께 고려할 때 더욱 깊이 있는 논의로 확장될 수 있다. 서사적 접근이 필요한 이유는 여기에 있다. 윤리적 문제를 논리적 분석의 대상이 아니라, 감정과 가치가 담긴 이야기로 접근할 때, 학습자는 보다 포괄적인 시각에서 문제를 탐구할 수 있다.
서사적 접근을 기반으로 한 생명윤리는 기존의 생명윤리 모델과 차별화되는 세 가지 주요 특징을 가진다. 첫째, ‘관계적 자율성(Relational Autonomy)’이 강조된다. 전통적 생명윤리 모델이 개인의 자율성을 중심으로 논의를 전개하는 반면, 내러티브 생명윤리는 인간이 타인과의 관계 속에서 존재한다는 점을 강조한다. 둘째, ‘맥락적 윤리(Contextual Ethics)’를 반영할 수 있다. 전통적 생명윤리가 보편적 원칙을 강조하는 데 비해, 내러티브 생명윤리는 윤리적 판단이 맥락과 상황에 따라 달라질 수 있음을 인정한다. 이는 윤리가 단순히 절대적이고 보편적인 규범이 아니라, 상황적이고 부분적인 성격을 가진다는 점을 시사한다. 마지막으로 ‘감정의 윤리학(Ethics of Emotion)’이 강조된다. 전통적 생명윤리 모델은 감정과 정서를 논리적 사고를 방해하는 요소로 간주하는 경향이 있으나, 내러티브 생명윤리는 감정과 정서가 윤리적 판단에서 중요한 역할을 한다고 본다. 이러한 맥락에서 생명윤리에 관한 서사적 접근은 “우리가 무엇을 해야 하는가?”라는 질문보다 “지금 어떤 일이 벌어지고 있는가?”라는 질문을 중심으로 윤리적 숙고를 전개한다(Cambra-Badii, 2024).
AI 의료 환경에서 실제 임상 이야기를 교육 자료로 활용하면, 학습자는 생명윤리 원칙을 합리적으로 분석하고 최선의 결정을 내리는 과정을 경험할 수 있을 뿐만 아니라, 윤리적 판단에서 관계, 맥락 그리고 감정적 요소를 고려하는 새로운 접근법을 익힐 수 있다. 이야기는 단순한 사례 분석을 넘어, 인지적, 문화적, 사회적, 심리적 요소가 융합된 다차원적 교육 도구로 기능한다. 따라서 서사적 접근법이 결합된 AI 생명윤리 교육은 규범적 접근과 실증적 접근을 균형 있게 활용하여 학생들의 윤리적 사고를 더욱 심화할 수 있다.
이러한 서사적 접근법이 적용된 AI 생명윤리 교육에서 숙의의 과정은 기존 논의(Cambra-Badii, 2024)를 바탕으로 다음과 같은 단계로 구성될 수 있다.
첫째, 관계와 상황에 대한 숙의가 이루어진다. 학습자는 실제 임상 이야기를 바탕으로 AI 생명윤리적 문제를 분석하며, 이야기 속에서 등장하는 인물, 인물 간의 관계, 상황적 배경을 구체적으로 파악한다. 이를 통해 윤리적 문제의 본질과 도덕적 딜레마의 구조를 명확하게 이해할 수 있다.
둘째, 윤리 원칙에 대한 숙의가 진행된다. 교수자는 학습자들이 이야기 속에서 도덕적 문제들을 스스로 발견할 수 있도록 질문을 제시하며, 학습자들은 선행의 원칙, 악행 금지의 원칙, 자율성의 원칙, 정의의 원칙, 그리고 설명 가능성의 원칙 등이 어떻게 적용되거나 충돌하는지를 분석한다. 특히 두 원칙이 충돌할 경우, 극단적 선택을 고려해본 후, 현실적인 해결 방안을 모색하도록 유도한다.
셋째, 감정에 대해 숙의를 통해 학습자는 이야기 속 등장인물들의 정서적 반응을 탐색한다. 등장인물들이 특정 윤리 상황에서 어떤 감정을 느낄지, 상대방을 향한 감정은 무엇인지, 각자의 입장에서 어떤 심리적 부담을 경험하는지를 학생들에게 상상해보도록 한다. 이 과정에서 학습자는 단순한 논리적 판단을 넘어 도덕적 공감과 감성적 이해를 함께 고려하는 윤리적 사고를 연습할 수 있다.
넷째, 최종 책임에 대한 숙의를 거친다. 학습자들은 자신이 내린 윤리적 판단이 시간이 지나도 타당성을 유지할 수 있는지, 공개적으로 설명할 수 있는지, 법적으로 정당한 결정인지 검토하는 과정을 가진다. 이를 통해 윤리적 판단의 지속성과 공공성을 고려하는 태도를 기를 수 있다.
마지막으로, 최종 결정에 대한 숙의가 뒤따른다. 학습자들은 특정 AI 생명윤리적 문제에 대해 최종 판단을 내리고, 다른 학습자들의 자문을 통해 결정을 재검토한다. 이러한 상호 피드백 과정을 거치면서 학습자들은 자신의 결정에 대한 책임을 인식할 수 있고, 윤리적 의사결정 과정에서 반성과 조정이 필수적임을 깨닫게 된다.
이상의 숙의 과정은 AI 생명윤리적 딜레마를 단순한 논리적 분석이 아닌 실제 경험과 연결된 이야기 속에서 탐구할 수 있도록 돕는다. 결과적으로 학습자들은 공감 능력과 윤리적 판단력을 배양하며, 규범적 원칙과 실증적 사례를 유기적으로 연결하는 사고방식을 습득하게 된다.

3. AI와 생명윤리를 위한 교양 교과목 설계

3.1. AI와 생명윤리 교과목 교육 모듈 및 주제별 내용

<AI와 생명윤리> 교과목은 AI와 생명과학의 융합을 중심으로 다양한 윤리적 이슈를 탐구하기 위해 개설된다. 이 교과목은 AI 기술의 발전이 생명윤리에 미치는 영향, 의료 및 생명공학 분야에서 AI의 역할과 윤리적 책임, AI 기반 생명과학 연구의 윤리적 문제, AI 생명윤리와 법⋅제도 등의 핵심 주제를 다룬다. 궁극적으로 학습자들이 AI와 생명과학의 상호작용을 이해하고, 윤리적 문제를 분석하여 해결 방안을 모색할 수 있도록 돕는 것이 교육 목표다.
기존 생명윤리 연구(Chowning et al., 2012; Elias et al., 2023; Hudha et al., 2024; Kolarova & Denev, 2012)를 바탕으로, 본 교과목은 다음과 같이 다섯 가지 모듈로 구성될 수 있다.

3.1.1. AI 생명윤리의 이론적 배경

첫 번째 모듈에서는 기존 생명윤리 개념이 AI 윤리와 어떻게 융합될 수 있는지를 탐구한다. 학습자는 선행의 원칙, 악행 금지의 원칙, 자율성의 원칙, 정의의 원칙 등 생명윤리의 기본 원칙을 이해하고, 이 원칙이 등장하게 된 역사적 배경을 학습한다. 이를 바탕으로 AI의 블랙박스 문제를 해결하기 위해 투명성, 책임성, 알고리즘 윤리 등을 포함하는 설명 가능성의 원칙이 생명 윤리의 핵심 원칙으로 추가되었음을 논의한다.
생명윤리는 인간과 생명체 간의 관계를 탐구하는 학문으로 시작되었지만, AI의 발전과 함께 비자연적 존재와 인간의 윤리적 관계를 논의하는 방향으로 확장되고 있다. 따라서 기존의 생명윤리 프레임워크는 AI가 제기하는 문제를 해결할 수 있도록 보완되어야 하며, AI 기술의 발전 또한 생명윤리 원칙을 반영하는 방향으로 이루어져야 한다. 이를 인식하는 과정에서 학습자는 생명과 관련된 AI의 윤리적 의사결정이 인간의 의사결정과 어떻게 다른지 비교⋅대조하는 활동을 수행하게 된다.

3.1.2. AI 기반 생의학의 윤리적 쟁점

두 번째 모듈에서는 의료 윤리가 AI 생명윤리로 확장될 필요성을 학습한다. 예컨대 IBM Watson이나 ChatGPT의 의학적 활용 사례에서 드러나듯이 AI 기반 시스템이 질병 진단 및 치료 과정에서 어느 정도의 예측 정확성과 신뢰성을 가질 수 있는지, 그리고 오진이 발생했을 경우 책임은 누구에게 귀속되는지에 대한 논의가 이루어진다.
또한 AI 의료 챗봇이 실제 의사나 간호사를 대신하여 가상의 환경에서 환자를 상담하는 것이 윤리적으로 적절한가에 대한 토론을 진행할 수 있다. AI가 의료진의 의사결정을 지원하거나 대체하는 과정에서 발생할 수 있는 알고리즘 편향 및 공정성 문제 그리고 AI 기반 생체인식 기술이 환자의 프라이버시를 침해하는 위험성도 중요한 논의 주제가 된다.

3.1.3. AI 기반 생명공학의 윤리적 쟁점

세 번째 모듈에서는 AI가 생명공학에서 활용되는 방식과 그에 따른 윤리적 문제를 다룬다. 예를 들어, AI가 DNA를 편집하는 ‘오픈크리스퍼-1(OpnCRISPR-1)’의 윤리적 문제를 탐구한다. 또한 합성 생물학(Synthetic Biology)에서 AI를 활용하여 새로운 인공 생명체를 디자인하는 방식이 우생학적 논란을 불러일으킬 가능성에 대해 논의할 수 있다.
이 모듈에서는 AI 기반 신약 개발과 특허권 문제, 신약 개발 과정에서 발생할 수 있는 부작용 및 책임 소재의 문제, 그리고 AI가 유전자 데이터를 해석하는 과정에서의 알고리즘 편향 문제 등도 주요 쟁점으로 다루어진다.

3.1.4. 인간 대상 연구에서 AI의 역할과 연구 윤리

네 번째 모듈에서는 AI가 인간을 대상으로 하는 연구에서 활용될 때 고려해야 할 연구 윤리를 다룬다. 기존의 인간 대상 연구 윤리는 뉘른베르크 강령(Nuremberg Code)과 헬싱키 선언(Helsinki Declaration) 등을 통해 발전해 왔다. AI 시대 생의학적 임상 실험이나 생명공학적 연구에서 이러한 윤리적 가이드라인이 어떻게 변용되어야 하는지 논의할 필요가 있다.

3.1.5. AI 생명윤리와 관련된 법과 제도

마지막 모듈에서는 AI 생명윤리와 관련된 법과 제도적 프레임워크를 분석한다. 대표적으로 다음과 같은 AI 윤리 원칙 및 가이드라인을 검토할 수 있다.
  • ■ 아실로마 AI 원칙(Asilomar AI Principles, 2017): 미래 AI 개발 방향을 설정하기 위해 전 세계 AI 연구자 및 윤리학자들이 마련한 23가지 원칙

  • ■ 몬트리올 선언(Montréal Declaration_Responsible AI, 2018): 캐나다 몬트리올 대학교에서 주도한 AI 윤리원칙

  • ■ EU 집행위원회의 신뢰할 수 있는 AI 윤리 가이드라인(ETHICS GUIDELINES FOR TRUSTWORTHY AI, 2019): 세계 최초로 국제기구 차원에서 발표된 AI 윤리 지침

이러한 AI 윤리 원칙들은 일반적인 가이드라인 역할을 하지만, 생명윤리와 관련된 구체적인 사례에 적용하기에는 한계가 있다. 따라서 AI 생명윤리 이슈를 상황별로 세분화하고, 법적⋅사회적⋅문화적 요소를 반영한 실용적인 지침을 개발할 필요성을 학습자가 인식하도록 교수자가 돕는 것이 중요하다.

3.1.6. 소결

이러한 교육 모듈을 통해 학습자는 AI와 생명윤리의 관계를 이해하는 데 그치지 않고, AI의 의사결정이 인간에게 미치는 영향을 분석하여, 윤리적 판단에서 인간이 최종 감독자로 개입해야 함을 인식할 수 있다(Ekmekci & Arda 2020). AI 생명윤리는 단순히 윤리적 규범을 설정하는 문제가 아니라 인간이 지속적으로 개입하고 평가해야 하는 실천적 과제다. 이를 바탕으로 AI 시대의 생명윤리 문제 해결을 위해 실천적인 노력을 기울일 수 있는 인간을 길러내는 것이 본 교육 모듈이 지향하는 궁극적인 교육목표라 할 수 있다. 이상의 내용을 표로 제시하면 <표 1>과 같다.
<표 1>
AI와 생명윤리 교과목 강의 개요 및 주차별 학습 내용
교과목명 AI와 생명윤리
교과목 개요 생의학, 생명공학, 인간대상 생명과학 연구 영역에서 AI의 개입으로 발생하는 윤리적 문제들을 탐구하고, 다양한 입장과 원칙을 고려한 윤리적 판단력을 기르며 AI 시대의 생명윤리 문제 해결을 위해 실천적 노력을 기울인다.

수업 목표 AI 기술과 생명윤리 간 융합적 쟁점을 이해하고, 사례 기반 윤리적 의사결정 능력을 함양한다.

주차 주제 내용

1주차 오리엔테이션 및 문제 제기 교과목 개요 설명, AI와 생명윤리의 교차 영역 탐색

2주차 생명윤리의 기본 원칙 선행, 악행 금지, 자율성, 정의의 원칙 이해

3주차 AI 윤리와 설명 가능성 블랙박스 문제와 알고리즘 윤리, 책임성 논의

4주차 의료 현장에서의 AI 활용 진단⋅치료 지원 사례 및 오진 문제, 의료 책임 검토

5주차 AI 챗봇과 환자 상담 의료 AI 상담 윤리, 공정성과 편향 문제

6주차 생명공학과 AI 기술 유전자 편집, 합성생물학, 신약개발과 특허권 쟁점

7주차 인간 대상 연구와 AI 임상시험, 뉘른베르크 강령, 헬싱키 선언과 AI 적용

8주차 중간지필고사 중간 성취도 평가

9주차 법과 제도: 국제 AI 윤리 기준 아실로마 원칙, 몬트리올 선언, EU 가이드라인 분석

10주차 AI 생명윤리 사례 분석 ① 신장이식 사례 기반 교수-학습 활동

11주차 AI 생명윤리 사례 분석 ② 피부과 사례 기반 교수-학습 활동

12주차 윤리적 딜레마와 의사결정 다양한 입장의 충돌 탐색 및 가치판단 토론

13주차 학생 발표 ① 모둠별 사례 발표 및 질의응답

14주차 학생 발표 ② 모둠별 사례 발표 및 질의응답

15주차 기말보고서 제출 및 성찰 기말 과제 제출, 자기 성찰 및 학습 종합 피드백

3.2. 서사적 접근을 활용한 의사결정 모델 학습 사례

본 연구에서는 AI 생명윤리를 교양교육 차원에서 실현하기 위해 의료 현장이나 생명 공학 실험실에서 실제로 발생한 사례를 교육 자료로 활용하고자 한다. 그러나 현재 AI를 활용한 생의학적 치료나 생명 공학적 실험은 아직 발전 단계 초기에 있으며 이에 대한 실제 사례 보고가 충분하지 않다. 현재까지는 단편적인 사례 연구들이 보고되는 수준이며, 따라서 교육적 목적에 맞게 연구자의 관점에서 사례를 바탕으로 이야기를 구성하여 학습자에게 제시하고자 한다.
향후 AI 기반 진단 및 치료, AI를 사용한 생명공학 실험이 상용화되고 보편화될 경우, 환자, 의사, 간호사, 환자 가족, 윤리위원회 멤버, 생명공학자, 피실험자 등 다양한 입장에서 체험한 경험적 이야기가 축적될 것으로 예상된다. 이를 고려하여, 본 연구에서는 현재 보고된 사례에 토대해 AI 의사결정이 생명 윤리에 미치는 영향을 학습할 수 있도록 이야기를 구성하였다.
<표 2>Sinnott-Armstrong & Skorburg(2021), Seyahi & Ozcan(2021)이 보고한 신장이식 사례이고, <표 3>은 이를 재구성한 이야기다.
<표 2>
신장이식 사례
사례 1: AI 기반 신장이식 의사결정
■ 배경
- 미국의 한 신장이식 외과의사가 새벽 3시에 급히 호출을 받음.
- 교통사고로 사망한 환자가 기증한 신장이 병원으로 이송되고 있으며, 이를 누구에게 이식할지 그는 몇 분 안에 결정해야 함.
- 병원에는 이러한 의사결정을 논의하는 윤리위원회가 존재하지만, 새벽 시간이라 소집이 어려움.
- 신장이식은 혈액형과 조직 적합성이 핵심 기준이며, 최적의 기증-수혜자 매칭이 필요함.
- 신장 교환 프로그램(Kidney Exchange Program) 을 통해 다중 기증-수혜자 매칭이 가능하지만, 2021년 기준 미국에서는 약 10만 명의 환자가 신장이식을 대기 중이며, 기증자의 수는 극히 제한적임.
- 수천 개의 변수(나이, 건강 상태, 대기 시간, 조직 적합성 등)를 고려한 최적의 매칭은 아무리 의사라도 인간이 직접 수행하기 어려움.
- AI 알고리즘을 활용하면 신장 기증-수혜자 매칭을 최적화하여 더 많은 생명을 구할 수 있음.
■ 윤리적 논란: 누가 신장을 받을 자격이 있는가?
① 적합한 의학적 기준:
- 이식 신장의 방사선학적 평가.
- 조직의 분자적 평가를 포함한 병리학적 검사.
- 이식 신장의 생존 가능성 예측.
- 면역억제제 용량 최적화 여부,
- 거부 반응 발생 가능성,
- 초기 이식 신장 기능 예측.
② 사회적 요인:
- 부양가족 수 (가족을 돌볼 사람이 필요한 경우 우선순위?)
- 과거 범죄 기록 (폭력범죄자는 후순위?)
- 질병의 원인 (알코올 중독으로 인한 신부전 환자는 후순위?)
<표 3>
신장이식 사례에 기반한 이야기 재구성
이야기 1: 어느 외과의사의 하루
미국의 신장이식 외과의사 존(Dr. John) 은 지난 10년간 수많은 신장이식 수술을 집도해왔다. 어느 추운 겨울날 새벽 3시, 야간 당직 간호사 메리로부터 급한 전화를 받았다.
“존, 교통사고로 사망한 젊은 기증자의 신장이 이송되고 있습니다. 신장 상태는 매우 양호합니다. 누구에게 이식할지 곧 결정해 주세요.” 존은 잠시 고민에 빠졌다. 신장이식의 성공률은 신속한 결정에 달려 있지만, 새벽 시간이라 병원 윤리위원회를 소집할 수도 없었고, 환자 차트를 검토할 시간도 부족했다.
차를 몰고 병원으로 가는 동안, 존의 머릿속에는 개인적으로 선호하는 환자가 떠올랐지만, 그는 특정 환자에게 편의를 제공했다는 오해를 피하기 위해 AI 시스템을 활용하기로 결정했다.
병원에 도착한 존은 신장이식 AI 시스템 ‘왓슨포키드니(Watson for Kidney)’ 를 사용하기로 했다.
AI 시스템에 기증자의 신장 데이터와 병동 환자들의 데이터를 입력하자, AI는 다음과 같은 정보를 출력했다.
■ 이식 신장의 방사선학적 분석 결과
■ 조직 적합성 및 분자적 평가 데이터
■ 예측된 생존율
■ 면역억제제 용량 최적화 정보
■ 거부 반응 발생 확률
AI는 이를 종합해 신장이식 적합도를 기준으로 후보자 순위 리스트를 출력했다.
존은 리스트의 최상단에 위치한 찰스(Charles, 30세)를 이식 대상자로 결정했고, 새벽 6시 바로 수술을 진행했다. 10시간에 걸친 수술은 성공적으로 끝났고, 찰스는 빠르게 회복되었다.
그러나 한 달 후 문제가 발생했다.
병원 윤리위원회는 존에게 즉각 출석을 요구하는 서면 명령을 보냈다.
AI가 두 번째 후보로 예측했던 샐리(Sally, 45세, 여성)가 윤리위원회에 이식 결정이 불공정하다고 제기한 것이다.
샐리의 주장은 다음과 같았다.
■ 찰스는 전과가 다수 존재했지만, AI는 이를 고려하지 않았다.
■ 찰스는 미혼이며 부양가족이 없었지만, 샐리는 최근 이혼 후 어린 자녀 3명을 홀로 키우고 있었다.
■ 찰스는 알코올 중독으로 인한 신부전 병력이 있었지만, 이를 존의 진료 과정 중 말하지 않았고, AI는 이를 예후에 반영하지 않았다.
■ AI의 예측치는 찰스와 샐리의 점수가 근소한 차이였으며, 머신러닝 모델을 변경하면 순위가 뒤바뀔 수도 있었다.
샐리는 병원에 손해배상청구소송을 제기하겠다고 통보했다.
현재 병원 윤리위원회는 존에게 해명을 요구하고 있으며, 그는 위원회 출석을 앞두고 있다.
이상의 교육 자료를 바탕으로 다음과 같은 교수-학습 활동이 진행된다.
먼저, 관계와 상황에 대한 숙의가 이루어진다. 학습자는 위 이야기에 등장하는 이해관계자들을 고려하며, 각자의 입장에서 사건을 어떻게 받아들일지 고민해 볼 수 있다. 의사 존과 간호사 메리뿐만 아니라 신장이식을 받은 찰스와 이식을 받지 못한 샐리, 그녀의 가족, 병원에서 신장 이식을 기다리고 있는 다른 환자들과 그들의 가족, 기증자인 사망자와 그의 유가족, 병원 경영진과 병원 윤리위원회, 지역 시민단체와 시민 활동가, 지방 행정부, 입법부, 사법부관계자들, 왓슨포키드니를 개발한 IT 회사의 기술자와 임원진, AI 공학자와 학술단체, 사회학자, 철학자, 윤리학자, 그리고 지역 언론, 유튜버 및 SNS 인플루언서까지 다양한 이해관계자들이 존재할 수 있다. 학습자는 이들이 각각 어떤 입장을 가질지, 그리고 다른 이해관계자에 대해 어떤 태도를 보일지 논의해보면서, 개별 이해관계자들의 관점이 어떻게 충돌할 수 있는 지를 탐색하게 된다.
다음으로, 윤리 원칙에 대한 숙의가 진행된다. AI를 활용한 신장이식 의사결정에서 선행의 원칙이 찰스에게는 적용되었으나, 같은 병원에서 신장 이식을 기다리던 다른 환자들은 그 혜택을 받지 못했다. 이것이 정의의 원칙을 위배하는 것은 아닌지 학습자들의 토론을 유도할 수 있다. 극단적으로 정의의 원칙을 고수한다면, 범죄 경력이 있고, 부양가족이 없는 환장에게 신장 이식을 시행하는 것이 과연 공정한가에 대한 논의로 이어질 수 있다. 또한 의사 존이 왓슨포키드니를 너무 신뢰한 것은 아닌지도 논란의 도마 위에 오를 수 있다. 존은 인공지능 기술이 제공한 데이터를 바탕으로 신장이식 대상자를 결정했지만 이 결정 과정이 환자들에게 충분히 설명되었는가 하는 점에서 설명 가능성의 원칙이 제대로 준수되었는지도 논의할 필요가 있다. 인공지능의 의사결정 과정을 환자들에게 어디까지 설명해야 하는지 검토해 볼 수 있다. 아울러 환자들의 병력이나 범죄 기록, 가정환경, 기호 식품으로 나타나는 성향의 차이 등 민감한 개인 정보가 의사와 병원에 공개되는 것이 윤리적으로 타당한지에 대해서도 의논할 수 있다.
이후, 등장인물들의 정서적 반응을 탐색한다. 사망자는 어떤 신념을 가지고 신장 이식 서약에 서명했을까? 그의 유가족들은 사랑하는 가족의 장기 기증이 법적 분쟁으로 번지는 상황을 보며 어떤 감정을 느꼈을까? 자신의 범죄 경력이 뜨거운 감자로 부각되는 것에 대해 찰스는 어떤 기분이었을까? 샐리는 병원의 윤리위원회에 소송을 제기하기까지 어떤 심경의 변화를 겪었을까? AI를 객관적이고, 과학적인 도구라 생각해 오던 의사 존은 윤리적 논란에 휘말리며 어떤 반응을 보였을까? 더 나아가 인공지능은 신장이 필요한 환자들의 고통과 절박함을 공감할 수 있을까? 이러한 질문들을 학습자들은 깊이 고민해보며, AI의 의사결정이 인간의 감정과 윤리에 어떤 영향을 미치는지 고찰해볼 수 있다.
그 다음으로, 최종 결정에 대한 모둠별 숙의가 이어진다. 교수자는 도덕적 결정에는 객관적인 정답이 없다는 점을 강조하며, 질병 진단과 같은 과학적 판단은 객관적일 수 있지만, 이식 순위를 결정하는 과정은 필연적으로 주관적 가치 판단이 개입될 수밖에 없음을 학생들에게 인식시킨다. 학생들은 자신의 최종 판단을 다른 사례에도 적용할 수 있는지, 공개했을 때 제기될 수 있는 이견이 무엇일지 고민해볼 수 있다.
마지막으로, 전체 토론이 진행되며 각 모둠이 도출한 최종 결정에 대해 다른 모둠이 자문을 제공하는 과정이 이루어진다. 학습자들은 서로의 결정을 검토하고 피드백을 주고받으며 자신의 판단을 다시 한 번 성찰할 기회를 가진다. 교수자는 이러한 상호 피드백 과정에서 학습자들이 자신의 결정을 되돌아볼 수 있도록 유도한다.
이를 표로 제시하면 <표 4>와 같다.
<표 4>
존의 신장이식 사례: 교수-학습 과정 흐름
단계 활동 내용
1단계 (관계와 상황에 대한 숙의) 의사 존, 간호사 메리, 이식 수혜자 찰스, 탈락자 샐리, 윤리위원회, 병원 경영진, AI 개발자 등 다양한 이해관계자의 입장과 관계를 검토함

2단계 (윤리 원칙에 대한 숙의) 찰스에게 선행의 원칙이 적용되었으나, 이 경우 정의의 원칙이 위배된 것은 아닌지, AI 의사결정의 설명 가능성 원칙은 충족되었는지 토론함

3단계 (정서적 반응 탐색) 찰스, 샐리, 사망자 유가족, 존의 감정 상태를 탐색하고, AI가 환자의 고통을 공감할 수 있는지 고민함

4단계 (모둠별 최종 결정 숙의) 학생들이 각자의 입장에서 최종 이식 대상자를 판단하고, 그 결정이 다른 상황에서도 타당한지 토론함

5단계 (전체 토론 및 피드백) 각 모둠의 결정을 비교⋅검토하고, 타 모둠의 자문을 바탕으로 자기 판단을 성찰함
<표 5>는 실제 항생제 내성 개선을 위한 AI 연구(Amin et al., 2024)를 참조하여, 피부과에서 항생제 처방과 관련해 보고된 부작용 사례(Franco D’Souza, 2024)를 제시한 것이다. <표 6>은 이를 기반으로 AI가 새롭게 발견한 항생제가 사용되었다고 가정하여 재구성한 이야기다.
<표 5>
피부과 사례
사례 2: 피부과
■ 배경
- 한 21세 남성이 14세부터 심한 여드름 치료를 위해 피부과를 방문해 항생제 치료를 받아옴.
- 치료 후 여드름은 개선되었으나, 장기간 항생제 사용으로 인해 청력 손실이라는 심각한 부작용을 겪게 됨.
- 항생제 사용은 항생제 내성(ABR)을 유발할 수 있음.
- ABR을 예측하고 통제하기 위해 다양한 방법이 사용되어 왔음. 최근에는 인공지능(AI)이 항생제 처방을 개선하고 ABR을 줄이는 데 기여할 가능성이 연구되고 있음.
- 여러 연구에서 항생제 처방을 개선하는 데 인공지능의 기계학습(ML)이 긍정적인 영향을 미친다는 결과를 보여주었으며, 이를 통해 항생제 처방 건수를 줄이거나 부적절한 처방을 예측하는 데 도움을 줄 수 있음이 확인되었음.
- 그러나 이러한 AI 기반 모델 개발 과정에서 실제 항생제 처방자의 참여 여부가 보고되지 않았으며, 의료 현장에서의 사용 편의성과 신뢰성에 대한 피드백이 부족한 상황임.
■ 윤리적 논란:
- AI가 개발한 항생제의 부작용에 대한 법적, 윤리적 책임은 누구에게 귀속되는가?
- 의료진과 AI 개발자는 새로운 치료법의 장기적 부작용에 대해 어디까지 책임을 져야 하는가?
<표 6>
피부과 사례에 기반한 이야기 재구성
이야기 2: 여드름에서 벗어났지만 청력을 잃다
철수에게 여드름은 14세 사춘기 때부터 커다란 고민거리였다. 여드름투성이인 자신의 얼굴이 부끄러워 철수는 또래 친구들 앞에 나서는 일을 두려워했다. 대학에 들어가 성년이 되는 그날까지도 여드름은 그의 삶을 괴롭혔다.
그러던 중, 철수는 1년 전 지하철 플랫폼에서 ‘여드름 전문의’라고 대문짝만하게 전시된 광고판을 보고 A 피부과를 방문했다. A 피부과의 김 박사는 최근 미국 FDA에서 승인을 받은 신약이라며 AI가 개발한 새로운 항생제를 추천했다.
“이 항생제는 인공지능이 기계학습을 통해 대규모 데이터 세트를 분석하여 발견한 신약입니다. 기존 항생제의 내성을 통제하고 감소시킬 수 있는 효과가 있다고 알려져 있어요. 이 약을 사용하면 환자 분의 여드름이 빠르게 개선될 것입니다.”
여드름 때문에 오랜 시간 고통받았던 철수는 고민 끝에 김 박사의 권유를 받아들였고, AI가 개발한 항생제 치료를 시작했다.
놀랍게도 치료 효과는 기대 이상이었다. 몇 개월 만에 철수의 얼굴에서 여드름이 점점 사라져 갔다. 외모에 대한 자신감이 생기면서 철수의 성격도 점차 외향적으로 변해 갔다.
그런데 1년이 지난 어느 날 아침에 눈을 떴을 때 철수는 천국과 지옥을 오가는 감정을 느껴야 했다. 거울을 봤을 때 철수는 20대 그 나이 또래의 얼굴만큼이나 깨끗한 피부를 자랑하는 자신의 얼굴을 보게 되었다. 다만 웬일인지 귀에서 아무 소리도 들리지 않는다는 점이 문제였다. 적막함이 철수를 에워쌌다.
처음에는 귀를 잘못 후비거나 귀에 이물질이 들어가겠거니 생각해했다. 하지만 시간이 지나도 아무런 소리가 들리지 않자, 불안한 마음에 철수는 급히 이비인후과를 찾았다.
이비인후과 의사는 청력 검사 후 깊은 한숨을 내쉬며 핸드폰 화면에 글씨를 써 철수에게 보여주었다.
“청력이 상실되었습니다. 빨리 큰 병원으로 가보세요.”
패닉 상태에 빠진 철수는 도대체 왜 이런 일이 일어났는지 이해할 수 없었다. 의사는 최근에 복용한 약이 있는지 물었고, 철수는 지난 1년간 A 피부과에서 처방받은 AI 기반 항생제만 복용했다고 답했다. 잠시 생각에 잠겼던 의사는 결국 항생제의 부작용 가능성을 언급하며, 진단서를 작성해 주었다.
“이건 항생제 부작용일 가능성이 높습니다. 의료 사고 전문 변호사를 찾아가는 것도 고려해 보세요.”
진료실을 나서는 순간, 철수는 다리에 힘이 풀려 제대로 걷기조차 힘들었다.
이상의 교육 자료를 바탕으로 다음과 같은 교수-학습 활동이 진행된다.
첫째, 관계와 상황에 대한 숙의가 이루어진다. 학습자는 사건과 관련된 다양한 이해관계자를 떠올려 보며 이들 간의 관계가 어떻게 변화할지를 고민할 수 있다. 환자인 철수와 그의 가족, 피부과 의사인 김 박사, 청력 손실을 진단한 이비인후과 의사, 항생제 제조사, IT 회사의 경영진과 AI 개발자, 보건 당국 및 의료 규제 기관, 그리고 지역 언론이나 소셜 미디어 관계자 등이 주요 이해관계자가 될 수 있다. 특히 청력 상실이라는 사건을 기점으로 철수와 김 박사의 관계는 어떻게 변화할 것인지, 보건 당국과 의료 규제 기관은 어떤 법적, 제도적 근거로 AI 기반 항생제를 승인한 것인지, 항생제 제조사와 AI 기술 업체 사이에는 어떠한 이해관계가 오고 갔는지를 추론해볼 수 있다. 또한 치료 후 여드름은 개선되었으나, 심각한 부작용이 발생한 상황에서, 철수가 겪은 피해를 피부과 의사인 김 박사의 개인적 책임으로 돌려야 할 것인지, 아니면 규제 당국의 감독 소홀이라는 제도적 문제로 봐야 할 것인지에 대해 고민하는 시간을 갖는다.
둘째, 윤리 원칙에 대한 숙의가 진행된다. 치료를 통해 철수의 여드름은 해결되었지만, 결과적으로 그의 삶의 질은 저하된 것이 아닌가? 선행의 원칙은 지켜졌지만, 이는 악행 금지의 원칙을 위반한 결과로 이어진 것은 아닌가? 치료 과정에서 환자는 AI 기반 항생제에 대한 충분한 정보를 제공받고 항생제 처방에 동의한 것인가? 자율성의 원칙이 제대로 적용되었는지 검토할 필요가 있다. 또한 부작용이 발생했을 때 적절한 보상이 이루어지는가? 의료 시스템은 이러한 부작용을 예방할 가이드라인을 가지고 있는가? 등 정의의 원칙이 준수되었는지도 살펴 봐야 한다. 신약 개발이 야기할 위험성을 방지하기 위해 부작용 발생에 대비한 법적 처벌을 강화하려는 조치, 즉 정의의 원칙을 극단적으로 추구하는 경향은 의학적 발전이 가져오는 삶의 질 증진이라는 선행의 원칙과 충돌하지 않는가? 학생들은 이러한 윤리적 원칙들 사이에서 무엇을 우선시해야 하는지, 혹은 현실에서 도덕적 판단의 다원성을 어떻게 반영할 것인지에 대해 토론할 수 있다.
셋째, 등장인물들의 정서적 반응을 탐색한다. 김 박사는 철수가 청력을 잃었다는 사실을 알게 되었을 때 어떤 감정을 느낄까? 그는 철수에게 용서를 구할 수 있을까? 만약 그렇다면 어떠한 방식으로 해야만 용서를 받을 수 있을까? 보건 당국과 의료 규제 기관은 공적인 책임에서 자유로울 수 있는가? 관계자들이 죄책감을 느낀다면, 그것은 어떤 방식으로 표현되어야할까? 철수의 고통과 괴로움이 제3자인 타인들에게 체감이 될까? 그의 가족은 어떤 심경일까? 철수와 그의 가족이 겪는 아픔을 단순히 개인적인 불운으로 치부할 수 있을까? AI 기술자와 IT 업체의 경영진은 철수의 상황을 어떻게 받아들일까? 궁극적으로 AI는 한 인간의 상처에 공감할 수 있을까? 이러한 질문을 통해 학습자는 생명윤리적 딜레마를 환자의 경험과 연결하여 공감하고, 감정적 요소까지 고려하는 접근 방식을 배울 수 있다. 이를 통해 질병과 삶을 더 깊이 이해하는 경험을 하게 된다.
다음으로, 최종 결정에 대한 모둠별 숙의가 이루어지며, 마지막으로, 전체 토론이 진행된다. 각 모둠이 도출한 최종 결정에 대해 다른 모둠이 자문을 제공하는 과정을 통해 상호 피드백이 이어진다. 이 네 번째와 다섯 번째 숙의 단계는 앞서 논의한 내용과 같은 맥락에서 진행된다.
이를 표로 제시하면 <표 7>과 같다.
<표 7>
철수의 피부과 사례: 교수-학습 과정 흐름
단계 활동 내용
1단계 (관계와 상황에 대한 숙의) 환자 철수, 피부과 의사 김 박사, 항생제 제조사, AI 개발자, 규제 당국, 언론 등 이해관계자들의 입장 및 변화된 관계를 고찰함

2단계 (윤리 원칙에 대한 숙의) 선행의 원칙은 지켜졌으나, 악행 금지 원칙 위반 여부와 자율성 원칙(충분한 설명 및 동의 여부), 정의의 원칙 검토함

3단계 (정서적 반응 탐색) 철수, 김 박사, 규제 기관, 가족 등의 감정을 탐색하며 AI가 인간의 상처에 공감할 수 있는지 질문함

4단계 (모둠별 최종 결정 숙의) AI 항생제 처방에 대한 책임 소재를 중심으로 각자의 판단을 토론하고 적용 가능성 검토함

5단계 (전체 토론 및 피드백) 모둠별 결정을 공유하고 자문을 교환하며, 각자의 윤리적 판단을 성찰함
기존 생의학 및 생명 공학 분야에서 보고된 사례들은 원래 사건을 축약한 형태로 제공하였으며, 사건이 발생한 완전한 맥락을 충분히 제시하지 못하는 경우가 많았다. 또한 이러한 사례들은 주로 의료진과 같은 권력 보유자의 시각에서 서술되었으며, 환자나 가족의 관점이 반영되지 않는다는 한계를 지니고 있었다. 특히 생명윤리적 딜레마가 등장하는 상황에서도 복잡한 숙의 과정은 생략된 채 딜레마에 대한 단순한 ‘찬반’ 선택지로 논의 과정을 축소하는 경향이 있었다. 그 결과 기존의 생명윤리 사례 연구나 교육은 윤리적 갈등을 단순히 해결해야 하는 문제로 제한하여 왔다(Cambra-Badii, 2024).
그러나 AI 기술과 연관된 생명 윤리 문제는 비단 기술 공학적 요인이나 의학적 요인에만 초점을 둔다고 해서 해결의 실마리가 풀리는 것은 아니다. AI 기반 의료기술 및 생명공학 기술이 야기하는 윤리적 고민은 사회적, 법적, 문화적 요인과도 깊이 얽혀 있으며, 이러한 복잡성은 AI 생명 윤리의 문제를 보다 다층적 문제로 접근해야 할 필요성을 시사한다(Cambra-Badii, 2024).
때문에 AI 생명윤리에 관한 서사적 접근 방식은 교육적으로 중요한 의미를 지닌다. 서사적 접근법을 활용하면 학습자들은 AI 생명윤리 문제를 단순한 찬반 논쟁의 대상이 아니라 환자, 의료진, 가족, 이해관계자, 법률 및 제도적 요소 등 다양한 시각에서 깊이 있게 이해할 수 있게 된다. 이를 통해 AI 기술이 인간에게 미치는 정신적, 사회적 영향력을 보다 입체적으로 탐구하며 생명윤리를 단순한 규범적 논의가 아닌 실제 삶과 밀접하게 연결된 문제로 인식하는 계기를 마련할 수 있다.

4. 결론

본 연구는 <AI와 생명윤리>에 관한 교양교육 교과목의 내용과 교수-학습 방법을 서사적 접근법을 중심으로 제안하고자 하였다. 연구 문제는 두 가지로 설정되었다. 첫째, AI 생명윤리 교과목의 교육 내용이 어떤 주제로 구성될 수 있는지 탐색하는 것이었으며, 둘째, 교수-학습 과정은 어떤 흐름으로 설계될 수 있는지 모색하는 것이었다.
연구 결과, 교육 내용은 ‘AI 생명윤리의 이론적 배경’, ‘AI 기반 생의학의 윤리적 쟁점’, ‘AI 기반 생명공학의 윤리적 쟁점’, ‘인간 대상 연구에서 AI의 역할과 연구 윤리’, ‘AI 생명윤리와 관련된 법과 제도’ 등 다섯 가지 교육 모듈로 구성될 수 있음을 제안하였다. 또한 교수-학습 과정은 ‘관계와 상황에 대한 숙의’, ‘윤리 원칙에 대한 숙의’, ‘감정에 대해 숙의’, ‘최종 책임의 지속성 및 공공성에 관한 숙의’, ‘최종 결정에 대한 반 전체 구성원의 상호 피드백 및 성찰 과정을 동반한 숙의’ 등 다섯 가지 단계로 설계될 수 있음을 제시하였다.
본 연구가 기존 선행 연구와 다른 점은 크게 두 가지다. 첫째, 일반적인 AI 윤리가 아닌 보다 특수한 분야인 ‘AI 생명윤리’에 초점을 맞추어 교육 내용을 구성했다는 점이다. 둘째, 윤리적 딜레마를 단순한 찬반 토론의 형태로 다루는 것이 아니라 ‘서사적 접근법’을 적용하여 교수-학습 방법을 고안하였다는 점이다.
2022년 말 챗GPT 모델이 출시된 이후 인공지능의 발전 양상이 가속화되면서 생명윤리의 중요성은 더욱 커지고 있다. AI는 의학적 진단과 치료, 생명공학 실험, 인간 대상 연구 등에 점차 깊이 개입하고 있으며 그 의사결정이 인간의 삶과 생명의 존엄성에 미치는 영향력 또한 커지고 있다. 그러나 AI는 인간의 통제 범위를 벗어나는 방향으로 발전하고 있으며, 그 작동 원리는 여전히 인간에게 완전히 이해되지 않고 있다. 더불어 딥러닝과 강화 학습을 통해 AI가 스스로 진화하고 있고, 인간의 창의성과 같은 고차원적 사고를 수행하는 단계까지 넘보고 있다는 점은 윤리적 고민을 더욱 심화시키고 있다. 자율 주행 자동차, 드론, 사물인터넷(IoT)과 같이 AI가 인간의 개입 없이 물리적 세계에 영향을 미치는 경향이 증폭되고 있는 상황에서, AI 생명윤리는 기존의 윤리적 틀만으로는 해결하기 어려운 복합적 문제로 자리 잡고 있다.
이러한 변화 속에서, AI 생명윤리 문제를 해결하기 위해서는 새로운 윤리적 틀이 필요하다. 전통적인 기술 윤리는 기술을 단순한 도구로 보고, 사용자의 의도가 윤리적 문제를 결정한다고 가정해 왔다. 또한 기존 생명윤리는 의료 현장에서의 전문 직업윤리에 초점을 맞춰 논의되었다. 그러나 AI 기술이 자율적으로 의사를 수행하고, 사회 전반에 걸쳐 영향을 미치는 현실에서는 이러한 협소한 윤리적 접근만으로는 충분하지 않다. 이제 AI 생명윤리는 단순한 규제 문제로서가 아니라, 인간과 기술의 관계를 재정의하는 문제로 접근해야 한다.
이러한 관점에서 본 연구는 AI 시대의 새로운 생명윤리적 사고를 교양교육에서 실천하기 위한 방안으로 서사적 접근법을 제안했다는 점에서 의의를 가진다. 한 인간 생명의 경험은 그를 둘러싼 인간 및 비인간과의 관계, 사회문화적 맥락, 그리고 그가 느끼고 지각하는 감정과 인지의 복합적인 상호작용 속에서 형성된다. 서사적 접근법은 이러한 요소들을 종합적으로 고려할 수 있는 교육적 내용이자 방법으로, 학생들이 AI 기술 발전과 관련된 생명윤리적 딜레마를 보다 인간적인 관점에서 이해할 수 있도록 돕는다. 단순히 윤리적 규범을 암기하는 것이 아니라, 이야기를 통해 학습자는 스스로 도덕적 상상을 하고, 타자의 입장에 공감하며, 복합적인 윤리적 의사결정을 내릴 수 있게 된다.
선행의 원칙, 악행 금지의 원칙, 자율성의 원칙, 정의의 원칙, 설명 가능성의 원칙 등 생명윤리적 가치는 관계와 상황에 따라 유동적으로 적용될 필요가 있다. AI 기술이 발전함에 따라 인간이 처한 윤리적 상황은 보다 복잡하고 다층적으로 변화하고 있으며, 이러한 현실을 반영하기 위해서는 단일 기준이 아니라 다양한 관점을 아우르는 다층적인 윤리적인 평가가 요청된다. 서사적 접근법은 이와 같은 요구에 부합하는 교육적 대안이 될 수 있다.
기계가 발전할수록 AI는 ‘인간을 위한 기술’로 설계되어야 한다. AI의 생명윤리적 프레임워크는 ‘인간의 적극적인 개입과 지속적인 평가’가 요구된다(Ekmekci & Arda, 2020). 이를 위해 이성적 논증과 감성적 감정이입 과정이 동시에 발생하는 서사적 접근법은 AI 시대 새로운 생명윤리를 위한 가치 있는 교육 방법이 될 수 있다.
본 연구는 <AI와 생명윤리> 교과목의 교육 내용과 방법을 이론적으로 제안한 것이며, 경험적 연구를 수행하지 않았다는 점에서 한계를 지닌다. 향후 연구에서는 본 연구에서 제안한 교육 내용과 방법이 실제 학생들에게 어떤 영향을 미치는지 실증적으로 평가하는 과정이 필요하다. 또한 본 논문에 예시된 의사결정 모델 학습 사례 2가지가 (생)의학과 생명공학 분야에 국한된 점은, 인공지능기술이 인간 활동에 미치는 영향의 광범위함이나 교양교과가 지향하는 학문적 보편성 측면에서 연구의 한계점으로 언급될 수 있다. 앞으로의 연구에서는 AI 기술 발전에 따라 제기되는 윤리문제, 예컨대 인명사고 발생에 직면한 자율자동차 의사결정의 윤리적 문제 등도 모델 학습 사례로 활용하여 본 연구의 학문분야별 확장성을 추구해야 한다.
그럼에도 불구하고 맥락화된 도덕적 고민 없이 윤리적 성장은 이루어질 수 없는 것이라면 본 연구에서 제안한 서사적 접근법은 AI 시대 생명윤리 교육의 새로운 형태를 교양교육 차원에서 실천하려는 시도로서 중요한 가치를 지닌다. 본 연구에서 제안된 내용과 방법이 학생들의 도덕적 성장과 윤리적 사고를 강화하는 데 기여할 수 있기를 기대한다.

참고문헌

Amin, D., Garzόn-Orjuela, N., Garcia Pereira, A., Parveen, S., Vornhagen, H., & Vellinga, A. (2023). Artificial intelligence to improve antibiotic prescribing:a systematic review. Antibiotics, 12(8), 1293.
crossref pmid pmc
Beauchamp, T. L., & Childress, J. F. (1994). Principles of biomedical ethics. Edicoes Loyola.

Cambra-Badii, I. (2024). The challenge of teaching bioethics, In Bioethics, 183-200. CRC Press.
crossref
Choi, S. H. (2012). Nature and education of narrative. Field Studies in Korean Language Education, 6(1), 7-30.
[최시한. (2012). 이야기의 본질과 교육-'생활 이야기글'쓰기를 중심으로. 우리말교육현장연구, 6(1), 7-30.].

Chowning, J. T., Griswold, J. C., Kovarik, D. N., & Collins, L. J. (2012). Fostering critical thinking, reasoning, and argumentation skills through bioethics education. PloS One, 7(5), e36791.
crossref pmid pmc
Cohen, I. G. (2023). What should ChatGPT mean for bioethics?. The American Journal of Bioethics, 23(10), 8-16.
crossref pmid
Díaz, F. A. G. (2022). Bioethics in the era of artificial intelligence (AI). Revista Latinoamericana de Bioética, 22(1), 8-10.
crossref pdf
Ekmekci, P. E., & Arda, B. (2020). Artificial intelligence and bioethics. Springer Nature.

Elias, M., Faversani, L., Moreira, J., Masiero, A., & Cunha, N. (2023). Artificial intelligence in health and bioethical implications:A systematic review. Revista Bioética, 31:1-12. https://doi.org/10.1590/1983-803420233542pt.
crossref
Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., & Vayena, E. (2018). AI4People—An ethical framework for a good AI society:Opportunities, risks, principles, and recommendations. Minds and Machines, 28:689-707. https://doi.org/10.1007/s11023-018-9482-5.
crossref pmid pmc
Franco D'Souza, R., Mathew, M., Louis Palatty, P., & Surapaneni, K. M. (2024). Teaching humanism with humanoid:Evaluating the potential of ChatGPT-4 as a pedagogical tool in bioethics education using validated clinical case vignettes. International Journal of Ethics Education, 9(2), 229-241.
crossref pdf
Hudha, A. M., Husamah, H., Permatasari, I. K., Puspitasari, M. A., & Silvia, S. (2024). Artificial intelligence is important!A mini systematic literature review of bioethics in science learning. Research and Development in Education, 4(1), 555-572. https://doi.org/10.22219/raden.v4i1.32405.
crossref
Kim, J. D., & Kim, H. S. (2020). Correlation between ethical values, bioethics, and artificial intelligence perceptions among healthcare workers and college students. Journal of Learner-Centered Curriculum and Instruction, 20(4), 1247-1264.
[김진동, 김홍수. (2020). 보건의료 종사자와 대학생의 윤리적 가치관, 생명윤리의식과 인공지능인식의 상관관계 연구. 학습자중심교과교육연구, 20(4), 1247-1264.].
crossref
Kim, S. K., Lee, K. H., & Kim, S. H. (2018). Ethical issues in the forth industrial revolution and the enhancement of bioethics education in Korean universities. Korean J Med Ethics, 21(4), 330-343.
[김수경, 이경화, 김상희. (2018). 4 차 산업혁명 시대의 윤리적 이슈와 대학의 생명윤리교육 방향 제고. 한국의료윤리학회지, 21(4), 330-343.].
crossref pdf
Kirkpatrick, M. K., & Brown, S. (2004). Narrative pedagogy:Teaching geriatric content with stories and the “Make a Difference”project (MADP). Nursing Education Perspectives, 25(4), 183-187.
pmid
Kolarova, T. A., & Denev, I. D. (2012). Integrating a bioethics course into undergraduate biology education. Biotechnology &Biotechnological Equipment, 26(1), 2801-2810.
crossref
Lennon-Dearing, R., Lowry, L. W., Ross, C. W., & Dyer, A. R. (2009). An interprofessional course in bioethics:Training for real-world dilemmas. Journal of Interprofessional Care, 23(6), 574-585.
crossref pmid
Linde, C. (1993). Life stories:The creation of coherence, Oxford University Press.

Morales-González, Á., Tirado-Lule, J. M., González-Cisneros, A., López-De-León, E. O., Sanchez-Morales, A., & Manzanilla-Granados, H. M. (2018). Bioethics in education. In Reflections on bioethics. IntechOpen, https://doi.org/10.5772/intechopen.72953.
crossref
PANDyA, R., Shukla, R., Gor, A. P., & Ganguly, B. (2016). Personal experience narratives by students:A teaching-learning tool in bioethics. Indian J Med Ethics [Internet], 1(3), 144-147.
crossref pmid
Park, S. M., & Jang, I. S. (2023). The impact of nursing students'biomedical and artificial intelligence ethical awareness, ethical values, and professional self-concept on their ethical decision-making confidence. JKASNE, 29(4), 371-380.
[박승미, 장인순. (2023). 간호대학생의 생명의료 및 인공지능 윤리의식, 윤리적 가치관, 전문직 자아개념이 윤리적 의사결정 자신감에 미치는 영향. 한국간호교육학회지, 29(4), 371-380.].
crossref pdf
Seyahi, N., & Ozcan, S. G. (2021). Artificial intelligence and kidney transplantation. World Journal of Transplantation, 11(7), 277.
crossref pmid pmc
Sinnott-Armstrong, W., & Skorburg, J. A. (2021). How AI can aid bioethics. Journal of Practical Ethics, 9(1), https://doi.org/10.3998/jpe.1175.
crossref
Son, H. S. (2022). A study on the method of liberal arts education in universities for the development of artificial intelligence ethical intelligence. The Journal of General Education, (21), 33-61.
[손혜숙. (2022). 인공지능 윤리 의식 함양을 위한 대학 교양교육 방안 연구. 교양학연구, (21), 33-61.].
crossref
Son, M. D. (2022). A study on the development of convergence liberal arts subject based on ecological literature. Korean Journal of General Education, 16(4), 57-67.
[손민달. (2022). 생태문학을 통한 융복합 교양교과목 개발 연구. 교양교육연구, 16(4), 57-67.].
crossref pdf
UNESCO. (2021 Recommendation on the ethics of artificial intelligence, United Nations Educational, Scientific and Cultural Organization,
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

Victorivna, D. O., Ivanovich, M. E., & Eduardivna, N. O. (2024). The future of AI bioethics in the context of human survival. National interest, 4(16), 32-41.



ABOUT
ARTICLE CATEGORY

Browse all articles >

BROWSE ARTICLES
EDITORIAL POLICY
AUTHOR INFORMATION
Editorial Office
Inje University
197, Inje-ro, Gimhae-si, Gyeongsangnam-do 50834, Republic of Korea
Tel: +82-55-320-3737    E-mail: biokjy@inje.ac.kr                

Copyright © 2022 by The Korean Association of General Education.

Developed in M2PI

Close layer
prev next