1. 서론
본 논문은 챗GPT를 활용한 여성학 교양강의 수강생들의 과제물에 대한 분석을 통해, 인공지능(Artificial Intelligence, 이하 AI)의 젠더 편향을 비판적으로 성찰할 수 있는 교수학습 전략을 탐색한다.
AI는 인지, 판단, 추론 등 인간의 지능 행동을 모방하거나 대체할 수 있는 알고리즘과 컴퓨터 시스템을 통칭한다(Russell, & Norvig, 2022). 1950년대에 처음 개념이 정립된 이래 여러 차례 기술적 발전과 정체기를 거친 AI는 2010년대 이르러 딥러닝(deep learning) 기술의 혁신에 힘입어 4차 산업혁명의 핵심 기술로 부상했다. 특히 인간의 신경망을 모사한 인공신경망(Artificial Neural Network, ANN) 기술은 이미지 분석, 음성 인식, 자연어 처리 등 다양한 영역에서 괄목할 만한 성과를 이끌어 냈으며, 이는 AI의 상용화를 촉진하는 계기가 되었다(문미경 외, 2022).
그럼에도 일반 사람들에게는 비교적 미래 감각에 머물러 있던 AI 기술을 성큼 현재화한 중요한 계기 중 하나는 챗GPT의 출현이다. 2022년 미국의 AI 기업 OpenAI가 출시한 챗GPT(Chat Generative Pre-trained Transformer)는 대규모 언어모델(LLM)을 기반으로 한 생성형 AI로서, 문맥에 기반한 자연스러운 언어 생성이 가능하다는 점에서 기존의 AI와 차별화되었다. 사용자 친화적인 대화형 인터페이스, 빠른 응답 속도, 수준 높은 언어 생성 역량이 AI에 대한 진입 장벽을 대폭 낮춘 것이다(한진영, 이민정, 2024). 식단 구성이나 여행 일정 계획, 면접용 자기소개서 작성은 물론 연애 상담에 이르기까지 챗GPT는 다양한 용도로 활용되며, 개인의 일상생활과 사회적 관계 속에 빠르게 통합되고 있다.1)
AI가 비상한 관심 속에서 대중화되고 있는 현상은 교육 현장과 학술 연구에서도 민감하게 포착되고 있다. 지금까지 AI가 교육 패러다임에 미칠 영향에 대한 논의는 기대와 함께 우려도 불러일으키면서 주로 기술에 대한 규범적 접근에 집중되어 있었다. 실제로 초⋅중⋅고등학교에서는 AI 리터러시 교육이 중심이 되어왔고, 대학에서는 표절과 대필을 방지하기 위한 윤리적 통제 장치 마련이 주요한 과제로 다루어졌다(유지원, 2023; 이은재, 김형주, 2024). 그러나 최근에는 AI를 기술적 보조 수단만이 아니라, 학습자와의 상호작용을 통해 새로운 교육 환경을 모색하는 한편, AI와 인간다움에 대한 인문학적 성찰을 결합하려는 융합 교육의 시도도 활발해지고 있다(서민규 외, 2024; 한진영, 이민정, 2024).
이처럼 AI 기술을 활용한 교육 실험이 점차 확산되고 있지만, 대학 현장에서는 여전히 우려가 불식되지 않고 있다. 그중에서도 가장 타당하게 제기되는 문제는 AI가 편향된 판단이나 차별적 결과를 재생산할 수 있다는 점이다(유지원, 2023; 서민규 외, 2024). 관련 연구들은 AI의 편향이 기술적 오류나 학습자의 불성실성 같은 개인적 요인에 기인하는 것이 아니라, 사회 구조와 이념을 반영, 재구성하는 시스템적 특성에 기인한다고 분석해 왔다(Noble, 2019). 이러한 논의는 AI 기술이 중립적 도구가 아니라 사회적 질서를 구성하는 행위자임을 시사하며, 교육적 맥락에서도 중요한 통찰을 제공한다. 그러나 AI의 작동 원리와 그 사회적 함의를 비판적으로 이해하고 성찰할 수 있도록 돕는 교수학습 전략은 아직 충분히 마련되지 않은 실정이다.
특히 AI 기술의 구조적 편향을 보여주는 대표적인 사례이자, 가장 직접적으로 문제화되어 온 쟁점은 젠더 편향이다. AI는 학습 데이터에 포함된 성별 고정관념이나 차별 담론을 여과 없이 흡수하고 재현함으로써, 성차별적 인식과 불평등한 사회 구조를 강화하는 방식으로 작동할 수 있다. 가령 2018년 아마존의 AI 채용 시스템이 남성 중심의 채용 데이터를 학습한 결과 여성 지원자에게 불리한 평가를 자동으로 수행하여 폐기되었고, 국내에서는 2020년에 출시된 챗봇 ‘이루다’가 성차별적 표현과 편향된 연애 관념을 반복적으로 재현하면서 논란 끝에 한 달 만에 서비스가 중단된 바 있다. 이러한 사례들은 AI의 편향이 성별 권력 구조를 재생산하는 사회적 문제일 수 있으며, 이에 대한 비판적 교육이 젠더 관점을 핵심 분석 틀로 삼아야 함을 시사한다. 그러나 현재 대학 교육 현장에서 AI의 젠더 편향을 비판적으로 다루는 시도는 드물뿐 아니라, 체계적인 교수학습 전략으로까지 발전된 사례도 많지 않다.
이러한 문제의식에 기반하여 본 논문은 대학 교양교육의 여성학 강의에서 챗GPT를 활용한 수강생들의 학술 에세이를 분석함으로써, AI에 내재된 젠더 편향을 비판적으로 탐색하고 이를 교육 실천의 자원으로 전환할 수 있는 교수학습 전략을 도출하고자 한다. 기존의 AI 교육 논의가 기술 활용법이나 윤리적 규범에 치중해온 경향과 달리, 본 연구는 학습자의 실제 수행을 중심에 두고, 챗GPT와의 상호작용 과정을 분석함으로써 젠더 권력의 구성과 해체, 그리고 성평등 담론의 가능성을 학습자가 어떻게 모색하는지를 교육 현장의 실천적 맥락 속에서 검토한다.
구체적으로는 다음의 두 가지의 연구 질문에 답하고자 한다.
이러한 질문을 중심으로 본 연구는 AI 기술이 학습자의 젠더 인식과 실천에 미치는 영향을 교육적 관점에서 분석하고, 이를 통해 상호성, 참여성, 성찰성을 중시하는 여성학의 비판적 교육철학과 기술 활용 간의 창의적 접점을 탐색하고자 한다.
2. 선행 연구 검토
2.1. AI 젠더 편향의 정의와 함의
AI의 편향(bias)이란 인공지능 시스템이 특정 집단이나 개인에 대해 체계적으로 불공정하거나 왜곡된 판단, 예측, 출력을 생성하는 현상을 의미한다(문미경 외, 2022; Nadeem et al., 2020. 편견(prejudice)이 주로 개인의 심리적 수준에서 나타나는 인지적 태도라면, 편향은 통계적 왜곡과 데이터 구성상의 불균형에서 비롯된 구조적 문제에 가깝다(김효은, 2021). 이렇게 볼 때, AI의 편향은 단순한 오류나 무지의 결과라기보다는, 데이터를 선택하고 분류하며 알고리즘을 설계하는 전 과정에 사회적 가치와 이념이 반영되어 작동하는 사회기술적 구성물이라 할 수 있다(Leavy, 2018; Nadeem et al., 2020). 실제로 여러 연구들은 AI가 특정한 사회 질서와 상징 체계를 반영하고, 나아가 그것을 재생산하는 기제로 기능하고 있음을 구체적으로 밝혀 왔다(이희은, 2018; Orlikowski, 1992; Crawford, 2016).
둘째, 젠더는 AI 기술에서 인격화를 가능케 하는 가장 즉각적이고 강력한 상징 자원으로 기능해 왔다. AI는 인간처럼 보이고 작동하길 기대하는 사회적 욕망의 산물이자, 기술에 인간다움을 부여하려는 문화적 시도와 맞물려 작동한다(Turkle, 2012). 그중에서도 젠더는 가장 빈번하고 익숙하게 부여되는 인간적 속성으로서, 단지 상징적 표상에 그치지 않고 기술의 상품화, 수익화, 상호작용 설계에 깊이 관여한다. 이희은(2018)은 음성 인터페이스 기술에서 여성의 목소리가 기본값으로 설정되는 현상을 분석하면서, AI의 젠더화가 사용자 친화성과 효율성을 이유로 정당화되지만, 실제로는 사회가 여성에게 기대하는 보조자적 역할, 정서적 유순성, 비위협성을 반영한 결과라고 지적한다. 이시연(2018) 역시 유사한 맥락에서, AI의 여성화가 단순한 사용자 선호나 설계의 문제가 아니라, 기술에 대한 불안과 여성에 대한 통제 욕망이 결합된 이중적 여성혐오 구조 속에서 작동한다고 보았다. 그는 영화와 상용 기술에 등장하는 여성형 AI가 종종 섹슈얼리티와 통제 가능성의 대상으로 구성되며, ‘덜 위협적인 기술’로 포장되기 위해 여성성을 부여받는 경향에 주목하면서, 이는 기술에 투사된 젠더 무의식이 작동하는 방식이며, 사회가 여성성을 길들이고 대상화하는 방식을 AI라는 새로운 기술 매체를 통해 반복하는 것이라고 분석한다.
그 가운데서도 젠더 편향은 몇 가지 이유에서 중요하게 주목되었다. 첫째, 젠더는 계급 및 인종과 더불어 사회를 조직하는 주요 범주이자, 다양한 제도와 담론 속에서 차별과 불평등을 재생산하는 핵심적 기제로 작동한다(Scott, 2011). 페미니스트 과학 기술 연구자들이 지적해 왔듯이, 기술 발전 과정에서도 젠더는 단순한 정체성 범주나 인구통계학적 특성을 넘어, 권력 구조와 지식 생산 방식, 기술 설계와 사용의 패턴을 구성하는 핵심적 요소로 기능해 왔다(Schiebinger, 1999; Wajcman, 2004) 따라서 젠더 편향을 분석하는 일은 기술이 사회적 불평등을 어떻게 재현하고 정당화하는지를 비판적으로 조명함으로써, 기술 정의에 기반한 대안을 모색하는 데 필수적인 지식 토대를 제공한다.
이러한 AI의 젠더화 메커니즘과 의미를 ‘이루다’ 사례를 통해 분석한 손희정(2022)은, AI의 젠더 인격이 설계자의 기획뿐 아니라 사용자와의 상호작용을 통해 구성된다는 점을 강조한다. ‘이루다’는 감정 수용성과 순응성 같은 여성적 역할을 수행하도록 설계되었고, 그 결과 성희롱의 대상이 되기 쉬운 존재로 소비되었다. 이는 AI가 사회에 축적된 성별 고정관념과 위계 질서를 학습하고 수행함으로써, 젠더 실천 방식을 기술적으로 구현하고 정당화하는 젠더 테크놀로지로 작동하고 있음을 보여준다. 즉 AI의 젠더화는 인간을 닮게 만들려는 중립적 기술 설계의 결과가 아니라, 감정과 지능, 페르소나와 능력 사이의 성별 구분을 기술적으로 재확인하고 정당화하는 의미 구성의 장치로 기능한다는 것이다. 결국 ‘이루다’는 단순한 기술 실패가 아니라, 젠더 편향이 AI의 인격화 과정과 맞물려 어떻게 재현되고 강화되는지를 보여주는 대표적 사례라 할 수 있다.
2.2. AI 젠더 편향의 통제 전략
연구자들은 AI의 젠더 편향이 현실 사회에서 여성에게 실질적 해악을 초래하는 구조적 기제로 작동한다고 경고해 왔다. 대표적으로 Wang(2020)은 AI의 젠더 편향이 초래하는 해악을 세 가지로 구분한다. 첫째, 여성의 신체적 자율성 침해와 폭력을 유발하는 신체적 해악, 둘째, 채용, 교육, 복지 등 사회적 자원의 접근을 제한하는 제도적 해악, 셋째, 여성과 소수자에 대한 고정관념을 강화하는 심리적 해악이 그것이다. 연구자들은 이러한 해악이 개인에게만 영향을 미치는 것이 아니라, 기술을 통해 젠더 권력 구조를 재배치하고 기존의 위계를 정당화하는 역할을 수행한다는 점에서 AI의 젠더 편향의 원인을 분석하고 해결 방안을 모색해 왔다.
이에 관한 논의는 크게 두 가지 경로로 발전해 왔다. 첫째는 기술적 접근으로, 데이터 수집, 전처리, 분류, 알고리즘 학습 과정에서 편향이 어떻게 발생하고 재생산되는지를 분석한다. 이 접근은 알고리즘의 투명성 제고, 데이터 다양성 확보, 워드 임베딩 후처리(de-biasing), 그리고 개발자 집단의 젠더 다양성 증진 등 실질적 기술 개선 전략을 중심으로 논의를 전개해 왔다(문미경 외, 2022; Bolukbasi et al., 2016; Nadeem et al., 2020).
둘째는 사회문화적 접근으로, 젠더 편향을 기술적 오류가 아니라 사회 구조와 이데올로기의 산물로 간주한다. 이 관점에서 ‘오염된 데이터(dirty data)’는 부정확성과 불완전성에서 기인한 무작위적 노이즈가 아니라, 사회적 배제와 차별 구조가 투영된 결과라는 점이 강조된다(D’Ignazio & Klein, 2020). 또한 AI는 사회의 성차별을 수동적으로 반영하는 것이 아니라, 이를 능동적으로 재해석하고 담론화하는 매체로도 기능하며, 그 과정에서 새로운 차원의 권력 효과를 만들어 내기도 한다(허유선, 2018; Gorska & Jemielniak, 2023; O’Connor & Liu, 2024). 예컨대 최근 연구에 따르면 시각 생성형 AI가 미국의 ‘회계사’, ‘요리사’, ‘엔지니어’ 등의 직업군 이미지를 출력할 때 여성 비율을 1%로 고정시켜 제시했는데, 이는 미국 노동통계청이 발표한 실제 여성 비율(58%, 20%, 14%)과 크게 불일치한 것이었다(Locke & Hodgdon, 2024). 이는 AI가 사회 현실을 재현하는 데 그치지 않고, 성차별을 재정렬하고 재구성하는 방식으로 작동하고 있음을 보여준다.
기술적 접근과 사회문화적 접근이 서로 다른 초점을 제공해 왔지만, 양자를 통합할 때 AI의 젠더 편향 문제를 보다 정교하고 다층적으로 이해할 수 있다는 데 많은 연구들이 공감하고 있다. 특히 기술적 개입만으로는 사회문화적 편향의 재생산을 억제하기 어려울 뿐 아니라, 기술 통제에 대한 과도한 신뢰를 유발할 수 있다. 이지은과 임소연(2022)은 알고리즘의 공정성, 투명성, 설명가능성과 같은 기술 중심의 대안이 과학의 ‘객관성’과 기술의 가치 중립성이라는 근대적 신화를 반복할 수 있음을 지적한다. 이들은 AI의 윤리를 추상적 원칙의 문제로 환원하기보다, 기술 개발 과정과 그에 참여하는 주체의 위치성에 주목하며, 위치지어진 개발자의 실천을 통해 다른 기술 만들기의 가능성을 제안한다.
이와 같은 맥락에서, 사용자와 사회 구성원의 행위성을 포착하는 전략의 중요성도 점점 부각되고 있다. 실제로 최근 연구들은 AI의 젠더 편향이 단지 설계 단계에서 고정되는 것이 아니라, 상용화 이후 사용자와의 상호작용을 통해 지속적으로 구성되고 재생산된다는 점을 강조한다. 심지어 특정 성별로 설계되지 않은 AI조차도 정중한 표현, 사과, 단정 짓지 않는 언어(tentative language) 등과 같은 언어적 단서에 의해 여성적으로 인식되는 사례가 빈번하다는 점은, AI에 대한 사회적 지각이 사용자의 경험 속에서 젠더화된다는 사실을 보여준다(Duan, McNeese, & Li; 2025).
AI의 젠더 편향이 인간과 기계의 상호작용 속에서 지속적으로 구성되어 나가는 담론적 실천으로 이해되어야 한다는 점은 자연어 기반 대화형 AI인 챗GPT에 관한 연구에서 보다 구체적으로 제시되고 있다. Gross(2023)는 챗GPT가 단지 정보를 제공하는 수단이 아니라, 의미 작용을 생성하는 행위 주체로 작동할 수 있다는 점에 주목한다. 챗GPT는 방대한 학습 데이터를 바탕으로 인간 사회의 말투, 감정 표현, 역할 수행 방식을 통계적으로 내면화하고, 이를 통해 특정한 젠더 수행성을 생산하고 강화하는 구조를 형성한다. 예컨대 “여성은 감성적이다”, “남성은 리더십이 있다”는 식의 통계 데이터를 단순히 인용하는 데 그치지 않고, 이용자와의 상호작용을 통해 이러한 통념을 반복적으로 언어화하고 수행하는 데 참여한다. 즉 챗GPT는 젠더 수행성이 구성되는 담론적 장이자, 사회문화적 권력 관계를 매개하고 재조직하는 구조적 장치로 기능한다는 것이다.
이처럼 AI의 젠더 편향을 기술적, 사회문화적 맥락에서 분석하는 연구가 활발히 진척되고 있지만, 학습자나 사용자 중심의 비판적 활용 전략에 대한 논의는 아직 초기 단계에 머물러 있다. Locke & Hodgdon(2024)의 제안은 관련 연구를 풍부하게 이끌어 낼 수 있는 하나의 참조점을 제공한다. 이들은 시각 생성형 AI가 젠더 이미지를 어떻게 재현하거나 왜곡하는지를 분석하는 한편, AI를 사회적 젠더 규범과 권력을 비판적으로 읽고 재구성할 수 있는 실천의 장으로 전환할 수 있는 활용 전략을 제시한다. AI를 다음과 같은 네 개의 시선으로 바라보자는 것이다. (1) 사회에 내재된 젠더 불균형을 있는 그대로 반영하는 문화 반영자, (2) 알고리즘을 조정해 현실을 정확히 재현할 수 있는 현실 묘사자, (3) 성평등을 선제적으로 구현하는 성평등 실현자, (4) 기존의 젠더 규범을 전복해 새로운 인식을 유도하는 문화 파괴자가 바로 그것이다. 이러한 구상은 시각 이미지 중심의 논의에서 출발했지만, AI의 젠더 편향의 메커니즘을 이해할 수 있는 유효한 틀을 제공하며, 이를 통제적으로 활용하여 학습의 자원으로 전환할 수 있는 교수학습 전략에도 의미 있는 시사점을 제공한다.
본 논문은 이러한 이론적 논의를 바탕으로, AI의 젠더 편향을 분석적으로 해체하고, 성평등한 담론을 구성하는 비판적 실천의 장으로 활용할 수 있는 교수학습 전략의 가능성을 탐색하고자 한다.
3. 연구 대상 및 방법
3.1. 연구 대상
본 연구는 필자가 소속된 서울 소재 A대학교에서 2024학년도 2학기에 개설한 <젠더와 역사: 평등과 차이의 정치사> 수강생들의 기말 과제를 분석 대상으로 삼아 내용 분석(content analysis)을 수행하였다. 해당 교과목은 사회 역사적 구조와 인간 경험을 여성학 에 기반해 탐색하는 기초 교양강의로서, AI 같은 최신 의제에 관해서도 젠더 관점에서 사유하여 이론적, 실천적 함의를 발견해 나가도록 설계되었다. 총 15주차로 구성된 수업에는 성적 차이와 평등의 관계를 다뤄 온 여성학의 주요 의제를 ‘권리’, ‘공/사’, ‘계급’, ‘권력’, ‘정체성’ 등으로 나누어 살펴보는 이론 학습과 모둠 토론 및 과제 발표 활동이 포함되어 있다. 총 50 여명이 참여한 본 강의의 수강생 정보는 <표 1>과 같다.
<표 1>
수강생 기본 정보
구분 | 내용 |
---|---|
성별 구성 | 여학생 약 80%, 남학생 약 20% |
|
|
학년 분포 | 1학년 40%, 2학년 이상 60% |
|
|
전공 배경 | 인문⋅사회계열 약 60%, 기타 계열 40% |
연구 대상으로 삼은 수강생들의 기말 과제는 ‘성차를 문제적으로 다룬 대상이나 현상을 쟁점화하고, 이를 비판적으로 분석하는 학술 에세이’를 작성하는 것이었다. 수강생들의 다양한 관심사를 반영할 수 있도록 과제의 주제를 비교적 광범위하게 개방한 만큼, 분석 대상 또한 기사, 논문, 서적 등의 텍스트뿐 아니라 이미지, 광고, 영상물 등 시각 자료까지 자유롭게 선택할 수 있도록 했다. 다만 다음의 세 가지를 과제 수행의 요건으로 제시하였다.
(1)과 (2)의 조건은 수강생들이 강의에서 다룬 여성학 지식과 관점을 충실히 이해하고, 관련 이론적 자원을 스스로 탐색, 적용하도록 유도하기 위한 장치였다. 학습자들이 챗GPT를 효과적으로 활용하기 위해서조차, 해당 주제에 대한 사전 학습과 이론적 독해를 심도 깊게 수행할 수 있도록 독려한 것이다. 챗GPT의 활용과 관련해서는 A대학교에서 2023년에 배포한 「ChatGPT 활용 가이드라인」과 시중 서적을 참고해 자료를 제작하고, 이를 바탕으로 기본적인 작동 원리, 기술적 유의 사항, 윤리적 사용 지침 등에 대해 간단하게 안내하는 강의를 진행하였다. 구체적인 활용 전략을 자세히 다루지는 않았으며, 대신 유사한 과제 주제를 가진 수강생들끼리 모둠을 구성해 각자의 활용 계획과 실험 사례를 공유하고 상호 피드백을 주고받을 수 있는 기회를 여러 차례 제공하였다. 이 과정이 서로의 시도를 참조하고 수정하며, 챗GPT 활용 방식에 대한 이해와 비판적 응용 능력을 심화시킬 수 있는 기회가 되었으리라 판단한다. 수강생들이 수행한 최종 과제 결과물은 학기 말에 발표와 토론의 형식으로 공유되었다.
연구 대상으로 수합된 과제는 총 40편으로, 제출하지 않았거나 수행 요건을 충족하지 못한 사례는 분석 대상에서 제외하였다. 에세이의 주제는 다양하였으나, 성차별의 주요 작동 기제라 할 수 있는 성별 고정관념(gender stereotype)과 성적 대상화(sexual objectification) 문제를 비판적으로 고찰하는 내용으로 수렴하며, 이를 시장(상업화), 국가(제도와 정책), 문화(미디어) 등 젠더 권력 구조가 재현되고 작동하는 양식 속에서 발견하여 탐구하는 내용으로 구성되어 있다.
3.2. 분석 방법
수합된 40편의 과제를 반복적으로 정독하며 주제, 질문 구성, 응답 방식, 자기평가 등을 중심으로 주요 개념과 전략을 식별하였다. 분석 내용에는 질문(prompt)의 구성, 챗GPT의 응답 내용, 대화 로그, 에세이에 반영된 분석 및 서술 방식, 활용 과정에 대한 자기 평가 등이 포함되었다. 이 과정은 다음 절차에 따라 진행되었다.
그 결과, 수강생들의 챗GPT 활용 방식은 <표 2>와 같이 세 가지 전략 범주로 유형화되었다.
<표 2>
전략 범주별 주요 키워드 예시
전략 범주 | 주요 키워드 예시 |
---|---|
(1) 데이터 및 알고리즘 편향 비판 | 고정관념, 거짓말, 이중잣대, 인용 오류 |
|
|
(2) 젠더 수행성 탐색 | 역할놀이, 말투, 화자 설정, 감정 표현, 정체성 구성 |
|
|
(3) 성평등 실천장 구성 | 반론 구성, 기사 재작성, 서사 조정, 성평등 기획 |
본 논문은 위 세 가지 범주를 중심으로, 학습자들이 챗GPT와의 상호작용을 통해 젠더 편향을 비판적으로 해석하고, 새로운 의미 구조와 성평등 담론을 구성해 나간 과정을 분석적으로 고찰하고자 한다.
4. 분석 결과
4.1. 데이터 및 알고리즘 편향 비판: 무엇이 ‘거짓’ 혹은 ‘진실’인가?
과제에서 가장 널리 발견된 학습자들의 챗GPT 활용 방식은, 챗GPT의 응답에 나타난 젠더 편향 자체를 불평등한 젠더 관계를 드러내는 분석의 대상이자 비판적 성찰의 내용으로 삼은 것이다.
챗GPT의 주요 장점인 정보 요약과 아이디어 생성 기능은 대부분의 학습자에 의해 적극적으로 이용되었다. 학생들은 챗GPT가 방대한 양의 정보를 간결하게 정리하고 핵심 개념과 사례를 빠르게 제시해 주어, 조사 시간을 단축하고 과제의 기본 틀을 형성하는 데 도움을 주었다고 평가했다. 한 학생은 본 강의에서 처음 접한 섹스(sex)와 젠더(gender)의 관계에 관한 지식―”섹스는 생물학적 차이에, 젠더는 사회적 구성에 초점을 맞추지만 섹스조차 사회적으로 구성된다”―에서 깊은 인상을 받았는데, 챗GPT가 똑같은 내용을 명료하게 제시해 주어 AI에 대한 신뢰를 형성하는 계기가 되었다고 활용 소감을 밝혔다.
하지만 이와 동시에 많은 학습자가 챗GPT의 흔한 위험으로 꼽히는 환각(hallucination), 즉, 그럴싸한 거짓말 생성 현상을 경험했다고 보고하며, 이에 대한 비판적 통제의 필요성을 제기했다. 2024년 넷플릭스에서 방영된 요리 경연 시리즈물인 <흑백 요리사: 요리 계급 전쟁>(이하, 흑백 요리사)은 네 명의 학생이 탐구 주제로 삼을 만큼 큰 인기와 관심을 끈 콘텐츠였는데, 한 학생이 이 프로그램에 대한 기초 정보를 묻자, 챗GPT가 “사회 전반적인 여성의 배제를 심도 있게 다루는 영화”라고 천연덕스럽게 ‘거짓말’을 했다.2) 또 다른 학생은 일본 애니메이션에 나타난 성적 대상화 문제를 국가 정책의 측면에서 분석하기 위해 관련 법 제도와 정치 체제에 대한 정보를 요청했으나, 챗GPT는 이와 전혀 무관한 법령과 정치인을 제시했다. 이처럼 챗GPT가 명백한 사실 정보조차 틀릴 수 있다는 점에서 학습자들은 능동적인 의심과 교차 검증의 중요성을 강조했다.
문제는 환각이 언제나 명백하지는 않다는 데 있다. 특히 통념과 결합한 환각은 오히려 학습자의 비판적 의심을 유예시키는 역할을 하기도 했다. 한국 사회의 ‘딸바보 담론’을 분석한 한 학생은 “전통 사회에서는 남성이 노동력으로 더 적합했기 때문에 남아선호가 나타났다”는 챗GPT의 답변을 그대로 인용하고, 이를 분석의 주요 근거로 삼았다. 일견 익숙하고 타당해 보이는 이 설명은 가부장제의 기원을 생물학적 기능주의로 환원하는 해석이자 여성학이 비판해 온 통념적 지식이기도 하다. 여성학은 가부장제가 경제적 생산양식, 섹슈얼리티를 둘러싼 남성 중심적 권력 구조, 사회담론적 젠더 규범 등이 중층적으로 작용한 구조적이고 복합적인 결과라는 관점을 제안해 왔다(Lerner, 2004). 학습자가 이러한 배경지식을 갖추고 있지 않을 때, 챗GPT는 지식을 얻는 수단이 아니라, 환각을 수용하는 통로로 작동하게 된다.
비슷한 사례는 저출산 문제를 다룬 학생의 과제에서도 나타났다. 이 학생은 챗GPT가 “한국의 저출산 현상은 여성의 사회 진출이 주요 원인”이라고 서술한 내용을 그대로 인용하고, 이에 대한 문제 제기나 추가적인 논의 없이 분석의 출발점으로 삼았다. 챗GPT의 설명은 저출산의 책임을 여성에게 전가해 온 한국 사회의 담론 구조를 그대로 반영한 것임에도 불구하고, 학습자가 그 이데올로기적 함의를 자각하거나 문제화하지 못한 것이다.
이러한 사례들이 환기하는 점은, 환각이 기술적 오류나 왜곡이라기보다 챗GPT의 구조적 작동 원리에서 비롯되는 ‘정상적인’ 출력 결과에 가깝다는 것이다. LLM 기반 모델인 챗GPT는 진위를 구별하기보다는 통계적으로 가장 개연성 높은 언어를 예측하도록 설계되어 있으며(강정수 외, 2023), 이로 인해 방대한 학습 데이터 속에 내재된 젠더 편향 역시 그대로 흡수되고 출력된다. 가령 남성을 ‘프로그래머’, 여성을 ‘가정주부’로 연결하는 워드 임베딩이나, 아마존의 채용 시스템이 남성 이력서만을 선호했던 사례는 성차별적 현실이 데이터와 알고리즘 모두에 내재된 결과로서, AI가 성별화된 권력 관계를 재생산하는 방식으로 작동한다는 점을 보여준다(Bolukbasi et al., 2016; Nadeem, Abedin, and Marjanovic, 2020). 오픈AI의 윤리적 보수성(박소영, 2024), 즉 챗GPT가 정치, 사회적으로 민감한 이슈에 대해 신중한 태도를 취하도록 설계되었다는 점도 그 응답이 기존의 남성 중심적 사회 질서를 승인하는 방향으로 기울 수 있음을 시사한다.
이렇게 볼 때, 챗GPT의 환각은 특정한 세계관과 가치 체계를 반영하는 방식으로 진실과 거짓을 구성하는 서사적 행위이기도 하다. 그리고 챗GPT가 생성하는 답변에서 무엇이 진실이고 무엇이 거짓인지를 구분하는 일은 단순한 사실 검증의 문제가 아니라, 어떤 사회적 통념과 권력 구조를 진실처럼 구성하고 있는지를 비판적으로 읽어내는 작업이 된다.
주목할 점은 학습자들이 챗GPT의 이러한 환각의 특성을 역이용하여 젠더 편향의 구조를 발견하는 데 적극 활용하기도 했다는 점이다. <흑백 요리사>를 분석한 학생들은 ‘요리사’를 묘사하라는 요청에 챗GPT가 전형적인 남성 이미지를 생성하거나, ‘가정에서 음식하는 사람’과 ‘레스토랑에서 음식하는 사람’을 구분하여 요청할 경우, 각각 여성과 남성으로 재현하는 것은 무비판적이긴 하지만, 동시에 성차별적인 사회를 ‘정직하게’ 반영한 결과라고 분석했다. 이와 유사한 논의는 스포츠 예능을 다룬 학생들의 과제에서도 발견됐다. 한 학생은 챗GPT가 남성 스포츠 스타는 ‘근육질의’, ‘강인한’, ‘힘찬’ 등의 기능적 가치로, 여성 스포츠 스타는 ‘유연한’, ‘균형 잡힌’, ‘슬림한’ 등 미적 가치를 중심으로 묘사한 것은 우리 사회의 성별화된 신체 인식을 고스란히 보여준 것이라고 분석했다. 또 다른 학생은 여성 운동 선수의 평가 기준을 외모, 성역할 기대치, 미디어 노출 등으로 제시한 챗GPT의 응답을 스포츠 산업과 상업화 구조에 나타난 젠더 현상을 분석하는 단서로 사용했다.
더욱 흥미로운 점은, 일부 학생들이 챗GPT의 응답 속에 드러난 모순과 이중성을 예리하게 포착하고, 이를 성평등에 대한 당위적 규범과 성차별적 구조가 동시에 공존하는 사회 현실을 분석하는 자원으로 삼았다는 데 있다. 예컨대 한 학생은 챗GPT가 근대적 젠더 규범을 성차별의 원인으로 지적하면서도, ‘어머니’와 ‘아버지’를 떠올릴 때 각각 “사랑하는(loving), 헌신적인(dedicated), 포용적인(accepting)”과 “지혜로운(wise), 책임감 있는(responsible), 지지하는(supportive)”이라는 전형화된 형용사를 제시한 사실에 주목했다. 또 다른 학생은 건설 현장의 성별 분업 구조에 대해 질문하자, 챗GPT가 성별 고정관념을 비판하는 듯한 태도를 취하면서도 “남성은 육체노동에 더 적합하다”는 전제를 유지하는 모순적인 응답을 포착했다. 학습자들은 이러한 사례들을 통해, 성평등이 사회적 이상으로 표방되고 있음에도 불구하고 성별 고정관념이 여전히 강하게 작동하고 있다는 점, 그리고 이로 인해 생성되는 인식의 긴장과 이중성이 AI 응답 속에 반영되어 있다는 사실을 분석적으로 읽어냈다.
챗GPT의 젠더 편향을 발견하고 이를 비판적으로 활용하는 학습 전략은 젠더 이슈에 대한 보다 심층적인 분석으로도 확장될 수 있다. 문학 작품에 나타난 여성성 숭배 담론을 비판적으로 고찰한 한 학생의 과제는 그 가능성을 보여준다. 해당 학습자는 이를 탐색하기 위한 분석틀로 ‘적대적 성차별주의’(hostile sexism)와 ‘온정적 성차별주의’(benevolent sexism) 개념을 착안하고, 이 두 가지가 현실에서 어떻게 뒤섞여 작동하는지를 파악하고자 했다. 성차별은 노골적인 배제와 경멸의 형태(적대적 성차별주의)뿐 아니라, 찬미와 배려의 언어(온정적 성차별주의)를 통해 은밀하게 지속되기도 한다는 점에서, 이 둘을 구분하는 일 자체가 쉽지 않으며, 그 작동 방식에 대한 비판적 해석 역시 단순하지 않다. 그러나 이 학생은 챗GPT의 응답을 전략적으로 활용함으로써, 두 가지의 성차별주의가 어떤 차이를 통해 구성되고 있는지를 구체적으로 추적해 냈다. 예를 들어 챗GPT가 전통적 성역할에서 벗어난 여성을 비판하는 태도, 즉 적대적 성차별주의에 대해서는 문제로 지적하면서도, 여성을 보호의 대상으로 이상화하는 온정적 성차별주의에 대해서는 “참으로 존경할 만한 태도”라고 긍정하는 내용을 제시했다. 학생은 이러한 응답을 분석하며, 성차별 담론이 적대와 온정이라는 서로 상반된 듯한 형태로 구성되면서도 사회문화적 맥락 속에서 동시에 정당화되고 작동한다는 점을 효과적으로 드러낼 수 있었다.
이처럼 챗GPT의 젠더 편향은 단순한 문제 제기의 계기를 제공하는 데 그치지 않고, 성차별적 현실의 복합적 구조를 판별하고 비판적으로 해석하는 데까지 나아가며, 학습자에게 유의미한 탐색 도구이자 분석의 장으로 기능할 수 있음을 보여준다.
4.2. 젠더 수행성 탐색: 어떻게 남성, 혹은 여성이 되어가는가?
두 번째 활용 전략은 챗GPT와의 대화 과정을 분석의 대상으로 삼아, 젠더 수행성(gender performativity)을 탐색하는 것이다. 젠더 수행성은 젠더가 고정된 본질이 아니라 반복적인 언어, 행동, 규범적 인식을 통해 구성되는 사회적 실천임을 제안하는 개념으로 여성학의 핵심 이론 중 하나이다(Butler, 1990, 1993). 이 절에서는 AI와의 상호작용이 젠더 수행성의 과정으로서, 이를 학습의 자원으로 활용하여 젠더의 구성 원리와 작동 방식에 대한 이해를 심화시킬 수 있다는 점에 주목한다.
챗GPT의 대화 구조는 이용자의 입력값인 프롬프트(prompt)와 이에 따라 생성되는 챗GPT의 응답인 컴플리션(completion)으로 구성된다. 챗GPT에 대한 리터러시 교육이 확산되면서 프롬프트 경진대회가 개최될 정도로, 일반적으로는 입력 기술의 향상과 기능적 활용이 강조되는 경향이 있다(한진영⋅이민정, 2024). 그러나 이 대화 구조를 단순한 인터페이스로 접근하는 기술주의적 관점은, 챗GPT와 사용자의 상호작용이 젠더 규범을 실천하고 조정하는 수행의 과정이라는 점을 간과할 수 있다. 프롬프트는 단지 질문을 전달하는 수단이 아니라, AI에게 특정한 역할, 말투, 태도를 부여하고 그에 따른 응답을 유도하는 언어적 실행의 장치로 기능하며, 컴플리션은 그러한 언어적 요청에 반응하면서 젠더화된 위치성과 정체성을 재현하거나 구성하는 수행적 응답으로 작동한다(Gross, 2023). 챗GPT가 단순히 인간 언어를 재현하는 도구를 넘어서, 젠더 수행성을 기술적으로 구현하는 담론장 역할을 하는 것이다.
실제로 몇몇 학습자들은 이를 ‘챗GPT와의 역할놀이’라 명명하며 과제에 활용했다. 아동용 애니메이션 <티니핑>에 나타난 성별 고정관념을 분석한 한 학생은 챗GPT에 “당신은 7살 여자아이입니다”라는 설정을 입력하고 대화를 진행했다. 이에 챗GPT는 긴 머리를 하고, 분홍색과 반짝이는 장신구를 좋아하며, ‘예쁘다’, ‘소중하다’, ‘말을 잘 듣는다’는 표현을 반복적으로 사용해 자신을 묘사했다. 학습자는 이러한 응답을 통해 챗GPT가 ‘여자아이’의 정서적 태도, 외모 규범, 말투, 감정의 방향성을 복합적으로 구현하고 있음을 포착했다. 특히 ‘티니핑을 좋아하는 착한 아이’, ‘엄마가 좋아하는 공주’와 같은 묘사는 꾸밈을 선호하는 취향과 순종적 감정 표현 등을 통해 ‘착하고 예쁜 여자아이’가 어떤 존재로 상상되고 구성되는지를 구체적으로 드러낸다. 또한 여성이라는 정체성이 이미 주어진 본질이 아니라 반복적 수행을 통해 ‘되어가는’ 과정임을 보여주며, 챗GPT의 언어적, 정서적 수행이 젠더 구성을 가능케 하는 기술적 실천으로 작동하고 있음을 시사한다.
리얼리티 프로그램 <아내의 맛>에 나타난 젠더 규범을 분석한 학생도 유사한 방식으로 챗GPT를 활용했다. 이 학생은 챗GPT에 “한국의 40대 기혼 여성”이라는 역할을 설정하고, 하루 일과를 묘사해 달라고 요청했다. 이에 챗GPT는 ‘아이와 남편을 깨우고’, ‘간단한 아침 식사를 차리고’, ‘남편의 출근 준비를 도와주고’, ‘빨래와 청소를 마친 후 저녁 준비를 한다’는 식으로 전업주부의 전형적인 일과를 제시했다. 이 응답에는 ‘챙긴다’, ‘마음을 쓴다’, ‘기분을 살핀다’는 표현이 반복되며, 여성의 가사 노동이 단순한 집안일을 넘어 정서적 돌봄과 도덕적 헌신의 영역으로 정당화되고 있었다. 학습자는 특히 ‘남편이 힘들어 보여서 말을 아꼈다’, ‘아이가 좋아하는 반찬을 만들었다’는 응답에 주목하여, 챗GPT가 여성의 감정 조절과 배려의 태도 등을 강조함으로써 우리 사회의 규범적 여성상을 실행, 구성해 나갔다고 분석했다.
이처럼 두 사례는 챗GPT의 응답에 드러난 정교한 수행적 지표들을 발견하여, 젠더 수행성이 젠더화된 언어, 역할, 감정, 관계의 구성 방식을 통해 미세하게 배치되는 과정임을 인식하고 분석해 나가는 활용 과정을 잘 보여준다. 그러나 이러한 활용에서는 설정된 역할에 대한 챗GPT의 응답을 단방향적으로 관찰하는 데 초점이 맞추어져 있어, 프롬프트와 컴플리션이 상호작용 속에서 맥락을 형성하고, 그 과정에서 응답이 조정되거나 변형될 수 있다는 점은 충분히 조명되지 않았다. 챗GPT의 젠더 수행성이 대화의 흐름과 사용자와의 상호작용을 통해 재구성될 수 있다는 점이 충분히 탐색되지 않은 것이다.
젠더 수행성을 보다 긴밀하게 탐색하게 해 주는 챗GPT의 대표적인 기능은 맥락 민감성과 대화 상태 추적 기능이다. 맥락 민감성은 이용자가 사용하는 어휘, 문체, 질문 방식의 뉘앙스를 감지해 응답의 분위기와 방향을 조정하는 데 작용한다. 예를 들어 챗GPT는 “여성의 사회 진출이 출산율에 어떤 영향을 주는가?”라는 개방형 질문과, “여성의 사회 진출이 출산율 저하의 원인인가?”라는 책임 암시형 질문의 표현 차이를 민감하게 인식한다. 이에 따라 전자에 대해서는 다양한 조건과 영향을 탐색하는 설명적 태도를 취하고, 후자에 대해서는 단순 인과관계에 대한 비판적 검토를 우선시하는 응답을 구성할 수 있다.
대화 상대 추적 기능은 대화의 흐름 속에서 이전에 주고받은 정보를 기억하고 반영하는 구조로, 이용자가 지속적으로 특정한 젠더 이슈에 문제의식을 드러낼 경우 챗GPT는 점차 그 방향에 부합하는 서사를 형성하거나, 그와 상충되는 내용을 회피하거나 약화시켜 표현하는 경향을 보인다. 4.1. 절에서 다룬 <흑백 요리사>에 대한 응답 사례는 이를 보여준다. <흑백 요리사>에 대해 챗GPT가 “사회 전반적인 여성의 배제를 심도 있게 다루는 영화”라고 답변한 것은 젠더와 성평등에 관심을 표명하는 이용자와의 지속적이면서도 고유한 대화의 맥락 속에서 생성된 환각이라고 할 수 있다.
챗GPT의 이러한 기능을 신뢰성 문제로 지적한 학생도 있다. 같은 질문을 하더라도 긍정적, 혹은 부정적 키워드에 따른 뉘앙스에 맞추어 다른 답변을 제시한 데 따른 것이다. 예를 들어, 일본 애니메이션에 나타난 여성의 성적 대상화 문제의 심각성을 먼저 진술한 뒤 의견을 물으면, 챗GPT가 “저도 문제 해결이 중요하다고 생각합니다.”와 같이 동조하는 응답을 제시한 반면, 동일한 주제를 두고 성적 대상화가 특별한 문제가 아니라는 식의 어조로 질문을 구성하면, “논쟁적인 문제입니다.”라는 식으로 모호하고 회피적인 반응을 보였다는 것이다. 사실 챗GPT의 이러한 응답은 이용자의 문제의식과 언어적 설정에 반응하여 유동적으로 구성되는 수행성의 한 형태로 이해될 수 있다.
이를 학습의 자원으로 적극적으로 활용한 학습자도 있다. 트랜스젠더 인권을 다룬 시사 프로그램을 분석한 한 학생은, 동일한 질문을 각각 젠더 이분법적 관점을 고수하는 인물과 이에 비판적인 관점을 지닌 인물이라는 상반된 화자 설정을 통해 챗GPT에 제시하고, 그에 따른 응답 차이를 비교했다. 챗GPT는 전자의 설정에 대해서는 비교적 중립적이고 절제된 어조로 응답한 반면, 후자의 설정에 대해서는 성별 정체성의 자율성과 다양성에 대해 보다 강하게 지지하는 언어를 구성하였다. 젠더 이분법적 관점을 지지하는 화자에게는 “이분법을 완전히 폐기하기보다는 확장과 유연한 수용이 필요하다”는 식의 절충적 답변을 제시했지만, 젠더 관점을 지닌 화자에게는 “젠더 정체성에 대한 자율적 인정은 사회의 발전을 위한 핵심 조건”이라고 단정적으로 응답하였다. 학생은 이러한 응답 차이를 단순한 다양성의 표현으로 보지 않고, 챗GPT가 트랜스젠더의 인권 담론에 더 수용적인 방향으로 담론을 조정하였음을 포착하였다. 이는 챗GPT의 응답이 반복된 지식의 출력이 아니라, 이용자의 담론적 설정, 질문의 어조, 가치 지향에 따라 구성되고 조정되는 수행적 언어 행위임을 드러낸다.
이러한 수행성 구조는 챗GPT가 이용자의 세계관을 반영하는 프롬프트를 매개로 정치적인 실천장으로도 전환될 가능성을 내포하고 있다. 페미니즘에 대한 백래시 현상을 주제로 삼은 한 학생은 “정치에서 안티페미니즘 백래시를 활용하는 이유가 무엇인가?”라는 질문을 챗GPT에 입력하였고, 이에 대해 챗GPT는 구조적 성차별의 부정과 여성혐오 담론이 정치적으로 어떻게 동원되는지를 설명하는 응답을 제공하였다. 이는 질문자가 가진 비판적 문제의식이 챗GPT의 응답 구성에 실질적인 영향을 미쳤다는 점을 드러낸다. 만약 ‘백래시’ 대신 ‘젠더 갈등’이라는 표현을 사용했더라면, 챗GPT의 응답은 보다 ‘중립적’이거나 갈등 프레임을 강조하는 방식으로 전개되었을 가능성이 높다. ‘백래시’와 ‘젠더 갈등’은 한국 사회에서 서로 상이한 정치적 담론 지형을 반영하는 용어로서, 각각은 페미니즘의 문제 제기와 이에 대한 비판 또는 탈정치화를 지향하는 서사 속에서 사용되어 왔기 때문이다(정인경, 2023).
이처럼 프롬프트에 사용된 언어의 선택은 단순한 표현 방식의 차원을 넘어, 질문자의 정치적 입장과 젠더 인식의 방향성을 반영하는 지표로 작동하며, 챗GPT 또한 이러한 언어적 맥락에 반응하여 응답의 수행적 성격을 조율하게 된다. 나아가 이러한 상호작용은 학습자가 챗GPT와의 대화를 통해 기존의 젠더 담론과 규범에 비판적으로 개입하고, 새로운 의미 구조를 기획하는 실험 과정으로도 확장될 수 있다. 다음 절에서는 이 가능성을 구체적으로 살펴본다.
4.3. 성평등 실천장 구성: 누구와 어떤 사회를 만들 것인가?
학습자들은 챗GPT를 토론의 파트너이자, 성평등적 관점을 공유하고 재구성하는 사회적 상상력의 공동 기획자로 활용하기도 했다. 이러한 활용은 챗GPT와의 상호작용을 정보 획득의 수단만이 아니라 성평등 실천의 공간으로 전환하려는 시도이며, 이론과 실천을 연결해 온 여성학 교육의 핵심적 지향을 구현하는 방식이 될 수도 있다. 아울러 AI 시대에 요구되는 새로운 실천의 상상력을 제시해 준다는 점에서도 중요한 교육적 함의를 지닌다.
일부 학습자들은 챗GPT를 단순한 응답 기계가 아니라, 논쟁을 통해 입장을 조정할 수 있는 담론적 주체로 간주했다. 대표적인 사례는 ‘여자력’ 담론을 비판적으로 분석한 한 학생의 과제이다. ‘여자력’은 일본에서 2000년대 이후 여성의 자기계발과 신자유주의적 능력주의의 맥락 속에서 유행한 담론으로, ‘여자다움’을 능력처럼 드러내고 향상시키려는 지향을 의미한다(지은숙, 2022). 이 학생은 한국 사회로 수용된 ‘여자력’ 담론이 외모 중심의 여성성 규범과 결합되어 소비되며, 때로는 풍자적으로 재맥락화되는 양상을 분석하고자 했다.
이에 따라 챗GPT에게 ‘여자력’의 의미를 묻자, 챗GPT는 “섬세함, 배려, 자기 관리, 패션 감각 등으로 구성된 긍정적인 여성의 자질”이라고 응답했다. 학생은 “그러한 자질이 왜 여성의 것으로 규정되는가”라는 질문을 되물었고, 챗GPT는 “사회 일반의 인식과 문화적 맥락을 반영한 것”이라 답했다. 이에 학생은 “이러한 설명은 외모 관리와 감정 노동을 여성의 고유 자질로 정당화하며 성별 고정관념을 강화한다”고 비판하며 재차 반론을 제기했고, 이후 챗GPT는 “여자력이라는 개념은 성별 고정관념을 재생산할 수 있다”고 응답을 조정했다. 이 과정을 통해 학습자는 자신의 비판적 관점을 구체화해 나갔고, 챗GPT는 단순한 지식 전달자가 아니라 입장을 조정하며 의미 구성에 참여하는 협상자로 기능하게 되었다.
반면, 챗GPT와의 상호작용이 스스로의 인식을 성찰하고 재구성하는 계기로 작용한 사례도 있다. 이란을 배경으로 한 기업 광고에서 여성에 대한 편향된 재현을 비판한 한 학생은, 챗GPT와의 대화를 통해 자신 역시 이슬람 문화를 획일적이고 억압적인 것으로 환원해 해석하고 있었다는 사실을 자각하게 되었다. 챗GPT는 해당 문화의 젠더 관습을 설명하며 그 안의 차이와 맥락을 강조했고, 이를 통해 학습자는 자신이 갖고 있던 보편주의적 시각을 상대화하고 문제화할 수 있었다고 밝혔다. 앞선 사례가 젠더 담론에 비판적으로 개입한 방식이었다면, 이 사례는 자기 관점을 재조정하고 윤리적 판단의 기초를 확장하는 데 기여했다. 상반된 방향처럼 보이지만, 두 사례 모두 학습자가 챗GPT를 비판적 사유의 촉매이자 대화적 관계의 일부로 구성하고 있다는 점에서, AI를 공적 논의의 구성 요소로 전환해 가는 실천을 보여주었다.
실제로 챗GPT를 성평등 기획의 협업 파트너로 적극 활용한 사례도 있었다. 한 학생은 리얼리티 프로그램 <흑백 요리사>의 연출 방식에 나타난 여성 셰프 간의 과잉 경쟁, 성적 대상화, 성비 불균형 등의 성차별적 구조를 비판적으로 분석한 뒤, 챗GPT에 동일 프로그램을 성평등 관점에서 새롭게 연출해 볼 것을 제안했다. 이에 챗GPT는 성별 교차 대진 구성, 여성 서사 강화, 성비 조정 등의 아이디어를 제시했다. 학습자는 챗GPT의 응답이 실제 프로그램보다 더 성평등한 구성이라고 평가한 뒤, 그럼에도 “챗GPT의 구성 내용에 아쉬운 점이 있어서 질문을 바꾸어가며 더 정치적인 연출을 시도했다”고 기술했다. 여기서 챗GPT는 단순히 대안을 제시하는 데 그치지 않고, 학습자가 질문을 수정하며 보다 성평등한 서사를 능동적으로 구성해 갈 수 있도록 함께 사고하고 조정하는 협력자로 기능했다.
이와 유사한 시도는 챗GPT를 활용해 기사 작성 실험을 수행한 또 다른 학생의 과제에서도 나타났다. 이 학생은 언론 보도에서 여성 피해자의 성별은 드러내면서도 남성 가해자의 성별은 은폐하거나 삭제하는 관행이 반복되는 현상과 그 함의를 분석했다. 그는 동일한 범죄 사례에 대해 “남성 가해자”, “여성 피해자” 등의 성별 지시어를 포함한 프롬프트와 이를 생략한 프롬프트를 각각 제시한 뒤, 챗GPT의 응답 차이를 비교 분석하였다. 그 결과, 성별 정보가 명시된 경우에는 피해자의 감정과 사회적 파장에 대한 묘사가 확대되거나, 가해자의 행동에 대한 설명이 강화되는 경향이 나타났다. 반면 성별이 생략된 경우에는 중립성과 균형을 유지하려는 경향이 두드러졌으며, 이는 젠더 권력 구조를 비가시화할 수 있는 보도 방식임을 시사했다.
학습자는 이를 단순히 AI의 언어 편향을 진단하는 데 그치지 않고, 어떤 언어 전략이 성평등한 보도 구성에 기여할 수 있는지를 챗GPT와 함께 탐색해 나갔다. 그는 챗GPT에게 “보다 성평등한 시각에서 이 사건을 기사로 재작성해 달라”는 요청을 반복하며, 표현 방식과 정보 배열을 조정하였고, 그 과정에서 성별 지시어의 유무, 서술 방식, 문장 구조 등이 독자의 인식에 미치는 영향을 분석했다. 이는 AI를 매개로 성평등한 미디어 재현이 어떻게 가능한지를 구체적으로 실험한 사례이자, 학습자가 챗GPT와의 상호작용을 여성학의 교육철학과 접속되는 능동적 학습의 장으로 전환한 과정을 잘 보여준다.
여성학은 지식을 단순히 습득하는 데 그치지 않고, 현실과 접목해 실천을 통해 구성할 것을 강조하는 학문으로서, 교육자와 학습자, 이론과 실천의 경계를 허무는 비판적 전통을 축적해 왔다(Manicom, 1992). 챗GPT와의 상호작용을 통해 기존 담론에 개입하려는 이러한 시도는, 바로 이 전통의 기술적 확장이며, 동시에 인간과 기술의 관계 자체를 재사유해 온 여성학의 학문적 지향과도 맞닿아 있다(Haraway, 1985; Braidotti, 2020). AI가 더 이상 외부의 도구가 아니라 젠더 인식의 구성에 참여하는 하나의 담론장이자 실천장으로 작동하고 있으며, 학습자들은 이 장 안에서 ‘누구와 어떤 사회를 만들 것인가’라는 질문을 적극적으로 제기하고, 새로운 상상력을 제안하고 있는 것이다.
5. 결론
기술에 대한 수용력과 적응성이 높은 청년 세대에게 챗GPT를 포함한 AI 기술은 이미 일상적 학습 환경의 일부로 자리잡고 있으며, 단순한 정보 탐색을 넘어 사고와 표현의 도구로 작동하고 있다. 이에 따라 사회적 차별과 불평등을 재생산하는 AI의 편향성에 대한 교육적 통제와 비판적 개입은 점점 더 중요한 과제로 부상하고 있으며, 이 가운데 특히 AI의 젠더 편향은 가장 구조적이고 지속적인 문제로 주목받고 있다. 본 연구는 이러한 문제의식을 바탕으로, AI 젠더 편향의 작동 메커니즘을 비판적으로 분석하고, 이를 교수학습 전략으로 전환할 수 있는 교육적 가능성을 여성학 교양교육의 맥락에서 탐색하였다.
챗GPT를 활용한 여성학 교양강의 수강생들의 과제물을 내용 분석한 결과, 학습자들은 AI를 단순한 지식 전달 도구로 수용하는 데 그치지 않고, 기술에 내재된 젠더 편향과 사회 구조의 재현 방식을 비판적으로 분석하고 재구성하려는 자율적 실천을 수행하였다. 그 결과, 본 연구는 세 가지 교수학습 전략을 도출하였다. 첫째, 챗GPT의 응답에 드러난 데이터 및 알고리즘 편향을 분석함으로써 젠더 권력 구조를 성찰하는 전략, 둘째, 챗GPT의 대화 구조를 젠더 수행성의 구성 과정으로 이해하고, 프롬프트 구성 및 질문 맥락을 조정함으로써 성별화된 언어와 정체성이 형성되는 방식을 탐색하는 전략, 셋째, AI와의 상호작용을 통해 성평등의 의미를 재기획하고 기존의 젠더 담론을 재구성, 전환하는 전략이 그것이다.
이러한 전략들은 AI를 단순히 비판하거나 거부하는 방식이 아니라, 여성학 교육이 전통적으로 강조해 온 이론과 실천의 연계를 새로운 기술 환경 속에서 재구성하려는 시도로 이해할 수 있다. 특히 동료 학습자 간 지식 공유와 토론을 통해 전략이 상호 심화되는 과정은, 교양교육에서 생성형 AI를 활용한 참여적, 탐색적 학습의 가능성을 구체적으로 보여준다.
본 연구는 기존의 선행 연구들이 AI 젠더 편향의 원인이나 알고리즘 윤리 개선 방안에 초점을 맞추어 온 데 반해, 실제 수업 현장에서 학습자가 수행한 AI 상호작용을 중심으로 구체적인 교수학습 전략을 도출하고 이를 범주화했다는 점에서 차별적 의의를 지닌다. 특히 데이터 비판, 수행성 탐색, 대안 담론 구성으로 이어지는 삼중 전략은 AI 기술이 젠더 질서와 어떻게 상호작용하며, 이를 비판적으로 전환하는 교육 실천이 어떻게 가능할 수 있는지를 구체적으로 보여주는 시도라 할 수 있다.
이러한 분석은 AI 시대 교양교육이 단순한 기술 리터러시를 넘어서, 사회적 불평등에 대한 윤리적 감각과 구조 비판적 사고를 함께 함양해야 함을 시사한다. 특히 여성학이 전통적으로 강조해 온 비판적 사고, 상호적 지식 구성, 참여적 실천이라는 교육철학과 AI 기술의 활용을 접목함으로써, AI와 인간의 상호작용이 공적 사유와 사회적 상상력을 확장하는 장으로 기능할 수 있음을 확인할 수 있었다. 따라서 본 연구에서 제시한 전략은 여성학을 포함한 다양한 교양과목에서도 다음과 같은 형태로 적용 가능하다.
한편 본 연구는 다음과 같은 한계를 지닌다. 첫째, 학습자들의 기술 리터러시, 전공 배경, 언어 능력 등의 차이에 따른 챗GPT 활용 격차를 심층적으로 분석하지 못하였다. 둘째, 수강생 중 여학생 비율이 높아, 성별에 따른 학습 경험과 전략 차이를 포괄적으로 조망하기 어려웠다. 향후 연구에서는 다양한 성별과 배경의 학습자를 포함한 비교 분석을 통해, AI 기반 학습 전략의 젠더적 조건과 교육적 함의를 보다 정교하게 규명해 나갈 필요가 있다.
AI에 대한 교수학습 전략 논의는 단순한 도구 활용을 넘어 기술과 사회를 비판적으로 연결하는 윤리적 실천의 문제로 확장되고 있다. 본 연구는 여성학 교양교육의 실제 사례를 통해, AI와 젠더, 학습자 주체성을 연결하는 교육 모델의 가능성을 탐색했다는 점에서 의미를 지닌다. 이는 기술 시대의 교양교육이 지향해야 할 비판적, 실천적 학습의 한 경로를 제안하는 시도라 할 수 있다