Buolamwini, J., & Gebru, T. (2018). Gender shades:Intersectional accuracy disparities in commercial gender classification, Proceedings of Machine Learning Research, 81:1-15. Conference on Fairness, Accountability, and Transparency.
Calzada Prado, J., & Marzal, M. A. (2013). Incorporating data literacy into information literacy programs:Core competencies and contents.
Libri, 63(2), 123-134.
https://doi.org/10.1515/libri-2013-0010.
Criado Perez, C. (2020). Invisible women:Exposing data bias in a world designed for men, Vintage Book: (Original work published 2019),
[크리아도 페레스, 캐럴라인. (2020). 보이지 않는 여자들: 편향된 데이터는 어떻게 세계의 절반을 지우는가 (황가한, 역). 웅진지식하우스. (원서출판 2019)].
DiAngelo, R., & Sensoy, Ö. (2014). Calling in:Strategies for cultivating humility and critical thinking in antiracism education. Understanding and Dismantling Privilege, 4(2), 191-203.
D'Ignazio, C., & Klein, L. F. (2020). Data feminism, The MIT Press.
Han, S. (2013). Exploration of theoretical backgrounds of action research.
Educational Science Research, 15(2), 105-128.
[한상희. (2013). 실행연구의 이론적 배경 탐색. 교육과학연구, 15(2), 105-128].
Kan, J., & So, K. (2011). Educational action research in Korea.
Asian Education Research, 12(3), 197-224.
[강지영, 소경희. (2011). 국내 교육관련 실행연구(action research) 동향 분석. 아시아교육연구, 12(3), 197-224.].
Kim, J. (2023). Regulating AI voices:Exploring solutions to gender bias. Korean Journal of Legal Philosophy, 26(3), 167-204.
[김주현. (2023). 인공지능의 목소리, 규제할 수 있을까: 젠더 편향 해소를 위한 제안. 법철학연구, 26(3), 167-204.].
Kim, K., & Kang, J. (2023). A case study on the genderized voice and subjectification method of artificial intelligence (AI):Focusing on Foucault's apparatus and subjectification. Korean Journal of Broadcasting and Telecommunication Studies, 37(2), 5-39.
[김경은, 강진숙. (2023). 인공지능(AI)의 젠더화된 목소리와 주체화 방식에 대한 사례연구: 푸코의 장치와 주체화 사유를 중심으로. 한국방송학보, 37(2), 5-39.].
Ko, H., Jeong, H., & Park, D.. (2019 Artificial intelligence and discrimination,
Justice, (171), 199-277.
http://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE07994132[고학수, 정해빈, 박도현. (2019). 인공지능과 차별. 저스티스, (171), 199-277.
http://www.dbpia.co.kr/journal/articleDetail?nodeId=NODE07994132]
Lee, H. (2021). Are women visible in data societies?:Algorithmic media and gender inequality. Feminism and Korean Literature, (54), 13-45.
[이희은. (2021). 데이터화 사회에 여성은 존재하는가?: 알고리즘 미디어와 불평등. 여성문학연구, (54), 13-45.].
Lee, S. (2018). A tentative study on gender norm in artificial intelligence. The Digital Ethics, 2(1), 32-37.
[이승현. (2018). 인공지능 시대의 젠더규범에 대한 시론. The Digital Ethics, 2(1), 32-37.].
Oh, J., Bae, S., & Kim, J. (2023). Intergenerational transfer of unpaid domestic labor value:In-depth analysis of the national time use accounts. Issue Analysis, Winter, 4-27.
[오정화, 배수진, 김지현. (2023). 무급 가사노동 가치의 세대 간 이전: 국민시간이전계정 심층분석. 이슈분석, 겨울호, 4-27.].
Oh, Y., & Hong, S. (2018). Does artificial intelligence algorithm discriminate certain groups of humans?. Journal of Science and Technology Studies, 18(3), 153-293.
[오요한, 홍성욱. (2018). 인공지능 알고리즘은 사람을 차별하 는가? 과학기술연구, 18(3), 153-293.].
O'Neil, C. (2017). Weapons of math destruction:How big data increases inequality and threatens democracy, Crown/ Archetype, (Original work published 2016),
[오닐, 캐시. (2017). 대량살상 수학무기: 어떻게 빅데이터는 불평등을 확산하고 민주주의를 위협하는가 (김정혜, 역). 흐름출판. (원서출판 2016)].
Park, J. (2018). A comparative study of big data, open data, and my data.
The Journal of Big Data, 3(1), 41-46.
[박주석. (2018). 빅데이터, 오픈데이터, 마이데이터의 비교연구. 한국빅데이터학회지, 3(1), 41-46.].
Park, S., & Lee, J. (2023). Artificial intelligence fact-checking technology and the dynamics of factuality. Korean Journal of Journalism &Communication, 67(4), 238-271.
[박소영, 이정현. (2023). 팩트체킹 인공지능 기술과 사실성의 역학: 현장 참여자의 심층 인터뷰 분석. 한국언론학보, 67(4), 238-271.].
Sohn, H. (2022). AI and technologies of gender:On the controversy on chatbot Iruda.
Gender and Culture, 15(2), 67-94.
[손희정. (2022). 인공지능과 젠더 테크놀로지: 이루다1.0 논란을 중심으로. 젠더와 문화, 15(2), 67-94.].