오늘은 미국 대학에서 벌어진 뜨거운 논란, 생성형 인공지능(AI) 챗GPT의 사용과 관련된 사례를 중심으로 이야기해보려 합니다. 학생들에게는 부정행위로 금지된 AI를 교수가 강의 준비에 사용했다는 사실이 드러나면서 교육의 공정성과 윤리에 대한 논쟁이 불거졌습니다. 과연 어떤 일이 있었는지, 그리고 이 사건이 우리에게 던지는 메시지는 무엇인지 함께 살펴보겠습니다.
논란의 시작 : 챗GPT로 만든 강의자료
2025년 2월, 미국 노스웨스턴대학교에서 부전공으로 경영학을 공부하던 4학년생 엘라 스테이플턴(Ella Stapleton)은 조직 행동론 수업의 강의 노트를 복습하던 중 이상한 점을 발견했습니다. 강의 노트 중간에 “모든 분야에서 확장해”, “보다 세부적이고 구체적으로 써”와 같은 문구가 포함되어 있었는데, 이는 챗GPT에 지시를 내리는 프롬프트로 보였습니다. 놀란 스테이플턴은 이 수업을 담당한 릭 애로우드(Rick Arrowood) 겸임교수가 만든 다른 강의자료도 살펴봤습니다. 그 결과, 텍스트의 왜곡, 사진 속 인물의 비정상적인 묘사, 황당한 오탈자 등 생성형 AI 사용 시 흔히 나타나는 오류들을 발견했습니다.
문제는 이 수업의 강의계획서에 명시된 규정에 있었습니다. 과제물이나 시험 답안 작성 시 AI나 챗봇을 무단으로 사용하는 것은 부정행위로 간주된다는 내용이었습니다. 스테이플턴은 “학생들에게는 AI 사용을 엄격히 금지하면서 정작 교수는 챗GPT를 사용했다”며 분노했습니다. 그는 해당 수업에 대한 학기 등록금 8,000달러(약 1,130만 원)를 환불해달라며 경영학부에 공식 민원을 제기했습니다. 그러나 여러 차례 면담에도 불구하고 대학 측은 환불 요청을 거부했습니다.
교수의 해명과 AI 사용의 실체
릭 애로우드 교수는 뉴욕타임스(NYT)와의 인터뷰에서 이번 사건에 대해 깊이 후회한다고 밝혔습니다. 20년 가까이 강사로 활동해온 그는 기존 교안, 강의 노트, 자료를 챗GPT, AI 검색엔진 퍼플렉시티(Perplexity), 프레젠테이션 제작 AI 감마(Gamma) 등에 입력해 새로운 강의자료를 만들었다고 인정했습니다. 그는 “겉보기에는 결과물이 좋아 보였지만, 꼼꼼히 검토하지 않은 점이 문제였다”며 “강의는 토론 위주로 진행되었기 때문에 수업 시간에는 AI 자료를 직접 사용하지 않았다”고 해명했습니다. 또한 이번 사건을 통해 AI 생성 자료에 오류가 있을 수 있다는 점을 깨달았다고 덧붙였습니다.
애로우드 교수의 사례는 단지 실수로 끝날 문제가 아니었습니다. 학생들이 내는 높은 등록금을 정당화하는 것은 교수와 학생 간의 신뢰와 질 높은 교육에 기반합니다. 그런데 교수가 학생들에게 금지된 도구를 사용해 강의자료를 만든 것은 이 신뢰를 흔드는 행위로 비춰졌습니다. 특히 AI 사용 사실을 투명하게 밝히지 않은 점이 논란을 키웠습니다.
대학의 대응 : AI 사용 가이드라인 제정
이번 사건은 노스웨스턴대학교에 큰 파장을 일으켰습니다. 사건이 터진 후인 2025년 3월 말, 대학은 공식적인 AI 사용 가이드라인을 발표했습니다. 이 가이드라인은 AI 사용 시 반드시 그 사실을 명시하고, 생성된 결과물의 정확성과 적합성을 검토해야 한다는 내용을 포함하고 있습니다. 이는 AI의 교육적 활용이 늘어나는 상황에서 투명성과 책임성을 강조한 조치로 보입니다.
노스웨스턴대의 대응은 다른 대학들에도 영향을 미쳤습니다. 미국 내 여러 대학에서는 AI 사용에 대한 명확한 규정을 마련하거나, 기존 정책을 강화하는 움직임이 나타나고 있습니다. 예를 들어, 일부 대학은 AI 탐지 소프트웨어를 도입해 학생 과제의 부정행위를 감지하려 하고, 다른 대학들은 AI 사용을 허용하되 그 사실을 명확히 표기하도록 요구하고 있습니다.
학생들의 반발 : “교수는 써도 학생은 못 써?”
스테이플턴의 민원은 단순한 개인적 불만이 아니었습니다. 미국 대학생들 사이에서 비슷한 불만이 점점 커지고 있음을 보여줍니다. NYT에 따르면, 학생들이 자주 사용하는 강의 평가 사이트에는 교수의 과도한 AI 의존에 대한 불만이 자주 올라오고 있다고 합니다. 학생들은 “교수는 써도 학생은 못 쓴다”는 이중잣대를 비판하며, “우리가 거액의 등록금을 내는 것은 인간 교수의 가르침을 받기 위한 것이지, 무료로 접근 가능한 AI 알고리즘의 산물을 배우기 위한 것이 아니다”라고 주장하고 있습니다.
이러한 불만은 다른 사례에서도 나타났습니다. 2024년 가을, 서던뉴햄프셔대학교에서 인류학 온라인 강의를 수강한 한 학생은 교수가 자신의 과제물을 제대로 읽지 않고 챗GPT로 생성한 피드백을 제공했다고 주장했습니다. 학생이 문제를 제기하자, 담당 교수는 “학교 정책에 따라 챗GPT를 가이드로 사용했을 뿐”이라고 해명했지만, 이는 학생들의 신뢰를 더욱 떨어뜨리는 결과를 낳았습니다.
교수들의 반박 : “AI는 교육을 더 풍성하게 한다”
반면, 생성형 AI를 적극 활용하는 교수들은 AI가 교육의 효율성과 질을 높이는 데 기여한다고 주장합니다. 그들은 AI를 사용해 단조로운 작업(예: 강의 노트 정리, 기본 질문 응답)을 줄이고, 학생들과의 심도 있는 토론이나 개별 면담에 더 많은 시간을 할애할 수 있다고 말합니다. 예를 들어, 챗GPT를 활용해 강의 초안을 작성하면 교수들은 창의적인 수업 설계나 연구에 집중할 수 있다는 것입니다.
실제로 AI는 방대한 데이터를 빠르게 처리하고, 다양한 형식의 자료를 생성하는 데 유용합니다. 웨인 기얼링 텍사스 오스틴대 교수는 “챗GPT는 거시경제학에서 상위 1%, 미시경제학에서 상위 9% 수준의 성과를 낼 정도로 뛰어나다”며, AI가 교육에서 강력한 도구가 될 수 있다고 평가했습니다. 하지만 그는 동시에 AI의 출현이 전통적인 평가 방식에 도전 과제를 던진다고 지적하며, 대면 평가나 체험학습 프로젝트 같은 대안을 제안했습니다.
AI와 교육 : 윤리적 딜레마
이번 사건은 생성형 AI가 교육 현장에 가져온 윤리적 딜레마를 잘 보여줍니다.
첫째, AI 사용의 투명성 문제입니다. 애로우드 교수의 경우, AI 사용 사실을 학생들에게 알리지 않고 자료를 배포한 것이 논란의 핵심이었습니다. 만약 그가 AI 사용을 명확히 밝히고, 생성된 자료를 철저히 검토했다면 논란은 훨씬 덜했을 가능성이 큽니다.
둘째, 공정성의 문제입니다. 학생들에게 AI 사용을 부정행위로 간주하면서 교수들은 이를 자유롭게 사용할 수 있는지에 대한 질문은 여전히 논쟁거리입니다. 일부 전문가들은 AI를 교육 도구로 허용하되, 학생과 교수 모두에게 동일한 규칙을 적용해야 한다고 주장합니다. 예를 들어, 호주 N대학교의 한 교수는 “챗GPT는 전통적인 표절 검사로는 탐지하기 어렵다”며, AI 사용을 감지하는 새로운 시스템과 함께 부정행위를 억제하는 교육 방식을 개발해야 한다고 제안했습니다.
셋째, AI의 오류와 신뢰성 문제입니다. 챗GPT와 같은 대규모 언어 모델(LLM)은 종종 부정확하거나 과장된 정보를 생성합니다. 네덜란드 위트레흐트대 우베 페터스 박사 연구팀은 챗GPT-4o, 딥시크 등 AI 모델이 과학 논문 요약 시 최대 73%에서 과도한 일반화로 부정확한 결론을 도출한다고 밝혔습니다. 이는 교육 자료로 AI를 사용할 때 철저한 검증이 필수적임을 보여줍니다.
한국의 상황 : AI와 교육의 미래
한국에서도 챗GPT와 같은 생성형 AI의 사용은 교육계에서 뜨거운 화두입니다. 2023년 동아일보 보도에 따르면, 국내 국제학교에서 학생들이 챗GPT로 과제를 대필해 전원 0점을 받은 사례가 있었습니다. 또한 국민 3명 중 1명이 챗GPT를 사용해봤으며, 90%가 신뢰도를 ‘보통 이상’으로 평가했다는 조사 결과도 있습니다. 이는 한국에서도 AI 활용이 빠르게 확산되고 있음을 보여줍니다.
그러나 한국은 아직 AI 사용에 대한 명확한 교육 가이드라인이 부족한 상황입니다. 과학기술정보통신부는 2024년 말 AI 저작물 관련 가이드라인을 발표할 계획이지만, 구체적인 규제나 정책은 미비합니다. 한국 대학들이 노스웨스턴대 사태에서 교훈을 얻어 AI 사용의 투명성과 공정성을 확보하는 정책을 마련할 필요가 있습니다.
소비자 관점 : 학생과 학부모가 바라는 것
학생과 학부모 입장에서는 높은 등록금을 내고도 AI로 생성된 강의자료를 받는 상황에 실망할 수 있습니다. 스테이플턴이 주장했듯, 학생들은 “인간 교수의 가르침”을 기대하며 대학에 등록합니다. 따라서 대학은 AI를 교육에 활용하더라도 그 목적과 방법을 명확히 밝히고, 학생들의 학습 경험을 저해하지 않도록 주의해야 합니다.
또한 AI 탐지 도구의 개발과 활용도 중요합니다. 마이클 엔즈 버지니아폴리테크닉 주립대 교수는 “AI 사용을 감지하는 새로운 방법을 만들어야 하지만, 기술 발전 속도를 따라잡기 어렵다”며, 부정행위를 억제하는 교육 과정 설계가 필요하다고 강조했습니다.
앞으로의 전망
노스웨스턴대 사태는 생성형 AI가 교육에 미치는 영향과 그로 인한 윤리적 논쟁을 잘 보여줍니다. AI는 교육의 효율성을 높일 수 있는 강력한 도구이지만, 투명성, 공정성, 신뢰성 문제를 해결하지 않으면 오히려 교육의 신뢰를 떨어뜨릴 수 있습니다. 이번 사건을 계기로 미국 대학들은 AI 사용 가이드라인을 강화하고 있으며, 이는 전 세계 교육계에 영향을 미칠 가능성이 큽니다.
한국에서도 AI 활용이 늘어나는 만큼, 대학과 정부는 명확한 정책과 가이드라인을 마련해야 합니다. 예를 들어, AI 사용을 허용하되 그 사실을 명시하도록 요구하거나, AI 탐지 도구를 활용해 부정행위를 방지하는 방안이 필요합니다. 또한 교수와 학생 모두에게 공정한 규칙을 적용해 신뢰를 유지하는 것이 중요합니다.
챗GPT로 촉발된 이번 논란은 기술과 교육의 접점에서 우리가 어떤 가치를 우선시해야 하는지를 돌아보게 합니다. AI는 단순한 도구일 뿐, 그것을 어떻게 사용하느냐에 따라 교육의 질이 달라질 수 있습니다. 학생, 교수, 대학이 함께 협력해 AI를 책임감 있게 활용한다면, 더 풍성하고 공정한 교육 환경을 만들 수 있을 것입니다.
AI와 탄소중립: 기후위기 시대의 새로운 도전 (17) | 2025.05.22 |
---|---|
브렉시트 5년 만의 EU 관계 재설정: 영국의 새로운 도약 (4) | 2025.05.22 |
브라질 조류인플루엔자 여파, 국내 치킨 가격 급등 위기 (19) | 2025.05.21 |
예측시장인가 도박장인가? 폴리마켓과 2025년 조기 대선 (20) | 2025.05.20 |
AI 환각의 세계, 지브리풍 실수에서 배우는 교훈 (11) | 2025.05.20 |