<앵커>
연세대에서 발생한 집단 부정행위엔 챗GPT 등 AI가 사용됐습니다. 현재까지 적발된 학생만 40명에 달합니다. AI 시대에 이런 부정행위를 막기 위해선 대학의 평가 방식 자체가 바뀌어야 한다는 지적이 나옵니다.
박재연 기자가 심층 취재했습니다.
<기자>
연세대학교 3학년 학생들이 듣는 생성형 인공지능, 챗GPT 관련 교양수업 중간고사에서 다수의 부정행위가 확인됐다는 글이 지난달 29일 연세대학교 게시판에 올라왔습니다.
해당 수업을 듣는 학생은 약 600명.
이 가운데 40명이 지난 15일 진행된 비대면 중간고사에서 허용되지 않는 챗GPT 등을 이용해 답안을 작성한 것으로 드러났습니다.
부정행위를 막기 위해 시험 시간 동안 컴퓨터 화면과 학생의 얼굴과 손이 나오는 영상을 찍도록 했는데, 화면에 다른 프로그램을 띄우거나 다른 곳을 응시하는 모습이 포착된 겁니다.
학교 측은 추가 부정행위자가 있는지 조사하면서 AI 활용 대책 마련에 나섰습니다.
[연세대 관계자 : 윤리적인 판단을 해서 (AI를) 잘 이용할 수 있도록 학교는 가이드라인이나 이런 교육을 통해서.]
앞서 지난 8월 동국대에서도 1천200여 명이 참여한 수업에서 다수의 학생이 생성형 AI를 시험에 활용한 정황이 드러나 논란이 됐습니다.
영국에선 AI를 이용한 대학생들의 부정행위가 지난해까지 1년 동안 7천 건 확인됐다고 일간 가디언지가 보도했습니다.
학교마다 표절 검사나 주관식 대면 평가 확대 등 AI 부정행위 방지책을 내놓고 있지만 근본적 해결을 위해선 높아진 AI 활용도에 맞춰 기존 제도를 손봐야 한다는 지적이 나옵니다.
[김명주/인공지능안전연구소장 : AI 시대에도 여전히 AI를 쓰지 않는, 사람 자체가 갖는 능력에 대해 초점들을 많이 맞춰요. (AI를 활용하는) 또 다른 능력도 사실 테스트를 해야 하고요.]
실제 4년제 이상 대학생의 91.7%가 과제나 프로젝트 자료 검색에 AI를 활용한 경험이 있다고 답한 반면, AI 활용 등에 대한 가이드라인을 학교 정책으로 적용해 채택하고 있다고 답한 대학은 43%에 불과했습니다.
[김명주/인공지능안전연구소장 : 전통적인 방법대로 AI 시대에도 숙제를 내거나 평가를 하면, 실력 평가를 제대로 못 한다는 이야기잖아요.]
전문가들은 AI가 내놓은 답을 두고 학생 스스로 비판과 보완점을 묻는 방식 등이 대안이 될 수 있다고 조언합니다.
(영상편집 : 이소영, VJ : 이준영, 디자인 : 장예은)







