본문 바로가기 주메뉴 바로가기 검색 바로가기
챗GPT, 대학가의 ‘표절’ 정의 재고 유도
상태바
챗GPT, 대학가의 ‘표절’ 정의 재고 유도
학생과 교수 모두 AI 챗봇인 챗GPT가 검색 툴인지 혹은 부정행위 엔진인지 판단할 수 없다.
By SOFIA BARNETT, WIRED US

2022년 12월, 럿거스대학교 2학년 학생인 카이 콥스(Kai Cobbs)는 절대로 가능할 수 없다고 생각한 한 가지 가정을 두고 결론을 내렸다. 바로 인공지능(AI)이 인간보다 더 바보처럼 행동할 수 없다는 사실이다.

콥스는 동기 여러 명이 생성형 AI 툴인 챗GPT(ChatGPT)를 주제로 열렬하게 이야기하는 것을 듣고 난 후 재미 삼아 자본주의의 역사라는 주제로 에세이를 작성하면서 챗GPT를 한 번 사용해보았다. 챗GPT는 사용자가 입력하는 명령에 따라 장문의 글을 작성하는 능력이 뛰어난 것으로 널리 알려졌다. 이에, 콥스는 챗GPT가 자본주의의 역사라는 주제로 진행하는 연구 방향에 따라 미묘한 의미 차이와 함께 깊이 생각한 듯한 글을 작성하리라 기대했다. 그러나 콥스가 명령어를 입력한 뒤 컴퓨터 화면으로 보게 된 글은 자신이 직접 작성했다고 주장할 수 없을 정도로 일반적인 개념만 다루면서 수준이 낮은 글이었다.

콥스는 “챗GPT가 작성한 글의 완성도는 경악할 수준으로 낮았다. 구문은 어색했으며, 복합성이라고는 찾아볼 수 없었다”라며, “작성한 글이 형편없을 때, 학생이 챗GPT로 생성한 글을 논문 작성이나 어떠한 작업에든 이용할 것을 논리적으로 상상할 수 없다”라고 말했다.

그러나 모든 사용자가 콥스처럼 챗GPT를 경멸하는 것은 아니다. 오픈AI(OpenAI)가 2022년 11월, AI 기반 챗봇인 챗GPT를 출시한 뒤 교육자 사이에서는 AI의 도움을 받아 완성한 학생의 논문이 대거 등장할 상황에 대처할 방법을 찾는 데 애먹었다. 뉴욕시를 포함한 일부 공교육 현장 체계는 학교용 기기와 네트워크의 챗GPT 사용을 금지해 부정행위를 막으려 한다. 그러나 다수 대학 기관이 뉴욕시와 같은 챗GPT 사용 금지 관행을 따르는 것을 꺼리는 모습을 보였다. 고등 교육 기관에서는 생성형 AI의 도입이 디지털 연구 툴이 항상 연구 시 한 역할을 하는 대학가의 표절과 학계 진실성의 정의라는 어려운 질문이 등장했다.

챗GPT의 탄생으로 학계의 부적절한 인터넷 사용 관련 우려가 급격히 증가했다는 뜻으로 오해하지 않기를 바란다. 2001년, 위키피디아가 등장했을 당시 전국 대학가에서는 서둘러 자체 연구 철학을 해석하고는 정직한 학술 연구를 이해했다. 그리고 학술 연구 정책의 경계를 기술 혁신 속도와 맞는 수준으로 확장했다. 이제 그 위험성이 조금 더 복잡해졌다. 교육 현장에서 챗봇이 생성한 논문을 이상한 방식으로 연구에 기여하는 수단보다는 다른 방식으로 대할 방법을 찾고 있기 때문이다. 고등 교육 기관에서는 챗GPT라는 새로운 기술 발전을 따라잡고, 다른 전문가와 마찬가지로 자체 연구 규칙과 기대 사항, 인식 등을 변경하는 익숙한 노력을 펼친다. 챗GPT가 등장한 현재 유일한 차이점이 있다면, 인터넷이 스스로 사고할 수 있다는 점이다.

챗GPT는 표절의 정의가 “원 작성자에게 적절한 보상을 제공하지 않고, 타인의 작업이나 아이디어를 이용하는 행위”라고 답변했다. 그러나 논문을 ‘누군가’가 아닌 ‘무엇인가’가 생성했다면, 표절의 정의를 적용하기 까다로워진다. 브라운대학교 학계 규정 위원회(Academic Code Committee) 구성원인 에밀리 힙첸(Emily Hipchen)이 말한 바와 같이 학생이 생성형 AI를 사용한다면, 기본적 논의의 중대한 지점에 이르게 될 수 있다. 힙첸은 “(표절이) 인간의 작업물을 탈취하는 행위라면, 탈취 대상이 된 인간의 존재를 알 수 없을 것이다”라고 주장했다.

다른 이들도 힙첸과 같이 추측한다. 빌라노바대학교 학계 진실 프로그램(Academic Integrity Program) 회장인 앨리슨 데일리(Alison Daily)도 알고리즘을 인간으로 분류한다는 의견을 다루는 데 난항을 겪고 있다. 특히, 알고리즘이 텍스트 생성 과정에 개입할 때의 문제를 다룰 때 그 어려움이 크다.

데일리 회장은 기술의 발전이 학계의 새로운 우려를 촉발하지만, 챗GPT와 기술의 발전이 전혀 탐험이 이루어지지 않은 세계라고 생각하지는 않는다. 데일리 회장은 “학계는 이미 기술 발전에 따른 표절의 정의 문제를 접한 적이 있다. 논문을 표절한 학생은 종종 ‘어디에선가’ 가져온 작업물을 이용한다. 예를 들어, 학술 논문 웹사이트는 논문 작성자에게 확실한 보상을 제공하지 않는다. 표절의 정의는 표절 대상이 된 논문이나 작업물을 생성한 요소로도 확장해야 한다고 생각한다”라는 견해를 밝혔다.

결국, 데일리 회장은 시험에 응시할 때 챗GPT를 사용한 학생의 행동은 별도의 기여가 없는 위키피디아 텍스트 복사, 붙이기 행위를 한 것에 불과하다고 믿는다.
 
[사진=Unsplash]
[사진=Unsplash]

챗GPT를 보는 학생의 관점은 전혀 다른 문제이다. 콥스와 마찬가지로 절대로 자신의 이름을 작성한 채로 봇이 생성한 작업물을 제출할 수 없다고 말하는 학생도 있다. 그러나 반대로 챗GPT를 맞춤법 검사기 혹은 심지어 계산기와 같은 또 다른 보조 수단이라고 보는 학생도 있다. 브라운대학교 2학년 학생인 제이콥 젤만(Jacob Gelman)은 챗GPT를 그저 편안한 연구 보조 수단으로만 본다.

젤만은 “챗GPT를 사용해 인터넷에서 신뢰할 만한 출처를 얻는 행위를 ‘부정행위’라고 말하는 것은 말이 되지 않는다. 인터넷을 사용해 연구하는 일이 비윤리적이라는 논리와 같다”라며, “개인적으로 챗GPT는 입력 보조 프로그램인 그래머리(Grammarly)와 같은 수준의 연구 프로그램이라고 생각한다. 실제로 챗GPT를 실질적으로 사용하며, 보조 수단으로 사용하는 것이 전부이다”라는 견해를 피력했다. 콥스도 젤만과 비슷한 표현을 하며, 챗GPT를 온라인 백과사전에 비유했다.

젤만과 같은 학생은 연구 속도를 높일 의도로 챗GPT를 사용하지만, 뛰어난 능력을 갖춘 명령어 입력 기능을 악용해 논문 전체를 작성하고는 제출하는 학생도 있다. 명백한 표절 행위에 해당한다고 볼 수 있지만, 미국 전역의 학교마다 챗GPT를 이용한 표절에 대한 관점이 다르다.

브린모어대학 학생 명예 위원회(Student Honor Board) 회장인 칼리 와필드(Carlee Warfield)는 브린모어대학이 AI 플랫폼 사용 행위 자체를 표절로 간주한다고 설명했다. 챗GPT의 인기는 학생의 부정행위 이면에 숨겨진 AI의 역량 평가에 초점을 맞추는 상황을 촉구했다. 와필드 회장은 논문 전체를 AI로 작성한 학생을 표준 인용 지식이 없는 온라인 툴을 인용하여 논문을 작성한 학생과는 전혀 다른 범주로 분류해야 한다고 본다. 챗GPT의 열풍은 여전히 새로운 현상이므로 학생의 논문 표절 윤리성을 둘러싼 혼란을 이해할 수 있기 때문이다. 또한, 어떠한 학교든 표절 규정을 정한 뒤 어떤 정책이 남게 될 것인지 확실하지 않다.

학술적 측면과 기술적 측면 모두 근본적인 변화를 맞이한 가운데 대학 기관은 학술 진실성의 정의를 자체적으로 재고해 사회적 상황을 합리적으로 반영할 수밖에 없는 상황이다. 유일한 문제가 있다면, 사회적으로 기술 발전이 정체된다는 징조가 없다는 사실이다.

데일리 회장은 “빌라노바대학교의 현재 학술 진실 규정은 챗GPT와 같은 AI 툴을 이용해 텍스트를 생성하고는 학생이 독자적으로 생성한 글처럼 제출하는 행위를 금지하는 표현을 포함한 채로 개정될 예정이다”라며, “그러나 챗GPT와 같은 생성형 AI의 등장과 표절 논의가 진화하는 과정이라고 생각한다. 지금 당장 할 수 있는 일과 계속 주목할 수 있는 일은 표절 논의와 관련하여 목표를 변경하는 행위가 될 것”이라고 설명했다.

챗GPT가 검색 툴인지 혹은 표절 엔진인지를 둘러싼 갈수록 복잡해지는 질문에 학습용으로 챗GPT를 활용할 가능성도 제기됐다. 다른 교육 환경에서는 교사가 챗GPT를 AI의 단점을 보여주는 사례로 활용한다. 일부 교사는 이미 학생에게 개인적인 상세 정보나 주석이 필요한 것과 같이 텍스트 작성 봇이 완벽할 수 없다는 사실을 제시하면서 교육 방식을 바꾸고 있다. 또한, 학생이 개인적으로 집에서 작업하면서 성행하는 학생의 과제물 중 AI를 이용한 과제물을 찾는 문제도 있다.

데일리 회장은 결과적으로 학교에는 다양한 변수를 고려한 규정이 필요할 것이라고 말한다.

데일리 회장은 “어느 정도 광범위한 영역에서 챗GPT와 같은 AI 사용을 전면 금지하는 규정이 개발될 것이다. 해당 규정은 기본적으로 교수가 AI 툴을 이용한 과제물을 제출할 것을 지시할 때를 제외하면, AI 사용 행위 자체가 학술 진실성 규정 위반 사항이라는 내용을 담을 것이다. 그리고 교수진에는 AI 툴 사용을 명확하게 허용한다면, 강의나 과제물에 AI 툴을 자유롭게 사용하도록 할 것이다”라는 전망을 제기했다.

챗GPT도 데일리 회장의 견해에 동의했다. 챗GPT는 학교에서 학술 부정행위를 퇴치할 방법과 관련, “AI와 같은 여러 기술 영역의 발전이 앞으로 몇 년간의 대대적인 혁신을 견인할 것이다. 학교는 꾸준히 학술 규정을 검토하고 개정해야 할 것이다. 기술 진화로 현재 학술 환경에서 사용하는 방식을 다루도록 보장할 것이기 때문이다”라는 답변을 했다.

하지만 봇이 당연히 내놓아야 할 답변이었다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
ChatGPT Is Making Universities Rethink Plagiarism
이 기사를 공유합니다
RECOMMENDED