본문 바로가기 주메뉴 바로가기 검색 바로가기
美 플로리다 중학생, 동급생 딥페이크 누드 제작 혐의로 체포
상태바
美 플로리다 중학생, 동급생 딥페이크 누드 제작 혐의로 체포
딥페이크 누드 관련 첫 번째 형사 사건으로 알려진 사건에서 중학생 두 명이 2022년에 도입된 플로리다법 규정 적용을 받아 동급생의 모습을 이용한 AI 생성 누드 이미지를 제작한 혐의를 받았다.
By CAROLINE HASKINS, WIRED US

와이어드 팀은 공개 기록 요청을 통해 입수한 경찰 보고서를 통해 2023년 12월, 플로리다주 마이애미에서 성별 무관 급우의 동의 없이 인공지능(AI) 생성 나체 이미지를 생성하고는 공유했다는 혐의로 10대 소년 두 명을 체포한 사실을 발견했다.

경찰이 체포한 학생은 13세, 14세 남학생 두 명이다. AI 나체 이미지 생성 피해 대상이 된 학생은 12~13세이다.

플로리다주 사건은 AI 생성 나체 이미지를 널리 공유했다는 의혹의 결과로 체포와 형사 기소가 이루어진 첫 번째 사건으로 밝혀졌다. 기소된 중학생 두 명의 혐의는 2022년 통과된 플로리다주 법률에 따라 당사자 동의 없는 차량 절도나 타인 사칭과 같은 수준의 중범죄인 3급 중범죄에 해당한다. 플로리다주 법률은 당사자 동의 없는 대체된 성적 묘사 공유도 중범죄로 본다.

기소된 청소년 중 한 명의 부모는 이 기사가 송출될 때까지 와이어드의 문의에 답변하지 않았다. 다른 소년의 아버지는 자신의 아들이 저지른 범죄에 대한 의견을 밝히지 않을 것이라고 답변했다. 사건 담당 판사와 플로리다주 검사도 이 기사가 송출될 때까지 와이어드의 문의에 답변하지 않았다.

AI 이미지 생성 툴을 이전보다 더 광범위한 영역에서 사용할 수 있어, AI로 급우의 나체 사진을 생성하고는 공유하면서도 당사자 동의를 전혀 구하지 않은 청소년 범죄 의혹이 몇 차례 언론에 보도되어 주목받은 사례가 있다. 워싱턴 이사쿼아고등학교, 뉴저지 웨스트필드고등학교, 캘리포니아 버버리 비스타중학교 사건 등 언론에 공개된 AI 나체 이미지 생성 범죄 중 경찰 보고서 제출 후에도 실제로 체포로 이어진 사례는 없다. 이사쿼아고등학교 사건 담당 경찰은 기소를 진행하지 않기로 결정했다.

플로리다주 사건은 2023년 12월 최초로 언론에 보도되었다. 당시 언론은 마이애미 파인크레스트코브아카데미(Pinecrest Cove Academy) 학교 관리자가 재학생 두 명의 당사자 동의 없는 AI 가짜 누드 사진 생성 및 공유 의혹을 파악한 뒤 10일 정학 처분을 내렸다고 보도했다. 이후 피해자 부모가 사건을 알게 된 후 일부 피해자 부모는 학교 측에 가해 소년 두 명의 퇴학 처분을 공개적으로 촉구했다.
 
[사진=Freepik]
[사진=Freepik]

피해자 중 한 명의 어머니인 나디아 칸 로버츠(Nadia Khan-Roberts)는 2023년 12월, NBC 마이애미와의 인터뷰에서 피해자 가족 모두에게 후유증이 생겼다고 말했다. 칸 로버츠는 “딸은 가해 학생과 같은 교실에 등교하는 것을 불편해한다”라고 말했다. 익명을 요구한 어느 한 피해 학생은 NBC 마이애미와의 인터뷰에서 “내가 폭력을 당했다고 생각한다. 내가 성적 착취 대상이 되고, 이용당했다는 느낌이 사라지지 않는다”라고 호소했다.

와이어드는 최근, 플로리다주 사건의 체포 기록을 입수했다. 체포 기록을 통해 2023년 12월 6일 자로 경찰에 사건이 접수되었으며, 가해 학생 두 명은 12월 22일에 체포되었음을 확인할 수 있었다. 체포 기록에는 가해 학생 두 명이 인공지능 애플리케이션을 이용해 가짜 착취 이미지를 제작했다는 혐의가 명시되었다. 가해 학생이 사용한 앱 이름은 구체적으로 언급되지 않았으며, 가해 학생은 서로 AI 합성 사진을 공유한 것으로 기록됐다.

체포 기록에는 “사건 신고자는 학교 관리자이다”라고 작성되었으나 신고자의 정확한 정보나 사건을 알게 된 경로는 구체적으로 작성되지 않았다. 학교 관리자가 AI 대체 이미지 사본을 입수한 뒤 피해 학생과 면담했다. 면담 과정에서 피해 학생 모두 AI를 이용한 나체 사진 생성 시 자신의 이미지를 사용하는 데 동의한 적이 없다고 밝혔다.

체포 후 가해 학생 모두 별다른 문제 없이 소년원에 구금되었다.

동의 없는 가짜 누드 이미지 생성을 금지하는 법률 규정을 둔 주는 극소수이다. 당사자 동의 없이 AI 나체 사진을 생성하는 관행을 막는 연방법 규정은 없다. 최근 들어 미국 상원 의원 몇 명이 테일러 스위프트의 가짜 나체 이미지가 AI 제작된 후 X(구 트위터)에 널리 유포된 사건을 계기로 관련 문제를 퇴치할 법안을 도입하기 시작했다.

기소된 학생 모두 2022년 통과된 플로리다주 법률을 적용받았다. 해당 법률은 AI 기반 툴을 이용한 딥페이크 이미지로 희롱 범죄를 저지르는 행위를 억제하고자 마련되었다.

동의 없는 AI 나체 이미지 제작, 공유 피해 학생을 대변하는 플로리다주 변호사 스테파니 카그넷 마이론(Stephanie Cagnet Myron)은 와이어드와의 인터뷰에서 미성년자의 가짜 나체 이미지를 생성한 이는 누구든 아동 성 착취 게시물 소지자로 간주된다고 설명했다. 그러나 가해 학생 모두 나이 때문에 아동 성 착취 게시물 소지 혐의로 기소되지 않을 수도 있다고 덧붙였다.

카그넷 마이론 변호사는 “몇 가지 범죄를 특별히 기소할 수 있는 사건이 있다면, 기소 확률이 가장 높은 혐의와 승소 확률이 가장 높은 혐의를 평가해야 한다. 한 사건에 너무 많은 혐의가 적용된다면, 배심원단이 사건을 판단하는 과정에서 혼란스러워할까?”라고 말했다.

조지워싱턴대학교 법학대학우너 교수이자 명확한 동의 없는 사진 생성 문제를 연구한 경험이 있는 변호사 마리 앤 프랭크스(Mary Anne Franks)는 가해 소년 기소 시 적용된 법률이자 2022년부터 존재한 플로리다주의 보복성 포르노법에 문제점이 있다고 주장했다. 가해 소년 모두 경범죄를 저지른 것처럼 보면서도 사건 자체는 중범죄에 해당하기 때문이다.

이에, 프랭크스 교수는 “가짜 나체 사진을 생성한 것이 실제 사진을 생성한 것보다 더 엄격한 처벌 적용 대상이 되는 일은 이상한 일이다”라고 말했다.

프랭크스 교수는 당사자 동의 없는 가짜 나체 사진 유포 행위가 범죄 행위라는 점에는 동의하므로 예방 효과를 낳는 것이 중요하다고 인정하지만, 청소년뿐만이 아니라도 가해자를 구금해야 한다고는 생각하지 않는다.

프랭크스 교수는 “처음에는 피해자 나이를 살펴보고, 피해자에게 미칠 영향을 생각했다. 이후 가해 학생 두 명에게 엄격한 처벌을 적용하여 기소하는 것이 실제로 예방 효과가 있을지 의문을 제기하게 되었다”라고 설명했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Florida Middle Schoolers Arrested for Allegedly Creating Deepfake Nudes of Classmates
이 기사를 공유합니다
RECOMMENDED