본문 바로가기 주메뉴 바로가기 검색 바로가기
생성형 AI, 웹 2.0서 얻은 교훈 無
상태바
생성형 AI, 웹 2.0서 얻은 교훈 無
생성형 AI 기업이 콘텐츠 관리와 허술한 노동 관행, 거짓 정보로 애 먹는 현실은 생성형 AI에 앞서 SNS 플랫폼의 실수로 발생한 것과 같은 문제에 맞서 싸운다는 사실을 입증한다.
By VITTORIA ELLIOTT, WIRED US

2022년이 생성형 인공지능(AI) 열풍이 시작된 해였다면, 2023년은 생성형 AI 공포의 해였다. 오픈AI의 챗GPT 출시 12개월 만에 생성형 AI를 바탕으로 한 소비자 제품이 급속도로 성장하는 기록을 세우면서 정부 개입이 가장 빨리 이루어진 새로운 기술이라는 기록을 세우는 데도 일조했다. 미국 연방 선거관리위원회(FEC)는 속임수를 적용한 선거 광고를 찾아 나서고 있으며, 미 의회는 AI 기업의 AI 기술 개발 방식과 알고리즘용 훈련 데이터 분류 방식 감독을 촉구한다. 유럽연합에서는 생성형 AI에 대응하기 위해 새로이 제정된 AI법(AI Act) 최종 수정안이 통과됐다.

각종 새로움과 개발 속도 속에서도 생성형 AI의 문제는 고통스러울 정도로 익숙하다. 최신 AI 모델 출시 경쟁을 펼치는 오픈AI와 여러 경쟁사는 약 20년 전 새로운 세대를 형성한 새로운 기술인 소셜 플랫폼에서 계속 발생한 문제를 직면했다. 메타를 비롯한 SNS 기업은 몇 가지만 언급하자면, 의도를 떠난 거짓 정보 유포와 불규칙한 노동 관행, 합의 없이 유포된 포르노 문제 등 여러 문제가 발생했으나 기업 차원에서 의도하지 않은 여파를 절대로 다루지 않았다. 이제 SNS의 문제는 AI 형성과 함께 어려움이 있는 새로운 관심 대상이 되었다.

캘리포니아대학교 버클리캠퍼스 정보학 교수 하니 파리드(Hany Farid)는 “생성형 AI의 문제는 100% 예측할 수 있는 문제이다. 모두 예방할 수 있는 문제라고 생각한다”라고 말했다.

손쉽게 볼 수 있는 방법
간혹 생성형 AI 기업은 SNS 기업이 확립한 문제성 인프라를 이용하여 직접 AI 툴을 개발한다. 페이스북을 포함한 여러 SNS 플랫폼이 주로 남반구 국가 출신 저임금 외주 콘텐츠 관리 인력에 의존하여 혐오 발언이나 나체 이미지 혹은 폭력성 이미지 확산을 막는다.

SNS 플랫폼 콘텐츠 관리 인력이 생성형 AI 모델 훈련 작업에도 접근한다. 마찬가지로 저임금, 열악한 근무 조건 등은 개선되지 않았다. 외주 인력이 SNS 플랫폼이나 AI 기업의 관리 측면에서 익숙하지 않으며, 본사와 다른 대륙에서 근무하는 이들이 많기 때문에 연구원과 규제 당국 모두 AI 시스템이나 SNS 네트워크의 개발, 관리 방식 전체를 이해하는 데 난항을 겪을 수 있다.

외주 인력을 채용한다면, 제품 내부의 실제 지능을 파악할 때 불확실한 정보를 얻게 될 수 있다. 콘텐츠가 사라진다면, 알고리즘이 자동 삭제한 것인지 혹은 인간 관리자 수천 명이 관리한 뒤 직접 삭제한 것인지 확실히 알기 어렵다. 고객 서비스 챗봇이 고객 지원 작업을 할 때 AI는 어느 정도까지 작업에 참여할까? 또, 분노에 찬 외주 중심지 근로자는 어느 정도까지 고객 지원 작업에 참여할까?
 
[사진=Freepik]
[사진=Freepik]

AI 기업과 SNS 플랫폼의 역효과나 의도치 않은 효과 비판론에 대응하는 방식은 비슷하다. AI 기업은 특정 AI 모델을 대상으로 안전 대책과 인정할 수 있는 사용 정책을 적용하는 방안을 논의한다. SNS 기업이 허용하는 콘텐츠 기준을 다룬 서비스 약관을 적용하는 것과 같다. SNS 법률과 마찬가지로 AI 기업과 보호 대책 모두 상대적으로 법률 적용을 우회하기 쉬운 것으로 나타났다.

2023년, 구글 바드 출시 직후 여러 연구원이 코로나19, 우크라이나 전쟁 관련 거짓 정보 생성 측면에서 바드 관리 방식의 중대한 허점을 발견했다. 와이어드의 문제 대응을 위해 구글 대변인은 와이어드의 바드 허점 보도 이후 “바드는 초기 실험 단계에 있으므로 간혹 정확하지 않거나 부적절한 정보를 제공할 수 있다”라며, 구글은 문제 콘텐츠에 대응할 것이라고 밝혔다.

AI 챗봇 제공 기업이 직접 개발한 챗봇 서비스가 SNS 플랫폼에서 나타난 반응 사이클을 벗어날 정도로 신뢰성을 갖추도록 제작할 수 있을지 확실하지 않다. 과거, SNS 플랫폼은 꾸준히 콘텐츠를 관리하면서도 신뢰할 수 없는 방식으로 새로이 생성된 문제성 콘텐츠의 대규모 데이터를 관리했다. 구글, 아마존, 오픈AI 등 주요 기업은 AI 생성 영상, 사진에 디지털 워터마크를 추가하는 등 어느 정도 해결책을 제시했다. 하지만 다수 전문가는 디지털 워터마크와 같은 해결책은 우회하기 쉬우면서 장기 해결책 기능을 할 확률이 낮다는 점에 주목했다.

그 어느 때보다 가짜가 판친다
파리드 교수는 SNS 플랫폼이 정확성이나 신뢰 여부를 떠나 개인의 정보 생성, 공유 능력을 강화하듯 생성형 AI가 SNS의 정보 공유, 생성 능력을 다른 차원으로 부여할 수 있을 것이라고 분석했다. 파리드 교수는 “더 많은 거짓 정보가 등장했다. 이제 많은 이들이 생성형 AI를 이용해 선거 출마 후보나 정치인, 뉴스 앵커, 기업 CEO 등이 실제와 다른 발언을 하는 영상을 생성한다”라고 말했다.

파리드 교수가 설명한 바와 같이 생성형 AI의 거짓 정보 생성 속도가 더 빠르고, 저렴해지면서 정보 생성 자체도 더 쉬워진다. 게다가 실제 미디어와 정보의 정확함도 해친다고 덧붙였다. 도널드 트럼프가 가짜 뉴스라고 칭한 자신에게 불리한 보도 내용을 무력화할 방안을 찾는 데 혈안이었던 사례와 2023년 초 인도 정치인이 부정부패를 암시하는 유출된 오디오 파일이 가짜라고 주장한 것을 그 예시로 언급할 수 있다.

미국 대통령 선거 출마 후보의 거짓 영상이 2024년 대통령 선거 유세운동을 왜곡할 것이라는 우려에 대응하고자 메타와 유튜브는 AI 생성 정치 광고의 정확한 분류를 요구하는 정책을 발표했다. 그러나 AI로 생성한 이미지와 영상에 워터마크를 추가하는 방안과 마찬가지로 AI 생성 콘텐츠의 라벨 부착 정책은 가짜 미디어 생성, 공유 방식의 다양한 변수를 다루지 않는다.

인권 옹호 목적 기술 사용 장려 비영리단체 위트니스(Witness)의 프로그램 책임자 샘 그레고리(Sam Gregory)가 지적한 바와 같이 가짜 콘텐츠 문제 전망이 악화되는 상황에서도 다수 플랫폼이 유해 콘텐츠 감지 작업에 필요한 자원과 팀을 축소했다. 주요 테크 기업 여러 곳이 지난 1년간 근로자 수만 명을 해고했다. 그레고리는 “신뢰 및 안전팀과 사실 검증 프로그램이 동시에 타격을 입었다. 그리고 불안정한 영향력이 혼합되도록 추가한다. 기업 내부와 시민 사회 단위에서 속임수나 악의적 의도로 생성형 AI를 이용하는 문제에 집중할 수 있는 역량을 축소한다”라고 말했다.

SNS 플랫폼의 의도하지 않은 여파는 한때 인기 있었던 페이스북 CEO 마크 저커버그의 슬로건인 “빠르게 움직이고, 혁신하라”와 관련되어 나타났다. 이후 페이스북은 해당 슬로건 채택을 중단했다. 하지만 그레고리는 AI 기업이 생성형 알고리즘의 우월함에 편승하면서 마크 저커버그가 내건 슬로건과 같은 무차별적인 접근 방식을 보게 되었다고 지적한다.

그레고리는 “많은 문제를 고려하지 않고 서비스를 출시한 뒤 또 다른 것을 출시한다”라며, 여러 대규모 플랫폼과 마찬가지로 생성형 AI 제품 개발, 훈련, 테스트, 적용 과정이 불투명하다는 점에 주목했다.

미 의회와 세계 각국의 규제 당국은 SNS 플랫폼보다는 비교적 빠른 속도로 반응하는 확고한 모습을 보인다. 그러나 파리드 교수는 여전히 규제가 AI 개발 실태보다 훨씬 더 뒤처졌다고 지적한다. 생성형 AI에 주력한 여러 기업이 불이익 우려가 없는 상황에서 개발 속도를 늦추어 얻는 이익이 없다는 의미이다.

파리드 교수는 “규제 당국은 생성형 AI 문제를 다루기 위해 어떻게 해야 할지 모르며, 기업은 그 누구도 변화 속도를 따라잡지 못할 정도로 빠른 속도로 움직인다”라고 말했다. 이는 기술이 아닌 사회에 한 가지 교훈을 남긴다. 파리드 교수는 “테크 기업은 수익을 기업 자체적으로 통제하면서 비용을 사회적으로 관리한다면, 큰돈을 벌 수 있다는 사실을 깨달았다. 사회가 우려하는 바는 기술 자체가 아니라 자본주의이다”라고 지적했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Generative AI Learned Nothing From Web 2.0
이 기사를 공유합니다
RECOMMENDED