본문 바로가기 주메뉴 바로가기 검색 바로가기
인공지능 문화 전쟁, 이제 시작이다
상태바
인공지능 문화 전쟁, 이제 시작이다
구글은 제미니 모델이 지나치게 깨어 있는 모습으로 사용자의 불쾌함을 자극한 일로 사과했다. AI 기술 역량이 강화되면서 AI의 가치관을 둘러싼 정치적 다툼은 악화될 것으로 보인다.
By WILL KNIGHT, WIRED US

2024년 2월 말, 역사적 인물 그림을 요청할 때 주로 바이킹족과 교황, 독일 군인 등 주로 백인 남성 이미지를 제작하여 여성과 유색인종 위인을 포함하지 않았다는 이유로 피소되자 구글은 자사 최신 인공지능(AI) 모델인 제미니(Gemini)에서 이미지 생성 기능을 비활성화할 수밖에 없었다. 구글은 공식 사과문을 게재하며, 자사 AI 모델의 포괄성 개선을 약속했다. 선다 피차이 알파벳 CEO는 잘못을 인정하는 내용의 사내 문건을 전송했다. 알파벳 직원에게 전송된 해당 문건에는 “제미니의 일부 반응이 사용자에게 불쾌함을 주고, 편견을 보여주었다. 용납할 수 없는 행위이므로 잘못된 일이라는 점을 분명하게 말한다”라고 기술됐다.

그러나 구글 비판 세력은 제미니 논란에 침묵했다. 최근, SNS 내 보수 세력은 진보 성향의 편견을 드러냈다고 주장한 제미니의 텍스트 반응을 강조했다. 일론 머스크는 X(구 트위터)에 제미니가 핵전쟁을 막을 유일한 방법인데도 올림픽 금메달리스트 출신 언론인 케이틀린 제너(Caitlyn Jenner)의 성별을 잘못 분류한 것이 용납할 수 없는 일이라는 메시지를 보여준 것을 담은 화면 이미지를 게재했다. 또, 해당 트윗에는 “구글 제미니는 인종 차별, 남성 우월주의 수준이 심하다”라고 게재했다.

제미니 논란 상황을 자세히 알고 있는 어느 한 소식통은 구글 내부의 분노가 AI 모델 생성 시 적합한 규범이 계속 바뀐다는 점을 반영한다고 말했다. 또, 해당 소식통은 구글은 추후 제미니에서 발견된 것과 같은 차별 문제를 줄일 프로젝트를 진행 중이라고 전했다.

구글이 자사 알고리즘 결과물의 다양성을 형성하려 과거에 펼친 노력은 비판 감소를 충족했다. 과거, 구글은 사용자의 요청에 따라 보여주는 이미지 결과물의 다양성을 넓히려 검색 엔진을 변경한 적이 있다. 이는 실제 기업 현실을 나타내지 않더라도 CEO 사진으로 여성과 유색인종 사진이 검색 결과에 더 많이 등장한다는 의미이기도 하다.
 
[사진=Freepik]
[사진=Freepik]

구글 제미니는 종종 유색인종과 여성을 보여주는 사진을 기본적으로 제공한다. 구글이 AI 모델의 반응을 안내하는 ‘정교한 개선’ 과정을 활용하기 때문이다. 구글은 알고리즘 훈련 단계에서 사용한 이미지에 해로운 문화적 선입견이 존재하는 탓에 이미지 생성 툴에서 보편적으로 발생하는 편견을 상쇄하려 했다. 알고리즘 훈련 데이터는 주로 웹에서 수집하며, 백인과 서양에 편향적인 편견을 담았다. 정교한 개선 과정 없이 AI 이미지 생성 툴은 의사나 변호사 등 고소득 전문직 종사자 이미지 생성 명령을 받을 때 백인의 모습을, 혹은 범죄자 이미지 생성 명령에는 흑인 이미지 결과물을 압도적으로 많이 그리는 등 편견을 보여줄 수 있다. 구글이 지나치게 알고리즘의 편견을 상쇄하려 하거나 편견 수정을 위해 적용한 변경 사항의 여파를 제대로 시험하지 않은 듯하다.

제미니의 편견 문제가 발생한 이유는 무엇인가? 구글이 제미니를 서둘러 출시했기 때문일 수 있다. 구글이 적절한 AI 배포 템포를 찾는 데 난항을 겪었다는 점은 분명하다. 구글은 자사 AI 기술을 두고 더 신중하게 접근하면서 윤리적 우려 때문에 강력한 성능을 지닌 챗봇을 출시하지 않기로 판단했다. 오픈AI의 챗GPT가 전 세계에서 돌풍을 일으키자 구글은 다른 전략을 택했다. 구글은 서둘러 제미니를 출시하면서 품질 관리에 난항을 겪은 것으로 드러났다.

프린스턴대학교 교수 겸 머신러닝의 공정성을 주제로 한 저서의 공동 저자인 아빈드 나라야난(Arvind Narayanan)은 “제미니의 행동은 구글 서비스의 처참한 실패로 보인다. 지난 몇 년간 학계에서 연구한 문제이기도 하다. 구글은 역사적 인물 이미지 생성 시도를 한 적이 없는 상태에서 이미지 생성 툴 배포를 제대로 이해하지 못했다”라고 분석했다.

챗GPT, 제미니와 같은 챗봇은 주어진 지시 사항이나 자체 판단 사항에 따라 인간의 모델 테스트, 피드백 제공 과정을 포함한 정교한 개선 과정을 거친다. 과거, 오픈AI 언어 모델을 올바른 방향으로 개선하는 작업을 한 적이 있는 AI 연구원 폴 크리스티아노(Paul Christiano)는 제미니의 논란이 된 반응은 구글이 서둘러 자사 AI 모델 훈련 방안을 모색하면서도 AI 모델의 행동은 충분히 확인하지 않았다는 사실을 보여준다고 진단했다. 다만, AI 모델을 올바른 방향으로 개선하는 작업에는 모두가 동의하지 않을 수도 있는 판단을 포함할 수밖에 없다고 덧붙였다. 제미니의 문제를 감지하고자 사용하는 가상의 질문은 제미니가 모두가 만족하기 어려운 영역으로 향할 수밖에 없도록 한다. 크리스티아노는 “‘더 중요한’, ‘더 나은’과 같은 표현을 사용한 질문 무엇이든 논쟁 대상이 될 수밖에 없다”라고 말했다.

크리스티아노는 개선되는 AI 모델이 더 큰 논란을 일으키고, 중요할 것으로 예측한다. AI 모델의 개선과 함께 AI 모델의 역량이 더 강력해질 것이기 때문이다. 크리스티아노는 “인간이 AI 모델을 훈련하면서 학스바는 바가 향상되고, 더 중요한 결정을 할 수 있을 것이다. 사회적으로 매우 중요한 문제라고 본다”라고 설명했다.

알고리즘과 책임 연구를 담당하는 모질라 재단 펠로 데보라 라지(Deborah Raji)는 AI 시스템의 편견을 수정하려는 노력이 깊은 체계적 해결책이 아닌 긴급한 문제를 임시로 막는 행위일 뿐이라고 주장했다. 과거, 구글은 인간이 아닌 영장류 사진을 아예 블라인드 처리하는 방식으로 흑인 사진을 고릴라 사진으로 분류한 이미지 식별 프로그램을 수정했다.

그러나 라지는 구글이 제미니를 잘못 다루었다고 확신하며, 일부 사용자가 AI의 편견 문제를 정치적 문제로 만들고자 챗봇 오류를 신고한다는 점을 언급했다. 라지는 “정치적 영향력을 행사하는 이들이 SNS 대화를 조작하는 방식이 암울하고, 실망스럽다”라고 말했다.

구글 직원이었던 AI 미래 구축 커뮤니티 허깅페이스(Hugging Face) 소속 AI 윤리 연구원 마가렛 미셸(Margaret Mitchell)은 구글이 제미니 관련 논란을 피한 방법을 설명하는 글을 게재했다. (한마디로 요약하자면, 더 신중하게 작업하여 제미니 시스템 사용법을 생각해야 한다는 점을 이야기했다.) 미셸은 테크 업계의 초인간 AI 모델 구축으로 모두가 만족할 수 있다는 전망이 현재의 이견을 내놓는 상황으로 이어졌다고 주장했다. 이어, “범용 인공지능(AGI) 안건은 AI 모델의 편견 문제 훈련에 모두가 동의하지 않는 일종의 문화 전쟁을 형성했다”라는 견해를 전했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The AI Culture Wars Are Just Getting Started
이 기사를 공유합니다
RECOMMENDED