본문 바로가기 주메뉴 바로가기 검색 바로가기
감정 표현 능력 갖춘 챗봇의 조작에 대비하라
상태바
감정 표현 능력 갖춘 챗봇의 조작에 대비하라
오픈AI의 챗GPT 최신 버전으로 출시된 감정을 모방하는 챗봇은 AI 어시스턴트가 이상하고, 더 나아가 위험한 모습을 보이는 결과를 초래할 수 있다.
By WILL KNIGHT, WIRED US

컴퓨터가 인간의 사회적 에티켓이나 감정, 유머 등을 모방하는 일은 전혀 생소한 일이 아니다. 누구나 인간의 특징을 모방하는 컴퓨터를 매우 훌륭하게 활용한다.

2024년 5월 13일(현지 시각), 오픈AI의 챗GPT 최신 버전 발표는 변화를 예고한 일이었다. 오픈AI의 새로운 챗GPT 버전은 시청각 입력 사항 인지 능력을 높이고, 멀티모달이라고 묘사한 챗GPT-4o라는 인공지능(AI) 모델 업데이트 버전을 중심으로 개발됐다. 스마트폰에 깨진 커피잔이나 다양한 방정식을 입력하고는 챗GPT에 해답을 요청할 수 있다. 하지만 오픈AI의 데모에서 가장 매력적인 부분은 챗GPT 최신 버전의 새로운 인격 부여이다.

챗GPT 업데인트 버전은 여러모로 영화 ‘그녀(Her)’의 인공지능 운영체제 역할을 한 배우 스칼렛 요한슨의 목소리와 비슷하게 매력적인 여성의 음성으로 말한다. 데모 내내 챗GPT는 여성 음성으로 다양한 감정을 채택하고 농담에 조롱하기도 하며, 가벼우면서도 매혹적인 답변을 하기도 한다. 소프트웨어가 실제로 보유하지 않은 인간의 감정을 모방한다.

오픈AI가 구글의 연례행사인 I/O 개발자 컨퍼런스 하루 전 GPT-4o을 출시한 사실은 단순한 우연이 아니다. 구글은 자사의 기존 AI 모델보다 더 우수한 능력을 갖춘 AI 어시스턴트 프로토타입인 프로젝트 아스트라(Project Astra)를 공개했다. 프로젝트 아스트라는 음성을 통해 유동적으로 전환하면서 영상을 통해 세계를 이해하기도 한다.
 
[사진=Freepik]
[사진=Freepik]

그러나 구글은 인격화를 피하고, AI 어시스턴트에 비교적 절제된 로봇 음성을 채택했다. 2024년 4월, 구글의 AI 계열사인 구글 딥마인드 연구팀은 '첨단 AI 어시스턴트의 윤리'라는 주제의 장문의 기술 논문을 게재했다. 논문은 인간과 비슷한 방식으로 행동하는 AI 어시스턴트가 증가한다면, 새로운 프라이버시 위험성과 새로운 형태의 기술 중독 문제부터 더 강력한 거짓 정보 유포 및 정보 조작 수단의 등장까지 모든 측면에서 문제를 일으킬 수 있다고 주장한다. 이미 챗봇 동반자나 AI 여자 친구 등 인간처럼 대화하는 AI 서비스를 사용하는 데 오랜 시간을 보내는 사용자가 많다. 이에, AI 기술은 인간과의 참여도가 훨씬 더 높은 서비스를 출시할 방안을 모색 중이다.

필자는 구글 I/O 개발자 컨퍼런스 전, 데미스 하사비스(Demis Hassabis) 구글 딥마인드 CEO와 인터뷰한 적이 있다. 당시 하사비스는 프로젝트 아스트라가 인간을 모방한 AI가 증가할 때 발생하는 윤리적 문제를 지적한 연구 논문을 작성한 계기가 되었다고 밝혔다. 하사비스는 “구글은 직접 개발 중인 기술에 주어진 모든 윤리적 문제를 앞서 생각해야 한다”라고 말했다. 오픈AI의 GPT-4o를 바탕으로 한 챗GPT 업데이트 소식이 발표된 후 구글 딥마인드가 경고한 윤리적 문제가 그 어느 때보다 더 현실이 되었다.

오픈AI는 데모 도중 인간을 모방한 AI의 위험성을 인정하지 않았다. AI 어시스턴트의 참여도와 설득력 향상은 시간이 지나면서 습관 형성 설득 및 입증 능력이 더 풍부해지는 방식으로 인간의 감정을 표현하도록 유도할 수 있다. 샘 알트만(Sam Altman) 오픈AI CEO는 영화 ‘그녀’의 스칼렛 요한슨의 극 중 역할을 언급했다. 오픈AI는 와이어드의 의견 공개 요청에 즉시 답하지 않았다. 다만, 자체 제작한 관리 선언문(governing charter)을 통해 인간에게 이익이 되는 안전한 AI 개발을 우선순위로 삼는다고 다짐했다.

잠시 멈추어 인간의 일상생활과 매우 가까운 실제 인간과 같은 컴퓨터 인터페이스 조작의 여파를 고려할 필요가 있다는 사실은 분명하다. 특히, 이윤을 추구하는 기업의 혜택이 더해진다면, 더 신중하게 고려해야 한다. 언젠가는 통화 상대방이 진짜 인간인가 확신하기 어려운 순간이 올 수도 있다. 기업이 매력적인 챗봇을 이용하여 장비나 기술을 판매하고자 할 것이라는 점은 분명하다. 동시에 정치인은 인간을 모방하는 AI 챗봇으로 대중의 여론을 조작할 기회를 모색할 수도 있다. 범죄자가 AI 챗봇을 동원한 새로운 유형의 사기 범죄를 저지를 수 있다는 점도 확신할 수 있다.

매력적인 프론트엔드가 없는 최신 멀티모달 AI 어시스턴트를 비롯한 첨단 기술도 AI의 새로운 문제를 일으킬 수 있다. 초기 챗GPT처럼 문자 처리 및 생성 능력만 갖춘 AI 모델은 잘못된 행동을 하도록 하는 탈옥의 영향을 받을 수 있다. 앞으로 이전에는 존재하지 않았던 교묘한 방식으로 AI 어시스턴트를 조작하여 부적절한 행동을 하도록 유도하고, 불쾌하거나 부적절한 인격 문제를 일으킬 가능성을 예상할 수 있다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Prepare to Get Manipulated by Emotionally Expressive Chatbots
이 기사를 공유합니다
RECOMMENDED