본문 바로가기 주메뉴 바로가기 검색 바로가기
생성형 AI의 미래는 따분하다?
상태바
생성형 AI의 미래는 따분하다?
챗GPT와 같은 유형의 AI 시스템은 매력적인 기술이 될 수 있다. 구글이 새로이 선보인 대화형 검색 기능은 텍스트 생성 기술이 지금보다 훨씬 더 많이 통제한 방향으로 향한다는 사실을 보여준다.
By WILL KNIGHT, WIRED US

5월 10일(현지 시각), 구글은 마운틴뷰에서 열린 연례 I/O 개발자 컨퍼런스에서 혼란스러울 정도로 많은 프로젝트와 제품을 공개했다. 모두 인공지능(AI)을 바탕으로 작동하거나 역량을 강화했다. 그중에는 새로이 개선된 챗봇 바드(Bard)와 사용자의 이메일, 문서 작성 보조 툴, 이미지 조작 툴, AI 기능 탑재 기기, 챗봇과 같은 실험용 구글 검색 기능 등이 있다. 컨퍼런스 전체 사항을 반복하면서 와이어드 동료의 통찰력과 의견을 더해 완성한 와이어드의 구글 I/O 라이브 블로그를 통해 자세한 사항을 확인할 수 있다.

물론, 구글의 중대한 전환점은 주로 알고리즘이 아닌 생성형 AI라는 기회를 놓친다는 우려이다.

2022년 11월 등장한 영리하지만, 여전히 결함이 있는 오픈 AI의 챗봇인 챗GPT는 마이크로소픝가 출시 후 수개월 만에 자사 검색 엔진인 빙에 추가하자 구글을 혼란에 빠뜨렸다. 챗GPT는 사용자 확보와 함께 대대적인 인기를 입증하고, 새로운 정보 제공 방식을 보여주면서 구글이 확실히 장악한 검색 사업과 AI 부문 선두 기업이라는 명성에 위협을 가했다.

챗GPT 및 AI 챗봇의 역량 기반이 되는 AI 언어 모델은 AI 연구 분야의 선두였으나 최근 구글을 떠난 제프리 힌튼(Geoffrey Hinton)을 비롯한 일부 전문가가 AI 시스템 구축이 언젠가는 인간의 통제가 어려운 수준이 될 위험성을 경고할 수밖에 없는 상황이 될 정도로 세간의 이목을 끌었다. 오픈AI의 챗GPT는 종종 주어진 주제에 따른 일관성이 있는 글 생성, 웹의 정보 요약 능력, 전문 지식이 필요할 정도로 까다로운 질문 답변 능력이 뛰어난 모습으로 인간을 놀라게 했다.

그러나 통제되지 않은 AI 모델은 유창한 표현으로 각종 혼란을 일으킬 수 있다. AI 챗봇은 기꺼이 사실을 조작하고, 불쾌한 편견을 표현하는 데다가 적절한 명령어에 따라 불쾌하거나 부적절한 발언을 할 수 있다. 마이크로소프트는 당혹스러운 부적절한 행동을 피하려 빙 챗 출시 직후 그 기능을 제한할 수밖에 없었다. 빙 챗이 시드니(Sydney)라는 비공개 코드명과 관련된 정보를 밝히고, 뉴욕타임스 칼럼니스트가 자신의 배우자를 사랑하지 않는 점을 비난한 일이 빙 챗의 기능을 제한하는 부분적인 원인이 되었다.
 
[사진=Freepik]
[사진=Freepik]

구글은 텍스트 생성 기술이 일으킨 일련의 혼란 수준을 낮추려 열심히 노력했다. 구글은 I/O 컨퍼런스 현장에서 실험용 검색 기능을 발표했다. 해당 기능은 사용자가 검색한 질문에 웹 전 영역에서 수집한 정보를 합성하는 방식으로 대화 형태의 답변을 제시한다.

구글의 더 지능적인 검색 서비스는 놀라울 정도로 선입견을 지녔으며, 인간이 직접 사용하거나 기계 자체의 생각이나 감정을 대화하는 것을 거부한다. 구글의 AI 기반 검색 서비스는 위험성이 있다고 판단한 주제는 아예 피하면서 의학 조언을 제공하는 일이나 미국 정치와 같이 논란이 될 수 있는 주제를 다룬 답변은 피한다.

구글은 앞서 언급한 문제와 같은 생성형 AI 기반 챗봇의 위험성을 장악할 만하다. 그러나 필자가 직접 시험용으로 사용한 신규 검색 인터페이스는 챗GPT나 바드와 비교하면, 놀라울 정도로 매우 통제된 듯했다.

구글이 AI 기술을 자사 제품에 더 통합하는 방향으로 변화를 채택하는 가운데, 생성형 AI 혁명은 우려스러울 정도로 매력적인 챗봇인 챗GPT가 선사한 초기의 충격과 감탄으로 기대한 것보다는 훨씬 흥미롭지 않을 수도 있다. AI 봇을 마구 평가하고 강력한 성능을 상상하던 시대는 갔다. 이제 AI 챗봇은 스프레드시트 추가와 이메일의 형식적인 인사 문구, 구매할 만한 제품 추천 등을 위한 새로운 방식을 제시한다.

AI 비관론자의 잘못된 AI 경고 사항이 과장되었다는 사실이 입증되더라도 구글, 오픈AI와 같은 기업이 더 강력한 성능을 지닌 생성형 언어 모델 개발과 언어 모델에 필요한 올바른 행동 간 균형을 맞추는 방식을 지켜보는 일이 흥미로울 것이다.

구글은 최근 몇 년간 AI 개발 분야에 거액과 주요 자원을 투자했다. 구글 CEO 선다 피차이는 종종 구글을 “AI를 우선시하는 기업”이라고 홍보하며, 구글은 오픈AI보다 더 빠른 속도로 발전한 AI를 선보이기를 간절히 바란다. 구글의 AI 관련 일련의 발표에서 나온 어느 한 고위급 인사의 메시지는 구글이 더는 챗GPT 등장보다 훨씬 더 앞서 공개되었으나 대중적으로 공개되지 않은 LaMDA 챗봇 개발 상황과 같이 더는 주저하지 않을 것이라는 의사를 밝혔다.

2023년 3월, AI 연구 분야의 일부 거물급 인사가 챗GPT의 근간이 되는 대규모 언어 모델인 GPT-4보다 더 강력한 머신러닝 시스템 개발을 6개월간 중단할 것을 촉구하는 공개서한에 서명했다. 피차이는 해당 서한에 서명하지 않았으며, 컨퍼런스 기조연설 현장에서 현재 구글이 기존 언어 모델보다 더 강력한 성능을 지닌 새로운 언어 모델인 제미니(Gemini)를 훈련 중이라고 밝혔다.

익명의 구글 소식통은 필자에게 제미니가 다른 종류의 여러 대규모 언어 모델이 최근 거둔 발전 사항을 포괄적으로 통합해, GPT-4의 강점이 주목을 받지 못하도록 할 것이라고 전했다. 그러나 제미니의 역량 전체나 강력한 이목을 끌만한 요소를 접하게 될 것을 기대하지 않기를 바란다. 구글이 대화형 검색 서비스 실험과 같이 혼란 통제 방식을 적용했다면, 제미니는 놀라울 정도로 영리한 또 다른 자동 완성 기능에 불과할 것이다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The Boring Future of Generative AI
이 기사를 공유합니다
RECOMMENDED