본문 바로가기 주메뉴 바로가기 검색 바로가기
인공지능의 인류 파괴 가능성, 어리석은 로봇에 질문하지 말아라
상태바
인공지능의 인류 파괴 가능성, 어리석은 로봇에 질문하지 말아라
소피아와 같은 로봇을 보면 놀랍다. 하지만 인간과 같은 표정을 짓는 속임수 보고 로봇이 지능을 갖추었다고 생각해서는 안 된다.
By WILL KNIGHT, WIRED US

2023년 7월 초 일부 유력 언론 기관이 인공지능(AI)의 인류 위협 가능성이 없다는 기사를 보도했다. 해당 보도 내용의 출처가 궁금한가? 바로 간단한 챗봇과 연결된 휴머노이드 로봇의 머리이다.

소식은 제네바에서 ‘AI 포 굿(AI for Good)’이라는 이름으로 개최된 국제연합기구(UN) 컨퍼런스에 참석한 어느 한 패널을 통해 제기되었다. 컨퍼런스 현장에는 휴머노이드 로봇 여러 대와 제작자가 함께 모습을 드러냈다. 컨퍼런스 현장에는 한슨 로보틱스(Hanson Robotics)의 휴머노이드 로봇인 소피아(Sophia)를 포함하여 휴머노이드 로봇을 향해 질문하도록 초청된 기자단도 참석했다. 소피아 개발사인 한슨 로보틱스는 여러 토크쇼에 등장했으며, 소피아가 사우디아라비아에서 인간과 같은 법적 지위를 획득하는 등의 사건으로 유명해졌다.

기자단은 AI가 인류 종말을 초래하거나 인간의 일자리를 빼앗을 가능성도 질문했다. 소피아를 비롯한 로봇은 챗GPT의 기능을 지원하는 것과 어느 정도 비슷한 챗봇 기술을 기반으로 답변할 수 있었다. 챗봇의 한계가 널리 알려졌지만, 휴머노이드 로봇 여러 대가 답변한 내용은 자동화 및 지능 기관의 의미 있는 의견인 것처럼 보도되었다.

그 이유는 무엇일까? 시각적으로 인간의 표정을 흉내 낸 로봇은 지켜보는 이의 감정적 반응을 자극한다. 인간은 표정과 같은 비언어적 단서를 택하도록 완벽하게 준비되었기 때문이다. 하지만 최신 AI의 한계를 숨기면서 첨단 기술을 장착한 꼭두각시를 넘어선 수준으로 발전한 것처럼 보일 수 있어, 인간이 휴머노이드 로봇 기술이나 AI가 일으킬 수 있는 문제를 다룬 각종 우려 사항 등을 이해하려 하면서 혼란스러워할 수 있다. 필자도 소피아를 포함한 다수 휴머노이드 로봇이 ‘발언자’로 이름을 올린 컨퍼런스 현장에 참석했다. 하지만 컨퍼런스 이후 AI 기술에 대한 관심이 사라졌다.

신뢰가 더 두터운 업계의 복수 전문가가 AI가 현재와 미래에 제기할 위험성을 경고하는 시점에 휴머노이드 로봇을 향해 AI의 위험성을 질문하는 말도 안 되는 상황을 지켜보는 것에 좌절감을 느낄 수도 있다. 머신러닝 알고리즘은 이미 사회의 편견을 악화하고, 거짓 정보를 내뱉는 데다가 전 세계 소수 대기업과 정부 기관의 권력을 강화한다. AI 분야의 다수 유력 전문가는 현재의 AI 발전 속도가 통제하기 어려운 알고리즘이 탄생하는 것은 시간 문제로 이어질 것을 우려한다.
 
[사진=Unsplash]
[사진=Unsplash]

소피아 이외에도 살아 있는 인간과 같은 로봇 여러 대를 개발한 한슨 로보틱스가 인간의 표정을 모방하는 기계를 개발하는 능력이 매우 뛰어나다는 점은 사실이다. 필자는 몇 년 전 홍콩에 있는 한슨 로보틱스 본사를 방문하여 디즈니에서 근무한 경력이 있는 한슨 로보틱스 대표 데이비드 한슨(David Hanson)과 만나 아침 식사를 한 적이 있다. 한슨 로보틱스의 연구실은 미국 드라마 웨스트월드(Westworld)나 블레이드러너(Blade Runner)에서 볼 법한 공간 같았다. 연구실 내부에는 연결되지 않은 채로 초점 없이 허공을 슬픈 듯한 눈으로 응시하는 로봇, 무표정인 채로 선반에 놓인 얼굴, 같은 단어를 무한 반복하여 내뱉는 로봇 시제품 등이 있었다.

필자는 한슨과 함께 기억력을 갖춘 휴머노이드 로봇에 실제 지능을 더하는 것을 이야기했다. 유력 AI 연구원이자 AI 기업 싱귤래리티NET(SingularityNET) CEO인 벤 괴르첼(Ben Goertzel)이 머신러닝의 발전 사항을 한슨 로보틱스의 로봇에 삽입된 소프트웨어에 적용하고자 하는 노력을 이끌었다. 인간과의 대화에서 자연스러운 답변을 할 기능을 갖추기 위한 노력이었다.

소피아 개발 시 근간이 되었던 AI는 가끔 자연스러운 대화를 이어갈 수 있을 만한 답변을 생성할 수 있다. 하지만 챗GPT 최신 버전의 능력을 지원하는 시스템이자 개발 비용이 1억 달러가 넘는 GPT-4와 같은 수준은 아니다. 물론, 챗GPT를 포함한 최첨단 AI 프로그램이 AI의 미래와 같은 질문에 타당한 답변을 내놓을 수는 없다. AI 프로그램은 놀라울 정도로 지능적인 타당성을 갖추었지만, 기이할 정도로 뛰어난 지식과 선천적인 모방 능력은 심각한 결함이 있어, 세계를 대상으로 한 한정적인 지식만 갖추었다고 생각하는 것이 가장 적합할 것이다.

제네바에서 진행된 소피아와 한슨 로보틱스의 오해를 일으킬 수 있는 인터뷰는 AI 시스템 인격화가 오해로 이어질 수 있다는 사실을 상기시킨다. AI의 역사로 AI 분야의 발전에 따른 인간의 과도한 추측 사례를 여럿 찾아볼 수 있다.

AI 개발이 시작된 1958년, 뉴욕타임스는 최초의 머신러닝 시스템을 다룬 기사를 보도했다. 시스템은 당시 코넬대학교 심리학자였던 프랭크 로젠블랫(Frank Rosenblatt) 교수가 미 해군을 위해 개발한 조잡한 신경망이었다. 당시 기사에는 “미 해군은 훗날 인간처럼 걷기, 말하기, 보기, 쓰기, 자체적인 정보 재생성, 존재 자각 등이 가능할 것으로 기대하는 전자 컴퓨터의 초기 개발 단계를 공개했다”라고 작성되었다. 400픽셀의 화면에서 패턴 감지 학습 능력을 갖춘 집적회로를 과감하게 설명한 글이다.

IBM의 체스 경기용 기술인 딥블루(Deep Blue), 딥마인드의 인간을 이긴 바둑 챔피언 알파고(AlphaGo)를 포함하여 지난 10년간 로젠블랫의 기계에서 비롯된 기술이기도 한 딥러닝 기술의 도약을 다룬 기사를 보면, 인간이 각각의 발전 단계를 더 강력하면서 인간과 같은 지능의 등장 징조인 것처럼 설명한 사실을 확인할 수 있다.

AI 개발 프로젝트나 소피아와 같은 지능적인 로봇 개발 프로젝트 모두 뛰어난 능력이 아니거나 더 강력한 지능적 기계를 향한 단계가 될 것을 부인할 의도는 없다. 하지만 AI 기술의 발전 수준을 측정할 때 AI 시스템의 역량을 분명히 보는 것이 중요하다. AI 발전이 합리적인 일이 되려면, 적어도 의인화된 꼭두각시와 같은 기계에 AI의 인류 위협 가능성, 일자리 대체 가능성과 같은 어리석은 질문을 하는 행동을 멈춰야 한다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Don’t Ask Dumb Robots If AI Will Destroy Humanity
이 기사를 공유합니다
RECOMMENDED