본문 바로가기 주메뉴 바로가기 검색 바로가기
조 바이든, AI 챗봇 감시 위해 ‘해커’ 도움 원해
상태바
조 바이든, AI 챗봇 감시 위해 ‘해커’ 도움 원해
미국 정부는 2023년 여름, 다수 전문가가 생성형 AI 시스템의 결점을 찾으려 나설 데프콘 보안 컨퍼런스를 지원하고자 한다.
By KHARI JOHNSON, WIRED US

챗GPT가 인공지능(AI)의 잠재력 발휘라는 새로운 기대감을 자극한 동시에 새로운 우려도 불러일으켰다. 이에, 미국 백악관도 AI의 위험성을 두고 우려의 목소리를 내며, 2023년 여름 개최될 데프콘 보안 컨퍼런스(Defcon security conference)에서 구글 등 여러 기업이 출시한 생성형 AI 시스템을 검증하기 위한 대규모 해킹 작전을 지원할 것이라고 발표했다.

백악관 과학기술정책 관료는 신규 국립 AI 연구소(National AI Research Institutes) 7곳 출범을 위해 총 1억 4,000만 달러를 분산 투자할 것이라고 밝혔다. 연구소는 대중의 이익을 위한 윤리적 혁신 AI 개발에 주력하며, 미국 전역에 총 25가지 AI 시스템을 제공할 것이다.

백악관의 발표 몇 시간 전, 카멀라 해리스 부통령과 구글, 마이크로소프트 등 대기업과 AI 스타트업 앤트로픽(Anthropic), 챗GPT의 개발사인 오픈AI(OpenAI)의 임원 간 AI가 제기하는 기회와 위험성을 주제로 한 회의가 진행되었다.

미국 정부의 AI 개입은 생성형 AI의 각종 과장 광고와 챗GPT가 촉진한 투자 때문에 AI 규제 관심이 커진 시점에 이루어졌다. 유럽연합 의회에서는 국회의원이 신속하게 AI법(AI Act) 최종 개정을 협상 중이다. 개정된 AI법은 생성형 AI를 이용한 언론 보도 내용 추가를 포함하여 일부 AI 사용 사례를 제한하고, 더 나아가 금지할 것이다. 브라질 의회도 AI 시대 인권 보호를 위해 AI 규제를 고려하고 있다. 2023년 4월, 중국 정부는 생성형 AI 규제 초안을 발표했다.

미 의회에서 마이클 베넷(Michael Bennett) 민주당 상원 의원이 시민의 프라이버시와 권리 보호에 주력하는 AI 전담팀 형성을 골자로 한 법안을 도입했다. 4월 25일(현지 시각), 연방통신위원회(FTC)와 법무부를 포함한 미국 규제 기관 4곳이 기존 법률을 활용해 AI 시대에 미국 시민의 권리 보호 노력을 펼치기로 다짐하는 합동 선언을 발표했다. 그 후 론 와이든(Ron Wyden) 민주당 상원 의원이 ‘알고리즘 책임법(Algorithmic Accountability Act)’ 통과를 재추진한다는 계획을 확실히 밝혔다. 알고리즘 책임법은 기업이 자동화 시스템을 사용할 때 자사의 알고리즘을 평가하고, 그 결과를 공개할 것을 요구한다.
 
[사진=Freepik]
[사진=Freepik]

2023년 3월, 백악관 과학기술정책 국장 아라티 프라바카르(Arati Prabhakar)는 액시오스(Axios)가 주관한 행사에서 AI가 이익을 안겨줄 수 있다면, 정부가 AI를 철저히 검토해야 한다고 주장했다. 당시 그는 “AI의 잠재적인 이점을 누릴 기회를 확실히 잡고자 한다면, 위험성을 다루기 시작해야 한다”라고 말했다.

백악관은 2023년 여름 개최될 데프콘 보안 컨퍼런스에서 생성형 AI 시스템의 약점을 밝혀내는 해킹 행사를 지원한다. 해커와 정책 전문가를 포함한 참가자 수천 명이 구글, 엔비디아, 스테이빌리티 AI(Stability AI) 등 여러 기업이 개발한 생성형 모델이 바이든 행정부가 2022년 발표한 AI 권리장전 내용, 2023년 초 발표된 미국 표준기술연구소(National Institute of Standards and Technology) 위험 관리 프레임워크와의 일치함과 관련하여 질문을 받을 것이다.

숨겨진 문제 발견 형태로 포인트 보상을 제공해, 참가자가 AI 시스템의 다양한 버그나 불쾌한 행동을 찾도록 독려한다. 행사는 마이크로소프트와 비영리 단체 시드AI(SeedAI), AI 취약점 데이터베이스(AI Vulnerability Database), 데이터 전문가 겸 사회 과학자 럼맨 쵸드후리(Rumman Chowdhury)가 설립한 비영리단체 휴메인 인텔리전스(Humane Intelligence)의 자문에 따라 진행된다. 쵸드후리는 과거, 트위터 윤리 및 머신러닝 연구팀을 이끌고, 트위터의 자동화 사진 편집 기능의 편견 문제를 발견하는 ‘편견 바운티’ 프로그램을 주관한 적이 있다.

국회의원과 연방 기관을 대상으로 AI 규제 관련 자문을 지원하는 비영리단체 AI 나우 연구소(AI Now Institute)는 2023년 4월 자로 발행한 보고서를 통해 챗GPT 시스템을 폭넓은 사용 사례로 변경할 수 있어, 기존 AI 형태보다 더 많은 규제 검토가 필요하다고 주장했다.

AI 나우 연구소 관리 소장이자 AI 나우 연구소의 보고서 공동 저자인 사라 마이어스 웨스트(Sarah Myers West)는 연방 규제 당국이 새로이 AI에 관심을 보이는 것을 환영할 일이라고 말한다. 다만, 연방 기관의 AI 규제 대응의 의미는 더 지켜보아야 할 것이라고 덧붙였다. 웨스트 소장은 “지금 당장 시행할 수 있는 규제의 적절한 잡음 때문에 발생하는 혼란을 감당할 수 없다”라고 말했다.

또, 웨스트 소장은 AI로 매출을 기록하는 테크 기업이 백악관의 AI 기술을 대상으로 한 새로운 관심에 깊이 개입할 것을 우려한다. 웨스트 소장은 “신뢰성과 책임감 있는 혁신을 구성하는 바를 주제로 한 대화를 이끄는 접근 방식을 택한다면, 기회를 재차 놓칠 것이다. 책임감 있는 기술 개발을 정의하는 것은 규제 당국과 광범위한 대중의 몫이다”라고 말했다.

5월 3일(현지 시각), 백악관 관료는 브리핑을 통해 AI를 개발하는 기업은 책임감 있는 AI 사용 보장을 위해 협력해야 하며, 기업은 AI 상품의 안전성을 보장한 뒤 대중에게 배포할 책임이 있다고 발표했다.

영리 목적으로 AI를 개발하는 기업 이외에 연방 기관은 자체적으로 AI 사용 관련 노력을 펼쳐왔다. 2022년 12월, 스탠퍼드대학교는 트럼프 행정부가 발표한 대중을 위한 AI 계획 제공에 대응한 연방 기관은 단 한 곳도 없으며, 절반만이 AI 사용 방법을 상술한 목록을 공유했다는 조사 결과를 발표했다. 백악관 운영예산부는 수개월 뒤 연방 정부 기관의 AI 사용을 다룬 새로운 지침을 발행할 예정이다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
Joe Biden Wants Hackers’ Help to Keep AI Chatbots In Check
이 기사를 공유합니다
RECOMMENDED