본문 바로가기 주메뉴 바로가기 검색 바로가기
AI 대기업, 백악관 신규 협약에 따라 알고리즘 외부 조사 허용 다짐
상태바
AI 대기업, 백악관 신규 협약에 따라 알고리즘 외부 조사 허용 다짐
구글, 오픈AI 등 AI 분야 핵심 대기업이 바이든 행정부에 편견을 담은 결과물 생성과 같은 자사 AI의 문제 확인을 약속했다. 하지만 협약 준수는 법적 의무가 아니다.
By KHARI JOHNSON, WIRED US

미국 백악관이 아마존, 구글, 메타, 마이크로소프트, 오픈AI 등 인공지능(AI) 주요 개발 기업과의 협약을 체결했다. 협약에 따라 기업은 해로운 AI 모델이 세계에 배포하지 않기로 다짐했다.

백악관이 '자발적 다짐'이라고 칭한 이번 협약 조건에 따라 AI 개발 기업은 신규 AI 툴 출시에 앞서 내부 테스트를 시행하고, AI의 외부 테스트를 허용한다. AI 테스트 과정에는 편견이나 차별 문제를 포함한 결과 생성과 사이버 보안 결함, 광범위한 사회적 피해 위험성을 포함한 문제를 살펴본다. 오픈AI의 챗GPT의 유력 경쟁 툴을 출시한 스타트업 앤트로픽(Anthropic), 인플렉션(Inflection)도 이번 협력 체결에 참여했다.

백악관 AI 특별 보좌관 벤 부차난(Ben Buchanan)은 7월 20일(현지 시각) 진행된 브리핑에서 기자단을 향해 "기업은 자사 제품이 안전하다는 사실을 확인한 뒤 배포하고자 하는 AI 시스템의 안전성, 역량을 테스트하면서 대중에게 제공해야 한다"라고 말했다. AI 시스템 개발 기업이 확인해야 할 위험성에는 프라이버시 위반 사항과 더 나아가 생물학적 위협에 영향을 미칠 만한 요인 등도 포함된다. 기업은 자사 시스템의 한계는 물론이고, 자사 AI 시스템이 제기할 수 있는 보안, 사회적 위험성 보고 사항을 공개하기로 다짐했다.

협약으로 다짐한 사항 중에는 AI 시스템 개발 기업이 워터마킹 시스템(watermarking system)을 개발해, 사용자가 AI로 생성한 오디오와 이미지를 쉽게 식별하도록 한다는 조건도 있다. 오픈AI는 이미 이미지 생성 툴인 DALL-E로 생성한 이미지에 워터마크를 추가했다. 구글도 AI 생성 이미지에 적용할 비슷한 기술을 개발 중이라고 밝혔다. 2024년 미국 대통령 선거를 앞둔 가운데, 여러 정치 운동 도중 생성형 AI에 의존한다는 사실이 드러나자 사용자가 콘텐츠가 진짜인지 혹은 가짜인지 구분하는 것이 갈수록 중요한 문제가 되었다.
 
[사진=Unsplash]
[사진=Unsplash]

최근 텍스트나 이미지를 제작할 수 있는 생성형 AI 시스템이 거둔 발전에 따라 웹 검색, 추천서 작성 등과 같은 작업에 AI를 채택하는 기업 사이에서 AI 활용 경쟁이 재개되었다. 그와 동시에 AI가 남성우월주의나 인종 차별 등 억압적인 사회 시스템을 강화할 가능성이나 AI가 사이버 범죄 수단으로 전락할 가능성 등 AI 관련 우려도 재개했다. 결과적으로 미국을 포함한 세계 곳곳의 규제 기관과 국회의원은 AI 시스템 배포 전 평가 요구를 포함한 새로운 규제 마련을 촉구하는 목소리를 높였다.

백악관과 여러 기업의 협약이 주요 AI 기업의 운영 방식 변화를 어느 정도로 가져올지는 아직 알 수 없다. 이미 AI의 잠재적 단점 인식이 높아지면서 다수 테크 기업이 AI 정책 및 테스트 담당 인력을 채용한 것이 보편적인 일이 되었다. 구글은 자사 시스템 시험 담당 팀을 여럿 두었으며, AI 시스템이 의도한 사용 사례와 특정 AI 모델의 윤리적 고려사항 등 일부 정보를 공개한다. 메타와 오픈AI는 간혹 외부 전문가를 초청해 자사 모델을 테스트하고 꼼꼼히 살펴본다. 이를 일종의 역시뮬레이션인 '레드티밍(red-teaming)'이라고 칭한다.

브래드 스미스(Brad Smith) 마이크로소프트 사장은 블로그에 "안전과 보안, 신뢰라는 장기 지속 원칙을 따라 백악관과의 자발적 다짐은 최첨단 AI 시스템이 제기하는 위험성을 다루면서 레드티밍, 투명성 보고서 등 특별 관행 채택을 촉진하면서 전체 생태계의 발전 속도를 높이고자 한다"라고 게재했다.

백악관과 기업의 협약에서 다짐한 잠재적인 사회적 위험성은 AI 모델 훈련 시 탄소 발자국을 포함하지 않도록 감시하는 조건이 포함되었다. 탄소 발자국 문제는 현재 AI 시스템의 여파 연구 시 공통으로 언급하는 우려사항이다. 챗GPT와 같은 시스템을 개발하려면, 수명보다 더 오래 가동하는 고성능 컴퓨터 프로세서 수천 개가 필요하다.

AI 사건 전문 법무법인 BNH 경영 파트너 앤드류 버트(Andrew Burt) 변호사는 생성형 AI가 일으킬 수 있는 위험성은 누구나 AI 사용에 개입하면서 분명해지는 추세라고 말한다. 연방거래위원회(FTC)는 2023년 7월, 오픈AI의 사업 관행을 철저히 검증하기 시작하면서 오픈AI가 불공정 혹은 기만에 해당하는 프라이버시, 데이터 보안 관행을 펼쳤다는 의혹을 제기했다.

버트 변호사는 기업이 자사 AI 시스템의 외부 평가를 위임하여 외부 감사 증거를 추가해야 한다는 백악관 협약 발표가 정부의 AI 시스템 감독 중앙화 방식이 된다고 주장했다.

2022년, 백악관은 자발적으로 발표한 AI 권리장전(AI Bill of Rights)으로 외부 감사를 촉진했다. 또, 2023년 8월 개최될 데프콘 보안 컨퍼런스(Defcon security conference)에서는 생성형 AI 모델을 중심으로 한 해킹 경연 대회를 지원한다.

조 바이든 대통령은 백악관에서 다리오 아모데이(Dario Amodei) 앤트로픽 CEO와 브래드 스미스 마이크로소프트 사장, 무스타파 술레이만(Mustafa Suleyman) 인플렉션 AI CEO 등 AI 협약에 자발적으로 참여하는 여러 기업 경영진과 만났다. 백악관은 연방 기관의 대응을 통해 AI 사용을 관리할 행정명령을 준비 중이지만, 행정명령이 발표될 정확한 시점은 공개하지 않았다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
AI Giants Pledge to Allow External Probes of Their Algorithms, Under a New White House Pact
이 기사를 공유합니다
RECOMMENDED