본문 바로가기 주메뉴 바로가기 검색 바로가기
美 국가 안보 전문가 “AI 대기업, 기밀 보호 노력 충분하지 않아” 경고
상태바
美 국가 안보 전문가 “AI 대기업, 기밀 보호 노력 충분하지 않아” 경고
백악관이 오픈AI를 비롯한 복수 테크 기업과의 AI 안전 합의 조건 성사를 도운 인물인 수잔 라이스는 중국이 미국의 AI 기밀을 탈취할 것이라는 점을 우려한다고 말한다.
By PARESH DAVE, WIRED US

2023년, 미국 백악관은 구글, 오픈AI를 포함한 복수 기업이 챗GPT와 같은 툴의 근간이 되는 소프트웨어 개발 시 발생할 수 있는 문제를 고려한다는 약속을 하여 인공지능(AI) 개발사와 중요한 안전 합의를 맺었다. 조 바이든 대통령이 AI 개발사와의 AI 안전 합의를 체결하도록 도운 전직 백악관 국내 정책 보좌관은 AI 개발사가 다른 문제를 다룰 안전 대책을 향해 나아가야 한다고 말한다. 바로 기업의 AI 개발 기밀이 중국으로 유출되지 않도록 보호하는 일이다.

수잔 라이스 전 백악관 국내정책위원회 국장은 중국을 언급하며, “중국 정부가 배후에 있기 때문에 중국은 미국이 보유한 AI 기술의 이점을 최대한 이용하고자 할 것이다”라고 주장했다. 2023년 국장 자리에서 물러난 라이스 전 국장은 2024년 6월 5일(현지 시각), 스탠퍼드대학교 인간 중심 AI 연구소에서 주최한 행사에서 AI 및 지정학 부문 토론 패널로 참석했다. 수잔 국장은 토론 당시 “미국의 최고 오픈소스 모델 구매나 수정이든 미국 기업의 최고 기밀 탈취가 되었든 중국 정부는 미국의 기술을 이용하려 할 것이다. 미국은 AI 부문에서 미국이 선두를 유지할 방안을 모든 범위에서 모색해야 할 필요가 있다. 그러나 미국은 보안 부문에서 부족하다고 생각한다”라고 말했다.

오바마 행정부 시절 국가안보 보좌관직에 있었던 라이스 전 국장이 제기한 우려는 가상의 우려가 아니다. 2024년 3월, 미국 법무부는 구글의 TPU AI 칩 관련 구글의 업계 기밀을 탈취하고는 중국에서 사용하려 한 혐의로 전직 구글 소프트웨어 엔지니어를 기소했다.

당시 법률 전문가 여러 명이 구글 전 직원의 기밀 탈취 혐의를 두고 중국이 이른바 AI 무기 경쟁에서 부당 경쟁을 펼치려는 다양한 사례 중 하나가 될 수 있다고 경고했다. 정부 관료와 보안 연구원 모두 첨단 AI 시스템이 사실이라고 믿을 수 있을 정도로 설득력을 갖춘 거짓 정보 유포 작전에 동원할 딥페이크를 생성하거나 강력한 생화학 무기 제조법을 생성할 의도로 악용될 수도 있다고 우려했다.
 
[사진=Unsplash]
[사진=Unsplash]

AI 개발사와 연구원 사이에서 각자 AI 개발 과정에 사용한 코드와 기타 구성 요소를 보호해야 할 필요성을 다루는 보편적인 합의 사항은 없다. 일각에서는 오늘날 AI 모델이 기밀 정보를 비공개 상태로 보호해야 할 정도로 발전하지 않았다고 본다. 또, 메타를 비롯한 일부 AI 개발사는 오픈소스 AI 모델을 배포한다. 이를 두고 라이스 전 국장을 포함한 복수 전부 관료는 철저한 보호가 필요하다고 본다. 라이스 전 국장은 더 엄격한 보안 대책이 AI 시스템 개선 작업에 참여하는 인력을 제한하여 미국 기업의 발전이 지연될 수 있다는 점을 인정했다.

AI 모델 보호 관심과 우려 사항 모두 제기되었다. 최근, 미국 국책연구소 랜드 연구소(RAND Corporation)은 뇌물, 정보 탈취, 기술적 백도어 악용을 포함하여 AI 프로젝트에서 기밀이 유출될 38가지 방법을 확인한 사실을 밝힌 보고서를 발행했다.

랜드 연구소의 기밀 유출 대책 권고 방안 중에는 기업이 직원을 대상으로 동료의 의심스러운 행동을 보고하도록 독려하고, 극소수 직원만 가장 민감한 정보에 접근할 권한을 부여하는 방안도 있었다. 랜드 연구소는 챗GPT의 질문에 적합한 답변 제공 능력과 같이 훈련 도중 유용한 기능을 가득 갖추도록 변경되는 인공 신경망 내부 가치관인 모델 영향력 보호에 초점을 맞추었다.

2023년 10월, 조 바이든 대통령의 신속한 AI 행정명령 서명에 따라 미국 정보통신국(US National Telecommunications and Information Administration)은 2024년 중으로 AI 모델 기밀 보호 상태를 유지할 때의 장단점을 분석한 보고서를 발행할 예정이다. 행정명령은 첨단 AI 모델 개발 기업을 대상으로 미국 상무부에 AI 모델 보호를 위해 적용한 물리적 조처와 사이버 보안 조처를 보고하도록 요구한다. 또, 2024년 5월 로이터 통신이 보도한 바와 같이 미국은 중국을 대상으로 한 AI 판매를 제한하는 수출 통제를 고려하고 있다.

구글은 자체 보고에 앞서 미국 정보통신국에 보낸 공개 의견을 통해 AI 모델 방해, 성능 저하, 속임수, 탈취 시도가 증가할 것으로 예상한다고 전했다. 다만, 자사 기밀은 세계 최고 수준의 전문 지식을 갖춘 엔지니어와 연구원으로 구성된 보안, 안전 및 신뢰를 갖춘 조직이 보호한다고 덧붙였다. 또한, AI 모델과 AI 모델의 영향력 접근성을 관리하는 데 도움이 되도록 전문가 위원회가 개입하는 프레임워크 개발 작업을 진행 중이라는 사실도 밝혔다.

구글과 마찬가지로 오픈AI도 미국 정보통신국에 보낸 공개 의견을 통해 상황에 따라 공개 모델과 비공개 모델이 모두 필요하다는 의견을 전달했다. GPT-4를 포함한 대규모 언어 모델과 챗GPT처럼 언어 모델을 바탕으로 한 서비스 및 앱을 개발한 오픈AI는 자사 이사회로 구성된 자체 보안 위원회를 형성하고, 공식 블로그에 AI 모델 훈련 시 사용한 기술의 보안을 상세히 설명하는 글을 게재했다. 해당 블로그 게시물은 투명성이 다른 AI 연구실의 보호 조처 채택 계기가 되기를 바란다고 전했다. 기밀 보호를 위해 맞서야 할 상대는 구체적으로 명시하지 않았다.

스탠퍼드대학교 인간 중심 AI 연구소가 주최한 행사에서 라이스 전 국장과 함께 패널로 참석한 랜드 연구소 CEO 제이슨 매트니(Jason Matheny)도 보안 격차를 우려한다고 말했다. 매트니는 미국이 중국의 강력한 컴퓨터 칩 접근 권한을 제한하는 수출 통제를 이용하여 중국 개발사의 자체 AI 모델 개발 능력을 막을 수 있다고 주장했다. 또한, 중국이 AI 소프트웨어를 탈취해야 할 필요성이 즉시 증가했다고 덧붙였다.

매트니는 미국 기업이 수천억 달러를 들여 개발한 AI 모델을 탈취하는 사이버 공격에 수백만 달러를 지출하는 것이 중국에는 큰 가치가 있다고 추산한다. 매트니는 “미국이 국가 차원에서 AI 모델을 올바르게 보호하는 일은 매우 어려우면서도 중요한 일이다”라고 말했다.

워싱턴 DC 주재 중국 대사관은 와이어드의 AI 모델 탈취 비난 관련 문의에 답변하지 않았다. 그러나 과거, 중국이 미국 기업의 AI 기술을 탈취했다는 주장은 서양 정부 관료가 유포한 근거 없는 비난이라고 주장한 적이 있다.

구글은 법률 집행 기관을 대상으로 미국 내 AI 칩 기밀 탈취 후 중국으로 유출된 혐의가 발생할 수 있다는 점을 경고했다고 밝혔다. 구글은 엄격한 보호 대책 유지를 기업 소유 데이터 탈취를 막을 방법으로 설명했으나 기소장에는 구글이 피고 딩린웨이(Linwei Ding)를 잡는 데는 꽤 오랜 시간이 걸릴 것이라는 사실을 입증하는 내용이 기술되었다. 중국 국적자인 딩린웨이는 이미 구글 AI 칩 기밀을 탈취하여 중국으로 유출하려 했다는 연방 기소 혐의를 두고 무죄를 주장했다.

레온이라는 이름으로도 알려진 피고는 2019년, 구글 슈퍼컴퓨터 데이터 센터에 채용되었다. 재직 기간이 1년 넘은 2022년 초, 피고는 자신의 개인 구글 계정으로 기밀 정보가 포함된 파일 500개 이상을 복사한 혐의를 받았다. 기소장에는 기밀 탈취 작전은 피고가 정보를 자신의 업무용 노트북에 설치된 애플 노트 앱에 복사하고는 PDF 파일로 변환한 뒤 다른 곳에 게재하면서 구글의 정보 유출 탐지 기술을 피했다고 기술되었다.

딩린웨이가 기밀 탈취 혐의에 가담하자 미국은 딩린웨이가 중국 AI 스타트업 CEO와 접촉한 뒤 중국으로 이동하여 AI 기업을 직접 운영하기 시작했다고 주장했다. 딩린웨이가 유죄 판결을 받는다면, 징역 최고 10년 형이 선고될 것이다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
US National Security Experts Warn AI Giants Aren’t Doing Enough to Protect Their Secrets
이 기사를 공유합니다
RECOMMENDED