본문 바로가기 주메뉴 바로가기 검색 바로가기
美 정부, 오픈AI 등 여러 테크 기업 대기업 대상 신규 AI 프로젝트 시작 시점 공개 요구
상태바
美 정부, 오픈AI 등 여러 테크 기업 대기업 대상 신규 AI 프로젝트 시작 시점 공개 요구
바이든 행정부는 국방물자생산법을 적용하며, 테크 기업을 대상으로 미국 상무부에 강력한 AI 알고리즘 훈련 시작 시기를 알리도록 요구한다.
By WILL KNIGHT, WIRED US

2023년, 오픈AI의 챗GPT가 전 세계에 대대적인 영향을 미친 단어로 급부상함과 동시에 놀랍게도 실리콘밸리와 미 의회의 관계에도 영향력을 행사했다. 이제 미국 정부는 챗GPT의 근간이 된 기술인 대규모 언어 모델과 관련된 미래 AI의 획기적인 발전을 추가로 경고해야 한다.

바이든 행정부는 국방물자생산법을 활용하여 테크 기업을 대상으로 컴퓨터 전력을 대거 소모하는 AI 모델 훈련 시 정부에 관련 사실을 알리는 규정을 강행하려 한다. 법률은 이르면 2024년 2월 초 발효될 것으로 보인다.

국방물자생산법 규정에 따라 새로 적용하고자 하는 요구 사항은 미국 정부가 오픈AI, 구글, 아마존 등 AI 분야에서 경쟁하는 여러 기업 내 민감한 프로젝트의 핵심 정보에 접근할 권한을 부여한다. 기업은 신규 AI 개발 작업으로 진행한 안전 테스트 정보도 제공해야 한다.

오픈AI는 그동안 현재 제공하는 최고 수준의 대규모 언어 모델인 GPT-4의 뒤를 이어 선보일 AI 모델 개발 수준을 공개하지 않으려는 태도를 보였다. 미국 정부가 최초로 GPT-5 개발이나 안전 검사가 진행될 때를 알게 될 수도 있다. 오픈AI는 국방물자생산법 규정에 따른 AI 모델 개발 및 안전 테스트 정보 공개 관련 의견 요청에 즉시 답변하지 않았다.

지나 러몬도(Gina Raimondo) 미국 상무부 장관은 1월 26일(현지 시각), 스탠퍼드대학교 후버연구소(Hoover Institution)에서 진행된 기자회견 현장에서 “정부는 대통령의 권한이 있는 국방물자생산법을 이용해 기업이 매번 새로운 대규모 언어 모델을 훈련할 때마다 상세 정보와 훈련 결과를 정부에 공유하여 정부가 검토하도록 하고자 한다”라고 발표했다. 러몬도 장관은 AI 프로젝트 상세 정보 보고를 받을 때의 효과나 정부의 대응 등은 언급하지 않았다. 더 자세한 사항은 추후 공개될 예정이다.
 
[사진=Unsplash]
[사진=Unsplash]

국방물자생산법에 따른 AI 모델 개발 관련 상세 정보 공개 의무 규정은 2023년 10월 자로 발행된 백악관의 신속한 행정명령 발행 사항의 일부분이다. 행정명령에 따라 상무부는 1월 28일(현지 시각)까지 기업의 미국 정부 대상 개발 작업을 진행 중인 강력한 AI 모델 관련 상세 정보 공개 계획을 제출하도록 요구했다. 또한, 상무부가 제출한 상세 계획 중 AI 모델 개발 작업에 사용하는 컴퓨터 전력 정보와 AI 모델 훈련 시 주입하는 데이터 소유권 정보, 안전 검증 상세 정보 등도 포함하도록 지시했다.

행정명령에 따른 요구 사항은 AI 모델 관련 정보를 상무부에 제출해야 할 시점 정의 작업 시작을 촉구하면서도 초기에는 초당 1026 플롭(flop) 제한 및 DNA 배열 데이터로 작업하는 대규모 언어 모델보다 1/1,000 수준의 속도 제한을 설정했다. 오픈AI와 구글 모두 각각 자체 개발한 강력한 AI 모델인 GPT-4와 제미니(Gemini) 훈련 시 사용하는 컴퓨터 전력 상세 정보를 공개하지 않았다. 그러나 미 의회 행정명령 관련 연구 보고서는 1026 플롭 제한이 GPT-4 훈련 시 사용하는 컴퓨터 전력 범위를 넘어섰다는 점을 제시했다.

러몬도 장관도 2023년 10월 자로 서명된 행정명령에는 미국 상무부가 아마존, 마이크로소프트, 구글 등 클라우드 컴퓨팅 공급사를 대상으로 외국 자원을 이용한 대규모 언어 모델 훈련 작업을 진행할 대 정부에 관련 정보를 제출하도록 요구하는 조건도 포함되었다고 밝혔다. 외국 프로젝트는 100 셉틸리온 플롭(septillion)이라는 초기 한계치와 같은 수준을 기록할 때 정부 보고 필수이다.

러몬도 장관은 구글이 최신 AI 모델인 제미니가 업계 벤치마크 테스트 기준으로 GPT-4를 제쳤다는 역량 연구 결과를 강조할 새로운 데이터 공개로 강조한 때와 같은 시기에 발표됐다. 미국 상무부는 구글의 풍부한 컴퓨터 전력 자원을 대거 이용한다면, 제미니의 뒤를 이을 AI 모델을 대상으로 추가 모델 확보 초기 경고를 발행할 수 있다. 

2023년, AI 분야가 급속도로 발전하면서 일부 AI 전문가는 현재 챗GPT가 사용하는 GPT-4보다 더 강력한 AI 모델 개발 잠정 중단을 촉구했다.

국책 연구소인 미국 혁신재단(Foundation for American Innovation) 소속 수석 경제학자 새뮤얼 하몬드(Samuel Hammond)는 연방 정부가 직면한 핵심 과제는 훈련 시 사용하는 컴퓨터 전력 소모량이 한계치를 넘지 않더라도 위험할 수도 있는 AI 모델이라고 지적했다.

비영리단체 AI 안전센터(Center for AI Safety) 소장 댄 헨드릭스(Dan Hendrycks)는 최근 AI 분야의 발전 수준과 AI의 역량 우려를 고려할 때 미국 정부의 요구사항이 적합하다는 견해를 밝혔다. 헨드릭스 소장은 “기업은 AI 훈련 과정에 수십억 달러를 지출한다. AI 개발사 경영진은 AI가 몇 년 뒤면 초지능을 지닌 대상이 될 것이라고 주장한다. 따라서 미국 정부가 기업의 AI 모델에 경계하는 것이 합리적인 일이다”라고 주장했다.

인류에게 이익이 되는 혁신 기술 보장에 헌신하는 비영리단체 ‘퓨처 오브 라이프 인스티튜트(Future of Life Institute)’ 소장 앤소니 아귀에르(Anthony Aguirre)도 헨드릭스 소장의 주장에 동의했다. 아귀에르 소장은 “지금까지 감독이나 규제가 일절 진행되지 않는 상황에서 AI 부문의 대대적인 실험이 진행되었다. AI 훈련 운영, 관련 안전 조처 보고가 AI 안전의 중요한 단계가 될 것이다. 그러나 그보다 더 많은 규제가 필요하다. 미 의회에서는 소속 정당을 떠나 AI 규제가 필요하다는 점에 적극적으로 동의할 것이다. 미 의회가 신속한 AI 규제 강화를 위한 대응을 시작하기를 바란다”라고 말했다.

러몬도 장관은 미국 정부의 AI 안전 연구소 신설 계획의 일부분에 따라 미국 국립표준기술연구소(NIST)가 AI 모델 안전 실험 표준 정의를 마련하기 위한 작업을 진행 중이라고 밝혔다. AI 모델의 위험성 정의는 일반적으로 ‘레드 티밍(red teaming)’이라고 칭하는 과정에 따라 문제가 되는 행동이나 결과를 보여줄 기미가 보이거나 실제로 제시하려는 모델 조사 과정을 포함하여 이루어질 것이다. 

러몬도 장관은 상무부가 기업의 자체 AI 모델에 내재해 있을 수도 있는 위험성을 더 자세히 이해하는 데 도움이 될 지침을 준비 중이라고 밝혔다. 러몬도 장관이 언급한 바와 같이 상무부의 지침에는 AI가 인권 침해 문제를 일으킬 수 없도록 보장하는 방식이 포함될 것이다.

2023년 10월 자로 발행된 AI 행정명령으로 요구하는 사항 중에는 미국 국립표준연구소가 2024년 7월 26일(현지 시각)까지 AI 모델의 위험성 관련 지침을 적용하는 조건도 포함되었다. 그러나 미국 국립표준연구소와 협력하는 일부 전문가는 적절한 AI 안전 표준 마련을 위해 필요한 예산이 부족하다는 점이나 전문 인력이 필요하다고 지적한다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
OpenAI and Other Tech Giants Will Have to Warn the US Government When They Start New AI Projects
이 기사를 공유합니다
RECOMMENDED