본문 바로가기 주메뉴 바로가기 검색 바로가기
도널드 트럼프의 당선, AI의 위험성 촉발할 것
상태바
도널드 트럼프의 당선, AI의 위험성 촉발할 것
도널드 트럼프의 인공지능 안전 표준 인지 거부는 미국인을 거짓 정보와 차별에 맞서 보호할 규제 폐지와 그보다 심각한 위협 발생 가능성을 의미한다.
By Eric Geller, WIRED US

도널드 트럼프가 2024년 11월 5일(현지 시각) 미국 대통령 선거에서 당선된다면, 인공지능(AI) 개발의 안전 대응 행동이 자체적으로 시작될 것이다. 동시에 거짓 생성과 유포가 가능한 AI 모델이 갈수록 심각해질 것이다.

트럼프의 두 번째 임기 시작은 의도치 않은 거짓 정보는 물론이고 의도적인 거짓 정보 생성 등 위험하면서 허술하게 설계된 AI에 맞서 미국인을 보호하려는 노력을 대대적으로 재구성하고, 더 나아가 무너뜨릴 수도 있다. 동시에 자율주행 차량과 같은 기술에서 사용하는 알고리즘에도 해로운 영향을 미칠 것이다.

미국 연방 정부는 2023년 10월 조 바이든 현 대통령이 발표한 행정명령에 따라 AI 기업 감독과 자문을 시작했다. 그러나 트럼프는 해당 행정명령 폐지를 약속했으며, 공화당 측에서는 AI 기업 감독 행정명령이 AI 혁신 장벽이 될 가능성과 AI 개발 과정에서 극단적인 좌파 사상을 부여하게 될 것이라는 주장을 펼쳤다.

트럼프의 공약에 바이든 행정부의 행정명령을 위험한 불법 명령이자 중국에 맞선 미국의 디지털 무기 경쟁 장벽이라고 생각하는 비판 세력이 환호했다. 비판 세력 중에는 X CEO 일론 머스크, 벤처 자본가 마크 안데르센(Marc Andreessen), 공화당 의원, 미국 주 정부 법무방관 20여 명 등 트럼프의 측근 인사 여러 명이 포함되었다. 트럼프와 함께 부통령 후보로 출마하는 오하이오주 상원 의원인 JD 밴스(JD Vance)는 AI 규제 강력 비판론자이다.

테크 기업 경영진이자 AI 열성 지지자인 제이콥 헬버그(Jacob Helberg)는 “공화당은 AI 업계 규제를 서두르려 하지 않는다. 실리콘 밸리의 트럼프 길들이기와 다를 바 없다”라고 말했다.

그러나 테크 분야와 사이버 분야 전문가는 AI 감독 행정명령의 안전 및 보안 조항 폐지가 대중교통, 의학부터 고용, 감시까지 날이 갈수록 미국인의 모든 일상 측면에 소름 끼칠 정도로 스며드는 AI 모델의 신뢰성 저하로 이어질 수 있다고 경고한다.

다시 말해, 2024년 미국 대통령 선거가 뛰어난 생산성 툴 혹은 통제할 수 없는 혼란을 유발하는 에이전트 중 AI가 나아갈 방향을 판단하는 데 도움이 될 것이라는 의미이다.

긴밀한 감독과 조언
바이든 행정부의 행정명령은 참전용사의 보건복지 개선 목적 AI 활용부터 약물 개발에 활용하는 AI 안전 설정까지 AI와 관련한 모든 사항을 다룬다. 그러나 행정명령의 가장 정치적인 논쟁은 디지털 보안 위협과 현실 세계 안전 영향이라는 두 가지 조항에서 비롯되었다.

행정명령 조항 중에는 강력한 AI 모델 소유자가 정부에 모델 훈련, 취약점 발견 목적으로 설계된 레드팀 테스트(red-team test) 훈련 결과를 제공하는 방식을 포함하여 권한 없는 방해 및 탈취에 맞선 AI 모델 보호 방안 등을 보고해야 한다는 조항이 있다. 또 다른 조항은 미국 상무부 산하 미국 표준기술연구소(NIST)에 기업의 사이버 공격 위협에 안전하면서 편견에서 자유로운 AI 모델 개발을 도울 지침을 마련해야 한다는 내용을 명시했다.

행정명령에 따른 AI 개발사의 보고 및 미국 표준기술연구소의 지침 제공 등은 원활하게 진행되고 있다. 미국 정부는 AI 개발사에 분기별 보고서 제출을 제안했으며, NIST는 위험 관리, 안전한 소프트웨어 개발, 합성 콘텐츠 워터마크 부여 관련 AI 지침 문서와 AI 모델 악용 위험성 방지 대책을 다룬 AI 지침을 발행했다. 게다가 AI 모델 테스트를 촉진할 여러 계획도 발표했다.

행정명령 지지 세력은 행정명령 자체가 급속도로 확장하는 AI 업계의 기본 정부 감독 유지와 개발자의 보안 향상으로 서서히 향하도록 노력하기 위해 필요한 요소라고 말한다. 그러나 보수 성향을 지닌 행정명령 비판 세력은 보고 요구 사항이 AI 혁신 저하와 개발자의 업계 비밀 노출로 이어질 정부의 불법 개입이라고 비판한다. 동시에 NIST의 AI 지침은 AI가 거짓 정보와 관련한 극단적 좌파 세력의 개념과 보수주의 발언 검열이 대거 이루어지는 편견에 물들도록 하는 방임주의 술책이라고 주장한다.

2023년 12월, 도널드 트럼프는 아이오와주 시더래피즈(Cedar Rapids) 집회에서 아무 증거 없이 바이든 행정부가 AI를 악의적인 목적으로 악용했다는 주장을 펼친 뒤 바이든 행정명령에 맞서는 것을 목표를 세웠다.

당시 트럼프는 “재임에 성공한다면, 바이든 행정부의 AI 행정명령을 폐지하고 취임 당일부터 AI를 미국 시민 발언 검열 목적으로 이용하는 사례를 금지할 것이다”라고 전했다.
 
[사진=Unsplash]
[사진=Unsplash]

실사냐 과도한 부담이냐?
바이든 행정부가 기업의 AI 모델 개발, 테스트, 보호 방식 정보를 수집하고자 하는 노력은 행정명령 도입과 동시에 미 의회의 분노를 촉발했다.

공화당은 바이든 대통령이 전쟁 당시 정부가 직접 민간 분야의 활동으로 안정적인 상품, 서비스 공급망 활성화를 보장한 1950년 국방물자생산법(Defense Production Act) 행정명령으로 새로 요구하는 바를 합리화한다는 사실을 순식간에 파악했다. 미 의회 의원은 바이든 행정부의 행정명령이 부적절하고 불필요한 불법이라고 비판했다.

보수 세력 사이에서는 AI 기업의 보고 의무가 민간 기업에는 부담이 되는 일이라고 강력하게 비판했다. 낸시 메이스(Nancy Mace) 하원의원은 2024년 3월 자신이 의장으로 이끈 청문회인 ‘백악관의 AI 업계 내 지나친 간섭’ 청문회에서 행정명령의 AI 기업 대상 보고 의무 조항을 두고 “혁신을 도모하고자 하는 기업과 개인이 겁을 먹고 작업을 중단하고, 챗GPT와 비슷한 획기전인 변화를 방해할 수 있다”라고 주장했다.

헬버그는 부담스러운 요구 사항이 기존 기업에는 도움이, 스타트업에는 해가 될 가능성을 제기했다. 더 나아가 실리콘밸리 비판론자는 AI 기업의 보고 의무 조항이 개발자가 AI 모델 테스트 시 정부의 허가를 받아 정권의 라이선스 계약 체결을 향한 초석이 될 것이라는 우려를 제기한다고 덧붙였다.

보수 성향의 테크 단체 넷초이스(NetChoice) CEO 스티브 델비안코(Steve DelBianco)는 정부가 편견, 거짓 정보 등을 살펴본다는 점을 고려하면, 레드팀 테스트 결과 보고가 사실상 다량의 검열이라고 주장했다. 델비안코는 “중도 좌파 행정부의 레드팀 테스트가 검열 우려로 AI의 생성 사항을 제한할 것이라는 사실을 전적으로 우려한다”라고 말했다.

보수 세력은 AI 혁신을 저하하는 규제 무엇이든 미국이 중국과의 치열한 기술 경쟁을 그 대가로 치르게 될 것이라고 주장한다.

헬버그는 “중국을 상대로 한 AI 시장 경쟁이 매우 치열하다. 중국은 AI 경쟁에 맞서 싸워서 이기고자 경쟁을 전략의 핵심으로 장악했다. 미국의 중국 AI와의 역량 격차는 매년 줄어들고 있다”라고 말했다.

안전 표준 깨닫기
NIST는 AI 보안 지침에 사회적 피해를 포함하여 보수 집단의 분노를 자극하고, 콘텐츠 관리와 표현의 자유라는 문화 전쟁의 새로운 국면을 펼쳤다.

공화당은 NIST 지침이 정부 검열 백도어 형태라고 주장한다. 테드 크루즈(Ted Cruz) 미국 공화당 상원 의원은 NIST의 AI 안전 표준 경고를 바이든 행정부의 형태가 없는 사회적 피해를 기준으로 한 표현 통제 계획의 일부분이라고 칭했다. 넷초이스는 NIST가 투명성과 표현의 자유 간 적당한 균형을 깨는 유사 규제 지침 권한을 넘어섰다고 경고했다.

보수 인사 다수는 AI가 사회적 피해를 초래할 수 있으므로 피해를 줄 일이 없도록 설계해야 한다는 의견 자체를 대수롭지 않게 여긴다.

헬버그는 “사회적 피해를 주지 않는 AI 개발 계획은 실제로 존재하지 않는 문제의 해결책이다. AI 거짓 정보 문제를 대대적으로 입증하는 증거는 없었다”라고 주장했다.

여러 연구와 조사를 통해 편견을 지닌 AI 모델이 채용, 치안, 보건 복지 등 여러 부문에서 차별을 범할 수 있다는 사실이 반복하여 입증됐다. AI의 편견을 직면한 이들이 무의식적으로 편견을 받아들이게 된다고 제시하는 연구도 발표됐다.

보수 세력은 AI 문제 자체보다는 AI 기업의 과도한 문제 수정을 더 우려한다. 헬버그는 “AI 문제 인식 수준과 AI 유용성 사이에는 직접적인 역상관관계가 존재한다”라며, 구글의 생성형 AI 플랫폼의 초기 문제를 언급했다.

공화당은 NIST가 바이든 행정부의 행정명령으로 다루는 대상이기도 한 테러범의 생화학무기 개발 등 AI의 물리적 안전 위험성을 집중적으로 다루기를 바란다. 트럼프가 당선된다면, 트럼프가 임명하는 정부 관료도 정부 주도 AI의 사회적 피해 연구의 중요성을 낮출 확률이 높다. 헬버그는 AI 편견 대규모 연구 탓에 테러 사상과 생화학 무기 전쟁 등과 관련한 더 심각한 위협 연구가 소외되었다고 주장한다.

신중한 전략적 접근 방식 옹호
복수 AI 전문가와 국회의원은 바이든 행정부의 AI 안전 안건을 강력하게 옹호한다.

민주당 하원 AI 전담 조직 공동 의장인 테드 리우(Ted Lieu) 하원 의원은 AI 감독 행정명령이 미국의 최첨단 AI 개발을 유지하는 동시에 미국 시민을 잠재적 위협으로부터 보호한다고 말했다.

AI 문제를 담당하는 어느 한 미국 정부 관료는 행정명령이 요구하는 보고 요구사항은 기본적으로 갈수록 강력한 역량을 지니는 AI 모델의 위험할 수도 있는 새로운 역량을 경고하는 데 필요하다고 전했다. 자유로운 발언을 위해 익명 보장을 요청한 해당 관료는 오픈AI가 최신 AI 모델의 신경 에이전트 합성 요청에 일관적이지 않은 거부 반응을 보인다는 보고 내용을 제출한 사례를 예시로 언급했다.

또한, 보고 의무가 기업의 과도한 부담이 되지 않는다고 주장했다. 유럽연합과 중국의 AI 규제와 달리 바이든 행정부의 행정명령은 혁신을 지속적으로 촉진하기 위해 광범위한 영역에서 신중하면서도 전략적인 접근 방식을 반영한다고 덧붙였다.

2019년부터 2023년까지 미국 국토안보부 신흥 기술 제1 책임자로 부임한 닉 리스(Nick Reese)는 행정명령의 보고 의무가 기업의 지식재산권을 위협한다는 보수 세력의 주장에 동의하지 않는다. 리스는 보고 의무가 보고 한계에 따라 연산 효율성을 높이고 데이터 집약도를 줄인 AI 모델 개발을 독려하여 실제로는 스타트업에 이익이 된다고 반박했다.

백악관 기술 분야 관료로서 바이든 행정부의 행정명령 초안 작성 과정을 도운 에이미 필즈-마이어(Ami Fields-Meyer)는 AI의 역량을 정부 감독이 중요한 이유로 지목했다.

필즈-마이어는 “세계 역사상 가장 강력한 시스템을 개발하는 기업이 논의 대상이다. 정부의 첫 번째 의무는 시민 보호이다. 기업이 개발한 새로운 시스템을 맹신하는 일은 특별히 설득력이 있는 주장이 아니다”라고 말했다.

복수 전문가가 NIST의 보안 지침을 AI라는 새로운 기술 보호 방안을 설립할 중요한 자원으로 호평했다. 결함이 있는 AI 모델이 임대, 대출 차별, 부당한 정부 혜택 상실 등 각종 사회적 피해를 초래할 수 있다는 점에도 주목했다.

트럼프의 첫 대통령 재임 기간 발표된 AI 명령은 사회적 피해 연구가 필요한 대상인 시민권을 고려한 연방 AI 시스템을 요구했다. 

AI 업계는 주로 바이든 행정부의 안전을 고려한 AI 감독, 규제 안건을 환영했다. 익명을 요구한 정부 관료는 “AI 업계에서는 정부 관계자에게 행정명령이 분명하게 명시한 상세 조항이 전반적으로 유용하다고 말한다”라고 말했다. 이어, 소수 인력으로 구성된 스타트업에서는 AI 규제 우려를 해소한 채로 동료와 함께 역량을 넓힐 수 있다고 추가로 언급했다.

대통령 사이버 보좌관 경력이 있는 정보 공유 비영리 단체 사이버위협동맹(Cyber Threat Alliance) 대표 마이클 다니엘(Michael Daniel)은 “트럼프의 공약대로 행정명령을 폐지하는 일은 미국 정부가 AI 안전 접근 방식에 개입하지 않는다는 경고 신호를 보내는 것과 같다”라고 말했다.

행정명령 지지 세력은 중국을 상대로 한 경쟁에서 실제로 AI 안전 규정이 중국보다 우수한 미국의 AI 모델을 보장하는 동시에 중국 정부의 경제 감시에 맞서 보호하면서 미국이 승리하는 데 도움이 될 것으로 본다.

180도 다른 두 가지 길
도널드 트럼프가 당선된다면, 정부의 AI 안전 접근 방식이 180도 바뀔 것이다.

헬버그가 설명한 바와 같이 공화당은 AI와 관련하여 포괄적인 새로운 규제를 시행하는 방안을 반대하고, 기존의 잘못된 행동과 의무 법률을 적용하는 방식으로 AI 피해를 막고자 한다. 이어, “공화당은 위험 완화에 지나치게 집중하는 대신 AI가 제공하는 기회를 최대한 활용하는 데 훨씬 더 초점을 맞추고자 한다”라고 전했다. 바이든 행정부의 보고 의무와 NIST의 일부 AI 지침 폐지로 이어질 수 있다.

AI 기업의 보고 의무 사항은 대법원에서 약화된 정부 기관을 대상으로 AI 규제 평가 권한을 부여한 법원 존중을 둘러싼 법적 어려움을 직면할 수도 있다.

미 의회가 NIST의 AI 분야 선도 기업과의 자발적인 AI 테스트 협력을 위협할 수도 있다. 미국 정부 관료는 “새로운 행정부 출범 시 AI 테스트 협력은 어떻게 되는가?”라는 질문을 던졌다.

AI 양극화는 트럼프가 안전성을 강화한 AI 모델 개발이라는 임무를 방해할 가능성을 우려하는 복수 기술 전문가의 분노 대상이 되었다.

브루킹스연구소 기술혁신센터 소장 니콜 터너 리(Nicol Turner Lee)는 “AI의 약속이 위험한 상황과 함께 미국의 차기 대통령이 AI 시스템의 안전과 보안을 계속 보장하는 일도 중요하다”라고 말했다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
A Trump Win Could Unleash Dangerous AI
이 기사를 공유합니다
RECOMMENDED