본문 바로가기 주메뉴 바로가기 검색 바로가기
‘위험한 AI’ 연구 잠정 중단 촉구가 간과한 간단한 사실
상태바
‘위험한 AI’ 연구 잠정 중단 촉구가 간과한 간단한 사실
테크 업계의 복수 지도자가 챗GPT 개발 일시 중단을 제안하는 공개서한에 서명했다. 그러나 다수 AI 연구원은 이미 더 안전한 AI 개발 방법을 알고 있다.
By SASHA LUCCIONI, WIRED US

2023년 3월 말, 미래생명연구소(Future of Life Institute)가 위험한 인공지능(AI) 개발 경쟁을 6개월 동안 일시적으로 중단할 것을 제안하는 내용의 공개서한을 발행했다. 4월 초 기준 해당 서한의 서명 인원은 3,000명을 넘어섰다. 서한에 서명한 이들 중에는 AI 업계 내 영향력이 있는 인물도 있다. 그러나 AI 시스템의 위험성이 테크 업계 내부와 사회 전반에 걸쳐 분명히 드러나는 추세이지만, 서한이 설명한 AI의 문제점과 해결을 위해 제안한 행동 모두 비현실적이면서 불필요하다.

AI 연구 중단 촉구 자체는 모호하면서도 불가능하다. 영리를 추구하는 기업의 대규모 언어 훈련 상황 대부분 주목을 받지만, 실제 유일하게 활용되는 AI의 종류가 아니다. 사실, AI 연구 및 관행은 전 세계 여러 기업과 학계, 캐글 시합(Kaggle competitions) 등 여러 영역에서 효율성부터 안전에 이르기까지 여러 주제에 따라 발생하고 있다. 누구나 AI 연구 중단을 위해 시행하는 동시에 안전한 AI 연구, 개발 및 활용만 허용할 한 가지 마법과 같은 행동은 존재하지 않는다는 의미이다. 또, 서한에 명시된 AI의 위험성 모두 장기적 관점에 따른 사고를 기반으로 한 가설에 불과하다. 장기적 관점에 따라 제시한 문제점은 인류가 겪게 될 수도 있는 잠재적인 존립 위험성을 위해 지금 당장 개인에게 피해를 주는 알고리즘적 차별과 사전 예측에 따른 순찰 등 실제 문제를 간과하는 경향이 있다.

AI가 미래에 실패할 가능성에 초점을 맞추는 대신 현재 AI의 성공을 위해 성립하는 조건을 분명히 정의하는 데 주력해야 한다. 다음과 같은 분명한 방식으로 실현할 수 있는 부분이다. 바로 단순한 연구 중단 대신 투명성과 책임감을 강화하면서 AI 시스템 개발 지침을 개발하는 것이다. 이와 함께 정책과 연구, 사용자 기반 계획은 다양한 분야에 수십 년 동안 존재했으며, 이미 AI의 현재 위험성을 다룰 확고한 제안 사항을 보유했다.
 
[사진=Freepik]
[사진=Freepik]

전 세계 규제 당국은 이미 새로운 AI 기술 개발, 사용을 다룰 각종 법률 초안과 지침을 제시했다. 미국 상원 의회의 알고리즘 책임법(Algorithmic Accountability Act)과 유럽연합, 캐나다의 유사한 계획 모두 AI 시스템 훈련에 사용할 수 있는 데이터와 사용할 수 없는 데이터 정의를 돕고 저작권 및 라이선스 문제를 다루며, 위험성이 심각한 상황에서의 AI 활용 필요성이라는 특수한 상황을 중시한다. 이와 같은 법률 규정의 중요한 부분 중 하나는 투명성이다. AI 시스템 개발자가 훈련 데이터의 원출처, AI 모델 훈련 시 사용한 코드, 안전 필터와 같은 기능 구축 방법 등 추가 정보를 제공할 것을 요구한다. AI 모델 개발자와 해당 모델 사용자 모두 국회의원의 AI 관련 법률 제정 노력에 참여하고, AI 안전 관련 법안을 형성하도록 도우면서 문제를 다루기 위한 노력을 지원해야 된다. 결과적으로 AI가 사용자의 개인 데이터를 이용하고, 개인의 삶에 영향을 미치기 때문이다.

그러나 AI의 문제를 다루기 위해 필요한 정보를 활용할 수 있는 것만으로는 충분하지 않다. AI 모델 개발 기업은 자사 시스템 외부 감사를 허용하고, 문제 발견 시 위험성과 단점 해결을 위한 책임을 져야 한다. 예를 들어, 챗GPT, 바드, GPT-4 등 최신 AI 모델 대부분 제한이 되었으며, API나 제한된 접근 범위를 통해서만 사용할 수 있다. 모두 AI 모델 개발사가 전면 통제하는 부분이다. 기본적으로 결과를 하루 사이에 바꾸거나 사용자에 따라 다른 결과를 제공할 수도 있는 의문스러운 복잡한 시스템이다. GPT-4와 같은 일부 AI 모델에는 기업이 승인한 문제 피드백팀이 있지만, 다수 연구원이 기본 시스템에 접근할 방법은 없다. 이 때문에 과학적 분석과 감사가 불가능하다. 바로 모질라 재단의 데보라 라지(Deborah Raji)를 포함한 일부 학자가 제안한 AI 시스템 감사 접근 방식과는 반대되는 부분이다. 라지 연구원은 과거, 모델 개발 과정의 단계마다 개요를 제공하여 사회에 배포하기 전 AI 모델의 위험 행동과 피해를 감지하도록 할 것을 촉구했다.

AI의 안전을 위한 또 다른 중요한 단계로 AI 개발, 사용 방식을 집단으로 다시 생각하는 것이다. AI 개발자와 연구원은 지난 몇 년간 AI 윤리 강화를 옹호한 이들의 의견을 경청하면서 AI 관행의 규범과 지침을 확립하기 시작할 수 있다. AI 윤리 문제 개선을 위해 주목할 만한 주요 인물로 ‘느린 AI’ 운동을 제안한 팀닛 게브루(Timnit Gebru)와 최근 개최된 AI 컨퍼런스의 기조연설 도중 윤리적 AI를 위한 지침 원칙 마련의 중요성을 강조한 루하 벤자민(Ruha Benjamin)을 언급할 수 있다. 세계 최고 권위 AI 학회인 NeurIPS 컨퍼런스에서 시행한 윤리 규정(Code of Ethics)과 같은 커뮤니티 주도 계획도 AI 개발, 사용 방식 재고를 위한 중요한 부분이다. 또한, AI 연구 측면에서 받아들일 수 있는 바와 AI가 사회에 미칠 광범위한 영향 고려 방식을 다룬 지침 확립이라는 목표도 중요하다.

AI 개발 일시 중단을 촉구한 공개서한은 인간의 능력을 초월한 AI 합의가 최종 단계에 이르렀음을 나타낸다. 하지만 실제로 현재 AI 시스템은 단순히 무급 근로자의 데이터를 이용하여 구축하고, 지능과 비슷한 역량을 제공하는 복잡한 엔지니어링으로 포장한 예측 불가능한 앵무새에 불과하다. 현재의 AI 개발 관련 주장 번복과 AI 시스템의 역량과 한계 의문 제기, 책임감과 투명성 요구 모두 아직 늦지 않았다. 모두 AI 연구 분야와 AI를 넘어선 영역의 관계자가 촉구하는 바이다. 단순히 정치인의 법안 발의만이 아닌 연구, 개발 기관은 물론이고 AI의 현재와 미래를 형성할 힘이 있는 AI 시스템 사용자의 노력으로 실현할 수 있는 부분이다. 교육, 의학, 정신건강 등 위험성이 높은 영역을 포함한 사회 모든 부문의 AI 모델 배포 사례가 증가하는 가운데, 모두 AI 개발 및 사용 시 받아들일 수 있는 바와 받아들일 수 없는 바를 형성하는 역할을 해야 한다. 이는 AI 법안 발의를 목표로 한 민주주의적 과정 참여와 투명성이 부족한 AI 시스템 사용 거부, AI 기술 개발자와 배포 기관을 대상으로 한 감독 및 책임감 요구로 실현할 수 있다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
The Call to Halt ‘Dangerous’ AI Research Ignores a Simple Truth
이 기사를 공유합니다
RECOMMENDED