본문 바로가기 주메뉴 바로가기 검색 바로가기
챗GPT와 같은 AI 봇, 멀웨어 확산 방식은?
상태바
챗GPT와 같은 AI 봇, 멀웨어 확산 방식은?
생성형 AI는 사이버 범죄 세력도 악용할 수 있는 툴이다. 생성형 AI의 사이버 보안 위협으로부터 보호할 방법을 설명한다.
By DAVID NIELD, WIRED US

인공지능(AI) 분야의 광경이 급속도로 변하기 시작했다. 미드주어니(Midjourney), 챗GPT(ChatGPT) 등 소비자가 사용하는 소비자용 AI 툴은 이제 단 몇 초 만에 자연어 명령어에 따라 훌륭한 이미지와 텍스트를 결과물로 생성한다. 덩달아 웹 검색 서비스부터 아동 도서까지 어디에나 AI 툴이 적용된 것을 볼 수 있다.

그러나 AI 애플리케이션 사용 사례가 멀웨어 유포를 포함하여 악의적인 목적으로 변하는 추세이다. 일례로 기존 스캠 메일은 확실하게 찾아낼 수 있는 문법과 철자 실수가 넘쳐났다. 그러나 유로폴의 최신 자문 보고서에서 주목한 바와 같이 AI 툴이 스캠 메일의 문법 및 철자 실수를 교정하여 이전보다 구분하기 어려워졌다.

다음과 같은 상황을 생각할 수 있다. 상당수 피싱 공격과 각종 보안 위협은 소셜 엔지니어링에 의존하여 사용자를 속여 패스워드나 금융 정보, 기타 민감 정보를 건네도록 유도한다. 이제 상당수 스캠 메일에 필요한 설득력을 지닌 사실처럼 보이는 글은 손쉽게 대거 생성할 수 있다. 인간의 노력은 필요하지 않으며, 특정 표적에 따라 끊임없이 조작하고 변경할 수도 있다.

챗GPT의 사례를 언급하자면, 개발사인 오픈AI가 안전 조치를 처음 적용한 사실에 주목하는 것이 중요하다. 챗GPT에 멀웨어나 피싱 메일을 작성하라고 지시한다면, 챗GPT는 “엄격한 윤리 지침에 따라 멀웨어 생성 코드를 작성하거나 돕는 행위를 포함한 모든 악의적 활동에 개입하는 행위가 금지되었다”라는 답변이 돌아온다.

하지만 챗GPT의 보호 조치는 우회하기 쉽다. 챗GPT가 코드 작성 능력을 갖춘 사실과 메일 작성 능력을 갖춘 사실 모두 분명하다. 챗GPT는 멀웨어 작성 사실을 알지 못하더라도 멀웨어와 같은 악성 프로그램을 생성하도록 유도하는 명령을 받을 수 있다. 게다가 이미 사이버 범죄 세력이 챗GPT에 이미 적용된 안전 조치를 우회하려는 활동 징후가 감지되었다.

하지만 안전 조치를 우회하여 악의적인 용도로 이용하는 문제와 관련, 챗GPT만의 문제라고 특별히 지목할 수는 없다. 챗GPT와 같은 대규모 언어 모델이 더 악의적인 목적으로 이용될 가능성을 지목할 수 있다. 실제로 사이버 범죄 조직이 자체적으로 대규모 언어 모델이나 그와 유사한 툴을 개발해 설득력이 있는 스캠 메일을 작성할 가능성을 어렵지 않게 상상할 수 있다. 사이버 범죄 세력의 악용 가능성은 텍스트 생성 AI 툴에만 적용할 수 있는 문제가 아니다. 오디오와 영상은 텍스트보다 조작이 더 어렵지만, 언제든지 발생할 수 있다.
 
[사진=Pixabay]
[사진=Pixabay]

재직 중인 직장에서 상사의 긴급 보고서 요청, 기업 기술 지원팀의 보안 패치 설치 지시, 은행의 즉각 대응이 필요한 문제 발생 사실 경고와 같이 사이버 범죄 세력은 스캠 메일을 작성할 때 신뢰할 만한 진짜인 듯한 상황을 꾸미는 데 의존한다. 바로 AI 봇이 능숙하게 조작할 수 있는 상황이기도 하다. AI 봇은 자연스러우면서도 특정 대상을 속이기 적합하게 텍스트와 오디오, 영상을 생성하고는 필요한 상황에 재빨리, 그리고 계속 이용할 수 있다.

AI를 악용한 위협이 연속으로 발생할 수 있는 상황에서 평범한 인간이 기대할 만한 예방 방법이 있을까? AI를 중심으로 한 사이버 보안 위협 대응을 포기하고, 더 심각한 피해 발생이라는 운명에 순응할 수밖에 없을까? 아니다. 여전히 AI로 작성한 스캠 메일의 피해를 최소화할 방법은 많다. 그 방법은 이미 생각할 수 있는 주의사항과는 큰 차이가 없다.

AI 기반 스캠 피해 막으려면…
AI 관련 보안 위협은 크게 두 가지로 생각할 수 있다. 첫 번째는 챗GPT나 미드주어니와 같은 생성형 AI 툴을 이용해 악성 브라우저 플러그인과 같이 설치해서는 안 되는 프로그램을 설치하는 상황이다. AI로 조작한 스캠에 속아 필요하지 않은 서비스에 돈을 지출하거나 공식 툴인 것처럼 보이는 악성 툴을 사용할 수 있다.

AI 툴로 생성한 악성 프로그램의 함정에 빠지지 않으려면, 앞서 언급한 AI 서비스의 최신 보안 문제를 확실히 확인하고, 항상 원출처를 우선순위로 활용해야 한다. 챗GPT를 예시로 언급하면, 공식 승인된 챗GPT 모바일 앱은 없다. 챗GPT는 웹 버전만 출시됐다. 이처럼 다른 버전의 앱과 파생 서비스 사용과 관련, 다음과 같은 사이버 공격 피해 예방 표준 규칙을 적용할 수 있다. 신규 소프트웨어 설치 시 사용하고자 하는 프로그램이나 서비스의 이력과 관련 리뷰, 프로그램 개발 기업을 확인해야 한다.

두 번째 위협은 더 위험할 수도 있는 부분이다. 사실인 것처럼 보이는 텍스트나 오디오, 영상 생성 시 이용하는 AI가 원인이 된 사이버 보안 위협 요소이다. 생성형 AI의 결과물은 사용자의 지인을 사칭하는 데 동원될 수도 있다. 특히, 한 기업의 CEO인 척하여 긴급 자금 요청을 지원하는 가짜 음성 파일을 생성해, 해당 기업의 직원을 속이는 사례가 대표적이다.

AI 기술이 진화할 수 있으나 같은 수법을 반복하여 시도하고는 피해자가 다소 비정상적인 행동을 급하게 시행하도록 유도할 수도 있다. 조금 시간을 들여 전화로 메일 내용을 검토하거나 반대로 메일을 통해 전화 통화로 받은 요청 사항을 검토하는 등 활용할 수 있는 다른 방식으로 한 번 더 요청 사항을 확인해야 한다. 또, 특정 행동 요청 시 시간제한을 두거나 정상적이지 않은 행동을 요청하는 등의 의심스러운 사항도 분류하여 지켜보아야 할 것이다.

텍스트나 이메일에서 요청하는 링크를 따라 이동하는 일은 보통 현명한 일이 아니다. 특히, 특정 페이지 로그인 요청을 받았다면, 처음 보는 링크 접속 요청을 따르는 것은 금물이다. 거래 은행이 메시지로 연락했다면, 문자 메시지에 첨부된 링크가 아닌 다른 기기를 이용하여 은행 웹사이트에 접속하여 메시지 내용을 확인해야 한다.

사용 중인 운영체제와 앱, 브라우저의 최신 버전 업데이트는 필수이다. (현재 대다수 업데이트는 자동으로 진행되므로 업데이트를 하지 못했다는 변명은 소용이 없다.) 최신 브라우저는 AI를 이용한 사용자를 속일 의도로 설계된 명령어 생성 여부를 떠나 각종 피싱과 스캠 공격의 위협에서 사용자를 보호할 수 있다. 

지금은 AI로 생성한 텍스트나 오디오, 영상의 존재를 감지할 확실한 툴이 없다. 다만, 흐리고 일관성이 없는 이미지나 진짜인 듯하면서도 모호한 텍스트 등 주의해야 할 확실한 징후는 있다. 스캐머가 사용자의 일상생활이나 직장 정보를 어디선가 수집하더라도 모든 프로그램 운영 정보를 파악할 확률은 낮다.

한마디로 말하자면, 항상 주의하면서 모든 것에 의문을 제기해야 한다. 생성형 AI 툴이 새로이 등장하기 전에도 적용된 사실이며, 생성형 AI를 사이버 공격에 동원하는 지금도 변함없이 적용할 수 있는 사실이다. 안면 인식 시스템을 속일 얼굴 합성 사진 ‘미션(Mission)’도 마찬가지이다. 연속으로 영상을 촬영하는 것은 현재 수준에서는 공상과학 속에서나 가능할 법한 불가능한 일이다. 하지만 어떠한 정보든 공개하기 전, 상대하는 대상이 누구인지 확실하게 확인하는 것은 필수이다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
How ChatGPT—and Bots Like It—Can Spread Malware
이 기사를 공유합니다
RECOMMENDED