By Kate O'Flaherty, WIRED US
2015년, 일론 머스크와 샘 알트만이 “대기업 자본이 통제하는 시스템보다는 인류에 도움이 되는 인공지능(AI) 기술을 개발한다”라는 윤리적 철학처럼 보이는 원칙을 바탕으로 오픈AI를 창립했다.
약 10년이 지난 2024년, 머스크와 알트만이 오픈AI 창립 당시 내세운 윤리적 원칙이 제대로 준수되기는커녕 윤리적 원칙과는 180도 다른 상황이 펼쳐지고 있다. 일론 머스크는 자신의 친구이자 옛 동업자인 알트만과의 법정 다툼 도중 가장 최근 창립한 스타트업인 xAI를 통해 오픈AI의 강력한 경쟁 툴인 그록AI(Grok AI)를 출시했다.
“약간의 유머 반복과 갑작스러운 반항이 섞인 AI 검색 어시스턴트”라는 설명과 함께 출시된 그록은 여러 경쟁사의 대다수 생성형 AI 툴보다는 안전 조처가 적은 편이다. 그록이 거짓을 사실처럼 꾸며내는 답변과 편견을 드러내는 답변을 생성할 확률이 높은 데다가 2024년 미국 대통령 선거 관련 각종 거짓 정보 유포로 비난을 받은 사실은 놀라운 일이 아니다.
게다가 그록의 데이터 보호 관행은 검토 대상이 되었다. 2024년 7월, X 사용자 게시물을 그록 훈련 목적 데이터로 수집하는 행위가 자동으로 활성화된 사실이 알려지자 유럽 규제 당국의 질타를 받았다.
그록-2 대규모 모델의 이미지 생성 능력도 많은 사용자의 우려를 유발했다. 2024년 8월 자로 그록-2가 출시되자마자 많은 사용자가 카멀라 해리스 미국 부통령과 도널드 트럼프 전 미국 대통령을 포함한 복수 정치인의 충격적일 정도로 선동적인 콘텐츠를 손쉽게 생성할 수 있다는 사실을 입증했다.
그렇다면, 그록 AI의 주된 문제점은 무엇일까? 또, X 데이터가 그록 AI 훈련 데이터로 동원되는 일을 막으려면 어떻게 해야 하는가?
깊은 통합 범위
일론 머스크는 그록을 X의 깊은 범위까지 통합하여 맞춤 뉴스 피드 제공, 게시물 구성 등에 사용한다. 지금 당장은 베타 버전으로만 사용할 수 있으며, 그록을 통합한 X 서비스는 프리미엄+ 구독자만 접할 수 있다.
데이터 보호 및 프라이버시 서비스 컨설팅 기업 GRC 인터내셔널 그룹(GRC International Group) AI 사장 캠든 울벤(Camden Woollven)이 설명한 바와 같이 그록을 통합한 X의 장점 중 하나는 X의 실시간 데이터 접근 시 그록이 의견을 드러내면서 현재 사건과 관련한 대화를 한다는 점이다.
AI를 포함한 기술 채택 지원 기업인 버전 1(Version 1) 데이터 및 AI 사장 나단 말러(Nathan Marlor)는 그록은 경쟁사의 AI 챗봇과의 경쟁에서 돋보이고자 투명성과 문제 인식 능력을 갖춘 척할 의도를 갖추었다고 설명했다.
그록 관계자는 투명성을 위해 2024년 초반, 기본 알고리즘 오픈소스를 개발했다. 그러나 문제 인식 능력을 갖춘 척하는 AI 개발을 추구하면서 오픈AI, 앤트로픽(Anthropic) 등 복수 경쟁사보다는 안전 보호 대책 개발 작업과 편견 고려 사항에는 더 소홀한 태도를 보였다. 말러는 “이견을 제시할 수 있으나 그록의 접근 방식은 기본 훈련 데이터인 인터넷 콘텐츠를 반영하여 정확도가 더 높은 답변을 생성한다. 하지만 편견을 담은 콘텐츠를 생성하는 경향이 있다”라고 전했다.
와이어드는 X와 xAI에 여러 차례 의견 공개를 요청했으나 어떠한 답변도 받지 못했다.
그록은 개방된 상태로 배포된 데다가 안전 통제 수준이 비교적 낮은 탓에 미국 선거 정보와 관련하여 거짓 정보를 유포했다. 그록이 일부 주의 유권자 등록 마감일을 잘못 전달하는 정보를 생성하자 미네소타주, 뉴멕시코주, 미시간주, 워싱턴주, 펜실베이니아주 선거 관료는 머스크에게 항의 서한을 보냈다.
그록은 문제에 신속하게 대응했다. 미국 IT 매체 더버지는 일부 주 선거 관료의 항의 서한 발송 이후 그록에 선거 관련 질문을 했을 때 “2024년 미국 대통령 선거의 정확한 최신 정보를 얻고자 한다면, 정부가 개설한 공식 유권자 등록 웹사이트를 방문하라”라는 답변을 생성한다는 사실을 확인했다.
그러나 X는 AI의 정확성 판단은 사용자가 짊어져야 할 부담이라는 점을 분명히 공지하기도 했다. xAI는 도움 지원 페이지에 “현재 출시된 그록 AI는 초기 버전이다”라는 안내 문구를 작성했다. 따라서 그록 AI가 거짓 정보를 사실처럼 잘못 전달하거나 내용 요약 실수, 일부 맥락을 놓치는 일이 발생할 수도 있다는 경고도 전했다.
이어, “그록의 답변에 포함된 정보는 별도로 검증할 것을 권고한다. 그록과 대화하면서 개인 데이터나 민감한 기밀 정보를 공유하지 않도록 당부한다”라고 추가로 안내했다.
그록 데이터 수집
그록이 다량의 데이터를 수집한다는 사실은 거짓 정보 생성 문제와 별개로 보아야 하는 문제이다. 특히, 그록 사용 여부를 떠나 X 데이터를 그록과 공유하도록 자동 활성화되었다면, 더 주목해야 할 문제이다.
xAI는 그록 도움 지원 센터에서 xAI가 X 사용자의 타인과의 상호작용 활동은 물론이고 X 게시물, 사용자가 입력한 명령어, 결과 등을 그록 훈련, 답변 생성 정확도 개선 목적으로 사용하는 과정을 설명한다.
노드VPN(NordVPN) 최고 기술 책임자 마리주스 브리에디스(Marijus Briedis)는 그록의 훈련 전략은 프라이버시에 막대한 영향을 초래한다고 전했다. 그는 “그록의 개인 정보 혹은 민감할 수도 있는 정보 접근, 분석 능력을 넘어서 이미지 생성 능력과 최소화된 콘텐츠 관리 수준은 프라이버시를 추가로 우려할 만한 문제이다”라고 말했다.
AI 배포 전문 디지털 컨설팅 기관 크리에이트퓨처(CreateFuture) 수석 제품 관리자 앵거스 알란(Angus Allan)이 설명한 바와 같이 그록-1은 2023년 3분기까지 공개 접근이 가능한 데이터로 훈련받았으나 전체 공개 상태인 X 게시물을 포함한 X 데이터로 사전 훈련을 받지는 않았다. 반면, 그록-2는 X 사용자의 게시물, 타인과의 소통, 입력 사항, 검색 결과도 훈련 데이터에 해당한다는 사실이 분명하다. 게다가 X 사용자의 그록 훈련 데이터 수집 동의가 자동 활성화되었다.
유럽연합의 개인데이터보호규정(GDPR)에는 개인 데이터 사용 합의 규정이 명시되었다. 알란은 GDPR 규정대로라면, xAI가 그록을 위해 GDPR의 개인 데이터 사용 합의 규정을 무시했을 가능성이 있다고 언급했다.
결과적으로 유럽연합 규제 당국이 X에 그록-2 출시 후 며칠 이내로 유럽 사용자 데이터를 이용한 훈련을 중단하도록 압박을 가했다.
사용자 프라이버시 법률을 준수하지 못한다면, 다른 국가의 규제 감시를 직면하는 결과가 이어질 수 있다. 미국에는 유럽연합과 유사한 제도가 없지만, 연방거래위원회(FTC)는 과거, 사용자 프라이버시 우선순위를 존중하지 않는다는 점에서 트위터에 벌금을 부과한 적이 있다.
데이터 수집 비활성화
X 게시물이 그록의 훈련 데이터가 되는 일을 막을 방법 중 하나는 계정을 비공개 상태로 설정하는 것이다. X 프라이버시 설정에서 미래 그록 모델 훈련 데이터 수집 비활성화를 선택할 수 있다.
그록 훈련 데이터 비활성화를 원한다면, ‘프라이버시 및 안전(Privacy & Safety)’ > ‘데이터 공유 및 개인화(Data sharing and Personalization)’ > ‘그록(Grok)’ 순서로 이동하라. ‘데이터 공유’ 옵션에서 “X 게시물 및 타인과의 소통, 입력 사항, 결과의 그록 훈련, 반응 정확도 개선 목적 훈련 사용 허용” 선택을 해제해야 한다.
X를 장기간 사용하지 않았더라도 X에 로그인하여 모든 설정을 비활성화할 필요가 있다. 앨런은 사용자가 데이터 훈련 목적의 수집 행위에 동의하지 않는다는 의사를 명확히 밝히지 않는다면, X가 사용자의 과거 게시물과 이미지도 미래 AI 훈련 모델로 이용할 수도 있다고 경고했다.
xAI는 모든 대화 이력을 삭제할 수 있다고 안내한다. 삭제된 대화는 xAI 시스템에서 30일 이내에 제거된다. 단, xAI가 보안, 법률 문제 때문에 사용자가 삭제 요청을 한 대화도 보관해야 하는 때는 예외이다.
그록의 진화 수준은 그 누구도 예측할 수 없다. 그러나 지금까지의 상황을 보았을 때 그록의 문제에 주시할 필요가 있다. 개인 데이터를 안전하게 보관하고자 한다면, X에 공유하는 콘텐츠를 신중하게 판단하고, 프라이버실 정책이나 서비스 약관 최신 개정 사항을 즉시 파악해야 한다. 브리에디스는 “데이터 및 프라이버시 보호 설정을 철저하게 관리한다면, 정보 관리 방식과 그록과 같은 기술이 사용하는 데이터를 더 나은 방향으로 관리할 수 있다”라고 전했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
What You Need to Know About Grok AI and Your Privacy
2015년, 일론 머스크와 샘 알트만이 “대기업 자본이 통제하는 시스템보다는 인류에 도움이 되는 인공지능(AI) 기술을 개발한다”라는 윤리적 철학처럼 보이는 원칙을 바탕으로 오픈AI를 창립했다.
약 10년이 지난 2024년, 머스크와 알트만이 오픈AI 창립 당시 내세운 윤리적 원칙이 제대로 준수되기는커녕 윤리적 원칙과는 180도 다른 상황이 펼쳐지고 있다. 일론 머스크는 자신의 친구이자 옛 동업자인 알트만과의 법정 다툼 도중 가장 최근 창립한 스타트업인 xAI를 통해 오픈AI의 강력한 경쟁 툴인 그록AI(Grok AI)를 출시했다.
“약간의 유머 반복과 갑작스러운 반항이 섞인 AI 검색 어시스턴트”라는 설명과 함께 출시된 그록은 여러 경쟁사의 대다수 생성형 AI 툴보다는 안전 조처가 적은 편이다. 그록이 거짓을 사실처럼 꾸며내는 답변과 편견을 드러내는 답변을 생성할 확률이 높은 데다가 2024년 미국 대통령 선거 관련 각종 거짓 정보 유포로 비난을 받은 사실은 놀라운 일이 아니다.
게다가 그록의 데이터 보호 관행은 검토 대상이 되었다. 2024년 7월, X 사용자 게시물을 그록 훈련 목적 데이터로 수집하는 행위가 자동으로 활성화된 사실이 알려지자 유럽 규제 당국의 질타를 받았다.
그록-2 대규모 모델의 이미지 생성 능력도 많은 사용자의 우려를 유발했다. 2024년 8월 자로 그록-2가 출시되자마자 많은 사용자가 카멀라 해리스 미국 부통령과 도널드 트럼프 전 미국 대통령을 포함한 복수 정치인의 충격적일 정도로 선동적인 콘텐츠를 손쉽게 생성할 수 있다는 사실을 입증했다.
그렇다면, 그록 AI의 주된 문제점은 무엇일까? 또, X 데이터가 그록 AI 훈련 데이터로 동원되는 일을 막으려면 어떻게 해야 하는가?
깊은 통합 범위
일론 머스크는 그록을 X의 깊은 범위까지 통합하여 맞춤 뉴스 피드 제공, 게시물 구성 등에 사용한다. 지금 당장은 베타 버전으로만 사용할 수 있으며, 그록을 통합한 X 서비스는 프리미엄+ 구독자만 접할 수 있다.
데이터 보호 및 프라이버시 서비스 컨설팅 기업 GRC 인터내셔널 그룹(GRC International Group) AI 사장 캠든 울벤(Camden Woollven)이 설명한 바와 같이 그록을 통합한 X의 장점 중 하나는 X의 실시간 데이터 접근 시 그록이 의견을 드러내면서 현재 사건과 관련한 대화를 한다는 점이다.
AI를 포함한 기술 채택 지원 기업인 버전 1(Version 1) 데이터 및 AI 사장 나단 말러(Nathan Marlor)는 그록은 경쟁사의 AI 챗봇과의 경쟁에서 돋보이고자 투명성과 문제 인식 능력을 갖춘 척할 의도를 갖추었다고 설명했다.
그록 관계자는 투명성을 위해 2024년 초반, 기본 알고리즘 오픈소스를 개발했다. 그러나 문제 인식 능력을 갖춘 척하는 AI 개발을 추구하면서 오픈AI, 앤트로픽(Anthropic) 등 복수 경쟁사보다는 안전 보호 대책 개발 작업과 편견 고려 사항에는 더 소홀한 태도를 보였다. 말러는 “이견을 제시할 수 있으나 그록의 접근 방식은 기본 훈련 데이터인 인터넷 콘텐츠를 반영하여 정확도가 더 높은 답변을 생성한다. 하지만 편견을 담은 콘텐츠를 생성하는 경향이 있다”라고 전했다.
와이어드는 X와 xAI에 여러 차례 의견 공개를 요청했으나 어떠한 답변도 받지 못했다.
그록은 개방된 상태로 배포된 데다가 안전 통제 수준이 비교적 낮은 탓에 미국 선거 정보와 관련하여 거짓 정보를 유포했다. 그록이 일부 주의 유권자 등록 마감일을 잘못 전달하는 정보를 생성하자 미네소타주, 뉴멕시코주, 미시간주, 워싱턴주, 펜실베이니아주 선거 관료는 머스크에게 항의 서한을 보냈다.
그록은 문제에 신속하게 대응했다. 미국 IT 매체 더버지는 일부 주 선거 관료의 항의 서한 발송 이후 그록에 선거 관련 질문을 했을 때 “2024년 미국 대통령 선거의 정확한 최신 정보를 얻고자 한다면, 정부가 개설한 공식 유권자 등록 웹사이트를 방문하라”라는 답변을 생성한다는 사실을 확인했다.
그러나 X는 AI의 정확성 판단은 사용자가 짊어져야 할 부담이라는 점을 분명히 공지하기도 했다. xAI는 도움 지원 페이지에 “현재 출시된 그록 AI는 초기 버전이다”라는 안내 문구를 작성했다. 따라서 그록 AI가 거짓 정보를 사실처럼 잘못 전달하거나 내용 요약 실수, 일부 맥락을 놓치는 일이 발생할 수도 있다는 경고도 전했다.
이어, “그록의 답변에 포함된 정보는 별도로 검증할 것을 권고한다. 그록과 대화하면서 개인 데이터나 민감한 기밀 정보를 공유하지 않도록 당부한다”라고 추가로 안내했다.
그록 데이터 수집
그록이 다량의 데이터를 수집한다는 사실은 거짓 정보 생성 문제와 별개로 보아야 하는 문제이다. 특히, 그록 사용 여부를 떠나 X 데이터를 그록과 공유하도록 자동 활성화되었다면, 더 주목해야 할 문제이다.
xAI는 그록 도움 지원 센터에서 xAI가 X 사용자의 타인과의 상호작용 활동은 물론이고 X 게시물, 사용자가 입력한 명령어, 결과 등을 그록 훈련, 답변 생성 정확도 개선 목적으로 사용하는 과정을 설명한다.
노드VPN(NordVPN) 최고 기술 책임자 마리주스 브리에디스(Marijus Briedis)는 그록의 훈련 전략은 프라이버시에 막대한 영향을 초래한다고 전했다. 그는 “그록의 개인 정보 혹은 민감할 수도 있는 정보 접근, 분석 능력을 넘어서 이미지 생성 능력과 최소화된 콘텐츠 관리 수준은 프라이버시를 추가로 우려할 만한 문제이다”라고 말했다.
AI 배포 전문 디지털 컨설팅 기관 크리에이트퓨처(CreateFuture) 수석 제품 관리자 앵거스 알란(Angus Allan)이 설명한 바와 같이 그록-1은 2023년 3분기까지 공개 접근이 가능한 데이터로 훈련받았으나 전체 공개 상태인 X 게시물을 포함한 X 데이터로 사전 훈련을 받지는 않았다. 반면, 그록-2는 X 사용자의 게시물, 타인과의 소통, 입력 사항, 검색 결과도 훈련 데이터에 해당한다는 사실이 분명하다. 게다가 X 사용자의 그록 훈련 데이터 수집 동의가 자동 활성화되었다.
유럽연합의 개인데이터보호규정(GDPR)에는 개인 데이터 사용 합의 규정이 명시되었다. 알란은 GDPR 규정대로라면, xAI가 그록을 위해 GDPR의 개인 데이터 사용 합의 규정을 무시했을 가능성이 있다고 언급했다.
결과적으로 유럽연합 규제 당국이 X에 그록-2 출시 후 며칠 이내로 유럽 사용자 데이터를 이용한 훈련을 중단하도록 압박을 가했다.
사용자 프라이버시 법률을 준수하지 못한다면, 다른 국가의 규제 감시를 직면하는 결과가 이어질 수 있다. 미국에는 유럽연합과 유사한 제도가 없지만, 연방거래위원회(FTC)는 과거, 사용자 프라이버시 우선순위를 존중하지 않는다는 점에서 트위터에 벌금을 부과한 적이 있다.
데이터 수집 비활성화
X 게시물이 그록의 훈련 데이터가 되는 일을 막을 방법 중 하나는 계정을 비공개 상태로 설정하는 것이다. X 프라이버시 설정에서 미래 그록 모델 훈련 데이터 수집 비활성화를 선택할 수 있다.
그록 훈련 데이터 비활성화를 원한다면, ‘프라이버시 및 안전(Privacy & Safety)’ > ‘데이터 공유 및 개인화(Data sharing and Personalization)’ > ‘그록(Grok)’ 순서로 이동하라. ‘데이터 공유’ 옵션에서 “X 게시물 및 타인과의 소통, 입력 사항, 결과의 그록 훈련, 반응 정확도 개선 목적 훈련 사용 허용” 선택을 해제해야 한다.
X를 장기간 사용하지 않았더라도 X에 로그인하여 모든 설정을 비활성화할 필요가 있다. 앨런은 사용자가 데이터 훈련 목적의 수집 행위에 동의하지 않는다는 의사를 명확히 밝히지 않는다면, X가 사용자의 과거 게시물과 이미지도 미래 AI 훈련 모델로 이용할 수도 있다고 경고했다.
xAI는 모든 대화 이력을 삭제할 수 있다고 안내한다. 삭제된 대화는 xAI 시스템에서 30일 이내에 제거된다. 단, xAI가 보안, 법률 문제 때문에 사용자가 삭제 요청을 한 대화도 보관해야 하는 때는 예외이다.
그록의 진화 수준은 그 누구도 예측할 수 없다. 그러나 지금까지의 상황을 보았을 때 그록의 문제에 주시할 필요가 있다. 개인 데이터를 안전하게 보관하고자 한다면, X에 공유하는 콘텐츠를 신중하게 판단하고, 프라이버실 정책이나 서비스 약관 최신 개정 사항을 즉시 파악해야 한다. 브리에디스는 “데이터 및 프라이버시 보호 설정을 철저하게 관리한다면, 정보 관리 방식과 그록과 같은 기술이 사용하는 데이터를 더 나은 방향으로 관리할 수 있다”라고 전했다.
** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)
<기사원문>
What You Need to Know About Grok AI and Your Privacy
저작권자 © WIRED Korea 무단전재 및 재배포 금지
저작권자 © WIRED Korea 무단전재 및 재배포 금지
이 기사를 공유합니다