본문 바로가기 주메뉴 바로가기 검색 바로가기
구글의 AI 접근방식, 10가지 피부색이 재구성한다?
상태바
구글의 AI 접근방식, 10가지 피부색이 재구성한다?
테크 업계는 지난 몇 년간 6가지 음영 단계에 의존해 피부색을 분류했다. 이제 구글의 오픈소스 대안이 기존 피부색 분류 방식을 바꿀 것이다.
By KHARI JOHNSON, WIRED US

지난 몇 년간 테크 업계는 컴퓨터 비전 알고리즘의 피부색 구분을 위해 이른바 피츠패트릭 스케일(Fitzpatrick scale)에 의존했다. 1970년대, 피부과 전문의가 처음 개발한 피츠패트릭 스케일은 단 6가지 피부색만 구분한다. 그동안 다양한 문서로 제대로 기술된 인공지능(AI)의 인간 피부색 식별 실패 요인이기도 하다. 이제 구글이 몽크스킨톤(Monk Skin Tone) 스케일을 개발해, 구글 검색 이미지부터 구글 포토 등 자사의 모든 제품과 서비스에 10가지 피부색 분류 표준을 적용하고자 한다. 몽크스킨톤은 헬스케어부터 콘텐츠 관리까지 모든 부분의 AI 훈련 시 활용할 데이터세트 편견을 줄일 수 있다.

구글은 2021년부터 피츠패트릭 스케일보다 더 다양한 표준으로 피부색을 구분할 방안 개발 계획을 시사했다. 산고 에이(Xango Eyeé) 구글 윤리적 AI 제품 관리자가 트위터 스레드로 공개한 바와 같이 구글 내부의 몽크스킨톤 스케일 프로젝트 몽크스킨톤 스케일 프로젝트는 구글 흑인 여직원 4명이 AI의 피부색 구분 능력 향상 노력과 함께 2020년 여름부터 시작됐다. 2022년 5월 11일 자로 진행된 구글 개발자 컨퍼런스(I/O) 컨퍼런스에서 구글은 몽크스킨톤 스케일이 여러 제품에 걸쳐 얼마나 광범위한 영향을 미치게 되는지 설명했다. 구글은 몽크스킨톤 스케일을 오픈소스로 배포하고자 한다. 즉, 피츠패트릭 스케일이라는 업계 표준을 대체해 카메라와 컴퓨터 비전 시스템의 피부색 구분 공정성을 평가하고자 한다는 의미이다.

에이는 “알고리즘 공정성 평가가 필요한 인간의 얼굴이 담긴 이미지를 보유한 공간을 생각해보아라”라고 말했다.

몽크스킨톤 스케일은 하버드대학교 사회학자인 엘리스 몽크(Ellis Monk) 박사의 이름에서 유래됐다. 몽크 박사는 수십년 동안 색차별주의가 미국 흑인 시민의 삶에 미치는 영향을 연구했다. 2019년, 피부색 구분 표준을 개발하고는 구글 엔지니어, 연구원과 협력해 구글 제품 개발에 몽크스킨톤 스케일을 적용하기 위한 작업을 진행했다.

몽크 박사는 구글 개발자 컨퍼런스 현장에 준비된 영상 인터뷰 발언을 통해 “삶의 변화와 기회 상당수가 상호작용 특성 메이크업과 관련이 있다. 이제 초기 단계에서부터 여러 제품의 편견을 제거하고는 모든 피부색을 동등하게 구분할 수 있다. 편견 문제 해소를 위한 큰 도약이라고 생각한다”라고 말했다.
 
[사진=Google]
[사진=Google]

2021년, 몽크 박사와 구글 연구팀은 실험 참가자 대부분 피츠패트릭 스케일보다 몽크스킨톤 스케일의 피부색 구분 결과가 더 낫다는 초기 분석 결과를 제시했다. 또, 5월 11일, 개발자 컨퍼런스 진행 당일 구글이 공개한 FAQ에는 총 10가지 이상의 피부색 구분 표준이 팝스타 리한나가 운영하는 펜티 뷰티(Fenty Beauty)가 40종 이상의 피부 음영 종류를 제공하는 메이크업 산업 등과 달리 별도의 값 없이도 구분 복합성을 더할 수 있다고 설명했다. 구글의 상황에 정통한 어느 한 소식통이 전한 바와 같이 구글은 브라질과 인도, 멕시코, 나이지리아 등 세계 여러 국가에서 몽크스킨톤 스케일 검증 작업을 이어가고 있다. 그 외 상세한 정보는 추후 학술 연구 논문을 통해 공개될 예정이다.

이제 구글은 몽크스킨톤 스케일 활용 사례를 확장하고자 한다. 구글 이미지는 몽크스킨톤 스케일을 기준으로 분류한 피부색에 따라 메이크업 관련 검색 결과를 제공하고자 한다. 또, 2022년 5월 말, 멜라닌 색소가 더 많은 이들을 위한 필터를 구글 포토에 적용할 예정이다. 구글이 10가지 피부색 구분 방식을 구글의 모든 제품 라인에 채택한다면, 구글 검색 결과와 픽셀 스마트폰, 유튜브 분류 알고리즘, 웨이모 자율주행차 등 구글의 모든 제품과 서비스에 사용하는 알고리즘 평가 결과의 공정성을 더할 수 있을 것이다.

구글 알고리즘에 적용된 색차별주의는 결과적으로 피부색이 어두운 사용자를 존중하지 않는 피부색 분류 결과를 제시하는 결과로 이어질 수 있다. 그 예시로 구글 포토(Google Photo)가 사진 속 흑인을 고릴라로 잘못 분류한 사례와 어두운 피부색을 제대로 인식하지 못하는 인종차별주의적 비누 거품 제공 기계, 자동 생성된 편견 이미지 등과 같은 문제를 언급할 수 있다. 구글이 병소 식별 목적으로 개발한 알고리즘은 어두운 피부색을 지닌 이들의 병소 식별 포괄성이 부족했다. 자율주행 시스템은 피부색이 어두울수록 인간을 안정적으로 식별하지 못하는 것으로 확인됐다. 알고리즘의 인종차별 문제를 입증한 대표적인 사례로 2018년, 윤리적 AI팀 공동 팀장이었던 팀닛 게브루(Timnit Gebru)가 주요 기업이 개발한 안면 인식 알고리즘이 흑인 여성 차별 문제를 일으킬 확률이 더 높다는 결론을 내린 연구 논문을 게재한 사례를 언급할 수 있다. 당시 게브루가 게재한 논문의 자세한 내용은 코디드 바이어스(Coded Bias)에서 볼 수 있다.

2020년 말, 구글이 게브루를 부당 해고하자 블랙 인 AI(Black in AI)퀴어 인 AI(Queer in AI) 등 AI의 차별 문제 퇴치 연구 기관이 구글의 후원금을 받지 않기로 다짐했다. 구글은 2021년 다양성 보고서(2021 Diversity Report)를 통해 흑인 여성과 미국 원주민 여성의 AI 공격 피해를 겪을 확률이 가장 높다는 사실을 확인했다.

에이는 몽크스킨톤 스케일이 피츠패트릭 스케일보다 장점이 더 많다는 사실 검증 결과 제시 혹은 피부과 전문의를 위한 더 공정한 알고리즘 제공 여부 입증을 위해 추가 연구가 필요하다고 말했다. 그러나 몽크스킨톤 스케일의 초기 연구 결과는 그동안 컴퓨터 비전 데이터세트의 차별 발생이 특히 심각했던 집단을 중심으로 더 긍정적인 결과를 제시한다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
How 10 Skin Tones Will Reshape Google’s Approach to AI
이 기사를 공유합니다
RECOMMENDED