본문 바로가기 주메뉴 바로가기 검색 바로가기
인공지능, 일자리 빼앗지 않을 것...채용 중단 가능성은 有
상태바
인공지능, 일자리 빼앗지 않을 것...채용 중단 가능성은 有
힐케 쉘만 기자가 신간 저서 『알고리즘(The Algorithm)』을 통해 자동 이력서 검토, 승진 추천 자동화 기능을 갖춘 소프트웨어를 조사한 뒤 차별 우려를 제기했다.
By CAITLIN HARRINGTON, WIRED US

입사 지원자 후보 검토 알고리즘이 입사 지원자와 입사하고자 하는 꿈의 직장 사이에서 이력서를 검토할 가능성을 우려하는 구직자라면, 기자인 힐케 쉘만(Hilke Schellmann)의 신간 저서인 『알고리즘(The Algorithm)』을 읽은 후에도 우려를 잠재울 수 없을 것이다.

쉘만 기자는 구직자의 시선에서 이력서 검토 소프트웨어와 비디오 게임 기반 테스트 방식부터 표정과 어조, SNS 행동을 분석하는 개인 평가 소프트웨어까지 입사 지원자 평가 소프트웨어 몇 가지를 테스트했다. 쉘만 기자가 직접 분석한 툴 중 하나는 쉘만 기자가 어법이 엉망인 독일어를 구사해도 합격 확률이 높은 입사 지원자로 평가했다. 개인 평가 알고리즘은 쉘만 기자가 트위터를 꾸준히 사용했다는 기준을 바탕으로 높은 점수를 부여했다. 반면, 링크드인 프로필을 바탕으로 평가했을 때는 낮은 점수를 책정했다.

링크드인 계정을 삭제하고, 자급자족하는 생활 환경 정착을 적극적으로 받아들이고 싶다는 생각을 충분히 할 수 있다. 그러나 쉘만 기자는 우려를 어느 정도 완화할 통찰력도 제시했다. 와이어드는 편견을 지닌 인사관리 기술을 통제할 방식과 구직자를 위해 편견을 지닌 소프트웨어를 상대로 승리하는 데 도움이 될 실용적인 요령을 제시한 쉘만 기자와의 인터뷰 내용을 전달한다. 인터뷰 내용은 분량과 명확성을 고려하여 편집했다.

케이틀린 해링턴(Caitlin Harrington) 와이어드 기자: 지난 몇 년간 월스트리트저널, MIT 테크놀로지 리뷰, 가디언 등 복수 언론에 채용 현장에서의 AI 사용 실태 관련 기사를 보도했다. 『알고리즘(The Algorithm)』을 출판하면서 생각한 핵심은 무엇인가?
힐케 쉘만:
2018년, 인사관리 기술 컨퍼런스 현장 한 곳을 직접 방문하여 채용 시장에 진출한 AI 툴을 접한 적이 있다. 컨퍼런스 현장에는 참석자 1만여 명과 공급사 수백 곳, 수많은 구매자와 대기업 관계자가 참석했다. 인사관리 기술 시장이 거대한 시장이라고 느꼈으며, 조만간 AI 기반 소프트웨어가 인사관리 부문을 장악할 것으로 생각했다.

소프트웨어 기업은 종종 자사 제품을 채용 시 인간의 선입견을 제거할 방안으로 홍보한다. 물론, AI는 훈련 시 소화한 훈련 데이터의 편견을 흡수하고는 재차 생성할 수도 있다. 이력서 검토 소프트웨어가 ‘아프리카계 미국인’이라는 구문을 감지한 뒤 해당 이력서를 제출한 입사 지원자의 점수를 차감한 사례를 직접 발견했다고 밝히지 않았는가?
많은 기업이 입사 지원자 평가 목적으로 사용하는 소프트웨어에는 선입견이 없는 것을 바란다. 하지만 소프트웨어 사용 전 기업 차원에서 단 한 번이라고 직접 테스트한 적이 있을까? 기업 관계자가 아닌 외부인 중 입사 지원자 평가 AI 툴을 자세히 조사한 이가 있을까? 어느 한 기업은 자사의 채용 AI 훈련 데이터로 18~25세 대학생 혹은 졸업 예정자의 이력서를 훈련 데이터로 사용한 사실을 명시한 매뉴얼을 보유했다. 해당 기업은 입사 지원자 평가 AI 툴을 사용한 다른 근무자에게는 적용되지 않는 18~25세 입사 지원자로 채용 대상을 특정한 사실을 발견했을 수도 있다.

입사 지원자 평가 AI 툴이 인간 채용 관리자의 역할에도 큰 피해를 줄 수 있으며, 이를 예방하려 노력해야 한다는 사실을 분명히 알 수 있다. 그러나 근로자 수십만 명을 평가할 목적으로 이용하는 알고리즘은 결함이 있을 때 인간이 직접 평가할 때보다 훨씬 더 많은 이들에게 피해를 줄 수 있다.

이제 공급사는 많은 이들이 입사 지원자 혹은 근로자 평가 AI 툴의 문제를 담은 증거를 살펴보는 것을 원하지 않는다는 사실이 분명하다. 그러나 개인적으로 사측에서도 합리적인 거부 사유가 있다는 점에서 AI 툴의 문제를 살펴보는 것을 피한다고 생각한다. 만약, 입사 지원자나 근로자 평가 AI 툴의 문제를 발견한다면, 수많은 입사 지원자가 문제를 주장할 수도 있다. 바로 입사 지원자 평가 혹은 근로자 평가 AI 툴의 투명성 강화와 검증 의무화가 필요한 이유이다.
 
[사진=Freepik]
[사진=Freepik]

그렇다. 고용법 위반 소지가 있다. 입사 지원자 평가 AI 소프트웨어 공급사가 선입견을 지닌 감사를 시행하더라도 보통 장애인 차별은 포함하지 않는다. AI의 차별 행위 발생 시 책임이 발생하는 순간을 명확히 이야기할 수 있는가?
확실한 답이 정해지지 않은 문제이다. 법적 책임이 발생한 사례가 없기 때문이다. 많은 변호사가 결과적으로 채용 기업이 책임을 져야 한다고 주장한다. 기업에서 채용을 결정하기 때문이다. 입사 지원자 평가 AI 툴 개발사는 십중팔구 “AI 툴이 직접 결정하지 않는다. AI 툴 사용 기업이 결정한다. AI는 그 누구도 거부하지 않는다”라는 주장을 펼칠 것이다.

일부 사례에서는 사실일 수도 있다. 하지만 입사 지원자 평가 AI 툴 공급사 중 일부 기업이 자동화 거부를 사용하여 특정 점수 이하로 평가받은 입사 지원자가 탈락하는 사례를 직접 발견한 적이 있다. 또, 입사 지원자 평가 AI 툴 공급사와 해당 AI 툴을 사용하는 학군 간 AI 기반 평가 점수가 33점 미만인 입사 지원자의 지원을 거부하도록 하는 내용의 메일이 오간 사례도 있다.

개인적으로 모든 기업이 입사 지원자 평가 툴로 가장 적합한 인재를 찾고자 한다고 생각한다. 그러나 실제 AI 툴을 사용하는 기업이 원하는 결과를 생성한다는 증거가 많지 않다. 노동비를 절감하는 기업이 많다. 종종 많은 기업이 인건비 절감을 유일하게 원한다고 생각한다.

무지한 생각일 수도 있으나 AI를 맹신할 수 없으며, 인간의 개입이 필요한 때가 많다는 사실을 갈수록 많은 이들이 인지한다고 생각한다. 하지만 많은 기업이 이를 인식한다면, 자동화 인사관리 소프트웨어의 시간 절약이라는 핵심 효과가 사라질 수도 있을 것이다.
상당수 공급사가 딥뉴럴 네트워크를 사용하여 AI 소프트웨어를 개발한다. 따라서 공급사도 입사 지원자 평가 AI 툴의 예측 기반이 되는 사항을 정확히 알지 못한다. AI의 입사 지원 차별 소송에서 판사가 특정 입사 지원자를 거부한 이유를 묻는다면, 상당수 기업이 답을 할 수 없을 것이다. 바로 위험성이 높은 의사결정의 문제점이다. 입사 지원자 평가 AI 툴 사실 검증이 가능해야 한다.

재직 중인 직원 정보를 바탕으로 알고리즘을 훈련하여 과거 채용 결정 사항에 편견이 내재한다면, 편견이 영원히 발생하는 방법이 된다고 생각할 수도 있다.
실제로 일부 기업 내부 고발자가 재직자 정보로 훈련한 입사 지원자 평가 AI 툴이 특정 지원자를 차별한 사실을 폭로한 사례가 있다. 어느 한 기업은 전, 현 직원의 이력서를 이용하여 이력서 검토 소프트웨어를 훈련했다. 이후 해당 소프트웨어는 제출된 이력서의 통계 패턴을 분석하고는 ‘야구’, ‘농구’라는 단어가 포함된 이력서를 제출한 입사 지원자를 선택하고는 추가 점수를 부여했다. 반대로 ‘소프트볼’이라는 단어를 사용한 이력서 제출자는 평가 시 감점됐다. 미국에서는 ‘야구’라는 표현을 작성한 이력서는 보통 남성이, ‘소프트볼’이라는 표현을 작성한 이력서는 보통 여성이 제출한 이력서임이 분명한 사실로 밝혀졌다.

채용 시 AI를 사용하는 행위를 인지했으나 해고나 승진 결정 목적으로 재직자를 평가할 때도 AI를 사용하기 시작한 사례는 비교적 자세히 인지하지 못했다. 재직자 평가 시 AI 사용과 관련하여 우려하는 사항이 있는가?
직원이 사무실을 나가는 시간 측정부터 생산성이 가장 높은 직원을 파악할 때까지 핵심 태그 데이터를 이용한 기업이 실제로 존재한다. 사무실에 앉아있는 시간이 실제 생산성을 드러내지 않는다는 점에서 결함이 있는 평가 방식임을 분명히 알 수 있다. 그러나 기업은 승진 대상자를 평가할 때도 같은 데이터를 보았으며, 코로나 시기에 정리 해고 대상자를 평가할 때도 해당 데이터를 기준으로 업무 성공률이 낮은 직원을 판단했다. 데이터를 사용할 수 있다면, 많은 기업이 데이터를 활용하고자 하는 욕구를 느끼게 된다고 생각한다.

앞서 게임 기반 개인 평가와 표정 분석, 관상 및 골상학 등 고대 유사 과학을 이용하는 사례도 언급했다. 이와 관련하여 특별히 염두하는 바가 있는가?
데이팅 앱에서 알고리즘과 사진을 이용해 동성애자나 이성애자라고 정체성을 밝힌 인간의 본질을 밝히고자 한 게이더(Gaydar) 연구 발표 시점에서부터 시작한다고 생각한다. 지금도 외부로 드러나는 신호와 표정, 신체 움직임, 어조 등이 개인의 본질을 포함한다는 믿음이 깊이 존재한다. 19세기, 범죄자와 전과가 없는 일반 시민의 얼굴이 다르다는 주장이나 필체 분석 등과 같이 과거부터 존재한 믿음이다. 실제로 과학을 바탕으로 한 믿음은 아니지만, 많은 이들이 혹하기 쉬운 주장이다. 이제 표정 등 기타 외부 신호를 수치로 책정할 기술이 존재하지만, 일부 기업이 실제 의미와 다른 의미로 생각한다는 문제가 있다.

컴퓨터가 인간의 미소를 점수로 평가할 수는 있어도 기본적으로 미소 짓는 인간이 행복한지 알지는 못한다. 따라서 본질을 드러내지는 못한다. AI 소셜 미디어 분석 툴에서도 발견할 수 있는 문제이다. 누군가의 트위터 계정을 보고 실제 개인의 특성을 찾아낼 수 있다는 생각과 같은 문제이다.

구직자가 채용 과정에서 사용하는 소프트웨어가 합격자를 임의로 선택할 가능성이 있다고 판단하면서 개인의 통제 범위에 해당하지 않는 미래를 결정한다고 느끼기 충분하다. 구직자가 AI의 평가 문제에서 어느 정도 스스로 통제력을 되찾기 위해 할 수 있는 일이 있을까?
실제로 생성형 AI는 입사 지원자에게 어느 정도 다시 권한을 다시 부여했다. SNS에서 챗GPT를 활용하여 더 나은 이력서와 자기소개서를 작성하는 방식을 이야기하는 누리꾼을 여럿 발견했다. 일부 입사 지원자는 스스로 면접 질문에 답변할 내용을 훈련할 의도로 생성형 AI를 사용하기도 한다. AI와 AI의 다툼이라고 볼 수 있다.

채용 공고와 이력서를 게재하고는 컴퓨터로 입사 지원자의 이력서와 채용 조건 간 중복 수준을 정량화하는 온라인 이력서 검토 툴도 있다. 구인 공고의 핵심 단어를 100% 똑같이 사용하는 것은 원하지 않을 것이다. 핵심 단어를 100% 똑같이 사용한 이력서는 구인 공고를 복사한 이력서로 분류될 수 있기 때문이다. 60~80% 일치하는 핵심 단어를 이력서에 포함하고자 할 것이다. “돋보여야 할 필요가 있다”라는 오랜 관용어가 이제는 통하지 않는다. 대부분 생각하는 것보다 오류가 더 많은 AI가 이력서를 검토할 확률 때문이다. 한 가지 기준을 두고, ‘근무 경력’, ‘역량’과 같은 항목을 분명하게 분류하여 컴퓨터가 읽을 수 있도록 이력서를 작성하는 것이 좋다.

AI가 이력서를 검토해도 주목받는 데 도움이 될 만한 또 다른 방법은 이력서 제출 후 링크드인에서 채용 담당자에게 연락하는 것이다. 채용 담당자 여러 명과 대화를 한 뒤 입사 지원자는 기업 웹사이트를 통해 직접 이력서를 전송하는 방안을 고려할 수 있다는 사실을 인지했다. 바로 입사 담당자가 먼저 이력서를 확인하는 곳이기 때문이다. 입사 지원자는 기업 웹사이트를 먼저 확인한 뒤 링크드인이나 인디드와 같은 구인구직 플랫폼에 접속한다.

유용한 정보이다. 다시 입사 지원 시 AI를 상대로 어느 정도 권한을 되찾았다고 느낀다.
AI가 특정 입사 지원자를 차별하면서 잃은 통제 권한을 되찾을 수 있다고 생각한다. 비영리단체가 AI 채용 툴을 평가하고, 평가 공개를 공개하는 단계부터 시작할 필요가 있다고 생각한다. 실제로 AI 채용 툴의 문제에 맞서 싸우도록 비영리 단체에 어느 정도 기부금을 보내고 있다. 여러 대학이 기술과 사회의 급속도 변화 추세를 이해하고 있다. 따라서 사회 문제를 다루는 이들과 기술적 문제를 다루는 이들이 협력해야 한다고 생각한다. 그러나 기자는 현장에서 여러 인물의 목소리를 들을 수 있다는 점에서 기자가 할 수 있는 특별한 역할도 있다고 본다. 데이터 언론을 사용하여 채용 과정에서 발생하는 AI의 차별 문제라는 포괄적인 질문의 권위 있는 답을 찾도록 도움을 줄 수 있을 것이다.

입사 지원자 평가 AI 툴 사용 규제 시 정부는 어떤 역할을 해야 한다고 생각하는가?
일각에서는 위험성이 높은 결정을 내릴 의도로 AI를 사용할 때는 예측 툴을 테스트하는 정부 차원의 라이선스 기관이 필요하다고 주장한다. 각국 정부가 AI 툴의 위험성 평가 전담 기관을 운영할 역량이 있다는 점을 확신할 수 있다. 정부 차원의 AI 툴 문제 평가는 시행하기에는 매우 큰 문제이기 때문이다. 정부가 AI 툴의 투명성 강화와 데이터 접근성 공개를 강행하는 규정을 적용하여 연구원과 과학자, 기자 모두 AI 툴을 분석하고는 직접 테스트하도록 지원하기를 바란다. 이는 AI 문제를 다룰 중대한 첫 번째 도약 단계가 될 것이다.

** 위 기사는 와이어드US(WIRED.com)에 게재된 것을 와이어드코리아(WIRED.kr)가 번역한 것입니다. (번역 : 고다솔 에디터)

<기사원문>
AI May Not Steal Your Job, but It Could Stop You Getting Hired
이 기사를 공유합니다
RECOMMENDED