본문 바로가기
💕 Small Steps, Bright Future

AI가 해고한걸요? 도덕적 외주, 책임 공백 & AI 빅브라더 윤리 문제

by Eager_Beaver_PhD 2024. 11. 29.

사람이 만든 AI가 거꾸로 사람을 평가해 선발, 승진, 해고를 결정하는 시대다. AI 평가 시대 사회적 윤리적 문제는 없을까? 편향성, 공정성, 투명성, 도덕적 외주 moral outsourcing, 책임 공백 responsibility  gap , 빅브라더 AI 로 인한 심리적 문제까지 살펴보자. 

 

 

AI가 해고한걸요? AI 평가시대, 커지는 윤리문제

 

 

'인공지능이 눈엣가시 같은 직원을 자르라고 했다. 오예...!?'

 



AI가 사람을 평가하는 시대가 도래했다. AI가 사람 전문가보다 직원의 선발, 승진, 해고 결정에 효과적이고 효율적이라는 연구가 속속 발표되고 있다. 필자가 진행하고 있는 연구에서도 AI가 평가한 면접 점수가 수간호사나 인사팀이 평가한 점수보다 간호사들의 대인관계를 비롯한 성과를 훨씬 잘 예측했다. 대한민국은 AI 면접을 전 세계에서 가장 많이 도입하고 있는 국가이기도 하다. 그런데 인간이 만든 도구인 AI가 거꾸로 인간을 평가하는 현 상황에 문제는 없을까?

 

 

 

AI 해고 결정 사례



먼저, 유명한 편향성 불투명성 문제가 있다. 대표적인 사례로 아마존과 에스티로더로 유명한 MAC Cosmetics가 AI를 통해 채용을 진행했다가 '여성' 지원자들이 차별받았다는 문제가 드러나 곤욕을 치렀다. 의사결정 과정을 알기 어려운 AI의 블랙박스적인 특성 때문에 투명성과 공정성 의문도 제기된다.

"AI가 결정했는걸요?" 도덕적 외주 논란도 심각하다. AI 연구자인 누만 초드허리(Rumman Chowdhury)는 사람들이 도덕적 책임을 AI에 떠넘기는 '도덕적 외주(Moral Outsourcing)' 문제를 제기했다. 직원 해고처럼 어려운 도덕적 결정을 AI에 전가하는 것이다. "Oh Yeah?" 직원을 자르는데 오예라니. 하지만 한편으로는 이해가 되지 않는가? 누구라도 (아무리 밉상이라도) 오래 함께한 동료 직원을 해고하는 결정을 직접 내리는 것은 부담이 클 것이다. 이리 부담스러운 결정을 AI가 해 준다면 땡큐일 수 밖에. 최악의 상황은 관리자가 이윤극대화를 위해 직원을 더욱 쉽게 해고하게 되고 사람과 사람 사이의 도리가 실종되는 것이다.

이는 아무도 책임지지 않는 '책임의 공백(Responsibility Gap)' 문제로 이어진다. 알고리즘의 오류나 편향성으로 인해 무고한 직원이 해고되었을 때, AI를 개발한 엔지니어, 제품을 판매한 회사, 이를 도입한 관리자 중 누구를 비난해야 할까? 이런 상황에서 AI가 인간의 도덕적 실패를 덮어주는 '희생양(scapegoating)'으로 활용될 가능성 또한 심각하게 대두되고 있다.

끝으로, 소위 감시자 혹은 빅브라더 AI 시대의 심리적 문제다. 24시간 풀가동 가능한 AI의 감시를 받게 될 직원들이 느낄 심리적 스트레스는 상상을 초월한다. 아마존은 AI로 물류센터 직원들이 상품을 포장하고 스캔하는 시간을 모니터링했다. 비슷하게 아마존 배달원들의 주행 기록, 스마트폰 사용 시간, 요청 시간 준수 등 일거수일투족도 감시했다. 품질과 생산성이 떨어지는 직원에게는 AI가 경고를 보내거나 해고까지 진행했다. 구글과 메타도 AI를 사용해 해고할 직원을 결정했다고 의심받고 있다. 실시간으로 주행 기록을 파악하는 우버와 카카오택시, AI 배차 관리 시스템을 도입한 배달 앱 쿠팡이츠, 요기요, 배달의민족 등도 그러지 않으리란 보장이 없다.

유럽연합의 알고리즘 투명성 규정에서는 "AI 기술이 사람들에게 중대한 영향을 미치는 결정을 단독으로 내리는 것을 금지"하고 있다. 그러나 AI에 책임을 전가한 기업들은 "기업 보안"이라는 명목으로 정보를 철저히 숨기며 과실을 회피하려 한다. 이는 결국 결정권자로서 인간의 주체성을 포기하는 일 아닐까?

AI는 도구일 뿐이며, 그 도구를 어떻게 개발하고 활용할지는 전적으로 우리에게 달려 있다. 무조건 수용하기보다, 윤리적이고 책임감 있게 접근해야 한다. AI 개발자부터 실무에 적용하는 관리자, 그리고 우리 모두가 함께 AI 기술을 어디까지 허용할지, 어디서 멈출 것인지 고민해야 한다. 주객이 전도되지 않도록, AI를 넘어서는 집단지성의 발현이 절실하다.

 

 

해당 글은 카이스트 신문 540호에 개재될 예정입니다. 출처들은 댓글에 달아두었습니다.

 

 

AI 시대의 Privacy Paradox: 편리함이 위협하는 개인정보 보호

 

AI 시대의 Privacy Paradox: 편리함이 위협하는 개인정보 보호

우리의 일상을 편리하게 바꾸고 있는 AI 뒤에 숨겨진 Privacy Paradox (개인정보 보호 역설, 프라이버시 패러독스) 알고 계셨나요? 편리함을 위해 제공한 개인정보가 나의 안전을 위협하는 심각한 개

beautifulresearch.tistory.com

 

 

인공지능 AI 의료의 부상이 불러올 문제점과 의사 미래 전망

 

인공지능 AI 의료의 부상이 불러올 문제점과 의사 미래 전망

"인공지능 AI 의료의 부상!" 최신 인공지능 AI 모델은 진단 정확도가 계속 높아져 의료에 혁신을 가져오고 있습니다. 하지만, 인간 의사와 경쟁하게 되어 미래 의사들의 직업 전망을 어둡게 만들

beautifulresearch.tistory.com

 

 

[AI 인공지능 윤리 논쟁] 챗GPT, 안전으로 포장된 인간소외와 노동 착취

 

[AI 인공지능 윤리 논쟁] 챗GPT, 안전으로 포장된 인간소외와 노동 착취

2021년, 케냐의 데이터 노동자들은 하루 9시간 동안 최저임금을 받고 잔인하고 끔찍한 이미지와 텍스트를 하나하나 검토했습니다 (데이터 라벨링). 혐오스러운 콘텐츠가 걸러진 챗GPT 뒤에 가려진

beautifulresearch.tistory.com

 

 

 

셰임 머신, 수치심을 먹고 자라는 다이어트 업체의 진실

 

셰임 머신, 수치심을 먹고 자라는 다이어트 업체의 진실

캐시 오닐의 셰임 머신, 1장을 읽다 자료와 정보를 모아 생각을 정리했다. 수치심을 유발하고 다이어트 실패를 먹고 커가는 다이어트 업체의 진실을 파헤쳐 본다.  셰임 머신: 다이어트 산업의

beautifulresearch.tistory.com

 

반응형

구독

난 꿈이 크거든, 아름다운 세상을 만들거야! 후원하기 및 이메일 구독하기

안녕하세요, Eager Beaver PhD입니다! 저는 열심히 연구에 매진하고 있는 대학원생 입니다. 글이 도움이 되셨다면 저의 정성을 보아주시고 1분 투자로 커피 한잔 후원을 보내주시면 정말 큰 힘이 됩니다 :) 후원을 해주신 분들 댓글 남겨주시면, ChatGPT 유용한 프롬프트 파일을 전송드립니다. 모바일의 경우 카카오페이로도 가능합니다. 또한 이메일을 입력해 주시면 유용한 글과 정보들을 메일로 안내드리겠습니다. 많아야 1~2달에 한 번꼴로 뉴스레터가 전송될 예정이기에 부담 없이 신청하세요!

Buy Me A Coffee

 

모바일 카카오페이로 후원하기 [클릭]

 

개인정보 수집 및 이용

뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 이용합니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며, 서비스가 종료되거나 구독을 해지할 경우 즉시 파기됩니다.

광고성 정보 수신

제휴 콘텐츠, 프로모션, 이벤트 정보 등의 광고성 정보를 수신합니다.

댓글