본문 바로가기
💕 Small Steps, Bright Future

[AI 인공지능 윤리 논쟁] 챗GPT, 안전으로 포장된 인간소외와 노동 착취

by Eager_Beaver_PhD 2024. 9. 20.

2021년, 케냐의 데이터 노동자들은 하루 9시간 동안 최저임금을 받고 잔인하고 끔찍한 이미지와 텍스트를 하나하나 검토했습니다 (데이터 라벨링). 혐오스러운 콘텐츠가 걸러진 챗GPT 뒤에 가려진 인간소외와 인공지능 (AI) 윤리 논쟁. 챗GPT의 문제점을 고발하며 해결책을 모색해보려 합니다. 
 

[AI 인공지능 윤리 논쟁] 챗GPT, ‘안전’으로 포장된 인간소외와 노동 착취 — OpenAI 챗GPT 문제점 고발

 

여러분이 매일매일 사용하는 서비스에 윤리적인 문제가 있다면,
구독을 끊으실 건가요?

 
 

인공지능의 숨겨진 이면, 가장 핫한 신기술 "챗GPT (ChatGPT)"의 어두운 진실을 파해쳐봅니다.

 
영작문과 코딩에 쩔쩔매던 저에게 챗GPT는 사막의 샘물이었습니다. 챗GPT는 연구 아이디어와 실험 설계를 도와주고, 실시간 영어 회화는 물론, 아플 땐 의학 논문마저 찾아 주는 "특급 비서"입니다. 모두가 생성형 인공지능(AI)의 유용성에 감탄할 때, 제가 참여하는 청년 모임의 기술 윤리 세션에선 챗GPT의 놀라운 발전 뒤에 가려진 인간소외에 주목했습니다.

"폭력, 자해, 살인, 강간, 시체 성애, 인신매매, 아동 학대, 수간, 근친상간"

2021년, 케냐의 데이터 노동자들은 하루 9시간 동안 시급 1.3~3.5달러를 받으며 잔인하고 끔찍한 이미지와 텍스트를 하나하나 검토했습니다. 챗GPT 사용자가 혐오스러운 콘텐츠에 노출되지 않게 하기 위해, 저임금 노동자들의 인권이 유린된 것이죠. 타임지 인터뷰에서 노동자들은 유해한 콘텐츠에 대한 안내를 충분히 받지 못했고, 적절한 심리적 지원도 없어 환각, 트라우마, 우울증에 시달리는 "고문"을 받았다고 토로했습니다.

OpenAI로부터 라벨링 작업을 위탁받은 기업 사마(Sama)는 여전히 스스로를 "사회적 책임을 다하는 윤리적 데이터 라벨링"기업이라 소개합니다. OpenAI는 이 논란에 대해 "해당 문제는 사마의 책임이며 우리는 1:1 상담과 웰니스 프로그램이 잘 제공되고 있다고 들었다"라며 발을 뺐고, 윤리적인 인공지능 AI 개발이 중요하다고 거듭 강조했습니다. 

 

그러나 이미 저렴한 비용으로 데이터 라벨링을 끝낸 OpenAI이기에, 경쟁사들이 같은 방법으로 기술을 습득하는 것을 막기 위한 "사다리 걷어차기" 전략이 아닌가 하는 의심도 듭니다.

 

챗GPT의 문제점
ChatGPT가 생성한 기사에 어울리는 이미지

 
 
 

"안전한" 서비스를 제공하기 위해 역설적이게도 "참혹한" 노동을 강요한 챗GPT. 우리는 어떻게 인권 경영을 촉진하고 인공지능 기술 윤리를 추구할 수 있을까요?


먼저, 기업은 데이터 노동자들의 인권을 보장해야 합니다. 노동 강도에 걸맞은 충분한 보상과 의료 상담·지원은 필수입니다. 반면, 국가는 이를 위반한 기술을 규제하고, 규제를 위반한 기업의 훈련된 데이터 셋을 공개하도록 의무화할 수 있습니다. 네이버가 AI 윤리를 위해 (위험하고 민감한 질문을 모은) 데이터 셋을 솔선수범 공개한 사례가 좋은 예입니다.

인간의 피드백 없이도 혐오 콘텐츠를 필터링할 수 있는 기술 개발도 필요합니다. AI를 연구하는 동료들에게 물어보니, '데이터 라벨링 자동화' 등 다양한 해결책이 논의되고 있지만, 여전히 인간의 피드백은 필수라고 합니다. AI 모델을 인간의 가치와 윤리 기준에 맞게 조율하는 것이 상당히 어렵기 때문입니다. AI 연구자분들이 혁신을 통해 기술 윤리를 실현해 주시길 기대해 봅니다.

마지막으로 소비자 여러분께 묻습니다. "그럼에도 계속 사용하시겠습니까?"  

 

나이키와 아디다스가 제3세계 아동들의 노동력 착취로 도마 위에 올랐을 때 생각 있는 소비자들은 불매운동과 함께 경쟁사 제품으로 눈을 돌렸습니다. 그러나 (문제의 기업) 사마는 OpenAI뿐만 아니라 구글, 메타, 마이크로소프트에게도 용역을 받아 데이터를 제공했습니다. 구글의 Gemini, 메타의 LLaMA와 같은 경쟁사 인공지능 서비스들도 같은 윤리적 문제를 안고 있는 것이죠. 더 큰 문제는 많은 직장인이 이미 챗GPT의 독보적인 생산성과 기술력 늪에 빠져 버렸고, 대체 기술이 없다는 점입니다.


그렇다면, 불편한 마음을 안고 계속 챗GPT를 사용하는 것이 최선일까요? 이 글의 자료 검색과 교정마저 챗GPT의 도움을 받은 제 자신의 도덕적 이중성에 씁쓸함을 느낍니다. "대체 가능한 윤리적 AI 서비스가 등장하면 바로 넘어가겠다"라는 다짐을 이 글을 통해 선언하며, 최소한의 양심을 남기려 합니다.
 
 
인공지능 발전 뒤에 숨겨진 인간소외 윤리문제를 조명해 보았습니다. 이 글은 카이스트신문(times.kaist.ac.kr) 573호에 게재될 예정입니다. 참고한 출처들은 댓글에 달아두었습니다.

 

 

반응형

구독

난 꿈이 크거든, 아름다운 세상을 만들거야! 후원하기 및 이메일 구독하기

안녕하세요, Eager Beaver PhD입니다! 저는 열심히 연구에 매진하고 있는 대학원생 입니다. 글이 도움이 되셨다면 저의 정성을 보아주시고 1분 투자로 커피 한잔 후원을 보내주시면 정말 큰 힘이 됩니다 :) 후원을 해주신 분들 댓글 남겨주시면, ChatGPT 유용한 프롬프트 파일을 전송드립니다. 모바일의 경우 카카오페이로도 가능합니다. 또한 이메일을 입력해 주시면 유용한 글과 정보들을 메일로 안내드리겠습니다. 많아야 1~2달에 한 번꼴로 뉴스레터가 전송될 예정이기에 부담 없이 신청하세요!

Buy Me A Coffee

 

모바일 카카오페이로 후원하기 [클릭]

 

개인정보 수집 및 이용

뉴스레터 발송을 위한 최소한의 개인정보를 수집하고 이용합니다. 수집된 정보는 발송 외 다른 목적으로 이용되지 않으며, 서비스가 종료되거나 구독을 해지할 경우 즉시 파기됩니다.

광고성 정보 수신

제휴 콘텐츠, 프로모션, 이벤트 정보 등의 광고성 정보를 수신합니다.

댓글