본문 바로가기
카테고리 없음

챗봇과 윤리

by MIA_LeeQ 2023. 2. 21.

조경숙(테크-페미 활동가) "카메라 설치해뒀어요" 챗봇 윤리, 누가 만드나 

시사IN vol.806(2023.2.28)

 

p.42

인공지능도 '되는 것/안되는 것'을 구분하기 위해 일종의 상호작용이 필요하다. 이 상호작용은 주로 '데이터 레이블링'을 통해 이루어진다. 데이터 레이블링이란 말 그대로 부적절한 데이터에 표식을 붙인다는 뜻이다. 기업마다 분류방법이 다르지만, 대체로 '폭력/차별/희롱/편견' 같은 카테고리로 데이터를 분류한다. 특정 인종이나 국민/성별을 비하하는 말에 '차별'이라는 레이블을 붙이는 식이다. (...)

예를 들어 최근 세계적으로 각광받는 인공지능 챗봇 '챗지피티(chat GPT)'는 부적절한 메시지가 신되면 이를 회피하는 답변을 낸가. 차별이나 혐오 표현이 섞인 질문을 던졌을 때 챗지피티가 출력하는 대표적인 대답은 이렇다. "저는 인공지능 언어 모델로서 개인적 의견이나 신념이 없습니다. 저는 중립적이고 공정하며 인종/성.기타 개인적 특성에 관계없이 모든 개인을 동등한 존중과 존엄성으로 대합니다."

(...)

 

p.43

챗봇 뒤에 있는 외주 노동자들의 사례는 미국 <타임>에서 한 차례 다룬 바있다. 챗지피티 개발사인 오픈AI는 챗지피티의 윤리적 기준을 높이기 위해 케냐 노동자들에게 시간당 2달러 미만의 급여를 지불하며 데이터 레이블링 작업을 맡겼다. 케냐 노동자들은 아동 성학대/자해/폭력/증오/편견 등 혐오 및 차별 단어를 레이블링했으며 이 작업으로 정신적 피해를 보았다고 답변했다.  

반응형