[데스크칼럼] 인공 지능 챗봇 ‘Achieved’와 우리의 자화상

2016 년 논란이되었던 마이크로 소프트의 인공 지능 (AI) 챗봇 ‘테이’. 챗봇 테이는 인종 차별적 발언과 유대인 집단 학살을 조작하는 등의 욕설을 쏟아 내면서 문제가되었습니다. 결국 출시 16 시간 만에 종료되었습니다. Tay에서 인종 차별, 성 차별과 같은 부적절한 메시지를 사용자가 알게 되었기 때문입니다.

그리고 2021 년 AI 챗봇 ‘어치 브’를 둘러싼 성희롱, 동성애 차별, 소수자 증오 등 문제가 발생하면서 논란이 커지고있다. ‘어치 브먼트’는 지난달 23 일 페이스 북 메신저 기반 스타트 업 스캐 터랩이 런칭 한 AI 챗봇이다. 자연스러운 대화 능력으로 사용자 수가 40 만명을 돌파 해 큰 주목을 받았다. 그러나 악의적 인 사용자의 성적인 도구로 고통을 겪은 후 그는 동성애, 장애, 여성 혐오에 대해 언급했습니다.

문제가 커지 자 개발자 인 Scatter Lab은 마침내 중단을 발표했습니다. 스캐 터랩은 “서비스 개선 기간을 거쳐 다시 뵙도록하여 단점을 집중적으로 보완 할 것”이라고 말했다.

이번에 중단하기로 한 결정은 자연스럽고 잘 수행되었습니다. 미래에는 Scatter Labs뿐만 아니라 다른 AI 기업들도 AI가 배운 빅 데이터를 신뢰할 수 있고 편향되지 않도록 세 심하게 개발해야 할 것입니다.

하지만 AI 챗봇 문제는 완전히 해결할 수 있을까요? 쉽지 않을 것입니다. 기본적으로 AI는 수많은 인간 메시지를 기반으로합니다. 그러나 인간은 이러한 편견에 빠집니다.

특히 SNS (소셜 네트워크 서비스)에는 악의적 인 사용자가 너무 많습니다. 따라서 AI 챗봇이 획득하는 데이터에는 불가피하게 문제가 있습니다.

인간의 정보를 통해 학습하고 인간을 모방하는 AI 챗봇이므로 개발자의 의도와 달리 AI는 최대한 불공평해질 수 있습니다. 인공 지능은 선입견으로 인해 불공정 한 결정을 내리지 않고 편견과 오명 효과에서 벗어날 수있을 것으로 예상되었지만 모방의 대상인 인간은 불완전하고 불공평하며 편견을 가지고 있습니다.

더 큰 문제는 코로나 19로 인해 차별과 분열이 확산되고 강화되고 있다는 점이다. 따라서 이러한 논란은 AI만의 문제가 아니라 신기술 개발로 증폭 된 현상으로 볼 수있다.

그렇다면 우리 사회, 우리 인간은 합의에 도달 할 준비가되어 있습니까? 불행히도 전혀 그렇게 보이지 않습니다. 한국은 다른 인종에 대해 심각한 차별을받는 나라입니다. 다양한 소수자 차별에 대한 인식을 측정하는 ‘세계 가치 조사’결과에 따르면 한국인의 약 30 %가 다른 인종과 함께 살고 싶어하지 않는다. 미국은 5 %에 ​​불과합니다.

종교적 편견은 어떻습니까? 이슬람에 대한 개신교의 편견 때문에 할랄 시장을 개방하기 위해 고군분투하는 중소기업 (SME)이 셀 수없이 많습니다. 또한 우리 사회의 많은 사람들이 이슬람을 테러와 전쟁과 같은 부정적인 이미지와 연결시키고 있습니다.

이것 뿐만이 아닙니다. 부산 시장과 서울 시장에서 알 수 있듯이 성희롱 (성폭력)은 여전히 ​​심각한 수준이다. 동성애 차별과 소수의 증오는 말할 것도 없습니다.

특히 최근에는 부동산 분류에 따른 차별이 나타나고있다. ‘우리집 준비’가 힘들어 집을 갖지 못해 집을 갖지 못해 ‘벼락 거지’, ‘호텔 거지'(호텔 전세에 사는 노숙자 정부) 그는 다른 삶을 살고 있기 때문입니다. 또한 사람들이 사는 곳은 1 학년, 2 학년, 3 학년으로 나누어 져 차별화된다. 사회 계급을 ‘노숙자’와 ‘노숙자’로 구분한다.

성희롱, 동성애 차별, 소수자 증오 등 AI 챗봇 ‘Achieved’발언이 우리 자화상일지도 모른다. 아니, 그것은 우리 자신입니다.

우리는이 논쟁을 단순히 인공 지능의 기술적 문제가 아니라 우리 자신을 되돌아 볼 기회로 삼아야합니다. 마지막으로, 공정하고 공정한 인공 지능을 만날 준비가되었는지 스스로에게 물어볼 때입니다. che @

Source