[사설] 챗봇 논란… AI 시대의 교사로서

증오심 발언 등 논란이되었던 인공 지능 (AI) 챗봇 ‘이루다’가 3 주 만에 드디어 서비스를 중단했다. 대화 중에 Iruda는 동성애자 나 장애인을 혐오했으며 사용자의 질문에 언론과 사회에 충격을받은 ‘성 노예’수준까지 대답했다. 한편, 주말 동안 이루다의 회원 수가 급격히 증가함에 따라 20 만 명 이상의 회원이 주목을 받았다.

성 차별 및 개인 정보 보호 논란
AI를 준비 할 때 마약이 아니라 독일 수 있습니다.

사실 AI 챗봇 문제가 제기 된 것은 이번이 처음이 아닙니다. 2016 년 미국 마이크로 소프트 (MS)는 챗봇 ‘테이’를 출시했지만 백인 우월주의, 여성 혐오 등의 문제로 서비스가 중단됐다. 2002 년에 처음 출시 된 한국 원작 챗봇 ‘심심이’는 유사한 윤리적 문제가 수시로 발생하면서 조금씩 진화 해 왔습니다. 현재는 한국보다 해외에서 더 많이 알려지고 있으며, 전 세계 누적 사용자 수는 4 억에 가깝다고합니다. 그럼에도 불구하고 해외가 아닌 국내 인공 지능 챗봇을 중심으로 증오, 성 차별 등 윤리적 이슈가 발생 해 논란이 갑작스럽게 드러났다. ‘AI 윤리 무감각’, ‘규제 사각 지대’등 비판의 목소리가 뜨겁다.

한국 사회가 이룩할 논쟁에는 두 가지 주요 문제가 있습니다. 첫 번째는 빅 데이터 사용 및 관리 문제입니다. 이르다 씨는 스타트 업 스캐 터랩이 다른 서비스를 통해 수억 건의 연인들 간의 카카오 톡 대화를 얻고이를 바탕으로 챗봇을 배웠다고 말했다. 사용자 동의도 받았기 때문에 합법적입니다. 그러나 대부분의 사용자는 대화 내용이 AI 챗봇 서비스의 자료가 될 것이라고 상상하지 못했을 것입니다. AI에서 빅 데이터는 로켓의 연료입니다. 좋은 AI를 만들기 위해서는 좋은 빅 데이터가 필요합니다. 전문가들은 ‘설명 가능하고 투명하며 보편적으로 관련된 빅 데이터를 사용해야한다’는 데 동의합니다. 당연히 빅 데이터 사용에 대한 구체적인 동의가 필요합니다.

둘째, 이미 많이 지적 된 윤리적 문제입니다. 미성년자도 사용할 수있는 챗봇에서 증오와 성희롱 대화가 넘쳐나는 것은 심각한 문제입니다. 개발자는 정교한 알고리즘을 구현해야하며 사용자는 상식적인 대화를하기위한 성숙한 태도도 필요합니다.

AI는 이미 우리 삶 깊숙이 침투하고 있습니다. AI가 장착 된 청소 로봇은 집안을 쓸고 닦는 일을 훌륭하게 수행하고 있습니다. 화자에 들어간 AI는 아직 서툴지 만 개인 비서 역할을 시작하고있다. 이러한 생명 형 AI 외에도 AI는 판사의 판단을 돕는 법정 AI, 의사의 진단을 돕는 의사 AI 등 다양한 전문 분야에서 이미 큰 발전을 이루고있다. 이러한 영역에서 AI의 말과 판단이 잘못된 경우 그 영향은 치명적일 수 있습니다. AI 시대의 성과 논란을 ‘백신’으로 삼고 다양한 ‘미래 영향’을 미리 검토하고 대비할 때다.


Source