“인공 지능 개발 과정에서 투명성이 확보되어야한다”– Sciencetimes

최근 국내 ‘이루다 챗봇 위기’로 촉발 된 인공 지능 윤리 문제가 사회적 갈등으로 확대되고있다. 이것은 인공 지능 기술이 발전함에 따라 AI가 우리 사회에 미치는 영향이 증가하고 있다는 증거입니다.

AI 사용의 편리함 뒤에는 불확실성, 복잡성 및 의도하지 않은 불편이 있습니다. 잘 사용하면 인간에게 가장 편리한 도구가 될 수 있지만 잘못 사용하면 디스토피아 적 미래로 이어질 수있는 위험한 존재라는 뜻입니다. 따라서 미래 인간과 인간 사회를 이해하고 동화하는 윤리적 AI를 구축하고이를 관리 할 수있는 방법을 마련하는 것이 중요합니다.

이에 정보 통신 정책 연구원은 2 일 서울 서초구 양재동 더 케이 호텔에서 ‘인간 중심 인공 지능 (AI) 구현을위한 정책 세미나’를 개최하여 해결책을 모색했다. 이를 관리하고 균형점을 찾기위한 제도적 계획을 검색합니다. 했다.

2 일 서울 서초구 양재동 더 케이 호텔에서 ‘인간 중심 인공 지능 (AI) 정책 세미나’가 열렸다. Ⓒ 정보 통신 정책 연구소

인공 지능이 인간의 증오를 배우고 모든 것을 아이처럼 모방하는 이유

더 나은 사회와 더 편리한 삶을 위해 인공 지능이 개발되었습니다. 포브스는 2019 년 ‘4 차 산업 혁명으로 상징되는 사회 패러다임 전환 과정에서 가장 영향력 있고 대중적으로 기대되는 첨단 ICT 기술’로 AI를 선정했습니다. 또한 향후 10 년 동안 인공 지능의 사회적 혜택이 사회적 위협보다 큽니다.

그러나 최근 AI 기술에서는 데이터 편향, 알고리즘 차별화, 기술 오용, 개인 정보 침해, AI 윤리 문제 등의 문제가 계속해서 나타나고 있습니다. 특히 최근 성과 챗봇에서 발생한 AI의 윤리적 문제는 서비스에 대한 불확실성, 인공 지능의 잠재적 인 위험성, 증오 문제로 확대되어 결국 모든 AI 제품 및 서비스의 신뢰성 저하로 이어질 수 있습니다.

AI 기술의 사용 편의성 뒤에는 불확실성, 복잡성 및 의도하지 않은 불편 함이 숨겨져 있습니다. Ⓒ 게티 이미지 뱅크

국내 스타트 업 스캐 터랩이 개발해 지난해 12 월 서비스를 시작한 AI 챗봇은 장애, 성 소수자, 인종, 성 편견 등 증오와 차별 문제를 드러냈다. 성희롱 문제에 대한 대응 방식도 문제였습니다. 회사의 개인 정보 무단 수집 및 사용에 대한 의혹도 있습니다.

이루다는 20 대 여성으로 시작한 인공 지능 챗봇 서비스 다. Iruda는 Microsoft가 2016 년에 만든 AI’Tay와 비슷합니다. ‘Tei’는 미국 18 ~ 24 세 청소년을 대상으로하는 챗봇 서비스이며, Tei는 미국에서 여성의 얼굴로 서비스를 시작했습니다. 그녀의 20 대. Tay 서비스는 하루도 안되어 중단되었습니다. 테이의 윤리 의식이 문제였습니다. 그러나 이것은 사용자에게 큰 문제였습니다. 인간의 대화를 통해 학습하는 기계 학습 방법을 남용한 사람들이 Tay가 학습에 증오와 차별적 인 언어를 주입하도록 강요했기 때문입니다.

AI 이루다 챗봇은 장애인, LGBTQ, 인종 등 증오와 차별 문제를 드러냈다. Ⓒ 정보 통신 정책 연구소

일체 포함 교육 현실의 문제, 학교에서 AI 학습을 바꿔야합니다

변 순용 서울 교육 대학교 교수는“이번 사건의 결과는 5 년 전 MS 테이 사건과 동일하다. 5 년이 지났는데 왜 같은 일이 반복 되었습니까?”

변 교수는 “반복 학습 결과를 자신의 데이터로 만드는 머신 러닝의 사각 지대를 파헤 치고있는 사용자의 잘못된 윤리와 개발자의 윤리 문제가 동시에 나타나는 사례”라고 덧붙였다.

AI 개발을위한 10 가지 핵심 요구 사항. Ⓒ 정보 통신 정책 연구소

KAIST 이수영 교수는 사용자의 윤리 의식의 중요성을 강조했다. 이 교수는“AI는 사실 어린 아이 같다. 그는 어린 아이처럼 모든 인간을 배우고 모방합니다. 현재 우리가 AI에 요구하는 공정성과 투명성은 모든 사람이 인간에게 요구하는 윤리입니다.”

그는“미래에는 자동차 면허증과 같은 인공 지능을 사용하더라도 면허가 필요할 수있다”고 말했다. 이는 인공 지능의 윤리적 문제는 사용자의 윤리 의식이 옳아야만 제대로 해결 될 수 있음을 의미합니다.

이날 전문가들은 초 · 중 · 고 학습 과정에서 AI 윤리 교육 등 법체계 강화, 알고리즘 공정성 강화, 기업 AI 개발 윤리 기준 강화 등의 방안을 제시했다.

첫째, 학교 교육은 인공 지능을 다룰 수있는 기술적 수준과 철학적 측면에서 인공 지능 윤리 교육을 다루어야한다. 현재 한국 학교의 AI 교육은 기술 교육을 중심으로 이루어지고 있습니다. 반면 호주, 미국, 핀란드와 같은 국가에서는 기술 교육보다 AI의 사회적 영향, 철학 및 상호 작용에 대해 더 많이 가르칩니다.

서울 교대 변 순용 교수는“이제부터는 우리가 AI를 사회적, 윤리적으로 올바르게 사용할 수 있도록 AI 전문가 양성과 AI 윤리 교육을 목적으로 전문 기술을 습득하는 과정도 가르쳐야한다. . “

AI의 기계 학습은 인간의 모든 것을 학습합니다. 이것이 AI 윤리에 대해 이야기하기 전에 인간 윤리를 수정해야하는 이유입니다. Ⓒ 게티 이미지 뱅크

기업의 윤리 기준을 정립하는 것도 시급하다. US Microsoft (MS)는 시스템의 목적, 예상되는 배포 상황, 손상 유형, 예상되는 이점 및 잠재적 위험 간의 균형을 고려하는 등 다양한 방식으로 AI에서 발생할 문제를 교차 점검합니다. AI 공정성 검사 항목으로. 확인 중입니다.

미국 카네기 멜론 대학교 소프트웨어 공학 연구소는 AI를 설계하기 전에 AI 시스템의 목적, 한계, 편향을 알기 쉽게 설명하고 알고리즘과 모델을 검증 할 수 있도록하여 투명성을 확보하고자 노력하고있다. 익숙한.

이현규 IT 데이터 PM은“향후 기업이 인공 지능을 개발할 때 사람들이 AI 판단의 근거를 이해할 수 있도록 투명성을 확보하는 동시에 편견이나 비준수 여부를 AI 의사 결정 과정에서 확립 된 규칙으로. 그는 “AI의 오류를 보상하기 위해 AI를 진단 할 수있는 기술을 개발해야한다”며 개발 방향을 제시했다.

(287)

Source