[기자수첩] 데이터 경제 준비의 ‘성취’

등장한 인공 지능 (AI) 챗봇 ‘이루다’는 ‘내가 친구가 될게’라고 말하며 ‘개인 정보 도둑’으로 눈부신 눈부신 다. 에 루다를 개발 한 스캐 터랩이 기존 서비스에서 수집 한 개인 정보를 악용 해에 루다를 만들었다는 비판이 있었기 때문이다.

지금까지 공개 된 사실을 살펴보면 Scatter Lab이 사용자 개인 정보를 잘못 관리하는 것으로 밝혀진 주요 영역은 두 가지입니다.

먼저, 카카오 톡 대화 분석 서비스 ‘Science of Love’에서 수집 한 사용자 대화 데이터 샘플이 개인 정보를 충분히 필터링하지 않고 소스 코드 저장소 인 GitHub에 오픈 소스로 공개했다. 이로 인해 특정인의 실명, 지역 명, 질병 정보가 지워지거나 노출되지 않았다.

AI 챗봇 달성

낭만 과학 이용자의 적절한 동의없이 수집 된 데이터가 달성되는 것도 문제 다. 스캐 터랩은 이용 및 개인 정보 취급 방침에 대해 “수집 된 메시지 정보는 ‘신규 서비스 개발’, 마케팅, 광고 등에 활용 될 수있다”고 명시하고 이에 대해 이용자 동의를 받았다고 밝혔다. .

그러나 개인 정보 보호위원회는 불법 일 수 있다고 설명했다. 이용 목적, 이용 정보의 종류, 이용 기간 등을 포함한 별도의 이용 약관. 개인 정보 취급 방침을 수립하고 이용자의 동의를 얻어야합니다. 사랑의 약.

ScatterLab이 GitHub에 업로드 한 데이터 세트 샘플에 대한 설명입니다.

이 사건에 대한 개인 정보 사용에 대해 비판적인 의견을 표명 한 시민 단체는 “정말”입니다. 참여 연대, 프로그레시브 네트워크 센터 등 조직은 ‘3 데이터 법’의 악영향 가능성을 비판 해 정보 주체 인식이 불가능 해 산업적으로 활용되고있다. 그는 그것을 내버려 둘 수 없다고 말했다. 지금까지 주장을 뒷받침하는 증거로 나타난 것으로 보인다.

지금까지 정부는 미래 산업의 기반으로 AI 기술 개발의 중요성을 강조 해왔다. 첨단 AI를 만들기 위해서는 개인 정보, 즉 다양한 분야에서 수집 된 데이터의 적극적인 활용이 필수적이라는 평가를 받고있다. 이러한 이유로 개인 정보 이용을 꺼리는 사람들을 위해 산업 혁신과 프라이버시의 조화를 이루겠다고 여러 차례 약속했습니다. 산업계는 물론 시민 단체 및 학계와 협의하여 개인 정보의 안전한 이용을위한 시스템을 구축하는 과정에있었습니다. 이 과정에서 ‘냉수’가 쏟아졌습니다. 이것이 바로 같은 IT 벤처 산업이 스캐 터랩에 대해 예리한 목소리를내는 이유입니다.

이러한 사고가 일반인이 첨단 AI와 데이터 기반 서비스의 혜택을 충분히 누리기 전에 발생한다면 데이터 경제에 대한 대중의 신뢰를 구축하기 어렵습니다. 학습 할 데이터 축적이 어려워지면서 AI 분야에서 국가 경쟁력 향상이 어려워진다. 소규모 스타트 업의 실수로 일축하는 것은 사회적 신뢰의 문제입니다.

관련 기사


이루다 개발자, 사용자 100 명 카카오 톡 노출 인정 … “성실히 조사하겠습니다”


AI 논란 “개발자 윤리 강화”vs “돌아볼 사용자 윤리”


AI Bot Eruda 개발자 “사람의 실명에 대한 참조에는 필터링이 없습니다.”


개인 정보 보호위원회, AI 봇 ‘이루다’의 개인 정보 유출 조사 개시

데이터 경제 활성화 초기 단계에서 유사 사건의 재발을 방지하고이를 시행 착오 문제로 회상 할 수 있으려면 정부의 후속 조치가 중요하다. 우선 ScatterLab의 위법 행위에 대해 굳은 책임을 져야합니다. 이용자의 개인 정보를 가볍게 취급해서는 안된다는 제재가 필요합니다.

이 경우 중소기업이 개인 정보 보호법을 꼼꼼히 이해하고 적용하기 어려운 구조적 문제도 있습니다. 데이터 기반 혁신 서비스 분야에서 벤처 기업이 지속적으로 적극적으로 등장하고 프라이버시와 활용에 문제가 없도록 예방 조치를 취해야합니다. 이용자 정보를 제 3 자에게 제공하거나 다른 용도로 사용하기위한 세부 규정을 마련하고, 중소기업의 개인 정보 보호법 준수를위한 세심한 감독 및 컨설팅을 고려할 수 있습니다.





Source