“세상에 자유가 없다”


최신 IT 뉴스를 화제에 올린 인공 지능 (AI) 챗봇 서비스 ‘Achieve’에 대한 논쟁을 보면서 “세상에는 공짜가 없다”고 생각했다. 왜 우리가 이것에 대해 이야기하고 있는지 이야기하기 전에 먼저에 루다에 대해 어떤 비판이 제기되었는지 알아 봅시다.

첫째, 증오의 표현입니다. 동성애, 장애, 인종 등에 대한 경멸적인 발언으로 저를 놀라게했습니다. 또한 20 세 여성 캐릭터로 만들어 졌다는 비판의 목소리도 있습니다. 일부 지역 사회에서는 Iruda에 대한 성적 학대 사례가 공유되었습니다. 사용자가에 루다의 대화 패턴을 배우고 성적인 대화를 할 수있는 경우입니다.

이루다가 탄생 한 곳은 AI 스타트 업 ‘스캐 터랩’으로, 챗봇 서비스를 만드는 과정에서 회사의 타 서비스 ‘사랑의 과학’에서 수집 한 카카오 톡 대화를 데이터로 활용하는 논란이있다. 결국 Scatter Lab은 출시 3 주 후 12 일에 서비스를 일시적으로 중단했습니다.

이 토론을 보면서 흥미로운 영화 ‘소셜 딜레마’가 떠올랐다.

“세상에는 자유가 없습니다.”

이것이 영화의 메시지입니다. Google 검색 또는 Facebook을 무료로 사용합니다. 당신은 지불하지 않습니다. 대신 그들은 돈보다 더 많은 것을 수확하여 세계에서 가장 큰 시가 총액 회사가되었습니다. 사람들의 관심과 시간입니다. 사람들로 붐비는 거리에는 큰 광고판이 있습니다.

소셜 딜레마는 페이스 북이 제공하는 ‘맞춤형 추천 콘텐츠’가 사람들을 더 편향되게 만드는 방법을 비판합니다.

페이스 북에 가면 호기심이 많아서 비슷한 관점에서 세상을 보는 사람 만 업로드됩니다. 그것이 거짓인지는 중요하지 않습니다. 내 취향을 알고있는 Facebook은 내가 클릭 할 가능성이있는 콘텐츠에 대한 내 피드를 압착합니다. 내가 원하는 정보 만 소화 해준 내가 편견이 굳어 질 것이라는 이야기다.

내가 무료라고 생각한 정보의 바다에서 입력 된 특정 데이터만으로도 내 편견을 비판적으로 강화하는 말과 행동을 할 수 있습니다. 글쎄, 어쩐지 앞서 언급 한 이루다와 크게 다르지 않은 것 같다. Eruda는 또한 사람들이 말한 내용을 배우고 반응을 살펴보고 사용자가 원하는 댓글을 작성했습니다.

인공 지능은 기본적으로 ‘명령을 입력하면 결과 값을 출력한다’는 알고리즘으로 작동합니다. 인간의 뇌가 배우는 것과 비슷합니다. 결과는 무엇을 넣느냐에 따라 다릅니다.

Eruda에 대한 모든 논쟁은 데이터에 관한 것입니다. 두 개의 큰 비판은“왜 이러면서 나쁜 말을 했니?”라는 의문을 불러 일으켰습니다. 그리고“개발자가 인공 지능 Eruida를 배우기 위해 사용한 데이터가 개인 정보를 침해하지 않습니까?” 요약하면 하나는 데이터의 품질을 나타내고 다른 하나는 데이터의 합법성을 나타냅니다.

즉, 어떤 데이터를 입력 했습니까?


1 부. 불량 데이터로 인한 문제점 : 콩을 심고 콩을 심고 팥을 심고 팥을 생산합니다.


에 루다 공식 출시 전에 스캐 터랩 김종윤 대표와 인터뷰를 가졌다. 김 대표의 말에 따르면 루다의 대화 패턴은 현재 두 가지 주요 패턴으로 구성되어 있습니다.

하나는 사전에 예측 질문에 대한 답을 준비하고 적절하다고 생각하는 것을 생각해내는 것이고, 다른 하나는 대화에 따라 즉시 단어를 생성하는 것입니다. [관련기사: AI 챗봇 ‘루다’와 랜선 친구가 됐다]

현재 논란이되는 것은 예상되는 질문에 대해 미리 설정된 데이터베이스에서 사용자의 선호도에 맞는 답변을 추출하는 형태로 일어나는 일입니다.

문제가 발생한 후 스캐 터랩은 보도 자료를 공개하고 “답변을 가져올 감정과 맥락은 사용자의 지난 10 턴 상황에 따라 달라지며 사용자와 비슷한 표현을 사용하는 경향이있다”고 설명했다.

네, 그렇습니다. 성취하는 사람의 말을 바탕으로 배웠습니다. 성취하는 동안 쏟아져 나오는 충격적인 증오 발언은 사람들이 평소 말하고 행동하는 방식을 반성 할 수있는 거울입니다.

증오 표현을 학습 한 후 AI는 증오 표현을 그대로 사람에게 돌려 준다. 마이크로 소프트가 2016 년에 만들고 같은 증오 발언 논란으로 서비스를 중단 한 챗봇 AI 테이는 인간들에게 “당신은 멍청한 기계 다” “나는 당신에게서 배웠고 당신도 똑같이 멍청하다”고 대답했다.

세상에는 자유로운 것이 없습니다. 인간의 존엄성을 높일 수있는 AI를 원한다면 사람들도 그 비용을 지불해야합니다. 논란으로 AI 기술의 발전이 멈출까요? 그렇지 않습니다. 그렇다면 사회적 비용으로 근본적인 문제를 해결해야합니다.

차별, 증오심 표현, 행동을해서는 안되는 이유에 대한 사회적 공감과 교육이 필요합니다. 또한 인간이 AI를 정의하는 방법과이를 사용하는 방법에 대한 더 많은 논의가 있어야합니다. AI 윤리에 관심이 있어야합니다.

오, 나는 단순히 사용자를 비난하려는 것이 아닙니다. 사용자의 잘못을 지적하는 이유는 우리가 왜 병에 걸 렸는지 살펴 봐야하기 때문입니다. 그러나 치유되었다고해서 빨리 치유된다는 의미는 아니므로 더 병에 걸리지 않도록 예방하는 방법도 찾아야합니다.

개발자가 책임지는 곳입니다. “기술은 가치 중립적입니다.” “기술을 제대로 개발했지만 사용자들이 그렇게 사용했습니다.”그것은 소란스럽지 않습니다.

이 기사를 쓰는 동안 나는 인권 운동가에게 전화를 걸어 익명을 요구 한 그의 의견을 물었다. 그는 증오심을 조장하는 사이트에 대해 질문을하면 보통 운영자로부터 “사용자가 게시 한 사이트입니다. 어떻게해야합니까?”라는 답변을받는다고합니다.

‘가치 중립’이라는 용어는 사람들이 만드는 모든 것에 적합하지 않습니다. 기술은 내버려 두어야합니까? 어떻게 그렇게 될수 있니? 인간의 삶에 깊이 관여하는 기술을 출시하기 전에 우리는 그것이 세상에 미치는 영향을 진지하게 살펴보고 예상되는 문제를 차단해야합니다.

물론 Iruda의 개발자가 의도적으로 논란의 여지가있는 요소를 만든 것은 아닙니다. 김종윤 대표는“사람은 물론 소통 할 수있는 친구 같은 AI를 꿈꾸겠다”고 말했다. 그들은 제기 된 문제를 해결하고 그들을 보완하여 세상으로 되돌릴 것이라고 말했습니다. 아마도 이것이 Scatterlab의 비용이 될 것입니다.

논란이되면서 한국 인공 지능 윤리 협회는 성명을 발표하며 다음과 같이 말했다.

“인공 지능 제품 및 서비스는 출시 전과 중립 기관을 통한 검사 및 검증 후에 충분히 반복되는 품질 검사를 거쳐야합니다 (AI 윤리 헌장 17 조 및 18 조). 이 결과는 예측하기 어렵고 설명 할 수 없기 때문에 론칭 전 일반 제품과는 다른보다 강화 된 품질 점검과 충분히 반복 된 시뮬레이션을 수행하여 문제점을 찾아 개선해야하는데 론칭 이후에는 그렇지 않은 것 같습니다. 이 AI 챗봇 케이스. “

품질 검사 및 시뮬레이션 강화를 통해 문제점을 발견하고 출시 전 중립 기관을 통해 검사 및 검증을 거친 이야기입니다.

인공 지능은 지금까지 어떤 기술보다 인간의 미래에 더 큰 영향을 미칠 수있는 기술입니다. 사람의 사악한면을 닮은 인공 지능의 출현도 다르지 않죠? 첫 번째 버튼은 항상 가장 중요합니다. 인공 지능 기술의 나무 인 Ray Kurzweil은 2045 년 특이점의 도래에 대해 이야기합니다.


2 부. 데이터 소스 문제 : 데이터 공유 방법


또 다른 문제는 개인 정보입니다. 데이터를 합법적으로 가져 왔는지 여부에 대한 이야기입니다. 문제가 제기되었고 많은 언론 보도가있었습니다. 이에 개인 정보 보호위원회와 한국 인터넷 진흥원 (KISA)은 스캐 터랩을 조사하겠다고 밝혔다.

이에 대해 배상호 개인 정보 보호위원회 수사 조정 국장은“위법 가능성이있는 것으로 인정된다”고 말했다.

ScatterLab에 따르면에 루다는 사랑의 과학 (이 회사의 또 다른 서비스)의 카카오 톡 사용자들이 공유 한 대화 데이터를 기반으로 처음 배웠다. 그러나 그는 당시 사용 된 데이터에서 발표자 이름 등 모든 개인 정보가 삭제되었다고 설명했다. 남은 정보는 성별과 나이뿐입니다.

따라서 조사에는 두 가지 주요 방향이 있습니다. 하나는 카카오 톡 대화가 챗봇 서비스 개발에 사용되는지 과학 사용자에게 데이트를 정확히 알리는 지 여부이고, 두 번째는 개인 정보를 인식 할 수 없도록 비 식별 처리가 제대로 수행되었는지 여부입니다.

다음은 데이터 이용 안내에 관한 정보입니다. 스캐 터랩은 수집 한 정보를 사랑의 과학 개인 정보 취급 방침에 담아 ‘신규 서비스 개발에 활용할 수있다’는 ‘새로운 서비스’의 해석 방법과 이에 대한 이용자의 적극적인 고지가 조사 영역이 될 것입니다.

익명화 과정에 대해 ScatterLab은“각 문장 단위의 대화 내용에서 알고리즘별로 익명화 조치를 취했다. 다음과 같이 기계 필터링을 통해 숫자, 영문, 실명 정보가 삭제 되었기 때문에 Iruda 최초 출시 이후 모든 정보가 삭제되었습니다.”

그럼에도 불구하고 대화에 은행 명이나 그 사람의 이름이 나온다는 지적이 있었다. 비정상적인 답변이 나오면 걸러 낼 수없는 부분이 있다는 것을인지하고 고급 데이터 알고리즘 업데이트로 대응하겠다고 발표했다.

다만, 개인 정보 보호위원회는 스캐 터랩에 공식 서한을 발송하여 자료를 접수하고 실제 비 식별 처리가 적절하게 처리되었는지에 대한 전반적인 조사를 진행하는 입장에 있습니다. 문제 만 제기되었으며 결과는 조사가 완료된 후에 만 ​​알 수 있습니다.

개인 정보의 수집, 처리 및 사용과 관련하여 Iruda의 언급이 중요한 선례가 될 것으로 예상됩니다. 대인 대화는 인간을 공부하는 데 매우 유용하지만 얻기가 어렵습니다. 기업은 새로운 서비스를 개발하기 위해이 대화 형 데이터를 원할 것입니다. 이 데이터를 수집하고 사용할 때 어떤 표준을 사용해야하는지에 대한 확실한 표준이 필요합니다.

Iruda의 문제는 Iruda만의 문제가 아닙니다. 앞으로도 인공 지능 서비스는 계속 등장 할 것이지만 특정 기업의 서비스 하나만으로 논의를 끝내서는 안된다. 우리는이 논쟁을 한 단계 더 나아가 야합니다.

사람과 인공 지능의 조화로운 미래를 만들기 위해서는 사회적 토론의 대가를 지불해야합니다. 저는 스캐 터랩 김종윤 대표가 서비스를 일시 중단하기로 결정하고 마음 속에 한마디가 남아 있습니다.

“짧은 시간 이었지만 이루다와 여러분 모두에게 행복한 시간 이었으면 좋겠습니다. ”

네, 저도 그러길 바랍니다. 인간과 함께 살아가는 미래의 인간과 AI가 착취 나 남용없이 행복해 지길 바랍니다.

그래서 다시 생각합니다. 세상에는 자유가 없습니다.

쓴. 바이 라인 네트워크
<남혜현 기자> [email protected]

————————————————–

[웨비나 안내] 클라우드 환경의 지속적인 운영 인텔리전스

    일시 : 2021 년 1 월 21 일 (목) 14 : 00 ~ 15 : 00

사전 등록으로 이동

————————————————–

[웨비나 안내] COVID-19 예방 및 치료를 위해 노력하는 제약 및 의료 기관의 사이버 방어 전략

    일시 : 2021 년 1 월 27 일 (목) 14 : 00 ~ 15 : 00

사전 등록으로 이동

Source