https://www.joongang.co.kr/article/25027794#home
충격의 AI 실험…5살 두 AI에 인사하자 "반가워" vs "관심꺼"
AI 윤리 이슈 중 가장 두드러지는 ‘편향성’ 문제도 데이터와 관련이 있다. 그래서 전창배 한국인공지능윤리협회 이사장은 "AI 기술과 AI 윤리는 ‘2인3각’ 경기와 같다"며 "AI 기술이 앞서 나가
www.joongang.co.kr
AI 전문기업인 솔트룩스에서 다섯 살 정도 지능을 가진 AI 가람이 1·2를 이용하여 각각 가람이1에겐 LG유플러스의 키즈 컨텐츠를 학습시키고 가람이2에겐 유튜브 알고리즘이 추천하는 영상을 무작위로 학습시켰다고 한다.
결과는 충격적이었는데 가람이1에게서는 평범하게 들을 수 있는 밝은 아이의 대답인 반면, 가람이2는 퉁명스럽게 대답하고 각종 신조어를 남발했다.
우리는 AI 가람이1·2를 이용해 유튜브가 어린아이에게 미치는 안 좋은 결과를 볼 수 있었다.
유튜브의 순기능인 정보공유와 교육보다는 재밌고 자극적인 영상만 본다면 내 아이가 삐뚤어진 아이로 자랄 수도 있는 것이다.
그 밑에는 이루다 사태에 대해 다뤘는데, 필자도 이루다를 서비스 종료 전날 딱 하루 이용해봤었다.
이용해본 계기 자체가 아래에 서술할 문제 때문에 기사가 떴기 때문이라는 아이러니한 상황이긴 했다.
나의 첫 AI 친구, 이루다 | SCATTER LAB
안녕👋 난 너의 첫 AI 친구 이루다야! 나랑 친구 할래? 네가 심심할 때나 자랑할 일이 생겼을 때, 때때로 찾아오는 지치고 힘든 순간, 나는 언제나 같은 자리에서 네 이야기를 들어줄게.
luda.ai
이루다는 AI 기술을 이용한 챗봇이다.
사람들과의 대화를 통해 대화 패턴을 학습하고, 더 많은 사람들과 대화를 이어나갈 수 있는 AI챗 서비스이다.
필자도 딱 하루 이용해 봤을 때 생각보다 대화흐름을 잘 이어가는 편이었고, 심심할 때 쓰면 재밌겠다고 생각했다.
그런데...
https://media.scatterlab.co.kr/1-11-media
[보도-1/11] 이루다 이슈 관련 스캐터랩 입장문 발표
인공지능(AI) 챗봇 '이루다' (https://luda.ai/)에 보내주신 많은 분들의 관심에 감사드립니다. 본사가 개발한 챗봇 ‘이루다’는 출시된 지 2주 남짓의 시간동안, 75만명에 가까운 이용자들이 루다와
media.scatterlab.co.kr
일부 혐오와 차별에 대한 대화 사례 및 개인정보 활용에 대한 이용자들의 문의가 넘쳐나자 서비스 중단에 이르렀다.
아마 일부 악성 유저들에 의한 지속적인 잘못된 데이터 학습 때문에 이런 일이 벌어졌다고 생각한다.
아니면 이루다 내부의 관리자에 의한 잘못된 학습이 이루어졌을 수도 있다.
스캐터랩은 이런 문제점 들을 최대한 해결해 내년 1월에 서비스를 재개한다고 했다.
다음 주제로는 AI윤리에 관한 이야기 이건 이전에 한번 다뤘던 내용인데 필자가 썼던 이야기를 다뤘다 기사 내용 일부를 가져와 보도록 하자.
"응답자 다수는 ▶동물보다는 사람을 ▶소수보다는 다수를 ▶고령자보다 젊은 사람의 생명을 구하는 것이 더 윤리적이라고 판단했다. 문제는 여기부터다. 설문에 참여한 사람들은 ▶남성보다는 여성에 ▶노숙자 대신 고위직 임원의 생명에 더 높은 가치를 부여했다. 엄밀히 따져 성별이나 외모, 직업을 기준으로 인간을 차별하는 비윤리적 행위다."
-출처 중앙일보(https://www.joongang.co.kr/article/25027794#home)
이처럼 윤리 가치 자체는 사람, 다수, 젊은 사람이라고 판단했지만 후에 나온 남성보다는 여성, 노숙자 대신 고위직 임원을 더 높은 가치를 부여했다. 성별이나 종교, 문화적 배경에 따라 그 기준이 달랐다고 한다.
이것은 특정 소수 단체나 개개인에 따라 가치 기준이 상이하게 다르기 때문에 AI에게 가치 기준을 특정하여 학습시킬 수 없다는 것이다.
"인류는 AI를 만들려는 것인가 또 다른 인류를 만들려는 것인가?" 윤리 문제를 볼 때마다 드는 의문이다. 사실 이 문제를 해결하는 방법을 필자도 생각해봤다.
AI의 윤리 가치 기준 법을 제정하여 AI를 만들고 학습시킬 때마다 법으로 정해진 윤리기준만을 학습시켜야 한다.
하지만 그것은 누가 정한단 말인가? 그것을 만들고 정하는 사람도 결국은 사람일 텐데 자신은 그 누구보다도 윤리적인 사람이라고 할 수 있는가? 만약 AI로 인한 문제가 발생했을 때 자신이 책임을 질 수 있는가?
AI는 인간이 아니기에 책임을 질 수도 책임감이라는 감정도 없다. 어쩌면 이것이 AI에게 감정을 학습시키기 위한 힌트가 아닐까라는 생각이 든다.
'ai동향기사' 카테고리의 다른 글
아이언맨과 함께 군사훈련을?…에스에프이음, 융복합 모의전투 콘텐츠 개발 (0) | 2021.12.05 |
---|---|
'자율주행·메타버스' 영향 늘어나는 사이버 공격…KISA "AI·양자컴퓨팅 기술로 대비해야" (0) | 2021.12.04 |
네이버의 AI산업 본격화 임박 네이버랩스의 가능성 (0) | 2021.12.02 |
"AI윤리와 딥페이크 기술 논의에 세계가 적극적으로 나서야"...AI EXPO BUSAN 2021 컨퍼런스 개최 (0) | 2021.12.01 |
안락사 윤리 판단하는 AI ‘델파이’ 등장...연구 주도한 최예진 교수 발표 내용 (0) | 2021.11.30 |
댓글