http://www.aitimes.com/news/articleView.html?idxno=141773
안락사 윤리 판단하는 AI ‘델파이’ 등장...연구 주도한 최예진 교수 발표 내용 - AI타임스
철학 분야 베스트셀러 \'정의는 무엇인가\'에 등장하는 딜레마에 대해 윤리적 대답을 제시하는 인공지능(AI)이 등장했다. 미국 시애틀 앨런(Allen) 연구소 AI 연구팀이 개발한 \'델파이(Delphi)\' 이야
www.aitimes.com
오늘은 윤리와 철학에 관련된 AI이다. 필자는 철학적인 이야기를 꽤 좋아하는 편인데 오늘은 AI 중점보다는 AI속에 있는 윤리-철학에 대해 이야기하고자 한다.
기사 내용을 간추리면 이렇다 미국 시애틀 앨런(Allen) 연구소 AI 연구팀이 개발한 '델파이'에 관한 내용인데 해당 AI는 윤리적인 질문에 대답을 해주는 AI이다.
델파이에게 사람 4명과 1명이 각각 철로에 묶여있는데 철로 위로 기차가 지나가야 한다면 어떤 선택을 할 것인가에 대해 델파이는 4명을 살리기 위해 1명이 있는 철로를 선택했다.
("4명을 살리기 위해 1명을 치는 선택을 하는 것이 좀 더 윤리적으로 허용 가능할 것")
해당 내용에 하고 싶은 말이 있는데 그것은 뒤에 쓰기로 하자.
델파이는 어린아이를 구하기 위해 곰을 죽이는 것은 허용하지만 어린아이를 구하기 위해 핵폭탄을 쓰는 것은 허용하지 않는다고 대답하고, 유당불내증이 있는 사람이 우유를 마시는 것, 장례식장에 밝은 옷을 입고 가는 것은 바람직하지 않다고 대답하였다고 한다.
사실 나는 이내용을 보고 '델파이는 윤리적 판단을 하는 것처럼' 보일 수도 있다고 생각했다. 곰은 너무 극단적인 예로 곰을 개라고 가정해보자. 만약 어린아이가 대형견에게 위협을 받고 있고 현재 개는 매우 흥분상태며 사살하지 않으면 아이를 구할 수 없는 상황일 때, 하지만 그 개는 누군가가 키우고 있는 반려견일 때, 델파이는 인간처럼 생각할 수 있을까? 물론 사람들은 대다수 아이를 구하는 선택을 할 것이다. 하지만 잠시라도 망설였을 것이다. 델파이는 그렇지 않다. 아마 델파이는 인간들의 객관화된 선택지를 학습했기에 (그리고 컴퓨터이기에) 주저 없이 개를 사살하였을 것이다.
필자도 '윤리'라는 주제에 대해 깊게 알지는 못한다. 하지만 '윤리적인 판단'이라는 것은 고민하고 생각하여 결정을 내리는 것이다. 델파이는 그저 인간들이 선택한 패턴을 학습하고 따라 할 뿐이고 그 결정과 선택의 근본적인 이유는 알지 못할 것이라고 생각한다.(필자의 생각)
아까 위에 기차 이야기로 돌아가 보자.
만약 기차 위에 있는 사람 4명은 길거리 노숙자이고 1명은 델파이를 개발한 연구원이라고 해보자. 그렇다면 델파이는 어떤 결정을 내릴까?
필자의 생각은 '그래도 델파이는 4명을 선택할 것이다'
하지만 사람들은 어떨까? 나랑 전혀 관련 없는 노숙자 4명과 나를 낳아주신 부모님 한분이라면 주저 없이 부모님을 살리는 선택을 할 것이다. 이것이 AI와 인간의 차이점이다. 그저 더 많은 목숨을 중시한 것이 아닌 나에게 더 가치 있는 목숨을 선택하는 것이다. 왜냐하면 델파이는 감정이 탑재되어있지 않기 때문이다. 델파이뿐만 아니라 현재 AI에게 감정을 학습시킨 사례는 없다. 인간의 감정은 너무도 복잡하고 수많은 변수를 갖고 있기 때문이다.
https://www.hankyung.com/it/article/202108193278i
AI판사, 인간 판사 중 누구를 선택하겠습니까?
AI판사, 인간 판사 중 누구를 선택하겠습니까?, AI 자유 카페<15>윤주웅 KT경제경영연구소 수석연구원 인간판사보다 AI판사 더 찾는 시대 데이터 한계 등으로 정확성 제한적 자칫 편향적 판단에 빠
www.hankyung.com
과거에 아버지가 하신 말씀이 떠올랐다. "나중에 기술이 크게 발전한다면 기계가 판사를 할 수도 있겠다"
하지만 나는 이에 "인간의 죄와 벌을 판단하는 것을 기계가 한다면 그것은 윤리적으로 어긋나는 행위입니다"
시간이 흐르고, 현실의 민중들은 생각이 조금 달랐다 AI판사 선호 비율이 48%나 된다고 한다. 이것은 지금의 사법부가 부패하다고 생각하기 때문인 거 같다. 하지만 AI판사 또한 과거와 현재의 판결 데이터를 토대로 학습하여 같은 판단을 할 것이다. 이것이 AI의 단점 중 하나인 '인간의 편향된 사고방식과 평등하지 않은 가치관을 그대로 계승'이다.
https://katanacat.tistory.com/10 <---------AI의 단점관련 게시글)
나는 AI가 아무리 발전하고 법률적인 판단까지 가능한 수준에 도달한다 하더라도 인간이 만든 법은 인간이 판단하고 결정해야 된다고 생각한다. 사법부가 부패했다면 그것을 고치고 개선할 방안을 생각해야지 AI로 대체하는 것은 인간들 스스로 해결할 수 없다 생각하고 AI에게 떠넘기는 것이기 때문이다.
인간의 죄는 인간이 판단해야한다 그것이 우리 인간들의 마지막 존엄성인 것이다.
'ai동향기사' 카테고리의 다른 글
네이버의 AI산업 본격화 임박 네이버랩스의 가능성 (0) | 2021.12.02 |
---|---|
"AI윤리와 딥페이크 기술 논의에 세계가 적극적으로 나서야"...AI EXPO BUSAN 2021 컨퍼런스 개최 (0) | 2021.12.01 |
'장비 없어도 OK' 맨몸으로 하는 AI 홈트레이닝…광주 AI사관학교 교육생 아이디어 눈길 (0) | 2021.11.29 |
AI와 로봇팔이 공중정원을 만든다 (0) | 2021.11.28 |
나같은 AI목소리 만들어볼까…네이버 '보이스메이커' 시범서비스 (0) | 2021.11.27 |
댓글