좋은 문제 제기이긴 하지만 인공 지능이 손해를 입힌다는 것으로 접근하면 해결할 과제가 너무 많습니다. 일단 자율 주행차의 경우 상용화로 가는 길은 멀고도 험합니다. 손해를 말하기엔 윤리적인 문제[ 차 안의 사람을 보호할 것이냐? 차 밖의 사람을 먼저 보호할 것인가?]에 대한 문제도 있고 갈 길이 무척 멉니다. 보다 발전된 인공 지능의 문제는 이익과 손해의 측면이 아니라 좀 더 다른 각도에서 생각해 봐야 할 것 같습니다.
You are viewing a single comment's thread from:
예, 윤리적인 문제를 먼저 해결해야 할 겁니다. 그런데 그것은 컴퓨터 프로그래머에게 해당되는 것이겠지요. 돌발상황에서 인공지능이 어떻게 행동하도록 할 것인가 하는 문제입니다.
인공지능이 인간에게 손해를 입힌다는 것은 결국 프로그램상의 오류가 있거나 사람들 사이에 이해관계가 서로 충돌되는 경우에 있을 것 같습니다.