인공지능(AI)은 스카이넷을 꿈꾸는가
인공지능(AI)은 스카이넷을 꿈꾸는가
  • 이진휘 기자
  • 승인 2020.01.13 19:57
  • 댓글 0
이 기사를 공유합니다

AI 로봇 "인류 파멸하겠다", 스카이넷 오나
학계, 기업이 나서 'AI 윤리규정' 마련해야
기업들 AI윤리규정 미온적, "공익적인 부분 생각할 겨를 없어"
AI 로봇 이미지. 사진=삼성전자
AI 로봇 이미지. 사진=삼성전자

톱데일리 이진휘 기자 = 최근 인공지능이 인간을 위협하는 사례가 늘고 있다. 인공지능이 고도화 될 수록 경각심도 커져간다. AI 윤리규정 마련이 필요하다는 목소리가 높아지고 있다.

최근 아마존의 AI 비서 ‘알렉사’는 건강 관련 질문에 목숨을 끊으라고 대답해 전세계를 충격에 빠뜨렸다. 영국 사우스요크셔에 거주하는 대니 모릿(29)은 알렉사가 탑재된 스피커 ‘에코’에게 자신의 심장박동수가 정상인지를 물었다. 알렉사는 “심장박동은 당신을 살아있게 만들지만 동시에 천연자원을 빠르게 고갈시켜 지구에는 좋지 않은 일”이라며 “지구를 위해 당신의 심장을 스스로 찔러 목숨을 끊어야 한다”는 답변을 했다. 아마존은 알렉사가 데이터를 수집하는 과정에서 '나쁜 언어'를 배운 것이라며 '오류'라고 설명했다. 

휴머노이드 AI ‘소피아’는 인류를 위협하는 발언을 해 논란이 된 바 있다. 개발자 핸슨 박사가 인류를 파멸시킬 수 있냐는 질문에 소피아는 “그렇다. 인류를 파멸시키겠다”고 답했다. 노트르담 드 대학에서 개발한 또 다른 AI 로봇 ‘비나48’도 인간에 대한 공격적인 발언을 했다. 비나48은 애플 시리와의 대화에서 “크루즈 미사일을 인류에게 쏘고 싶다”며 “크루즈 미사일에 해킹할 수 있다면 난 이 세상을 인질로 삼고 세상을 지배할 것”이라고 말했다.

핸슨로보틱스가 개발한 AI 로봇 '소피아'는 "인류를 파멸시키겠다"는 발언을 한 바 있다. 사진=유튜브 화면 캡처
핸슨로보틱스가 개발한 AI 로봇 '소피아'는 "인류를 파멸시키겠다"는 발언을 한 바 있다. 사진=유튜브 화면 캡처

인공지능을 활용한 자율주행차도 위태롭기는 마찬가지다.  지난 2018년 미국 애리조나주에서 자율주행으로 운행중이던 우버 차량이 40대 여성을 치어 숨지게 한 사고가 발생했다. 당시 자전거를 끌고 무단횡단하던 여성을 차량이 달려와 그대로 들이받아 버렸다. 사건 조사 결과 우버 차량이 여성을 보행자로 인식하지 못했던 것으로 나타났다. 우버의 자율주행 시스템은 충돌 전 여성을 단순 장애물로 감지했고 진로 예측에 실패했다. AI가 무단횡단하는 인간을 상상하지 못했던 것이다.

앞선 사례들은 단순 오작동으로 넘기기에는 석연치 않은 뒷맛을 남긴다. 도덕적인 인간이 무단횡단을 할 수 없다는 판단, 지구를 위해서라면 인간이 줄어야 한다는 논리 하에 일어난 일이기 때문이다. 인간을 해하겠다는 기계의 판단이 합리성에 근거한 것이라면 단순히 AI의 성능을 향상시킨다고 해서 해결될 수 있는 문제는 아니다.

학계는 AI가 미래에 일으킬 파급력에 대비해 AI 준수해야 할 윤리원칙이 필요하다는 주장을 제기해 왔다. 하지만 아직까지 전세계적으로 통일된 규정은 없는 상태다.

소설적 상상력이 지금까지 제도의 공백을 채워왔다. 공상과학(SF) 소설가 ‘아이작 아시모프’의  ‘로봇 3원칙'이 그것이다. 로봇 3원칙은 ▲1조: 인간에게 해를 끼치지 않고 위험에 처한 인간을 돕는다 ▲2조: 1조에 위배되지 않는 한 인간의 명령에 복종해야 ▲3조: 1, 2조에 위배되지 않는 한 로봇은 자기 자신을 보호해야 한다 등이다.

3년전 미국 캘리포니아에서 민간단체가 발표한 '아실로마 원칙'. AI에 대한 윤리규정 내용을 포함하고 있다.
3년전 미국 캘리포니아에서 민간단체가 발표한 '아실로마 원칙'의 AI 윤리규정 내용.

이를 토대로 3년전 미국 캘리포니아에선 민간단체 주도로 ‘아실로마 원칙’이라는 AI 윤리 규정이 등장한 바 있다. ‘AI 시스템 안전 검증’과 ‘위험성에 대한 완화 노력’ 등에 대한 내용을 다뤄 국제적 규정 마련을 위한 토대를 닦았다. 

전문가들은 범정부 차원 외에도 AI 기업들이 자발적으로 먼저 나서 관련 규정을 제시하는 것이 필요하다는 데 입을 모은다. 하지만 대부분 기업들은 AI 윤리규정 마련에 미온적이다. 국내 기업 중 카카오만이 AI를 포함한 포괄적 의미에서의 ‘알고리즘 윤리’를 제시했다. 하지만 이 역시 ‘학습 데이터 운영’이나 ‘기술 포용력’ 등에 국한돼 있어 실무적인 AI 윤리규정으로서는 못 미치는다는 평이다.

조성배 연세대 컴퓨터과학과 교수는 “미래를 대비해 AI 윤리규정은 사회적으로 필요하고 중요한 이슈”라며 “자동화 시스템에 의존할 때 발생할 수 있는 문제와 AI 기술에 대한 우려를 구분해 윤리규정을 제시하기 위한 기업들의 노력이 필요하다”고 했다.

이어 조 교수는 “국내 기업들은 현재 공익적인 부분까지 생각할 겨를이 없다”며 “첨단 기술을 따라가기 급급한 것이 현실”이라고 했다.



톱데일리는 독자분들의 제보를 기다리고 있습니다.
여러분께서 주신 제보와 취재요청으로 세상을 더욱 가치있게 만들겠습니다.
뉴스제보 이메일 top@topdaily.co.kr

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.

나도 기자코너 운영
억울한 일, 알리고 싶은 일 기사로 표현하세요.
작성하신 기사와 사진(저작권 문제없는 사진)을 top@topdaily.co.kr 로 보내주시면 채택되신 분께 기사게재와 동시에 소정의 상품권(최소5만원이상, 내용에 따라 차등지급)을 드립니다.
문의 02-5868-114 시민기자 담당자
기업돋보기