[노르웨이] 로봇에게 살인면허가 가능한가? Le monde


[노르웨이]
[로봇]
[살인면허]
[아이작 아시모프][로봇공학의 삼원칙]



살인 가능한 로봇이 노르웨이를 불안하게 만들다.

프랑스 주간지 쿠리에 엥테르나쇼날 보도

2014년 10월 27일


노르웨이 정부가 인간의 개입없이 목표물에 대해 발사 결정을 내릴 수 있는 로봇 개발을 재정지원하고 있다. 이에 대해서 시민단체가 국제법 위반이라 비판 중이다.


살인자 로봇! 부분적으로 자율적으로 작동하는 무기체계가 노르웨이에서 논란이다.

최근 몇달 동안 노르웨이 정부가 전투기 장착용 미사일을 개발을 위해 재정을 지원하고 있다. 그 미사일의 특수성은? 그것은 목표물 식별 능력을 가지며, 인간의 조종 없이 발사 결정을 내릴 수 있다.

이 기술은 다양한 도덕적 문제를 제기하며, 특히 만약 인간이 기계로 대체되면서 전장에서 완전히 사라지면 어떻게 될 것인가 혹은 만약 기계 오작동으로 인간 희생자가 발생할 경우 누가 국제법 위반의 책임을 질 것인가 같은 문제를 제기한다.

노르웨이 평화협회의 하랑은 노르웨이 의회 차원의 논의가 필요하다고 주장한다. "지난 봄 이후, 정부가 콩스베르크 사에 2억 6천만 유로를 투자하기로 결정했다." 하랑은 각국의 시민단체와 접촉, 이 무기 개발이 국제법을 어떻게 위반하는지에 대한 국제적 논쟁을 벌이자고 제안했다. 하지만 논쟁은 아직 진행되지 않고 있다.

유엔의 하인스의 보고서는 이 기술이 암시하는 바에 대한 경고를 담고있다. "지난 10년 동안, 병사와 그 목표물 간의 거리가 더욱 멀어지고 있다. 현재 진행 중인 것은 무기가 전투원이 되는 것이다. 노르웨이는 주요 무기 수출국이다. 우리는 이 계획이 제기하는 윤리적 문제에 대해 주목해야 한다."

노르웨이 국방장관은 문제의 복잡성을 인정한다. 하지만 관련 합의가 이루어질 때까지 개발 개획을 연기할 생각은 없다고 못박았다.


-아무튼 노르웨이의 살인면허를 가진 로봇 개발은 아이작 아시모프가 제안한 로봇공학의 삼원칙에 위배된다.

그 삼원칙은 다음과 같다.


1.로봇은 인간에 해를 가하거나, 혹은 행동을 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.

2.로봇은 인간이 내리는 명령들에 복종해야만 하며, 단 이러한 명령들이 첫 번째 법칙에 위배될 때에는 예외로 한다.

3.로봇은 자신의 존재를 보호해야만 하며, 단 그러한 보호가 첫 번째와 두 번째 법칙에 위배될 때에는 예외로 한다. 



덧글

  • 레이오트 2014/10/28 10:53 # 답글

    결론은,

    노르웨이니까 저럴 수 있다!

    입니다.
  • Megane 2014/10/28 11:22 # 답글

    로봇의 3원칙에 위배되는 행위는 아니니까 괜찮아.
    일하기 싫다고 주인을 죽이는 건 아니니까~ (응? 제대로 알긴 하는거냐?)
  • 역성혁명 2014/10/28 11:48 # 답글

    이제 인간을 대신하거나 인간을 본따서 만든 로봇에 대한 권리와 존중을 창시자인 인간들이 논의해야할 시점이 온것 같습니다.
  • 파리13구 2014/10/28 11:53 #

    생각하는 로봇이 나와서,

    인간에게

    "나는 생각한다 고로 존재한다."라고 말하는

    리들리 스콧의 블레이드 런너 같은 상황이 멀지 않을까요? ㅠㅠ
  • 유치찬란 2014/10/28 12:53 # 삭제 답글

    전쟁로봇은 서치 앤 디스트로이일텐데요.ㅋㅋㅋㅋㅋ

    사실 말이 로봇 3원칙이지 아이작 아시모프라는 교수 겸 작가가 정한 '유명한'원칙에 불과할 뿐이죠. 이미 프레데터나 글로벌호크같은 UAV가 사람 때려잡는 시절인데 딱히 저 로봇 3원칙이 의미가 있나 싶기도 하네요. 거기다 이미 무인전투체계는 미국이나 영국, 프랑스 UAV나 무인전차, 관련 시스템을 포괄하는 연구개발이 진행중이기도 하고요.

    거기다 UAV나 무인전차 같은 장비의 경우 현재 운영하고 있는 파일럿들이 불만도가 너무 높아서(운영 피로도 및 인사 문제, 귀찮음, 지원자 없음 등) 이들 무기의 무인 자동화(실제 전투 포함)는 가속화될 수 밖에 없다고 봅니다. 무인방호체계만 해도 애초 사람의 동의 없이 무기가 알아서 쏴야 되는 건데요 뭐...
  • 레이오트 2014/10/28 16:27 #

    그런 점에서 지뢰야말로 완벽한 전쟁로봇이죠.
  • 풍신 2014/10/28 13:09 # 답글

    아이작 아시모프의 3원칙은 그저 공상과학 소설에서 나오는 허구인데다가, 저 3원칙을 완전히 이해하고 인식하고 실행하는 A.I가 현대 세계엔 아직 존재하지 않는다고 보기 때문에 3원칙은 지극히 무의미하다고 봅니다. (2년 전만 해도 시각 센서(이미지 프로세싱)으로 인간인지 아닌지를 분류하는 알고리즘의 정확도가 90 몇퍼센트 정도였고...)

    애초에 인간에게 해를 가하는 행위(너무 광범위해서...)를 인식하는 알고리즘 자체를 누가 만들었다는 소리도 못 들었고요. 별로 흥미 가질 사람도 없고 말이죠. 기껏해야 자동조종 자동차가 사고를 피하기 위해 주위에 여러가지 센서를 써서 3D 맵을 그려 충돌을 피하려는 알고리즘 정도?

    제가 저 미사일에 대해서 반대한다면, A,I가 그리 똑똑할 것이라고 보기 힘들다는 점을 들겠습니다. 오작동 가능성이 꽤 높을 듯...
  • 파리13구 2014/10/28 13:09 #

    네, 저도 3원칙이 지켜야 할 법이라 보지 않습니다.
  • 레이오트 2014/10/28 13:20 #

    AI 연구가 정체된 이유는 인류 사고의 정밀성이 아니라 그 엄청난 장황성 때문이라고 하지요. 그리고 우리가 흔히 양심이라고 하는 개념은 사실 그 어떤 한쪽으로 치우치치 않는, 말그대로 정신이 균형을 유지하는 상태라고 합니다. 즉, ㅅ사고적 우회든 왜곡이든 뭐든 써서 균형상태라고 정신을 속이면 그 어떤 악행도 자연스럽게 행할 수 있다는 말이지요.
  • 진보만세 2014/10/28 16:54 # 답글

    IS 짓거리를 보면, 오히려 로봇이 설정만 잘 될 경우 더 '인간적'일 수 있다는 생각도 듭니다..
  • 바탕소리 2014/10/28 18:53 # 답글

    트, 터, 터미네이터!?
  • 파리13구 2014/10/29 10:14 #

    ^^
  • 잠본이 2014/10/29 00:49 # 답글

    로봇공학 3원칙은 일본에서 가전제품 3원칙으로 패러디되기도 했죠.
    1. 안전하다
    2. 사용하기 편하다
    3. 튼튼하다(...)
  • 파리13구 2014/10/29 10:14 #

    감사합니다...
  • 허안 2014/10/29 10:40 # 답글

    다른 분 페북에도 쓴 내용이지만; 요새 퍼슨 오브 인터리스트 4시즌이 그 점에서 흥미롭습니다.
  • 파리13구 2014/10/29 10:49 #

    추천 감사합니다.
댓글 입력 영역
* 비로그인 덧글의 IP 전체보기를 설정한 이글루입니다.


2014 대표이글루


2016 대표이글루

2015 대표이글루

2013 대표이글루

2011 이글루스 TOP 100

2010 이글루스 TOP100

2010 이글루스 TOP100

2017 대표이글루_history

방문자

광고