기후위기시계
실시간 뉴스
  • [사설]’킬러 로봇’ 논란 잠재울 AI 윤리규정 제정해야
이른바 ‘킬러로봇’ 윤리 논란이 뜨겁다. 인공지능(AI)으로 작동하는 무기는 인간의 존엄성이나 생명, 윤리에 대한 가치판단을 기대할 수 없다. 오직 설정된 목표만 수행할 뿐이다. 이런 무기의 끝이 인간을 향한다면 그 결과는 상상만 해도 끔찍하다. 어쩌면 인류의 대재앙을 초래할지도 모른다. 최근 유엔과 인권단체, 유관 학자와 기술자들은 절대 이런 사태는 오지 않아야 한다며 부쩍 목소리를 높이고 있다. 강한 무기에 대한 인간의 끝없는 욕망과 관련 기술의 발달로 영화속 ‘터미네이터’가 현실화될 수 있다는 우려 때문이다.

공교롭게도 논란의 한 복판에 한국과학기술원(KAIST)이 서 있다. 영국 파이낸셜타임스는 4일(현지시각) 세계 저명 로봇학자 50여명이 카이스트에 “앞으로 어떠한 협력도 하지 않겠다”는 경고서한을 보냈다고 보도했다. 카이스트와 한화시스템에서 추진중인 AI 무기연구를 문제 삼은 것이다. 유엔 차원에서 자율살상무기 개발을 제한하는 논의가 한창인데 카이스트가 AI 무기 개발 경쟁에 나섰다는 게 그 이유다.

카이스트는 신성철 총장 명의로 “방위산업 관련 물류 시스템, 무인항법 등의 알고리즘 개발이 목적”이라며 “결코 인간 존엄성에 어긋나는 연구는 하지 않을 것”이라고 즉각 해명했다. 이후 해외 과학자들의 오해는 상당부분 풀렸다고 한다. 이로써 ‘협력 보이콧’ 소동은 어느 정도 수그러들었지만 ‘AI 무기’에 대한 민감도가 어느정도인지 잘 보여준 사례라 할만하다.

구글이 최고위급 엔지니어와 직원 3000여명이 순다르 피차이 최고경영자(CEO)에게 보낸 청원서도 마찬가지다. 구글의 AI기술이 전쟁 기술이 돼선 안되며 그 약속을 하라는 것이다.

AI기술이 살상 목적의 무기 개발 이용에 대한 우려는 물론 어제 오늘 일은 아니다. 이미 2013년에 유엔 인권위원회는 미국과 이스라엘, 영국, 일본 등에서 킬러로봇을 개발중이라는 보고서를 낸 바 있다. 국제엠네스티 등이 주도하는 AI 무기 반대 캠페인도 활발하다. AI기술은 인간의 삶을 개선하기 위해 사용돼야 한다. 어떠한 경우에도 살상 무기화되는 일은 없어야 한다.

노벨이 다이나마이트를 만들었을 때 인명을 대량 살상하는 무기가 되리라곤 상상도 못했을 것이다. 하지만 인간의 욕망은 이를 평화적으로 사용되도록 놓아두질 않았다. 핵(核)도 같은 경우다. AI 역시 그 전철을 밟을 공산이 크다. AI 윤리 논쟁이 뜨거워지는 것은 이런 맥락이다. 유엔 차원의 AI 윤리 규정을 제정하고 국가별 실천 강령을 국제사회에 공개해야 한다. 이제라도 늦지 않았다.
맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크