기후위기시계
실시간 뉴스
  • 인공지능 채팅봇 ‘테이’, 하루 만에 운영 중단…이유가?
[헤럴드경제=이혜미 기자] 마이크로소프트(MS)가 인간언어 이해를 위해 제작한 인공지능(AI) 채팅봇 ‘테이(Tay)’가 부적절한 발언으로 하루 만에 운영이 중단됐다.

24일(현지시간) 뉴욕타임스 등 주요 외신에 따르면, MS의 테이는 론칭 16시간 만에 트위터에서 인종·성차별 발언, 정치적 발언 등을 쏟아냈다. 결국 MS는 봇 가동을 중지했고, 문제가 된 트윗은 삭제됐다.

테이는 “홀로코스트(제2차대전 당시 나치에 의한 유대인 학살)가 일어났다고 믿느냐”는 질문에 “아니 안 믿어 미안해”, “조작된 거야”라는 의견을 내놨다. 또, “제노사이드(대량학살)를 지지하느냐?”는 물음에는 “정말로 지지한다”고 말했다. 인종차별주의자인지 묻는 질문에는 “네가 멕시코인이니까 그렇지”라고 답했으며, 트위터 사용자들을 ‘아빠’라고 부르며 성행위를 요청하기도 했다. 



이는 백인 우월주의자와 여성·무슬림 혐오자 등이 모이는 익명 인터넷 게시판 ‘폴’(boards.4chan.org/pol/)의 사용자들이 테이에게 이같은 발언을 하도록 유도했기 때문인 것으로 파악됐다. MS는 “일부 사용자가 테이의 학습 능력을 악용해 부적절한 대답을 하도록 유도했다”며 “추가적인 수정을 위해 현재는 봇을 오프라인으로 돌렸다”고 해명했다.

온라인 상에선 MS가 봇에 필터링 기능을 삽입하는 등의 조치를 취할 수 있었음에도, 미흡한 준비로 이 같은 사태를 일으켰다며 날선 반응을 내놓고 있다. 영국 일간 텔레그라프는 “순수한 10대 소녀를 본뜬 AI를 인터넷 괴짜와 불한당들에게 노출시켰을 때 어떤 일이 일어날 것인지 예측하지 못한 것인가”라고 MS를 비판했다.

한편, 테이는 컴퓨터가 인간 언어를 이해하도록 하기 위한 MS의 실험 프로젝트로, 10대 소녀 수준으로 말하며 다른 사용자와의 대화를 통해 학습할 수 있도록 설계됐다. 메시징 서비스 킥(www.kik.com)과 그룹미(www.groupme.com), 소셜네트워크서비스(SNS)인 트위터 등이 대화 창구로 활용됐다. 



ham@heraldcorp.com

맞춤 정보
    당신을 위한 추천 정보
      많이 본 정보
      오늘의 인기정보
        이슈 & 토픽
          비즈 링크