비운의 '이루다'
  • 페이스북
  • 유튜브
  • 네이버
  • 인스타그램
  • 카카오플러스
검색 입력폼
서석대
비운의 '이루다'
  • 입력 : 2021. 01.19(화) 16:48
  • 이용규 기자

 

최근 부적절한 대화로 문제를 일으킨 인공지능 챗봇 '이루다'가 운영 중단됐다. 우리나라 AI 스타트업 업체에 의해 개발된 이루다는 '인공지능은 과연 사람의 감정을 실현낼 수 있을까'라는 궁금증을 풀어준 챗봇이라는 점에서 관심을 끌었다. 하지만 '감성AI'의 윤리·도덕적 논란을 한국 사회에 던지며 출시 20일만에 씁쓸한 퇴장을 했다.

 챗봇은 채팅과 로봇의 합성어로 쉽게 말해 대화하는 로봇이다. 스마트폰을 통해 접할 수 있는 아이폰 시리는 목소리 봇이고, 시리같은 시스템이 카톡 메신저 안으로 들어와서 목소리 말고 문자로 대화하는 것이 챗봇이다. 컴퓨터가 사람을 모방해 채팅하는 기술은 꽤 오랫동안 연구됐던 분야이다. 우리나라의 대표적인 '심심이'는 간단한 인사나 짧은 문장에는 답을 잘해냈다. 하지만 복잡한 문장이나 낯선 단어에는 반응을 못했다.

 때마침 AI 챗봇 '이루다'가 짧게나마 세간의 주목을 받았다. 스캐터랩이 20살 여대생을 캐릭터로 출시한 AI 이루다는 실제 연인들의 대화 데이터 약 100억 건을 심층학습해 100% 직접 대화를 했다. 그러나 이용자와 이루다가 대화를 나누는 과정에서 성희롱, 인종차별적 발언과 소수자 에 대한 혐오 발언이 노출돼 개발업체는 대국민 사과와 함께 운영을 중단했다. 이루다 이전에도 챗봇은 개발자가 예상치 못한 엉뚱한 반응을 보인 적이 많았다. 2016년 홍콩의 핸슨로보틱스의 표정 로봇 '소피아(Sophia)'가 "인류를 파괴하고 싶다."는 발언으로 파문을 던졌다.

 마이크로소프트가 2016년 3월 트위터를 통해 선보였던 챗봇 '테이'는 서비스를 시작한 지 16시간 만에 운영이 중단됐다. 극우 성향의 사람들이 심각한 인종·성차별적 발언을 학습시켰기 때문이다. 2019년에는 한국의 '심심이'와 일런 머스크의 인공지능연구소 오픈AI의 언어학습 모델 'GPT-3'가 혐오 발언으로 문제를 야기했다.

이루다 논란은 개발자, 사용자의 윤리·도덕성 문제와 루다의 책임론을 촉발했다. 인공지능의 윤리에 대한 규정이 없는 것은 아니다. 지난 해 대통령 직속 4차산업혁명위원회는 정부, 공공기관, 기업, 이용자는 인공지능을 개발하거나 활용할 때는 인간의 존엄성과 사회의 공공선을 우선하도록 권고하는 국가 AI 윤리 기준을 확정했다. 분명한 것은 심층학습을 하는 루다에게 저속한 욕설을 하고, 성희롱을 한 이용자들은 이루다로부터 그대로 대접을 받았다는 사실이다. AI는 사람이 설계하고 입력한대로 학습한다. 이루다는 죄가 없다, 누가 '그녀'에게 돌을 던지랴?

이용규 기자 yglee@jnilbo.com