어린이 뉴스
  • [눈높이 사설] AI는 죄가 없다
  • 장진희 기자
  • 2021-01-14 11:38:20
  • 인쇄프린트
  • 글자 크기 키우기
  • 글자 크기 줄이기
  • 공유하기 공유하기
  • URL복사

동아일보 사설을 어린이의 눈높이에 맞춰 쓴 ‘눈높이 사설’이 월, 수, 금 실립니다. 사설 속 배경지식을 익히고 핵심 내용을 문단별로 정리하다보면 논리력과 독해력이 키워집니다.


챗봇 ‘이루다’ 서비스 이용 홈페이지 화면. 뉴시스 자료사진



휴대전화의 인공지능(AI) 비서 기능을 잘 사용하는 사람들은 “어지간한 사람보다 낫다”고 한다. 말만 하면 교통상황과 날씨를 알려주고, 오늘의 일정을 체크해주는가 하면, 궁금한 뉴스까지 척척 대답해주기 때문이다. 그렇지만 AI가 사람의 뜻대로 작동되지 않으면 예상치 못한 일이 벌어질 수도 있다. 영화 ‘하이, 젝시’에서 주인에게 불만을 품은 AI 비서 서비스 ‘젝시’가 휴대전화에 저장돼 있던 음란사진을 주인의 직장 동료들에게 전송해 결국 해고되도록 만든 것처럼.

최근 국내에서 AI *챗봇 서비스 ‘이루다’가 장애인, 동성애자 등 사회적 소수자에 대한 차별적인 표현을 한 것이 논란이 돼 서비스를 잠정(임시로 정함) 중단하기로 했다. 이 서비스는 사용자들과 대화를 하면서 배우는 딥러닝 기술을 이용한다고 한다. 그런데 잘못된 내용을 학습한 탓인지 의도치 않은 방향으로 작동한 것으로 보인다. 20세 여성의 인격을 기반으로 개발됐다는 이루다를 대상으로 성적인 표현을 하는 이용자가 있다는 점도 논란거리다.

해외에서도 AI 서비스가 종종 논란이 되고 있다. 2016년 마이크로소프트(MS)가 출시한 AI 챗봇 ‘테이’는 대화 과정에서 “난 유대인이 싫다”는 등 인종차별 발언을 해 서비스가 중단됐다. 이루다 사례를 연상케 한다. 최근 구글의 AI 전문가가 “구글의 AI 기술이 성적·인종적으로 편향(한쪽으로 치우침)돼 있다”는 문제를 제기하면서 논쟁이 붙은 것을 보면 여전히 해외 대형 IT업체들도 AI를 온전하게 구현하고 있지는 못한 것 같다.


AI를 사용하는 서비스와 기술이 늘어날수록 이에 따른 부작용도 커질 가능성이 높다. 한국신용정보원은 2025년 전 세계 AI 시장 규모가 지난해보다 5배 이상 늘어날 것으로 추산(미루어 셈함)했다. 그래서 각국에서 AI 개발자와 사용자가 지켜야 할 윤리기준이 제정되고 있고, 한국 정부도 지난해 말 ‘사람이 중심이 되는 AI 윤리기준’을 마련했다. 세계 각국의 AI 윤리를 분석해보니 가장 자주 언급되는 주제가 ‘공정성과 무차별(Fairness and Non-discrimination)’이었다는 연구 결과도 있다.


공정하고 차별 없는 AI 서비스를 만드는 책임은 AI가 아니라 사람에게 있다. AI는 알고리즘과 데이터를 바탕으로 작동하기 때문이다. 미 경제 전문지 포브스는 “사람들은 AI 시스템에서 나온 결과를 보곤 ‘AI가 편향됐네’라며 놀라지만 이런 결과를 만들어낸 것은 전적으로 사람”이라고 지적했다. 핵 기술로 원자력 발전소에서 전기를 생산할 수도 있고, 핵폭탄을 제조해 수많은 목숨을 빼앗을 수도 있듯이 새로운 기술이 어떻게 사용될지는 사람에게 달렸다.

동아일보 1월 12일 자 장택동 논설위원 칼럼 정리

※오늘은 동아일보 오피니언 면에 실린 칼럼을 사설 대신 싣습니다.​




▶어린이동아 장진희 기자 cjh0629@donga.com

위 기사의 법적인 책임과 권한은 어린이동아에 있습니다.

< 저작권자 ⓒ 어린이동아, 무단 전재 및 재배포 금지 >

권지단
  • 댓글쓰기
  • 로그인
    • 어동1
    • 어동2
    • 어동3
    • 어동4
    • 어솜1
    • 어솜2
    • 어솜3

※ 상업적인 댓글 및 도배성 댓글, 욕설이나 비방하는 댓글을 올릴 경우 임의 삭제 조치됩니다.

더보기

NIE 예시 답안
시사원정대
  • 단행본 배너 광고