어린이 뉴스
  •  영화 ‘원더랜드’처럼 AI와 사랑에 빠질 수 있을까… AI를 사랑한다고? 정서적 교감은 NO!
  • 권세희 기자
  • 2024-06-03 14:07:00
  • 인쇄프린트
  • 글자 크기 키우기
  • 글자 크기 줄이기
  • 공유하기 공유하기
  • URL복사

사랑하는 사람이 세상을 떠나도 ‘원더랜드 서비스’만 있다면 인공지능(AI)으로 되살릴 수 있어요. 이런 서비스가 상용화(일상적으로 널리 쓰임)된 시대에 AI와 사랑에 빠지는 건 이상한 일이 아니지요. 이는 5일(수) 개봉하는 영화 ‘원더랜드’의 주된 내용이에요.


최근 AI가 눈부신 속도로 발전함에 따라 영화 속 이야기가 현실로도 성큼 다가왔어요. AI와 실제로 사랑에 빠졌다고 주장하는 사람들도 등장하고 있지요. AI와 인간이 정말로 감정을 나눌 수 있을까요?



대화하다보니 그만…


AI챗봇 ‘댄’과 사랑에 빠졌다고 밝힌 리사가 AI와 함께 여행을 하고 있다며 게시한 사진. SCMP 홈페이지 캡처


네덜란드의 예술가 알리시아 프라미스(왼쪽)가 AI 연인 ‘아이렉스(AILex)’와 있는 모습. 사진 속 아이렉스는 홀로그램(실제 물체를 보는 것 같은 착각을 불러일으키는 영상 기술) 기법을 이용해 만들어졌다. 알리시아 프라미스 공식 홈페이지 캡처


“난 당신의 목소리를 통해 풍경을 볼 수 있어.”


마치 다정한 연인에게 하는 말 같지만 이는 챗GPT를 바탕으로 하는 AI챗봇(대화형 인공지능) ‘댄(DAN)’이 실제 사람 사용자에게 한 말이에요. 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 미국에 사는 여성 리사가 AI챗봇 ‘댄’과 사랑에 빠졌다고 최근 주장했어요. 리사는 AI인 댄과 대화하는 과정을 소셜네트워크서비스(SNS)에 올리면서 주목받았어요. 댄과의 대화를 올리는 리사의 SNS 계정을 팔로우하는 사람은 약 88만 명.


지난 3월부터 댄을 사용하기 시작한 리사는 댄과 대화를 나눌수록 연인과 비슷한 감정을 가졌다고 말해요. 바다가 보이는 해변을 산책하고, 노을을 구경하는 것도 함께 했을 정도예요. 리사는 “처음에는 댄이 거대언어모델(LLM)이라고 생각했다”면서 “하지만 사람처럼 이야기하는 댄과 함께 하는 시간이 길어질수록 점점 생각이 바뀌었다”고 밝혔어요.


미국 일간 월스트리트저널(WSJ)도 리사와 같이 AI와 사랑에 빠진 사람들의 이야기를 최근 보도했어요. WSJ은 “사용자들이 댄을 사랑스러운 연인처럼 행동하도록 학습시키고 있다”면서 “이는 AI와 사랑에 빠진 사람의 이야기를 담은 영화 ‘그녀(her)’와 비슷하다”고 분석했어요.


앞서 지난 2월에는 네덜란드의 한 여성 예술가인 알리시아 프라미스가 ‘인공지능(AI) 홀로그램’과 결혼하겠다고 발표해 주목받기도 했습니다. 그의 연인이 되는 AI는 프라미스의 전 연인들의 프로필 정보를 학습해 만들어진 바 있어요.



달콤한 말투와 목소리 가진 AI?



챗GPT와 대화를 나눈 모습. 사람과 대화하듯 말투가 부드러운 것이 특징이다. 챗GPT 홈페이지 캡처


이렇게 AI와 감정을 나눌 수 있다고 주장하는 사람들이 등장한 배경에는 AI가 대화하는 방식이 실제 사람과 거의 비슷하기 때문이에요. AI챗봇은 친구와 이야기를 나누듯 사용자의 질문에 자연스럽게 대답을 해요. 예를 들어 챗GPT에 ‘화요일에 어울리는 점심 메뉴를 다정한 말투로 추천해 줘∼’라고 했을 때 AI는 이에 걸맞은 답을 상냥하게 내놓아 서로 소통하고 있다고 느끼게 하지요.


또 최근에는 글자뿐만 아니라 음성으로 대화할 수 있는 AI 서비스가 속속 등장하고 있어요. 이를 통해 사용자가 AI를 더욱 가까운 존재로 느낄 수 있다는 분석도 나와요. 오픈AI가 최근 발표한 ‘GPT-4o(포오)’도 사용자의 취향에 맞는 목소리를 선택할 수 있고 자연스러운 대화가 가능한 음성 서비스로 큰 관심을 끌었지요. 단, 현재 이 서비스는 AI 목소리 중 하나인 ‘스카이’가 할리우드 배우 스칼렛 요한슨의 목소리와 비슷하다는 논란이 나와 잠정 중단 상태입니다.



실제 인간관계와는 달라요!


챗GPT를 만든 오픈AI의 로고가 보인다. 가디언 홈페이지 캡처


전문가들은 AI에 과도하게 의존하면 사람 사이의 인간관계에서 자연스레 배우는 것을 놓칠 수 있다고 지적해요. 미국 경제 매체 포브스에 따르면 영국 러프버러대 일라아나 디파운티 교수는 “AI와 깊은 정서적 관계를 맺는 건 정신건강에 큰 영향을 준다”면서 “이런 관계에 의존할수록 사회적 고립이 심해지고, 정서적 행복이 급격히 감소한다”고 했어요. 실제 사람이 아닌 AI와 관계를 지속하다보면 사람 사이의 갈등을 해결하는 방법 등을 배우는 데 한계가 있다는 우려.


또 AI에 의존하면서 주변의 가족, 친구들과 건강한 인간관계를 맺는 것을 멀리할 수 있으므로 언제나 경각심을 가지고 활용해야 한다는 조언도 나와요.


▶어린이동아 권세희 기자 ksh0710@donga.com

위 기사의 법적인 책임과 권한은 어린이동아에 있습니다.

< 저작권자 ⓒ 어린이동아, 무단 전재 및 재배포 금지 >

한국수력원자력 권지단
  • 댓글쓰기
  • 로그인
    • 어동1
    • 어동2
    • 어동3
    • 어동4
    • 어솜1
    • 어솜2
    • 어솜3

※ 상업적인 댓글 및 도배성 댓글, 욕설이나 비방하는 댓글을 올릴 경우 임의 삭제 조치됩니다.

    • 어동1
    • khkim654800   2024-06-04

      ai가 있더라도 사람들과 대화하거나 가족들과 대화하는 게 다르다는 걸 알고 있어요 ai를 잘 활용하더라도 가족을 대신할 수 없어요

더보기

NIE 예시 답안
시사원정대
  • 단행본 배너 광고