어린이 뉴스
  •  딥페이크·가짜 프로필 사진 잡아라!… 가짜뉴스를 잡는 기술의 발전
  • 장진희 기자
  • 2023-12-05 13:01:00
  • 인쇄프린트
  • 글자 크기 키우기
  • 글자 크기 줄이기
  • 공유하기 공유하기
  • URL복사

딥페이크 영상을 잡아라!

‘진짜의(authentic).’

미국의 사전 출판사인 메리엄웹스터는 최근 올해의 단어로 ‘진짜의’ ‘진정한’이라는 뜻을 가진 ‘어센틱(authentic)’을 선정·공개했어요. 그 이유에 대해서는 “진짜를 구별하기 어려운 시대가 됐기 때문”이라고 밝혔어요.


인공지능(AI) 기술이 발전함에 따라 진짜처럼 보이는 가짜 정보가 온라인 등에서 넘쳐나고 있어 주의가 필요해요. 정확하지 않은 정보를 담고 있는 글과 사진은 물론이고 동영상까지 유행하고 있는 것이 현실이에요. 생성형 AI가 발달함에 따라 이 같은 현상이 나타나고 있지요. 생성형 AI는 글, 사진, 동영상 같은 콘텐츠를 만들어 내는 AI를 말해요.


상황이 이렇다 보니 가짜 정보를 구별하기 위한 기술도 발전 중. 어떤 기술들이 선보이고 있는지 알아볼까요?​




인텔의 ‘페이크캐처’ 프로그램을 작동시켜 딥페이크 영상을 구분하는 모습. 인텔 제공




가짜 영상을 잡아라!


딥페이크 기술이 발전하면서 온라인에서 가짜뉴스가 퍼지는 것이 문제로 떠올랐어요. 딥페이크는 대표적인 AI 기술 중 하나로 기존 인물의 얼굴을 다른 동영상 화면에 덧입히는 것을 말해요. 미국에서는 딥페이크를 활용해 유명 정치인이 하지도 않은 말을 직접 한 것처럼 지어낸 동영상이 유포(널리 퍼뜨림)되어 논란이 되기도 했어요. 조 바이든 미국 대통령과 도널드 트럼프 전 미국 대통령이 등장하는 딥페이크 영상도 유행했지요.


이처럼 가짜 동영상이 공유되는 것을 막기 위해 미국의 정보기술(IT) 기업인 인텔은 ‘페이크캐처(FakeCatcher·가짜 판별기)’라는 기술을 개발해 지난 7월 선보였어요. 영국 BBC 방송에 따르면 인텔은 딥페이크 영상과 진짜 영상을 구분하기 위해 이 같은 기술을 고안했어요. 인텔은 실제 사람을 촬영한 동영상에는 얼굴에서 미묘한 혈류(피의 흐름)가 나타나는데, 딥페이크 영상에는 혈류가 포착되지 않는다는 것에 착안해 기술을 개발했다고 설명했어요. 이를 바탕으로 진짜 영상과 딥페이크 영상을 즉각적으로 구분할 수 있는 것. 인텔에 따르면 페이크캐처는 96%의 정확도를 기록했지요.



V7 랩스의 프로그램으로 가짜 프로필 사진을 찾아내고 있다. V7 랩스 제공




가짜 프로필 사진도 가려내요


최근 미국에서 온라인 기술개발 콘퍼런스(회의)가 취소되는 일이 있었어요. AI를 바탕으로 생성된 가짜 발표자가 이름을 올렸다는 것이 확인됐기 때문. 미국 AP통신에 따르면 원래 이번 달에 마이크로소프트(MS)와 구글의 임원이 참여하는 ‘데브터니티(DevTernity)’라는 회의가 열릴 예정이었으나 발표자의 명단에 AI로 만들어진 프로필 사진과 이름을 가진 가짜 발표자가 포함됐다는 것이 드러났고, 이것이 문제가 되자 주최 측은 행사를 취소했지요.


이처럼 소셜 미디어 등에 올리는 프로필 사진이 AI가 제작한, 가짜인 경우가 빈번해지고 있어 진짜를 판별(판단해 구별함)하기 위한 기술이 개발됐어요. AI 소프트웨어 기업인 V7 랩스(V7 Labs)는 ‘가짜 프로필 사진 인공지능 판별기(Fake Profile AI Detector)’라는 구글 크롬의 확장 프로그램을 지난해 처음 선보였어요. V7 랩스에 따르면 이 프로그램을 활용하면 99%의 확률로 가짜 인물 사진을 판별할 수 있어요. 사진을 내려 받은 뒤 이 프로그램에 추가시키면 가짜 사진인지 진짜 사진인지 판단해 알려줘요. 만약 AI로 만든 가짜 사진이 활용된 계정이라면, 이 사용자가 올린 사진과 글 또한 사실이 아닐 가능성이 높은 것.​




맨 오른쪽과 같이 AI가 사진을 합성하지 못하게 된다. 아카이브(arxiv) 홈페이지 캡처



삐빅! AI 접근 금지


AI가 가짜 사진이나 동영상을 제작할 수 없도록 사전에 차단하는 기술도 등장했어요. AI는 사진, 동영상을 바탕으로 스스로 학습하여 이미지를 만들어내요. 그런데 사진, 동영상에 일종의 노이즈(잡음) 신호를 넣으면 AI가 이를 제대로 인식하지 못해 가짜 사진, 동영상을 아예 만들어내지 못하는 것.


이 같은 기술은 미국의 명문 매사추세츠공대(MIT)가 개발했어요. MIT가 무료로 배포한 이 프로그램의 이름은 ‘포토 가드’. 유명인의 동영상이 딥페이크 등에 활용되거나 개인의 얼굴이 무단으로 AI 이미지를 제작하는 데 활용되는 것을 막기 위한 방안이지요​.



▶어린이동아 장진희 기자 cjh0629@donga.com

위 기사의 법적인 책임과 권한은 어린이동아에 있습니다.

< 저작권자 ⓒ 어린이동아, 무단 전재 및 재배포 금지 >

한국수력원자력 권지단
  • 댓글쓰기
  • 로그인
    • 어동1
    • 어동2
    • 어동3
    • 어동4
    • 어솜1
    • 어솜2
    • 어솜3

※ 상업적인 댓글 및 도배성 댓글, 욕설이나 비방하는 댓글을 올릴 경우 임의 삭제 조치됩니다.

더보기

NIE 예시 답안
시사원정대
  • 단행본 배너 광고