UPDATED. 2024-03-28 11:51 (목)
진짜 같은 가짜,,,‘딥페이크’
상태바
진짜 같은 가짜,,,‘딥페이크’
  • 김지수 소비자기자
  • 승인 2019.12.30 10:10
  • 댓글 0
이 기사를 공유합니다

AI를 통해 만들어진 영상으로 인한 금융권 피해가 등장할 것이다.
(출처 : 픽사베이)
(출처 : 픽사베이)

 

[소비라이프/김지수 소비자 기자] 최근 금융보안원에서 발표한 '2020년 사이버보안 이슈 전망' 보고서에 따르면 "국내 금융권이 비대면 실명확인을 위해 화상통화를 활용하거나 목소리, 얼굴 등을 이용한 바이오 인증을 금융거래에 접목하고 있어 딥페이크 공격 발생 위험이 증가하고 있다"고 한다. 이는 '딥페이크'(Deepfake) 등 인공지능(AI) 기술을 악용한 금융권 공격이 실제 일어날 수 있다는 우려인 것이다.

'딥페이크'(Deepfake)란 '딥러닝(deep learning)'과 '페이크(fake)'를 합성한 말로 인공지능을 기반으로 실제처럼 조작한 음성, 영상 등을 통칭한다. 실제로 올해 영국의 한 에너지 회사 직원은 AI 기술을 통해 상사의 지시인 것처럼 조작된 음성 메시지에 속아 헝가리 회사에 20만 유로(약 2억5천만 원)를 송금한 사례가 있기도 했다. 이외에도 미국 오바마 대통령의 음성과 영상을 합성하여 가짜 뉴스를 만드는 등 기술의 정교함을 발전해 나갈 것으로 보인다.

페이스 아이디, 결제 등 생체 인식을 통한 서비스가 증가하면서 이와 같은 기술의 피해는 더욱 증가할 것으로 예상되며 이에 대한 규제 및 대책에 대해서는 사전에 준비되어야 할 것이다. 
 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.