2023년 인젝션 공격 증가율
200
%
자료 제목 :
Predicts 2024: AI & Cybersecurity — Turning Disruption into an Opportunity
2024년 예측: AI 및 사이버 보안 - 혼란을 기회로 전환하기
자료 출처 :
Gartner
원본자료 다운로드
발행 날짜 :
2024년 02월 01일
AIㆍML / 보안

“AI 딥페이크로 인해 신원 확인 및 인증 솔루션 신뢰도 떨어질 것” 가트너

편집부 | ITWorld 2024.02.05
가트너는 두바이에서 ‘가트너 보안 및 위험 관리 서밋’을 개최하고 사이버보안의 미래를 논의했다. 가트너는 2026년에는 얼굴 생체 인식 솔루션을 겨냥한 AI 딥페이크(Deepfake) 공격으로 인해 기업의 30%가 신원 확인 및 인증 솔루션을 더 이상 단독으로 신뢰할 수 없게 될 것으로 전망했다.  
 

가트너의 VP 애널리스트인 아키프 칸은 “인공적으로 생성된 실존 인물의 얼굴 이미지 ‘딥페이크’는 악의적인 공격자가 생체 인증을 약화시키거나 비효율적으로 만드는 데 사용될 수 있다”라며 “결과적으로 조직은 인증 대상자의 얼굴이 실제 사람인지 딥페이크인지 구분할 수 없기 때문에 신원 확인 및 인증 솔루션의 신뢰도에 의문을 제기하기 시작할 것”이라고 설명했다.

얼굴 생체 인식을 이용한 신원 확인 및 인증 프로세스는 사용자의 진위 여부 평가를 위해 PAD(Presentation attack detection) 기술을 활용하고 있다. 

이에 칸은 “PAD 메커니즘을 정의하고 평가하는 현재의 기준 및 테스트 프로세스는 최신 AI 생성 딥페이크를 이용한 디지털 인젝션 공격을 구분해내지 못한다”라고 지적했다.

가트너의 연구 결과에 따르면, 가장 일반적인 공격 벡터는 프레젠테이션 공격이지만 2023년에는 인젝션 공격이 200%나 증가한 것으로 나타났다. 이런 공격을 막아내기 위해서는 PAD, IAD(Injection attack detection) 및 이미지 검사 기술을 함께 사용해야 한다.

얼굴 생체 인식을 넘어선 AI 딥페이크에서 기업을 보호하기 위해서는 CISO와 위험 관리 리더가 어떤 공급업체를 선택하는지가 중요하다. 현재의 표준을 뛰어넘는 역량 및 계획을 갖췄으며 새로운 유형의 공격을 모니터링, 분류, 정량화할 수 있는 공급업체를 선택해야 한다고 가트너는 조언했다.

칸은 “조직은 공급업체 중 이미지 검사와 결합된 IAD를 사용하여 최신 딥페이크 기반 위협을 완화하는 데 특별히 투자해 온 업체와 협력해 최소한의 제어 기준을 정의하기 시작해야 할 것”이라고 말했다.

또한 전략을 정의하고 기준을 설정한 후에는 디바이스 식별 및 행동 분석과 같은 추가적인 리스크 및 인식 신호를 포함시켜 신원 확인 프로세스의 공격 탐지 확률을 높여야 한다고 업체 측은 설명했다.

특히, ID 및 액세스 관리를 담당하는 보안 및 위험 관리 리더들은 실제 사람의 존재 여부를 증명할 수 있는 기술을 도입하고 계정 탈취를 방지하는 추가적인 단계를 구축하는 등 AI 기반 딥페이크 공격 위험을 완화할 수 있는 조치를 취해야 한다고 덧붙였다.
editor@itworld.co.kr
 Tags 가트너
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.