맨디언트가 직접 공개한 자료에 따르면 침투 작전에 AI를 활용하는 것은 제한적이며, 주로 사회공학적 기법과 연계돼 있는 것으로 나타났다. 또 정보 작전을 수행하는 위협 행위자는 AI를 활용해 만든 이미지나 동영상 같은 콘텐츠 사용을 늘리고 있는 것으로 드러났다. 조작한 콘텐츠로 손쉽게 왜곡된 정보를 전달할 수 있기 때문일 가능성이 크다는 진단이다.
맨디언트에 의하면 생성형 AI 도구가 정보 조작 및 침투 활동에 기여할 전망이다. 자원과 역량이 제한적인 위협 행위자들이 메타스플로잇(Metasploit)이나 코발트스트라이크(Cobalt Strike) 프레임워크를 이용해 부족한 부분을 메우는 것과 비슷하게, 위협 행위자의 작전을 강화할 가능성이 커 보인다고 보고서는 분석했다. 공격자는 이미 AI 활용을 실험 중이며, 아직은 실전에서 제한적으로 활용하고 있지만 앞으로 더 많은 정보 작전에 AI 도구를 사용할 것으로 예상됐다.
또한 맨디언트는 위협 행위자의 기술 이해와 능력이 높아짐에 따라 다양한 배경과 목표를 가진 공격자가 생성형 AI 활용을 늘려 갈 것으로 전망했다. 일반 대중이 진짜와 AI를 활용한 가짜를 구별하지 못하는 점을 노리는 악의적인 공격은 계속될 것이라고 덧붙였다.
구글 클라우드 맨디언트 위협 인텔리전스 총괄 존 헐트퀴스트는 “범죄자와 국가 차원의 공격자가 생성형 AI 기술을 유용하다고 생각할 것은 의심의 여지가 없다”라며, “하지만 이 툴의 사용 방법에 대한 많은 추정은 아직까지 단지 추측에 그치며, 특정 케이스 관찰을 기반으로 하지는 않는다”라고 말했다.
구글 클라우드 맨디언트 인텔리전스 부사장(VP) 산드라 조이스는 “악성 활동에서 AI가 사용된 지 꽤 오래됐지만 이제는 일반 대중도 주목하는 변곡점에 도달했다”라며, “악의적으로 AI를 사용하는 공격자는 계속 존재하겠지만 그것이 공격자에게 대응하기 위해 기업과 사회가 혁신하는 것을 막지는 못할 것”이라고 밝혔다.
editor@itworld.co.kr