2019.12.20

2020년 사이버보안, 범죄자 vs. 보안 전문가 모두가 원하는 건 AI 역량

Chris Dimitriadis | CSO
향후 10년은 인공지능이 대폭 도입되는 동시에 사이버보안이 아주 중요해지는 시기가 될 것이다. 두 가지 힘이 만나는 방식은 2020년대 사회 복지를 형성할 가장 흥미롭고 중대한 역학관계 중 하나다. 
 
정보시스템감사통제협회(ISACA)의 새로운 ‘향후 10년의 기술(Next Decade of Tech): 2020년대 예측 조사’에 따르면, 사이버보안 분야에서 향후 10년간 가장 긍정적인 사회적 영향을 미칠 수 있는 기술은 AI다. 전 세계 5,000명 이상의 설문조사에서 응답자가 가장 많이 선택한 분야는 의료, 과학 연구, 고객 서비스, 제조 분야다.

이것이 사실이라면, AI가 적용된 사이버보안은 보안전문가와 기업에 큰 진전이 될 것이다. 대부분의 기업이 기존의 접근 방식에만 의존하기엔 위협 환경은 너무 광범위하고 정교해졌다. 
 
AI를 활용해 기업 보안을 강화하는 방법은 다양하다. 특히 애플리케이션이 빅데이터를 활용해 방대한 보안 통찰력을 제공할 수 있다는 점에서 유망하다. 이러한 통찰력으로 위협을 더욱 잘 식별하고 보안 전문가가 발견할 수 없는 이상을 정확히 찾아낼 수 있다.  보안팀이 책임져야할 다양한 영역 전반에 매우 중요한 역할을 할 것이다. 

사이버보안 기술 격차가 줄어들지 않기 때문에 AI와 머신러닝을 사이버보안에 통합하는 것이 특히 중요하다. ISACA의 조사에서, 향후 10년 동안 자격을 갖춘 사이버보안 담당 인력 부족이 거의 완전히 해결될 것이라고 응답한 사람은 단 18%뿐이었고, 대다수는 격차가 더 커지거나 현 상태가 유지될 것으로 예상했다.
 
현재 기업의 사이버보안 인력 충원에 수 개월 이상 걸리고 환경은 점점 더 척박해지는 상황에서, 지속되는 기술 격차 해소는 기업이 AI를 보안도구 및 기술에 얼마나 잘 통합하느냐에 달려있다.
 
인간적 기술 격차를 해소하기 위한 노력을 중단해야한다는 뜻은 아니다. 인간이 AI를 분석하므로, AI 솔루션에 대한 적절한 방향을 제시하고 경영진에 보안 위험을 알리는 것은 향후 10년도 마찬가지로 중요하다. 때문에 더욱 숙련된 전문가를 현장으로 끌어오기 위한 모든 방법을 모색해야 한다. 보안 업무에서 여성에 대한 저평가 문제를 다루기 위한 강력한 방안을 추진해야함은 물론이다. 
 

향후 10년의 보안 전쟁: AI vs. AI

AI와 머신러닝은 2020년대에 기업 보안팀에서 점차 배포를 늘릴 것이다. AI가 보안에 상당한 역할을 하고 주류가 되는 것도 머지 않았다. 
 
그러나 기업이 방어 해야할 사이버 범죄자보다 더욱 능숙한 AI 사용을 할 수 있을지는 확실하지 않다. 안타깝게도 공격자 역시 AI의 능력을 잘 알고 있으며, 기업의 모든 디지털 자산을 보호하기에는 턱없이 부족한 보안 부서보다 AI 활용에 앞설 때가 많다. 보안 컨텍스트에서 가능한 AI 악용 사례는 종종 심각한 피해를 보여준다. 

ISACA 설문조사 결과는 향후 10년간 핵심 인프라에 대한 주요 공격으로 악의적인 AI 공격을 꼽았다. 그 외, 사회공학 공격, 데이터 오염, 의료 분야 대상의 AI 공격 등의 걱정스러운 시나리오가 있었다. AI가 기존 공격 방법의 효과를 높이고, 완전히 새로운 형태의 공격을 시도할 수 있는 강력한 무기가 될 수 있다. AI 기반의 공격 방법은 더욱 발전하고 사이버 범죄자는 이를 적극적으로 수용함으로써 이미 위험한 보안 환경은 더욱 위태로워질 것이다.

보안 분야의 앞으로의 10년에서 보안팀과 사이버 범죄자 중 ‘누가 AI를 더욱 효과적으로 활용하는가’보다 더 의미 있는 질문은 없다. 기업은 AI가 사이버 보안 부서를 강화할 새로운 방법을 적극적으로 모색하고, AI 배포가 충실히 구현되도록 필요한 정책 및 위험 관리 프레임워크를 마련해야 한다.

또한 기업은 교육에 투자해야 한다. 2020년대의 AI와 보안의 결합에 앞서 보안 실무자가 AI 기반 보안 도구의 작동 방식과 현재 위협 환경에 가장 잘 적용할 수 있는 방법에 대한 지식을 갖추도록 적극 지원해야 한다. 이는 ‘AI 기반 위협 vs. AI로 강화된 보안’으로 요약되는 앞으로 10년의 보안에서, 보안 실무자가 상당한 도전에도 대응할 수 있도록 최고의 기회를 제공하는 것이다. 중장기적으로는 AI에 대한 논의를 실질적인 제어 능력으로 바꿀 수 있는 방법을 찾아보고, 잘 정의되고 규제된 윤리를 기반으로 AI의 공격에 대응할 방어 능력을 개발해야 할 것이다. editor@itworld.co.kr 


2019.12.20

2020년 사이버보안, 범죄자 vs. 보안 전문가 모두가 원하는 건 AI 역량

Chris Dimitriadis | CSO
향후 10년은 인공지능이 대폭 도입되는 동시에 사이버보안이 아주 중요해지는 시기가 될 것이다. 두 가지 힘이 만나는 방식은 2020년대 사회 복지를 형성할 가장 흥미롭고 중대한 역학관계 중 하나다. 
 
정보시스템감사통제협회(ISACA)의 새로운 ‘향후 10년의 기술(Next Decade of Tech): 2020년대 예측 조사’에 따르면, 사이버보안 분야에서 향후 10년간 가장 긍정적인 사회적 영향을 미칠 수 있는 기술은 AI다. 전 세계 5,000명 이상의 설문조사에서 응답자가 가장 많이 선택한 분야는 의료, 과학 연구, 고객 서비스, 제조 분야다.

이것이 사실이라면, AI가 적용된 사이버보안은 보안전문가와 기업에 큰 진전이 될 것이다. 대부분의 기업이 기존의 접근 방식에만 의존하기엔 위협 환경은 너무 광범위하고 정교해졌다. 
 
AI를 활용해 기업 보안을 강화하는 방법은 다양하다. 특히 애플리케이션이 빅데이터를 활용해 방대한 보안 통찰력을 제공할 수 있다는 점에서 유망하다. 이러한 통찰력으로 위협을 더욱 잘 식별하고 보안 전문가가 발견할 수 없는 이상을 정확히 찾아낼 수 있다.  보안팀이 책임져야할 다양한 영역 전반에 매우 중요한 역할을 할 것이다. 

사이버보안 기술 격차가 줄어들지 않기 때문에 AI와 머신러닝을 사이버보안에 통합하는 것이 특히 중요하다. ISACA의 조사에서, 향후 10년 동안 자격을 갖춘 사이버보안 담당 인력 부족이 거의 완전히 해결될 것이라고 응답한 사람은 단 18%뿐이었고, 대다수는 격차가 더 커지거나 현 상태가 유지될 것으로 예상했다.
 
현재 기업의 사이버보안 인력 충원에 수 개월 이상 걸리고 환경은 점점 더 척박해지는 상황에서, 지속되는 기술 격차 해소는 기업이 AI를 보안도구 및 기술에 얼마나 잘 통합하느냐에 달려있다.
 
인간적 기술 격차를 해소하기 위한 노력을 중단해야한다는 뜻은 아니다. 인간이 AI를 분석하므로, AI 솔루션에 대한 적절한 방향을 제시하고 경영진에 보안 위험을 알리는 것은 향후 10년도 마찬가지로 중요하다. 때문에 더욱 숙련된 전문가를 현장으로 끌어오기 위한 모든 방법을 모색해야 한다. 보안 업무에서 여성에 대한 저평가 문제를 다루기 위한 강력한 방안을 추진해야함은 물론이다. 
 

향후 10년의 보안 전쟁: AI vs. AI

AI와 머신러닝은 2020년대에 기업 보안팀에서 점차 배포를 늘릴 것이다. AI가 보안에 상당한 역할을 하고 주류가 되는 것도 머지 않았다. 
 
그러나 기업이 방어 해야할 사이버 범죄자보다 더욱 능숙한 AI 사용을 할 수 있을지는 확실하지 않다. 안타깝게도 공격자 역시 AI의 능력을 잘 알고 있으며, 기업의 모든 디지털 자산을 보호하기에는 턱없이 부족한 보안 부서보다 AI 활용에 앞설 때가 많다. 보안 컨텍스트에서 가능한 AI 악용 사례는 종종 심각한 피해를 보여준다. 

ISACA 설문조사 결과는 향후 10년간 핵심 인프라에 대한 주요 공격으로 악의적인 AI 공격을 꼽았다. 그 외, 사회공학 공격, 데이터 오염, 의료 분야 대상의 AI 공격 등의 걱정스러운 시나리오가 있었다. AI가 기존 공격 방법의 효과를 높이고, 완전히 새로운 형태의 공격을 시도할 수 있는 강력한 무기가 될 수 있다. AI 기반의 공격 방법은 더욱 발전하고 사이버 범죄자는 이를 적극적으로 수용함으로써 이미 위험한 보안 환경은 더욱 위태로워질 것이다.

보안 분야의 앞으로의 10년에서 보안팀과 사이버 범죄자 중 ‘누가 AI를 더욱 효과적으로 활용하는가’보다 더 의미 있는 질문은 없다. 기업은 AI가 사이버 보안 부서를 강화할 새로운 방법을 적극적으로 모색하고, AI 배포가 충실히 구현되도록 필요한 정책 및 위험 관리 프레임워크를 마련해야 한다.

또한 기업은 교육에 투자해야 한다. 2020년대의 AI와 보안의 결합에 앞서 보안 실무자가 AI 기반 보안 도구의 작동 방식과 현재 위협 환경에 가장 잘 적용할 수 있는 방법에 대한 지식을 갖추도록 적극 지원해야 한다. 이는 ‘AI 기반 위협 vs. AI로 강화된 보안’으로 요약되는 앞으로 10년의 보안에서, 보안 실무자가 상당한 도전에도 대응할 수 있도록 최고의 기회를 제공하는 것이다. 중장기적으로는 AI에 대한 논의를 실질적인 제어 능력으로 바꿀 수 있는 방법을 찾아보고, 잘 정의되고 규제된 윤리를 기반으로 AI의 공격에 대응할 방어 능력을 개발해야 할 것이다. editor@itworld.co.kr 


X