AIㆍML / 개발자 / 보안

“위기의 API 보안” 당면 과제와 AI 중심의 해법

Sanjeewa Malalgoda, Lakshitha Gunasekara | InfoWorld 2020.01.31


또 다른 요소는 내부적으로 일어나는 공격의 수가 상당하다는 것이다. 유효한 인증 정보와 시스템 액세스 권한을 갖게 되면 이를 활용해 시스템을 공격할 수 있다. 정책 기반 인증과 승인은 이와 같은 종류의 공격을 막지 못한다.

API 게이트웨이에 이러한 공격을 차단하기 위한 규칙과 정책을 더 많이 추가하는 방법이 있지만, 이 경우 API 게이트웨이에 가해지는 부가적인 오버헤드가 너무 커질 수 있다. 기업 입장에서 사용자에게 내부 API 게이트웨이의 처리 지연을 참으라고 요구할 수는 없다. 따라서 게이트웨이는 사용자 API 호출을 차단하거나 늦추지 않으면서 유효한 요청을 처리해야 한다.
 

AI 보안 계층 추가가 적절한 경우

정책 기반 API 보호의 빈틈을 메우기 위해 현대의 보안팀에 필요한 것은 동적 공격과 각 API의 고유한 취약점을 탐지, 대응할 수 있는 AI 기반 API 보안이다. AI 모델을 적용해 모든 API 활동을 지속적으로 검사, 보고하면, 기업은 API 인프라 전반에서 전통적인 방법으로는 잡을 수 없는 비정상적인 API 활동과 위협을 자동으로 탐지할 수 있다.

일반적인 보안 수단으로 이상 현상과 위험을 감지할 수 있는 경우라 해도 발견하기까지는 몇 개월이 걸릴 수 있다. 반면 AI 기반 보안 계층은 사용자 액세스 패턴을 바탕으로 사전에 제작된 모델을 사용, 일부 공격을 거의 실시간으로 감지할 수 있다.

중요한 점은 AI 엔진은 일반적으로 API 게이트웨이의 바깥에서 실행되면서 결정 사항을 게이트웨이로 전달한다는 것이다. 요청을 처리하기 위해 API 게이트웨이에서 리소스를 확장할 필요가 없으므로 AI 보안을 추가해도 대부분의 경우 런타임 성능에는 영향을 미치지 않는다.
 

정책 기반 및 AI 기반 보안의 통합

API 관리 구현에 AI 기반 보안을 추가하는 경우, 보안 실행 지점과 의사 결정 지점이 발생한다. 일반적으로 이러한 유닛은 높은 수준의 연산 성능이 필요하므로 독립적으로 구성되지만, 지연으로 인해 효율성에 영향을 미치지 않도록 해야 한다.

API 게이트웨이는 API 요청을 가로채서 다양한 정책을 적용한다. 게이트웨이 연결 지점은 보안 실행 지점으로, 의사 결정 지점으로 가는 각 요청(API 호출)의 속성을 기술하고, 보안 의사 결정을 요청한 다음 이 결정을 게이트웨이에서 집행한다. 의사 결정 지점은 AI를 기반으로 움직이며 각 API 액세스 패턴의 동작을 지속적으로 학습하고 이상 행동을 감지하고 요청의 다양한 속성에 플래그를 지정한다.

학습 기간 중에 필요한 경우 의사 결정 지점에 정책을 추가하고 이러한 정책(API마다 다를 수 있음)을 호출하는 옵션이 있어야 한다. 모든 정책은 보안팀이 정의해야 하는데, 그에 앞서 보안팀은 노출하려는 각 API의 잠재적 취약점을 철저히 파악해야 한다. 그러나 AI 기반의 적응형 의사 결정 지점 및 실행 지점 기술은 외부 정책의 지원이 없더라도 시간이 지나면 정책으로는 감지할 수 없는 일부 복잡한 공격을 학습하고 차단할 수 있게 된다.

보안 실행 지점과 의사 결정 지점 구성 요소를 별도로 둘 때 얻는 또 다른 이점은 기존 API 관리 솔루션과의 통합이다. 간단한 사용자 인터페이스 보완과 맞춤 설정된 확장 기능만으로 API 게시자 및 게이트웨이에 보안 실행 지점을 통합할 수 있다. API 게시자는 게시된 API에 대해 AI 보안을 활성화할지 여부를 UI에서 선택하고, 필요에 따라 특수한 정책도 선택할 수 있다. 확장된 보안 실행 지점은 의사 결정 지점에 요청 속성을 게시하고, 의사 결정 지점의 응답에 따라 API에 대한 액세스를 제한할 수 있다.

단, 의사 결정 지점에 이벤트를 게시하고 그 응답에 따라 액세스를 제한하는 과정은 시간이 걸리며 네트워크에 대한 의존도도 높다. 따라서 캐싱 메커니즘으로 적절히 보완해서 비동기적으로 구현하는 것이 바람직하다. 정확성에는 약간 영향을 미칠 수 있지만 게이트웨이의 효율성을 감안하면 AI 보안 계층 추가가 전체적인 지연에 미치는 영향은 미미하다.
 

AI 기반 보안 계층의 과제

물론 혜택에는 대가가 따른다. AI 기반 보안 계층은 API 보호 수준을 한 단계 높여주지만 보안팀이 해결해야 할 다음과 같은 과제도 함께 따라온다.
 
  • 부가적인 오버헤드. 부가적인 AI 보안 계층은 메시지 흐름에 얼마간의 추가 오버헤드를 유발한다. 따라서 정보 수집과 주 중재 흐름 외부로의 정보 게시를 처리하는 중재 솔루션의 지능(효율성)이 충분히 높아야 한다.
 
  • 오탐지. 보안 전문가가 많은 양의 오탐지를 점검해야 한다. 그러나 고급 AI 알고리즘을 활용하면 트리거되는 오탐지의 수를 줄일 수 있다.
 
  • 신뢰 부족. 사람들은 의사 결정이 어떻게 이뤄지는지 알지 못하면 불안함을 느낀다. 대시보드와 알림은 사용자가 의사 결정의 근거를 시각화해서 이해하는 데 도움이 될 수 있다. 예를 들어 1분 이내에 1,000회가 넘는 비정상적인 접속으로 인해 사용자의 시스템 액세스가 차단되었음을 명확히 알려주면 사람들은 상황을 이해하고 시스템의 결정을 신뢰하게 된다.
 
  • 데이터 취약성. 대부분의 AI와 머신러닝 솔루션은 방대한 양의 데이터에 의존하며, 그중 상당수는 민감하고 개인적인 데이터다. 결과적으로 이러한 솔루션은 데이터 침해와 신원 절도에 취약해질 수 있다. 유럽연합의 GDPR을 준수하면 위험을 완화할 수 있지만 완전히 없앨 수는 없다.
 
  • 라벨링된 데이터의 한계. 가장 강력한 AI 시스템은 사람이 감독하는 학습을 통해 학습된 시스템이다. 이를 위해서는 기계가 이해할 수 있도록 정리된, 라벨링된 데이터가 필요하다. 그러나 라벨링된 데이터에는 한계가 있고, 갈수록 어려워지는 알고리즘을 앞으로 자동으로 생성하게 되면 이 문제는 더욱 악화될 것이다.
 
  • 잘못된 데이터. AI 시스템의 효과는 그 시스템 학습에 사용된 데이터에 따라 좌우된다. 개별 사용자에 대한 중요한 의사 결정에 영향을 미칠 수 있는 민족, 공동체, 성별 또는 인종적 편견과 관련된 불량한 데이터가 유입되는 경우가 매우 많다.

API는 오늘날 기업에서 중대한 역할을 하는 만큼 해커와 악의적 사용자의 목표물이 되는 사례도 증가하고 있다. 인증, 승인, 페이로드 스캔, 스키마 유효성 검사, 쓰로틀링, 속도 제한과 같은 정책 기반 메커니즘은 효과적인 API 보안 전략을 구현하기 위한 기본 요건이다. 그러나 기업이 오늘날 새롭게 부상하는 교묘한 보안 공격으로부터 자산을 보호하기 위해서는 AI 모델을 추가해 모든 API 활동을 지속적으로 검사하고 보고해야 한다.  editor@itworld.co.kr
Sponsored

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.