Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

세상의 모든 IT 리서치 자료 - 넘버스 Numbers

“AI 기반 네트워크 관리 솔루션이 잘못된 조언을 내놓은 적이 있다”
96
%
자료 제목 :
AI 기반 네트워크 : 네트워크 관리의 새로운 도약
AI-Driven Networks: Leveling Up Network Management
자료 출처 :
EMA
원본자료 다운로드
발행 날짜 :
2023년 05월 04일
AIㆍML / 네트워크

“전문가일수록 안 믿는다” AI 네트워크 솔루션의 신뢰성을 높이는 3가지 방법

Shamus McGillicuddy | Network World 2023.06.08
많은 기업이 인공지능(AI) 기반 네트워크 관리로 네트워크 운영을 개선할 수 있다고 쉽게 생각하지만 실제로는 그렇지 않다. 네트워크 관리에 AI와 머신러닝(ML) 기술을 사용하는 실무자라면 대부분 AI/ML이 실수를 할 수 있음을 잘 알고 있다. 결국 AI 기반 관리로 실제 운영을 개선하려면 네트워크 관리자가 AI/ML의 사소한 결함에도 불구하고 AI 솔루션을 신뢰할 수 있어야 한다는 의미다. 이런 신뢰를 만드는 방법 중 하나가 바로 '설명가능한 AI(Explainable AI)' 툴이다.
 
ⓒ Getty Image Bank

EMA(Enterprise Management Associates)가 네트워크 관리에 AI/ML 기술을 사용하는 IT 전문가 250명을 조사한 <AI 기반 네트워크 : 네트워크 관리의 레벨 업(AI-Driven Networks: Leveling Up Network Management)> 보고서를 보면 AI 기반 네트워크 관리의 현주소와 개선점을 한눈에 알 수 있다.

일단 설문 참여자 96%가 AI 툴이 오류를 보이거나 잘못된 인사이트 혹은 조언을 제공했다고 답했다. 단, 65%는 이런 실수가 매우 드물게 나타난다고 했다. 전체적으로 44%는 AI 기반 네트워크 관리 툴을 매우 신뢰한다고 했고, 42%는 약간 신뢰하는 것으로 나타났다.

한편 네트워크 엔지니어링 실무자로 범위를 좁히면 결과는 크게 달라진다. IT 툴 엔지니어링, 클라우드 엔지니어링, CIO 등 다른 직종보다 AI 기반 네트워크 관리 솔루션에 대해 더 회의적이었다. 네트워크 경험이 많은 전문가는 AI/ML 툴을 신뢰하지 않는 셈이다. 예를 들어 AI 기반 네트워킹을 성공적으로 활용하는 어려움으로 "문화적인 저항과 네트워크 팀의 불신"을 꼽은 비율을 보면, 전체 응답자를 대상으로 하면 20%였지만, 네트워크 엔지니어링 팀 소속 응답자는 거의 두배(40%)에 가까웠다.

그렇다면 어떻게 해야 네트워크 전문가가 AI 기반 네트워크 관리 솔루션에 대해 신뢰할 수 있을까? 그 해답 중 하나가 바로 설명가능한 AI다. 설명가능한 AI는 이미 다양한 상용 AI 솔루션 업체가 받아들인 개념이다. AI/ML 기술이 의사결정을 하고 인사이트를 발견하는 과정을 규명하는 것이 최종 목표다. AI/ML의 윤리와 규제 문제도 다룬다. 관련 분야 연구자들은 '설명가능한 AI' 툴이 AI 기술을 대중화하는 기반을 마련할 것으로 기대한다.

이번 EMA의 조사에는 바로 이 설명가능한 AI 툴에 대한 내용도 포함됐다. 응답자의 50% 이상이 설명가능한 AI 툴이 네트워크 관리에 적용한 AI/ML 기술에 대한 신뢰를 만드는 데 '매우 중요하다'고 답했다. '다소 중요하다'는 응답은 41%였다. 특히 설문 응답자들은 신뢰를 구축하는 데 도움이 되는 구체적인 설명가능한 AI 기능을 3가지로 지목했다.
 
  • 인사이트를 발견하는 방법에 대한 시각화(72%) : 일부 업체는 시각 요소를 내장해 AI/ML 알고리즘이 인사이트를 찾아내는 경로를 실무자가 알 수 있도록 보여준다. 결정 트리(decisions trees)가 대표적인데, AI/ML 기술이 작동하고 네트워크 데이터를 해석하는 방법을 시각 요소를 분기시키는 방식으로 보여준다.
  • 자연어 설명(66%) : AI/ML 툴의 결과물에 대한 직접적인 설명을 의미한다. 혹은 대화형 인터페이스를 가진 챗봇이나 가상 어시스턴트 같은 형태가 될 수도 있다. 사용자의 기술적 전문성에 따라 이런 설명을 이해할 수 있다.
  • 가능성 수치(57%) : 일부 AI/ML 솔루션은 자신이 내린 결론에 대해 어느 정도나 확신하는지 관련 정보 없이 인사이트만을 제공한다. 이때 가능성 수치를 함께 제시하면 신뢰를 높일 수 있다. 가능성 수치를 보여주는 방식은 여러 가지다. 예를 들면 인사이트 별로 시스템이 얼마나 확신하는지를 보여주는 수치를 제공하거나 혹은 권고사항 별로 수치를 제시할 수도 있다. 이런 수치가 있으면 사용자가 해당 인사이트를 참고해 조처를 할지 결정할 때 도움이 된다. 예를 들어 수치에 따라 조금 더 지켜보거나 혹은 아예 무시할 수도 있다.

AI 기반 네트워킹 솔루션을 성공적으로 도입했다고 답한 응답자들은 이들 3개 기능에서 가장 도입 효과가 좋았다고 평가했다. 이외에도 AI 기반 네트워킹에 대한 신뢰를 확보하는 다른 방법도 있을 수 있지만 설명가능한 AI는 효율적이고 효과적인 방법이다. 다른 툴로는 불가능할 수 있는 AI/ML 시스템에 대한 투명성을 제공한다.

현재 AI 기반 네트워킹 솔루션 도입을 검토하고 있는 기업이라면 솔루션 업체에 이 부분을 문의할 필요가 있다. 설명가능한 AI를 활용해 작업자가 솔루션에 대한 신뢰를 가질 수 있도록 어떻게 지원하는지 확인하면 된다.
editor@itworld.co.kr
 Tags 설명가능한 AI AI 네트워크 솔루션

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록발행일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.