Offcanvas
Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.
Offcanvas
1111Some text as placeholder. In real life you can have the elements you have chosen. Like, text, images, lists, etc.

신경망

머신러닝 스타일 : 인공 신경망과 작동 원리, 함수 구조

인공 지능(AI)은 컴퓨터 과학에서 가장 중요하고 역사가 긴 연구 영역 중 하나다. 워낙 넓은 범위를 다루는 만큼 마음과 의식의 본질에 대한 철학적 질문까지 파고든다. 실용적인 측면에서 현대의 AI는 주로 머신러닝(ML)의 영역이다. 머신러닝은 학습하는 데이터에 대응해 변화할 수 있는 소프트웨어 시스템을 다룬다. 여기서 눈에 띄는 아키텍처 스타일은 이른바 딥 러닝의 한 형태인 신경망이다. 이번 기사에서는 신경망과 그 작동 원리에 대해 알아본다.     신경망과 인간의 뇌 신경망은 인간의 뇌 구조와 비슷하다. 기본적인 개념은 뉴런(neuron)이라고 하는 개체의 무리가 결합되어 네트워크를 형성하는 것이다. 각각의 뉴런은 내부 계산에 따라 하나 이상의 입력과 하나의 출력을 수신한다. 따라서 신경망은 특수한 종류의 방향 그래프다.   많은 신경망은 노드의 층을 입력, 은닉, 출력의 세 가지로 구분한다. 입력층에는 원시 입력을 수신하는 뉴런이 있고 은닉층은 이 입력을 수정하며 출력층은 최종 결과를 생산한다. 네트워크를 통해 데이터가 이동하는 프로세스를 순전파(feedforward)라고 한다.   네트워크는 입력을 소비하면서 여러 뉴런 등급을 거쳐 위로 전달하고, 이후 최종 출력을 알려진 결과와 비교하는 방법으로 “학습”하고, 이렇게 학습된 내용은 시스템을 통해 역방향으로 제공되어 노드의 계산 방식을 바꾼다. 역전파(backpropagation)라고 하는 이 역방향 프로세스가 전반적으로 머신러닝의 주된 특징이다.   신경망의 기본 구조 내에는 방대한 다양성이 포함된다. 이러한 시스템의 모든 측면은 특정 문제 영역 내에서 개선이 가능하다. 마찬가지로 역전파 알고리즘에도 여러 구현이 있다. 일반적인 접근법은 편도 함수 미적분(경사 역전파라고도 함)을 사용해서 전체적인 네트워크 동작 중 특정 단계의 영향을 판단하는 것이다. 뉴런은 다양한 수의 입력을 가질 수 있고(1 - *) 서로 연결되어 네트워크를 형성하는 방식도 다양하다....

머신러닝 신경망 인공지능 4일 전

“멀티태스킹하는 AI” 구글 차세대 AI 패스웨이즈의 가능성

구글이 자사의 차세대 AI 아키텍처인 패스웨이즈(Pathways)를 발표했다. AI가 풀어야 할 복잡한 과제를 고려하면, 새로운 접근법이 필요하다는 것이 구글 리서치 담당 수석 부사장 제프 딘의 설명이다. 실제로 AI에 대한 기대는 매우 크다. 특히 질병이나 전염병, 날로 증가하는 불평등, 기후변화와 같은 위협 등 인류가 직면한 거대한 과제를 해결하는 데 AI의 도움이 필요하기 때문이다.   패스웨이즈는 AI에 대한 새로운 사고 방식을 기반으로 한다. 딘은 블로그 포스트를 통해 기존 AI 시스템의 약점 중 다수를 보완하고 강점을 융합할 수 있다고 강조했다. 현재 AI 모델은 보통 단일 작업에 맞춰 학습한다. 새로운 문제를 해결하기 위해서는 처음부터 다시 훈련해야 한다. 그 결과, 수천 가지 개별 작업을 위한 수천 가지 모델이 생겨났다. 새로운 작업을 반복적으로 학습하는 것은 시간이 오래 걸릴 뿐만 아니라 더 많은 데이터도 필요하다. 딘은 이런 속성을 기존 AI 세상의 가장 큰 단점으로 꼽았다. 딘은 전통적인 IA 접근법과 인간이 학습하는 방식을 비교하며, “만약 새로운 기술을 배우기 전에 기존에 배운 모든 것을 깨끗이 잊어버린다고 상상해 보자. 줄넘기를 예로 들어보자. 균형을 잡고 뛰고 팔의 움직임과 맞추는 방법을 매번 새로 배워야 하는 것이다”라고 설명했다.   멀티태스킹 AI를 지향하는 패스웨이즈 패스웨이즈 아키텍처로 구글이 개발하는 AI 모델은 기존 기술을 새로운 기술과 결합해 다양한 작업을 동시에 수행할 수 있다. 예를 들어, 항공사진으로 지형의 고도를 모델링하는 시스템은 해당 지역에서 홍수가 어떻게 확산될지 예측하는 법도 배울 수 있다. 즉, 패스웨이즈의 모델은 앞으로 등장할 복잡한 과제를 해결하는 데 필요한 다양한 역량을 갖추게 되며, 필요에 따라 이런 역량을 가져와 결합해 사용할 수 있다. 인간이 여러 가지 감각으로 세상을 인식하는 것처럼, 패스웨이즈 역시 여러 가지 감각을 가져야 한다. 현재의 AI 시스템은 한 번에 한...

구글 패스웨이즈 pathways 2021.11.04

딥러닝에 대한 10가지 질문

데이터 과학 문제, 더 구체적으로는 인공 지능(AI) 영역에서 성공적으로 딥러닝(Deep Learning)을 사용하기 위한 전략을 설명하는 기사는 흔히 볼 수 있다. 그러나 딥러닝 자체와 딥러닝이 그렇게 강력한 이유, 그리고 실제 사용 환경에서 딥러닝이 취하는 다양한 형태에 대한 명확한 설명은 찾기가 쉽지 않다. 딥러닝, 신경망, 중요한 혁신, 가장 널리 사용되는 패러다임, 딥러닝이 효과적인 분야와 그렇지 않은 분야, 그리고 딥러닝의 간략한 역사에 대해 더 자세히 알기 위해 몇 가지 질문을 던지고 답을 구했다.   딥러닝이란 정확히 무엇인가? 딥러닝은 전통적인 신경망의 현대적 발전이다. 실제로 고전적인 피드 포워드(feed-forward), 완전 연결, 역전파(backpropagation) 학습, 다층 퍼셉트론(MLP)에 “더 깊은” 아키텍처가 추가된 것이다. 더 깊다는 것은 순환망, 합성곱망의 경우와 같이 숨겨진 층이 더 많고 몇 가지 새로운 신경 페러다임이 더 있다는 것을 의미한다. 딥러닝과 신경망의 차이는 무엇인가? 차이점은 없다. 딥러닝 네트워크가 곧 신경망이고, 단지 1990년대에는 학습이 불가능했던 수준의 더 복잡한 아키텍처가 추가됐을 뿐이다. 예를 들어 순환신경망(RNN)의 장단기 메모리(LSTM) 유닛은 1997년 호크라이터와 슈미트후버에 의해 고안됐지만 계산 시간이 길고 계산 리소스의 요건이 높았던 탓에 오랜 시간 도입되지 못했다. 두 개 이상의 숨겨진 층이 있는 다층 퍼셉트론 역시 나온 지 오래된 개념이고 그 혜택도 이미 명확히 알려졌다. 중대한 차이점은 현대의 연산 자원 덕분에 이제 이와 같은 개념을 실제로 구현할 수 있게 됐다는 것이다. 딥러닝을 좌우하는 요소는 결국 더 강력한 컴퓨팅 자원인가? 일반적으로 더 빠르고 더 강력한 연산 자원은 더 강력하고 유망한 신경 아키텍처의 구현과 실험을 가능하게 해준다. 신경망 학습에 며칠씩 소비하는 방식은 같은 신경망을 GPU 가속의 도움을 받아 몇 분만에 학습시키는 방법과 경쟁할 수...

인공지능 딥러닝 신경망 2020.03.16

"파이토치"냐 "텐서플로우"냐, 딥 러닝 프레임워크 선택 가이드

모든 회귀(regression) 또는 분류(classification) 문제를 딥 러닝(deep learning)으로 풀어야 할 필요는 없다. 그렇게 따지면 모든 회귀 또는 분류 문제를 머신러닝으로 풀어야 할 필요도 없다. 결국 많은 데이터 집합은 분석적으로, 또는 간단한 통계적 절차를 사용해 모델링할 수 있기 때문이다.    반면 딥 러닝 또는 심층 전이 학습(deep transfer learning)이 다른 방법으로 만들 수 있는 모델보다 더 정확한 모델을 학습시키는 데 도움이 되는 경우도 있다. 이런 경우, 특히 필요한 모델과 비슷한 학습된 모델이 프레임워크의 모델 라이브러리에 이미 존재한다면 파이토치(PyTorch)와 텐서플로우(TensorFlow)가 매우 효과적이다. 파이토치 파이토치는 예전의 토치(Torch) 및 카페2(Caffe2) 프레임워크를 기반으로 한다. 이름에서 짐작하겠지만 파이토치는 파이썬을 스크립팅 언어로 사용하며, 진화된 토치 C/CUDA 백엔드를 사용한다. 카페2의 프로덕션 기능은 현재 파이토치 프로젝트로 편입되는 중이다. 흔히 파이토치를 “강력한 GPU 가속이 적용되는 파이썬으로 된 텐서와 동적 신경망”이라고 한다. 이것이 무슨 뜻일까? 텐서(Tensors)는 물리학과 공학에 많이 사용되는 수학적 구조다. 랭크 2의 텐서는 특수한 종류의 행렬로, 벡터의 내적(inner product)을 취하고 텐서는 새로운 크기와 새로운 방향으로 다른 벡터를 산출한다. 텐서플로우는 시냅스 무게의 텐서가 네트워크 모델을 따라 흐른다는 데서 이름을 따왔다. 넘파이(NumPy) 역시 텐서를 사용하지만 ndarray라는 명칭을 사용한다. GPU 가속(GPU acceleration)은 대부분의 현대 심층 신경망 프레임워크에 있는 기능이다. 동적 신경망(dynamic neural network)은 반복할 때마다 변경이 가능한 신경망으로, 예를 들어 파이토치 모델이 학습 중 숨은 계층을 추가하거나 제거해서 정확성과 일반성을 개선할 ...

머신러닝 딥러닝 신경망 2019.08.28

2018 최고의 오픈소스 소프트웨어 : 머신러닝

아마존, 구글, 마이크로소프트, 페이스북, 그리고 수많은 업체가 가장 풍부하고 가장 쉬운 머신러닝 및 딥러닝 라이브러리를 만들기 위해 경쟁하고 있다. 경쟁은 좋은 것이다. 2018년 최괴의 오픈소스 소프트웨어 대상 머신러닝 부문은 모델을 구축하고 훈련하는 데 필요한 최첨단 프레임워크와 최신 툴, 클러스터 전반에 딥러닝을 배포하기 위한 플랫폼 등이 차지했다.  editor@itworld.co.kr

인공지능 신경망 텐서플로우 2018.10.05

인텔 AI 칩 로이히, "2019년까지 생쥐 두뇌 수준 구현이 목표"

인텔이 이번주 AI 칩 로이히(Loihi) 시스템이 2019년까지 1,000억 개의 시냅스를 탑재할 것이며 생쥐 수준의 두뇌 복잡성과 같은 수준을 목표로 할 것이라고 발표했다. 지난 9월 인텔은 확률론적 컴퓨팅 칩이 탑재된 로이히를 공개했다. 인텔은 확률론적 컴퓨팅이 인공지능으로 향하는 중요한 단계라고 보고 있다. 순차적 파이프라인을 사용하는 코어 칩과는 달리 로이히는 인간 두뇌의 신경망 역할을 모방했고, 약 13만 개의 뉴런과 1억 3,000만 개의 시냅스를 탑재했다. 그리고 이번주 인텔은 로이히 칩의 시냅스를 1,000억 개 이상으로 늘리면서 2019년 계획을 확장했다. 인텔 대변인은 월요일, 로드맵 발표에서 단일 칩이라기 보다는 하나의 대형 멀티 칩 시스템이 될 것이라고 밝혔다. 그러나 지금까지도 과학자들이 수년간 다양한 동물의 대뇌 피질을 모델링하는 작업을 진행하고 있음을 고려할 때. 실제의 신경망의 역학 방식을 모방하는 것이 얼마나 복잡한지를 짐작할 수 있을 것이다. 2009년 미국 IBM 알메이든 연구소와 로렌스 버클리 국립 연구소의 여러 과학자가 발행한 논문에서는 고양이의 대뇌 피질을 구성하기 위해 블루진/P 슈퍼컴퓨터의 던 기종으로 14만 7,456개의 CPU와 144TB의 주 메모리를 사용했다고 밝혔다. 이 연구팀은 다양한 동물의 상대적인 시냅스 복잡성을 설명했다. 1,240억 개의 시냅스로는 일반적인 쥐의 두뇌 수준을 구성하는데, 이것은 롤리히 시스템의 목표보다 약간 더 높은 정도다. 아직 ‘진정한’ 인공지능 수준을 구현하려면 갈 길이 멀다는 것도 알 수 있다. 아래의 표에서 보듯, 다음 단계는 5,000억 개의 시냅스를 갖춘 쥐의 두뇌 수준이다. 그러나 인텔의 신경망 칩 기술이 직선이 아닌 선형적으로 발전할 경우 수년이 더 걸릴 수도 있다. 그 다음 단계는 물론 6조 1,000억 개의 시냅스를 갖춘 고양이의 대뇌 피질이다. 인간의 두뇌는 어떨까? 시냅스가 9조개로 늘어나도 인간 두뇌 ...

신경망 로이히 뉴로모픽칩 2018.05.15

“자기 디스크의 귀환” 하드디스크를 넘어 자기 미디어를 되살릴 신기술

만약 스토리지의 대세가 SSD로 굳어졌고, 자기 디스크 드라이브는 서서히 물러나고 있다고 생각한다면, 잠깐 다시 생각할 시간이 갖기 바란다. 지난 해 스토리지 및 컴퓨팅에 관련된 자기 기술 분야에서 다수의 과학적 돌파구가 발표됐기 때문이다. 이들 “유레카”의 순간은 사물 인터넷을 수행하는 방식을 바꿔 놓을 수 있으며, 경우에 따라 인간의 뇌가 사물을 처리하는 방식을 모방한 자기 중심 신경망을 도입할 수도 있다. 3D 자석 제일 먼저 소개할 것은 11월에 발표된 3D 나노 자석의 발명으로, 데이터 전송을 기존의 2차원에서 3차원으로 바꾼다. 케임브리지 대학의 연구팀은 이런 식의 차원 추가로 스토리지 용량과 처리 기능을 크게 증가시킬 수 있다고 설명했다. 또 “완전히 새로운 세대의 자기 디바이스 개발”이라며, “3차원 공간을 이용해 극히 효율적인 방법으로 정보를 저장하고 옮기고 처리할 수 있다”고 강조했다. 열을 움직임으로 바꾸는 자기 시스템 지난 해 말 엑서터 대학(Exeter University)이 발표한 또 다른 기술은 열을 움직임으로 바꾸는 새로운 자기 시스템이다. 물리학 기반의 이런 변형은 초소형 IoT 디바이스의 작동기와 센서를 구동하는 실용적인 방법이라는 것이 밝혀졌다. 뿐만 아니라 이런 설계는 자기 메모리에도 적용할 수 있는데, 레이저가 데이터를 기록하는 과정에서 발생하는 열을 통해 정보를 저장할 수도 있다. ‘열 래칫(Thermal Rachet)’이란 이 디바이스는 인간의 머리카락보다 200배 더 가늘고 ‘반목 자기 물질(Frustrated Magnetic Material)’을 사용한다. 이번 연구의 대표 저자이자 마리 큐리 연구소 펠로우인 세바스찬 글리가는 “인공 스핀 아이스(Spin Ice, 최근 발견된 자성 물질의 한 종류로, 얼음과 비슷한 구조이다)로 알려져 있다”고 설명했다. ...

SSD 저전력 하드디스크 2018.01.16

"페이스북 번역을 믿지마세요", '좋은 아침' 게시했다 체포 소동

이스라엘 경찰은 한 팔레스타인 인을 체포했다. 한 팔레스타인 인이 페이스북에 "좋은 아침"이라고 게시한 글을 페이스북이 "그들을 공격하라"라고 잘못 번역한 탓이다. 페이스북 인공지능과 결합된 소셜 미디어 모니터링이 게시물을 잘못 번역해 선동 혐의로 체포하도록 부추긴 것이다. 웃음많은 한 팔레스타인 건설 노동자가 페이스북에 불도저에 기대어 커피 한잔을 들고 있는 자신의 사진을 올리면서 아랍어로 "좋은 아침"이라고 썼다. 페이스북의 번역 서비스에 의존하고 있는 이스라엘 경찰은 이 게시물이 "그들을 공격하라"라고 쓴 것으로 믿었다. 이스라엘 일간지 하아레츠(Haaretz)는 "페이스북에서 제공하는 자동 번역 서비스는 자체적인 알고리즘을 사용한다. 히브리어로 '좋은 아침'을 '공격하다'로 번역을 했으며 영어로는 '상처를 주다'로 번역한다"고 보도했다. 이 팔레스타인 남자는 예루살렘 근처 웨스트 뱅크(West Bank)에 위치한 베타르 일리트(Beitar Illit) 정착촌의 건설 현장에서 불도저와 함께 사진을 찍었는데, 불도저들은 과거 이스라엘인에 대한 테러 공격에 사용되기도 했다. 이스라엘 경찰은 이를 아랍어를 구사하는 직원과 상담하지 않았으며, 대신 페이스북의 번역에 전적으로 믿었다. 그 결과 이 팔레스타인 인은 체포됐다. 하아레츠는 "아랍어 사용자는 페이스북에서 사용된 영문 변환이 아랍어에서는 실제 그 단어가 아니지만, '상처'라는 동사처럼 보일 수 있다"며, "아랍어 사용자가 이 변환이 실제 정확하지 않음을 분명 알 수 있다"고 설명했다. 하아레츠는 "'좋은 아침'과 '그들을 다치게하라'라는 아랍어 구어체 간에는 한 글자만 차이가 있다"고 말했다. 이스라엘 경찰청 웨스트뱅크 지역 대변인은 건설 노동자의 ...

페이스북 번역 머신러닝 2017.10.23

인텔, AI 지향 ‘너바나’ 신경망 프로세서 발표

IBM, 퀄컴, 구글 등의 업체는 AI와 신경망 지향 칩을 만드는 데 적지 않은 노력을 기울이고 있다. 이제 이런 업체 목록에 인텔을 추가해도 된다. 인텔은 AI 프로젝트와 관련 작업용으로 너바나 NNP(Nervana Neural Network Processor)를 공식 발표했다. 너바나 NNP는 인텔이 새로 설계한 것은 아니다. 지난 해 인텔이 4억 달러에 인수한 너바나 시스템(Nervana Systems)의 기술로, 인텔 인수 이후 너바나의 전 CEO 나빈 라오는 인텔의 AI 제품군을 맡았다. 라오는 너바나 NNP를 공식 발표하는 블로그 포스트를 통해 “기존 하드웨어로 인한 제약을 벗어나기 위해 인텔 너바나 NNP를 설계했다. 기존 칩은 솔직히 AI용으로 설계된 것은 아니었다”라고 강조했다. 여기서 흥미로운 점은 라오가 x86 아키텍처에 대해 언급하지 않았다는 것이다. 엔비디아의 CEO는 x86를 저격하는 데 주저한 적이 없기 때문이다. 라오는 설계 세부 사항을 공개하지는 않았다. 단지 NNP가 x86의 표준 캐시 계층 구조를 사용하지 않으며, 온칩 메모리는 소프트웨어를 직접 관리한다고만 밝혔다. 또한, 새로운 칩이 고속 상호 연결을 갖춰 대규모 양방향 데이터 전송이 가능하다고 설명했다. 인텔 CEO 브라이언 크르자니크는 이 주제에 대해 개인 블로그를 통해 “인텔 너바나 기술을 사용하면, 기업은 데이터 처리량을 극대화하는 완전히 새로운 수준의 AI 애플리케이션을 개발할 수 있을 것이며, 더 큰 인사이트를 찾아 비즈니스를 변혁할 수 있을 것이다”라고 강조했다. 크르자니크는 또 페이스북이 프로세서 설계에 참여했다는 사실도 공개했는데, 자세한 사항은 밝히지 않고 페이스북이 인텔과 “매우 밀접하게 협업했고, 기술적인 인사이트를 공유했다”고만 말했다. 여기서 페이스북이 중요한 것은 NNP의 대표적인 잠재 고객이 바로 소셜 미디어이기 때문이다. 크르자니크는 NNP를...

프로세서 인텔 인공지능 2017.10.23

머신러닝의 뿌리와 원리 “데이터에서 파생된 소프트웨어”

요즘 “머신러닝”이라는 용어를 흔히 듣는다. 인공 지능(AI)이라는 용어와 혼용되는 경우가 많지만, 사실 머신러닝은 AI의 부분집합이다. 머신러닝과 AI 모두 그 뿌리는 1950년대 후반 MIT로 거슬러 올라간다. 의식하든 하지 않든 사람들은 매일 머신러닝을 접한다. 시리와 알렉사 음성 비서, 페이스북과 마이크로소프트의 얼굴 인식, 아마존과 넷플릭스의 추천, 자율 운전 자동차의 충돌 방지 기술, 모두 머신러닝 발전의 결과물이다. 머신러닝 기반 시스템은 인간 두뇌 수준의 복잡함에는 아직 한참 미치지 못하지만 체스, 퀴즈(Jeopardy), 바둑, 텍사스 홀덤에서 인간 도전자를 꺾는 등 여러 가지 주목할 만한 성과를 거두었다. 수십년 동안 과장되고 비현실적인 기술로 냉대받은(이른바 “AI 겨울” 시기) AI와 머신러닝은 지난 몇 년 사이 여러 기술적 혁신과 값싼 컴퓨팅 성능의 폭발적인 향상, 머신러닝 모델이 학습할 수 있는 풍부한 데이터를 바탕으로 대대적으로 부활했다. 스스로 학습하는 소프트웨어 머신러닝의 정확한 의미는 무엇일까? 먼저 머신러닝이 아닌 것부터 시작해 보자. 사람이 수작업으로 코딩해 프로그램한 기존의 컴퓨팅 애플리케이션은 머신러닝이 아니다. 지시를 따르는 데는 탁월하지만 즉흥적 작업에는 취약한 전통적인 소프트웨어와 달리 머신러닝 시스템은 본질적으로 예제를 일반화함으로써 코드 스스로 자신의 지침을 개발한다. 전형적인 예가 이미지 인식이다. 머신러닝 시스템에 충분히 많은 수의 개 사진(“개” 레이블이 붙은 사진)과 고양이, 나무, 아기, 바나나 또는 다른 사물의 사진(“개가 아님” 레이블이 붙은 사진)을 보여주고 시스템을 적절히 교육한다면 시스템은 개가 어떻게 생겼는지 사람이 일일이 알려주지 않아도 개를 정확히 식별할 수 있게 된다. 이메일 프로그램의 스팸 필터도 머신러닝의 좋은 예다. 스팸 필터는 수억 개의 스팸 샘플과 스팸이 ...

인공지능 AI 용어 2017.08.11

구글 오픈소스 텐서플로우 1.0 데뷔 “플랫폼 주도권 노린다”

구글 브레인(Google Brain)이 텐서플로우 개발자 서밋에서 머신러닝 라이브러리 텐서플로우(TensorFlow) 1.0을 발표했다. 머신러닝은 자바, C# 또는 파이썬과 같은 언어로 프로그램을 만드는 방법이 아닌 데이터를 사용해 높은 신뢰성으로 예측을 수행하는 컴퓨터를 프로그래밍하는 방법이다. 머신러닝은 은 이미지 인식, 언어 번역, 코멘트나 추천 등의 순위 매기기와 같은 문제 해결 방법으로 효율적이다. 구글을 비롯해 페이스북, IBM, 마이크로소프트는 검색 결과 순위 결정 등의 분야에 내부적으로 머신러닝을 사용해 왔다. 약 1년 전 구글은 독자적인 머신러닝 라이브러리인 디스트빌리프(DistBelief)에 대한 경험을 바탕으로 텐서플로우를 출시했다. 텐서플로우는 구글 내에서 텐서플로우 모델 설명 파일을 포함한 약 4,000개의 소스 코드 디렉터리와 함께 사용되고 있으며, 분야도 구글 검색, 지도, 지메일 스팸 필터 등 다양하다. 구글 선임 연구원이자 인공 지능 분야의 슈퍼스타인 제프 딘에 따르면, 텐서플로우는 깃허브에서 가장 인기 있는 머신러닝 리포지토리다. 딘이 언급한 몇 가지 수치를 보자. 500명의 독립 프로그래머가 소프트웨어를 개발해 제출했고, 월별 커밋(새 코드 모듈 및 패치 적용) 수는 1,000회이며 5,500개의 독립적인 깃허브 리포지토리가 있다. 토론토, 버클리, 스탠포드 대학은 머신러닝 과정을 위한 기본 프레임워크로 텐서플로우를 사용한다. 독창적인 머신러닝 모델을 만들기 위해서는 선형 대수, 확률, 그리고 머신러닝 분야에 대한 고등 교육을 받은 고급 기술 개발자가 필요하지만, 이러한 조건을 충족하는 개발자는 얼마 없다. 다만 머신러닝을 적용하는 것은 다른 개발자들도 가능하다. 각기 다른 기술을 보유한 개발자들이 수행할 수 있는 머신러닝 응용의 유형은 세 가지다. 전문가 : 예를 들어 인간보다 아타리 딥 큐(Atari Deep Q)를 더 잘 플레이하도록 학습할 수 있는 모델과 같은 오리지널 머신러닝...

인공지능 구글 신경망 2017.02.20

AMD, 머신러닝용 라데온 인스팅트 GPU 발표…AI 시장 추격 나선다

AMD가 라데온 인스팅트(Radeon Instnct) 제품군을 발표하며 엔비디아와 인텔의 뒤를 쫓아 머신러닝 시장에 뛰어들었다. AMD는 2017년에 새로운 브랜드로 세 가지 제품을 출시할 계획이다. 라데온 인스팅트 GPU를 탑재한 AMD의 머신러닝 서버 수동 냉각 방식의 라데온 인스팅트 MI6는 폴라리스 아키텍처를 기반으로 할 예정이며, 최고 5.7테라플롭의 성능, 224Gbps의 메모리 대역폭에 150와트의 전력을 소비한다. 좀 더 작은 폼팩터의 피지 기반 라데온 인스팅트 MI8은 8.2테라플롭의 성능과 512GB의 메모리 대역폭에 175와트의 전력을 소비한다. 라데온 책임자 라자 코두리가 신형 라데온 인스팅트 MI6을 소개하고 있다. 마지막 GPU인 MI25는 AMD의 새로운 베가(Vega) 아키텍처를 기반으로 하며, 300와트의 전력을 소비한다. 새로운 고대역 캐시와 컨트롤러가 특징이다. AMD는 MI25의 구체적인 성능은 공개하지 않았지만, 엔비디아의 최고 성능 GPU보다 더 높은 성능을 제공할 것이라고 주장했다. 하지만 MI6가 5.7테파플롭, MI8이 8.2테라플롭인 점으로 미루어, MI25는 최고 25테라플롭의 성능을 제공할 것으로 짐작할 수 있다. 이는 현재 엔비디아의 최고 성능 GPU인 타이탄 X 파스칼 카드의 11테라플롭을 능가하는 성능이다. AMD는 자사의 라데온 인스팅트 GPU가 이미 엔비디아의 타이탄 X 파스칼 카드의 성능을 능가하고 있다고 주장한다. 머신러닝은 무인자동차부터 인공지능 챗봇까지 다양한 영역에 활용되고 있으며, 구글, 엔비디아, 인텔 등의 주요 업체는 AI에 중점을 둔 하드웨어 개발에 적지 않은 자원을 투자하고 있다. 라데온 인스팅트는 이 시장을 노린 AMD의 승부수가 될 것으로 보인다. 문제는 상대적으로 자금력이 부족한 AMD가 이 시장에서 제대로 경쟁할 수 있을지이다. 엔비디아는 이미 몇 세대에 걸쳐 제품을 출시하며 앞서가고 있으며, 구글은 지난 5월 TPU(Ten...

AMD GPU 인텔 2016.12.13

구글 마젠타 프로젝트, 기계가 작곡한 첫 음악 공개…아직은 초보적인 수준

구글은 신경망이 음악을 만들 수 있는지 의문을 가졌고, 마젠타 프로젝트(Magenta Project)로 “Yes”라는 답을 내놓았다. 물론 그렇게 만들어진 음악이 좋은지는 다른 문제이다. 구글은 인간과의 바둑 시합에서 승리를 거두며 인간을 충격에 빠트리기도 했지만, 아직은 작곡가들이 긴장할 필요는 없다. 마젠타 프로젝트는 아직 한두 개의 리프를 만드는 수준을 넘어서지 못한 것으로 보이기 때문이다. 직접 확인해 보기 바란다. 현재 인간은 기계의 도움이라는 측면에서 특별한 지점에 서 있다. 봇과 디지털 비서가 사용자를 도와주는 방법을 학습하고 있고, 구글은 이 분야에 막대한 자금을 투자하고 있다. 구글이 추진하고 있는 창의적인 머신러닝의 대표적인 사례는 딥드립(DeepDream)일 것이다. 딥드림은 자연 이미지를 학습한 후 이를 뒤섞어 초현실주의 미술 작품을 만들어냈다. 마젠타는 그 다음 차례가 될 수 있다. 구글의 연구 과학자 더글라스 에크는 구글이 자사의 텐서플로우 머신러닝 플랫폼을 사용해 기계가 예술 작품의 만들어내는 일을 추진하고 있다고 밝혔다. 에크는 “마젠타는 두 가지 목표가 있다. 우선 마젠타는 음악이나 미술을 위한 기계 지능을 발전시키는 연구 프로젝트이다. 머신러닝은 이미 음성 인식이나 번역 등에서 콘텐츠를 이해하는 용도로 폭넓게 사용되고 있다. 마젠타 프로젝트를 통해 우리는 또 다른 측면을 살펴보고자 한다. 즉 음악과 미술을 만드는 방법을 학습할 수 있는 알고리즘을 개발해 기계가 스스로 매력적이고 예술적인 콘텐츠를 만들 수 있도록 하는 것이다”라고 설명했다. 예술 작품을 실제로 창조하는 것에 더해 구글은 같은 생각을 가진 개인들이 지식을 공유할 수 있는 커뮤니티를 강화하고자 한다. 구글은 예술가들에게 알파 코드 사용을 적극 권장하고 있다. 음악의 수준을 판단하는 것은 아직 준비되지 않았다. 에크는 “평가 질문에 대답하기 위해 마젠타 툴을 음악가들에게 주고 ...

음악 인공지능 구글 2016.06.02

휴머노이드 페퍼, ‘왓슨’ 품고 ‘취직’ 성공하나

일본 로봇인 페퍼(Pepper)의 지능이 IBM의 왓슨(Watson)을 통해 업그레이드된다. 그러나 실제로 매장에서 직원으로 활용하기 위해서는 다양한 개선이 필요한 것으로 보인다. 내년부터 일본 내 주요 전자제품 유통 업체인 야마다 덴키(Yamada Denki)에서 판매원으로 근무할 페퍼의 지식은 왓슨의 인공지능을 기반으로 가동될 예정이다. 스마트폰이나 커피 머신과 같은 제품 판매를 도운 페퍼는 왓슨을 활용해서 관련성 높은 정보를 제공하고, 고객과의 밀접한 상호작용을 도울 것으로 기대된다. 한편, 재고품을 문밖으로 옮기는 작업과 같은 특정 목표를 수행하도록 프로그래밍도 가능한 것으로 알려졌다. 다량의 센서를 탑재한 클라우드 기반의 페퍼는 사람의 감정을 인지하고 농담도 주고받을 수 있는 대화형 로봇으로 알려졌으며, 현재 페퍼 개발자들은 실생활에서 유용하게 사용할 수 있는 방향으로 제품을 개발하고 있다. 한가지 문제는 왓슨 인공지능 플랫폼과 페퍼와 같은 로봇에서 자연어를 처리하는 능력을 구현하는 데 있어 병목 현상을 겪고 있다는 것이다. 지난 30일(현지 시각) IBM은 상점에서 페퍼가 손님을 인지해 다가가 대화를 시도하는 장면을 시연했다. 페퍼는 판매를 유도하기 위해 평면 TV와 같은 제품에 관한 고객의 질문에 응답했으며, 4K 방송의 시작과 같은 관련 정보도 함께 소개했다. 시연은 지난달 페퍼를 일본 상점에 도입한 모바일 이동통신사인 소프트뱅크(SoftBank)가 주최한 도쿄의 테크 쇼에서 이뤄졌다. 미국의 왓슨 서버는 TV에 관한 대화에 관련된 정보를 제공받고, 쿼리가 주어지면 최상의 답변을 선택한다. 대화 관리자, 질의 응답 엔진과 음성-텍스트 인터페이스를 사용한다. 소음으로 둘러싸인 현장에서 페퍼는 고객을 가장한 IBM 직원이 무슨 말을 하는지 정확히 인식하지 못하기도 했다. 실제 일본 전자 제품 매장에서도 이 정도 수준의 소음이 발생한다는 것을 감안한다면 좋은 현상은 아니다. 또한, 페퍼는 일상적으로 사용하는 사물을...

로봇 인공지능 신경망 2015.07.31

캘리포니아 대학교, 뇌를 모방한 회로 개발…인공지능 기술 앞당기나

과학자들이 인공지능과 머신러닝을 강화하려는 노력의 일환으로 인간의 두뇌를 모방한 회로 개발에 힘을 쏟고 있다. 캘리포니아 대학교 연구원들은 100개의 인공 시냅스를 탑재하고 간단하게 이미지를 분류하는 회로를 개발하는 데 성공했다. UC 연구원인 미르코 프레지오소는 “현재 컴퓨터의 아키텍처는 인간과 비슷한 효율적인 계산을 하는 데 있어 어쩔 수 없는 한계가 있다”며, “우리가 개발한 기술은 생물학적 뇌에서 영감을 받은, 완전히 다른 방식에 기반하여 계산을 수행한다”고 말했다. 캘리포니아 대학교는 이 회로가 1,000조 개의 시냅스 연결로 구성된 인간의 두뇌 수준으로 확장될 수 있을 것으로 기대하고 있다. 연구원들은 인간의 뇌를 모방한 컴퓨터를 개발하는 데 주력하고 있다. 컴퓨터의 연산 능력이 날이 갈수록 향상되고 있으며, 뇌에는 수많은 오류를 일으키는 요인이 있다는 연구 보고가 있음에도 불구, 연산 능력과 효율성을 높이는 데 있어서 인간의 생물학적 뇌는 대표적인 공학적인 모델로 활용되고 있다. ZK 리서치(ZK Research)의 애널리스트인 제우스 케라발라는 “이 회로는 스스로 학습하는 컴퓨터를 창조하는 데 도움이 될 것”이라며, “대중은 수집한 데이터를 기반으로 작업을 처리하고, 이를 효율적으로 처리하는 방법을 학습하는 머신을 원하고 있다”고 말했다. 이어, “이와 같은 회로는 컴퓨터가 훨씬 더 큰 규모에서 이와 같은 작업을 할 수 있도록 할 것이며, 컴퓨터는 좀 더 인간처럼 행동하게 될 것”이라고 덧붙였다. 가브리엔 컨설팅 그룹(Gabriel Consulting Group)의 애널리스트인 댄 올드는 캘리포니아 대학교 연구가 컴퓨터 비전과 비전을 이해하는 기술을 향상하는 가장 훌륭한 방법이라고 손꼽았다. 댄 올드는 “객체 인지는 머신러닝의 가장 기대되는 요소다”며, “기계가 실제로 사...

인공지능 머신러닝 2015.05.15

회사명 : 한국IDG | 제호: ITWorld | 주소 : 서울시 중구 세종대로 23, 4층 우)04512
| 등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 | 편집인 : 박재곤 | 청소년보호책임자 : 한정규
| 사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2023 International Data Group. All rights reserved.