2020.02.20

“뇌파를 디지털 명령으로” 스타트업 넥스트마인드, 399달러 개발 키트 공개

Patrick Nelson | Network World
과학자들은 오래 전부터 인간의 사고를 디지털 명령으로 번역해 키보드나 마우스 같은 컴퓨터 입력 디바이스가 필요 없는 뇌파 감지 기술을 그려왔다. 넥스트마인드가 곧 출시할 399달러짜리 개발 키트는 바로 이런 꿈을 실현하는 데 기여할 것으로 보인다.
 
ⓒ NextMind

넥스트마인드는 한 인지 신경과학 연구소에서 상업화를 위해 분사한 곳으로, 보도자료를 통해 자사의 비침습성 AI 기반 뇌-컴퓨터 인터페이스 개발용 키트가 “사용자의 생각만을 사용해 디지털 세상의 어떤 것이라고 제어할 수 있도록 한다”고 강조했다.

넥스트마인드의 하키 퍽 모양 디바이스는 모자나 머리띠에 넣어 뒷머리에 두면, 건식 전극 기반의 수신기가 뇌 신경의 활동을 통해 생성되는 전기 신호로부터 데이터를 얻는다. 이런 입력 신호를 컴퓨터 제어로 변환하는 데는 머신러닝 알고리즘을 사용한다. 이런 인터랙션은 컴퓨터는 물론, 가상현실 헤드셋이나 IoT 모듈과도 이루어질 수 있다.

설립자 시드 쿠이더는 2019년 말 헬싱키의 스타트업 컨퍼런스에서 진행한 발표에서 “스마트폰 화면을 건드리지도 않고 시리를 이용하지도 않고 그저 생각하는 속도와 힘만으로 문자 메시지를 보낼 수 있다고 생각해 보라”고 말한 바 있다.

외과 수술이나 의사 없이도 의식을 실시간으로 디코딩할 수 있게 된 데는 신경 과학의 발전이 가장 큰 역할을 한다. 

기존 연구에서 큰 장애물 중 하나는 인간의 두개골이 센서를 막는다는 것이었다. 이 때문에 신호를 잡음과 구별하기 어려웠으며, 사람이 잠자거나 편안한 상태일 때 기본적인 것만을 가려내는 수준에 머물렀다. 하지만 신소재와 향상된 센서, 더 정교한 알고리즘과 모델링이 이런 한계를 극복해 왔다. 쿠이더는 넥스트마인드의 비침습성 기술이 “데이터를 실시간으로 번역한다”고 강조했다.

기본적인 동작 방식은 기본적으로 눈의 활동과 시각 피질의 신호를 이용한다. 사람의 눈은 보이는 이미지를 머리 뒷부분의 시각 피질에 투사한다. 프로젝터와 같은 방식이다. 넥스트마인드의 디바이스는 이렇게 물체가 보여지면서 일어나는 신경 활동을 디코딩해 SDK를 통해 정보를 컴퓨터 입력으로 되돌려 보내는 것이다. 따라서 물체 하나를 응시하면 해당 물체를 선택할 수 있다. 예를 들어, 화면에 나타난 아이콘 하나를 가만히 응시하는 것으로 해당 아이콘을 선택할 수 있다.

지난 1월 사전 발표된 디바이스를 테스트한 벤처비트의 에밀 프로탈린스키는 “데모는 어떻게 봐도 완벽하지 않았다. 하지만 이 기술이 제대로 동작한다는 데는 아무런 의심이 없다”고 말했다.

가장 흥미로운 부분은 “의도”와 관련된 것이다. 사람이 어떤 물체에 다른 것보다 더 집중하면, 이 기술은 신경 신호를 디코딩해 사용자의 의도를 파악할 수 있다. 쿠이더는 “일종의 육감을 얻을 수 있다. 사용자의 뇌와 디스플레이 간의 피드백 루프 덕분에 뇌가 활동하고 있다는 것을 느낄 수 있다”고 설명했다.  editor@itworld.co.kr


2020.02.20

“뇌파를 디지털 명령으로” 스타트업 넥스트마인드, 399달러 개발 키트 공개

Patrick Nelson | Network World
과학자들은 오래 전부터 인간의 사고를 디지털 명령으로 번역해 키보드나 마우스 같은 컴퓨터 입력 디바이스가 필요 없는 뇌파 감지 기술을 그려왔다. 넥스트마인드가 곧 출시할 399달러짜리 개발 키트는 바로 이런 꿈을 실현하는 데 기여할 것으로 보인다.
 
ⓒ NextMind

넥스트마인드는 한 인지 신경과학 연구소에서 상업화를 위해 분사한 곳으로, 보도자료를 통해 자사의 비침습성 AI 기반 뇌-컴퓨터 인터페이스 개발용 키트가 “사용자의 생각만을 사용해 디지털 세상의 어떤 것이라고 제어할 수 있도록 한다”고 강조했다.

넥스트마인드의 하키 퍽 모양 디바이스는 모자나 머리띠에 넣어 뒷머리에 두면, 건식 전극 기반의 수신기가 뇌 신경의 활동을 통해 생성되는 전기 신호로부터 데이터를 얻는다. 이런 입력 신호를 컴퓨터 제어로 변환하는 데는 머신러닝 알고리즘을 사용한다. 이런 인터랙션은 컴퓨터는 물론, 가상현실 헤드셋이나 IoT 모듈과도 이루어질 수 있다.

설립자 시드 쿠이더는 2019년 말 헬싱키의 스타트업 컨퍼런스에서 진행한 발표에서 “스마트폰 화면을 건드리지도 않고 시리를 이용하지도 않고 그저 생각하는 속도와 힘만으로 문자 메시지를 보낼 수 있다고 생각해 보라”고 말한 바 있다.

외과 수술이나 의사 없이도 의식을 실시간으로 디코딩할 수 있게 된 데는 신경 과학의 발전이 가장 큰 역할을 한다. 

기존 연구에서 큰 장애물 중 하나는 인간의 두개골이 센서를 막는다는 것이었다. 이 때문에 신호를 잡음과 구별하기 어려웠으며, 사람이 잠자거나 편안한 상태일 때 기본적인 것만을 가려내는 수준에 머물렀다. 하지만 신소재와 향상된 센서, 더 정교한 알고리즘과 모델링이 이런 한계를 극복해 왔다. 쿠이더는 넥스트마인드의 비침습성 기술이 “데이터를 실시간으로 번역한다”고 강조했다.

기본적인 동작 방식은 기본적으로 눈의 활동과 시각 피질의 신호를 이용한다. 사람의 눈은 보이는 이미지를 머리 뒷부분의 시각 피질에 투사한다. 프로젝터와 같은 방식이다. 넥스트마인드의 디바이스는 이렇게 물체가 보여지면서 일어나는 신경 활동을 디코딩해 SDK를 통해 정보를 컴퓨터 입력으로 되돌려 보내는 것이다. 따라서 물체 하나를 응시하면 해당 물체를 선택할 수 있다. 예를 들어, 화면에 나타난 아이콘 하나를 가만히 응시하는 것으로 해당 아이콘을 선택할 수 있다.

지난 1월 사전 발표된 디바이스를 테스트한 벤처비트의 에밀 프로탈린스키는 “데모는 어떻게 봐도 완벽하지 않았다. 하지만 이 기술이 제대로 동작한다는 데는 아무런 의심이 없다”고 말했다.

가장 흥미로운 부분은 “의도”와 관련된 것이다. 사람이 어떤 물체에 다른 것보다 더 집중하면, 이 기술은 신경 신호를 디코딩해 사용자의 의도를 파악할 수 있다. 쿠이더는 “일종의 육감을 얻을 수 있다. 사용자의 뇌와 디스플레이 간의 피드백 루프 덕분에 뇌가 활동하고 있다는 것을 느낄 수 있다”고 설명했다.  editor@itworld.co.kr


X