인스타그램 계정을 2개 이상 보유한 사용자
Z세대 : 결제의 미래 (Gen Z: the future of spending)
“직장 내 AI 사용에 대해 긍정적이다”
애플 워치 울트라는 내구성을 요하는 상황과 극한의 날씨에 대처할 수 있는, 견고하고 오래 지속되는 스마트워치가 필요한 모험가(예 : 다이버, 등반가 및 기타 운동선수 등)를 겨냥한 제품이다. 하지만 비포장도로를 달리지 않아도 사륜구동 자동차를 구매하는 것처럼, 애플 워치 울트라 역시 수심 100m까지 잠수하거나 야생에서 이동 경로를 파악할 필요가 없는 일반 사용자에게도 인기가 높다. 일반 사용자는 애플 워치 울트라의 디자인과 일반 애플 워치보다 배터리 성능이 훨씬 좋아졌다는 점을 인기의 비결로 꼽는다. 애플 워치 울트라는 18K 금으로 만들어졌던 한정판 모델 ‘’만큼은 아니지만, 비싼 가격 때문에 프리미엄 라인업으로 자리 잡았다. 또 전작과 쉽게 구분할 수 없는 아이폰 15와 달리, 애플 워치 울트라는 워치 시리즈 7, 8, 9와 뚜렷하게 구분된다. 애플 워치 울트라 2는 훌륭한 패션 액세서리인 동시에 좋은 스마트워치일까? 필자가 내린 결론은 다행히도 ‘그렇다’이다. 디자인 및 디스플레이 49mm, 3,000니트 OLED 디스플레이 주변광 센서 2세대 초광대역 칩 쉽게 설명하면, 애플 워치 울트라는 강력한 애플 워치다. 이를테면 디스플레이가 49mm로 더 커졌고 장갑을 착용한 상태에서도 사용하기 쉽도록 더 큰 크라운을 탑재했으며, 86데시벨의 사이렌을 울리는 등 다양한 작업을 수행하는 동작 버튼(Action Button)이 있다. 일반 애플 워치의 굴절형 디스플레이 대신, 애플 워치 울트라 2에는 평평한 사파이어 크리스탈 디스플레이와 티타늄 케이스가 탑재돼 내구성을 강화했다. 95% 재활용 티타늄으로 제작된 케이스이며, 아이폰 15처럼 다른 옵션은 제공하지 않는다. 그 이유는 티타늄이 흠집이나 긁힘이 생겨도 색이 변하지 않는, 즉 내구성이 가장 뛰어난 소재이기 때문이다. 크라운과 측면 버튼을 실수로 누르는 것을 방지하는 크라운 가드도 있다. 스트랩을 제외하면 애플 워치 울트라 2의 무게는 약 62g이다. 워치 시리즈 9보다 약 10g 더 무겁다. 두께는 14.4mm로 셔츠 소매 안에 넣기에는 꽤 불편하지만, 사실 애플 워치 울트라는 패션 아이템용으로 설계된 제품이 아니다. 그럼에도 불구하고 일반 애플 워치처럼 하루 종일, 그리고 밤에도 편안하게 착용할 수 있다. 3개의 마이크는 바람 소리와 기타 배경 소음을 줄여 통화 상대방이 사용자의 말을 원활하게 들을 수 있도록 한다. 또 주변광 센서(애플 워치 울트라 1세대부터 추가된 기능)를 통해 디스플레이가 야간 모드로 자동 전환되고, 1니트까지 밝기를 낮출 수 있어 밤에도 눈부심이 없다. 또한 울트라 2는 수심 100m까지 견딜 수 있는 IP6X 방수 및 방진 기능 등 애플 워치 울트라 1세대와 동일한 사양을 제공한다. 2세대 초광대역 칩이 탑재돼 분실한 아이폰을 더 쉽게 찾을 수 있다. 아이폰 15 또는 동일한 칩이 탑재된 다른 모델이 얼마나 멀리 떨어져 있는지, 어떤 방향으로 가야 찾을 수 있는지 확인할 수 있다. 또 다른 개선 사항은 밝기다. 1세대 울트라 대비 50% 향상된 3,000니트의 화면 밝기를 제공한다. 놀라운 수준이다. 하지만 전작의 2,000니트 디스플레이가 직사광선 아래에서도 가독성이 좋았던 점을 고려하면 불필요하다고 할 수도 있다. 울트라 1세대와 차이점을 느낄 수 있는 부분은 손전등을 사용할 때다. 디지털 크라운을 돌리면 손전등 밝기를 일시적으로 2배 높일 수 있다. 일반 애플 워치와의 가장 큰 차이점은 화면 크기다. 한 번에 훨씬 더 많은 정보를 볼 수 있다. 모듈 울트라 워치 페이스는 7가지 컴플리케이션을 제공하고, 가장자리에 초 단위 시간이나 고도, 수심을 포함한 실시간 데이터를 표시할 수 있다. 전통적인 아날로그 시계를 기반으로 8개의 컴플리케이션을 제공하는 웨이파인더 워치 페이스도 제공된다. 애플 워치 울트라 2는 44mm, 45mm 스트랩과 호환되지만, 일상적인 용도 이외에는 49mm 스트랩을 권장한다. 스트랩은 3가지 스타일(알파인, 오션, 트레인)로 구성된다. 이번 리뷰를 위해 애플에서 보내준 스트랩은 오렌지/베이지색 트레일 루프다. 트레일 루프는 S/M(130~180mm) 사이즈와 M/L(145~220mm) 2가지 크기로 제공된다. 신축성이 좋지만, 필자는 손이 작고 손목이 가는 편이라 S/M도 착용하기 조금 어려웠다. 트레일과 알파인 루프는 탄소 중립 제품이며, 오션은 다이빙과 수상 스포츠를 위해 실리콘 소재로 제작됐다. 건강 및 피트니스 트래킹 최고 및 최저 심박수 알림 불규칙한 심장 박동 알림 심전도 앱 수면 추적 49mm 디스플레이 뒤에는 애플의 최신 S9 칩셋이 탑재돼 있다. S9 칩셋은 워치 시리즈 9에도 사용됐다. 즉, 애플 워치 울트라 2는 워치 시리즈 9와 동일한 건강 및 피트니스 트래킹 기능을 제공한다는 의미다. 걸음 수, 거리, 칼로리 소모량, 등반 횟수 등 대부분 기능이 일반적인 피트니스 트래커에서 기대할 수 있는 것과 같다. 이 모든 것이 매끄러운 ‘링’ 시스템(활동링)으로 표시돼 하루 종일 얼마나 많이 움직이고, 얼마나 오랫동안 운동하며, 얼마나 자주 일어섰는지 한눈에 확인할 수 있다. 애플 워치와 연결된 아이폰의 건강 앱은 MET(Metabolic Equivalent of Task) 단위 기준으로 신체 활동부터 계단 오르는 속도, 걸음 수까지 수많은 데이터를 제공한다. 운동 유형도 추적할 수 있다. 애플 워치의 대표적인 강점이다. 애플은 다양한 스포츠를 추가했으며, 달성하고자 하는 목표를 스포츠별로 맞춤 설정할 수 있다. 운동을 빠르게 시작할 수 있도록 동작 버튼을 설정할 수 있다. 애플 워치 울트라 2는 특히 달리기, 걷기, 자전거 타기에서 모두 훌륭하게 작동했다. 한 가지 아쉬운 점은 내장 GPS를 사용해 경로를 기록하는 운동이 제한적이라는 점이다. 예를 들어, 스키를 탔을 때는 필자의 이동 경로를 확인할 수 없었다. 이런 문제는 내년쯤 해결될 것으로 예상된다. 사이클 선수가 아이폰을 자전거용 컴퓨터로 사용해 울트라의 세부 정보를 더 큰 화면으로 미러링하는 기능도 추가됐다. 아울러 애플 워치를 파워미터 같은 블루투스 액세서리와 페어링할 수 있어 운동 앱에서 더 많은 데이터를 얻을 수 있다. 다만 이런 기능은 워치OS 10에 도입된 것으로, 울트라 2의 독점 기능은 아니다. 애플 워치 울트라에는 다이버를 위한 이 있는데, 이 앱은 실시간 수심을 40m까지 표시하고 현재 수온과 최대 도달 깊이 및 수중 체류 시간을 보여준다. 또한 달리기 트랙에 있을 때를 자동으로 감지해 경로 지도를 표시하고, 달리고 있는 레인을 선택하는 새로운 기능도 추가됐다. 울트라 1세대에서와 마찬가지로 애플 워치 울트라 2는 특히 하이킹에 중점을 뒀다. 동작 버튼으로 경유지를 기록하도록 설정할 수 있다. 길게 누르면 경로 되짚기(Compass Backtrack) 옵션을 선택해 모바일 신호가 없어도 휴대전화나 울트라 2를 통해 이동 경로를 살펴볼 수 있다. 나침반 앱은 크라운을 회전해 다양한 뷰로 전환할 수 있어 더욱 유용해졌다. 고도 표시를 탭하면 2D와 3D 뷰가 전환되며, 생성한 모든 경유지가 표시된다. 하지만 이 시스템은 한 지점에서 다른 지점으로 가는 하이킹을 위해 설계됐기 때문에 순환 경로에는 크게 유용하지 않다. 이제 하이킹을 할 때 지도 앱을 확대하면 트레일, 등고선 등 지형 정보와 관심 지점을 볼 수 있다. 현재 이 기능은 미국에서만 지원된다. 애플 워치 울트라 2의 저장 공간은 64GB임에도 불구하고 지도는 로컬에 캐시되지 않고 휴대전화에 저장된다. 따라서 다른 영역으로 이동해 지도를 확대할 때 약간의 지연이 발생할 수 있다. 피트니스 및 활동 추적 외에도 애플 워치 울트라 2는 수면의 질, 심박수 등을 모니터링할 수 있다. 대부분 측정값은 의료 목적으로 사용되지 않지만, 심박수를 비롯한 데이터는 매우 정확한 편이다. 시리즈 9와 마찬가지로 울트라 2도 비정상적으로 높거나 낮은 심박수, 불규칙한 심장 박동이 감지되면 사용자에게 경고하도록 설정할 수 있다. 심하게 넘어진 상황이나 심각한 교통사고를 감지할 수 있으며, 데이터 연결이 가능한 경우 비상 연락처에 알림을 보내고, 사고 발생 후에 움직이거나 응답하지 않으면 자동으로 응급 서비스를 호출할 수 있다. 피부 온도 센서는 주로 월경 주기 추적에 활용된다. 누구나 과거 데이터를 건강 앱에서 볼 수 있지만, 남성 사용자라면 활용할 일은 많지 않을 것이다. 또 다른 센서는 혈중 산소를 측정하고, 의료 전문가들이 매우 정확하다고 말하는 심전도를 측정할 수도 있다. 하지만 애플 워치 울트라 2는 건강 앱의 데이터를 해석해 바이러스에 감염될 수 있다고 경고하거나, 더 건강해지기 위해 라이프스타일을 바꿔야 한다고 알려주는 등의 기능은 제공하지 않는다. 스마트 기능 및 워치OS 워치 시리즈 9 리뷰에서 언급했듯이 워치OS 10은 상당히 급진적인 변화를 추구했다. 그중 하나는 크라운을 위로 돌리면 나타나는 일련의 정보 카드인 새로운 스마트 스택(Smart Stack)이다. 스마트 스택에서 일기 예보, 캘린더 이벤트, 뉴스 헤드 라인, 활동 데이터 등을 확인할 수 있으며, 사용자화할 수도 있다. 거의 모든 앱이 카드를 지원한다. 디지털 크라운을 사용하거나 시리즈 9 및 울트라 2에서만 쓸 수 있는 기능 중 하나인 더블 탭으로 카드를 넘기는 것도 가능하다. 물론 몇 년 전부터 워치OS에 있었던 더블 핀치 제스처와 더블 탭의 차이점은 사실상 뚜렷하지 않다. 애플은 S9 칩셋이 더블 탭 기능을 가능하게 한다고만 언급하면서 정확하게 설명하지 않았다. 더블 탭이 ‘항상 켜져’ 있기 때문에 언제든 사용할 수 있다는 의미인 듯하다. 전화를 받거나 타이머를 해제하거나 운동을 시작하기 위해 다른 손으로 화면을 탭할 필요가 없다. 분명 유용하지만, 울트라 1세대 대신 울트라 2를 구매해야 할 이유는 아니다. 다른 스마트워치 제조사와 비교했을 때 애플의 장점 중 하나는 아이폰과 워치를 모두 직접 만들기 때문에 서로 완벽하게 호환된다는 점이다. 앱에서 다양한 알림을 받고 메시지에 답장하며, 내비게이션에서 길을 찾고 음악을 제어할 수 있다. 반대로 안드로이드 폰으로는 애플 워치 울트라 2를 제한된 방식이라도 사용할 수 없다는 점이 큰 단점이다. 가족 설정 기능 덕분에 휴대전화 없이도 애플 워치를 쓸 수 있지만, 초기 설정을 위해서는 가족 중 누군가가 아이폰을 가지고 있어야 한다. 그리고 애초에 안드로이드 휴대전화와 함께 사용하면 그렇게 유용하지도 않다. 애플 워치 울트라 2가 전작과 다르게 가지고 있는 (혹은 가지게 될) 한 가지 기능이 있다. S9 칩의 뉴럴 엔진 덕분에 인터넷 연결 없이도 시리 명령을 처리할 수 있다는 것이다. 정확하게 말하자면, 인터넷 연결이 필요한 질문이나 명령 외에 시리를 통해 타이머를 설정하고, 설정을 변경하며, 연락처에 전화를 걸 수 있다. 하지만 단위 변환, 일기 예보 등의 다른 모든 기능을 사용하려면 결국 데이터 연결이 필요하다. 항상 켜져 있는 마이크는 2초간의 버퍼링이 있어 손목을 들기 전에 오디오가 캡처돼 응답 속도를 향상에 도움이 되며, 뉴럴 엔진 역시 시리의 응답 속도 개선에 기여한다. 애플에 따르면, 올해 말에는 시리에게 건강 데이터를 요청하고 기록할 수 있을 예정이다. 다시 말해, “어젯밤에 잠을 얼마나 잤어?” 같은 정보를 요청하거나 “방금 제산제를 먹었어”와 같은 정보를 기록할 수 있다. 배터리 수명 애플 워치 울트라 2, 그리고 1세대 울트라의 가장 큰 장점은 배터리 수명이다. 일반 애플 워치의 배터리 수명이 18시간인 반면, 울트라 2는 36시간으로 2배 늘었다. 저전력 모드에서는 2배 더 늘어난다. 셈이 빠르다면 한 번 충전으로 저전력 모드에서 3일 동안 사용할 수 있다는 사실을 어렵지 않게 알 수 있다. 1세대 울트라에서 제공하는 60시간의 저전력 모드보다 더 길어졌다. 저전력 모드를 쓰더라도 필수 기능을 사용할 수 있다. 저전력 모드에서는 올웨이즈온 디스플레이를 끄고 심박수를 자주 모니터링하지 않으며, 모바일 데이터와 와이파이를 제한해 무분별한 전력 소모를 제한하는 정도다. 실제 사용에서도 입증할 수 있었다. GPS를 몇 시간 동안 계속 사용하지 않는 한, 애플 워치 울트라 2를 매일 밤 충전할 필요가 없었다. 평상시에 1시간 동안 운동하면서 GPS를 사용해 경로를 기록했는데, 100%로 시작해 취침 전에는 50%가량이 남아있었다. 밤새 약 5%를 사용하고, 다음 날 잠자리에 들기 전 충전하라는 메시지가 표시됐다. GPS를 지속적으로 몇 시간 사용한 경우에는 최대 17시간 정도 지속했다. 가격 애플 공식 홈페이지 기준 114만 9,000원이다(옵션 제외). 일반 애플 워치와 달리 모든 울트라에는 LTE가 내장돼 있다. 구매 시 3가지 스트랩 중 하나를 선택할 수 있으며, 추가 스트랩은 13만 5,000원이다. 서드파티 스트랩이 훨씬 더 저렴하다. 스마트워치치고는 비싼 가격이지만, 애플 워치 울트라만 비싼 것은 아니다. 모험가를 겨냥한 또 다른 스마트워치인 가민의 페닉스 7 사파이어 솔라(Fenix 7 Sapphire Solar)도 100만 원이 넘는다(물론 이 제품은 태양광을 사용해 충전할 수 있으며, 토포액티브 지도가 사전 탑재돼 있다. 아이폰뿐만 아니라 안드로이드와도 호환된다). 최종 결론 비용에 구애받지 않고 단순하게 최고의 애플 워치를 원한다면 울트라 2를 구매해도 좋다. 하지만 현재 울트라 1세대를 상당히 할인된 가격에 살 수 있기 때문에 울트라 1세대를 구매하는 것도 현명한 선택이다. 1세대 울트라를 산다면 야간 모드로 자동 전환하는 기능은 사용할 수 없겠지만, 일상적인 사용 환경에서 다른 차이점은 거의 느끼지 못할 것이다. 2세대의 4코어 뉴럴 엔진은 현재로서는 그다지 큰 역할을 하지 못하고 있다. 저전력 모드에서 반나절 더 지속되는 배터리 수명도 장점이지만, 200달러를 더 내야 할 만큼은 아니다. 정밀 탐색 기능 역시 훌륭하지만, 최신 아이폰이 있어야 사용할 수 있다. 추가적인 배터리 수명이 필요하지 않고 모험을 즐기지 않는다면, 워치 시리즈 9는 약 절반 가격에 동일한 기능을 제공한다. 궁극적으로 애플 워치 울트라 2는 애플이 지금까지 만든 스마트워치 중 최고의 제품이다. 하지만 “1세대 울트라보다 훨씬 더 나은 제품”이라고는 말할 수 없다. editor@itworld.co.kr
기업에서 데이터 과학자의 역할은 무엇인가? 보고서 작성자, 데이터베이스 쿼리 기술자, 머신러닝 모델 개발자, 아니면 생성형 AI 실험 담당자인가? 시민 데이터 과학자이자 데이터 애널리스트로서 데이터 시각화를 개발하고 새 데이터 집합을 평가하거나, 비즈니스 부서를 위해 데이터 품질을 개선하는가? 데이터 주도적인 기업을 추구하는 기업은 데이터 기술을 보유한 직원에게 보고서, 대시보드, 머신러닝 모델 및 기타 분석 결과물을 개발하는 일을 맡기는 서비스 사고방식을 갖고 시작하는 경우가 많다. 일부는 여기에 더해 새로운 데이터 소스 분석, 데이터 품질 개선 또는 데이터 카탈로그 강화를 포함한 데이터 통합, 관리 및 거버넌스 책임까지 맡기기도 한다. 기업의 데이터 주도적 관행을 발전시키고자 하는 디지털 선구자는 데이터 서비스 제공 모델을 넘어 데이터 및 분석을 제품으로 개발하고 지원할 방법을 찾는다. 이들은 직원 요청에 따라 많은 일회성 데이터 툴을 만드는 대신, 실행 가능한 데이터 제품을 정의 및 개발하고 최종 사용자의 요구와 전략적 목표, 목표한 비즈니스 성과에 따라 개선하는 데서 혜택을 얻음을 안다. 서비스 사고방식에서 제품 사고방식 및 제공 모델로 전환하는 한 가지 방법은 디자인 사고 관행을 도입하는 것이다. 이러한 관행은 최종 사용자의 요구 사항을 이해하는 데서 시작해 전제를 검증하고 사용자 경험을 개선하기 위해 반복적인 테스트 주도 접근 방식을 취한다. 리더는 애자일과 스크럼에 디자인 사고를 도입할 수 있으며 이것은 세계적인 수준의 고객 경험을 개발하기 위한 기초가 된다. 디자인 사고의 5단계(공감, 정의, 아이디어 도출, 프로토타입, 테스트)는 데이터 과학 방법론의 일부 측면과 비슷하다. 그러나 디자인 사고를 비롯해서 고도로 인간 중심적인 접근 방식은 거기서 그치지 않고 더 나아간다. 이 기사에서는 디자인 사고를 사용하여 여러 부서가 의사 결정에 데이터 제품을 사용할 수 있는 환경을 설계하는 방법을 살펴본다. 이해를 돕기 위해, 고객의 수익성을 파악하는 데 도움이 될 새로운 제품 개발을 준비 중인 데이터 과학팀을 예시로 설명한다. 디자인 사고의 5단계 1. 최종 사용자와 공감 고객 수익성과 같은 단순한 범주에서도 이해관계자의 요구 사항과 질문, 실행 가능한 결과를 위해 데이터를 사용할 기회는 광범위하게 존재한다. 마인드브리즈(Mindbreeze)의 창업자이자 CEO인 다니엘 폴맨은 “비즈니스 프로세스에 대한 사용자의 다양한 요구 사항을 이해하고 레이아웃을 조정해 관련성이 높고 개인화된 주요 인사이트를 우선적으로 다루는 것이 성공의 핵심”이라고 말했다. 고객 또는 세그먼트의 수익성을 확인하기 어려운 경우 재무, 마케팅, 고객 서비스, 제품 개발을 비롯한 각 부서마다 서로 다른 질문과 기회 및 고충점이 있다. 예를 들어 마케팅 부서는 수익성이 더 높은 고객 세그먼트에 더 치중하도록 캠페인 전략을 변경하기를 원하고, 고객 서비스 부서는 수익성이 높은 고객에게 인센티브와 상향 판매를 제안할 수 있다. 데이터 과학자가 최종 사용자와 공감하기 위해 해야 할 중요한 일은 현재 사람들이 어떻게 데이터를 사용하고 의사 결정을 내리는지를 관찰하는 것이다. 예를 들어 고객 서비스 담당자는 고객 규모와 수익성을 파악하기 위해 여러 시스템을 살펴봐야 하고 이로 인해 고객 응대 시 귀중한 시간을 낭비하고 즉석에서 인사이트를 얻을 때 실수를 저지를 가능성이 높다. 캠페인을 최적화 중인 마케터가 오래된 정보를 참조한다면 기회를 놓치고 광고 비용이 증가할 수 있다. 폴맨은 “데이터 과학자는 정보에 대한 360도 시야를 제공하는 대시보드를 구축할 때 사용자 중심 접근 방식으로 시작해야 한다”고 제안했다. 예를 들면, 다양한 이해관계자 세그먼트, 그리고 현재 업무 수행 방식이 비즈니스에 미치는 영향을 파악하는 것이 중요한 첫 번째 단계다. 2. 데이터 제품의 비전 정의 학습 과정은 최종 사용자를 관찰하고 다양한 이해관계자의 요구 사항을 인식하는 것이다. 데이터 과학자는 문제 해결과 프로토타입 제작에 곧바로 뛰어들고 싶은 마음이 들겠지만, 디자인 사고에서는 실무 작업을 시작하기 전에 문제를 정의하는 단계가 필요하다. 스냅로직(SnapLogic)의 글로벌 디자인 책임자인 매튜 홀로웨이는 “디자인 사고는 비즈니스 기회 및 기술적 역량과 균형을 이루면서 인간의 요구 사항을 해결하는 더 나은 솔루션을 위해 만들어졌다”고 말했다. 여기서 말하는 “더 나은 솔루션”을 위해 데이터 과학팀은 이해관계자와 협력하여 목표를 서술하는 비전 성명을 정의하고, 분석 툴을 통해 답을 찾고자 하는 질문을 검토하고, 답을 행동으로 옮길 방법을 파악해야 한다. 이 비전을 사전에 정의하고 문서화하는 것이 곧 이해관계자와 워크플로우에서 관찰한 정보를 공유하고 정량화 가능한 목표를 포착하는 방법이며, 이 방법은 폐쇄 루프 학습을 지원한다. 이에 못지않게 중요한 일은 우선순위에 대한 합의를 도출하는 것이다. 특히 여러 이해관계자 그룹이 공통의 목표를 갖고 있지만 부서별 비즈니스 워크플로우를 최적화하려는 경우 합의가 더욱 중요하다. 예를 들어 고객 서비스 비전 성명이 한 고객에 대한 질문에 답하고 해당 세그먼트의 다른 고객 대비 수익성 벤치마킹에 초점을 맞춘다고 가정해 보자. 그런데 마케팅 부서의 비전은 다르다. 마케팅은 캠페인을 최적화하기 위해 주요 고객 세그먼트의 수익성 추세를 하향식으로 파악하고자 한다. 이 경우 기업은 더 나은 인텔리전스에 대한 접근으로 고객 만족도를 개선하고 매출 증대가 가능한 부분을 파악할 수 있게 해주는 상향식 고객 서비스 비전을 우선하기로 선택한다. 3. 비기능적 요구 사항을 파악하기 위한 아이디어 도출 디자인 사고에는 아이디어 도출 단계가 있다. 이 단계는 솔루션을 개발하는 애자일 데이터 과학팀이 여러 접근 방법과 각각의 절충점을 논의할 수 있는 기회가 된다. 아이디어 도출 단계에서 데이터 과학팀이 고려해야 할 사항에는 기술, 규정 준수, 기타 비기능적 요구 사항에 대한 질문이 포함된다. 몇 가지 예를 들면 다음과 같다. 팀이 솔루션을 최적화할 수 있는 이해관계자와 최종 사용자의 공통된 요구 사항이 있는가? 또한 페르소나 또는 부서별 목표 중 더 중요하게 고려해야 할 부분은 어디인가? 기업에 필요한 데이터 집합이 있는가? 또는 제품 개선하기 위해 새로운 데이터 집합이 필요한가? 솔루션의 일부로 어떤 데이터 품질 문제를 해결해야 하는가? 기반 데이터 모델과 데이터베이스 아키텍처는 무엇인가? 해결해야 할 기술 부채가 있는가? 아니면 확장성, 성능 또는 기타 운영 요구 사항을 충족하기 위해 개선된 데이터 아키텍처가 필요한가? 팀이 솔루션을 개발할 때 고려해야 할 데이터 보안, 개인정보 보호 및 기타 규정 준수 요소는 무엇인가? 목표는 데이터 제품에 필요한 것이 무엇인지에 대한 전체 그림을 파악한 다음 큰 덩어리를 스프린트 크기의 조각으로 나눠서팀이 전체 솔루션의 아키텍처에 걸쳐 작업을 최적화하도록 하는 것이다. 4. 경험을 개선하고 최종 사용자 피드백을 포착하기 위한 반복 데이터를 다룰 때는 그림 하나에 천 마디 말의 가치가 있을 수 있지만 행동으로 옮길 수 있는 대시보드의 가치는 그보다 훨씬 더 높다. 애자일 데이터 과학팀은 데이터 아키텍처의 백엔드 개선을 구현하고 데이터 품질을 개선하고 매 스프린트에서 데이터 집합을 평가해야 하지만, 목표는 작동하는 툴을 최대한 빠르게 최종 사용자에게 제공하는 것이 되어야 한다. 모든 기능과 데이터 개선이 아직 미완성이라 해도 애자일 데이터 과학팀에는 조기 피드백이 필요하다. 레이턴트뷰 애널리틱스(LatentView Analytics)의 최고 고객 책임자인 크리슈난 벤카타는 “가장 효과적인 대시보드는 단순히 시각적으로 매력적인 대시보드가 아니라 사용률이 가장 높은 대시보드”라며 “대시보드를 만들 때는 반복적 접근 방식을 채택해서 최종 사용자와 끊임없이 소통하면서 이들의 피드백을 받아 개선해야 한다. 가치 있는 인사이트를 제공하고 행동을 촉진하고 유의미한 영향을 미치는 대시보드를 개발하는 데 있어 이 반복 프로세스가 매우 중요하다”고 말했다. SPR의 데이터 및 분석 책임자인 스티븐 디보 역시 “대시보드를 만들 때 데이터 과학자는 답하고자 하는 가치가 높은 질문, 또는 사용자를 위해 해결하고자 하는 문제에 초점을 맞춰야 한다. 사람들이 대시보드를 방문하는 이유는 정보를 찾기 위해서다. 데이터 과학자는 논리적으로 대시보드를 구성해서 사용자가 찾는 정보를 제공해야 한다”고 말했다. 그 외에 더 스마트한 데이터 시각화를 위한 단계에는 디자인 표준 수립, 시각적 요소를 활용한 스토리텔링 지원, 반복적인 데이터 품질 개선 등이 포함된다. 그러나 가장 중요한 것은 최종 사용자와 다시 접촉해서 툴이 질문에 대한 답을 제공하고 실행 가능한 워크플로우에 연결하는 데 도움이 되는지 확인하는 것이다. 디보는 “가능한 모든 질문에 답하는 대시보드를 만들기 위해 애쓰는 데이터 과학자가 많다. 이렇게 만들어진 대시보드는 난해하고 산만하다”고 말했다. 예시의 데이터 과학팀이 하나의 대시보드로 고객 서비스 및 마케팅 부서의 요구 사항을 충족하려고 하면, 디자인과 기능이 복잡해지고 결과적으로 사용하기 어려운 분석 툴이 될 가능성이 높다. 5. 테스트를 통해 분석이 비즈니스에 영향을 미치는 부분을 파악 애자일팀은 데이터, 모델, 시각화를 반복적으로 개선해야 하지만, 핵심 목표는 데이터 제품과 새 버전을 자주 프로덕션에 릴리즈하는 것이 되어야 한다. 프로덕션에서 데이터 과학팀과 최종 사용자, 이해관계자는 테스트를 실행하면서 분석이 비즈니스에 어떤 영향을 미치며 어느 부분에 개선이 필요한지 파악해야 한다. 대부분의 디지털 및 기술 제품과 마찬가지로 데이터 제품 역시 한 번으로 끝나는 프로젝트가 아니다. 반복은 경험을 개선하는 데 도움이 되고 파일럿, 베타 및 기타 릴리즈 전략을 포함한 테스트는 목표한 비전을 달성하기 위해 어느 부분에 추가적인 투자가 필요한지를 검증한다. 데이터 주도 기업이 되는 것도 많은 기업에 중요한 목표지만, 디자인 사고를 사용하면 데이터 제품을 반복적으로 개선하면서 큰 혁신의 기회를 얻을 수 있다. editor@itworld.co.kr
사람과 닮은, 어떤 면에서 사람을 능가하는 인공지능은 오래전부터 많은 대중문화에 영감을 주었을 만큼 인류의 오랜 꿈이다. 2022년 11월 오픈AI가 대화형 인공지능 챗봇인 챗GPT를 공개한 후, 사용자의 반응을 살펴 인간과 같은 수준의 맥락 있는 의사소통이 가능하며, 실시간 업데이트가 가능한 ‘진짜 인공지능’에 많은 이가 놀랐다. 이 서비스가 일반에 공개되면서 형식이 일정한 글쓰기, 번역, 요약은 물론 이미지 설명과 코드 쓰기 등 많은 개인 용도의 사용례가 생겨나기 시작했다. 당연히 기업도 주목했다. 기업 내부에서 블로그나 제품 설명, 마케팅 문서 작성 도구로 챗GPT를 활용하기 시작했고, 자동 응답 시스템이나 가이드 문서를 구축해 기술 지원이나 고객 서비스를 개선하고 있다. 개념이 빠르게 전파되기는 했지만, 생성형 AI는 아직 한 살짜리 기술이다. 그러니 생성형 AI의 고유한 특성을 이해하고 잠재력을 끌어낼 활용 사례는 많을수록 좋다. 빠르게 가치를 파악하고 활용처를 찾은 기업도 있지만, 우리 회사에 과연 필요한 기술인지, 파급력이 어느 정도일지를 관망하며 추이를 지켜보는 곳도 적지 않기 때문이다. 생성형 AI의 가능성 먼저 확인한 ㈜한화 사례 빠르게 뛰어들어 단시간 안에 결과물을 낸 곳으로는 ㈜한화를 꼽을 수 있다. 3개월간의 개발을 거쳐 지난 9월 말 ㈜한화 내부에 공개된 챗GPT 기반 챗봇 AIDA는 간단한 형태였지만 호응이 컸다. 2022년부터 ㈜한화의 디지털 트랜스포메이션을 지휘하고 있는 정해진 상무는 DT 전략팀과 함께 챗GPT를 활용한 내부 효율성과 생산성 제고 도구를 기획했다. 맨 처음 선정한 챗봇 소재는 글로벌, 모멘텀, 건설의 3개 사업 부문을 아우르는 ㈜한화 구성원이 가장 많이 찾는 하도급법, 중대재해처벌법, 사내 복지제도로, 자의적 해석 없이 명확한 규정과 법률에 기반한 답을 낼 수 있다. 임직원이 항상 사용하는 내부 플랫폼 안에서 방대한 법령과 제도 중 궁금한 점을 물어보고 빠르게 정확한 답을 얻는 것이 장점이었다. 그러나 법령이나 사내 복지 제도는 해당 업무 담당 직원만, 1년에 몇 번 질문하고 말거나, 경조사를 치를 때에야 비로소 검색하는 소재일 수 있다. 정해진 상무는 여기서 한발 더 나아가 건설 프로젝트 과정마다 참여 직원이 잘한 점과 개선할 점을 남기는 ‘레슨 런(Lessons Learned)’ 데이터에 손을 댔다. ‘레슨 런’은 각 건설 프로젝트마다 성공과 실패의 원인을 찾아 단순 회고가 아니라 전사적으로 전파하는 분석 데이터이지만, 시간이 지나고 담당자가 바뀌면서 다음 프로젝트에 유용한 데이터로 남지 않고 분산되고 있었다. 여러 곳에 분산된 ‘레슨 런’ 데이터를 챗GPT 기반 챗봇과 결합하면, 새로운 공사를 진행하기 전 일일이 문서를 뒤지지 않아도 과거 유사 업무와 관련 팁을 쉽고 효율적으로 찾을 수 있었다. 과거 프로젝트의 ‘레슨 런’을 알려 달라고 요청하면, 답변과 함께 관련 애플리케이션이나 문서로 바로 연결되도록 링크를 함께 보여주는 것도 AIDA의 장점이다. 생성형 AI의 밑바탕, LLM 고려 기준은? 이 과정에서 ㈜한화 DT 전략팀은 당시 시중에 공개된 거의 모든 대규모 언어 모델(LLM)을 테스트했다. 그중 챗GPT를 선택한 이유를 두고 정해진 상무는 “챗봇과의 대화 내역이 외부에 저장되는지, 학습에 사용되는지를 검토하고 보안 면에서 강점이 있는 챗GPT를 선택했다. 정확성이 강한 점도 장점이었고, 한국어 앞뒤 문장의 논리 구조를 가장 잘 이해하는 LLM이었다”라고 설명했다. ㈜한화 DT 전략팀의 한기선 부장은 “기업에서 입력한 내용을 LLM 플랫폼이 재학습에 활용하지 않는다고는 하지만 통상 30일 정도의 로그를 보관하는데, 마이크로소프트 애저 오픈AI(Microsoft Azure OpenAI)는 그런 정책이 없다는 것이 이점이다. 향후 ㈜한화 내부 네트워크와의 연동 계획까지 고려해, 보안이 강력하고 유실되는 데이터 등이 없을 거라고 판단해 마이크로소프트 애저 오픈AI를 선택했다”라고 부연했다. 한기선 부장은 장기적으로는 sLLM(Smal Large Language Models)을 목표로 한다며, “향후 더 좋은 엔진이 출시되면 교체할 수 있는 형태로 구상한 점이 핵심”이라고 강조했다. 또한 “엔진 자체도 중요하지만, 기존 시스템과의 쉬운 연계에 힘을 쏟았다. 공수가 너무 많이 들어가도 프로젝트가 어렵다. 따라서 내부 빅데이터 플랫폼에서 데이터를 바로 불러오는 과정이나 RDBMS 벡터화를 표준화하는 작업을 진행할 때 현재보다 미래에 대응하면서 진행했다”라고 말했다. 한기선 부장은 완성과 공개를 앞둔 새로운 기능으로 PDF 등 다양한 형식의 문서를 업로드하고 내용과 파생 질문을 요약하는 ‘도큐먼트 애널리시스’를 소개했다.역시 최종 목표는 연관 문서 내 데이터를 읽어 최종 보고서까지 생성하는 단계다. 한기선 부장은 “마이크로소프트 코파일럿이 마이크로소프트 제품 안에서 데이터를 확인하고 문서를 만들어 주는데, AIDA는 DB 안에 있는 정형·비정형 문서까지 범위에 넣어서 최종 문서를 만들어 주는 기능을 지원하므로 함께 보완해서 사용하면 좋을 것 같다”라고 밝혔다. DT 전략팀의 황찬수 차장은 “내부 질문에 대한 답은 회사 내 기존 자원에 가장 많이 들어 있다. ERP나 DB에 저장된 데이터를 워드나 다른 비정형 문서와 합쳐서 답을 만들어 내는 단계를 목표로 하고 있다. docx, pdf 등 형태와 상관없이 외부에 업로드하기 어려운 문서를 업로드하면 내용을 요약함은 물론, 연관 질문 10개를 제안하는 기능도 자랑할 만하다”라고 말했다. ㈜한화 DT 전략팀이 만든 챗봇 AIDA의 서비스 범위는 중대재해처벌법, 하도급법, 사내 복지 제도, 글로벌 플랜트의 ‘레슨 런’에 이어 연말 정산 가이드까지, 출시 이후 1개월마다 하나씩 늘어나고 있다. 뜨거운 내부 반응 "이 업무도 챗봇으로 만들어 주세요" 생성형 AI 프로젝트 이전에 빅데이터 프로젝트를 선행한 것도 도움이 됐다. 정해진 상무는 “㈜한화는 서로 다른 3개 부문을 모두 관장한다. 부문마다 ERP 버전 등 시스템이 다른 문제를 해결하기 위해 모든 데이터를 단일 대시보드에서 한눈에 보는 빅데이터 가시화 작업을 상반기에 선행했다”라고 설명했다. 정해진 상무는 재무 데이터를 먼저 빅데이터 프로젝트에 적용한 결과 수작업 시간이 대폭 줄었다며 전사로 확대할 경우에도 상당한 효용이 있으리라고 내다봤다. AIDA는 7월부터 개발에 착수해 9월 말에 ㈜한화 내부에 공개됐다. 직접 사용해 본 임직원들의 반응도 뜨겁다. 황찬수 차장은 내부 설문조사를 통해 많은 의견을 들었다며 “여러 시스템에 수천 개의 기록으로 분산된 건설 프로젝트 데이터를 AIDA에서 쉽게 검색할 수 있어 좋은 반응을 얻었다. 맥락을 기억하는 대화를 통해 상세한 후속 질문이 가능하고, 요약과 후속 시스템과의 연결까지 지원한다. 직원들이 개발을 요청한 서비스도 20~30건에 달한다”라고 밝혔다. 유사한 프로젝트를 준비하는 다른 기업에 전하는 조언도 있다. 다양한 내부 데이터를 챗봇이 읽기 쉽게 변환하는 작업을 진행한 한기선 부장은 “데이터 전처리 작업이 중요하다. 특히 비정형 데이터를 더 잘 읽을 수 있는 형태로 전환하는 작업에 많은 공수가 든다. 향후 생성형 AI와 데이터 재사용성을 고려해 기업 내부 문서의 기준을 제시하는 것도 고려할 만하다”라고 말했다. 궁극적인 목표는 더 효율적인 인사이트 도출이다. 정해진 상무는 “데이터 기반의 의사결정은 작은 부분에서 시작되는 변화다. 최종적으로는 다양한 데이터로 인사이트를 얻는 것이지만, 데이터의 정확성과 적시성 면에서도 진전이 있었다”라고 자평했다. “인간의 실수를 줄이고 정확한 데이터를 통해 적기에 올바른 판단을 내릴 수 있도록 지원하는 것은 업무 성과와 효율성은 물론, ㈜한화 임직원의 삶의 질에도 긍정적인 영향을 미칠 것”이라고 밝혔다. erin.hur@foundryco.com
절대 일어나지 않을 것 같던 일이 실제로 일어났다. 그동안 느리고 예측 불허의 안드로이드 소프트웨어 업데이트로 유명했던 삼성이 갤럭시 S23 플래그십 스마트폰에 최신 안드로이드를 제공하기 시작했다. 삼성이라는 것이 상당히 놀랍고 다른 안드로이드 기기 제조업체에도 시사하는 바가 크다. 필자가 이렇게 말하는 맥락부터 살펴보자. 지금 갤럭시 S23을 쓰는 사람은 안드로이드 14를 불과 출시 4주 만에 업데이트 받게 된다. 지난해 거금을 들여 삼성의 최고급 스마트폰 모델을 구매한 이들은 최신 안드로이드 버전을 받기까지 석 달이 걸렸다. 더 놀라운 것은 석 달 정도라는 것이 안드로이드 기기 제조사 전체로 보면 가장 민망하지 않은 축에 속한다는 사실이다. 삼성이 자사 스마트폰에 돈을 가장 많이 쓴 고객이라도 제대로 챙기는 것은 반갑지만, 사실 안드로이드 생태계에 관심을 갖고 지켜보는 이들에게 이번 상황은 그리 단순하지 않다. 삼성이 안드로이드 14를 자사 스마트폰 사용자에게 4주만 배포한 이 '성과'를 앞에 두고, 우리 모두 한번은 생각해 봐야 할, 어렵지만 타당하고 지극히 중요한 질문 3가지를 정리했다. 안드로이드 14 업그레이드가 모두에게 제공될 시기는? 삼성도 마찬가지인데, 안드로이드 14 업그레이드 '시작'이 세계 일부 지역에만 한정적으로 이뤄진다는 점이 중요하다. 과거에도 일부 스마트폰 제조사가 꼼수를 부린 사례가 있었다. 리투아니아 같은 '뜬금없는' 곳에서 사실상 테스트 성격의 업그레이드를 내놓은 후 '결승선을 1등으로 통과했다'며 대대적으로 홍보했다. 교묘한 악용이지만, 결과적으로 비판보다는 긍정적인 보도가 훨씬 많았고 회사는 노렸던(?) 결과를 얻었다. 다행히 삼성의 행태는 그 정도로 극단적이지는 않다. 현재 갤럭시 23의 안드로이드 14 업그레이드는 영국과 유럽 일부 지역에 한해 제공되고 있다. 주목할 점은 안드로이드 업그레이드 현황 파악의 척도가 되는 미국이 최신 버전 제공 지역에 포함되지 않았다는 사실이다. 삼성은 타 국가에 비해 미국에서의 업그레이드를 상당히 나중에 시작한 경우가 많았다. 결국 ‘업그레이드’라고 해도 ‘모든 곳’의 업그레이드는 아니다. 삼성은 미국 내 갤럭시 23 소유자에게 안드로이드 14가 ‘조만간’ 제공될 것이라는 말만 되풀이하고 있다. 나머지 갤럭시 제품의 업그레이드는? 주류 언론에 보도되는 안드로이드 업그레이드 관련 내용은 대개 한 회사의 최신 플래그십 제품에 최초로 제공되는 것에 초점이 맞춰진다. 매년 삼성이 ‘안드로이드 업그레이드의 1인자’이며 ‘완벽한 성과를 내고 있다’는 것을 숨가쁘게 대대적으로 홍보하는 것도 이와 크게 다르지 않다. 그러나 사람들이 간과하는 것은 사실 스마트폰 제조사마다 최신 안드로이드 버전으로 업그레이드가 필요한 안드로이드 제품이 한 두 가지가 아니라는 점이다. 일단 구세대 플래그십 스마트폰까지는 업그레이드 대상에 포함된다. 1년 전만 해도 최고급, 최고가 기기였던 제품이다. 기본적인 안드로이드 소프트웨어 지원 기간이 계속 확대되면서 이제는 2년 전 플래그십 스마트폰, 혹은 그보다 오래된 것이 포함되는 경우도 있다. 물론 갤럭시 Z 폴드 제품군에서 최고급 스마트폰도 공동 플래그십을 내세우고 있다. 문제는 삼성이 매우 다양한 중급 혹은 저가형 제품을 판매한다는 것이다. 예를 들면, 갤럭시 A14, 갤럭시 A14 5G, 갤럭시 A54 5G, 갤럭시 A34 5G 같은 스마트폰인데 모두 최근에 발표된 안에 들었다. 하지만 많은 사람이 쓰는 이들 기기에 최신 소프트웨어 업데이트가 제공되기까지는 민망할 정도로 오랜 시간이 걸린다. 현재 세대 플래그십, 이전 세대 플래그십, 저가 안드로이드 선택지 할 것 없이 모든 모델에 소프트웨어 업데이트를 동시에 꾸준하게 제공하는 업체는 구글이 유일하다. 스마트폰 제조사가 '업그레이드를 제공한다'고 할 때는 끝까지 들어야 한다. 단순히 결승선에 발끝만 겨우 통과한 시점만 봐서는 안 된다. 새로운 트렌드일까 일회성 변덕일까? 회의적인 관점에서 보자면, 삼성의 이번 안드로이드 14 업그레이드가 앞으로도 계속해서 빠르게 최신 버전을 제공하겠다는 새로운 약속인지, 아니면 일회성의 한정된 사례에 불과한지 확실치 않다. 지나치게 냉소적인 것도 아니라 현실적인 질문이다. 실제로 과거 사례를 보면, 삼성의 안드로이드 업그레이드 주기는 기복이 컸다. 2021년의 안드로이드 12에는 당시로서는 신기록인 65일만에 최신 플래그십 스마트폰에 제공됐다. 그 이전에 91~213일이 걸렸던 것에 비하면 눈에 띄게 짧아졌다. 삼성의 직전 세대 플래그십 스마트폰을 대상으로 한 업그레이드 제공 기간은 136일이었고 그 전에는 무려 293일 걸린 적도 있었다. 안드로이드 13에서는 현재 세대 및 이전 세대 플래그십 스마트폰에 안드로이드 13을 제공하기까지 각각 86일과 105일이 걸렸다. 삼성의 이런 기복 있는 패턴은 2014년 안드로이드 5.0까지 거슬러 올라가도 마찬가지다. 따라서, 삼성이 올해 안드로이드 업그레이드에 더 좋은 모습을 보여준 것은 칭찬할 만하지만, 미래를 전망하기에는 아직 더 확인해야 할 점이 많다. 삼성은 보통 이런 사안에 대해 명확하게 배경 설명을 하거나 의사를 표명하거나 약속이라고 할만한 것을 내놓지 않는다. 그래서 지금 우리가 지금 할 수 있는 것은 질문하는 것 뿐이다. 특히 우리가 피상적인 성급한 판단이 난무하고, 확인된 지식은 부족한 시대에 살고 있음을 고려하면, 이런 질문으로 얻는 맥락은 매우 중요하다. editor@itworld.co.kr
여러 기술 업체가 특정 목적을 위한 선의의 기술, 그리고 디지털 경험을 개선하기 위한 기능을 끊임없이 개발한다. 일상에서의 편의와 업무의 효율성을 증진할 기능을 더 많이 원하는 기업과 소비자의 요구에 부지런히 대응하고 있다. 그러나 신기술 개발은 사이버보안과 개인정보 보호에 대한 충분한 고려 없이 급하게 진행되는 경우가 많다. 연결성, 편리성, 효율성, 속도를 증진하는 새로운 기능과 그 장점은 결함으로 변질되는 경우가 많다. 혁신이 보안 실패를 초래한 10가지 사례 이런 트렌드는 맬웨어 기반 공격과는 다르다. 불과 지난 5년여 동안 발생한 주목할 만한 10가지 사례를 통해 새로운 기능이 어떻게 결함으로 바뀌는지 살펴본다. 생성형 AI : 2023년 가장 핫한 기술인 생성형 AI는 2022년 11월 오픈AI가 챗GPT를 대중에 선보이면서 주목받았다. 생성형 AI란 사용자가 입력한 프롬프트에 따라 텍스트, 이미지, 코드 등 각종 컨텐츠를 생성할 수 있는 ML 시스템을 지칭한다. 위협 행위자들은 설계와 구현 단계에서 보안이나 개인정보 보호를 거의 고려하지 않은 상태로 공개된 생성형 AI를 거의 곧바로 무기화했다. 생성형 AI로 허위 정보를 만들었고 이로 인해 환각 같은 생성형 AI의 다른 취약점이 악화됐다. 생성형 AI만 있으면 누구나 쉽게 딥페이크를 생성할 수 있으며, 해커 포럼에는 악성 코드를 생성하고 갈수록 더 기발하고 사실적으로 발전하는 피싱 공격을 대량 생산할 악의적인 버전의 서비스형 생성형 AI가 준비돼 있다. 줌의 엔드투엔드 암호화 : 화상회의 플랫폼 줌은 2020년 사용자 개인정보 보호 강화를 위해 엔드투엔드 암호화를 도입했다. 그러나 줌이 실행한 엔드투엔드 암호화에 상당한 취약점이 있었다. 이로 인해 수백만 줌 사용자의 안전한 의사소통에 지장을 줄 가능성이 있다는 사실이 보안 연구진에 의해 밝혀졌다. 왓츠앱의 암호화 백도어 : 왓츠앱은 2017년 사용자 메시지의 보안을 위해 엔드투엔드 암호화를 시행했다. 그러나 취약점으로 인해 공격자가 백도어를 악용할 수 있었다. 인텔의 AMT 취약점 : 원격 기기 관리를 위한 인텔의 AMT(Active Management Technology)에서 공격자의 시스템 무단 접근을 허용하는 치명적인 취약점이 발견됐다. 구글 플러스의 API 버그 : 구글 플러스는 2018년 사용자가 자신의 정보를 훨씬 더 선택적으로 공유하도록 지원하는 기능을 도입했다. 그러나 API 버그로 인해 최대 50만 사용자 데이터가 노출됐다. 스마트 IoT 기기 : 스마트 카메라, 음성 비서 같은 IoT 기기가 급증하면서 편리해진 동시에 취약점도 등장했다. 허술한 보안 조치로 해커들이 원격으로 기기에 접근한 사건이 있었다. 페이스북 친구 권한 : 2018년 페이스북의 허용 조치에 따라 사용자 승인 시 서드파티 앱이 사용자의 친구 데이터에 접근할 수 있게 됐다. 이로 인해 의도치 않게 캠브리지 애널리티카(Cambridge Analytica) 스캔들이 발생했다. 스마트폰 생체 인증 : 스마트폰 제조업체들이 안면 인식, 지문 센서 같은 생체 인증을 도입하면서 사진이나 3D 모델로 이런 생체 인증을 속일 수 있다는 사실이 연구진에 의해 입증됐다. CPU 취약점 스펙터와 멜트다운 : 스 IoT 봇넷 : 2016년 이런 일에 관심을 가져야 하는 이유는 분명하다. 선제적인 보호 조치를 취하지 않다가 사고가 발생한 후에 반응하는 기업은 평판에 치명적인 타격을 입거나 매출과 비용 측면에서 극심한 손해를 입는 등의 대가를 치를 수 있다. 소극적인 자세로 인한 대가도 크지만, 적극적인 방식 역시 비용이 많이 들고 사업에 지장을 줄 가능성이 있다. 사고 수습 비용은 얼마나 될까? IDC의 전 세계 보안 지출 가이드에 따르면, 2023년 전 세계 보안 솔루션 및 서비스 지출 규모는 2022년 대비 12.1% 증가한 2,190억 달러로 전망된다. 수치에 포함되지 않은 침해 대응 비용까지 더하면 피해 기업에 부담되는 비용은 기하급수적으로 늘어난다. 위협 행위자의 목표가 사업 방해인 최근 트렌드를 고려하면 이윤과 성장 저해에 따른 비용은 훨씬 증가할 것으로 예상된다. 신기술의 결함에 대처하는 기본 보안 수칙 여기서 소개한 10가지 사례 중에서 가치 있는 정보 탈취나 사업 방해를 목적으로 완전히 무기화된 것은 일부지만 모두 다면 공격에 일조할 수 있다. 따라서 기업은 지금 행동에 나서야 한다. 다행히 보안 솔루션에 큰 투자를 하지 않고도 효과적인 조치를 취할 수 있다. 다음과 같은 기본 예방 조치를 취하고 있는지 점검해 보자. 시스템 및 앱에 대한 정기적인 패치 적용과 업데이트 주기적이고 잦은 백업 테스트 시스템 모니터링 프로세스 강화 심도 있는 방어 전략 채택 사업부 간 사고 대응 계획 철저히 검토 인류가 누리게 된 중요한 기술 혁신과 기능 중 다수는 결함으로 악용될 수 있다. 실질적인 해결책은 OEM과 기타 기술 혁신 주체가 강력한 윤리 원칙을 바탕으로 보안과 개인정보 보호를 설계 과정에 통합하는 것이다. 그런 사고 방식이 철저하게 수용되고 확립되기 전까지는 이런 추세는 계속될 것이다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. class="image" ⓒ Getty Images Bank 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. class="image" ⓒ Getty Images Bank 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. class="image" ⓒ Getty Images Bank 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM class="image" ⓒ Getty Images Bank 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. class="image" ⓒ Getty Images Bank 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
누구나 널리 알려진 좋은 소프트웨어를 사용하고 싶지만, 사실 전문가용 프로그램은 개인이 구매하기에 너무 비싸다. 이럴 때는 실행 파일은 물론 소스 코드까지 다운로드할 수 있는 오픈소스 소프트웨어라는 대안이 있다. 무료 소프트웨어여서 그 품질과 기능에 의심이 들겠지만 걱정할 필요가 없다. 많은 오픈소스 소프트웨어가 전문가용 제품 못지않은 품질과 기능을 제공한다. 오피스부터 미디어 편집, 파일 관리 및 백업까지 분야별 최고의 오픈소스 애플리케이션을 모았다. 생산성 : 오피스, PDF 및 컨퍼런스 툴 컴퓨터에서 매일 하는 작업을 꼽으라면 무엇보다 문서 편집이다. 리브레오피스(LibreOffice)는 텍스트, 스프레드시트, 프레젠테이션을 작성하는 종합 오피스 패키지로, 2000년에 소스코드가 공개된 오픈 오피스(Open Office)에서 파생됐다. 오픈 오피스 프로젝트는 현재 아파치 오픈 오피스라는 이름으로 지속되고 있다. 리브레오피스의 빠른 업데이트 주기는 아파치 오픈 오피스보다 유리한 점이다. 최신 7.5 버전에서는 라이터(Writer)의 텍스트 문서 편집 기능이 개선돼 머리글의 서식이 향상됐고 표 삽입이 쉬워졌다. 컬러 북마크를 사용해 섹션을 더 쉽게 탐색하고 찾을 수 있다. 스프레드시트인 칼크(Calc)에서는 확장된 수식 보조 기능과 다이어그램을 위한 새로운 함수가 눈에 띈다. 드로우(Draw)와 임프레스(Impress)는 표를 더 쉽게 디자인할 수 있게 바뀌었고, EMF 그래픽을 더 빠르게 가져올 수 있다. 어두운 색의 사용자 인터페이스가 표시되는 다크 모드도 지원된다. 한편 여러 기기 간 문서 교환에 유용한 것이 바로 PDF 포맷이다. PDF 파일로 문서를 만들면 다른 운영체제와 모바일 앱에서도 문서가 깨지지 않고 똑같이 표시된다. 마킹, 메모와 같은 부가 기능을 사용해 신속하게 메모 또는 변경 요청을 문서화할 수 있고, 그룹 작업도 가능하다. 보통 많은 사람이 PDF 파일을 다루기 위해 무료 어도비 아크로벳 리더를 사용하지만, PDF 파일을 빠르게 보는 용도로는 오픈소스 프로그램인 수마트라 PDF(Sumatra PDF)가 있다. 구글 번역 및 딥엘(DeepL)을 통한 번역으로 연결되는 링크, 주석을 사용한 마커 삽입 등의 기능을 제공한다. 협업 툴도 살펴보자. 팀의 협업 형태는 코로나 시기를 거치면서 크게 변했다. 온라인 비디오 컨퍼런스가 이제 보편적으로 사용된다. 화상회의는 회의실이 불필요하고 출장을 갈 필요도 없으며 이동 중에도 참여할 수 있는 장점이 있다. 협업 툴에는 줌 또는 마이크로소프트 팀즈가 유명하지만, 오픈소스 대안으로 오픈 토크(Open Talk)가 있다. 오픈 토크 시스템은 클라우드에서 작동하며 웹사이트를 통해 바로 사용할 수 있다. 전화 걸기, 화면 공유, 투표, 회의 녹화 등 상용 경쟁 툴과 비슷한 기능을 제공한다. 이밖에 많은 기업이 이미 작업 그룹을 디지털 방식으로 관리할 텐데, 이 분야에는 매터모스트(Mattermost)가 있다. 그룹 채팅, 프로젝트 관리, 소리를 포함한 화면 공유 옵션 등을 지원하는 데스크톱, 모바일 및 온라인 시스템이다. 매터모스트 웹사이트의 무료 계정을 통해 사용할 수 있다. 회사 IT에 통합하려면 추가 소프트웨어가 필요하며, 기술 지원 및 IT 통합은 유료로 제공된다. 인터넷 : 브라우저와 이메일 메시징, 온라인 쇼핑, 인터넷 뱅킹은 많은 사람에게 없어서는 안될 요소로 자리잡았고, 이런 사이트에 액세스하려면 웹 브라우저가 필요하다. 많은 사용자가 구글 크롬을 선호하지만 크롬에는 개인정보 보호 문제가 있다. 인터넷 검색을 넘어서는 구글의 탐욕스러운 데이터 수집은 이미 악명이 높다. 대안은 언구글드 크로미엄(Ungoogled Chromium)이다. 크롬 웹 브라우저의 오픈소스 버전으로, 구글의 모든 액세스가 차단된다. 서핑 시 기능 제약은 없으며 크롬 웹 스토어의 확장 프로그램도 작동한다. 이메일 역시 PC에서 매일 사용하는 기능이다. 이메일은 속도가 빠르며 사진이나 문서, 다양한 데이터를 주고받기에 적합하다. 썬더버드(Thunderbird)는 많은 기능을 갖춘 무료 메일 프로그램이다. 여러 사서함과 다양한 전송 프로토콜, 주소록, 캘린더 등을 지원한다. 썬더버드 20주년을 맞아 개발팀은 앱 전체에 대한 전반적인 현대화를 진행중이다. 멀티 미디어 : 사진, 영상, DTP 및 디자인 디지털 사진의 인기가 계속되는 가운데, 김프(Gimp)를 사용하면 손쉽게 사진을 편집할 수 있다. 대비와 밝기를 조절하고 이미지를 더 선명하게 할 수 있다. 레이어, 마스크를 비롯한 이미지 몽타주 툴은 오래전부터 거의 모든 이미지 툴이 지원하는 표준 기능이다. 김프 버전 2.10부터는 배경 제거 툴이 추가됐고, 영역을 자르고 선택하는 툴도 포함된다. 또다른 오픈소스 이미지 편집 툴인 디지캠 포토 매니저(Digikam Photo Manager)는 사진 모음을 전체적으로 보여준다. 키워드, 평점, 컬러 마커를 기준으로 정렬하거나 사진의 메타데이터를 분석해 위치를 보여준다. RAW 이미지를 위한 편집 기능과 툴도 있다. 로우 테라피(RAW Therapee)도 RAW 사진 현상을 위한 다양한 툴과 이미지 보기 관리를 포함한 많은 RAW 옵션을 제공한다. 데스크톱 출판(DTP)용 문서 디자인 분야에는 잉크스케이프(Inkscape)와 스크라이버스(Scribus)의 조합을 추천한다. 잉크스케이프에서는 세밀한 일러스트레이션을 디자인할 수 있다. 곡선, 개체, 텍스트를 만드는 주요 기능을 지원하고, 요소 정렬, 색 채우기, 그라디언트 또는 그래픽 결합을 포함한 다양한 툴이 있다. 이 프로그램을 이용하면 확장 가능한 로고, 인포그래픽 및 기타 디자인을 빠르게 만들 수 있다. 이렇게 만든 요소는 스크라이버스의 페이지 디자인에 사용할 수 있다. 샘플 페이지와 자체 디자인된 표준 요소를 사용해 간단한 전단지 또는 메뉴뿐만 아니라 신문, 잡지도 만들 수 있다. PDF 형식으로 출력해 전문적인 인쇄까지 가능하다. 잉크스케이프와 스크라이버스는 JPG, TIF, PNG, SVG와 같은 다양한 그래픽 형식을 지원한다. 한편 그림을 그리고 스케치하고 색을 칠하는 작업을 컴퓨터에서 하는 경우가 늘어나고 있다. 그 결과 아티스트의 일러스트레이션, 그림 또는 개념 디자인까지 디지털로 받아 별도의 스캔 작업 없이 즉각 처리할 수 있는 세상이다. 이때 특수한 그래픽 프로그램을 사용하면 머리 속 아이디어를 바로 화면으로 옮길 수 있다. 크리타(Krita)가 대표적이다. 특수한 브러시 팁, 레이어, 효과, 마스크를 통해 이 과정을 지원한다. 애니메이션 옵션을 사용해 생기를 불어넣을 수도 있다. 그래픽 태블릿과 함께 사용하면 디지털 펜의 압력과 기울기까지 반영해 브러시 스트로크 또는 디지털 연필 스트로크를 표현한다. 3D 애플리케이션인 블렌더(Blender)도 있다. 나온지 30년이 넘은 이 유서 깊은 앱은 처음에 영화사에서 내부적으로만 사용되다가 2002년 오픈소스가 된 이후부터 개발 속도가 빨라졌다. 정교한 모델링과 텍스처 모듈 외에 애니메이션, 합성, 비디오 편집을 위한 기능도 제공한다. 플러그인 인터페이스와 스크립팅을 통해 사용자가 원하는 대로 확장하고 조정할 수 있다. 블렌더는 지원하는 기능이 워낙 다양해 쓰임새도 광범위하다. 예를 들어 스파이더맨 2와 원더우먼 등 헐리우드 영화 제작에도 이 툴이 사용됐다. 나사(NASA)는 인터렉티브 웹 애플리케이션인 익스피리언스 큐리오시티(Experience Curiosity)에 블렌더를 사용했다. 영상 재생기로는 VLC 미디어 플레이어가 압도적이다. 구형 휴대폰 촬영 영상부터 새로운 고해상도 4K 클립까지 VLC로 재생할 수 없는 형식은 거의 없다. 재생 목록 사용하기, 온라인 비디오 및 팟캐스트 검색, 홈 네트워크를 사용한 스트리밍 등으로 다양한 용도에 맞게 사용할 수 있다. 잘 알려져 있지는 않지만 비디오 변환 기능도 유용하다. 샷컷(ShotCut)은 비디오 편집에 유용하다. 비디오를 보고 자르고 배열하는 용도로 사용된다. 비디오, 오디오, 전환, 효과 믹싱을 위한 유연한 타임라인도 제공한다. FFmeg 프레임워크를 설치하면 다양한 비디오 형식을 가져오고 내보낼 수 있다. 많은 사용자가 마이크로소프트의 미디어 플레이어를 사용해 음악 파일을 관리한다. 미디어 플레이어는 디지털화, 재생, 다른 기기로의 스트리밍을 지원하는 좋은 툴이지만 시스템 리소스를 과도하게 쓰는 단점이 있다. 이럴 때 사용할 수 있는 오픈소스 대안이 도파민(Dopamine)이다. 훨씬 더 가벼우면서도 많은 관리 기능, 재생 목록, 통합 이퀄라이저를 제공한다. 또한 온라인에서 노래 가사를 불러오고 Last.fm 및 디스코드를 통합할 수 있다. 포터블 버전이 특히 유용하다. 음악이 들어 있는 USB 드라이브에 설치해 두면 다양한 컴퓨터에서 사용할 수 있으며 곡 데이터베이스는 항상 최신 상태로 유지된다. 이 기능은 로컬 네트워크에서도 작동한다. 보안과 관리 : 데이터 및 시스템 백업 중요한 데이터와 시스템 파티션은 반드시 정기적으로 백업해야 하는데, 문서, 사진 및 음악 백업에 안성맞춤인 오픈소스가 바로 듀플리카티(Duplicati)다. 설치하고 시작하면 백그라운드에서 작동하며, 데이터 선택, 스케줄 등의 구성은 브라우저 인터페이스를 통해 할 수 있다. 하드 디스크, 네트워크 드라이브, USB 스토리지 디바이스 또는 인터넷의 서버를 백업 파일 저장 대상으로 설정할 수 있다. FTP, WebDAV와 같이 잘 알려진 전송 프로토콜 외에 드롭박스, 아마존, 구글과 같은 클라우드 서비스 액세스도 지원한다. 저장된 데이터를 압축하며 AES256으로 암호화한다. 전체 파티션 또는 하드 드라이브 백업에 적합한 또다른 오픈소스 앱이 클론질라(Clonezilla)다. CD 또는 USB 드라이브에 부팅 가능한 복구 시스템을 만든 다음 이를 사용해 하드 디스크 또는 개별 파티션의 이미지를 만든다. 하드웨어 장애가 발생하면 클론질라로 시스템을 재시작하고 이미지 데이터를 복원하면 된다. 백업 저장 대상으로는 로컬 스토리지 기기 또는 네트워크 드라이브를 설정할 수 있다. 클론질라는 NFS 또는 WebDAV를 통해 연결을 설정해 인터넷의 서버로도 데이터를 백업할 수 있다. 한편 문서나 사진을 파일 단위로 공유하는 방법은 많다. 단, 클라우드나 이메일을 통한 공유는 많은 경우 보안 위험이 따르므로, 민감한 데이터의 경우 암호화된 연결을 사용하는 것이 좋다. 이처럼 안전한 파일 교환이 필요할 때 쓸 수 있는 앱이 어니언셰어(Onionshare)다. 어니언셰어는 토르(Tor) 브라우저에 적용돼 사용자 정보를 익명화하는 어니언(Onion) 기술을 활용해 데이터의 안전한 교환을 구현한다. 즉, 전송의 경우 수신자가 검색할 수 있는 어니언 주소를 생성하고, 데이터 암호화 자체가 부가적인 보안을 형성한다. 발신자는 수신자가 전송 잠금을 해제할 수 있는 개인 키를 정의한다. 어니언셰어에는 파일 공유 기능 외에 채팅 옵션과 토르 네트워크를 통해 안전하게 웹사이트를 제공하는 웹 서버 기능도 있다. 그밖에 유용한 오픈소스 애플리케이션 ZIP 형식은 여러 파일을 하나의 패키지로 합치고 데이터를 압축한다. 파일을 압축하면 메일 또는 클라우드를 통해 더 빠르게 전송할 수 있다. 이런 ZIP 압축 프로그램 중 가장 유명한 오픈소스 앱이 7Zip이다. 7Zip은 ZIP 압축 파일을 열고 생성하며 파일을 추가 또는 제거할 수 있고 원하는 경우 윈도우 탐색기의 컨텍스트 메뉴에 통합할 수 있다. 이렇게 하면 ZIP을 열고 만드는 작업을 빠르게 불러올 수 있다. 7Zip을 이용하면 ZIP 파일을 지원할 뿐만 아니라 RAR, TAR, BZIP2, GZ, ARJ, LHA, LZH와 그 외의 많은 형식도 읽을 수 있다. 민감한 데이터가 포함된 파일이라면 AES 크립트(AES Crypt)를 사용해 손쉽게 암호화할 수 있다. 파일을 암호화하면 인터넷을 통해 전송할 때도 안전하게 보호할 수 있다. AES 크립트를 설치하면 윈도우 탐색기의 컨텍스트 메뉴에 새 항목이 생긴다. 암호화를 실행하려면 마우스 오른쪽 버튼으로 하나 이상의 파일을 클릭하고 컨텍스트 메뉴의 “AESCrypt”를 클릭한다. 이후 열리는 창에서 비밀번호를 입력하고 확인을 누르면 된다. 비밀번호를 입력해야만 데이터에 대한 액세스를 허용하는 256비트 보안 파일을 생성한다. 이런 파일을 열려면 마우스 오른쪽 버튼을 다시 클릭하고 AES크립트 항목을 선택한 다음 비밀번호를 입력해야 한다. editor@itworld.co.kr
대규모 언어 모델(LLM)을 기반으로 하는 챗GPT, 클로드(Claude), 바드(Bard)를 비롯한 공용 생성형 AI 챗봇도 충분히 좋지만, 이와 같은 범용 챗봇은 엔터프라이즈 워크플로우에 매끄럽게 통합되지는 않는다. 기업 직원이 별도의 앱을 사용하거나, 회사가 시간과 노력을 들여 애플리케이션 프로그래밍 인터페이스를 통해 자체 애플리케이션에 AI 기능을 추가해야 한다. 또한 챗GPT 및 기타 생성형 AI 챗봇을 사용하기 위해서는 직원이 프롬프트 엔지니어링에 대해서도 배워야 한다. 반면, 임베디드 생성형 AI는 직원이 이 기술을 가장 필요로 하는 곳, 즉 기존 워드 프로세싱 애플리케이션과 스프레드시트, 이메일 클라이언트를 비롯한 기타 엔터프라이즈 생산성 소프트웨어에 새로운 AI 기능을 구현해주며, 이를 위해 회사가 따로 해야 할 일도 없다. 제대로 구현되면 직관적으로, 단절 없이 새로운 AI 기능을 사용할 수 있게 되므로 어려운 생성형 AI 사용법 학습 과정 없이 모든 혜택을 누리게 된다. 포레스터는 최근 북미와 영국의 기술 의사 결정자를 대상으로 한 설문조사 결과를 근거로 2025년까지 거의 모든 기업이 쓰기 및 편집을 포함한 커뮤니케이션 지원 용도로 생성형 AI를 사용하게 될 것으로 예측했다. 실제로 설문 응답자의 70%는 쓰기 또는 편집 작업의 대부분 또는 전체에서 이미 생성형 AI를 사용하고 있다고 답했다. 그러나 포레스터에 따르면 챗GPT 같은 독립적인 생성형 AI 툴은 교차 직무 협업을 지원하지 못하며 직원이 업무를 수행하는 부분에서 작동하지도 않는다. 포레스터는 설문조사 보고서에서 “많은 사용 사례에서 생성형 AI는 독립형 앱보다는 임베디드 기능일 때 더 큰 혜택을 제공한다는 의미”라고 설명했다. IBM 컨설팅의 글로벌 AI 및 분석 부문 리더 매니시 고얄 역시 “아무리 좋은 AI를 가져오더라도 정작 사람들이 워크플로우에서 AI를 사용할 수 없다면 채택되지 않는다"라고 말했다. 임베디드 생성형 AI와 관련하여 현재 가장 큰 화제는 마이크로소프트 365 생산성 제품군 전반에 통합 구축되고 있는 생성형 AI 비서인 마이크로소프트 365 코파일럿이다. 일부 생성형 AI 기능은 팀즈 및 기타 마이크로소프트 365 앱에 구현됐지만 코파일럿 자체는 아직 정식 출시되지 않았고 테스트를 위한 초기 액세스가 허용된 기업은 600개에 불과하다. 마이크로소프트 365 코파일럿의 정식 출시를 손꼽아 기다리고 있는 솔루션 통합업체 인사이트(Insight)의 최고 엔터프라이즈 설계자 겸 CTO 데이비드 맥커디는 “데모를 본 사람이라면 생성형 AI의 통합이 백오피스가 돌아가는 방식을 완전히 바꿔 놓게 될 것임을 알고 있다"라고 말했다. 한편 일부 기업은 오픈AI에 대한 API를 통하거나 라마 2(Llama 2) 같은 LLM을 로컬로 실행해서 자체 앱에 생성형 AI를 직접 추가하고 있다. 예를 들어 인사이트는 API를 통해 마이크로소프트 엑셀에 생성형 AI를 내장했다. 맥커디는 “다만 향후 오피스 365에 통합될 것이기 때문에 이 부분에 대한 개발을 너무 많이 하지는 않고 있다"라고 말했다. 자체 AI 임베드를 만드는 데 필요한 시간이나 인력을 갖추지 못한 기업도 지금 생산성 툴 내에서 생성형 AI 사용을 시작할 수 있다. 많은 업체가 이미 앱에 다양한 생성형 AI 기능을 추가했기 때문이다. 예를 들어 줌, 마이크로소프트 팀즈를 비롯한 여러 온라인 회의 플랫폼은 내장형 또는 애드온 방식으로 AI 기반 요약 기능을 제공한다. 맥커디는 “이 기능이 회의 요약 방식을 완전히 바꾸어 놓았다. 요약 기능이 매우 유용한다는 점은 확실히 말할 수 있다. 큰 이득이 없는 기능도 많지만 요약과 목록 작성만큼은 최고”라고 말했다. 일부 기업에서 워크플로우에 생성형 AI를 어떻게 사용하고 있는지, 어느 부분에서 효과적인지, 그리고 생성형 AI를 안전하게 도입하기 위한 전략은 무엇인지 알아보자. 스트림 파이낸셜 : 이메일, 텍스트 문서, 코드의 생성형 AI 미국 솔트레이크시티에 소재한 핀테크 기업 스트림 파이낸셜 테크놀로지(Stream Financial Technology)의 엔지니어링 책임자인 조완자 조셉은 “우리가 사용하는 스파크(Spark)라는 이메일 클라이언트에는 이메일 요약과 작성을 위한 생성형 AI가 내장돼 있다"라고 말했다. 조셉은 “나도, 경영진도 대부분 긍정적이다. 유일하게 부정적으로 보는 부분은 AI가 이해 부족을 가리는 허울이 될 수 있다는 점이다. 즉, 글을 읽다가 말이 안 되는 부분이 있어서 지적하면 AI가 써서 그렇다고 둘러댈 수 있다는 점”이라고 말했다. 스트림 파이낸셜이 사용하는 또 다른 생성형 AI 툴은 마이크로소프트 워드, 구글 문서도구를 비롯한 많은 애플리케이션 내에서 작동하는 그래멀리(Grammarly)다. 그래멀리는 처음에는 단순한 문법 검사기였지만 최근 AI 기반의 텍스트 생성, 문구 수정 및 요약 기능까지 더했다. 조셉은 “그래멀리 기업 구독을 이용하고 있다. 구글 문서 도구 내에서 작동하며, 단락을 쓰거나 요약하도록 지시할 수 있다. 내용을 채워 넣고 요약하는 용도로는 좋지만 기술적인 분야에 대한 심층적인 내용은 다루지 못한다"라고 말했다. 조셉이 지적한 그래멀리 AI의 문제점은 각각의 상호작용이 별개라는 점이다. 챗GPT, 클로드와 같이 대화를 계속 주고받으면서 결과물을 세밀하게 다듬을 수가 없다. 조셉은 “그래멀리 AI에 무엇을 해야 할지 지시할 좋은 방법이 없다"라고 말했다. 조셉은 회사 측이 기밀 데이터 또는 고객 정보에 대해서는 공용 AI를 사용하지 않도록 주의한다고 강조했다. 조셉은 “장기적 관점에서 생성형 AI를 사용해 마케팅 문구와 같은 콘텐츠를 생성하는 데 대해 낙관적이다. A/B 테스트를 위한 다른 문구를 작성하거나 동일한 문구를 다양한 형태로 반복 생성할 수 있다"라고 말했다. 조셉은 생성형 AI가 가장 크게 영향을 미치는 부분은 코드 생성이라면서 “깃허브 코파일럿에 1인당 월 19달러를 내고 있는데, 그 5배라 해도 기꺼이 낼 것이다. 막대한 시간을 절약할 수 있게 해주며 지식도 상당한 수준”이라고 말했다. 조셉은 “코드 생성은 생성형 AI의 가치가 입증된 부분이다. 그 외의 모든 부분은 아직 단언할 수 없고, 갈 길이 멀다"라고 말했다. NFP : 마케팅 문구, 회의 요약에 생성형 AI 사용 보험 중개업체 NFP는 2년 전부터 텍스트 작성에 AI를 사용해왔다. 이 회사의 영업 지원 부문 SVP인 카일 힐리에 따르면 NFP는 챗GPT가 대중에 공개되기 훨씬 전부터 재스퍼(Jasper) AI를 사용해서 마케팅 문구를 작성했다. 처음 오픈AI의 GPT 3.5 대규모 언어 모델을 기반으로 2021년 2월 출시된 재스퍼는 화이자, 스포츠 일러스트레이티드(Sports Illustrated), 허브스팟(HubSpot), 센티넬원(SentinelOne)을 포함한 10만 곳 이상의 기업 고객을 두고 있다. 현재 재스퍼 AI는 가장 진보된 버전의 챗GPT와 같은 기반 모델인 GPT 4를 사용한다. 여기에 특정 사용 사례에 따라 맞춤화된 마케팅 또는 비즈니스 콘텐츠를 생성하도록 설계된 부가적인 모델과 세부적인 조정 등 비즈니스 친화적인 기능을 추가했다. 또한 회사 자체 브랜드 성격을 학습시키고, 회사 워크플로우 내에서 확장 기능 및 API를 통해 사용할 수 있다. 힐리는 “보안에 대해 일부 우려가 있었다. 그리고 재스퍼는 폐쇄형 시스템이다. 마케팅 부서에서 일부 카피라이팅 작업에 여전히 재스퍼를 사용하고 있다"라고 말했다. 최근 NFP는 재스퍼에서 영업 활동 지원 플랫폼인 세일즈로프트(Salesloft)에 내장된 생성형 AI 툴로 대부분 전환했다. 세일즈로프트는 지난 봄에 빠른 이메일 작성을 위한 생성형 AI 기능을 추가했다. 힐리는 “CRM 시스템의 안내 및 코칭에도 생성형 AI를 사용하기 시작했다. AI 툴이 모든 부분에 연결되기 시작하면서 이제는 더 많은 프로그램에서 GPT를 사용하고 있다. 마이크로소프트 생태계 전반에 완전히 내장된 형태”라고 말했다. 힐리 본인도 생성형 AI를 적극적으로 사용한다. 힐리는 “2023년 비즈니스 계획 전체를 AI를 사용해 작성했다”면서 “AI의 효과에 대해 내부적인 설득 작업을 진행하던 중에 고위직의 누군가가 AI가 아직 그 수준에 이르지 못했다고 말했다. 그래서 오기로 비즈니스 계획을 AI로 만들어서 제출했는데, 반응이 아주 좋았다. 로봇이 작성한 것으로 믿기지 않는다는 반응이었다"라고 말했다. 힐리는 “사모펀드 분야에서 일하는 영업팀의 고위급 직원도 리드를 작성하고 계약을 체결하는 데 AI를 사용하기 시작했다. 올해 초부터 경영진, 영업부서를 비롯해 많은 직원이 AI를 사용하고 있다. 이들은 ‘AI를 채택해야만 한다’고 말한다"라고 전했다. NFP는 마이크로소프트 팀즈에서도 생성형 AI를 사용해서 회의 노트를 자동으로 생성한다. 힐리는 “모두가 이해해야 할 중요한 점은 AI가 우리 일을 대체하는 것이 아니라 증폭하고 보강한다는 것이다. 같은 수의 사람으로 더 많은 일을 할 수 있게 해준다"라고 말했다. 힐리는 다음 단계는 세일즈포스의 생성형 AI 기능을 사용해서 원시 데이터를 해설적 데이터로 바꾸는 것이라며 “지금 이 부분을 추진하고 있다. 이를 통해 경영진은 자연스럽게 느껴지는 방식으로 정보를 흡수할 수 있게 된다. 예를 들어 나처럼 숫자에 서툴고 항상 숫자에서 막힌다면 숫자가 아닌 다른 방식으로 정보를 흡수할 수 있게 될 것”이라고 말했다. 생성형 AI 툴을 사용할지 여부를 결정할 때 중요한 것은 학습 데이터의 정확성과 개인정보 보호, 보안, 그리고 사용성이다. 힐리는 “영업 및 마케팅 문구에서는 사유 부분을 다루지 않는다. 그러나 NFP는 인수합병을 많이 한다. 법무팀이 AI를 사용해서 계약서를 더 빠르게 만들거나 미묘한 차이 또는 세부 사항을 찾을 수 있을까? 개인정보 보호와 보안, 클로즈드 소스 모델을 살펴봐야 한다"라고 말했다. 힐리는 지금은 영업 담당자가 새로운 AI 툴을 익히도록 하는 작업을 진행 중이라면서 “간소함과 사용의 용이함이 중요하다. 자연스럽게 느껴지는지, 마음을 먹고 사용법을 배워야 하는지가 관건”이라고 말했다. 힐리는 예를 들어 챗GPT는 사용하기가 쉽지 않았다면서 “챗GPT에 말을 하기 위해서는 거의 정해진 코스에 따라야 한다. 어떤 면에서는 프로그래밍과 상당히 비슷하다. 하지만 NFP는 기술 기업이 아니고 보험을 판매하는 회사”라고 말했다. 직원이 이미 사용하는 툴에 내장된 형태의 생성형 AI는 이러한 사용성 장벽을 극복하는 데 도움이 될 수 있다. 힐리는 “예를 들어 세일즈로프트는 반복적이고 유기적이다. 생성형 AI는 이 툴의 자연스러운 확장이다. 새로운 것을 배울 필요가 없다는 것이 NFP에는 중요한 점이다. 35년째 일하는 보험 담당자도 바로 사용할 수 있고, 25세 직원이라면 시스템 전체를 지극히 자연스럽게 받아들인다"라고 말했다. 톰슨 로이터 : 서신 초안 작성, 직원 질문에 대한 응답에 생성형 AI 사용 뉴스 기업 톰슨 로이터(Thomson Reuters)의 최고 인사 책임자인 매리 앨리스 부이식은 수십년 전부터 제품과 사무실에서 AI를 사용해왔다면서 “이미 존재하는 많은 부분에 AI가 내장돼 있다. 핵심은 증강, 즉 사람들이 더 가치 있는 일을 할 수 있도록 해주는 데 있다"라고 말했다. 부이식은 AI는 사람이 아니라 “작업을 대체한다"라고 말했다. 생성형 AI가 보편화된 지금 톰슨 로이터는 선제적으로 공급업체에 관심을 갖고 이들의 AI 로드맵을 살펴봤다. 부이식은 이미 많은 부분이 발표됐다고 말했다. 예를 들어 세일즈포스와 워크데이(Workday) 모두 생성형 AI 전략을 마련했다. 부이식은 “마이크로소프트 코파일럿과 그 외에도 수많은 툴이 있다"라고 말했다. 부이식은 톰슨 로이터에서 이미 많은 생성형 AI 툴이 사용되고 있다고 말했다. 예를 들어 커뮤니케이션 팀은 AI를 사용해서 문서의 초안을 작성한다. “실제로 작업의 첫 번째 초안 작성에서 전반적으로 AI 툴을 사용할 여지가 있다. 다만 정확성은 AI에 의지할 수 없고 교육에서도 이 부분을 다뤘다. 처음 초안이 작성된 다음에는 사람이 편집한다. 즉, 사람의 전문성을 적용해서 더 높은 품질의 제품을 제공한다"라고 말했다. HR 분야에서는 생성형 AI를 사용해 직원 질문에 답하기와 관련한 실험이 진행 중이다. 부이식은 “초기 결과는 매우 만족스럽다. 지금까지 정확도는 95%이며 과거 이러한 질문에 답하느라 빼앗겼던 시간을 돌려줘서 부가가치를 창출하는 일에 투자할 수 있게 해준다"라고 말했다. 생성형 AI 도입을 위한 세 갈래 접근 부이식은 톰슨 로이터는 가능성에서 앞서 나가기 위해 AI 도입을 가속화하기 위한 전사적 이니셔티브를 출범했다고 말했다. 첫 번째 단계는 AI 표준과 윤리의 정립으로, 몇 년 전부터 해오고 있다. 부이식은 “톰슨 로이터는 30년 이상 AI를 사용하고 있다. 생성형 AI 이전에도 이 분야의 리더가 되기 위해 노력했다"라고 말했다. 부이식은 “다음 단계는 인력 교육이다. 이는 반드시 필요한 단계”라고 말했다. 톰슨 로이터는 지난 4월 전세계 모든 직원이 참여할 수 있는 AI 교육의 날을 열었다. 총 2만 7,000명의 직원 중 약 7,000명이 라이브로 이 이벤트에 참석했다. 부이식은 “그 외에도 수천 명이 비동기적으로 이 교육 자료를 활용하고 있다"라고 덧붙였다. 부이식에 따르면 참가자의 대다수는 이미 자신의 업무에 생성형 AI를 적용할 수 있다고 말했다. 부이식은 “이는 로이터 직원 대부분이 앞으로 일하면서 겪게 될 가장 중요한 혁신이다. 우리는 이 부분에서 선두에 서야 한다. 회사 측은 교육과 개발, 업스킬 및 리스킬에 대한 책임이 있다. 그러나 모든 개인도 배우고 발전해야 할 책임이 있다"라고 말했다. 톰슨 로이터 AI 전략의 세 번째 축은 모든 툴을 실험할 수 있는 안전한 장소를 제공하는 것이다. 부이식에 따르면 톰슨 로이터는 생산성 소프트웨어에 내장된 생성형 AI 외에도 오픈AI, 앤트로픽, 구글, 그리고 라마 2와 같은 오픈소스 모델을 포함한 다양한 대규모 언어 모델을 실험하고 있다. 부이식은 “변화의 속도가 매우 빠르다. 톰슨 로이터는 고객 사용 사례를 위해 최선의 기술을 활용하고자 한다"라고 말했다. 마지막으로, 이 회사는 학습과 실험의 문화를 강화하고 있다. 부이식은 “가장 빠르게 배우고 실험하는 팀이 승리하게 될 것”이라고 말했다. 위험을 고려해서 현명하게 선택하기 몇몇 엔터프라이즈 기술 업체는 생성형 AI 기능뿐만 아니라 모델을 학습시키는 방법 또는 사용할 구체적인 모델에 관한 유연함도 고객에 제공한다. IBM 컨설팅의 고얄은 “IBM은 세일즈포스를 사용한다. IBM의 세일즈포스 관리자는 나와 같은 최종 사용자가 그냥 볼 수 있도록 적절한 모델을 선택하고 구성할 수 있다. 세일즈포스는 임베디드 AI를 선택할 수 있는 옵션도 제공한다"라고 말했다. 고얄은 IBM 컨설턴트가 현재 기업과 협력해서 마이크로소프트 365를 비롯한 과련 기술로 무엇이 가능한지, 그리고 법률 및 보안 측면에서 생성형 AI가 어떤 영향을 미치는지에 대해 생각하도록 돕고 있다고 말했다. 고얄은 “IBM의 왓슨x(Watsonx)에 대한 입장은 확고하다. 고객의 데이터는 고객의 소유라는 것이다. IBM은 모델 학습에 고객 데이터를 절대 사용하지 않는다. 애저, AWS, 구글과 협력하고 있으며 이들 각 기업은 생성형 AI의 이 부분에 있어 예전부터 명확한 입장을 유지하고 있다. IBM의 파트너 및 고객 역시 마찬가지다. 고객이 업로드하거나 서비스에 사용하는 어떠한 데이터도 모델 학습에 사용되지 않는다. 그렇지 않으면 어떤 기업도 AI를 사용하지 않을 것”이라고 말했다. 이 원칙을 위반한 엔터프라이즈 업체의 예로 줌이 있다. 줌은 처음에 회의 녹취록을 AI 학습에 사용할 것이라고 말했다가 격렬한 반발에 직면해 황급히 철회한 바 있다. 그러나 초기 학습 데이터의 출처에 대해서는 업체의 투명성이 부족하다. 고얄도 그 점을 인정하면서 “왓슨x는 학습 데이터에 대한 완전한 데이터 계보를 제공한다. 그러나 모든 업체가 그렇지는 않다. 명확하게 밝히지 않는 경우가 많다"라고 말했다. 또한 몇몇 AI 업체는 저작권이 있는 상품을 허가 없이 AI 학습에 사용했다는 이유로 아티스트 및 작가로부터 피소된 상황이다. 고얄은 “AI에는 항상 위험이 있었다"라고 말했다. 대규모 언어 모델에는 과거의 오래된 위험이 더 증폭된 경우도 있고 새로운 위험도 있다. 고얄은 “기업은 생성형 AI를 사용할 때 가드레일을 설치해야 한다"라고 말했다. 그러나 기업에 결국 중요한 것은 이러한 새로운 기능을 어떻게 사용할 수 있을지를 살펴보는 것이다. 고얄은 “그 방법을 가장 빠르게 파악하는 기업이 승자가 되고 꿈처럼 보이는 일을 현실화할 수 있을 것”이라고 말했다. editor@itworld.co.kr
파이썬은 강력하고 유연하며 다루기 쉬운 언어로 유명하다. 이런 장점 때문에 방대하고 다양한 애플리케이션과 워크플로우, 분야에 사용된다. 그러나 인터프리티드 언어인 데다 런타임의 동적 특성 때문에 파이썬은 C, C++와 같은 머신 네이티브 언어에 비해 속도가 훨씬 더 느리다는 고질적인 단점이 있다. 개발자들은 오랜 시간 동안 파이썬의 속도 제한을 극복하기 위한 다양한 방법을 고민해왔다. 예를 들어 성능 집약적인 작업을 C로 작성하고 이 C 코드를 파이썬으로 래핑하는 방법 같은 것이다. 많은 머신러닝 라이브러리가 실제로 이 방식으로 동작한다. 또는 파이썬 코드에 런타임 형식 정보를 섞어 C로 컴파일할 수 있게 해주는 프로젝트인 사이썬(Cython)을 사용하는 방법도 있다. 그러나 차선책은 이상적인 방법일 수는 없다. 그냥 파이썬 프로그램을 그대로 가져와 훨씬 더 빠르게 실행할 수 있다면 좋지 않을까? 그 대답이 바로 파이파이(PyPy)다. 파이파이 vs. C파이썬 파이파이는 기본 파이썬 인터프리터인 C파이썬(CPython)을 대체한다. C파이썬은 파이썬을 중간 바이트코드로 컴파일하고 이 바이트코드가 가상머신에 의해 인터프리트되는 방식인 데 반해, 파이파이는 JIT(JustInTime) 컴파일을 사용해 파이썬 코드를 머신 네이티브 어셈블리어로 변환한다. 수행하는 작업에 따라 상당한 정도의 성능 향상이 가능하다. 평균적으로 파이파이는 파이썬 3.7에 비해 파이썬 속도를 약 4.7배 더 높여주며 일부 작업에서는 50배 이상의 속도 향상이 가능하다. 새로운 버전의 C파이썬 인터프리터에도 특정 종류의 JIT 최적화가 추가되고 있지만 현재 파이파이의 범위와 효과에 비할 바는 아니다. 앞으로 대등해질 가능성을 배제할 수 없지만 적어도 지금은 아니다. 가장 좋은 점은 파이파이가 제공하는 효과를 얻기 위해 개발자가 따로 해야 할 일이 거의 없다는 것이다. C파이썬을 파이파이로 바꾸기만 하면 된다. (다음에서 설명할) 몇 가지 예외는 있지만 파이파이의 공식적인 목표는 기존의 파이썬 코드를 수정 없이 실행하면서 자동으로 속도를 높여주는 것이다. 현재 파이파이는 파이썬 2와 파이썬 3을 각기 다른 프로젝트 구현으로 모두 지원한다. 즉, 실행할 파이썬의 버전에 따라 다른 버전의 파이파이를 다운로드해야 한다. 파이파이의 파이썬 2 브랜치가 나온 시점이 훨씬 더 오래됐지만 파이썬 3 버전도 최근 거의 따라잡았다. 현재 파이썬 버전 3.9까지 지원하며 파이썬 3.10은 실험 수준에서 지원된다. 파이파이는 모든 핵심 파이썬 언어를 지원하는 것 외에, 패키징을 위한 pip, 가상 환경을 위한 virtualenv 등 파이썬 생태계의 방대한 툴과도 호환된다. C 모듈을 사용하는 패키지를 포함해 대부분의 파이썬 패키지는 변경 없이 그대로 동작한다. 물론 일부 제한도 있다. 이는 아래에서 살펴본다. 파이파이의 작동 방식 파이파이는 동적 언어를 위한 다른 JIT 컴파일러에도 있는 최적화 기법을 사용한다. 실행 중인 파이썬 프로그램을 분석하면서 생성 및 사용되는 객체의 형식 정보를 판단한 후 이 형식 정보를 가이드 삼아 속도를 높인다. 예를 들어 파이썬 함수가 한두 개의 객체 형식에서만 작동한다면 파이파이는 이러한 특정 사례를 처리하는 기계 코드를 생성한다. 파이파이의 최적화는 런타임에서 자동으로 처리되므로 일반적으로는 개발자가 직접 성능을 조정할 필요가 없다. 고급 사용자라면 파이파이의 명령줄 옵션을 변경하면서 특수한 사례를 위한 더 빠른 코드를 생성할 수 있지만 그럴 필요까지는 거의 없다. 또한 파이파이는 몇몇 내부 함수를 처리하는 방식도 C파이썬과 다르지만 동작의 호환성을 유지하려고 노력한다. 예를 들어 파이파이의 가비지 수집 방식은 C파이썬과 달라서 범위에서 벗어나는 모든 객체가 즉각 수집되지는 않으므로 파이파이로 실행되는 파이썬 프로그램은 C파이썬으로 실행되는 경우에 비해 메모리 사용량이 더 높게 표시될 수 있다. 그러나 gc 모듈을 통해 노출되는 gc.enable(), gc.disable(), gc.collect()와 같은 파이썬의 고수준 가비지 수집 컨트롤을 여전히 사용할 수 있다. 파이파이의 JIT 동작에 대한 정보가 필요하다면 파이파이에 포함된, 파이썬 애플리케이션에 대한 많은 JIT 후크를 노출하는 pypyjit라는 모듈을 활용하면 된다. JIT에서 성능이 떨어지는 함수 또는 모듈이 있는 경우 pypyjit를 사용해 세부적인 통계를 확인할 수 있다. 또 다른 파이파이 전용 모듈인 __pypy__는 파이파이만의 다른 기능을 노출하며 해당 기능을 활용하는 애플리케이션을 작성하는 데 유용하다. 파이썬의 런타임 동적 특성 덕분에 파이파이가 있을 때 이러한 기능을 사용하고, 없을 때는 무시하는 파이썬 애플리케이션을 만드는 것이 가능하다. 파이파이의 제약 파이파이는 매우 강력하지만 제약도 있다. 파이파이는 기본 C파이썬 런타임에 대한 완전한 범용 대체재는 아니다. 몇 가지 제약으로 인해 특정 종류의 프로그램에서는 파이파이의 효과가 줄어들거나 아예 사라진다. 가장 중요한 제한 사항은 다음과 같다. 파이파이는 순수 파이썬 앱에서 가장 효과적 : 파이파이는 전통적으로 “순수” 파이썬 애플리케이션, 즉 다른 언어 없이 파이썬만으로 작성된 애플리케이션에서 최고의 효과를 발휘했다. 넘파이(NumPy)와 같이 C 라이브러리와 접촉하는 파이썬 패키지는 파이파이가 C파이썬의 네이티브 바이너리 인터페이스를 에뮬레이션하는 방식상 좋은 결과를 얻지 못했다. 파이파이 개발자들은 그동안 이 문제를 줄여 나가면서 C 확장에 의존하는 대다수 파이썬 패키지와의 호환성을 더 높였다. 예를 들어 넘파이는 지금은 파이파이에서 매우 잘 작동한다. 그러나 최대한의 C 확장 호환성을 원한다면 C파이썬을 사용해야 한다. 파이파이는 장기간 실행되는 프로그램에서 가장 효과적 : 파이파이가 파이썬 프로그램을 최적화하는 방법의 특성상 장시간 실행되는 프로그램이 최적화 효과를 가장 많이 얻는다. 프로그램 실행 시간이 길수록 파이파이는 런타임 형식 정보를 더 많이 얻을 수 있고 최적화도 더 많이 할 수 있기 때문이다. 단발성 파이썬 스크립트는 이러한 혜택을 얻지 못한다. 이 효과를 얻는 애플리케이션은 일반적으로 오랜 시간 실행되는 루프가 있거나 백그라운드에서 지속적으로 실행되는 웹 프레임워크 같은 애플리케이션이다. 파이파이는 AOT 컴파일을 하지 못함 : 파이파이는 파이썬 코드를 컴파일하지만 파이썬 코드용 컴파일러는 아니다. 파이파이의 최적화 수행 방법과 파이썬의 태생적인 동적 특성으로 인해 JIT 코드를 독립형 바이너리로 배출해서 재사용할 방법이 없다. 즉, 이 문서에 설명돼 있듯이 각 프로그램이 실행될 때마다 매번 컴파일해야 한다. 파이썬을 독립형 애플리케이션으로 실행할 수 있는 더 빠른 코드로 컴파일하고 싶다면 사이썬, 넘바(Numba), 또는 현재 실험 단계인 누이트카(Nuitka) 프로젝트를 사용해야 한다. editor@itworld.co.kr
머신러닝(Machine learning)과 딥러닝(deep learning)은 널리 알려진 익숙한 용어지만, 이런 유명세 만큼이나 더 폭넓은 오해를 받는 부분도 있다. 여기서는 한 걸음 물러서서 머신러닝과 딥러닝의 기본을 살펴보고, 가장 보편적인 몇 가지 머신러닝 알고리즘을 알아본다. 이런 알고리즘이 역사적 데이터로부터 예측 모델을 만들기 위한 퍼즐의 다른 조각과 어떻게 관련되는지도 설명한다. 머신러닝 알고리즘이란 머신러닝은 데이터로부터 자동으로 모델을 생성하는 방법이고, 머신러닝 알고리즘은 머신러닝을 움직이는 엔진이다. 즉, 데이터 집합을 모델로 바꿔주는 알고리즘이다. 지도, 비지도, 분류, 회귀 등 어떤 알고리즘이 가장 효과적인지는 해결하려는 문제의 종류, 가용한 컴퓨팅 리소스, 데이터의 속성에 따라 달라진다. 머신러닝의 작동 원리 일반적인 프로그래밍 알고리즘은 컴퓨터에 해야 할 일을 간단한 방식으로 알려준다. 예를 들어 정렬 알고리즘은 정렬되지 않은 데이터를 데이터에 있는 하나 이상 필드의 숫자 또는 알파벳 순서 등 특정 기준에 따라 정렬된 데이터로 변환한다. 선형 회귀 알고리즘은 직선, 또는 다항식과 같이 매개변수가 선형인 다른 함수를 수치 데이터에 맞추는데, 이를 위해 일반적으로 사용하는 방법은 선과 데이터 간의 제곱 오차를 최소화하기 위해 행렬 역변환을 수행하는 것이다. 제곱 오차를 척도로 사용하는 이유는 회귀선이 데이터 포인트 위에 있는지, 아래에 있는지는 중요하지 않기 때문이다. 중요한 것은 선과 포인트 간의 거리다. 매개변수가 선형이 아닌 곡선을 데이터에 맞추는 비선형 회귀 알고리즘은 조금 더 복잡하다. 선형 회귀 문제와 달리 결정론적 방법으로 해결할 수 없기 때문이다. 대신 비선형 회귀 알고리즘은 일종의 반복적 최소화 프로세스를 구현하는데, 이는 급속 하강(steepest descent) 방법의 변형인 경우가 많다. 급속 하강은 기본적으로 현재 매개변수 값에서 제곱 오차와 그 기울기를 계산하고, 단계 크기 즉, 학습률을 선택하고, 기울기 방향을 "아래로" 따라간 다음, 새로운 매개변수 값에서 제곱 오차와 그 기울기를 다시 계산한다. 운이 좋다면 최종적으로 이 과정은 수렴한다. 급속 하강에는 수렴 속성을 개선하고자 하는 여러 변형이 있다. 머신러닝 알고리즘은 비선형 회귀보다도 더 복잡한데, 머신러닝은 다항식과 같은 특정 수학 함수에 맞추는 제약이 없다는 점도 그 이유 중 하나다. 머신러닝이 해결하는 대표적인 두 가지 문제 범주는 회귀와 분류다. 회귀는 수치 데이터, 분류는 비수치 데이터에 사용된다. 전자는 특정 주소와 직업을 가진 사람의 예상 수입은 어느 정도인가와 같은 문제, 후자는 대출 신청자가 이 대출을 상환하지 않을 것인가와 같은 문제다. 예측 문제(“내일 마이크로소프트 주식의 시초가는 얼마가 될까?”)는 시계열 데이터에 대한 회귀 문제의 하위 집합이다. 분류 문제는 이진(예/아니요), 다중 범주 문제(동물, 채소 또는 광물)로 나뉘기도 한다. 지도 학습 vs. 비지도 학습 이러한 구분과 별개로 머신러닝 알고리즘에는 지도와 비지도, 2가지 종류가 있다. 지도 학습에서는 동물 이름이 딸린 일련의 동물 사진과 같은, 답변이 포함된 학습 데이터 집합을 제공한다. 이 학습의 목표는 이전에 본 적이 없는 사진을 올바르게 식별(학습 집합에 포함된 동물의 종류)할 수 있는 모델을 만드는 것이다. 비지도 학습에서는 알고리즘이 스스로 데이터를 살펴보고 유의미한 결과를 도출하려고 시도한다. 예를 들어 각 클러스터 내에서 연관될 수 있는 데이터 포인트의 클러스터 집합이 결과로 나올 수 있다. 클러스터가 겹치지 않을 때 더 효과적으로 작동한다. 학습과 평가를 통해 매개변수를 최적화해 데이터의 기준 진실과 가장 잘 일치하는 값 집합을 찾음으로써 지도 학습 알고리즘을 모델로 바꾼다. 알고리즘은 옵타마이저를 위해 예를 들어 확률적 경사 하강(SGD: 무작위 시작점에서 여러 번 수행되는 급속 하강이라고 할 수 있음)과 같은 급속 하강의 변형에 의존하는 경우가 많다. SGD의 일반적인 개선 방법은 운동량을 기반으로 경사의 방향을 수정하거나, 한 데이터 패스(에포크라고 함)에서 다음 패스로의 진행에 따라 학습률을 조정하는 요소를 추가하는 것이다. 머신러닝을 위한 데이터 정제 자연 상태에서 깨끗한 데이터는 존재하지 않는다. 머신러닝에 사용하려면 데이터를 적극적으로 필터링해야 한다. 예를 들면 다음과 같다. 데이터를 살펴보고 누락된 데이터가 많은 열을 제외한다. 데이터를 다시 살펴보면서 예측에 사용할 열을 선택한다. 이 열은 반복할 때 바꾸는 경우가 많다. 나머지 열에서 여전히 누락된 데이터가 있는 행을 제외한다. 명백한 오타를 교정하고 동일한 답변을 병합한다. 예를 들어 U.S. US. USA, 미국은 하나의 범주로 병합해야 한다. 범위를 벗어난 데이터가 있는 행을 제외한다. 예를 들어 뉴욕시 내의 택시 이동을 분석한다면 뉴욕시 경계 상자를 벗어난 승하차 위도 및 경도는 필터링으로 걸러낸다. 그 외에도 할 수 있는 일이 많지만 이는 수집된 데이터에 따라 달라진다. 지루한 작업일 수 있으나 머신러닝 파이프라인에 데이터 정제 단계를 두면 자유롭게 수정하고 반복할 수 있다. 머신러닝을 위한 데이터 인코딩 및 정규화 머신 분류를 위해 범주 데이터를 사용하려면 텍스트 레이블을 다른 양식으로 인코딩해야 한다. 일반적으로 2가지 인코딩이 사용된다. 첫째는 레이블 인코딩으로, 각 텍스트 레이블이 숫자로 대체된다. 둘째는 원핫(onehot) 인코딩으로, 각 텍스트 레이블 값이 이진 값(1 또는 0)이 있는 열로 변환된다. 대부분의 머신러닝 프레임워크에는 이 같은 변환을 수행하는 함수가 있다. 레이블 인코딩의 경우 머신러닝 알고리즘이 혼동해서 인코딩된 열이 정렬된 것으로 착각할 수 있으므로 일반적으로 원핫 인코딩이 선호된다. 머신 회귀에 숫자 데이터를 사용하려면 일반적으로 데이터를 정규화해야 한다. 그렇지 않으면 범위가 큰 숫자가 특징 벡터 간의 유클리드 거리를 지배하는 경향이 있고, 이들의 효과가 확대되면서 다른 필드가 희생되고 급속 하강 최적화가 잘 수렴되지 않을 수 있다. ML을 위해 데이터를 정규화 및 표준화하는 방법은 최소최대 정규화, 평균 정규화, 표준화, 단위 길이로 스케일링 등 여러 가지가 있다. 이 프로세스를 보통 특징 스케일링(feature scaling)이라고 한다. 머신러닝 특징 앞에서 언급한 특징(feature) 벡터가 무엇인지 알아보자. 우선, 특징이란 관찰 대상 현상의 측정 가능한 개별적인 속성 또는 특성이다. “특징”이라는 개념은 선형 회귀와 같은 통계 기법에서 사용되는 설명 변수와 관계가 있다. 특징 벡터는 한 행의 모든 특징을 하나의 숫자 벡터로 결합한다. 특징을 선택하는 기법 중 하나는 문제를 설명하는 최소 독립 변수 집합을 선택하는 것이다. 두 변수가 고도로 상호 연관된다면 하나의 특징으로 결합해야 하거나 하나를 삭제해야 한다. 주성분 분석을 수행하여 상호 연관된 여러 변수를 선형적으로 상호 연관되지 않은 변수들의 집합으로 변환하는 경우도 종종 있다. 새로운 특징을 구축하거나 특징 벡터의 차원을 축소하기 위해 사용하는 변환 방법 중에서 간단한 방법도 몇 가지 있다. 예를 들어 Year of Death에서 Year of Birth를 빼면 수명 및 사망 분석을 위한 주요 독립 변수인 Age at Death를 구축할 수 있다. 특징 구축이 명확하지 않은 경우도 있다. 일반적인 머신러닝 알고리즘 머신러닝 알고리즘은 선형 회귀와 로지스틱 회귀부터 심층 신경망 및 앙상블(다른 모델의 조합)에 이르기까지 수십 가지가 있지만 가장 일반적인 알고리즘은 다음과 같다. 선형 회귀 또는 최소 제곱 회귀(숫자 데이터) 로지스틱 회귀(이진 분류) 선형 판별 분석(다중 범주 분류) 결정 트리(분류와 회귀) 나이브 베이즈(분류와 회귀) K최근접 이웃(KNN, 분류와 회귀) 학습 벡터 양자화(LVQ, 분류와 회귀) 서포트 벡터 머신(SVM, 이진 분류) 랜덤 포레스트, “배깅” 앙상블 알고리즘의 한 유형(분류와 회귀) 부스팅 방법(AdaBoost 및 XGBoost 포함)은 일련의 모델을 생성하는 앙상블 알고리즘으로, 각각의 새로운 모델이 이전 모델의 오류를 수정하려고 시도 흔히 듣는 신경망과 심층 신경망은 어디에 있을까? 이 둘은 대체로 계산 집약적이라서 GPU 또는 다른 특수한 하드웨어가 필요하므로 비교적 단순한 알고리즘에는 맞지 않는 이미지 분류, 음성 인식과 같은 특수한 문제에만 사용해야 한다. 위에서 “심층”은 신경망 안에 숨은 계층이 많다는 것을 의미한다. 신경망과 심층 신경망에 대한 더 자세한 내용은 “딥러닝의 진정한 의미”를 참고하면 된다. 머신러닝 알고리즘의 초매개변수 머신러닝 알고리즘은 데이터로 학습해서 예측된 값 또는 클래스에 영향을 미치는 각 독립 변수에 대한 최적의 가중치 집합을 찾는다. 알고리즘 자체에는 초매개변수(hyperparameters)라는 변수가 있다. 결정되는 가중치가 아니라 알고리즘의 작동을 제어하기 때문에 매개변수가 아닌 초매개변수로 불린다. 많은 경우 가장 중요한 초매개변수는 학습률이다. 학습률은 최적화에서 다음에 시도할 가중치 집합을 찾을 때 사용되는 단계 크기를 결정한다. 학습률이 너무 높으면 경사 하강이 평지(plateau) 또는 비최적 지점에 빠르게 수렴할 수 있고, 학습률이 너무 낮으면 경사 하강이 정체되어 완전히 수렴하지 않을 수 있다. 다른 많은 일반적인 초매개변수는 사용되는 알고리즘에 따라 달라진다. 대부분 알고리즘에는 최대 에포크 수, 또는 최대 실행 시간, 에포크 간 최소 개선과 같은 중지 매개변수가 있다. 특정 알고리즘에는 검색의 형태를 제어하는 초매개변수가 있다. 예를 들어 랜덤 포레스트에는 리프당 최소 샘플 수, 최대 깊이, 분할 시 최소 샘플 수, 리프의 최소 가중치 비율, 그 외에 8가지에 대한 초매개변수가 있다. 초매개변수 튜닝 여러 프로덕션 머신러닝 플랫폼이 현재 자동 초매개변수 튜닝을 제공한다. 기본적으로 시스템에 변경할 초매개변수와 최적화하고자 하는 메트릭을 알려주면 시스템은 허용되는 만큼 많은 실행 횟수에 걸쳐 이러한 초매개변수를 스윕한다. 단, 구글 클라우드 초매개변수 튜닝은 텐서플로우 모델에서 적절한 메트릭을 추출하므로 직접 지정할 필요가 없다. 초매개변수 스위핑을 위한 검색 알고리즘에는 베이지안(Bayesian) 최적화, 그리드(grid) 검색, 무작위 검색의 3가지가 있다. 베이지안 최적화가 대체로 가장 효율적이다. 최대한 많은 초매개변수를 튜닝해야 최선의 답을 얻는다고 생각할 수 있다. 그러나 개인 하드웨어에서 실행하는 경우가 아닌 한 비용이 상당히 커질 수 있고, 어떤 경우든 얻는 이득은 점점 줄어든다. 자신의 데이터와 선택한 알고리즘에서 가장 중요한 초매개변수는 경험을 통해 발견할 수 있다. 자동 머신러닝 알고리즘 선택에 대해 말하자면, 어느 알고리즘 또는 알고리즘 앙상블이 현재 데이터에 맞는 최선의 모델을 제공할지 아는 방법은 하나밖에 없다. 모두 시도해 보는 것이다. 여기서 가능한 모든 정규화 및 특징 선택까지 시도한다면 조합의 수는 폭발적으로 증가한다. 모든 것을 수동으로 시도한다는 것은 비현실적이므로, 당연히 머신러닝 툴 제공업체들은 많은 노력을 기울여 오토ML(AutoML) 시스템을 출시했다. 우수한 시스템은 특징 공학과 알고리즘 및 정규화에 대한 스윕을 결합한다. 최선의 모델에 대한 초매개변수 튜닝은 나중을 위해 남겨두는 경우가 많다. 다만 특징 공학은 자동화하기 어려운 문제이며 이 부분을 다루지 않는 오토ML 시스템도 있다. 요약하자면, 머신러닝 알고리즘은 머신러닝 퍼즐의 한 조각일 뿐이다. 알고리즘 선택(수동 또는 자동) 외에도 옵티마이저, 데이터 정제, 특징 선택, 특징 정규화, 그리고 선택적으로 초매개변수 튜닝까지 처리해야 한다. 이 모든 부분을 처리하고 데이터에 맞는 모델을 구축했다면, 이제 모델을 배포하고 조건의 변화에 따라 업데이트할 차례다. 프로덕션의 머신러닝 모델을 관리하는 것은 또 다른 문제다. editor@itworld.co.kr
최신 윈도우 11 기능을 따라가다 보면 쉽게 혼란스러워진다. 마이크로소프트 빌드(Microsoft Build) 행사와 함께 새로운 기능이 끊임없이 쏟아지는 5월에는 더욱 그렇다. 올해도 마찬가지였다. 마이크로소프트는 실용적인 것부터 이상적인 것까지 빌드 행사에서 다양한 윈도우 11 기능을 쏟아냈다. 올해 빌드 행사에서는 윈도우 11의 모멘트 3(Moment 3)과 함께 흥미로운 새 기능이 공개됐고 향후 출시될 더 많은 기능에 대한 힌트도 얻을 수 있었다. 다만 소규모 기능 업데이트인 모멘트는 언제든 배포될 수 있기 때문에 출시 시기는 달라질 수 있다. 현재 모멘트 3에 도입될 것으로 알려진, 그리고 사용자 PC에 배포될 여러 새 기능을 간단히 설명한다. 윈도우 11 모멘트 3의 기능들 이제부터 소개할 모멘트 3 기능은 기본 기능이 아니라 옵션이며, 새로운 기능을 출시 즉시 받겠다고 미리 설정하지 않은 이상 6월 이후에야 배포된다. 2023년 6월, 아마도 패치 화요일 주기를 고려하면 6월 13일쯤 윈도우 11 비보안 프리뷰 릴리즈에 추가 선택 형식으로 배포될 예정이다. 새로운 기능을 한발 먼저 사용하는 것을 좋아하고 최신 업데이트가 출시되는 즉시 받고 싶은 사용자라면 윈도우 11 설정 앱의 ‘윈도우 업데이트 항목’으로 이동한다. 여기서 ‘최신 업데이트가 제공되는 즉시 받기’ 메뉴의 토글을 켠다. 마이크로소프트는 사용자의 삶의 질을 조금씩 개선하는 기능을 단계적으로 릴리즈한다. 모멘트 3 역시 마찬가지다. 마이크로소프트는 이달 초 이들 기능을 윈도우 참가자 프로그램 22621.1776(릴리즈 채널) 베타 일부분으로 테스트했고 이제 최종 릴리즈로 배포했다. 더 넓은 위젯 창 : 윈도우 11에 추가된 흥미로운 변화는 사용자가 앱을 더 많이 설정할 수 있도록 많은 공간을 확보하는 위젯의 변화다. 위젯은 2개가 아닌 3개 열로 더 넓어지고 개인화할 수 있다. 마이크로소프트가 공개한 새로운 위젯 선택기를 보면 사용자는 자신이 선택한 위젯이 어떤 모습으로 나타날지 미리 볼 수 있으며, 더 많은 위젯을 찾을 수 있다(위젯 선택기는 조금 늦게 배포될 수 있다). 센서 설정 : 일부 노트북은 사용자가 자리를 비우거나 보안을 위해 PC를 잠가 둘 경우 화면을 자동으로 어둡게 조정하는 존재 감지 센서가 있다. 설정 개인정보 보호 및 보안 감지 센서에서 관리할 수 있다. VPN 아이콘 : 이제 VPN을 사용할 때 작업표시줄에 작은 방패 아이콘이 나타난다. USB4 허브 및 설정 : 인텔 기반 노트북은 보통 썬더볼트 독과 연결된다. 그러나 USB4는 AMD 라이젠 노트북에서 거의 동일한 기능을 수행한다. 어떤 것이든 새로운 윈도우 설정 페이지에서는 노트북의 USB4 기능과 연결된 주변장치의 정보를 알 수 있다. 블루투스 지원 확대 : 윈도우 11은 이제 갤럭시 버드2나 버드2 프로 같은 이어폰에서 지원하는 저전력 오디오 표준인 블루투스 저전력 오디오(Bluetooth Low Energy Audio)를 지원한다. 계정 아이콘 배지 : 시작 메뉴의 계정 아이콘에 작은 느낌표가 나타나면 마이크로소프트 계정 관리에 주의가 필요하다는 뜻이다. 다른 윈도우 기능에 대한 유용한 알림(즉, 광고)과 연결되어 있다. 라이브 자막 언어 확대 : 자막이 없는 콘텐츠에 자막을 자동으로 제공한다. 라이브 자막은 중국어, 다양한 영어 방언, 프랑스어, 독일어, 스페인어 등을 지원한다. 마이크로소프트가 이전 프리뷰에서 공개한 내용을 기반으로 할 때 모먼트 3 릴리즈에서는 다음과 같은 작은 변경도 있을 것으로 보인다. 새로운 프린트 화면 바로가기 : PrtScn 키를 누르면 이제 캡처 도구가 열린다. 원드라이브 저장공간 표시 : 윈도우 11 설정 앱 안의 계정 페이지에서 사용자의 모든 원드라이브 구독 내용에 할당된 저장 공간의 전체 양을 확인할 수 있다. 2FA 복사 : '휴대폰과 연결' 앱으로 PC에 스마트폰을 연결하면 다른 서비스에서 받은 2FA 인증 코드가 자동으로 복사된다. 터치 키보드 옵션 : 새로운 설정 시간 및 언어 입력 터치 키보드 설정에서 터치 키보드를 항상 보이게 할지, 아예 없앨지, 하드웨어 키보드를 연결하지 않았을 때만 보이게 할지 선택할 수 있다. 키보드를 떼었다 붙일 수 있는 서피스 프로 같은 노트북에서 특히 유용하다. 초 시계 : 이제 작업 표시줄 시계 앱에서 초 단위의 시간을 알 수 있다. 검색용 빙 챗 AI 바로가기 : 이제 검색창에 작은 빙 챗 아이콘이 나타난다. 기업 계정으로 로그인할 때는 기업 아이콘으로 바뀐다. 콘텐츠 적응형 밝기 제어 : 콘텐츠 종류에 따라 디스플레이를 밝거나 어둡게 할 수 있다. HDR은 아니지만 유사한 기능이다. 모먼트 3 이외의 새로운 윈도우 11 기능들 마이크로소프트는 빌드 행사에서 모먼트 3 이외의 신규 기능도 공개했지만 출시 시기는 아직 알려지지 않았다. 일부는 윈도우 참가자 프로그램 베타 코드에서 보았거나 앞으로 볼 가능성이 있고, 다른 기능은 모먼트 업데이트를 통해 윈도우 PC에 배포될 것이다. WinRAR 지원 : WinRAR, 7Zip, GZ 같은 압축 포맷 형식이 윈도우에 통합된다는 반가운 소식이 전해졌다. 마이크로소프트는 해당 기능을 빠른 시일 내에 테스트할 것이으로 보이며, 완전한 압축 해제 기능이 윈도우 11에 릴리즈되는 것은 9월쯤으로 예상된다. 2024년에는 RAR, Zip 같은 다른 압축 파일을 생성하는 것도 가능하다. 윈도우 코파일럿 : 빌드 행사에서 큰 주목을 받은 윈도우 코파일럿은 AI 기술을 윈도우로 가져온다. 마이크로소프트는 6월 중 윈도우 코파일럿 출시를 약속했지만, 구체적인 방법은 알려지지 않았다. 윈도우 참가자 프로그램에서 윈도우 코파일럿을 확인할 수 있기를 기대한다. 작업표시줄 앱 그룹 해제 : 윈도우 10에서는 작업표시줄 내 다수 앱에 개별 레이블을 지정해 표시할 수 있다. 윈도우 11도 이 기능을 다시 수용했다. 참가자 프로그램(개발자 채널) 릴리즈에서 이번 주에 공개될 예정이다. 머지않아 전체 공개되기를 기대한다. 작업표시줄 앱 우클릭 : 작업표시줄과 관련한 또 하나의 재미있는 기능이 있다. 마치 작업 관리자에서 하듯이 작업표시줄에서 앱을 우클릭해 진행 중인 작업을 종료할 수 있다. 윈도우 백업 : 마이크로소프트는 참가자 프로그램(개발자 채널)에서 윈도우 백업을 테스트하고 있다. 윈도우 백업은 파일, 폴더(데스크톱에서의 레이아웃 위치까지), 앱과 더 많은 데이터를 클라우드에 저장하고 새로운 PC에서 재설치를 지원하는 기능이다. RGB 조명 제어 : 크리스마스트리처럼 색색의 조명을 달고 작동 중일 때마다 반짝거리는 PC 주변장치를 여럿 소유하고 있다면 축배를 들 만한 소식이다. 최근 마이크로소프트는 RGB 조명을 윈도우에서 제어하는 기능을 추가하고 업계에 표준화된 설정을 제공한다고 밝혔다. editor@itworld.co.kr
PC 사용자에게 가장 인기 있는 웹 브라우저인 크롬은 처음에는 빠르고 반응성 좋은 브라우징 경험을 제공하지만, 시간이 지나면 캐시 파일, 확장 프로그램, 리소스 소비 등의 요인 때문에 느려질 수 있다. 크롬의 성능을 향상시키는 방법은 브라우저 최신 상태 유지, 캐시 삭제, 이용 가능한 특수 기능 활용 등 많다. 크롬 실행 속도를 최대한 빠르게 유지하는 간단한 9가지 방법을 소개한다. 크롬을 항상 업데이트할 것 크롬을 최신 버전으로 업데이트하면 가장 최근의 성능 개선과 버그 수정, 보안 업데이트를 확보할 수 있다. 구글은 브라우저에 업데이트를 자주 제공하므로 항상 최신 상태를 유지하는 것이 중요하다. 업데이트는 브라우저를 닫을 때 백그라운드에서 자동으로 실행되도록 설계되어 있으며, 브라우저를 닫는 일이 거의 없다면 업데이트를 직접 확인해야 한다. 크롬은 업데이트 시간이 되면 브라우저 창 우측 상단 구석에 버튼이 생긴다. 이 버튼을 누르면 업데이트된다. 버튼이 보이지 않는다면 창 우측 상단 구석에서 세로 방향 점 3개 도움말 Chrome 정보를 클릭한다. 그러면 크롬이 업데이트를 확인한 후 설치한다. 다시 시작을 클릭하면 크롬 업데이트가 완료되고 크롬이 닫힌다. 따라서 업데이트 전에는 탭에 미완성 작업이 열려 있지 않은 지 확인해야 한다. 너무 많은 탭을 열지 말 것 브라우저에서 탭을 여러 개 열어 놓으면 메모리가 소비되며, 메모리만큼은 아니지만 CPU도 소비된다. 열어 놓은 탭의 개수가 늘어날수록 컴퓨터 리소스에 대한 수요도 늘어난다. 성능이 저하되고 페이지 로드 시간이 늘어날 수 있다. 시스템이 과부하 상태가 되면 정지 또는 멈춤 현상까지 발생할 수 있다. 미사용 확장 프로그램을 설정 해제할 것 확장 프로그램은 브라우저에 기능을 추가하는 작은 소프트웨어 프로그램이다. 유용하지만 너무 많이 설치하거나 부실하게 최적화된 것을 사용하면 구글 크롬의 성능에 부정적인 영향을 미칠 수 있다. 불필요한 확장 프로그램을 설정 해제하면 브라우저의 성능을 높일 수 있다. 브라우저 확장 프로그램을 설정 해제하는 방법은 간단하다. chrome://extensions 로 들어가 해당 확장 프로그램의 슬라이더를 끔 위치로 밀거나 삭제를 클릭하면 된다. 브라우징 데이터를 삭제할 것 기록, 쿠키, 캐시 파일 등의 브라우징 데이터를 삭제하면 디스크 공간이 확보되고 오래되거나 손상된 파일로 야기된 웹사이트 문제가 해결되므로 성능 향상에 도움이 된다. 시스템 성능뿐 아니라 개인정보보호 및 보안도 향상된다. 일반적으로 쿠키와 캐시 파일은 빠른 접근을 위해 컴퓨터의 RAM에 저장되므로 브라우징 데이터를 삭제하면 RAM 사용량을 줄여 성능이 향상될 수도 있다. 특히 장치의 메모리가 한정적인 경우, 브라우징이 부드러워지고 페이지 로딩 시간도 빨라지는 것이 보통이다. 브라우징 데이터를 삭제하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안을 클릭한 후 각 옵션을 개별적으로 선택하고 데이터를 삭제하면 된다. 웹 페이지 미리 로드를 설정할 것 웹 페이지 미리 로드를 설정하면 웹 페이지에 실제로 도착하기 전에 리소스를 가져와 로드 함으로 성능이 향상된다. 사용자가 링크 위에 커서를 가져가거나 특정 페이지에 방문할 것으로 예측되면 크롬은 해당 페이지를 표시하는 데 필요한 리소스(예 : 이미지, CSS, 자바스크립트 파일)을 가져오기 시작한다. 이 작업은 사용자가 아직 현재 페이지에 있는 동안 배경에서 수행된다. 사용자가 결국 링크를 클릭하는 시점에는 컨텐츠의 많은 부분이 이미 로드 된 상태이므로 페이지의 로드 속도가 더욱 빨라 보인다. 웹 페이지 미리 로드를 설정하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안 쿠키 및 기타 사이트 데이터를 클릭한 후 빠른 탐색 및 검색을 위해 페이지 미리 로드 옆에 있는 슬라이더를 켬 위치로 밀면 된다. 크롬의 에너지 절약 모드를 사용할 것 크롬의 에너지 절약 모드는 주요 기능이 배터리 지속 시간을 아끼는 것이지만 특정 배경 활동을 제한하는 방식으로 성능도 약간 향상시킨다. 에너지 절약 모드는 배터리 잔량이 20% 이하인 경우에만 사용 설정할 수 있으며, 컴퓨터의 전원이 연결되어 있지 않을 때 사용 설정할 수도 있다. 에너지 절약 모드를 설정하려면 세로 방향 점 3개 설정 성능을 클릭하고 전원 그룹에서 에너지 절약 모드 옆에 있는 슬라이더를 켬 위치로 민 다음 이 기능을 활성화하고자 하는 경우를 선택한다. 하드웨어 가속을 설정할 것 하드웨어 가속을 설정하면 크롬은 하드웨어 가속이 도움이 되는 특정 작업에 컴퓨터의 GPU를 사용한다. GPU는 그래픽 집약적인 작업을 효율적으로 처리하도록 설계되었고 특정 연산을 병렬로 처리할 수 있기 때문에 동영상 재생, 애니메이션, 그래픽 렌더링과 같은 작업에 더욱 적합하다. 이런 작업 중 일부를 CPU에서 GPU로 전가하면 성능이 향상되고 웹 컨텐츠 렌더링이 부드러워지며 시스템 리소스 소비가 줄어든다. 이는 고성능 그래픽 카드가 탑재된 시스템에서나 그래픽 요소가 많은 애플리케이션 및 웹사이트를 사용하는 경우에 특히 유익하다. 하드웨어 가속을 설정하려면 세로 방향 점 3개 설정 시스템을 클릭한 후 가능한 경우 하드웨어 가속 사용 옆에 있는 슬라이더를 켬 위치로 민다. 구글 플래그에서 GPU 래스터화를 설정할 것 래스터화는 벡터 그래픽(예: HTML, CSS, SVG 요소)을 화면에 표시될 수 있는 픽셀로 변환하는 과정이다. 기본적으로 크롬은 래스터화에 CPU를 사용한다. GPU 래스터화를 설정하면 이 작업이 컴퓨터의 GPU로 대신 전가된다. GPU는 CPU보다 그래픽 처리를 더욱 효율적으로 처리하도록 설계되었으므로 특히 고성능 GPU가 탑재된 시스템에서 웹 페이지의 렌더링이 빨라지고 성능이 향상될 수 있다. GPU 래스터화를 설정하는 방법은 chrome://flags로 이동하여 GPU Rasterization(GPU 래스터화)를 검색한 후 항목 옆에서 Enabled(설정)을 선택하면 된다. 이는 실험적인 기능이며 구글 크롬은 이 기능을 테스트 목적으로만 사용함을 분명히 밝히고 있다는 점에 유념해야 한다. 사용할 수 있다고 해서 사용해야 하는 것은 아니다. 위험이 보상보다 클 수도 있다. 또한, 하드웨어 가속을 설정했다면 래스터화도 어차피 설정되어 있다. 구글 크롬 설정을 초기화할 것 크롬을 기본 설정으로 초기화하면 브라우저가 원래 구성으로 복원되고 속도 저하 등의 문제의 원인인 사용자화, 확장 프로그램, 설정이 제거되므로 성능 문제가 해결될 수 있다. 이 방법은 다른 성능 개선 방법을 시도했으나 실패했거나 어떤 구체적인 설정이나 확장 프로그램이 문제의 원인인지 확실하지 않은 경우에 사용하면 좋다. 구글 크롬 설정을 초기화하려면 세로 방향 점 3개 설정 설정 초기화를 클릭하면 나오는 페이지에서 설정을 기본 값으로 복원하는 옵션을 선택하면 된다. 구글은 이미 크롬 속도를 높이고 있다 구글 크롬 112는 이 인기 웹 브라우저의 성능을 상당히 개선했다. innerHTML 파싱을 위한 전문 고속 경로뿐만 아니라 toString() 및 join()와 같은 자바스크립트 함수가 최적화되었다. 이런 기능은 다수의 웹사이트와 웹 앱에 걸쳐 널리 활용되면서 웹 브라우징에 눈에 띄는 차이를 가져왔다. 구글은 이런 개선 덕분에 3개월간 애플의 스피도미터(Speedometer) 2.1 브라우저 벤치마크가 10% 증가했다고 전했다. 크롬을 항상 최신 상태로 유지해야 할 또 하나의 이유다. 구글이 노고를 들여 항상 내놓는 성능 업데이트를 적극 활용하자. editor@itworld.co.kr
‘챗GPT’는 인공지능과 상호작용하는 방식에 혁신을 가져왔다. 고급 자연어 처리 기능을 갖춘 챗GPT는 퀴즈 놀이부터 시 쓰기까지 다양한 작업에 도움을 줄 수 있다. 여기서는 챗GPT를 활용할 수 있는 놀랍도록 재미있고 유용한 10가지 방법을 살펴본다. 재미있는 레시피 만들기 챗GPT가 할 수 있는 흥미로운 일 중 하나는 사용자의 입맛, 재료, 특정 식단 요건에 따라 레시피를 생성하는 것이다. 원하는 요리 종류, 사용하려는 재료, 식이 제한 사항 등 특정 정보를 입력하면 된다. 그러면 챗GPT가 단계별 지침, 재료의 양, 요리 팁이 포함된 레시피를 알려준다. 챗GPT에 위스키를 베이스로 하고 스웨덴 미트볼을 사용한 칵테일을 만들어 달라고 했다. 챗GPT는 파격적인 요청이라는 점을 금방 알아차렸지만 이내 요구사항에 따라 레시피를 제공했다. 칵테일 이름도 ‘스모키 미트볼 즈위즐’이라고 지어줬다(개인적으로는 ‘미트볼 맨해튼’이 더 낫다고 생각한다). 맞춤형 운동 계획 챗GPT는 사용자의 체력 수준, 목표, 사용 가능한 장비, 건강 상태 등에 따라 맞춤화된 운동 계획을 짤 수 있다. 기본 정보, 현재 체력 수준, 운동 경험, 목표, 건강 상태, 장비 사용 가능 여부 등의 정보를 제공하면 된다. 챗GPT에 3개월짜리 운동 계획을 만들어 달라고 했다. 나이, 성별, 몸무게를 입력하고 무릎이 좋지 않다고 언급했다. 또 헬스장 장비를 이용할 수 없고, 7kg가량을 감량하는 것이 목표라고 덧붙였다. 우선 챗GPT는 새로운 운동 계획을 시작하기 전에 의사 또는 개인 트레이너와 상담하고, 부상을 입지 않도록 자세 모니터링이 중요하다고 권고했다. 이어 제공한 정보를 바탕으로 운동 계획을 알려줬다. 어떤 정보를 입력해야 할지 모르겠다면 챗GPT에 가장 정확하고 개인화된 운동 계획을 짜는 데 필요한 정보가 무엇이냐고 물어볼 수도 있다. 퀴즈 게임 다양한 주제에 대한 질문, 답변 또는 흥미로운 사실을 제공해 챗GPT와 퀴즈 게임을 하거나, 퀴즈 게임을 만들어 달라고 할 수 있다. 예를 들어 챗GPT에게 게임하고 싶다고 말한 다음, 주제나 테마를 지정하면 챗GPT가 질문을 던진다. 직접 만든 퀴즈로 챗GPT에 문제를 낼 수도 있다. 챗GPT에게 퀴즈 게임을 하고 싶다고 말한 다음, 양자 물리학에 관련된 5가지 질문을 해달라고 했다. 챗GPT는 답을 입력하면 정답인지 아닌지 알려준다고 말했다. 구글의 도움으로 간신히 5개 퀴즈 중 3개를 맞힐 수 있었다. 가상의 여행 가이드 챗GPT는 다양한 여행지 정보, 추천, 조언을 제공하는 가상의 여행 가이드 역할을 할 수 있다. 한 가지 명심해야 할 점은 챗GPT의 지식은 적어도 현재로서는 2021년까지의 데이터를 기반으로 한다는 것이다. 즉, 신상 레스토랑처럼 최근에 문을 연 곳은 추천할 수 없다. 하지만 방문 장소, 현지 관습, 요리, 기타 여행 관련 주제에 관해 귀중한 인사이트를 얻을 순 있다. 챗GPT에게 대만 타이베이로 여행을 계획 중이라고 하고, 꼭 가봐야 할 명소와 현지인에게 인기 있는 음식을 추천해 달라고 했다. 방문해야 할 장소와 추천 음식 목록은 꽤 정확했지만, 개인적으로는 대만식 오믈렛 단빙이 목록에 포함돼 있지 않아 아쉬웠다. 음악 작곡 챗GPT는 직접 음악을 작곡하거나 오디오 파일을 만들 순 없지만 가사 작성, 코드 진행 제안, 노래 구조 및 편곡 팁 제공 등을 도울 수 있다. 특정 음악 콘셉트 지침을 요청하거나 멜로니 또는 하모니 아이디어를 브레인스토밍할 수도 있다. 챗GPT에게 E플랫 단조로 작곡 중인 재즈에 좋은 코드 진행을 제안해 달라고 했다. 챗GPT는 i – iv – VII7 – III7 – V7 – i(9) 코드 진행을 제안하고, 재즈 곡에 깊이를 더하기 위해 코드 확장, 대체, 변경을 실험해 보라고 권유했다. 명상 및 마음 챙김 연습 명상을 좋아하는 사용자가 있다면 챗GPT가 마음 챙김 운동을 도와줄 수 있다. 예를 들어 5분 동안 마음 챙김 호흡 운동을 하고 싶다고 하면, 챗GPT가 어떻게 해야 하는지 단계별로 자세히 알려준다. 다른 유형의 명상이나 마음 챙김 운동을 하고 싶지만 어떻게 해야 할지 잘 모르겠다면 언제든지 챗GPT에게 제안을 요청할 수도 있다. 이력서 작성하기 시중에 많은 이력서 빌더가 있지만, 이력서를 직접 작성하려고 한다면 챗GPT가 콘텐츠 및 형식 지침, 제안, 팁을 제공할 수 있다. 이력서에 포함하려는 업무 경험, 교육, 스킬, 성과, 기타 세부 정보를 입력하면 된다. 챗GPT로 이력서를 작성하는 것이 다소 불편하다면, 지원 직무에 관한 이력서 템플릿을 제공해 달라고 요청할 수도 있다. 실제로 PC월드에서 기자로 일하고 싶지만 개인정보는 제공하고 싶지 않다고 말했더니 꽤 괜찮은 이력서 템플릿을 만들어줬다. 빈칸을 채우기만 하면 됐다. 개인 스타일리스트 AI가 실제로 사람을 스타일링할 수 있는 수준까지 발전하진 못했지만, 의상 아이디어, 색 조합, 액세서리 등을 제안할 순 있다. 아울러 특정 상황에 맞는 옷차림 팁을 제공할 수도 있다. 선호하는 스타일, 체형, 행사 내용, 기타 특정 요구사항 등 몇 가지 개인 정보를 공유해야 한다. 이를테면 닌텐도를 테마로 한 파티에 갈 예정인데, 닌텐도의 기업 컬러를 반영한 비즈니스 캐주얼 스타일 제안이 필요하다고 챗GPT에 말했다. 매우 상세한 제안을 받았다. 텍스트 기반 RPG 게임 챗GPT는 주어진 프롬프트에 응답하고 시나리오에 따라 선택하며 플레이하는 텍스트 기반 롤플레잉 게임을 만들 수 있다. 게임 설정을 챗GPT에 맡기거나, 직접 자세한 설명을 할 수 있다. 예를 들면 방금 불시착한 외딴 적대 행성을 배경으로 하는 텍스트 기반 롤플레잉 게임을 하고 싶다고 챗GPT에 말했다. 이어 플레이어는 탑승자 중 유일하게 살아남은 사람이고, 이 행성에는 초목과 물이 거의 없으며, 목표는 살아남아 원래 행성으로 돌아가는 것이라고 덧붙였다. 시 쓰기 챗GPT는 다양한 스타일과 테마로 시를 쓸 수 있다. 주제, 스타일, 원하는 분위기 등 시를 작성하는 데 필요한 기본 정보나 관련 있는 정보를 챗GPT에 알려주면 된다. 그러면 해당 정보를 바탕으로 시를 생성한다. 마리오가 젤다를 가논도르프에서 구출하고 피치 공주가 질투를 느껴 루이지와 함께 도망치는 장면에 관한 시를 써달라고 요청했다. 아울러 자유시의 아버지라고 불리는 월트 휘트먼 스타일로 써야 한다고 덧붙였다. 그 결과 환상적인 시가 탄생했고, 이를 다시 하이쿠(일본 정형시)로 바꿔달라고 말했다. 다음 단계는? 챗GPT는 어시스턴트, 엔터테인먼트 또는 창의적인 영감을 원하는 사용자에게 ‘가능성의 세계’를 열어줬다. 레시피와 운동 계획 생성부터 이력서 작성, 시 창작까지 다양한 작업을 처리할 수 있는 다재다능함은 일상을 증강하는 AI의 힘을 보여준다. 기술이 계속 발전하면서 챗GPT와 유사한 AI 모델은 더욱 혁신적으로 응용되리라 예상된다. AI 어시스턴트의 미래는 밝으며, 사람들이 디지털 세상과 상호작용하는 방식을 혁신할 잠재력은 이제 겨우 표면을 드러내기 시작했을 뿐이다. editor@itworld.co.kr
여러 대의 컴퓨터 모니터로 작업하는 데 익숙하다면 노트북만 가지고 출장을 떠나는 것이 힘들 수 있다. 비좁은 노트북 디스플레이 하나만 써야 하기 때문이다. 하지만 다행히도 오래된 아이패드나 안드로이드 태블릿 또는 기타 노트북을 윈도우 PC용 추가 모니터로 활용할 방법이 있다. 심지어 공짜다! 바로 ‘스페이스데스크(Spacedesk)’ 앱을 사용하는 것이다. 물론 유일한 멀티 모니터 소프트웨어는 아니지만 지금까지 본 무료 옵션 가운데 가장 다재다능하다. 윈도우용 스페이스데스크 설치 스페이스데스크는 2가지 부분으로 구성된다. • 스페이스데스크의 드라이버 소프트웨어는 PC의 백그라운드에서 실행돼 다른 화면과 연결된다. 스페이스데스크 웹사이트에서 다운로드해 설치할 수 있다. 스페이스데스크를 실행하려면 방화벽 예외 설정을 해야 한다. 이 옵션은 설치 과정에 포함돼 있다. • 다른 기기에서 스페이스데스크의 뷰어 앱을 실행하면, PC에서 해당 기기를 보조 모니터로 인식한다. 웹 뷰어를 통해 윈도우, iOS, 안드로이드, 아마존 기기 및 기타 모든 기기에서 앱을 사용할 수 있다. 서버 연결은 와이파이를 통해 이뤄진다. 드라이버 소프트웨어를 설치했다면 뷰어 앱을 연다. 예를 들어 PC와 태블릿이 동일한 와이파이 네트워크에 연결돼 있으면 스페이스데스크가 자동으로 태블릿을 감지한다. 태블릿을 선택하고 2번째 화면 모드를 시작할 수 있다. 스페이스데스크 구성 기본적으로 스페이스데스크는 디스플레이 UI를 확대하지 않기 때문에 보조 모니터에서 너무 작게 보일 수 있다. 이 문제를 해결하려면 ‘윈도우 설정 시스템 디스플레이’로 이동해 모니터 목록에서 새 디스플레이를 선택한 다음, 디스플레이 해상도와 배율을 조정하면 된다. 아울러 스페이스데스크 드라이버는 컴퓨터가 부팅될 때마다 항상 실행된다. 변경하고 싶다면 스페이스데스크의 작업 표시줄 아이콘을 마우스 오른쪽 버튼으로 클릭하고, ‘스페이스데스크 드라이버 콘솔’을 선택한 다음 ‘시스템 부팅 시 자동 시작’을 해제한다. 윈도우에서도 모니터를 구성해야 한다. ‘설정 시스템 디스플레이’로 들어가면 모든 화면의 레이아웃이 표시되며, 이를 드래그 앤 드롭해 실제 위치를 반영할 수 있다. 뷰어 앱에서 톱니바퀴 아이콘을 클릭하고 추가 옵션(예: 화면 해상도 및 품질 등)을 설정할 수도 있다. 안타깝게도 스페이스데스크는 안드로이드 기기에서 유선 USB 연결만 지원한다. 아울러 향후 유선 연결 기능이 프리미엄 기능이 될 수 있다고 밝힌 바 있다. 그렇지만 무선 연결 상태에서 스페이스데스크는 이메일을 보내고, 문서를 확인하며, 팀 채팅을 하기에 충분한 성능을 갖췄다. 시스템 오디오와 동기화해 비디오를 재생하는 데도 문제가 없었다. 기타 멀티 모니터 소프트웨어 옵션 스페이스데스크 외에 살펴볼 만한 앱은 다음과 같다. • 루나 디스플레이(Luna Display)는 아이패드나 남는 맥을 보조 모니터로 바꾸는 130달러짜리 동글이다(USBC, HDMI 또는 맥용 디스플레이포트에서 사용 가능). 일반적으로 다른 솔루션에서 흔하게 볼 수 있는 커서 지연 문제가 없다. 그래픽 디자인 또는 세밀한 입력이 중요한 기타 애플리케이션에서 매력적인 대안이다. • 듀엣 디스플레이(Duet Display)는 유선 및 무선 연결을 모두 지원한다. 하지만 연간 25달러의 유료 서비스다. • 삼성 갤럭시 탭 사용자는 삼성의 세컨드 스크린(Second Screen) 앱을 활용해 태블릿을 보조 모니터로 사용할 수 있다. • 맥 사용자는 사이드카(Sidecar) 기능을 통해 아이패드를 보조 모니터로 활용할 수 있다. 제어 센터에서 ‘디스플레이’ 버튼을 누른 다음, 아이패드를 선택해 활성화하면 된다. 또는 녹색 전체 화면 버튼 위에 커서를 놓고 아이패드로 이동하는 옵션도 있다. editor@itworld.co.kr
AI 기반 채팅, 검색 앱이 큰 인기를 끌고 있지만 여기는 작은 문제가 하나 있다. 이런 앱은 브라우저에서 실행되므로 각 사이트로 개별적으로 이동해야 쓸 수 있다. 그런데 이런 번거로움을 피하는 방법이 있다. 즉, 새로운 AI 기반 빙(Bing), ChatGPT, 그리고 마침내 구글의 바드(Bard) 검색 엔진은 모두 윈도우에 앱으로 저장해 필요할 때 호출할 수 있다. 구체적인 방법은 다음과 같다. 일단 웹 사이트는 윈도우 시작 메뉴에 고정되거나 모든 위치에 직접 ‘애플리케이션’으로 저장할 수 있다. 그 결과인 애플리케이션은 여전히 웹 앱이지만 자체적으로 별도 창으로 로드되며, 구석에 두거나 최소화하고 혹은 그렇지 않을 경우 윈도우를 통해 관리할 수 있다. 마이크로소프트 엣지 및 구글 크롬 모두에서 이 작업을 할 수 있다. 이렇게 사용하는 것이 구체적으로 어떻게 다를까? 웹 앱을 시작 메뉴에 고정하면 기본값은 새 브라우저 탭에서 챗GPT 혹은 빙을 여는 것이다. 반면 윈도우에 앱으로 저장하면 탭이나 즐겨찾기 없이 자체 브라우저 창으로 저장된다. 두 가지 모두 웹 페이지를 메인 시작 바로가기 메뉴 내에 저장하지만, 후자만 앱 목록에 배치된다. 이를 빠르게 실행하려면 Win+R 명령을 사용하면 된다. 여기서 살펴볼 더 쉬운 방법은 ChatGPT, 빙 혹은 기타 AI 프로그램을 앱으로 저장하는 것이다. 참고로 여기서 살펴보는 모든 지침은 빙, ChatGPT 혹은 구글 바드도 동일하게 적용된다. 이제 윈도우 내에 ChatGPT 혹은 새로운 빙을 앱으로 저장하는 방법을 살펴보자. 마이크로소프트 엣지 웹 브라우저를 열고 빙닷컴(Bing.com), ChatGPT 혹은 또 다른 사이트로 이동한다 : 이 단계는 구글 및 엣지 모두 동일하게 적용된다. 빙의 경우, https://www.bing.com로, ChatGPT는 https://chat.openai.com/chat으로 이동한다. 구글 바드도 (아직은 서비스 전이지만 서비스를 시작하면) 마찬가지다. 물론 이 모든 것은 사이트가 정상 작동한다는 것을 전제로 한다. 무료 버전 ChatGPT는 때때로 사람이 너무 몰려 접속하지 못할 수 있고, 빙은 사용하기 전 대기자 목록에 가입해야 할 수 있다. 빙 채팅 인터페이스에 액세스하기 위해 작은 채팅 링크를 클릭하거나 위로 스와이프한다 : 앞서 살펴본 첫번째 방법의 ChatGPT 링크를 통해 AI 애플리케이션으로 바로 이동할 수 있다. 빙의 경우 현재로서는 약간의 추가 단계가 필요하다. 마이크로소프트 엣지를 사용해 빙, 챗GPT 혹은 바드를 윈도우 앱으로 저장한다 : 이 방법은 마이크로소프트 엣지에만 적용된다. 추가 옵션을 표시하려면 오른쪽 상단 코너의 줄임표 메뉴(…)를 클릭한 후 앱 항목이 나타날 때까지 메인 메뉴에서 아래로 스크롤한 다음 ‘이 사이트를 앱으로 설치’로 이동한다. 이제 ‘앱’의 이름을 쓰고 작업 표시줄, 시작 메뉴 혹은 모두 중 어디에 저장할지 선택하면 된다. 엣지에서는 저장된 앱이 시작 메뉴에 나타난다 : 저장된 앱이 시작 바로가기 및 앱 드로어(app drawer)에 나타난다. 앱이 바로가기 메뉴 하단에 표시되고 앱 드로어 내에 알파벳 순으로 표시되므로 이를 찾기 위해 아래로 스크롤해야 할 수 있다. 앱 이름을 알고 있으면 윈도우 키 및 앱 이름을 입력하거나 윈도우 + R 바로가기를 사용해 빠른 실행 창을 열면 언제든지 빠르게 사용할 수 있다. 채팅 창 내에 앱을 저장하더라도 앱이 기본 빙 검색창에 기본 저장돼 있을 것이다. 그러면 빙 혹은 ChatGPT가 앱으로 나타난다. 여기서 ChatGPT 경우와 같이 마이크로소프트 엣지의 시작 메뉴에 앱을 고정할 수도 있다 : 오른쪽 상단의 줄임표 메뉴(…)로 다시 이동한 다음 아래로 스크롤해 ‘더 많은 툴(More Tools) 시작메뉴에 고정(Pin to Start)’으로 이동한다. 이는 사용해야 할 때 바로가기에서 ChatGPT, 빙 혹은 바드를 제외하면 된다는 의미다. 챗GPT 혹은 빙을 크롬 내 ‘바로가기’로 저장하기 : 크롬은 사용자가 앱에 대한 ‘바로가기’를 생성할 수 있도록 지원한다. 별도의 창을 만들 것인지도 선택할 수 있다. 기본값은 클릭 시 열리는 추가 탭으로 바로가기를 저장하는 것이다. 바로가기를 별도의 창으로도 저장할 수 있는데, 이는 바로가기를 앱으로 저장한다는 의미다. 두 경우 모두 바로가기는 시작 바로가기 메뉴에 저장되지만 윈도우 앱 목록에는 저장되지 않는다. editor@itworld.co.kr
2023년이 막 시작됐지만, IT 업계에는 이미 ‘스타’가 등장했다. 바로 ChatGPT이다. 대학과 각급 학교는 이미 ChatGPT를 금지했는데, 학생의 창의성과 개인 성취를 저해할 우려가 있기 때문이다. 하지만 ChatGPT와 이를 개발하는 오픈AI는 투자자의 상상력을 자극하기에 충분하다. 마이크로소프트는 오픈AI에 100억 달러를 투자하겠다고 했으며, 벤처 캐피탈인 쓰라이브 캐피탈과 파운더스 펀드도 3억 달러 규모의 지분에 관심을 보였다. 두 벤처 캐피탈은 이미 에어비앤비, 스포티파이, 리프트 등에 투자한 곳이다. 하지만 과연 ChatGPT란 무엇인가? CNET에서 사용하고 있는 편집자 보조 AI 같은 것인가? 아니면 값비싼 과외교사를 대신할 현대적인 숙제 도우미일 뿐인가? 아니면 고객 서비스를 자동화할 현대적인 기업용 챗봇인가? 이런 질문에 ChatGPT 자신보다 더 잘 대답할 수 있는 사람은 없을 것이다. 그래서 ChatGPT의 정체에 관해 ChatGPT를 인터뷰했다. 다음의 인터뷰 내용은 AI 스스로 자신을 설명하도록 하려는 시도이다. 인간 대담자와의 인터뷰처럼 COMPUTERWOCHE는 일부 답변을 짧게 줄이고 매끄럽게 편집했다. 하지만 ChatGPT가 대답한 내용은 임의로 수정하지 않았다. COMPUTERWOCHE : ChatGPT를 둘러싸고 과장된 소문이 많이 돌고 있다. ChatGPT란 정확하게 무엇인가? ChatGPT : ChatGPT는 자연어에 특화된 언어 모델이다. 트랜스포머(Transformer) 기술과 어텐션(Attention) 메커니즘을 기반으로 구축한 첨단 인공지능 모델이다. ChatGPT는 인터넷으로 수집한 대규모 텍스트 데이터로 훈련했으며, 텍스트 생성이나 텍스트 요약, 텍스트 완성, 텍스트 분류 같은 다양한 자연어 처리 작업을 수행할 수 있다. 또한 질의응답 시스템이기도 하다. 고객 서비스나 마케팅, 교육, 재무 등 많은 산업군과 애플리케이션에서 ChatGPT를 활용할 수 있다. 나는 자연어 처리 작업에서 매우 높은 성능을 시연해 보였으며, 특히 대화 시스템을 자동화하는 데 잘 맞는다. COMPUTERWOCHE : 학습은 ChatGPT에 어떻게 적용되는가? ChatGPT : 나는 트랜스포머 모델을 기반으로 하는데, 이 모델은 어텐션 메커니즘의 기술을 기반으로 한다. 이 메커니즘은 AI 모델이 입력된 텍스트의 특정 부분에 주의를 기울이고, 이를 출력 텍스트를 생성할 때 반영한다. 학습할 때 모델은 대량의 텍스트 데이터로 훈련을 받고, 이들 데이터의 패턴과 관계를 인식하고자 한다. 모델은 주어진 입력 텍스트와 이에 대응하는 출력 텍스트로 훈련한다. 목표는 가능한 한 출력 텍스트를 생성하는 것이다. 이를 위해 ‘마스크드 언어 모델링(Masked Language Modeling)’이란 프로세스를 사용하는데, 출력 텍스트의 일부 단어가 일시적으로 "마스킹"되고 모델이 해당 단어를 예측하려고 시도한다. 그런 다음 모델을 예측 결과와 비교하고 예측과 실제 출력 텍스트 간의 불일치를 사용해 모델의 뉴런 가중치를 조정해 다음에는 예측 결과가 개선되도록 한다. 이 프로세스는 모델이 텍스트 생성에서 높은 정확도를 달성할 때까지 반복된다. COMPUTERWOCHE : 개발 기간은 얼마나 걸렸는가? ChatGPT : 나를 개발하는 데 얼마나 많은 시간이 걸렸는지는 정확하게 모른다. 하지만 ChatGPT 같은 대형 언어 모델을 개발하는 것은 복잡하고 힘든 과정으로, 보통 수개 월 또는 수년이 걸린다는 점에 유의해야 한다. 이런 모델을 개발하려면, 학습을 위해 대량의 텍스트를 사용하고 머신러닝이나 인공지능 같은 고급 기술을 적용해야 한다. 또한 ChatGPT 개발이 일회성 프로세스가 아니라 최신 지식과 기술을 개선하고 조정하는 지속적인 프로세스라는 점도 고려해야 한다. COMPUTERWOCHE : ChatGPT는 누가 만들었는가? ChatGPT : 나는 오픈AI의 제품이다. 영리 AI 연구 개발 회사인 오픈AI는 2015년 일론 머스크, 샘 알트만, 그렉 브록만, 일리야 서츠케버, 보치엑 자렘바가 설립했다. 현재 다수의 투자자가 참여하고 있는데, 피터 틸, 코슬라 벤처스, 앤드리슨 호로위츠 등 잘 알려진 곳도 포함되어 있다. COMPUTERWOCHE : 수익은 어떻게 내는가? ChatGPT : 말한 대로 나는 오픈AI가 개발하고 운영한다. 오픈AI는 주로 이 기술을 API 호출과 라이선스 방식으로 사용하는 기업과 개발자로부터 수익을 낸다. 여기에 더해 오픈AI는 ChatGPT에 관한 조언과 훈련도 제공한다. COMPUTERWOCHE : 일부 보도처럼 ChatGPT는 조만간 유료화되는가? ChatGPT : 오픈AI가 나를 유료화할 계획에 관한 정보는 나에게 없다. 하지만 오픈AI는 앞으로 자사의 모델을 상용화해 수익화하겠다고 발표한 바 있다. 언제 유료화할지는 확실하지 않다. 유료화에 관해서는 오픈AI 공식 웹 사이트를 방문할 것을 추천한다. COMPUTERWOCHE : 텍스트에서 편향성은 어떻게 피하는가? ChatGPT : 나를 포함해 어떤 모델이라도 편향될 수 있다는 것을 유념해야 한다. 따라서 모델을 훈련하는 데 사용되는 데이터가 대표적이고 가능한 한 편견이 없는 것이 중요하다. 또한 편향을 방지하기 위해 훈련 과정 중에 편향 보정 기술을 적용해야 하고, 작동 중에도 모델을 모니터링하고 편향성이 발견되면 수정해야 한다. COMPUTERWOCHE : 어떤 데이터로 훈련을 받았는가? ChatGPT : 인터넷에서 수집한 대량의 텍스트 데이터로 훈련을 받았다. 이 데이터에는 기사, 블로그 게시물, 책, 뉴스, 소셜 미디어 게시물 등 다양한 텍스트가 포함되어 있으며, 모델이 자연어를 이해하고 생성할 수 있도록 훈련하는 데 사용됐다. 많은 양의 데이터로 훈련했기 때문에 다양한 상황에서 언어가 어떻게 사용되는지, 인간 언어의 다양성을 어떻게 매핑하는지 배울 수 있었다. COMPUTERWOCHE : 다른 언어 모델과의 차이점은 무엇인가? ChatGPT : 나는 현재 이용할 수 있는 가장 강력한 첨단 음성 모델 중 하나이다. 다른 언어 모델과 차별화되는 요소는 다음과 같다. 크기와 깊이. 나는 1,750억 개의 뉴런으로 구성된 매우 큰 네트워크 아키텍처를 사용한다. 이를 기반으로 매우 복잡한 패턴을 자연어로 인식하고 생성한다. 어텐션 메커니즘. 여기에 더해 나는 어텐션 메커니즘을 사용한다. 이 방법론은 입력 텍스트의 특정 부분에 주의를 집중하고, 해당 부분을 출력 텍스트를 생성할 때 반영하도록 해준다. 사전 훈련. 나는 방대한 양의 데이터로 사전 훈련을 받았다. 이를 통해 자연어 처리에서 매우 높은 성능을 낼 수 있다. 유연성. 나는 다양한 자연어 처리 작업에 사용할 수 있는데, 텍스트 생성, 텍스트 요약, 텍스트 이해, 질의응답 시스템 등이다. 이런 요소가 나를 현재 이용할 수 있는 가장 강력한 첨단 언어 모델 중 하나로 만들었다. COMPUTERWOCHE : ChatGPT는 어떤 용도로 활용할 수 있는가? ChatGPT : 나는 자연어를 생성하고 이해하고 번역하는 데 사용할 수 있다. 적용 분야는 다음과 같다. 챗봇. 챗봇이 더 자연스럽게 말할 수 있도록 대화 기술을 개선할 수 있다. 자동 텍스트 작문. 뉴스나 설명문, 기사 등의 텍스트를 자동으로 생성할 수 있다. 텍스트 생성. 특정 양식이나 어조의 텍스트를 생성하는 데 이용할 수 있다. 텍스트 요약. 긴 텍스트를 자동으로 요약하는 데 사용할 수 있다. 텍스트 완성. 필요하다면 텍스트를 자동으로 완성하는 데 사용할 수 있다. 번역. 더 나아가 텍스트를 다른 언어로 번역할 수 있다. 나를 활용할 수 있는 분야는 이보다 더 많으며, 기술이 발전하면서 활용 분야는 더 늘어날 것이다. COMPUTERWOCHE : 프로그래밍도 할 수 있는가? ChatGPT : 나는 주로 자연어 처리 훈련을 받았고 구체적으로 코딩용으로 설계된 것은 아니다. 하지만 적절한 데이터로 훈련을 받으면 코드를 생성하거나 완성할 수 있다. 예를 들어, 챗봇 개발에 나를 사용할 수 있다. 하지만 프로그램에 특화되어 설계한 모델의 결과만큼 믿을 만하거나 효율적이지 않을 수 있다. COMPUTERWOCHE : ChatGPT를 비판적으로 보는 사람이 많은가? ChatGPT : 일부 사람들이 대규모 언어 모델 사용에 비판적인 데는 몇 가지 이유가 있다. 사무직 같은 특정 업무가 자동화되어 일자리를 잃을 수도 있다는 불안감을 예로 들 수 있다. 또한 모델을 훈련하는 데 대량의 데이터가 필요하기 때문에 데이터 보호와 프라이버시 우려도 있다. 모델을 훈련하는 데 사용하는 데이터가 항상 안전하고 은밀하지 않을 수 있다는 우려도 있다. 윤리적인 우려도 있는데, 우리가 가짜 뉴스나 선전선동, 기타 조작된 콘텐츠를 만드는 데 이용될 수도 있다는 것이다. 마지막으로 편향성에 대한 우려도 있는데, 이는 앞서 이야기한 주제이다. 하지만 데이터 보안과 프라이버시, 그리고 AI의 윤리성 검증을 강조하는 것은 중요한 일이다. COMPUTERWOCHE : 또 하나의 우려는 ChatGPT와 다른 언어 모델이 저작권을 존중하지 않는다는 것이다. 저작권을 지키고 있는가? ChatGPT : 우리는 특정 규칙과 알고리즘으로 프로그래밍된 컴퓨터 기반의 시스템일 뿐이다. 따라서 우리는 저작권이나 기타 법률을 준수해야 할 어떤 법적 도덕적 책임도 없다. 저작권 보호는 우리를 사용하는 기업과 개발자가 해야 할 일이다. 사용자는 관련 법률과 규제를 준수해야만 한다. 나를 사용하는 기업이 관련 저작권과 기타 지적재산권 법률에 따라 행동하도록 하는 것이 중요하다. COMPUTERWOCHE : ChatGPT가 생성한 텍스트의 저작권은 누구에게 속하는가? 내가 생성한 텍스트의 저작권은 복잡할 수 있으며, 여러 가지 요소에 따라 달라진다. 일부 국가에서는 AI를 자동화된 저작 툴로 간주하기 때문에 저자의 권리는 없고 저작권은 AI 시스템의 개발자가 갖는다. 어떤 국가에서는 저작권이 텍스트의 저자에게 있으며, AI 시스템이 생성한 텍스트라도 마찬가지이다. 저작권과 관련해서는 법적 지위도 중요한데, 많은 국가에서 AI의 법적 지위가 분명하지 않다. 따라서 저작권과 AI에 관한 문제를 확실히 하고 싶다면, 변호사에게 조언을 구하는 것이 좋다. editor@itworld.co.kr
네트워크 엔지니어의 업무는 갈수록 복잡해진다. 핵심 애플리케이션은 더 많은 대역폭을 놓고 싸우고, IoT로 인해 기기 수는 폭발적으로 증가한다. 네트워크 자체도 클라우드와 엣지, 홈 오피스로 확장 중이다. 사이버 보안 문제에도 신경 써야 한다. 공격이 전반적으로 증가하고 공격자는 끊임없이 취약점이나 백도어를 찾고 있다. 사이버 보안을 위한 조기 경보 시스템으로써 견고하고 안전한 네트워킹의 필요성은 더 커졌다. 다행히 네트워크 엔지니어가 끝없이 밀려드는 작업을 처리할 수 있게 도와주는 유용한 툴이 많다. 게다가 상당수가 무료다. 비용 부담이 없으면서 유용하기도 한 12가지 네트워크 툴을 소개한다. 1. 와이어샤크 : 패킷 분석기 와이어샤크(Wireshark) 분석 툴은 무료 오픈소스 프로그램으로 네트워크를 통과하는 데이터 패킷을 캡처하고 분석하는 데 주로 쓰인다. 와이어샤크는 1998년 제럴드 콤이 만들었지만 지금도 처음 만들어졌을 당시와 마찬가지로 유용하다. 네트워크 엔지니어는 와이어샤크를 통해 네트워크 인터페이스 컨트롤러(NIC)를 무차별 모드로 설정해서 대부분의 트래픽, 컨트롤러의 MAC 주소로 전송되지 않은 유니캐스트 트래픽까지 관측할 수 있다. 와이어샤크의 모든 버전과 소스 코드는 완전한 오픈소스이며 무료로 다운로드할 수 있다. 2. N맵 : 네트워크 매핑 네트워크 매핑의 줄임말인 N맵(Nmap)은 취약점 확인, 포트 스캔, 네트워크 매핑에 사용되는 오픈소스 툴이다. 다른 프로그램이 놓친, 네트워크 내의 숨겨진 취약점까지 종종 찾는 강력한 툴로, 최초 개발자인 고든 라이온을 포함한 대규모 커뮤니티의 지원을 받는다. N맵 유지 관리 커뮤니티에 따르면 매주 다운로드 횟수는 수천 회에 이른다. 누구나 무료로 다운로드할 수 있으며 윈도우, 맥, 리눅스용이 있다. 3. 인펙션 몽키 : 침투 테스트 인펙션 몽키(Infection Monkey)는 네트워크의 규모와 관계없이 작동하도록 설계된 지속적 침투 테스트 툴이다. 많은 고급 익스플로잇이 포함돼 있으며 약한 암호와 같은 흔한 보안 실수를 점검하는 기능도 제공한다. 일반적인 사이버 보안 문제를 추적하는 용도로 사용할 수 있으며 최근에는 엔터프라이즈에서 제로 트러스트 네트워킹을 사용하는 경우 올바르게 구성되었는지 검사하는 기능도 추가됐다. 인펙션 몽키 프로그램은 무료로 다운로드할 수 있고, 소스 코드는 깃허브에서 받을 수 있다. 누구나 자신의 목적에 맞게 자유롭게 코드를 수정할 수 있다. 4. iperf : 네트워크 연결 테스트 iperf 툴은 기업의 전체 네트워크 연결을 측정하고 테스트한다. 클라이언트 또는 서버로 작동할 수 있으며 데이터 스트림을 생성해 두 지점 간의 처리량을 테스트한다. 데이터 스트림은 전송 제어 프로토콜(TCP) 또는 사용자 데이터그램 프로토콜(UDP)로 생성된다. 무료로 다운로드할 수 있고 소스 코드도 공개돼 있다. 리눅스, 유닉스, 윈도우 네트워크에서 작동한다. 5. fprobe : 성능 테스트 fprobe 툴은 일반적으로 네트워크의 특정 지점에 위치해 그 지점을 지나 이동하는 트래픽에 대한 데이터를 기록한다. 대역폭을 과도하게 점유하는 기능, 또는 네트워크에서 허용되지 않는 트래픽을 생성하거나 기능을 수행하는 섀도 IT를 찾는 데도 유용하다. 6. 칵티 : 시각화 툴 칵티(Cacti) 툴은 2001년 이안 베리가 시작한 더 하기 프로젝트(The Cacti Project)의 일부로 탄생했다. 주 기능은 2가지다. 첫째, 완전히 분산된 내결함성 데이터 수집 프레임워크를 제공한다. 그러나 이 툴이 유명한 이유는 그래프 구성요소에 있다. 복잡한 데이터 집합을 시각화해 트래픽 스파이크부터 냉각 팬이 가장 높은 속도로 작동한 시간에 이르기까지 온갖 트래픽 정보를 보여준다. 칵티는 네트워크 모니터링 툴, 또는 다른 툴의 데이터에 대한 그래픽 인터페이스를 제공하는 보조 툴로 모두 사용할 수 있다. 7. 스노트 : 침입 차단 스노트(Snort)는 잘 알려진 무료 네트워킹 툴 중 하나다. 1998년 마틴 로슈가 만들었고 이후 시스코가 개발을 이어받았다. 스노트는 사용자가 규칙을 사용해 악성 네트워크 활동을 정의할 수 있는 침입 차단 시스템(IPS)이다. 이렇게 만들어진 규칙을 사용해 정의와 일치하는 패킷을 찾고, 발견 시 경보를 생성한다. 현재 버전 3에 이른 스노트는 악성 패킷을 차단하는 데도 사용할 수 있으며 추가된 자동화 구성요소는 무료 툴로서는 상당한 고급 기능이다. 8. 에어크랙ng : 무선 네트워크 요즘 기술자는 유선 네트워크 외에 무선 네트워크의 정상 작동도 살펴야 한다. 에어크랙ng(Aircrackng)는 바로 이 부분에 도움이 되는 툴이다. 802.11 무선 LAN을 위한 무선 감지기, 패킷 스니퍼, WEP 및 WPA/WPA2PSK 크래커와 분석 툴을 모아 놓은 일종의 툴 묶음이다. 인근에서 어떤 무선 네트워크가 작동 중인지, 누가 그 네트워크를 사용 중인지, 얼마나 잘 보호되고 있는지를 감지하는 데 사용한다. 무료로 다운로드 가능하다. 9. 오픈NMS : 네트워크 모니터링 오픈NMS(OpenNMS)는 네트워크 엔지니어가 기업의 로컬 및 분산 네트워크를 시각화하고 모니터링할 수 있는 오픈소스 네트워크 모니터링 플랫폼이다. 오픈NMS는 종합적인 결함, 성능, 트래픽 모니터링 및 알림 생성 기능을 제공한다. 또한 폭넓은 맞춤 구성과 확장이 가능하다. 플랫폼에는 두 가지 버전이 있다. 메리디안(Meridian)은 유료 제품으로 툴 구성과 실행에 도움을 주는 구독 서비스가 함께 제공되며 호라이즌(Horizon)은 무료 커뮤니티 기반 플랫폼으로 누구나 다운로드해서 사용할 수 있다. 호라이즌에는 유료 플랫폼의 모든 기능이 있지만 사용자가 자신의 네트워크 내에서 작동하도록 직접 구성해 사용해야 한다. 10. 스모크핑 : 지연 측정 스모크핑(SmokePing)은 네트워크 지연과 패킷 손실을 측정하는 흥미로운 툴이다. 일정 간격으로 핑을 보내 응답 시간을 기록한 다음 지연 패턴을 인터랙티브 그래프로 표시한다. 사용자는 그래프에서 원하는 부분을 클릭해 그 시점에 일어난 일에 대한 정보를 얻을 수 있다. 네트워크에 간헐적으로 문제가 발생하지만 정확한 시점이나 이유를 모르는 경우 이 기능이 도움이 된다. 무료로 다운로드할 수 있다. 11. 디봇 : 슬랙 앱 모니터링 많은 네트워크 엔지니어가 슬랙을 사용해 서로 소통하거나 사용자와 관리자로부터 요청과 지시를 받는다. 슬랙은 특히 기술 분야에서 현재 가장 인기 있는 인스턴트 커뮤니케이션 플랫폼이다. 그러나 슬랙 자체가 취약점이 되지 않도록 하는 것이 중요하다. 일종의 봇인 디봇(DBOT)은 슬랙 환경 내의 모든 URL, 파일, IP 주소를 스캔하면서 악성 콘텐츠를 찾는다. 이 과정에서 악성코드로 알려진 IP로부터 파일이 전송되는 등의 상황을 발견하면 사용자에게 직접 알린다. 무료 오픈소스 툴이며, 모든 슬랙 환경에 신속하게 추가해 부가적인 보호 계층을 제공한다. 12. 센징 : 데이터 매칭 센징(Senzing) 툴은 네트워킹과 보안 측면에서는 부수적이라고 할 수 있지만 특정 상황에서는 꽤 유용하다. 센징은 서로 다른 데이터베이스 간의 유사성과 관계를 찾는다. 사이버 보안 용도로 사용할 경우 네트워크에서 노출되지 말아야 할 개인 정보를 찾거나, 여러 곳에 흩어진 개별적인 정보 조각을 연결해 같은 사용자가 소유한 여러 개의 계정을 발견할 수도 있다. 센징은 대부분의 주요 플랫폼을 위한 API로 배포되며 최대 10만 개 레코드까지는 무료로 분석할 수 있다. 그 이후에는 비용을 내고 더 많은 레코드를 분석할 수 있다. editor@itworld.co.kr
클라우드에서도 생성형 AI 열풍이 거세다. 빅3 클라우드 모두 새로운 매출원으로 생성형 AI를 내세우면서 그렇지 않아도 계속 증가하는 기업의 클라우드 관련 지출이 점점 더 커지고 있다. 문제는 클라우드가 예전처럼 마냥 저렴하지 않다는 것. IT 하드웨어 비용이 저렴해지면서 온프레미스로 애플리케이션과 데이터를 ‘송환’하는 일이 심심치 않게 벌어지고 있다. 그렇다고 클라우드를 사용하지 않을 수는 없다. ‘클라우드 스마트’ 전략이 필요한 시점, 전문가들은 적절한 통제와 올바른 핀옵스 프로그램, 그리고 적극적인 비용 최적화를 해법으로 제시한다.
PC 경험을 완성하는 것은 다채로운 색상을 사실적으로 재현하고 무한한 스크롤을 부드럽게 유영하는 느낌을 선사하는 모니터도, 어떤 작업이든 닥치는 대로 처리하는 고성능 그래픽카드도, AI를 통해 생산성을 몰라보게 개선하는 OS도 아니다. 사용자와 물리적인 상호작용이 가장 많은, 미세한 피드백까지 손끝으로 느낄 수 있는 키보드다. 자신에게 잘 맞는 키보드를 선택하면 일을 하든 게임을 하든 손의 피로도를 줄일 수 있을 뿐 아니라 눈과 귀도 즐겁다. 인체공학 키보드부터 다양한 기계식 키보드까지 완벽한 PC 경험을 선사할 리뷰 기사를 모았다.
규제와 기술 발전의 간극을 메우기 위해 다양한 시도가 이루어지고 있다. 최근 거의 대부분의 AI 기업이 저작권 소송에 휘말린 것은 AI가 동의나 권한 없이 개인의 저작물, 예술작품을 학습 데이터로 사용하는 일이 비일비재하게 벌어졌기 때문이다. 동시에 AI가 작품을 학습할 수 없도록 훈련 데이터에 독을 푸는 데이터 포이즈닝 기술이 대두되고, 나이트셰이드 같은 구체적인 도구가 대안으로 발표됐다. 모델 학습 데이터를 오염시키는 기술이 정당할까? 거대 IT 기업이 AI 학습 과정에서 지켜야 할 '선'이 마련될 때까지는 필요악일지 모른다.
메타가 AR/VR 신제품 퀘스트 3 판매를 시작했다. 전작 대비 해상도와 주사율을 개선했고 그래픽 성능을 2배 이상 끌어 올렸다. 특히 풀컬러 패스스루를 지원해 더 정교한 MR을 구현했다. 현재 AR/VR 활용 분야는 엔터테인먼트에 집중돼 있지만 확장 가능성은 무궁무진하다. 3D 모델링 등 산업용으로 다양한 도입사례가 있고, 일반적인 협업이나 교육은 물론 불안 장애 치료 등 의학용으로도 활용되고 있다. 반면 경기 침체와 신제품 출시 부족 등으로 올 2분기 AR/VR 기기 판매량이 감소했다. 게임과 애플리케이션, 영상, 기기 등 AR/VR 생태계는 여전히 빈약하다. 그러나 일부 어려움에도 AR/VR 유행은 당분간 계속될 전망이다. 무엇보다 내년 초에 사양(4K)과 가격(500만 원) 모두 '끝판왕'인 애플 비전 프로가 나온다. 애플은 개발자 랩을 오픈하는 등 본격적인 생태계 구축에 나서고 있다. AR/VR 분야가 점점 더 흥미로워지고 있다.
마이크로소프트가 윈도우, 서피스, 오피스를 통해 ‘AI’에 올인하고 있다. 윈도우 AI 기능을 지원할 칩까지 출시된다. 앞으로 윈도우는 한 문장의 요청만으로도 PC 설정을 변경하며, 엑셀 파일의 데이터에서 명시적으로 알 수 없는 정보를 알아낸다. 단순 작업만 수행하던 기본 앱은 유료 앱 못지않은 AI 기능을 제공한다. 하지만 아직은 마이크로소프트의 원대한 포부에 불과하다. 현재로서 코파일럿이 수행하는 작업은 극히 제한적이며, 결과물의 정확도를 확인하려면 여전히 사람의 손길이 필요하다. “윈도우 PC의 AI 시대 개막”이라는 표현은 시기상조일지도 모른다.
2022년 말부터 시작해 전 세계를 뜨겁게 달군 ‘생성형 AI’ 광풍이 잦아드는 모양새다. 많은 기업이 다양한 생성형 AI 서비스를 쏟아내고 있지만, 이렇다 할 ‘한 방’은 내놓지 못하고 있다. 생성형 AI의 대표 격인 챗GPT 사용량도 감소했다. 6월 기준 챗GPT 트래픽(웹/모바일)은 전월 대비 9.7% 하락했으며, 순 방문자 수와 체류 시간도 각각 5.7%, 8.5% 감소했다. 많은 사람에게 AI의 매력이 사라지고 환멸이 확산되고 있다고 보는 전문가가 적지 않다. 챗GPT가 종종 신뢰할 수 없는 답변을 하는 것도 관심 하락에 한몫하는 것으로 보인다. 삼성의 정보 유출 사례에서 드러난 것처럼 민감한 기업 정보가 노출될 수 있다는 위험 때문에 사내 챗GPT 사용을 금지한 기업도 많다. 파괴적인 기술의 등장 자체에 열광했던 것에서 벗어나 신뢰성, 안정성, 실질적인 쓰임새 등을 따지기 시작하면서 이제 정책, 관리 방침, 보안, 환각 및 편향성 문제 해결 등이 쟁점으로 떠오르고 있다.
애플이 아이폰 15를 공개하는 행사가 10일 앞으로 다가왔다. 아이폰 15 출시와 함께 차세대 운영체제 iOS 17도 정식 배포된다. 지난 6월 WWDC 2023에서 소개된 iOS 17은 이전보다 훨씬 직관적이고 개인화된 경험을 제공하는 새로운 기능으로 큰 기대감을 모았다. iOS뿐 아니라 맥OS 14 소노마(Sonoma)와 아이패드OS 17에서도 배경화면/잠금화면 위젯과 생산성이 개선된 기본 앱 등을 통해 변화를 확실하게 체감할 수 있다. 올 하반기 새롭게 달라지는 애플 생태계가 낯설게 느껴지지 않도록 미리 살펴보면 좋을 기사를 모았다.
"사용하기 쉽고 보기에도 아름다운"이라는 설명에 어울리는 언어, 파이썬이 AI 열풍을 등에 업고 여전히 인기 가도를 달리고 있다. 읽기 쉽고, 오픈소스이며 확장 가능하고, 광범위한 표준 라이브러리가 있는 크로스 플랫폼 언어인 파이썬은 웹 개발부터 AI/ML까지 거의 모든 용도로 사용할 수 있다. 최근에는 엑셀 내 셀에 직접 입력할 수 있도록 마이크로소프트의 지원이 시작됐다. 간결한 코드로 개발자는 일관적이고 안정적인 시스템을 만들 수 있고, 기계 학습 작업에 필요한 강력한 알고리즘과 프레임워크를 만들 수 있다. 23년 상반기 파이썬의 기술적 진전과 변화, 그리고 다양한 관련 도구를 살펴 보자.
역대 가장 성공적인 선거 캐치프레이즈 중 하나가 '저녁이 있는 삶'이다. 해당 후보는 낙선했지만, 이 구호는 워라밸의 지향점으로 아직도 쓰이고 있다. 최근 워라벨의 맥락에서 '주 4일 근무'에 대한 논의가 활발하다. 영국, 미국 등에서 대규모 실험이 진행됐고, 긍정적인 평가와 일부 부정적인 평가가 나왔다. 반면 우리나라는 세계적인 흐름과 반대로 달리고 있다. 정부는 지난 3월 주 (최대) 69시간 근무제를 추진했다가 거센 반발에 직면한 바 있다. 참고할 만한 주 4일제 관련 기사를 모았다.
산업을 불문하고 많은 기업이 AI 프로젝트를 시작하고 있지만, 모든 AI 프로젝트가 성공하는 것은 아니다. 실패의 원인은 미흡한 도입 전략 및 운영 체계, 이해관계자 간 합의 실패, AI에 대한 잘못된 인식 등 다양하고 복합적이다. AI를 성공적으로 도입하고자 하는 기업은 ‘AI는 만능’이라는 잘못된 인식에서 벗어나 어떤 문제에 AI가 필요한지, 어떤 모델이 적합한지 따지고 그에 맞게 기술과 데이터를 다룰 수 있어야 한다. AI 프로젝트를 시작하기 전 참고하면 좋을 기사를 모았다.
다이슨의 제품군은 상대적으로 많지 않은 편이고 진공 청소기, 공기 청정기, 헤어 드라이기 등 3가지 분야가 주력이다. 모두 많은 사람이 가장 갖고 싶어하는 제품이다. 필자는 지난 수년간 다이슨의 다양한 진공 청소기와 공기 청정기를 테스트했고, 이 제품의 일반적인 성능이 매우 뛰어나다는 데 이견이 없다. 다이슨의 독창적인 제품 설계와 매우 높은 가격은 논란이지만, 앞선 기술과 훌륭한 성능에는 논쟁의 여지가 없다. 실제로 다이슨은 고품질 가전 제품으로 자리를 잡았다. 이 때문에 필자는 다이슨의 신제품 진공 청소기 '다이슨 365 비스 네브(Dysono 365 Vis Nav)'를 크게 기대했다. 하지만 일단 가격이 눈을 의심할 정도로 높다. 미국은 아직 출시 예정이지만 영국에선 무려 1,199.99파운드다. 로보락(Roborock), 드리미(Dreame), 에코백스(Ecovacs) 같은 경쟁 제품과 비교해 물걸레 청소, 먼지통 자동 비움 기능이 없다는 점을 고려하면 더 비싸게 느껴진다. 디자인과 설치 다이슨 365 비스 네브의 디자인은 기존 다이슨 제품과 비슷하다. 미래지향적인 모습에 눈길을 가는 것도 맞지만, 세련됐는가에 대해서는 각자의 판단에 맡기겠다. 개인적으로는 상당히 멋지다고 생각한다. 365 비스 네브는 상대적으로 작은 크기다. 충전 스테이션과 함께 뒀을 때 집안 어느 곳에 놔 둬도 자연스럽게 어울린다. 경쟁사의 최신 제품과 비교해 장점이다. 이 로봇 청소기는 집안 모서리 구석구석까지 잘 청소하도록 설계됐다. 영문자 D 모양의 디자인은 모서리 청소에 최적화돼서 다른 업체가 이 디자인을 따라해도 이상하지 않을 정도다. 각진 전면 양옆으로는 확장할 수 있는 브러쉬 헤드가 있다. 안쪽이 깊숙한 모서리 청소도 문제없다는 의미다. 먼지를 훑는 사이드 브러쉬의 필요성도 줄여 준다. 필요할 때 자동으로 양면에서 펼쳐지는 사이드 채널도 있다. 매우 훌륭한 기능이다. 카메라 네비게이션 시스템 최근 출시되는 고성능 로봇 청소기가 대부분 레이저(일명 LIDAR)를 사용해 매핑과 네비게이션 기능을 수행하는 것과 달리, 다이슨은 카메라 기반 시스템을 채택했다. 다이슨 360 비스 네브는 몸체 위에 달린 360도 어안 카메라를 사용해 주변 환경을 분석하고 26개의 외부 센서를 통해 앞을 가로막을 가능성이 있는 장애물을 탐지하고 피한다. 어두운 방 안이나 침대 등 가구 밑처럼 조명이 부족한 곳에서도 잘 작동하도록 카메라 주변에 고리 모양의 LED 조명이 있다. 홈 네트워크와의 연결과 설치도 빠르고 간단하다. 이 앱은 다이슨 공기 청정기 앱과 마찬가지로 직관적이고 사용하기 쉽다. 몇 분만에 로봇 청소기가 집안을 매핑할 준비를 마친다. 필자는 바닥에 장애물이 없는 것을 확인하고 부엌 식탁과 의자를 정돈한 후 360 비스 네브가 첫 번째 미션을 수행하도록 했다. 하지만 로봇 청소기는 목적을 잃은 것처럼 돌아다니면서 방과 방 사이를 오갔고, 같은 곳을 몇 번이고 재탐색하기도 했다. 매핑과 배터리, 청소 성능 최초 매핑에 상당한 시간이 걸릴 것이 분명했으므로, ‘집’ 공간을 방 2개와 부엌만으로 한정했다. 그럼에도 상대적으로 작은 공간을 매핑하는 데만 30분이 걸렸다. 레이저 탑재 로봇 청소기라면 몇 분이면 끝났을 것이다. 좋은 출발은 아니지만 상관없다. 결국 최초 매핑은 한 번만 하면 되거나 방 구조를 바꿨을 때 또는 전체적으로 리모델링한 후에나 실행하는 것이기 때문이다. 마침내 매핑이 끝난 후 앱을 사용해 방을 분류하고 이름을 정하고 로봇 청소기가 가면 안 되는 구역을 추가했다. 청소 스케줄 정하기, 청소할 방 선택하기, 빠름, 부스트, 자동, 저소음 등 4종의 청소 모드를 고르는 것 외에도 몇 가지 맞춤화 옵션이 있다. 처음에는 부스트 모드로 복도, 작은 침실, 거실을 청소하라고 했는데 앱에서 예상 청소 시간이 무려 6시간 23분이 걸린다고 했다. 고작 250평방피트(약 7평)를 청소하는 데 6시간이 넘게 걸린다니! 바로 마음을 바꿨다. 먼지 양에 따라 (내장 피에조 센서로 탐지해) 자동으로 흡입력을 조절하는 자동 모드로 바꿨다. 완료 예상 시간은 2시간 7분이었다. 여전히 끔직하게 길지만 일단 실행했다. 다이슨의 움직임 패턴은 매핑만큼이나 비논리적이었다. 다이슨은 각 방을 오가면서 이 구역 저 구역을 청소하기 시작했다. 더 최악인 것은 360 비스 네브의 배터리가 중간 중간 재충전한다는 점이었다. 가끔은 몇 분마다 재충전을 하기도 헀다. 이렇게 배터리 성능이 심각하기 때문에 청소 시간이 어이없이 길어진 것이었다. 심지어 장애물 탐지 기능도 기대에 훨씬 미치지 못했다. 임시로 설치한 건조대는 다이슨 360 비스 네브가 넘을 수 없는 장벽이 되었다. 다이슨은 건조대를 돌아서 지나가기를 거부했고 몇 번은 건조대를 타고 오르려 하다가 결국 끼어버렸다. 청소를 중단했다. 한번은 청소기 브러쉬 주변을 칭칭 감아버린 억센 충전 케이블을 빨아들이기도 했다. 의심스러운 장애물 회피 능력을 별론으로 하면, 다이슨 360 비스 네브는 우수한 청소기다. 흡입력은 인상적이고 벽 모서리와 가장자리를 잘 청소했다. 지금까지 테스트한 다른 어떤 제품보다도 뛰어났다. 청소 시간 후 먼지통을 비우는 과정도 쉬웠다. 가장 실망스러운 다이슨 제품 정리하면 다이슨 360 비스 네브는 모서리와 가장자리 청소 성능은 뛰어나지만 장점은 거기까지다. 배터리 수명이 매우 짧아 청소 시간이 이해할 수 없을만큼 길다. 소음이 심하고 장애물 감지 기능이 떨어져 가끔씩 걸리거나 경로에 있는 작은 물체를 삼켜버리기도 한다. 게다가 기능을 고려하면 경쟁사 제품에 비해 가격대가 지나치게 높다. 기존 다이슨 제품과 달리 매우 실망스럽다. 사양 모델 : 360 비스 네브 테스트 기간 : 2023년 11월 브랜드 : 다이슨 실행 시간 : 최대 32분 충전 시간 : 2시간 45분 흡입력 : 65AW(다이슨은 진공 성능을 파스칼 단위로 표시하지 않는다) 먼지통 용량 : 0.5리터 HEPA 필터 : 있음 매핑 및 네비게이션 : 카메라 기반 통신 : 와이파이 연동 앱 : 있음 매핑 기능 : 있음 방 구분 기능 : 있음 구글 어시스턴트/아마존 알렉사/애플 홈킷 호환 여부 : 호환/호환/비호환 로봇 청소기 크기 : 330×320×99mm 미국 가격과 출시일 : 미정 editor@itworld.co.kr
더 프레임은 독특한 무광 화면과 클립형 액자 베젤 덕분에 벽에 걸면 예술 작품으로도 활용할 수 있는 삼성의 4K 스마트 TV이다. 동시에 대형 TV의 기본기에 있어서도 타협하지 않은 뛰어난 사양의 QLED다. 2023년형 더 프레임의 변화는 크게 눈에 띄지 않기 때문에 자세히 들여다봐야 한다. 일단 라이프스타일 스크린 중 유일한 1080p HD 버전인 32인치 더 프레임은 모션 센서가 추가되고 메모리 용량이 증가한 덕분에 향상된 아트 모드 경험을 제공한다. 43인치부터 시작하는 4K 더 프레임의 경우 가장 큰 개선점은 소비 전력이다. 그렇다면 화질은 어떨까? 지금부터 최신 더 프레임을 살펴보자. 디자인과 구성 맞춤형 가능한 베젤 무광 화면 120Hz HDMI 지원 포장을 벗겨내면 더 프레임은 다른 삼성 플랫 TV와 매우 비슷하다. 슬림한 검은색 플라스틱 베젤이고, AV 수납장에 세워 거치할 수 있는 슬롯인 다리가 포함돼 있다. 전체적으로 슬림하지만 풀 어레이 LED 백라이트여서 놀라울만큼 슬림한 것은 아니다. 디자인 측면에서 이 제품은 아트웍 스타일의 프레임을 추가해야 완성된다. 제품명이 더 프레임이기도 한 이유다. 이번 시즌에 새롭게 선보이는 모던한 메탈 프레임을 포함해 다양한 프레임이 있다. 삼각대 스타일의 스튜디오 스탠드를 원한다면 추가 비용을 내고 구매하면 된다. 연결은 외장 원 커넥트(One Connect) 박스를 통해 이루어진다. 모든 것이 TV 뒷면이 아닌 여기에 꽂힌다. 하나의 연결로 원 커넥트 박스에서 화면으로 영상, 사운드, 전원을 연결할 수 있다. 4개의 HDMI(HDMI 3은 eARC 호환), 디지털 광 오디오 출력, 듀얼 밴드 와이파이와 함께 제공되는 이더넷, 2개의 USB 포트, 필요한 경우 CI 카드 슬롯이 있다. 지상파 또는 위성 튜너도 선택할 수 있다. 더 프레임의 리모콘은 태양열로 작동하는 블루투스 컨트롤러, 표준 리모콘 등 2가지다. 두 리모컨 모두 프라임 비디오, 넷플릭스 및 삼성 TV 플러스(영국 모델 기준) 바로 가기 버튼이 있다. 사양과 기능 타이젠 스마트 TV 플랫폼 게임 허브 아트 스토어 더 프레임은 스마트 기능이 뛰어나다. 삼성의 타이젠 OS가 적용됐고, 삼성의 자체 IP 채널, 전용 게임 허브, 스마트싱스 대시보드 등 다양한 스트리밍 서비스를 제공한다. 빅스비, 구글 어시스턴트 또는 아마존 알렉사를 통한 음성 제어는 물론 애플 에어플레이도 지원한다. 스마트폰 시청 모드에는 멀티뷰 및 화면 미러링이 가능하다. 타이젠 OS는 매우 직관적이고, 앱 바가 잘 정리돼 있으며, 여러 개의 레일로 콘텐츠를 제공하므로 원하는 프로그램을 쉽게 찾을 수 있다. 앰비언트 모드에는 다양한 정지 이미지와 애니메이션이 포함된 JPEG 갤러리가 있지만, 이 제품을 제대로 활용하려면 다양한 라이선스 예술 콘텐츠를 제공하는 삼성의 아트 스토어 서비스(월 5.99파운드/3.99파운드)를 구독해야 한다. 테이트 미술관의 최고 작품이나 계절에 맞는 작품을 집안에서 감상할 수 있다. VRR, HDR 및 입력 지연과 같은 관련 게임 정보를 오버레이 하는 전용 게임 메뉴도 있다. 게임 모드 설정에 들어가보면 원본과 추가적인 화질 향상을 위해 약간의 처리를 하는 게임 모션 플러스의 2가지가 있다. 입력 지연은 게임 모드에서 10.7 ms(1080p/60fps), 게임 모션 플러스에서 13.7ms(1080p/60fps)이다. 화질 밝은 HDR 전력 소모 감소 HDR10+ 이번 2023 더 프레임 에디션에서 화질이 크게 향상되기를 기대했다면 실망할 것이다. 더 프레임 2022와 매우 비슷하다. 성능 향상은 이미지 처리보다는 전력 소비의 개선과 관련이 있다. 2022년형, 2023년형 모두 (영국) 에너지 소비량 기준 ‘G’ 등급이지만, 테스트한 2023년형 55인치 프레임은 2022년형 모델의 103kWh/1000시간에 비해 84kWh/1000시간을 소비한다. 전력 소비를 개선하면서도 이미지 품질이 희생하지 않았다. 기본 스탠다드 설정에서는 화질이 특유의 밝고 풍부한 색상을 유지한다. 쨍한 느낌의 더 밝은 화면은 아니지만 삼성의 일반 QLED 모델과 비교해도 손색이 없다. 더 프레임의 시각적 매력 중 하나는 무광 디스플레이이다. 무광 디스플레이는 반사를 흡수해 디지털 아트워크를 더 회화적인 느낌으로 감상할 수 있게 한다. 특히 앰비엔트 조명이 낮은 실내에서 시청하면 블랙 레벨 성능이 매우 뛰어나게 느껴진다. 반면 완전히 어두운 방에서 시청하면 백라이트가 작동하는 것을 볼 수 있다. 을 시청하는 동안 와이드스크린 화면의 레터박스 막대가 약간 회색으로 표시됐다. HDR, HLG 및 HDR10+는 모두 지원하지만 돌비 비전은 빠졌다. 음질과 가격 40W 파워 OTS (Object Tracking Sound) 돌비 애트모스 오디오 성능은 40W의 앰프와 2.0.2 구성의 4중 스피커로 강화됐다. 크게 기대했던 부분이 아닌데, 기대 이상의 청취 경험을 제공했다. 특히 스피커 드라이버를 화면 아래쪽과 위쪽에 배치하는 OTS 시스템은 움직임을 청각적으로 잘 표현한다. 일상적인 음악 감상이나 영화 감상에서는 놀라울 정도다. 사운드바를 추가하면 깔끔한 벽걸이형 모델이라도 화면의 갤러리 스타일이 오히려 손상된다. 미국 기준 더 프레임은 32- 43-, 50-, 55-, 65-, 75- 및 85-인치 화면 크기로 (모델명은 각각 QN32LS03CBFXZA, QN43LS03BAFXZA, QN50LS03BAFXZA, QN55LS03BAFXZA, QN65LS03BAFXZA, QN75LS03BAFXZA, QN85LS03BAFXZA), 가격은 599달러, 999달러, 1,299달러, 1,499달러, 1,999달러, 2,999달러와 4,299달러다. 여전히 강력 추천하는 라이프스타일 스크린 2023년형 더 프레임은 무난한 업데이트다. 전력 소모는 줄었지만 화질과 사운드는 이전 제품과 거의 같다. 무광 화면의 디지털 아트워크는 놀라울 정도로 인상적이다. 또한 이 제품에는 최신 타이젠 OS 형태의 세련된 스마트 플랫폼이 함께 제공된다. 다양한 스트리밍 서비스 외에도 스마트싱스 장치를 제어할 수 있는 편리한 대시보드가 있다. 돌비 비전을 지원하지 않는 것은 아쉽지만, 제품 특성상 홈 시네마 팬을 위한 제품은 아니므로 이는 큰 흠이 아닐 수 있다. 개선된 에너지 효율성만으로도 필자는 여전히 더 프레임의 팬이다. 이 라이프스타일 스크린을 여전히 강력하게 추천한다. 사양 QLED LCD 디스플레이 테크놀로지 해상도 : 3840×2160 4k 크기 : 1238(w)×701(h)×25(d)mm 무게 : 16.4kg HDMI : x4 HDR 지원 : HDR10+, HLG, HDR10 타이젠 스마트 플랫폼 프리뷰 튜너 editor@itworld.co.kr
크롬북은 개선을 거듭하고 있다. 새로운 크롬북 플러스(Chromebook Plus) 제품군은 하드웨어, 1080p 웹캠, AI 기능을 갖춰 출시됐다. 모두 최근에는 표준으로 자리 잡은 기능이며, 필자도 여기에 동의한다. 2011년 첫 출시 이후 먼 길을 걸어온 크롬북은 이제 간편한 일상생활용 노트북으로 안성맞춤인 제품으로 발전했다. 에이서의 크롬북 플러스 515가 특히 그렇다. 믿을 만한 성능부터 즐거운 타이핑 경험까지 에이서 크롬북 플러스 515는 일상생활에 많은 것을 선사할 것이다. 지연 시간이 전혀 없이 탭에서 탭으로 쉽게 이동할 수 있다. 음질은 위쪽을 향한 스피커 덕분에 선명하다. 디자인 면에서 결여된 요소가 있고 디스플레이 베젤이 필자가 선호하는 것보다 두껍기는 하지만, 장점이 단점을 압도한다고 말할 수 있다. 특히 399.99달러(약 52만 8,000원)라는 가격이 가장 큰 장점이다. 500달러 이하 노트북으로는 전혀 나쁘지 않다. 세부 사양 리뷰에 사용한 제품은 인텔 코어 i3-1215U CPU, 인텔 UHD 그래픽, RAM 8GB, SSD 128GB 사양이다. 소셜 미디어를 살펴보고 이메일을 확인하는 등의 일상생활에는 충분한 성능이다. 엄청난 게임용 노트북은 아니지만, 원래 크롬북은 게임 외 용도로 설계된 제품이다. 제 역할과 399.99달러라는 가격표에 충실하다. 저장 공간은 조금 부족할지도 모르지만, 필자처럼 대부분 파일을 클라우드에 저장하는 사람에게는 큰 영향을 미치지 않는다. 재조립이나 업그레이드는 불가능하다. 나중에 사양이 다른 크롬북을 구입해야 한다. CPU : 인텔 코어 i3-1215U 그래픽 : 인텔 UHD 그래픽 메모리 : 8GB RAM 디스플레이 : 15.6인치, 16:9 화면비 스토리지 : 128GB SSD 웹캠 : 60fps에서 1080p 연결성 : USB-A 1개, USB-C 2개, HDMI 1개, 헤드폰잭 1개 배터리 사용 시간 : 최대 13시간 무게 : 3.7파운드(약 1.68kg) 가격 : 399.99달러(약 52만 8,000원) AI 및 기타 기능 새로운 AI 도구 모음은 꼭 필요한 것은 아니지만 매우 흥미롭다. 하루 중 배경화면이 여러 번 바뀌면서 업무 혹은 다른 작업 중간에 즐거운 배경화면 경험을 제공한다. 웹캠에서 영상과 사진을 찍을 때 조명을 개선할 수도 있다. 생성형 AI를 통해 배경화면과 화상회의 배경 이미지를 만드는 기능은 아직 사용할 수 없지만, 막상 사용할 수 있게 되더라도 조심스러울 듯하다. 얽히고 싶지 않은 AI 이미지 도용의 애매한 경계선에 있기 때문이다. 디자인 및 만듦새 에이서 크롬북 플러스 515가 디자인적으로는 절대 1등일 수 없다는 점을 인정한다. 노트북 시장에서 흔히 볼 수 있는 진회색 사각형 제품과 잘 섞이는 디자인이다. 밝은 회색 부분과 진회색 부분 삼각형이 만나는 섬세한 패턴은 보는 재미가 있다. 아주 흥분되는 디자인은 아니지만 사용자의 신경에 거슬리지도 않는다. 사무실 책상에서 사용하는 제품이라면 이처럼 실용적인 디자인일수록 환영받기 마련이다. 제품의 완성도는 500달러 미만 노트북이라는 점을 고려할 때 매우 인상적이다. 화면 모서리에는 약간의 굴곡이 있고 키보드 상판은 단단해서 손으로 눌렀을 때도 굴곡이 생기지 않는다. 무게는 3.7파운드로 상대적으로 가볍다. 역대 가장 가벼운 제품은 아니지만 꼭 그럴 필요는 없다. 디스플레이, 키보드, 트랙패드 에이서 크롬북 플러스 515의 15.6인치 1080p 디스플레이는 괜찮지만, 훌륭한 수준은 아니다. 밝기는 250니트 정도밖에 되지 않아 유튜브나 넷플릭스를 볼 때 계속 밝기를 조정해야 했다. 화질은 일상적인 용도와 생산성 작업에 충분할 정도로 섬세했다. 시각적으로나 내용적으로나 매우 어두운 넷플릭스 드라마 ‘어셔가의 몰락(The Fall of the House of Usher)’을 시청할 때도 화면의 명암비가 만족스러웠다. 그러나 베젤, 특히 화면 상하단의 베젤 폭이 넓어 아쉬웠다. 키보드는 공간도 넓고 우수하다. 타이핑 경험은 에이서 크롬북 플러스 CX34와 비슷할 정도로 우수했다. 손가락 밑의 키 반동은 탄력이 있었고 적응에도 많은 시간이 걸리지 않았다. 각 키는 다른 크롬북보다 넓적해 손이 큰 사용자에게도 이상적이다. 트랙패드는 키보드 하단의 정중앙에 위치해 만족스러웠다. 다른 리뷰에서도 여러 번 언급했지만 트랙패드 위치가 중앙에서 벗어나 있으면 손바닥이 트랙패드를 스치면서 오입력이 일어날 수 있다. 에이서 크롬북 플러스 515는 필자의 탭과 밀기를 잘 인식했고 누를 때마다 경쾌한 소리를 냈다. 연결성, 웹캠, 스피커 에이서 크롬북 플러스 515의 연결성 선택지는 나쁘지 않지만, 일부 사용자에게는 조금 모자랄 수 있다. USB-C 포트 2개, USB-A 1개, HDMI 1개, 헤드셋 잭이 1개 탑재돼 있다. USB-A 포트가 1개 이상이었다면 더 좋았겠지만, 허브를 사용하면 된다. 게다가 원격으로 일하고 노트북과 데스크톱 PC를 보유한 사람으로서 사무실에서만큼 연결성이 많이 필요하지는 않았다. 최근 크롬북 플러스 기기 전반에서 표준이 된 1080p 웹캠이 탑재됐다는 점이 마음에 든다. 동영상이 흐릿하거나 거칠어 보이지 않아서 집에서 일하고 화상회의에 자주 참여하는 필자에게는 완벽했다. 색 표현력은 역대 가장 뛰어난 수준은 아니다. 필자가 입었던 진홍색 스웨터는 실제보다 탁하게 보였다. 웹캠에 물리적인 가리개가 있다는 것도 장점이었다. 키보드 양옆에 위치한 스피커는 위쪽 방향을 보고 있는 덕에 놀라울 만큼 음질이 좋다. 하우스 오브 러브(The House of Love)의 앨범을 들었을 때 케이스 부시의 매력적인 음색이 생생하면서도 이색적으로 들렸다. 이상한 울림은 들리지 않았지만, 베이스 소리는 포착하기 어려웠다. 그러나 이는 노트북 오디오의 일반적인 특징이다. 사운드바 별도의 스피커와 동일한 수준의 음질을 기대하기는 어렵다. 성능 에이서 크롬북 플러스 515의 사양은 그다지 인상적이지 않다. 인텔 코어 i3 프로세서는 결국 브라우저 기반 작업용으로 설계됐기 때문이다. 그러나 일상적인 용도의 노트북으로 에이서 크롬북 플러스 515의 성능은 매우 훌륭하다. 부팅과 전원 종료 속도가 매우 빠르고 탭에서 탭으로 이동할 때 전혀 지연을 느끼지 못했다. 베이스마크 웹 3.0 테스트에서 에이서 크롬북 플러스 515는 1313.43점을 얻어 에이수스 크롬북 플러스 CX34를 앞섰다(베이스마크 웹 3.0 벤치마크는 웹 기반 애플리케이션이 얼마나 원활하게 돌아가는지 측정한다). CrXPRT 2에서는 169점이라는 낮은 점수를 받았다. 플러스 CX34의 181점보다 뒤처졌지만, 두 크롬북을 직접 사용할 때는 아무런 차이를 느끼지 못했다. 두 제품은 실생활 용도에서 매우 유사한 성능을 보였다. 다음은 에이서 크롬북 플러스 515의 브라우저 기반 벤치마크 점수다. CrXPRT 2 : 169점 스피도미터(Speedometer) : 116점 베이스마크 웹 3.0(Basemark Web 3.0) : 1313.43점 크라켄(Kraken) : 504.7ms 제트스트림 2(Jetstream 2) : 248.98점 배터리 사용 시간 배터리 사용 시간도 훌륭하지만 사용 시간이 더 긴 크롬북도 있다. 에이수스 크롬북 CM34 플립을 예로 들면 한번 충전으로 19시간 동안 사용할 수 있다. 크롬북 플러스 515는 13시간을 기록했다. 충분히 긴 결과이므로 실망할 필요는 없다. 밝기를 50으로 설정하고 배터리 벤치마크 테스트를 했다는 점도 고려하라. 화면 밝기를 더 높인다면 사용 시간은 더 줄어들 것이다. 에이서 크롬북 플러스 515, 구입해야 할까? 유일한 단점은 디자인이 예쁘지 않다는 것뿐인데, 정말 큰 단점이다. 에이수스 크롬북 플러스 CX34는 아이보리 색상의 섀시에 조명이 들어오는 키보드를 갖춰 훨씬 아름답다(최소한 필자의 눈에는). 그러나 에이서 크롬북 플러스 515의 성능은 믿을 수 있고, 결국 가장 중요한 것은 성능이다. 아름다움은 표면적인 것일 뿐이다. 13시간의 배터리 사용 시간은 크롬북으로서는 평균이지만, 오랫동안 콘센트에서 떨어져 있어야 하는 정도가 아니라면 충분할 것이다. 강력한 성능, 뛰어난 스피커, 1080p 웹캠은 에이서 크롬북 플러스 515를 선택할 만한 훌륭한 이유다. editor@itworld.co.kr
많은 사람이 며칠에 한번씩 충전해야 하는 IT 기기를 여러 가지 사용하면서 멀티포트 충전기의 인기도 함께 높아지고 있다. 특히 애플 기기는 거의 하루에 한번은 충전해야 한다. 맥북 사용자라면 최소 65W 이상을 지원하는 USB-C 충전기를 사용하는 것이 좋다. 애플은 12코어 14인치 맥북 프로에 100W 충전기를 권장한다(정작 제품 패키지에는 96W 충전기가 들어 있다). 맥북 프로 10코어 기본 모델에도 67W 충전기가 포함돼 있다. 단, 주의 해야 할 것은 충전기 사양이 총 출력이라는 사실이다. 즉, 100W 멀티포트 충전기라고 해도 다른 포트에서 아이폰이나 에어팟, 애플 워치 같은 것을 충전하면서 맥북에도 연결하면 100W를 온전히 공급하지 못한다. 유그린(Ugreen)의 넥소드 GaN 제품군은 다양한 멀티포트 충전기로 구성돼 있다. 그중 하나가 바로 여기서 리뷰하는 유그린 넥소드 100W 투인원 GaN 데스크톱 충전기다. GaN은 질화갈륨(Gallium Nitride)을 의미한다. 일반 실리콘보다 더 효과적으로 높은 전압을 처리한다. GaN을 이용하면 발열로 인한 에너지 손실을 줄이고 더 빠르게 충전할 수 있다. 따라서 GaN 충전기는 일반적인 충전기보다 더 높은 전력을 공급하면서도 크기가 훨씬 작다. 디자인 유그린 넥소드 100W 투인원 GaN 데스크톱은 세로로 긴 소형 USB-C 충전기다. 총 출력 전력이 높고, 아이폰 12~15 맥세이프를 무선 충전을 지원한다. 제품 크기는 높이 9.2cm, 가로와 세로는 6cm다. 크기 자체만 보면 휴대가 가능할 것 같지만 무게가 상당해서 주머니에 넣기는 힘들다. 또한 전기 콘센트에 바로 꽂을 수 있는 제품이 아니고, 2m 길이의 전원선이 별도로 들어 있다. 색상은 스페이스 그레이이고, 맥세이프 패드는 검정이다. 기능 유그린 넥소드 100W 투인원 GaN 데스크톱은 충전기이므로 역시 가장 중요한 사양은 전력이다. 2x 100W USB-C 1x 22.5W USB-A 15W 맥세이프 무선 지원하는 총 전력은 100W이므로, 16인치 맥북 프로를 사용하면서도 충분히 충전할 수 있다. 맥북 에어를 기준으로 하면 2대를 동시에 충전할 수 있다. 포트는 3개다. USB-C 2개는 모두 100W를 지원하고 USB-A 포트 1개는 22.5W다. USB-A가 전력이 낮아보여도 아이폰 고속 충전도 충분하다. 애플 워치나 다른 헤드폰을 충전하는 데도 문제가 없다. 넥소도 100W 투인원 데스크톱 충전기에서 가장 눈에 띄는 부분은 상단이다. 애플 인증을 받은 맥세이프 무선 충전 패드가 달려 있다. 맥세이프 호환 패드가 7.5W로 제한된 반면, 이 제품은 15W로 충전할 수 있다. 마그네틱 패드는 그 자체로 세련되지만, 기능은 더 유용하다. 거의 90% 가까이 세울 수 있어서 일종의 아이폰 스탠드로도 쓸 수 있다. 아이폰을 가로는 물론 세로 방향으로도 붙여 놓을 수 있고, 원하는 각도로 조절할 수 있다. 가로 방향에서는 iOS 17의 새로운 스탠바이 모드가 완벽하게 작동한다. 전체적으로는 USB 포트 3개와 맥세이프 패드 등을 통해 기기를 총 4대까지 동시에 충전할 수 있다. 예를 들면 맥세이프 패드에서 15W로 아이폰을 충전하면서, USB-C 포트 45W로 맥북을 사용하고, 다른 USB-C 포트에서는 25W, USB-A 포트에서는 10W 전력을 쓰는 식이다. 가장 자주 사용할 포트는 아마도 맥북용 65W와 아이폰용 15W일텐데, 포트가 넉넉하게 달려 있어 여러 용도로 쓸 수 있다. 15W 애플 인증 맥세이프를 사용하면 충전 속도가 빠르면서도 무선의 편리함을 함께 누릴 수 있지만, 유선만큼 빠른 정도는 아니다. 대신 USB-C 포트를 사용하면 더 빠르게 충전할 수 있다. 참고로 USB-A 포트는 전력이 22.5W이지만 고속 충전을 지원하지 않는다. 여러 기기 사용자라면 누구나 좋아할 제품 유그린 넥소드 100W 투인원 GaN 데스크톱 충전기는 179.99달러로 저렴하지 않다. 하지만 아이폰을 2배 빠르게 충전할 수 있고 다양한 방식의 스탠드로 사용할 수 있는 장점이 있다. 시중에는 앤커 프라임 100W GaN 등 다양한 100W USB-C 3포트 멀티포트 충전기가 있고 넥소도에서도 4포트짜리 100W USB-C 충전기를 75달러에 판매하지만 이들 제품에는 맥세이프 충전 기능이 없고 아이폰을 거치할 수도 없다. 유그린 넥소드 100W 투인원 GaN 데스크톱은 매력적인 소형 데스크톱 USB-C 충전기다. 강력한 충전 포트가 3개 달려 있고 애플 인증을 받은 15W 맥세이프 패드가 있어서 충전하면서도 스탠드처럼 사용할 수 있다. 가격이 다소 부담될 수 있지만, 여러 기기를 사용하는 사람이라면 누구나 좋아할 만한 제품이다. editor@itworld.co.kr
시놀로지는 NAS 신제품을 자주 내놓지 않는다. DS220j에서 새로운 DS223j가 나오기까지도 2년 6개월이 넘게 걸렸다. 이전 제품과 같은 케이스를 사용하는 새로운 DS223j는 발전 속도가 더딘 시놀로지 NAS의 장점은 물론 그 한계까지 고스란히 유지하고 있다. CPU는 이전 모델보다 미미하게 나은 수준이고 메모리는 늘었지만, 1GbE LAN 포트는 같고 드라이브 용량과 SSD 사용시 제한도 그대로다. 대신 최신 7.2 DSM 운영체제와 시놀로지의 훌륭한 앱을 사용할 수 있는 것은 장점이다. 그렇다면 테라마스터(TerraMaster), 아수스토어(Asustor), QNAP 등 더 많은 기능을 지원하는 경쟁 제품 대비 DS223j의 장점은 무엇일까? 이미 시놀로지 제품을 가진 기존 사용자를 겨냥한 틈새 제품일까? 지금부터 DS223j를 자세히 살펴보자. 디자인과 만듦새 새로운 스타일 적용 없음 드라이브 트레이 없음 드라이브 장착하려면 제품 분해 필요 DS223j에는 새로운 스타일이 적용되지 않았고 외관은 전면에 인쇄된 작은 로고 정도만 제외하면 DS220j와 같다. 시놀로지 DS223j는 테라마스터 F2-212와 달리 드라이브 트레이가 없거나 외부에서 베이에 접근할 수 없으므로 드라이브를 장착하려면 반드시 분해해야 한다. 내부에는 3.5인치 SATA드라이브 2개를 장착할 수 있는 간단한 금속 프레임이 있지만 2.5인치 드라이브를 사용할 부품이 따로 제공되지 않는다. 필요한 추가 액세서리인데도 빠진 것은 아쉽다. 드라이브 교체 작업은 자주 있는 작업이 아니므로 대부분은 큰 문제가 아니다. 그보다 용납하기 어려운 점은 2.5인치 드라이브를 사용하려면 공식 시놀로지 2.5인치 디스크 홀더 타입 C(Disk Holder Type C)를 추가로 구매해야 한다는 점이다. 타사의 2베이 NAS가 대부분 3.5인치와 2.5인치를 둘 다 기본적으로 지원하는 것과 대조적이다. 드라이브 장착 이외에는 내부를 뜯어봐야 할 이유가 없다. 이 제품의 RAM은 메인보드에 납땜 되어 있어 SODIMM 확장이나 기타 내부 업그레이드가 불가능하다. 여기서 알아야 할 중요한 사실이 또 있다. 시놀로지는 소기업 사용자가 고사양 NAS 대신 저렴한 DS223j를 구매하기를 원치 않는 것이 분명해 보인다. 즉, DS223j가 너무 유용한 제품이 되기를 바라지 않는 것이다. 계속 살펴 보겠지만, 이미 있는 기능도 '어쩔 수 없이' 의도한 것보다 더 많이 넣을 것일 수 있다. 사양과 기능/특징 리얼텍(Realtek) 1619B SoC 3.0 USB 포트 2개 기가비트 LAN만 있음 공식 SSD 지원 부재 DS223j의 리얼텍 1619B는 테라마스터 F2-212에 사용된 것과 같은 ARM 기반의 SoC이며 TV 박스 전용으로 설계됐다. 코텍스-A55(Cortex-A55) 마이크로아키텍처를 기반으로 제작된 기본적이지만 효과적인 쿼드코어 칩으로 각 코어의 성능은 1.3GHz다. 이론적으로 그 SoC의 최고 메모리 용량은 4GB이지만 DS223j는 1GB만 지원한다. 그래도 RAM이 512MB에 불과했고 SoC 성능도 부족했던 DS220j에 비하면 DS223j는 시놀로지의 기본형 듀얼 베이 NAS 중 최초로 더 많은 RAM 용량을 제공한다. 메모리는 보통 다다익선이고 1GB가 그렇게 많은 것은 아니지만, 최근 출시된 DSM 7.2 버전과 필수 앱을 실행하기에는 충분하다. SoC는 2개의 USB 포트도 제공하는데 둘 다 USB 3.2 1세대 사양이다. 따라서, 외장 저장장치와 NAS 사이에 초당 최대 1,000MB를 전송할 수 있다. 단, 전통적인 하드 드라이브는 이런 성능을 낼 수 없다. 두 포트 모두 NAS 후면에 있으며 외부 드라이브에서 NAS로 전송하는 버튼은 없다. 시놀로지는 NAS마다 잘 호환되는 드라이브 제품 목록을 제공한다. DS223j의 경우 시놀로지 브랜드의 최대 12TB(시놀로지에서 제공하는 최대 용량) 메커니즘과 시게이트(Seagate), 웨스턴 디지털(Western Digital), 도시바(Toshiba)에서 제작한 최대 16TB 드라이브를 사용할 수 있다. 현재 18TB, 20TB 또는 22TB는 제품은 목록에 없지만 호환성 목록이 업데이트되면 추가될 것으로 보인다. 공식적으로 총 용량은 데이터 복원 능력이 없는 구성을 가정하면 32TB, 드라이브 고장을 감수할 수 있는 사용자에게는 16TB로 제한된다. 분산 성능 모드에서 사용하면 16TB 드라이브 2개의 처리량이 초당 약 340MB에 불과하다. 그러나 DS223j는 기가비트 이더넷 포트가 하나밖에 없으므로 문제가 되지 않는다. 현실적인 최대치는 초당 약 115MB로 3.5인치 HDD 대부분의 성능보다 낮다. 시놀로지가 다소 고집스럽게 2.5GbE를 제공하지 않는 것이 점점 더 문제가 되고 있다고 할 수 있다. 더 저렴한 데스크톱 NAS도 이제 2.5GbE LAN 포트를 제공하거나 USB 어댑터를 사용해 추가할 수 있는 것이 많은 반면, 시놀로지는 대부분 일반 소비자용 제품에 1GbE 이상은 제공하지 않는다. 더구나 DS223j는 저장 또는 캐싱용 SSD를 지원하지 않는다. 필자가 테스트해보니 이 제품의 소음을 거의 없애고 싶다면 숱한 호환성 경고를 무시하고 SATA SSD를 저장장치로 사용할 수 있다. 그러나 1GbE LAN 포트밖에 없으니 초당 500MB가 가능한 SATA SSD를 사용해도 네트워크 속도가 4분의 1 수준이므로 파일 전송 용도로는 장점이 없다. 반면 로컬 처리가 중요한 작업에는 시놀로지에서 승인하지 않은 것이라도 SSD를 사용할 가치가 있을 수 있다. 경쟁 제품인 테라마스터 F2-212의 경우 기본적으로 1GbE LAN 포트가 탑재돼 있으나 USB 3.2 1세대에서 2.5GbE LAN으로 변환 가능한 공식 어댑터를 약 30달러에 판매한다. 그 어댑터를 사용하고 SSD 캐싱을 지원하는 F2-212는 DS223j의 최고 속도보다 2배 빠르게 파일을 전송한다. 시놀로지는 DS223j의 기능을 사실상 제한해 기능이 더 다양한 다른 NAS 제품과 '급나누기'를 했지만, 이 제품에는 DSM 7.2라는 숨겨둔 카드가 있다. DSM 7.2 운영체제 최신 운영체제 새로운 활용 가능성을 열어 줌 익숙하지 않은 사람을 위해 설명하자면 시놀로지 DSM은 NAS 전용으로 제작된 리눅스 기반 운영체제로 가장 성숙했다고 해도 틀린 말이 아니다. 최고의 애플리케이션이 포함됐고 현재까지 악성코드를 성공적으로 방어해 왔다. 2021년 시놀로지는 자체 NAS 운영체제의 최신판인 DSM 7.0을 공개했다. DSM 7.0은 시놀로지 NAS 제품 전체가 현재 사용하는 최신 프로세서 기술을 더 잘 활용할 수 있게 만들기 위한 3개년 개발 프로젝트의 결과였다. 그러나 DSM 7.0에는 문제가 있었다. 완전한 경험을 누리려면 메모리가 더 필요했고, 기본형 모델 중 일부는 512MB의 RAM으로 DSM 7.0을 실행할 수는 있지만, 이용 가능한 앱은 1GB 또는 2GB의 시놀로지 NAS가 사용할 수 있는 것보다 줄었다. 그 이후 시놀로지는 DSM 7.0에 내재된 여러 문제를 해결하기 위해 노력했고 최근 최신판 7.2를 내놓았다. 바로 DS223j가 사용할 수 있는 버전이다. 여기에 1GB의 RAM을 결합한 결과, DS220j를 비롯한 이전 버전의 2베이 NAS에서는 이용할 수 없었던 완전히 새로운 앱을 DS223j에서는 사용할 수 있게 됐다. 이런 앱 중 대표적인 것이 도커(Docker)의 컨테이너 매니저(Container Manager)다. 컨테이너를 실행할 수 있으면 기본 파일 서버가 소프트웨어 개발 시스템의 최전방으로 바뀌므로 NAS의 기능을 크게 확장할 수 있다. 시놀로지 드라이브 서버(Synology Driver Server), 시놀로지 오피스(Synology Office), 유니버설 뷰어(Universal View)의 베타 버전을 이용하면 DS223j를 업무 시스템으로도 충분히 사용할 수 있다. 이는 기존 시놀로지 기본형 NAS와 비교하면 뜻밖의 개선이다. 사용자 경험을 고사양 제품에 '가깝게' 높여주고, 더 많은 기능을 제공하는 고급 제품의 장점을 알려주는 것이기도 하다. 성능 단일 기가비트 LAN 1GB 메모리 SSD 사용 DS223j의 가장 큰 성능 제약 요인은 1GbE LAN 포트다. 시놀로지는 이 대역폭 한계를 극복할 수단을 전혀 지원하지 않아 최대 파일 전송 속도가 초당 115MB로 제한된다. 여러 명이 동시에 사용하면 속도가 더 느려져, 사용자가 많을수록 각 사용자에게 돌아가는 속도는 낮아진다. 시놀로지의 2베이 NAS 중 가장 저렴한 이 제품의 한계다. 그렇다고 해도 DS223j는 이전 2베이 모델과 다르다. 4코어 SoC와 1GB RAM이 결합해 더 견고한 시스템이 만들어졌다. 잘못된 작업 하나로 NAS가 사용불능 상태가 되는 경우가 더는 없다. 예를 들면, 예전에는 플렉스(Plex)나 비디오 스테이션(Video Station) 같은 도구를 사용하면 다른 애플리케이션을 함께 실행할 수 없었지만, DS223j에서는 하나 이상의 애플리케이션을 설치하고 원활히 쓸 수 있다. RAM 성능에는 제한이 있지만 이 문제는 여러 개의 앱이 드라이브 리소스를 동시에 사용하려 하면서 SATA 드라이브에 무리를 가하는 것이 원인인 경우가 많다. 시놀로지는 권장하지 않지만 SATA SSD를 사용하면 어느 정도 해결할 수 있다. 이상적인 해결책은 대형 하드 드라이브 하나와 캐시용 SATA SSD 하나를 사용하는 것인데, DS223j에 설치된 DSM 7.2에서는 이를 지원하지 않는다. 만일 이것이 가능했다면 DS223j의 인덱싱이나 업로드 후 처리 작업 속도가 크게 빨라졌겠지만, 이는 시놀로지가 원하는 DS223j의 역할을 뛰어 넘어 훨씬 더 유용해지는 상황일 것이다. 한편 저장장치로 무엇을 사용하든 파일 전송 성능에는 큰 영향이 없다(드라이브에 오류가 있는 경우는 제외). 반면 NAS에서 파일 시스템으로 직접 진행되는 데이터 처리에는 속도가 더 빠른 드라이브와 SSD를 사용했을 때 상당히 개선될 수 있다. 전체적으로 보면 DS223j의 성능은 우수하며 이전 모델인 DS220j 또는 DS218j보다 상당히 개선됐다. DS223j의 가격은 미국 기준 189.99달러다. 비슷한 사양의 테라마스터 F2-212보다 20달러 더 비싸다. 테라마스터 F2-212는 제대로 된 드라이브 트레이도 있고 네트워크 속도를 2.5GbE까지 업그레이드할 수 있다. 반면 DS223j는 USB 포트가 더 많고 DSM이라는 우월한 운영체제가 있으므로 두 제품간 가격 차이를 어느 정도 상쇄한다. 아수스토어 AS1102T 베이 드라이브스토어 2 데스크톱 NAS(Asustor AS1102T 2 Bay Drivestor 2 Desktop NAS)와 비교하면 역시 DS223j가 10달러 더 비싸다. 아수스토어 제품은 2.5GbE가 기본으로 제공되지만 DS220j에 쓰인 것과 같은 RTD1296 쿼드코어 1.4GHz SoC를 사용한다. 이 모든 가격은 드라이브가 없는 NAS 본체만 해당되므로 어떤 NAS를 선택하든 드라이브 구매 비용이 추가로 든다는 점을 미리 염두에 둬야 한다. 다양한 시놀로지 앱이 모든 사용자에게 필요한 것은 아니고, 주로 파일 전송 작업만 관심이 있다면, 같은 비용으로 4TB 드라이브까지 포함된 WD 마이 클라우드 홈(My Cloud Home)도 대안이 될 수 있다. 100달러를 더 내면 8TB 버전을 구매할 수 있다. DS223j 가격은 2020년 초에 출시된 DS220j와 같은데 물가 인상을 고려하면 더 좋은 조건이라고도 할 수 있다. DS223j는 이미 시놀로지 제품을 사용해 온 이들에게 안성맞춤이며 2.5GbE LAN이 필요 없다면 더할 나위 없다. 반대로, 성능 향상을 위해 네트워크를 업그레이드하고 싶은 경우에는 최고의 선택지가 아니다. DS223j는 구매할만한 제품일까 이미 시놀로지 NAS를 사용하고 있다면 DS223j는 적은 비용으로 추가 구매해 DSM 7.2와 관련 앱의 훌륭한 기능 다수를 체험할 수 있는 완벽한 제품이다. 그러나, 대용량 동영상 파일 저장용 NAS가 필요하고 PC 네트워크 프로토콜이 2.5GbE 이상이라면 고민이 필요하다. 아우스토어와 테라마스터에서 비슷한 가격대에 파일 전송 속도가 2배인 제품을 내놓았고 그 중 대부분은 SSD를 저장과 캐시 용도 모두 지원하기 때문이다. 필자는 이 제품이 1GbE LAN 포트를 탑재하고 전혀 업그레이드할 수 없는 시놀로지의 마지막 2베이 NAS이기를 바란다. 그러나 지금까지 시놀로지의 이해할 수 없는 '고집'을 고려하면 장담할 수는 없다. DS223j에는 비록 빠진 부분이 있고 2.5인치 드라이브를 사용하려면 추가 비용이 들지만 그런 점을 제외하면 일반 사용자나 소기업 사용자가 NAS에서 원하는 모든 것을 갖추고 있다. 사용자 경험을 높여주는 여러 앱을 사용할 수 있다는 것도 장점이다. 주요 사양 CPU : 리얼텍 1619B GPU : ARM Mali-G51 MP3 RAM : 1GB DDR4 (업그레이드 불가) 드라이브 베이 : 2x 3.5/2.5 SATA M.2 드라이브 슬롯 : N/A 최대 드라이브 확장 : 2 USB : 2x USB 3.2 Gen 1 비디오 인풋 : N/A 레이드 타입 : 시놀로지 하이브리드 레이드(SHR), Basic.RAID 0, RAID 1, JBOD 무게 : 0.88Kg 크기 : 165×100×225.5 mm 네트워킹 : 1x 1GbE 이더넷 (100/1000) 운영체제 : DSM 7.2 내부 파일 시스템 : Btrfs, ext4 외부 파일 시스템 : Btrfs, ext4, ext3, FAT32, NTFS, HFS+, exFAT editor@itworld.co.kr
지난 수십년 동안 필자는 아침에 일을 시작하면 먼저 마이크로소프트 비주얼 스튜디오(또는 그 전의 비주얼 C++나 비주얼 인터데브 등)를 시작한 다음, 프로그램이 힘든 시작 과정을 거치는 사이 차를 내리고 아침 회의가 있다면 참석하기도 했다. 이 긴 시작 과정을 다시 거치기 싫어서 개발/테스트/디버그 작업을 하는 동안 종일 IDE를 열어 놨다. 200만 줄의 코드가 포함된 C++ 프로젝트 작업을 할 때는 새벽에 코드 체크아웃과 제품 전체 리빌드를 수행하는 배치 스크립트가 자동으로 실행되도록 해놓고 하루를 시작하기도 했다. 그런데 시간이 지나면서 비주얼 스튜디오의 시작 오버헤드도 많이 줄어서 이제는 대규모 비주얼 스튜디오 2022 프로젝트에서도 별 문제가 되지 않는 수준이다. 비주얼 스튜디오 코드의 경우 대체로 시작 속도가 빨라서 큰 프로젝트라 해도 몇 분만에 작업을 시작할 수 있다. ‘항상’이 아니고 ‘대체로’임에 주목해야 한다. 비주얼 스튜디오 코드 자체에 월별 업데이트가 필요하고, 필자가 따로 설치해둔 많은 확장 기능에도 자체 업데이트가 필요한 경우가 많다. 다만 비주얼 스튜디오 코드에서 십여 개의 확장을 업데이트하는 데 걸리는 시간이라고 해봐야 과거 비주얼 스튜디오에서 대규모 C++ 프로젝트의 기호 테이블을 리빌드하는 데 걸렸던 시간보다 짧다. 그래도 비주얼 스튜디오 코드와 비주얼 스튜디오 간의 선택을 가벼운 편집기와 무거운 IDE 간의 선택으로 간단히 정리할 수는 없다. 비주얼 스튜디오 코드는 구성의 폭이 넓고 비주얼 스튜디오는 완성도가 높다. 필요한 언어 지원 및 기능 못지않게 작업 스타일도 선택에 영향을 미치는 요소다. 두 개발 툴의 기능과 절충점을 알아보자. 비주얼 스튜디오 코드의 강점 비주얼 스튜디오 코드는 가벼우면서도 강력한 소스 코드 편집기로, 데스크톱에서 실행되며 윈도우, 맥OS, 리눅스에서 사용할 수 있다. 자바스크립트, 타입스크립트, Node.js를 기본 지원하고 다른 언어(예를 들어 C++, C#, 자바, 파이썬, PHP, 고)와 런타임(예를 들어 .NET, 유니티)을 위한 확장 생태계도 풍부하다. 비주얼 스튜디오 코드는 가벼움과 빠른 시작에 중점을 두면서 그 외에도 변수, 메서드, 가져온 모듈을 대상으로 한 인텔리센스 코드 완성, 그래픽 디버깅, 린팅, 멀티 커서 편집, 매개변수 힌트, 그리고 강력한 편집 기능과 세련된 코드 탐색 및 리팩터링, 깃 지원을 포함한 기본 소스코드 제어 기능도 제공한다. 이러한 기능 중 상당수는 비주얼 스튜디오 기술에서 가져온 것이다. 비주얼 스튜디오 코드 자체는 일렉트론(Electron) 셸, Node.js, 타입스크립트, 랭귀지 서버(Language Server) 프로토콜을 사용해서 구축되며 월 단위로 업데이트된다. 확장 기능은 필요에 따라 수시로 업데이트된다. 지원 수준은 프로그래밍 언어와 각각의 확장 기능에 따라 구문 강조 표시 및 괄호 일치부터 디버깅과 리팩터링에 이르기까지 다양하다. 언어 서버가 제공되지 않는 경우 텍스트메이트(TextMate) 컬러라이저를 통해 선호하는 언어에 대한 기본적인 지원을 추가할 수 있다. 비주얼 스튜디오 코드 리포지토리의 코드는 MIT 라이선스에 따라 오픈소스로 제공된다. VS 코드 제품 자체는 마이크로소프트만의 맞춤 기능을 일부 포함하고 있으므로 표준 마이크로소프트 제품 라이선스에 따라 제공된다. 상업용 라이선스지만 무료다. 비주얼 스튜디오의 강점 비주얼 스튜디오(현재 버전은 64비트인 비주얼 스튜디오 2022)는 윈도우 및 맥OS를 위한 마이크로소프트의 고급 IDE다(단, 2024년 8월 31일을 기점으로 맥용 비주얼 스튜디오는 단종됨). 비주얼 스튜디오에서 소프트웨어를 개발, 분석, 디버깅, 테스트, 협업 및 배포할 수 있다. 윈도우의 비주얼 스튜디오 2022에는 다양한 개발 대상을 위한 일관된 툴 및 구성요소 설치 번들인 17개의 워크로드가 있다. 워크로드는 비주얼 스튜디오 설치 프로세스의 중요한 개선 사항이다. 비주얼 스튜디오 2022 전체 다운로드 및 설치에는 몇 시간이 걸리고, 특히 SSD의 경우 디스크를 가득 채울 정도로 용량을 많이 소비하기 때문이다. 맥용 비주얼 스튜디오 2022의 경우 지원하는 대상의 수가 윈도우만큼 많지 않으므로 설치 프로그램도 윈도우 버전에 비해 덜 복잡하다. .NET으로 웹, 모바일 및 데스크톱용 개발을 할 수 있으며 유니티, 애저, 도커 지원이 기본적으로 포함된다. .NET 코어, 안드로이드, iOS, 맥 OS 대상은 선택 사항이며 뒤의 3개는 자마린(Xamarin)을 사용한다. 비주얼 스튜디오 2022는 커뮤니티(무료지만 기업용 지원되지 않음), 프로페셔널(첫 해 1,199달러, 갱신 시 799달러), 엔터프라이즈(첫 해 5,999달러, 갱신 시 2,569달러)의 세 가지 SKU로 제공된다. 엔터프라이즈 에디션에는 다른 두 SKU에는 없는 설계자용 기능과 고급 디버깅 및 테스팅 기능이 있다. 비주얼 스튜디오 또는 비주얼 스튜디오 코드, 선택은? 소프트웨어 개발 작업을 위해 비주얼 스튜디오와 비주얼 스튜디오 코드 중에서 결정하라고 하면 IDE와 편집기, 둘 중 하나를 선택하는 간단한 문제라고 생각할 수 있다. 그런데 간단한 문제가 아니다. 비주얼 스튜디오 코드도 많은 프로그래밍 언어에서 IDE에 근접한 수준으로 구성이 가능하기 때문이다. 그러나 이 구성의 유연함에는 몇 가지 타협이 따른다. 예를 들어 개발 스타일이 테스트 중심이라면 비주얼 스튜디오를 구입해서 곧바로 사용할 수 있다. 반면 비주얼 스튜디오 코드에는 Node.js와 고, .NET, PHP를 지원하는 테스트 중심 개발(TDD) 확장 기능이 15개 이상 있다. 마찬가지로, 비주얼 스튜디오는 데이터베이스, 특히 마이크로소프트 SQL 서버 및 관련 작업에서 탁월하지만 비주얼 스튜디오 코드에는 다수의 데이터베이스 확장 기능이 있다. 비주얼 스튜디오는 리팩터링을 잘 지원하지만 비주얼 스튜디오 코드는 6개 언어에 대한 기본적인 리팩터링 작업을 구현한다. 둘 중 한 개발 환경이 뚜렷하게 더 유리한 몇 가지 경우도 있다. 예를 들어 소프트웨어 설계자이며 비주얼 스튜디오 엔터프라이즈를 이용할 수 있다면 아키텍처 다이어그램에 이를 사용하기를 원할 것이다. 개발 또는 디버깅 작업에서 팀원들과 협업을 해야 한다면 비주얼 스튜디오가 더 나은 선택이다. 심층적인 코드 분석이나 성능 프로파일링을 하거나 스냅샷에서 디버깅을 해야 한다면 비주얼 스튜디오 엔터프라이즈가 유용할 것이다. 비주얼 스튜디오 코드는 데이터 과학 커뮤니티에서 인기가 높다. 그러나 비주얼 스튜디오에는 많은 기능을 제공하는 데이터 과학 워크로드가 있다. 비주얼 스튜디오는 리눅스에서 실행되지 않고 비주얼 스튜디오 코드는 실행된다. 반면 윈도우용 비주얼 스튜디오에는 리눅스/C++ 워크로드와 애저 지원이 포함된다. 비주얼 스튜디오와 비주얼 스튜디오 코드에서 모두 지원되는 프로그래밍 언어를 사용한 일상적인 개발/테스트/디버그 사이클에서의 툴 선택은 사실상 개인적인 취향의 문제다. 한 번에 몇 시간씩 개발 프로젝트 작업을 하는 편이라면 비주얼 스튜디오가 더 맞을 것이다. 짧은 시간 동안 개발에 몰두하고 다른 여러 작업을 번갈아 하는 경향이 있다면 비주얼 스튜디오 코드가 더 만족스러울 것이다. editor@itworld.co.kr
품질 좋은 모니터 암은 홈 오피스 환경을 업그레이드할 수 있는 최고의 아이템 중 하나이다. 모니터 암은 책상에서 모니터를 이동하고 배치할 때 더 많은 선택지를 제공할 뿐만 아니라 책상 공간을 확보해 다른 용도로 사용할 수 있도록 해준다. 또한 책상 환경도 더욱 깔끔하게 만든다. 단 한 가지 걸림돌은 가격이다. 대부분의 모니터 암은 200달러에 육박하며, 고강도 모니터 암은 훨씬 더 비싸다. 하지만 처음부터 제대로 된 모니터 암을 구입하는 것이 중요하며, 그래야 투자한 만큼의 가치를 얻을 수 있다. 모니터 암을 구매할 때 생각해야 할 주요 고려사항과 자주 묻는 질문, 그리고 PCWorld가 확인한 올해 최고의 모니터 암을 소개한다. 이번 테스트에는 에고트론(Ergotron), 허만 밀러(Herman Miller), 모노프라이스의 워크스트림, 화누오(Huanuo) 등의 모니터 암을 살펴봤다. 모니터 암에서 살펴봐야 할 사항 모니터 암을 구입하는 것은 일반 홈 오피스 장비를 구입하는 것과는 조금 다르다. 모니터 암은 모니터와 달리 무겁고 내구성이 강한 장비로 쉽게 구식이 되지 않는다. 또한 업그레이드 및 사용자 설정이 제한적이므로 당장 원하는 특정 기능을 지원해야 한다. 주요 고려사항은 다음과 같다. 조정 가능성 및 동작 범위. 모니터 암이 제공할 수 있는 조정 가능 범위와 동작은 매우 중요하지만, 종종 간과되는 기능이다. 모니터 암은 높이, 기울기, 좌우 회전, 상하 회전을 조정할 수 있어야 하며 도구 없이도 조정할 수 있어야 한다. 많은 모니터 암이 이 기준을 충족하지만 몇 가지 차이점이 있다. 일부 모니터 암만 360도 좌우 회전을 지원해 모니터 암의 목 부분을 어느 위치로든 회전할 수 있다. 다양한 위치에서 모니터를 사용할 수 있기 때문에 책상이 방 한가운데 있는 경우 유용하다. 저가형 모니터 암 중 대다수가 이런 조절 기능이 없고 나사로 고정하는 간단한 장력 메커니즘을 갖고 있다. 저렴하지만 한 번 조정하면 모니터의 위치가 제자리에 고정된다. 이런 방식의 모니터 암은 권장하지 않는다. 이 전략을 사용하는 마운트는 피하는 것을 권장한다. 간편한 설치 및 조정 용이성. 테스트한 모니터 암 중 설치가 어려운 제품은 없었지만, 저가형과 프리미엄 모델 간의 차이는 분명했다. 저가형 모델은 설치하는 데 더 많은 나사가 필요하고 암 조절 메커니즘의 기본 장력이 바로 사용하는 데 적합하지 않을 가능성이 크다. 조정의 용이성 또한 매우 다양하다. 이번에 테스트한 모든 모니터 암은 장력 조절을 위해 육각 렌치가 필요했지만(암이 너무 뻣뻣하거나 느슨해 보이는 경우 필요함), 일부 제품은 다른 제품보다 훨씬 더 어려웠다. 예를 들어, 허만 밀러 플로는 부드럽고 쉽게 조절할 수 있는 반면, 워크스트림은 상당한 힘을 줘야 돌릴 수 있었다. 케이블 관리. 깔끔하고 정돈된 책상을 중요하게 생각한다면 적절한 케이블 관리가 중요하다. 하지만 이 부분은 가격과 비례하지 않는 디자인 요소이다. 허만 밀러 플로는 기본적인 케이블 관리 기능만을 제공하는 반면, 워크스트림은 케이블을 잘 숨겨준다. 한편으로는 허만 밀러 플로는 기본적인 구성이라도 모니터를 움직일 때 케이블이 엉킬 가능성이 가장 작아 보였다. 케이블 관리가 유용하긴 하지만, 이번에 테스트한 어떤 모니터 암도 고급 USB-C 모니터까지 연결할 수 있도록 모든 케이블을 처리할 수 있는 제품은 없었다. 이는 제조업체가 개선할 수 있었던 모니터 암 설계의 한 측면이다. 최대 지원 크기 및 무게. 사용하는 모니터를 지탱할 수 있는 모니터 암을 구입하는 것이 중요하다. 24인치 또는 27인치 모니터라면 큰 문제가 되지 않지만, 그래도 모니터 암을 구입하기 전에 모니터의 무게를 다시 한번 확인하는 것이 좋다. 모니터 무게에는 스탠드가 빠진다는 점도 잊지 말자. 32인치, 34인치, 49인치 이상의 대형 모니터는 다루기가 더 어려우며, 튼튼한 모니터 암으로 업그레이드해야 할 수도 있다. 모니터 크기 제한도 중요하다. 32인치 모니터용 암에 40인치 모니터를 부착할 수도 있고, 40인치 모니터가 모니터 암의 제한 무게 내에 들어올 수도 있다. 하지만 모니터가 크면 무게가 다르게 분산되어 암의 장력 메커니즘이 고장 날 수 있다. 모니터 암 테스트 방법 이번 테스트는 PCWorld 사무실과 필자의 집에서 직접 테스트했다. 우선, 각 모니터 암의 품질, 설치 용이성, 조정 범위를 조사해 제조업체의 주장에 부합하는지 확인했다. 암 테스트에 사용하는 모니터는 시간이 지남에 따라 달라질 수 있지만 일반적으로 27인치 및 32인치 와이드스크린 모니터를 하나 이상 포함했다. 고부하 등급의 모니터 암은 무게가 9kg 이상인 모니터를 최소 한 대 이상 사용해 테스트했다. 2023년 최고의 모니터 암 : 어고트론 LX 어고트론 LX는 대다수 모니터를 다룰 수 있는 견고하고 실용적인 모니터 암이다. 설치가 쉽고 사용하기 쉬우며, 흰색 또는 광택 알루미늄 모델은 외관도 매력적이다. 어고트론은 LX를 보급형 모니터 암으로 내세우고 있지만, 이 회사의 ‘보급형’에 대한 정의는 경쟁업체와는 조금 다르다. 이 제품은 주로 금속으로 제작됐으며 일부 플라스틱 클래딩이 적용된 정도이다. 최대 25파운드 무게의 모니터를 지탱할 수 있다. 어고트론은 34인치 이하의 모니터를 사용할 것을 권장하며, 보증기간은 무려 10년이다. 어고트론 LX는 13인치, 75도 기울기, 360도 상하 회전, 360도 좌우 회전을 포함한 적절한 조절 범위를 가지고 있다. 허먼 밀러 플로만큼 부드럽지는 않지만 일어서지 않고도 모니터 암을 왼쪽, 오른쪽, 앞뒤로 조절할 수 있다. 설정은 간단하다. 모니터에는 클램프와 그로밋 마운트가 포함되어 있다. 번들로 제공되는 육각 렌치로 대부분 설치가 가능하지만, 모니터를 VESA 마운트에 부착하려면 십자드라이버가 필요하다. 24~27인치 소형 모니터는 혼자 충분히 설치할 수 있지만, 그 이상의 대형 디스플레이라면, 다른 사람의 도움을 받을 것을 권장한다. 심각한 결함은 없다. 물론 몇 가지 아쉬운 점이 있다. 클램프가 더 작을 수 있다고 생각한다. 흰색 색상에는 맞춘 VESA 마운트도 없다. 그리고 모니터 암의 전체적인 디자인은 약간 산업적으로 보인다. 그래도 이 마운트는 방폭형이며 200달러 미만으로 구입할 수 있다. 모니터 암 FAQ Q. 모니터 암은 살 만한 가치가 있는가? A. 모니터 암이 가격 대비 가치가 있는지는 주관적이지만, PCWorld가 추천하는 모니터 암은 투자할 만한 가치가 있다고 생각한다. 모니터 암은 스탠드보다 사용하기가 더 쉽고, 더 넓은 범위에서 조정할 수 있으며, 책상을 깔끔하게 정리할 수 있다. 또한 내구성이 뛰어나 모니터 암보다 모니터를 먼저 교체할 가능성이 높다. Q. 내 모니터와 호환되는가? A. 모든 모니터와 거의 모든 모니터 암은 VESA 마운팅 표준을 사용한다. 100x100mm 볼트 패턴이 가장 일반적이지만, 때로는 75x75mm가 대안으로 사용되기도 한다. 권장하는 모든 모니터 암은 두 가지 볼트 패턴을 모두 지원한다. 모니터가 VESA를 지원하는지 확실하지 않은가? 모니터 뒷면을 확인하라. 모니터 중앙에 VESA 마운트가 있으며, 자나 줄자로 볼트 패턴을 확인할 수 있다. 스탠드가 있는 모니터는 스탠드 목 아래에 있을 가능성이 있다. VESA 마운트가 없는 모니터도 장착할 수 있지만 VESA 어댑터를 구입해야 한다. 모니터 후면에 고정하는 커다란 X자 모양의 장치이다. Q. 내 책상과 호환되는가? A. 대부분의 모니터 암은 클램프와 그로밋의 두 가지 장착 옵션을 제공한다. 클램프 마운트는 홈 오피스에서 가장 일반적으로 사용된다. U자형 클램프가 책상 가장자리에 맞는다. 나사 메커니즘을 사용하여 고정한다. 대부분의 클램프는 손으로 조절할 수 있으며 다양한 책상에 잘 맞는다. 일부 클램프 마운트는 너무 작아서 두꺼운 책상 표면에서 작동하지 않으므로 책상 두께가 1인치 이상인 경우 모니터 암의 사양을 다시 한번 확인하는 것이 중요하다. 또한 클램프는 책상 위쪽과 아래쪽 모두에 장애물이 없는 가장자리가 필요하다. 그로밋 마운트는 회사 사무실에서 제작 및 판매되는 많은 책상에서 볼 수 있는 원형 컷아웃에 삽입된다. 그로밋 마운트도 클램프의 한 형태이지만 메커니즘의 크기가 다르며, 모니터를 책상 외부 가장자리가 아닌 내부에 부착하는 마운트이다. 거의 모든 모니터 암에는 클램프와 그로밋 마운트가 함께 제공되지만, 그로밋 마운트는 그다지 흔하지 않다. 모니터 암을 그로밋 마운트로 장착할 계획이라면 그로밋 마운트가 지원되는지 다시 한번 확인하는 것이 좋다. Q. 모니터 암이 책상을 손상시키는가? A. 모니터 암의 클램프 마운트를 사용할 경우 책상에 경미한 손상을 입힐 수 있다. 장착하거나 제거할 때 책상 표면이 긁힐 수도 있으며, 클램프를 너무 강하게 조으면 파티클보드 위에 베니어를 사용하는 책상처럼 부드러운 책상에 움푹 들어간 자국이 생길 수 있다. 유리 책상의 경우에도 문제가 발생할 수 있으므로 책상 제조업체에 문의해 모니터 암을 안전하게 사용할 수 있는지 확인하라. Q. 모니터 암은 흔들리는가? 고품질 모니터 암을 사용하면 모니터 흔들림이 최소화되지만 얇고 가벼운 책상에 모니터 암을 장착하면 일부 흔들림이 발생할 수 있다. 모니터 암을 안전한 표면에 장착하고 암의 장력을 장착한 모니터에 적합한 수준으로 조정해야 한다. Q. 아마존에서 25달러짜리 모니터 암을 구매해도 되는가? 모니터 암의 가격표는 지갑이 얇은 사용자를 겁먹게 할 수 있다. 보급형 모니터의 가격이 200달러 이하인데, 모니터 암에 150~300달러를 지출하는 것은 정당화하기 어려워 보일 수 있다. 하지만 너무 저렴한 모니터 암은 피하는 것이 좋다. 가장 저렴한 모니터 암에는 가스 피스톤이나 스프링과 같은 동적 장력 메커니즘이 없다. 35~50달러대의 일부 암은 가스 피스톤을 사용하지만 27인치 모니터를 겨우 거치할 수 있을 정도의 허술한 제품인 경우가 많다. 저렴한 모니터 암은 또한 플라스틱을 많이 사용한다. 처음부터 문제가 되지는 않겠지만, 플라스틱은 시간이 지남에 따라 부서지기 쉬워 모니터 암의 수명이 짧아질 수 있다. editor@itworld.co.kr
프로그램 하나의 소소한 개선 사항 몇 가지가 놀라울 정도로 큰 변화를 이끌어낼 수 있다. 해당 프로그램이 온갖 종류의 사이트, 앱, 정보에 접근하는 데 사용하는 브라우저라면 특히 그렇다. 안드로이드에서 사실상 기본 브라우저로 통하는 이 바로 여기에 해당한다. 여기서는 기억해 두면 좋을 안드로이드 크롬 앱의 몇 가지 유용한 기능을 소개한다. 크롬 안드로이드 기능 1 : 간편하고 빠른 페이지 전송 안드로이드에는 윈도우 컴퓨터를 포함한 다양한 디바이스 간에 정보를 전송할 수 있는 새로운 시스템이 있지만, 크롬에는 로그인한 다른 곳으로 페이지를 바로 전송하는 훨씬 더 쉬운 방법이 있다. 휴대폰에서 크롬 앱의 페이지를 볼 때 앱 오른쪽 상단의 점 3개 메뉴 아이콘을 탭하고 ‘공유(Share)’를 선택한다. 그런 다음 표시되는 패널에서 ‘장치로 보내기(Send to devices)’ 옵션을 찾는다. 해당 옵션을 탭하면 동일한 구글 계정에 로그인한 휴대폰, 태블릿, 컴퓨터 등 다른 디바이스 목록이 표시된다. 여기서 한 번 더 탭하면 현재 보고 있는 페이지가 선택한 다른 디바이스에 알림으로 표시된다. 크롬 PC 버전에서 휴대폰 크롬 앱으로 페이지를 보내는 경우에도 같은 방법을 사용할 수 있다. 페이지 상단, 주소 표시줄 오른쪽에 있는 공유 아이콘만 찾으면 된다. 크롬 안드로이드 기능 2 : 매끄러운 동기화 디바이스 간 페이지 전송 기능도 좋지만, 화면 사이를 이동할 때 지난번에 멈춘 부분부터 이어서 볼 수 있는 기능도 있다. 잊어버리기 쉽지만 크롬 안드로이드 앱에는 로그인한 다른 휴대폰/태블릿/컴퓨터에서 열었거나 최근에 연 탭의 전체 목록을 볼 수 있는 간단한 기능이 있다. 앱의 점 3개 메뉴 아이콘을 탭하고, 이번에는 ‘최근 탭(Recent Tabs)’을 탭한다. 그러면 최근 몇 주 동안 같은 구글 계정으로 크롬을 사용한 모든 디바이스 목록이 표시된다. 그중 하나를 탭하면 열린 탭 전체 목록을 펼치거나 접을 수 있다. 보너스 팁이 있다. 최근 탭 목록에 있는 디바이스 이름을 길게 누르면 그 안의 모든 탭을 한꺼번에 열 수 있는 추가 옵션이 표시된다. 지난번에 중단한 부분을 더욱 쉽게 찾을 수 있을 것이다. 크롬 안드로이드 기능 3 : 최고 수준의 번역 여기서 소개할 기능은 자주 필요하지는 않지만, 필요한 상황에서는 큰 빛을 발하는 기능이다. 바로 크롬에 내장된 번역 시스템으로, 매우 강력하고 편리하며 다음과 같이 다양한 방식으로 동작한다. 단어 번역 : 해당 단어를 길게 눌러 선택한다. 그러면 화면 하단에 즉시 번역이 표시된다. 문구 혹은 단락 번역 : 디바이스에 구글 번역 앱을 설치하고 번역할 부분을 선택한다. 팝업 메뉴가 열리고 ‘번역(Translate)’ 옵션이 표시된다. 표시되지 않을 경우 메뉴 내의 점 3개 아이콘을 탭하면 된다. 탭하면 ‘번역’이 포함된 팝업창이 표시된다. 해당 창에는 번역을 복사하거나 소리 내어 읽을 수 있는 옵션이 있다. 페이지 번역 : 크롬 오른쪽 상단의 3점 메뉴 아이콘을 탭해서 ‘번역’ 옵션을 선택하면 된다. 쉽지 않은가? 크롬 안드로이드 기능 4 : 시크릿 탭 잠금 시크릿 탭을 사용해 민감한 정보를 보는 사람에게는(무엇을 보고 있는지 자세히 묻지는 않겠다) 이 숨겨진 크롬 기능이 정말 유용할 것이다. 크롬 안드로이드 앱의 설정 깊은 곳에는 열려 있는 시크릿 탭에 부가적인 보호 계층을 추가하는 옵션이 있다. 이런 옵션을 사용하면 다른 사람이 우연히 자신의 시크릿 탭을 열어 무엇을 보고 있었는지 알게 될 일이 없다. 화면이 꺼지거나 크롬에서 다른 앱으로 이동하면 브라우저가 시크릿 탭을 잠근다. 다시 보기 위해서는 비밀번호, PIN, 지문을 비롯한 표준 인증 방법을 통해 인증해야 한다. 크롬의 점 3개 메뉴 아이콘을 탭하고 ‘설정(Settings)’을 선택한 다음 ‘개인정보 보호 및 보안(Privacy and security)’을 선택하고 ‘크롬에서 나갈 때 시크릿 탭 잠그기(Lock Incognito tabs when you leave Chrome)’ 옵션을 활성화한다. 크롬 안드로이드 기능 5 : 맞춤형 바로가기 버튼 필자가 가장 좋아하는 크롬 안드로이드 기능은 최근에 추가된 기능이다. 언제든 브라우저의 주소 표시줄에서 탭 한 번으로 이용할 수 있다. 개인적으로 필자는 공유 명령을 실행하는 용도로 사용한다. 이외에도 새 탭 열기, 음성 검색 등을 위한 바로가기로도 설정할 수 있다. 해당 옵션을 활성화하려면 크롬 안드로이드 설정에서 ‘도구 모음 바로가기(Toolbar shortcut)’를 찾아서 탭한 다음, 전환 토글을 켜고 원하는 설정을 선택한다. 옵션이 표시되지 않는다 해도 걱정할 필요는 없다. 구글이 이 옵션을 보편적으로 제공하기까지는 꽤 오랜 시간이 걸리겠지만 수동으로 활성화할 수 있다. 브라우저의 주소 표시줄에 chrome:flags를 입력하고 화면에 표시되는 검색 상자에 button을 입력한 다음 ‘상단 도구 모음 맞춤 설정의 적응형 버튼(Adaptive button in top toolbar customization)’을 찾아서 설정을 ‘기본값(Default)’에서 ‘활성화(Enabled)’로 바꾸면 된다. 바꾼 후에는 화면 하단의 파란색 다시 실행(Relaunch) 버튼을 눌러야 한다. 크롬 안드로이드 기능 6: 무제한 확대 마지막 기능은 오래전부터 있던 기능으로, 필자는 새로운 디바이스에 로그인할 때마다 항상 이 기능을 활성화한다. 두 손가락을 사용한 제스처로 화면을 확대하지 못하도록 막아 놓은 일부 웹사이트의 설정을 무시할 수 있도록 하는 토글이다. 웹사이트에서 두 손가락을 사용한 확대를 왜 막는지 이해할 수 없지만, 어쨌든 확대하려고 시도했을 때 확대되지 않으면 기분이 좋지는 않다. 크롬 설정으로 들어가서 이번에는 ‘접근성(Accessibility)’을 선택하고 ‘확대 강제 활성화(Force enable zoom)’ 옆의 토글을 탭해서 켜면 된다. 설정했다면 이제 새로 찾은 자유를 마음껏 즐기는 일만 남았다. editor@itworld.co.kr
수시로 새로운 소프트웨어를 설치, 제거하고 프로그램의 베타 버전을 테스트하거나 윈도우 레지스트리를 만지작거리는 사람은 어느 시점이 되면 운영체제를 완전히 재설치해야 하는 상황에 부닥치게 된다. 가상 머신(virtual machine, VM)을 사용하면 그럴 필요가 없다. 현재 사용하는 운영체제 외에 리눅스를 별도의 운영체제로 사용하고자 하는 가장 쉬운 방법도 바로 가상 PC다. 가상 PC로 할 수 있는 것 가상 머신 혹은 가상 PC(virtual PC, VPC)는 PC의 창 안에서 실행되지만 PC와는 격리된 상태로 유지되는 하나의 완전한 PC 시스템이다. 여기에 필요한 가상화 소프트웨어인 하이퍼바이저는 가상 머신 형태로 PC에 샌드박스를 설정하고, 이 샌드박스에 주 OS로부터 격리된 상태로 실행되는 운영체제를 설치할 수 있다. 윈도우 분야의 전통적인 하이퍼바이저에는 오라클 버추얼박스(Virtualbox), VM웨어 워크스테이션 플레이어(Workstation Player), 워크스테이션 프로(Workstation Pro), 그리고 윈도우 프로, 엔터프라이즈 버전에 내장된 마이크로소프트 하이퍼-V(Hyper-V)가 있다. 이 방법에서는 모두 x86 프로세서 아키텍처를 기반으로 한다는 전제하에 다양한 운영체제의 여러 가상 머신을 하나의 표준 PC에서 매끄럽게 실행할 수 있다. 가상 시스템은 일반적인 운영체제처럼 사용할 수 있고 주 컴퓨터의 구성을 변경하지 않고 손쉽게 이전 상태로 재설정할 수도 있다. 아무 위험도 없으므로 무엇이든 시도해 볼 수 있다. 예를 들어, 가상 머신을 위한 공유 폴더를 지정하지 않는 한 가상 머신의 새로운 프로그램과 ‘실제’ PC에 이미 설치된 소프트웨어는 서로 접할 일이 없다. 하드웨어 에뮬레이션 실제 PC에서 버추얼박스, VM웨어, 하이퍼-V는 적절한 드라이버를 통해 호스트 운영체제가 액세스하는 모든 주요 하드웨어 구성요소를 지원한다. 반면 가상 머신은 프로세서 및 그래픽 카드와 같이 실제로 설치된 구성요소에 관계없이 하드 디스크, CD/DVD 드라이브, 그래픽 카드, 네트워크 어댑터가 포함된, 표준화된 컨트롤러가 있는 표준 PC를 제공한다. 호스트에 연결된 USB 디바이스는 가상 PC 내에서 다양한 수준으로 제공된다. 하이퍼바이저는 플래시 드라이브, 프린터, 외부 USB 드라이브, 스마트폰을 인식하며 이를 가상 머신에 전달할 수 있다. 이를 위해 USB 디바이스는 호스트 운영체제에서 일시적으로 연결이 해제됐다가 가상 게스트 컴퓨터가 종료된 후 다시 연결된다. 전제 조건은 게스트 운영체제 측에서의 적절한 드라이버 지원이다. 마우스 클릭으로 PC 변경 가상 머신은 설정하고 나서 언제든 재구성할 수 있다. 예를 들어, 주 메모리를 늘리거나 인터페이스를 추가하거나 드라이브를 통합하고 다양한 애플리케이션 환경을 손쉽게 만들 수 있다. 버추얼박스 및 기타 VM 소프트웨어는 가상 PC의 하드 드라이브를 호스트 PC에 장착된 실제 하드 디스크의 컨테이너 파일에 저장한다. 최대 크기를 지정해서 동적으로 커지도록 할 수 있다. 이 파일은 가상 머신이 실제로 사용하는 만큼의 스토리지 공간만 실제 PC에서 점유한다. 가상 머신 컨테이너의 크기를 고정할 수도 있다. 가상 머신을 만들고 원하는 운영체제를 설치하면 다른 호스트 PC에서도 이 가상 하드 디스크를 사용할 수 있으며, 리눅스 민트와 같은 무료 시스템의 경우 이전도 가능하다. 또한 가상 머신을 노트북에 전송하거나 백업 목적으로 다른 드라이브에 저장할 수도 있다. 리소스 요구사항 동시에 실행되는 가상 운영체제의 수는 호스트 PC의 메모리 및 하드 디스크 리소스에 따라 제한된다. 컴퓨터의 RAM 용량이 클수록 더 많은 운영체제를 가상 머신으로 시작할 수 있다. 가상 머신의 운영체제는 할당된 RAM 크기에 따라 동일한 하드웨어 구성의 일반적인 설치보다 비교적 느리게 실행되지만, 빠른 PC 하드웨어에서는 일반적으로 거의 문제가 되지 않는 수준이다. 가상 머신에 설정할 수 있는 최대 RAM 크기는 실제 PC의 RAM 용량에 따라 달라진다. 하이퍼바이저는 호스트 PC에서 가용하지 않은 RAM을 제공할 수는 없다. 종합적인 충돌 보호 가상 머신은 별도의 영역에서 독립적으로 실행되며, 한 운영체제가 다른 운영체제, 나아가 호스트 운영체제와 충돌할 수 없는 방식으로 상호 보호된다. 반면 가상 머신 내부의 충돌은 가령 게스트 운영체제의 오류(블루스크린), 설치된 드라이버나 애플리케이션의 오류 등을 이유로 얼마든지 발생할 수 있다. 이 경우 가상화 소프트웨어에서 충돌이 발생한 가상 컴퓨터를 재시작하기만 하면 된다. 호스트 컴퓨터에 영향을 미치지 않으며 재시작 전에 이전 상태로 재설정할 필요도 없다. 알아야 할 기술 용어집 게스트, 게스트 시스템 : 가상 머신 내에서 시작되는 윈도우 또는 리눅스와 같은 운영체제 게스트 확장 : 게스트 확장(가상 머신 추가 기능)은 운영체제를 설정한 후 부가적인 기능과 드라이버를 얻기 위해 가상 머신에 설치하는 드라이버 패키지다. 호스트, 주 컴퓨터, 실제 PC, 호스트 PC : VM웨어나 버추얼박스와 같은 가상화 소프트웨어가 설치된 컴퓨터. 이를 사용하여 가상 머신을 설정 및 사용한다. 호스트 키 : 호스트 키를 누르면 가상 머신 창에서 나가게 된다. 버추얼박스의 경우 오른쪽 ctrl 키, VM웨어에서는 ctrl+alt 키를 누르면 된다. ISO 파일 : CD 또는 DVD의 이미지 파일(이미지)이다. 윈도우 DVD 등 원본 디스크의 모든 데이터가 포함되며 가상 DVD 드라이브를 통해 액세스한다. ISO를 사용해서 운영체제를 설치할 수 있다. 클론 : 설치된 가상 머신의 클론을 만들 수 있다. 클론은 원본 VM과는 별개로 실행되며 즉시 사용 가능하다. 따라서 가상 PC를 다시 설정할 필요가 없고 운영체제를 설치할 필요도 없다. 콘솔 : 가상화 소프트웨어의 주 메뉴다. 콘솔을 사용해서 가상 머신을 관리하고 모든 설정을 조정한다. 콘솔에서 새 가상 컴퓨터를 만들고 가상 PC를 시작, 중지, 복사, 삭제하거나 가상 데이터 캐리어를 마운트할 수 있다. 가상 하드 디스크 : 가상 머신 내에서 가상 하드 디스크(VHD)는 PC의 물리적 하드 디스크의 기능을 담당한다. 가상 하드 디스크는 호스트 PC의 실제 하드 디스크에 대용량 컨테이너 파일로 저장된다. 가상 머신(VM), 가상 PC(VPC) : 호스트 PC에서 VM웨어 또는 버추얼박스와 같은 가상화 소프트웨어로 에뮬레이션되는 런타임 환경을 위한 용어. 가상 네트워크 어댑터 : VM에서 네트워크 액세스는 가상화 소프트웨어가 실제 PC에 설정하는 가상 네트워크 어댑터를 통해 이뤄진다. 가상 네트워크 어댑터의 설정에 따라 가상 PC의 네트워크 액세스의 허용 여부 및 방식이 결정된다. editor@itworld.co.kr
텐서플로우는 가장 인기 있는 머신러닝 플랫폼이며, 노드(Node) 버전인 TensorFlow.js를 사용하면 자바스크립트 애플리케이션에서 손쉽게 텐서플로우를 쓸 수 있다. 여기서는 현재 가장 흥미로운 2가지 기술인 암호화폐와 AI를 결합한다. 신경망을 학습시켜 기존 비트코인 가격 변동 데이터를 근거로 가격 예측을 수행한 다음 지정된 날짜 범위에서 실제 비트코인 가격과 비교해 보자. 프로젝트 시작하기 시작하려면 Node/NPM이 설치돼 있어야 한다. 새 디렉터리를 만들고 npm init을 실행하고 기본값 그대로 둔다. 그 다음 npm i tensorflow/tfjs를 입력해 텐서플로우를 설치한다. 이것이 이 데모에서 필요한 유일한 종속 항목이다. 애플리케이션은 다음 3개 파일로 구성된다. predict.js : 명령줄 상호작용 처리 fetchPriceData.js : 가격 데이터 가져오기 >trainAndPredict.js : 예측 수행 predict.js는 명령줄 인수를 처리하는 일반적인 Node.js다. 인수를 정리하기 위한 몇 가지 유용한 기능이 추가됐지만 여기서는 다루지 않는다. 기본 개념은 사용자가 predict.js를 실행하고 다음 3개 인수를 전달하는 것이다. 비트코인, 솔라나 등 토큰 기호 종료 날짜 돌아갈 일 수 아무것도 제공하지 않으면 프로그램의 기본값인 각각 비트코인, 오늘 종료, 90일 이전으로 돌아가기로 설정된다. 예측 설정 여기서는 과거 데이터를 반환하는 방식을 다루는 API인 를 사용한다. 이 API는 기간 범위가 90일을 초과하면 자동으로 시간 대신 일 간격을 사용한다. 여기서 사용하는 코드는 두 경우 모두 처리하지만 기본적으로 3개월 분량의 시간 데이터를 사용하고 종료 날짜는 오늘이다. 참고로 CoinGecko가 원하는 타임스탬프는 밀리초가 아닌 초 단위다. 시작과 종료 날짜 계산에 1000이 사용된 이유도 이 때문이다. 에서 predict.js 파일을 볼 수 있다. predict.js const fetchPriceData = require('./fetchPriceData'); const trainAndPredict = require('./trainAndPredict.js'); const [tokenSymbol] = process.argv.slice(2); // Set default if argument not provided const defaultTokenSymbol = 'bitcoin'; // CoinGecko likes timestamps in seconds, not ms const endDate = new Date(Date.now()) / 1000; const startDate = new Date((endDate * 1000) - 90 * 24 * 60 * 60 * 1000); // Use default values if arguments are not present const finalTokenSymbol = tokenSymbol || defaultTokenSymbol; async function main(){ try { const { timePrices, predictTime, actualPrice } = await fetchPriceData(finalTokenSymbol, startDate, endDate); const results = await trainAndPredict(timePrices, predictTime); console.log(`Prediction for ${new Date(predictTime)}: ${results} `); console.log(`Actual: ${actualPrice}`); } catch (error) { console.error('Error:', error); } } main(); 이 코드는 가져올 모듈 2개를 만들기 전까지는 실행되지 않는다. predict.js는 fetchPriceData와 trainAndPredict 모듈을 사용해 가격 데이터를 가져오고 AI를 실행한다. fetchPriceData 모듈은 다음 3가지 항목을 반환한다. 타임스탬프와 가격의 배열 비트코인 가격 예측에 사용된 타임스탬프 그 시점의 실제 가격 실제 가격을 사용해 AI의 예측을 실제 가격과 비교한다. 가격 데이터 가져오기 가격 데이터를 가져오기 위해 CoinGecko API를 사용해 와 같이 fetchPriceData 모듈을 정의한다. fetchPriceData.js async function fetchPriceData(tokenSymbol, fromTimestamp, toTimestamp) { try { const url = `https://api.coingecko.com/api/v3/coins/${tokenSymbol}/market_chart/range?vs_currency=usd&from=${fromTimestamp}&to=${toTimestamp}`; console.info("Getting price data from: " + url); const response = await fetch(url); const data = await response.json(); console.info(`Got ${data.prices.length} data points`); if (data && data.prices) { const lastElement = data.prices.pop(); const pricesButLast = data.prices.slice(0, data.prices.length - 1); return { timePrices: pricesButLast, predictTime: lastElement[0], actualPrice: lastElement[1] }; } else { console.log('No price data available.'); return { timePrices: [], predictTime: null, actualPrice: null }; } } catch (error) { console.error('Error fetching data:', error.message); return { timePrices: [], predictTime: null, actualPrice: null }; } } module.exports = fetchPriceData; CoinGecko API는 api.coingecko.com/api/에 있다. market_chart/range 엔드포인트를 사용해 날짜 범위와 토큰 ID를 정의할 수 있다. vs_currency 매개변수는 척도로 사용할 명목화폐를 지정하는데, 여기서는 usd로 하드코딩됐다. 더 자세한 내용은 를 참고하면 된다. 완전한 기능을 갖춘 API이며 대부분 기능을 API 키 없이 사용할 수 있다. predict.js에서 전달된 인수를 다음과 같이 엔드포인트 URL에 집어넣는다. https://api.coingecko.com/api/v3/coins/${tokenSymbol}/market_chart/range?vs_currency=usd&from=${fromTimestamp}&to=${toTimestamp} 여기에 실제로 일부 데이터를 연결하면 브라우저에서 URL을 열어 형식을 볼 수 있다. 예를 들어 다음을 연결해 보자. https://api.coingecko.com/api/v3/coins/bitcoin/market_chart/range?vs_currency=usd&from=1684013673.171&to=1691789673.171 참고로 시간은 유닉스 타임스탬프 형식으로 돼 있다. 를 탐색해 data.prices에서 실제 가격 목록을 얻는다. 여기에는 2차원 배열이 [timestamp, price] 구조로 저장된다. 학습 및 예측 다음으로 몇 가지 조작을 했는데 얼핏 이상해 보일 수 있지만 마지막 시간/가격 쌍을 데이터 집합의 끝에서 제거하기 위한 것이다. 이렇게 하면 AI 모델이 나머지로 학습할 수 있다. 그런 다음 모델에 마지막 타임스탬프를 제공하고 예측을 받아서 실제 가격과 비교할 수 있다. 여기까지 하면 데이터가 저장된 3개의 필드가 있는 객체가 반환된다. { timePrices: pricesButLast, predictTime: lastElement[0], actualPrice: lastElement[1] } predict.js로 돌아와서, 이 데이터를 받으면 trainAndPredict를 호출할 준비가 된다. trainAndPredict는 시간/가격 데이터와 타임스탬프를 받고 값, 즉 예측을 반환한다. 에서 trainAndPredict 모듈을 위한 코드를 볼 수 있다. trainAndPredict async function trainAndPredict(timeAndPriceData, newTimestamp) { // Extract timestamps and prices from the data const timestamps = timeAndPriceData.map(([timestamp, price]) => timestamp); const prices = timeAndPriceData.map(([timestamp, price]) => price); // Normalize and scale the data const minTimestamp = Math.min(...timestamps); const maxTimestamp = Math.max(...timestamps); const minPrice = Math.min(...prices); const maxPrice = Math.max(...prices); const normalizedTimestamps = timestamps.map(ts => (ts - minTimestamp) / (maxTimestamp - minTimestamp)); const normalizedPrices = prices.map(price => (price - minPrice) / (maxPrice - minPrice)); // Convert data to TensorFlow tensors const X = tf.tensor1d(normalizedTimestamps); const y = tf.tensor1d(normalizedPrices); // Create a simple linear regression model const model = tf.sequential(); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); // Compile the model model.compile({ optimizer: 'sgd', loss: 'meanSquaredError' }); // Train the model await model.fit(X, y, { epochs: 100 }); // Normalize the new timestamp for prediction const normalizedNewTimestamp = (newTimestamp - minTimestamp) / (maxTimestamp - minTimestamp); // Predict the normalized price for the new timestamp const normalizedPredictedPrice = model.predict(tf.tensor1d([normalizedNewTimestamp])); // Scale the predicted price back to the original range const predictedPrice = normalizedPredictedPrice.mul(maxPrice - minPrice).add(minPrice); return predictedPrice.dataSync()[0]; } module.exports = trainAndPredict; 부터 머신러닝 코드로 들어가기 시작한다. 여기서부터는 기본적인 머신러닝 개념을 이해하는 것이 도움이 될 것이다. 모델 학습 먼저 시간과 가격, 두 개의 데이터 요소를 개별적인 변수로 추출한 다음 정규화한다. 정규화를 사용한 데이터 전처리는 신경망에서 일반적인 일이다. 기본적으로 여기서 하는 일은 두 데이터 집합의 분산이 서로 근접하도록 하는 것이다. 구체적으로, 두 데이터 집합의 값을 0~1 범위로 압축한다. 이렇게 하면 최소 오차를 찾는 경사 하강 알고리즘의 효율성이 높아지고 에 갇히는 현상을 방지하는 데 도움이 된다. 두 값에 대한 정규화 연산은 최대 및 최솟값을 찾고 실제 값에서 최솟값을 뺀 다음 최댓값에서 최솟값을 빼서 나오는 값으로 나누는 과정으로 구성된다. 다음으로, 데이터를 사용해 텐서플로우의 기본적인 빌딩 블록인 텐서를 만든다. 텐서는 n-차원으로 벡터를 강화한 것과 같다. 텐서는 차원 간의 상호작용을 위한 복잡한 연산을 지원한다. 텐서플로우를 사용하면 데이터를 텐서로 모델링한 다음 이 데이터를 사용해 모델을 학습시킬 수 있다. 실제 텐서 사용에 대한 더 자세한 내용은 에서 볼 수 있다. 이번 예제에서 필요한 텐서는 시간과 가격에 대한 2개의 1차원 벡터가 전부다. tensor1d()를 호출하면 된다. 이제 신경망을 만들고 레이어를 추가한다. 간단한 “순차” 네트워크를 사용한다. 열에 각 레이어가 있고, model.add(tf.layers.dense({ units: 1, inputShape: [1] }))를 사용해 추가한다. 각각은 신경망의 뉴런 레이어다. “dense”는 각 뉴런이 다음 레이어의 다른 모든 뉴런과 연결된다는 것을 의미한다. 매우 기초적인 레이어다. 텐서플로우에는 예를 들어 레이어의 수, 뉴런의 수, 레이어의 유형(dense, convolution, Long Short-Term Memory), 활성화 함수 등 사용할 수 있는 구성이 매우 풍부하다. 맞춤형 신경망과 뉴런 속성을 정의할 수도 있다. 다음으로, 옵티마이저를 “sgd”(확률적 경사 하강)로 설정하고 평균 제곱 오차 손실 함수를 사용해 모델을 컴파일한다. 마찬가지로, 모든 부분은 모델 성능을 개선하기 위해 구성할 수 있다. 예측 실행 이제 await model.fit(X, y, { epochs: 100 })으로 실제 학습을 실행할 준비가 됐다. 여기서 epochs는 신경망을 거쳐 데이터를 실행할 사이클 수다. 참고로 에포크가 너무 많으면 학습 데이터의 과적합으로 이어질 수 있다. 마지막으로, 타임스탬프(마찬가지로 정규화함)를 사용해서 예측을 수행할 수 있다. model.predict(tf.tensor1d([normalizedNewTimestamp])) 호출을 사용한다. 가격으로 돌아가기 위해 예측을 역정규화한다. 텐서 연산(여기서는 요소의 곱)을 지원하는 텐서플로우의 일부인 mul() 메서드를 제외하면 일반적인 자바스크립트 수학이다. 여기서는 배열이 아닌 하나의 예측된 값만 있으므로 일반적인 곱셈만 수행된다. 이 코드를 실행하면 와 같은 결과를 얻게 된다. 예측기 실행 $ node predict Prediction for Fri Aug 11 2023 21:00:01 GMT+0000 (Coordinated Universal Time): 30595.5546875 Actual: 29380.31012784574 $ node predict solana Prediction for Fri Aug 11 2023 22:00:54 GMT+0000 (Coordinated Universal Time): 24.18000602722168 Actual: 24.5108586331892 소스 다운로드하기 첫 번째에서는 비트코인 예측을, 두 번째에서는 솔라나 예측을 수행한다. 두 경우 모두 지난 90일 간의 시간별 데이터를 사용한다. 두 경우 모두 대략적인 예측이긴 하지만 별로 정확하지 않다. 이유가 무엇일까? 타임스탬프와 가격 간에 아무런 실질적 관계가 없기 때문이다. 즉, 비트코인 가격 예측 방법으로는 너무 단순하고 어리석은 방법이다. 그럼에도 불구하고 이 예제를 통해 암호화폐 API 피드와 함께 텐서플로우 사용에 관한 기초적인 요소를 잘 살펴볼 수 있었다. 이 데모의 전체 프로젝트 코드는 에서 받을 수 있다. editor@itworld.co.kr
클라우드 서비스 업체가 주최하는 대형 클라우드 컨퍼런스는 언제나 반짝이는 신기술로 우리를 매료시킨다. 하지만 우리에게는 비즈니스 요구사항이 더 중요하다. 이번 주는 "클라우드 컴퓨팅 우드스톡"이라고도 불리는 AWS 리인벤트 행사 주간이다. AWS 리인벤트는 매년 참가 인원이 늘고 있으며, 클라우드 컴퓨팅에 관심이 있는 사람이라면 반드시 참석해야 하는 행사로 자리 잡았다. 필자는 보통 이런 행사는 피한다. 요즘은 원격으로도 같은 수준의 정보를 얻을 수 있고, 모든 행사를 온라인으로 볼 수 있기 때문에 전체 상황을 파악하기도 좋다. 하지만 직접 참가하면 현장의 열기를 느낄 수 있다. 많은 비용이 들어가는 이런 행사를 클라우드 서비스 업체가 굳이 개최하는 것도 이 때문이다. 기술과 솔루션 업체에 대한 과도한 집중 클라우드 컴퓨팅 시장에서 우리는 너무 업체 중심적인가? 다시 말해, 서비스 업체가 우리를 잘못된 길로 이끌고 있지는 않은가? 실제로 우리는 당면한 핵심 문제를 해결하는 대신, 솔직히 말해서 실제 문제를 해결하는 것보다 겉보기에 더 재미있는 새로운 기능과 뛰어난 새 도구에 정신이 팔려 있다. 누군가는 “하지만 데이빗, 문제를 해결하려