2029년 5G 가입 건수 추정치
Z세대 : 결제의 미래 (Gen Z: the future of spending)
평소 업무나 과제물 작성에 챗GPT를 활용하는 대학생
2023년 사업자 전용 식자재 오픈마켓 누적 회원 수
데브섹옵스 관행을 개선하기 위해 자동화를 채택한 기업
좋아하든 그렇지 않든, 덕빌 그룹의 수석 경제학자이자 AWS를 비관적으로 바라봐 온 코리 퀸의 AWS 제품 전략에 대한 평가는 항상 옳지는 않다. 지난주 “AWS는 근본적으로 생성형 AI를 진지하게 대하지 않는 회사”라는 퀸의 주장처럼 완전히 빗나간 일도 있다. 아마존이 리인벤트 행사에서 코딩 어시스턴트인 아마존 코드위스퍼러, 다양한 대규모 언어 모델을 더욱 쉽게 사용하게 도와주는 아마존 베드락, 생성형 AI 기반 챗봇인 아마존 Q를 성공적으로 발표하고 긍정적인 사용자 평가를 받은 이후의 일이다. 1년 전이라면 퀸의 주장이 맞았을 것이다. 오픈AI와 긴밀한 파트너십을 맺고 투자를 쏟아부은 마이크로소프트, 수년 동안 인상적인 데이터 과학/AI 프로젝트 오픈소스 작업에 나선 구글을 AWS가 따라잡으려는 시기였기 때문이다. 그러나 리인벤트 행사 이후 AWS도 생성형 AI와 AI 전반을 진지하게 대하는 업체라는 점이 분명해졌다. 생성형 AI의 업무 투입 공정하게 말하자면 퀸은 아마존 베드락 에디션인 클로드(Claude)의 가격 정책, 즉 잘못된 데이터 포인터를 근거로 일반화한 것이다. 가격은 AWS가 아니라 앤트로픽(AWS가 40억 달러를 투자한 업체)이 책정한다. 퀸이 생각한 것처럼 가격 변동 폭이 컸던 것도 아니다. 과거 AWS 신제품을 적절하게 비판한 예도 있었다. 그러나 이번에는 틀렸다. AWS는 분명 “근본적으로 생성형 AI를 진지하게 대하고” 있었다. 최소한 1만 곳의 베드락 사용 기업은 그렇게 말할 것 같다. AWS 애덤 셀립스키 CEO의 기조연설에 따르면 베드락은 9월에 출시된 후 이미 어도비, BMW, 유나이티드 에어라인, 머크(Merck) 등 수많은 기업이 사용하고 있다. 빌드스트러(Buildstr) 같은 코드위스퍼러 사용 기업도 베드락 도입 이후 보안 취약성이 감소했다고 밝혔다. 보안뿐 아니라 “생성형 AI를 아마존 디텍티브와 아마존 인스펙터에 통합한 것은 클라우드 컴퓨팅과 코드 관리의 중요한 도약”이라는 긍정적 평가도 있다. AWS는 분명 리인벤트 행사에서 몇 가지 핵심적인 발표로 경쟁사를 앞질렀다. 예를 들면, 셀립스키는 기조연설에서 코드 위스퍼러 맞춤화(내부 라이브러리, API를 추가해 결과물을 개선) 기능을 모든 사용자가 일반적으로 사용할 수 있다고 발표했다. 먼저 발표한 것은 깃허브지만 실제로 기능을 배포하지는 않았고, 구글 클라우드는 일종의 게이트 프리뷰만 공개한 상태다. AWS는 코드 변환/언어 업그레이드에서도 독보적이었다. 전반적으로 미래가 아닌 지금 바로 사용할 수 있는 다양한 서비스와 기능에 집중한 것은 지난 몇 년간의 리인벤트 행사 내용과 비교할 때 좋은 변화라 할 수 있다. 극적인 차별화를 꾀한 Q 이를테면 Q는 AWS와 생성형 AI를 넘어 큰 진보를 이룰 수 있는 새로운 서비스다. AWS 내부에서는 Q의 이름을 정할 때 제임스 본드와 007 세계관에 등장하는 R&D 부서인 Q와의 연관성도 고려했을 것이다. 장기적으로 볼 때 AWS가 맞을 수도 있다. 단기적으로 보면 Q는 AWS가 생성형 AI에 “근본적으로 진지한” 투자를 할 것이 분명한 결정적 순간이다. 레드몽크(RedMonk) 애널리스트 제임스 거버너는 Q가 “큰 파장을 몰고 올 것”이라고 주장했다. 부분적으로는 Q가 마이크로소프트 코파일럿과 함께 ‘문서의 미래’에 대한 강력한 비전을 제시하기 때문이다. 또한, 거버너는 Q가 “너무 복잡하고 다루기 어려워진 AWS 서비스를 통합하는 추상화”를 제공하기 때문이라는 이유를 댔다. 다수의 코파일럿 어시스턴트를 내세운 마이크로소프트와 AWS의 접근 방식은 다르다. 거버너는 AWS가 “운영, 문제 해결, 개발용 모든 제품 전반에 걸쳐 서비스되는 단일한 Q”를 제공한다고 설명했다. Q는 한 콘솔에서 시작한 대화를 다른 콘솔에서 계속할 수 있고, 개발자의 경우 IDE에서 대화를 시작해 콘솔에서 계속할 수도 있다. AWS는 이미 문서, 웹사이트, 슬랙, 팀즈, 모바일 앱에서 Q를 제공하고 있다. 과거 통합에 집중한 경험을 제공한 마이크로소프트는 많은 코파일럿 조직도를 제공한 반면, 역사적으로 모든 종류의 경쟁적 목적별 서비스를 미덕으로 여겼던 AWS가 통합된 교차 서비스 경험을 공개한 신기한 일이 일어났다. AWS의 통합 접근 방식은 즉시 상당한 이점을 가져다줄 것이다. 리인벤트 행사에서 잘 설명되지는 않았지만, Q는 AWS를 지금까지 없었던 생산성 애플리케이션 공급업체(세일즈포스나 마이크로소프트 같은)로 변화시켰다. 거버너는 AWS가 수십억 달러를 벌어들일 수 있는 기회라며 “콜센터용 아마존 커넥트에도 Q가 추가됐다”라고 말했다. AWS는 이제 애플리케이션 공급업체로서, 데이터를 기업용 해답으로 전환하는 연결 조직인 Q를 갖추게 되었다. 대단한 일이다. 새로운 시장 전략 그래도 단 몇 가지 발표만으로 AWS가 생성형 AI 전략 대회에서 이겼다고 말하기는 어렵다. 우선, 마이크로소프트와 구글 발표처럼 아직 완성해야 할 부분이 많다. 아직까지는 모든 업체가 완성된 생성형 AI가 아닌 비전을 판매하고 있다. 그럼에도 지금까지 실제로 대화에 참여하지 않았던 AWS가 이제 대화를 어느 정도 주도하는 입장에 서 있다. 또 1조 2,000억 개의 클라우드 서비스를 제공하는 AWS의 입장에서 신선한 것은 AWS의 생성형 AI가 기업이 반드시 AWS 서비스만 쓰라고 종용하지 않는다는 점이다. AWS는 기업이 업무에 적합한 모델을 선택할 수 있는 시장 전략을 제안했다. 예를 들어 Q에 어떤 모델을 사용하는지 질문해 보면 베드락을 기반으로 구축되었고 업무에 따라 다양한 모델을 사용한다고 답한다. AWS가 겸손해진 것일까? 그럴지도 모른다. 그리고 생성형 AI를 진지하게 대하게 된 것도 사실이다. editor@itworld.co.kr
2023년 삼성과 구글은 책 스타일의 폴딩 스마트폰의 새로운 버전을 출시했다. 갤럭시 Z 폴드 5(Galaxy Z Fold 5)는 삼성의 5번째 시도다. 하지만 픽셀 폴드(Pixel Fold)는 구글의 첫 폴더블 스마트폰이다. 이런 종류 기기의 목적은 사용자에게 특별하고 유연한 스마트폰 경험을 제공하는 것이다. 둘 중에 어떤 제품을 골라야 할까? 두 폴더블 스마트폰의 주요 특징을 비교했다. 디스플레이 갤럭시 Z 폴드 5의 커버 화면은 6.2인치로 얇고 긴 디자인을 채택했다. 픽셀 폴더의 외부 디스플레이는 5.8인치로 Z 폴드 5보다 세로로 짧고 가로로는 넓다. Z 폴드 5의 커버 화면이 더 클 수 있지만, Z 폴드 5는 간단한 작업과 일부 소셜 미디어 소비에 적합하다. 이외의 경우에는 Z 폴드 5를 펼치는 것이 더 낫다. 반면 픽셀 폴더의 전면 디스플레이는 Z 폴드 5보다 훨씬 실용적이다. 픽셀 폴드의 외부 디스플레이에서 앱을 켜면 기능과 외관이 더 자연스럽게 보이므로 핸드폰을 열지 않아도 충분하다는 느낌을 준다. 스마트폰을 펼쳤을 때의 내부 디스플레이를 살펴보자. Z 폴드 5는 내부 화면이 세로로 길기 때문에 콘텐츠 역시 세로 방향으로 표시돼 소셜 미디어나 뉴스 피드 스크롤에 적합하다. 픽셀 폴드의 내부 디스플레이는 기본적으로 콘텐츠를 가로로 표시하기 때문에 콘텐츠가 색다르게 보일 수 있다. 또한 픽셀 폴드는 내부 디스플레이 베젤이 더 넓어 펼쳤을 때 Z 폴드 5만큼 날렵해 보이지 않는 것이 단점이다. 성능 두 기기는 인상적인 하드웨어로 구동된다. 일부 필수적인 측면에서는 차이점이 있다. Z 폴드 5는 퀄컴 스냅드래곤8 2세대 칩셋을 탑재하고 12GB RAM과 256G, 512GB, 1TB의 UFS 4.0 저장공간 옵션을 제공한다. 반면 구글의 픽셀 폴드는 구글 텐서(Tensor) G2 칩셋을 탑재하며, 12GB RAM을 갖추고 있다. 하지만 저장공간 옵션은 128GB 또는 256GB의 UFS 3.1로 제한적이다. 두 제품 모두 마이크로SD 확장을 지원하지 않는다. 또한 픽셀 폴드의 칩셋은 구글의 소프트웨어를 사용하도록 최적화되어 있지만, Z 폴드 5의 퀄컴 칩은 대부분의 서드파티 앱에서 더 빠른 성능을 제공한다. 긱벤치 5(Geekbench 5) 멀티코어 테스트에서 Z 폴드 5는 4,740점을, 픽셀 폴드는 3,054점에 그쳤다. 강력한 성능을 원한다면 Z 폴드 5를 선택해야 한다. 기능 책 스타일 폴더블 스마트폰의 대표적인 특징은 멀티태스킹 기능이다. Z 폴드 5는 하단 가장자리에 작업 표시줄이 있으며, 최근 그리고 자주 사용하는 모든 앱에 손쉽게 접근할 수 있다. 또한 광범위한 멀티태스킹 제스처를 지원하며, 2개의 앱을 나란히 사용하거나 빠르게 전환할 수 있다. 삼성 덱스(DeX)와 호환되며, 데스크톱과 유사한 경험을 위해 외장 디스플레이에 연결할 수 있다. 픽셀 폴드와 비교했을 때 주된 이점이다. 픽셀 폴드에도 작업 표시줄이 있지만 위에서 아래로 밀어야 접근할 수 있다. 사용한 후에는 바로 사라지기 때문에 원하는 일을 하려면 항상 추가적인 단계가 존재한다. 2개의 앱 나란히 보기 등 기본적인 멀티태스킹 기능이 제공되지만 Z 폴드 5만큼 광범위하지는 않다. Z 폴드 5의 배터리는 하룻동안 충분히 사용할 수 있지만 이틀까지는 버티지 못한다. 삼성은 USB-C 케이블만 제공하기 때문에 최대 속도로 충전하려면 25W 충전기를 별도로 구매해야 한다. 최신 기준으로는 느린 편이며, 15분 만에 28%까지 충전하고 30분 만에 56%까지 충전한다. 픽셀 폴드도 하루 종일 사용할 수 있지만 저녁이면 추가적인 충전이 필요할 수 있다. 구글 역시 충전기를 구성품에 포함하지 않지만, 적절한 어댑터가 있다면 최대 30W로 충전할 수 있다. 14%까지 15분만에 충전하며 30분 만에 28%에 도달했다. 진행 과정이 선형적이지만 다소 느렸다. 배터리 사용 시간은 비슷하지만 Z 폴드 5의 충전 속도가 더 빠르다. 카메라 두 기기 모두 카메라가 인상적이지만 소프트웨어가 실질적인 차이를 만든다. Z 폴드 5는 5,000만 화소 메인 카메라, 1,000만 화소 3x 망원 렌즈, 1,200만 화소 초광각 카메라가 탑재됐다. 내부 디스플레이 하단에는 400만 화소 카메라가, 커버에는 1,000만 카메라가 있다. 한편 구글 픽셀 폴드는 4,800만 화소 메인 카메라, 1,080만 화소 초광각 카메라, 1,080만 화소 5x 망원 카메라를 제공한다. 950만 화소 전면 카메라 및 800만 화소 내부 카메라가 탑재됐다. Z 폴드 5는 Z 폴드 4와 카메라 하드웨어와 같으며, 픽셀 폴드보다 뒤처진다. 두 기기는 모두 멋진 사진을 촬영할 수 있지만, 사진 애호가라면 5x 망원 렌즈가 탑재된 픽셀 폴드가 더욱 매력적일 것이다. 궁극적으로 Z 폴드 5보다 사진이 더 낫다. 가격 구글 스토어에서 판매되는 픽셀 폴더의 가격은 1,799달러(약 232만 8,000원)부터 시작되며, 512GB 모델의 가격은 1,919달러(약 248만 4,000원)다. 옵시디언(Obsidian)이라는 이름의 블랙과 포슬린(Porcelain)이라는 이름의 화이트 중에 선택할 수 있으며, 포슬린은 구글을 통해서만 256GB 저장공간의 단일 모델로 판매된다. 소매업체에서 폴드를 구매하는 경우 블랙 모델을 받게 된다. 갤럭시 Z 폴드 5 가격은 12GB RAM 및 256GB 저장공간 모델이 1,749파운드/1,799달러부터 시작된다. 512GB 모델은 1,849파운드/1,919.99달러에 구매할 수 있으며, 1TB 모델은 2,049파운드/2,159.99달러에 판매된다. 최종 결론 갤럭시 Z 폴드 5와 픽셀 폴드는 자급제든, 약정이든 가격이 비싼 폴더블 스마트폰이다. 가격 대비 성능을 따지면 명확한 승자가 나온다. 이번 대결에서는 Z 플립 5가 전반적으로 나은 성능, 더 크고 빠른 저장공간, 더욱 긴 배터리 수명, 더 빠른 충전 속도로 우세를 보인다. 카메라 성능은 조금 떨어질 수 있지만, 현재로서는 구글이 삼성의 최신 폴더블 스마트보다 뒤처진다. 픽셀 폴드 세부사양 펼쳤을 때 크기 : 158.7×139.7×5.8mm 접었을 때 크기 : 79.5×139.7×12.1mm 284g 5.8인치 FHD+ 120Hz LTPO OLED 커버 디스플레이 7.6인치 2208×1840 120Hz LTPO OLED 내부 디스플레이 전후면에 고릴라 글래스 빅터스 적용 구글 텐서 G2 칩셋 12GB RAM 128/256GB 용량의 UFS 3.1 스토리지 4,800mAh 배터리 무선 충전 지원 4,800만 화소 f/1.7 메인 카메라 1,080만 화소 f/2.2 초광각 카메라 1,080만 화소 f/3.05 5x 망원 카메라 950만 화소 f/2.2 내부 전면 카메라 800만 화소 f/2.0 커버 전면 카메라 5G/와이파이 6E/블루투스 5.2 IPX8 옵시디언, 포슬린 색상 측면부 지문인식기 갤럭시 Z 폴드 5 세부사양 펼쳤을 때 크기 : 129.9×154.9×6.1mm 접었을 때 크기 : 67.1×154.9×13.4mm 253g 6.2인치 120Hz AMOLED 커버 디스플레이 (23.1:9) 7.6인치 120Hz AMOLED 폴더블 내부 디스플레이 (21.6:18) 전후면에 고릴라 글래스 빅터스 2 적용 퀄컴 스냅드래곤 8 젠 2 12GB RAM 256GB/512GB/1TB 용량의 UFS 4.0 스토리지 4,400mAh 배터리 5,000만 화소 f/1.8 메인 카메라 1,000만 화소 f/2.4 3x 망원 카메라 1,200만 화소 f/2.2 125도 초광각 카메라 400만 화소 f/1.8 내부 전면 카메라 100만 화소 f/2.2 커버 전면 카메라 5G/와이파이 6E/블루투스 5.3/NFC IPX8 아이시 블루, 팬텀 블랙, 크림, 그레이, 블루 색상 측면부 지문인식기 editor@itworld.co.kr
마이크로소프트가 이그나이트 2023 행사에서 업무용 AI 서비스인 마이크로소프트 365 코파일럿을 자사 생태계 서비스 내에서 기본적으로 어디에서나 활용할 수 있게 지원한다는 목표를 밝혔다. 또한 내년 초 코파일럿 서비스를 출시할 것이라고 발표해 주목을 끌었다. 일반 사용자에게 있어 코파일럿은 아웃룩 및 팀즈 같은 마이크로소프트 365 오피스 앱에 AI 기능이 추가됨을 의미한다. 마이크로소프트는 개인 사용자와 기업 모두를 위해 AI로의 초기 진출을 알린 빙챗(Bing Chat) 브랜드를 없애고 코파일럿으로 대체할 계획이다. 코파일럿은 프리뷰 단계를 마치고 12월 1일부터 일반 대중에게 공개될 예정이다. 특히 코파일럿 사이드바를 열어 놓고 작업하는 동안, 코파일럿이 화면의 다른 장소에서 수행하는 작업에 반응함을 인지한 사용자도 있을 것이다. 예를 들어 복사한 텍스트가 코파일럿에 의해 슬러핑되면 바로 실행된다. 팀즈 같은 앱에서 회의가 진행되는 동안 전사 및 메모뿐 아니라 회의 종료 후 인사이트 제공까지 수행하는 코파일럿을 기대해볼 수 있다. 후자의 경우 일부 분석은 팀즈 자체에서 수행할 수 있으나, 다이나믹 365(Dynamics 365)를 구독하는 경우 특정 영 업부문별 코파일럿이 제안할 수 있다. 매달 3억 명 이상이 사용하는 마이크로소프트 365 핵심 앱에 AI를 추가하는 것은 매우 원대한 계획이다. 사용자 및 관리자도 곧 코파일럿을 만나볼 수 있을 것이다. 마이크로소프트 365용 코파일럿은 기업의 경우 사용자당 매달 30달러의 비용이 든다는 점을 기억하자. 요약과 분석을 수행하는 팀즈용 코파일럿 마이크로소프트는 팀즈 내에서 코파일럿 및 화이트보드 협업 도구를 통합해 회의 참가자의 구술 아이디어 및 주제를 화이트보드의 시각적 협업 공간으로 전환할 계획이라고 밝혔다. 코파일럿은 화이트보드 일러스트레이션 자체에 기여할 뿐 아니라, 내용을 요약하고 요약본을 마이크로소프트 루프 앱으로 공유할 수도 있다. 팀즈의 코파일럿은 팀즈 회의 내에서 실시간 메모를 할 수 있으며 이후 참가자들과 공유할 수도 있다. 마이크로소프트에 따르면 이러한 메모는 쿼리 가능하므로 참가자가 이야기한 내용에 대한 자세한 내용을 코파일럿에게 요청할 수 있다(내년 출시 예정인 팀즈 데스크톱 및 웹 앱에 탑재될 예정). 사용자는 또한 진행 상황에 대한 코파일럿 작성 메모 없이 팀즈 회의를 비공개로 유지할 수 있는 옵션도 활용할 수 있다. 팀즈 전화를 사용하는 기업에서는 메모를 하고 통화 내용을 요약할 수도 있다. 아웃룩과 워드에도 도입될 예정인 코파일럿 마이크로소프트는 2024년 초 아웃룩에 코파일럿을 출시할 계획이라고 밝혔다. 여기서 마이크로소프트는 2가지 사항을 강조하고 있다. 첫째, 아웃룩은 회의 요약본을 작성(읽기)하고 회의를 계획(참가자 제안, 일정 이해 및 안건 제안)할 수 있다. 둘째, 아웃룩의 코파일럿은 관련 이메일 및 첨부 파일과 더불어 예정된 미팅을 요약할 수 있다. 후자는 추가 서류가 없어도 코타나가 수행할 수 있는 작업이었다. 워드 내에서 코파일럿은 변경사항을 더 잘 추적하기 위해 코파일럿을 통합할 계획이다. 예를 들어, 편집자가 초안을 재작성할 경우 코파일럿에 가장 의미 있는 변경사항을 요약해줄 것을 요청할 수 있다. 또한 마이크로소프트는 이미 워드를 콘텐츠 제작 도구로 보고 있으며 이러한 기능은 윈도우의 다른 부분에 포함된 듯 보인다. 또한 마이크로소프트는 코파일럿 및 그래프를 활용해 향후 더 많은 개인화 기능을 생성할 것이라고 이야기한다. 이 모든 상황은 2024년 초에 전개될 예정이다. 위젯 기반 환경인 마이크로소프트 루프는 내년부터 링크된 문서를 읽고 템플릿을 조정할 수 있을 것이다. 마침내 마이크로소프트는 모두가 기대한 커넥터를 추가하고 있다. 윈도우 코파일럿이 빙을 통해 웹을 서핑하고 지식 심화를 위해 다양한 플러그인을 활용하도록 허용하고 있는 것과 같이 마이크로소프트 365의 코파일럿 또한 이러한 기능을 추가하고 있다. 마이크로소프트는 빙, 마이크로소프트 데이터버스, 지라, 트렐로, 뮤럴(Mural), 컨플루언스(Confluence), 프레시웍스(Freshworks), 프라이오리티 매트릭스(Priority Matrix) 등으로 구동되는 웹 검색을 포함한 여러 플러그인 및 그래프 커넥터를 현재 사용할 수 있다고 설명한다. 웰스 파고나 KPMG와 같은 기업도 자체 맞춤형 커넥터를 개발 중이다. 이 외에도 더 있다. 마이크로소프트는 비바 인사이트 프로그램(Viva Insights program)을 위해 전문화된 코파일럿을 제공하고 있다. 또한 마이크로소프트의 IFTTT 버전인 파워오토메이트를 활용할 경우 자동화된 업무 플로우 혹은 매크로 생성은 흥미로우나 그 단계가 번거롭다는 것을 알 수 있을 것이다. 코딩과 다소 유사하다. 코파일럿이 코딩에 상당히 능숙하다는 점을 감안해 마이크로소프트는 코파일럿 AI를 파워 오토메이트 작성 프로세스에 통합할 계획을 가지고 있다. 그러나 이 기능의 경우 아직 프리뷰 단계에 있으며 출시 날짜는 정해지지 않았다. 마이크로소프트는 AI를 활용해 일부 계획 앱을 결합하지는 않으나 어쨌든 이와 같이 하고 있다. 마이크로소프트 작업 관리, 플래너 및 프로젝트의 경우, 2024년 초 팀즈를 위한 플래너 앱을 시작으로 마이크로소프트 플래너에 결합될 예정이다. 이름을 제외하면 바뀌는 기능은 없을 것 같다. 지난 3월 마이크로소프트가 오피스 코파일럿 비전의 밑그림을 그린 지 6개월 만에 코파일럿 AI가 수행할 수 있는 작업에 대한 비전이 더욱 풍부해진 셈이다. editor@itworld.co.kr
최근 오픈AI는 미국 샌프란시스코에서 개발자를 대상으로 한 첫 대규모 공개 이벤트인 데브데이(DevDay)를 개최하고 챗봇 맞춤 설정, 애플리케이션 구축, 음성 처리를 위한 새로운 툴을 포함한 여러 가지 새로운 제품과 기능을 발표했다. 모두 생성형 AI 기술을 중심으로 하는 견고한 개발자 커뮤니티 육성에 초점을 맞춘 툴이다. AI 자문가이자 투자자인 앨리 K. 밀러는 X(구 트위터)에 올린 글에서 “지금까지 참석한 다른 대형 기술 이벤트와 비교했을 때 오픈AI 데브데이는 ‘이 새로운 릴리스로 당장 뭔가를 만들어야겠다’라는 생각을 들게 한다는 면에서 가장 효과적이었다”면서 “빌더 활성화 점수가 10점 만점에 11점”이라고 말했다. 생성형 AI 프로젝트에 대한 호기심을 불러일으킬 만한 오픈AI의 제품 혹은 플랫폼 3가지와 이에 대항할 만한 새로운 오픈소스 대안 1가지를 살펴보자. GPT를 사용한 챗봇 맞춤 설정 오픈AI 라인업에서 가장 눈길을 끄는 요소는 특정 작업을 위한 맞춤형 챗봇을 만드는 새로운 노코드 방식이다. GPT로 불리는 이런 봇에는 작성자가 제공한 특정 데이터를 기반으로 질문에 답하도록 하는 옵션이 포함된다. 이를 사용하면 고객 서비스, 문서 Q&A 또는 제품 데이터베이스 연결과 같은 도메인별 챗GPT 기반 봇을 훨씬 더 빠르게 만들 수 있다. 해당 기능은 이번주 중에 사용자를 대상으로 제공된다. 오픈AI 기반 챗봇 구축은 예전부터 이미 이뤄지고 있지만, 이번에 출시된 기능은 챗봇 구축 작업을 더 쉽고 빠르게 만든다. GPT는 게시를 위한 오픈AI의 웹 플랫폼, 챗GPT 사용자 경험, 생성형 AI를 제공하는 LLM도 사용할 수 있다. 필자는 업로드된 문서 집합에 대한 질문에 LLM이 최선의 답변을 제공할 수 있도록 데이터 처리를 최적화하고 어떤 프론트엔드를 사용할지, 어디에 호스팅할지 결정하는 데 다소 오랜 시간을 소비하는 사람으로서 이 기능이 얼마나 잘 작동할지 궁금하다. 챗GPT 엔터프라이즈 고객은 내부 전용 봇만 만들 수 있다. 개인 사용자는 봇을 비공개로 유지하거나 링크가 있는 사람에게 공개할 수 있으며, 개발자는 곧 출시될 오픈AI GPT 스토어에 자신의 GPT를 게시할 수 있다. 인기 있는 봇을 만들면 수익 배분을 받을 수도 있다. 여러 개발자가 히트작 만들기에 뛰어들 것으로 예상된다. 다 필자는 사용할 수 있는 옵션을 살펴보고 작업에 가장 적합한 옵션을 찾는 오픈AI 플러그인 경험은 그다지 인상적이지 않았다. 새로운 스토어가 최종적으로 작동하는 방식에 대해 회의적인 사람은 필자뿐만이 아니었다. 오픈AI CEO 샘 알트먼은 스토어에 게시되는 GPT가 허용 가능한 정책을 따르도록 할 것이라고 약속했다. 그러나 구글 플레이 같은 다른 시장을 근거로 볼 때 이는 생각만큼 쉽지 않은 일이다. 어쨌든 오픈AI의 현재 인기를 고려하면 GPT 스토어가 문을 열었을 때 많은 사람이 방문하게 될 것은 분명하다. 어시스턴트 API로 쉬워지는 앱 개발 이 새로운 API는 오픈AI에 봇을 호스팅하는 대신 자체 앱을 구축하고자 하는 개발자에게 GPT 기능을 제공한다. 기본 LLM API를 사용해 앱을 코딩하는 것보다 더 쉽게 스레드 및 긴 대화 등을 처리하는 방법을 제공한다. 해당 API는 동시에 여러 함수를 호출할 수도 있다. 또한 회사 측에 따르면, LLM이 이후 단계에서 사용되는 적절한 형식의 JSON을 반환할 가능성이 더 높아졌다. 소프트웨어 문서와 같은 특정 정보에 대한 질문에 답하는 챗봇 개발자를 위한 기능으로, 텍스트를 청크로 분할하고 의미(semantic) 검색을 위한 임베딩을 생성하는 등의 작업은 백그라운드에서 처리된다. 어시스턴트 API는 샌드박싱된 파이썬 코드를 실행하기 위한 코드 인터프리터(Code Interpreter)에도 액세스할 수 있다. 활성화된 코드 인터프리터는 LLM이 사용자의 질문에 일정한 계산이 필요하다고 판단할 경우 개입한다. 가령 오픈AI 데브데이 기조연설에서 소개된 어시스턴스 API 기반의 여행 앱 사례를 보면, 사용자가 항공편과 에어비앤비 청구서를 업로드하고 “4명이 이 에어비앤비에서 숙박할 예정입니다. 내가 부담해야 할 금액과 항공편 가격은 얼마입니까?”라고 묻자 LLM은 코드 인터프리터를 호출해서 파이썬 코드를 생성한 다음 질문에 답했다. 밀러는 트윗으로 “오픈AI 어시스턴트는 현재 오픈AI 플레이그라운드에서 사용할 수 있다. 자연어를 사용해 자기만의 봇을 프로그램할 수 있는 가장 파격적인 방법이다. 말 그대로 교과서 전체를 업로드해 나만의 가정교사를 만들 수 있고, 기술 문서를 업로드해 새로운 프로그램을 자습할 수도 있다”라고 썼다. 프로그래머는 플레이그라운드 대시보드에서 AI가 질의에 응답하기 위해 취하는 단계를 확인할 수 있다. 텍스트 투 스피치 API 오픈AI의 을 위한 텍스트 투 스피치(text-to-speech) 엔드포인트다. 6가지 음성이 포함돼 있는데, 음성 품질에 대한 초기 반응은 긍정적이다. MP3 형식으로 응답하지만, 다른 포맷도 가능하다. 실시간 오디오 스트리밍도 지원한다. 오픈소스 개발자 사이먼 윌리슨은 마스토돈에 올린 글에서 “새 API를 이해하기 위해 일반적으로 내가 사용하는 방법은 그 API로 뭔가를 만드는 것”이라며, 해당 API를 통해 텍스트를 파이핑하는 CLI 유틸리티 오스피크(ospeak)를 소개했다. 텍스트 투 스피치 API에 대한 자세한 내용은 에서 확인할 수 있다. 하루 만에 등장한 대안, 랭체인의 오픈GPT LLM으로 구축된 앱 개발을 위한 프레임워크를 제공하는 랭체인(LangChain)은 오픈AI 툴의 대안으로 를 출시했다. 랭체인 깃허브에는 “오픈GPT는 오픈AI의 GPT와 비슷한 경험을 제공하기 위한 오픈소스의 노력이다. 사용하는 LLM(랭체인이 제공하는 60개 이상의 LLM 중에서 선택), 사용하는 프롬프트(랭스미스(LangSmith)를 사용하여 디버깅) 및 여기에 제공하는 툴(랭체인의 100가지 이상의 툴 중에서 선택하거나 손쉽게 직접 만들 수 있음)을 더 폭넓게 제어할 수 있게 해준다. 오픈AI와 최대한 동등한 기능을 제공하기 위해 노력 중”이라고 나와 있다. 은 오픈AI 버전만큼 매끄럽지 않지만, 하루도 채 되지 않는 시간에 만들어졌다는 점은 주목할 만하다. 오픈GPT가 계속 발전하게 되면 오픈AI 생태계에 종속되기를 원하지 않는 개발자에게 매력적인 대안이 될 수 있다. 랭체인은 툴 선택 측면의 유연성을 원하지만 자체 클라우드 호스트를 관리하는 데는 관심이 없는 사람을 위한 호스팅 버전도 개발 중이다. 현재로서는 백엔드에 파이썬을 설치해서 로컬 버전을 실행할 수 있다. 프론트엔드에는 리액트, 타입스크립트 및 바이트를 사용한다. 리포지토리의 에서 더 자세한 정보를 확인할 수 있다. editor@itworld.co.kr
낙엽이 지고 하늘이 흐려지고 추위가 시작되고 모두가 햇살을 그리워할 때가 되면 인포월드 베스트 오픈소스 소프트웨어 어워드(BOSSIE)의 시간이다. 올해로 17년째를 맞는 이 어워드는 그 해의 가장 혁신적인 최고의 오픈소스 소프트웨어를 선정한다. 지금까지 그랬듯 2023년에 선정된 소프트웨어에도 놀라울 만큼 다방면에 걸친 기술이 포함돼 있다. 선정된 25개 소프트웨어 중에는 프로그래밍 언어, 런타임, 앱 프레임워크, 데이터베이스, 분석 엔진, 머신러닝 라이브러리, 대규모 언어 모델(LLM), LLM 배포를 위한 툴과 함께 말로는 설명하기 어려운 프로젝트도 한두 개 있다. 소프트웨어 분야에서 해결해야 할 중요한 문제가 있다면 거의 틀림없이 그 문제를 해결하기 위한 오픈소스 프로젝트가 등장한다. 2023년 수상작을 하나씩 살펴보자. 아파치 후디 많은 업계에서 개방형 데이터 레이크 또는 데이터 레이크하우스를 구축할 때 발전 가능성과 변경 가능성이 더 높은 플랫폼을 요구한다. 예를 들어 발행사, 광고주, 미디어 구매자를 위한 광고 플랫폼이 대표적인데, 빠른 분석으로는 충분하지 않다. 이때 필요한 것이 다. 빠른 데이터 형식, 테이블, SQL을 제공할 뿐만 아니라 저지연 실시간 분석을 지원한다. 아파치 스파크(Spark), 아파치 플링크(Flink), 그리고 프레스토(Presto), 스타록스(StarRocks), 아마존 아테나(Athena)와 같은 툴과도 통합할 수 있는 장점이 있다. 간단히 말해 데이터 레이크에서 실시간 분석을 하려면 후디는 정말 좋은 선택이다. 아파치 아이스버그 결과가 나오는 데 너무 오래 걸린다면 “잘 확장된다”는 것이 무슨 소용이 있겠는가? 실제로 HDFS와 하이브(Hive)는 너무 느렸고, 그 대안으로 나온 것이 다. 아이스버그는 하이브에서 작동하지만 아파치 스파크, 아파치 플링크, 그리고 클릭하우스(ClickHouse), 드레미오(Dremio), 스타록스와 같은 다른 시스템에서도 바로 작동한다. 아이스버그는 이런 모든 시스템에 고성능 테이블 형식을 제공하는 동시에, 전체 스키마 진화, 데이터 압축, 버전 롤백을 가능하게 해준다. 아이스버그는 많은 최신 개방형 데이터 레이크의 핵심 구성요소다. 아파치 슈퍼셋 은 오랜 기간 데이터 시각화의 강자였다. 슈퍼셋은 셀프 서비스 형태의 고객 대면 또는 사용자 대면 분석을 대규모로 배포할 때 현실적으로 유일한 선택지다. 파이 차트부터 복잡한 지리공간 차트에 이르기까지 거의 모든 분석 시나리오에 맞는 시각화를 제공한다. 대부분 SQL 데이터베이스와 호환되며 드래그 앤 드롭 빌더와 SQL IDE를 지원한다. 데이터를 시각화하려는 경우 고려해야 할 1순위다. 번 자바스크립트가 예측 가능한 루틴으로 자리를 잡았다고 생각할 때 이 등장했다. 이름은 장난스럽지만 목표는 진지하다. 서버 측 자바스크립트에 필요한 모든 것, 즉 런타임, 번들러, 패키지 관리자 등을 하나의 툴에 넣는 것이다. Node.js와 NPM을 대체할 수 있으며 속도는 훨씬 더 빠르다. 이 간단한 명제 덕분에 번은 노드가 애플카트(applecart)를 뒤집은 이후 자바스크립트에서 가장 파괴적인 기술이 됐다. package makes Bun a compelling alternative to Node and Deno. 번의 빠른 속도는 지그(Zig)에 일부 기인하지만 나머지는 번을 만든 재러드 서머의 성능에 대한 집착의 결과다. 명령줄에서 바로 차이를 느낄 수 있다. 성능 외에 모든 툴이 하나의 패키지로 통합돼 있다는 점으로도 노드와 데노(Deno)의 매력적인 대안이다. 클로드 2 앤트로픽(Anthropic)의 와 같은 상용 파트너가 있다. 코크로치DB , JP모건 체이스(JPMorgan Chase), 산탄데르(Santander), 도어대시(DoorDash) 등이 이 소프트웨어를 사용한다. C파이썬 머신러닝, 데이터 과학, 작업 자동화, 웹 개발…. 파이썬 프로그래밍 언어를 좋아할 수밖에 없는 이유는 무수히 많다. 딱 하나, 런타임 성능은 아니다. 하지만 이 문제도 서서히 해결되고 있다. 최근 두 릴리스인 파이썬 3.11과 파이썬 3.12에서 코어 파이썬 개발팀은 파이썬 인터프리터의 참조 구현인 에 대한 혁신적이고 방대한 업그레이드를 공개했다. C파이썬은 새로운 라이브러리 또는 최신 구문을 사용하는 극소수 사용자뿐 아니라 모두에게 더 빠른 속도를 제공하는 파이썬 런타임이자, 앞으로가 더 기대되는 애플리케이션이다. 파이썬에서 진정한 멀티스레드 병렬 처리를 가로막아 온 오랜 장벽인 전역 인터프리터 잠금이 조만간 제거될 것이기 때문이다. 덕DB OLAP 데이터베이스는 원래 무겁다. IBM 코그노스(Cognos), 오라클 OLAP, SAP 비즈니스 웨어하우스(Business Warehouse) 또는 클릭하우스를 “가볍다”고 묘사할 사람은 없을 것이다. 하지만 적당한 수준의 OLAP, 외부 종속성 없이 임베디드 형태로 프로세스 내에서 실행되는 분석 데이터베이스 정도만 필요할 때는 어떻게 해야 할까? 덕DB(DuckDB)가 있다. SQL라이트(SQLite)와 같은 작지만 강력한 프로젝트 정신을 기반으로 만든 분석 데이터베이스다. 덕DB는 SQL 쿼리, ACID 트랜잭션, 보조 인덱스 등 RDBMS의 익숙한 기능을 모두 제공하면서 대규모 데이터 집합에 대한 조인, 집계와 같은 분석 기능을 추가로 지원한다. 또한 파케이(Parquet)와 같은 일반적인 빅데이터 형식을 이용해 직접 쿼리할 수 있다. HTMX와 하이퍼스크립트 보통 HTML이 변할 일은 없다는 생각한다. 는 하이퍼카드와 비슷한 구문을 도입해 비동기 연산, DOM 조작을 포함한 많은 자바스크립트 작업을 간소화한다. HTMX와 하이퍼스크립트, 이 둘은 반응형 프레임워크의 현재 추세에 대한 과감한 대안을 제시한다. 이스티오 했다. 카타 컨테이너 컨테이너의 속도와 가상 머신의 격리를 결합한 로 두고 있다. 그 외에 카타 컨테이너를 지원하는 기업으로는 시스코, 델, 인텔, 레드햇, 수세, 우분투 등이 있다. 최근 릴리스에서는 GPU 기기의 기밀 컨테이너와 디바이스 관리 추상화가 추가됐다. 랭체인 이 있다. 언어 모델 평가 도구 새로운 대규모 언어 모델(LLM)이 출시되면 일반적으로 특정 벤치마크에서 챗GPT와 해당 모델을 비교한 일련의 평가 점수를 볼 수 있는데, 이는 모델을 개발한 회사가 에 나와 있듯이 세계를 지탱하는 작은 기둥 중 하나다. 라마 2 는 코드별 데이터 집합으로 라마 2를 미세 조정하는 방식으로 학습되며, 코드 또는 자연어 프롬프트에서 코드 및 코드에 대한 자연어를 생성할 수 있다. 올라마 에 따라 구축된다. 예를 들어 라마 2에 화약을 만드는 방법을 물어보면 폭발물 제조는 불법이며 위험하다고 경고하지만, 비검열 라마 2에 같은 질문을 하면 방법을 알려준다. 폴라스 파이썬에는 판다스(Pandas)라는 강력한 라이브러리가 있는데 또 다른 데이터프레임 랭글링 라이브러리가 굳이 필요한지 의문을 제기할 수 있다. 그러나 깊이 살펴보면 지금까지 찾던 것이 바로 에서 건너온 개발자라면 난해한 판다스 연산보다 폴라스 API가 더 친숙하게 느껴질 것이다. 대량의 데이터를 다루는 경우 폴라스를 사용하면 더 빠르게 작업할 수 있다. 포스트그레SQL 을 출시했다. Q로라 팀 데트머스의 팀은 모든 기기, 심지어 토스터에서도 대규모 언어 모델을 실행하는 것을 목표로 둔 듯하다. 2022년 이들이 내놓은 다. Q로라를 사용하면 300억 매개변수 이상의 초대형 모델을 데스크톱 컴퓨터에서 미세 조정할 수 있으며, 여러 GPU를 사용한 전체 튜닝과 비교해 정확도 손실도 거의 없다. 오히려 Q로라가 더 나은 경우도 종종 있다. 저비트 추론 및 학습은 더 많은 사람이 LLM에 액세스할 수 있음을 의미한다. 이것이 바로 오픈소스의 핵심이 아니고 무엇이겠는가? 래피즈 과 함께 고성능 컴퓨팅 환경에서도 작동한다. 스파크 NLP 했다. 스타록스 분석 세계가 바뀌었다. 지금 기업은 수백만 명의 동시 사용자에게 실시간으로 복잡한 데이터를 제공하는 경우가 많다. 페타바이트급 쿼리도 몇 초 이내에 처리해야 한다. 이때 중요한 역할을 하는 것이 를 포함한 데이터 레이크 및 데이터 레이크하우스에서 직접 쿼리하는 경우에도 네이티브에 근접한 성능을 제공한다. 실시간 분석, 고객 대면 분석, 데이터 이동 없는 데이터 레이크 쿼리 등 어떤 용도로든 스타록스는 한번 써볼 가치가 있다. TensorFlow.js 라이브러리를 대상으로 TensorFlow.js를 실행할 수 있다. 노드(Node) 라이브러리도 동일한 자바스크립트 API를 제공하지만 속도와 CPU/GPU 사용량을 극대화하기 위해 C 바이너리 위에서 실행된다. 머신러닝에 관심이 있는 JS 개발자라면 당연히 TensorFlow.js를 찾아야 한다. 광범위한 개발자 커뮤니티가 더 용이하게 AI를 사용할 수 있게 해주는, JS 생태계 관점에서 반가운 기술이다. vLLM 대규모 언어 모델을 앞다퉈 프로덕션에 배포하는 상황이 펼쳐지면서, 추론 속도를 최대한 빠르게 해주는 데 중점을 둔 프레임워크가 쏟아져 나왔다. 지원과 같은 새로운 기능도 빠르게 추가되고 있다. 위비에이트 생성형 AI가 폭발적인 인기를 끌면서 방대한 양의 복잡한 비구조적 데이터를 지원하는 새로운 종류의 데이터베이스에 대한 필요성이 대두됐고 그래서 나온 것이 벡터 데이터베이스 다. 위비에이트는 배포 모델, 생태계 통합, 데이터 개인정보 보호 측면에서 개발자에게 많은 유연성을 제공한다. 멀티모달 데이터(텍스트, 이미지, 오디오, 비디오)의 빠르고 확장 가능한 발견을 위해 키워드 검색과 벡터 검색을 결합한다. 또한 검색 증강 생성(RAG)을 위한 즉시 사용 가능한 모듈도 지원한다. 이 모듈은 챗봇 및 기타 생성형 AI 앱에 도메인별 데이터를 제공해 유용성을 높여준다. 지그 는 현재 추진되고 있는 모든 오픈소스 프로젝트를 통틀어 가장 중대한 프로젝트라고 할 수 있다. 지그는 더 강력하고 오류가 덜 발생하는 구문을 제공하는 동시에 C보다 성능이 뛰어난 프로그램 수준 메모리 제어 기능을 갖춘 범용 프로그래밍 언어를 만드는 프로젝트다. 목표는 무려 프로그래밍 생태계의 기본 언어로서 C를 대체하는 것이다. C는 보편적인 언어다. 즉, 모든 곳의 시스템과 기기에서 가장 일반적인 구성 요소이므로, 지그의 성공은 곧 성능과 안정성의 광범위한 개선을 의미할 수 있다. 모든 개발자가 희망하는 것이기도 하다. 게다가 지그는 원대한 목표와 오픈소스 정신을 가진, 전통적인 풀뿌리 프로젝트다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. class="image" ⓒ Getty Images Bank 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. class="image" ⓒ Getty Images Bank 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. class="image" ⓒ Getty Images Bank 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM class="image" ⓒ Getty Images Bank 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. class="image" ⓒ Getty Images Bank 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
누구나 널리 알려진 좋은 소프트웨어를 사용하고 싶지만, 사실 전문가용 프로그램은 개인이 구매하기에 너무 비싸다. 이럴 때는 실행 파일은 물론 소스 코드까지 다운로드할 수 있는 오픈소스 소프트웨어라는 대안이 있다. 무료 소프트웨어여서 그 품질과 기능에 의심이 들겠지만 걱정할 필요가 없다. 많은 오픈소스 소프트웨어가 전문가용 제품 못지않은 품질과 기능을 제공한다. 오피스부터 미디어 편집, 파일 관리 및 백업까지 분야별 최고의 오픈소스 애플리케이션을 모았다. 생산성 : 오피스, PDF 및 컨퍼런스 툴 컴퓨터에서 매일 하는 작업을 꼽으라면 무엇보다 문서 편집이다. 리브레오피스(LibreOffice)는 텍스트, 스프레드시트, 프레젠테이션을 작성하는 종합 오피스 패키지로, 2000년에 소스코드가 공개된 오픈 오피스(Open Office)에서 파생됐다. 오픈 오피스 프로젝트는 현재 아파치 오픈 오피스라는 이름으로 지속되고 있다. 리브레오피스의 빠른 업데이트 주기는 아파치 오픈 오피스보다 유리한 점이다. 최신 7.5 버전에서는 라이터(Writer)의 텍스트 문서 편집 기능이 개선돼 머리글의 서식이 향상됐고 표 삽입이 쉬워졌다. 컬러 북마크를 사용해 섹션을 더 쉽게 탐색하고 찾을 수 있다. 스프레드시트인 칼크(Calc)에서는 확장된 수식 보조 기능과 다이어그램을 위한 새로운 함수가 눈에 띈다. 드로우(Draw)와 임프레스(Impress)는 표를 더 쉽게 디자인할 수 있게 바뀌었고, EMF 그래픽을 더 빠르게 가져올 수 있다. 어두운 색의 사용자 인터페이스가 표시되는 다크 모드도 지원된다. 한편 여러 기기 간 문서 교환에 유용한 것이 바로 PDF 포맷이다. PDF 파일로 문서를 만들면 다른 운영체제와 모바일 앱에서도 문서가 깨지지 않고 똑같이 표시된다. 마킹, 메모와 같은 부가 기능을 사용해 신속하게 메모 또는 변경 요청을 문서화할 수 있고, 그룹 작업도 가능하다. 보통 많은 사람이 PDF 파일을 다루기 위해 무료 어도비 아크로벳 리더를 사용하지만, PDF 파일을 빠르게 보는 용도로는 오픈소스 프로그램인 수마트라 PDF(Sumatra PDF)가 있다. 구글 번역 및 딥엘(DeepL)을 통한 번역으로 연결되는 링크, 주석을 사용한 마커 삽입 등의 기능을 제공한다. 협업 툴도 살펴보자. 팀의 협업 형태는 코로나 시기를 거치면서 크게 변했다. 온라인 비디오 컨퍼런스가 이제 보편적으로 사용된다. 화상회의는 회의실이 불필요하고 출장을 갈 필요도 없으며 이동 중에도 참여할 수 있는 장점이 있다. 협업 툴에는 줌 또는 마이크로소프트 팀즈가 유명하지만, 오픈소스 대안으로 오픈 토크(Open Talk)가 있다. 오픈 토크 시스템은 클라우드에서 작동하며 웹사이트를 통해 바로 사용할 수 있다. 전화 걸기, 화면 공유, 투표, 회의 녹화 등 상용 경쟁 툴과 비슷한 기능을 제공한다. 이밖에 많은 기업이 이미 작업 그룹을 디지털 방식으로 관리할 텐데, 이 분야에는 매터모스트(Mattermost)가 있다. 그룹 채팅, 프로젝트 관리, 소리를 포함한 화면 공유 옵션 등을 지원하는 데스크톱, 모바일 및 온라인 시스템이다. 매터모스트 웹사이트의 무료 계정을 통해 사용할 수 있다. 회사 IT에 통합하려면 추가 소프트웨어가 필요하며, 기술 지원 및 IT 통합은 유료로 제공된다. 인터넷 : 브라우저와 이메일 메시징, 온라인 쇼핑, 인터넷 뱅킹은 많은 사람에게 없어서는 안될 요소로 자리잡았고, 이런 사이트에 액세스하려면 웹 브라우저가 필요하다. 많은 사용자가 구글 크롬을 선호하지만 크롬에는 개인정보 보호 문제가 있다. 인터넷 검색을 넘어서는 구글의 탐욕스러운 데이터 수집은 이미 악명이 높다. 대안은 언구글드 크로미엄(Ungoogled Chromium)이다. 크롬 웹 브라우저의 오픈소스 버전으로, 구글의 모든 액세스가 차단된다. 서핑 시 기능 제약은 없으며 크롬 웹 스토어의 확장 프로그램도 작동한다. 이메일 역시 PC에서 매일 사용하는 기능이다. 이메일은 속도가 빠르며 사진이나 문서, 다양한 데이터를 주고받기에 적합하다. 썬더버드(Thunderbird)는 많은 기능을 갖춘 무료 메일 프로그램이다. 여러 사서함과 다양한 전송 프로토콜, 주소록, 캘린더 등을 지원한다. 썬더버드 20주년을 맞아 개발팀은 앱 전체에 대한 전반적인 현대화를 진행중이다. 멀티 미디어 : 사진, 영상, DTP 및 디자인 디지털 사진의 인기가 계속되는 가운데, 김프(Gimp)를 사용하면 손쉽게 사진을 편집할 수 있다. 대비와 밝기를 조절하고 이미지를 더 선명하게 할 수 있다. 레이어, 마스크를 비롯한 이미지 몽타주 툴은 오래전부터 거의 모든 이미지 툴이 지원하는 표준 기능이다. 김프 버전 2.10부터는 배경 제거 툴이 추가됐고, 영역을 자르고 선택하는 툴도 포함된다. 또다른 오픈소스 이미지 편집 툴인 디지캠 포토 매니저(Digikam Photo Manager)는 사진 모음을 전체적으로 보여준다. 키워드, 평점, 컬러 마커를 기준으로 정렬하거나 사진의 메타데이터를 분석해 위치를 보여준다. RAW 이미지를 위한 편집 기능과 툴도 있다. 로우 테라피(RAW Therapee)도 RAW 사진 현상을 위한 다양한 툴과 이미지 보기 관리를 포함한 많은 RAW 옵션을 제공한다. 데스크톱 출판(DTP)용 문서 디자인 분야에는 잉크스케이프(Inkscape)와 스크라이버스(Scribus)의 조합을 추천한다. 잉크스케이프에서는 세밀한 일러스트레이션을 디자인할 수 있다. 곡선, 개체, 텍스트를 만드는 주요 기능을 지원하고, 요소 정렬, 색 채우기, 그라디언트 또는 그래픽 결합을 포함한 다양한 툴이 있다. 이 프로그램을 이용하면 확장 가능한 로고, 인포그래픽 및 기타 디자인을 빠르게 만들 수 있다. 이렇게 만든 요소는 스크라이버스의 페이지 디자인에 사용할 수 있다. 샘플 페이지와 자체 디자인된 표준 요소를 사용해 간단한 전단지 또는 메뉴뿐만 아니라 신문, 잡지도 만들 수 있다. PDF 형식으로 출력해 전문적인 인쇄까지 가능하다. 잉크스케이프와 스크라이버스는 JPG, TIF, PNG, SVG와 같은 다양한 그래픽 형식을 지원한다. 한편 그림을 그리고 스케치하고 색을 칠하는 작업을 컴퓨터에서 하는 경우가 늘어나고 있다. 그 결과 아티스트의 일러스트레이션, 그림 또는 개념 디자인까지 디지털로 받아 별도의 스캔 작업 없이 즉각 처리할 수 있는 세상이다. 이때 특수한 그래픽 프로그램을 사용하면 머리 속 아이디어를 바로 화면으로 옮길 수 있다. 크리타(Krita)가 대표적이다. 특수한 브러시 팁, 레이어, 효과, 마스크를 통해 이 과정을 지원한다. 애니메이션 옵션을 사용해 생기를 불어넣을 수도 있다. 그래픽 태블릿과 함께 사용하면 디지털 펜의 압력과 기울기까지 반영해 브러시 스트로크 또는 디지털 연필 스트로크를 표현한다. 3D 애플리케이션인 블렌더(Blender)도 있다. 나온지 30년이 넘은 이 유서 깊은 앱은 처음에 영화사에서 내부적으로만 사용되다가 2002년 오픈소스가 된 이후부터 개발 속도가 빨라졌다. 정교한 모델링과 텍스처 모듈 외에 애니메이션, 합성, 비디오 편집을 위한 기능도 제공한다. 플러그인 인터페이스와 스크립팅을 통해 사용자가 원하는 대로 확장하고 조정할 수 있다. 블렌더는 지원하는 기능이 워낙 다양해 쓰임새도 광범위하다. 예를 들어 스파이더맨 2와 원더우먼 등 헐리우드 영화 제작에도 이 툴이 사용됐다. 나사(NASA)는 인터렉티브 웹 애플리케이션인 익스피리언스 큐리오시티(Experience Curiosity)에 블렌더를 사용했다. 영상 재생기로는 VLC 미디어 플레이어가 압도적이다. 구형 휴대폰 촬영 영상부터 새로운 고해상도 4K 클립까지 VLC로 재생할 수 없는 형식은 거의 없다. 재생 목록 사용하기, 온라인 비디오 및 팟캐스트 검색, 홈 네트워크를 사용한 스트리밍 등으로 다양한 용도에 맞게 사용할 수 있다. 잘 알려져 있지는 않지만 비디오 변환 기능도 유용하다. 샷컷(ShotCut)은 비디오 편집에 유용하다. 비디오를 보고 자르고 배열하는 용도로 사용된다. 비디오, 오디오, 전환, 효과 믹싱을 위한 유연한 타임라인도 제공한다. FFmeg 프레임워크를 설치하면 다양한 비디오 형식을 가져오고 내보낼 수 있다. 많은 사용자가 마이크로소프트의 미디어 플레이어를 사용해 음악 파일을 관리한다. 미디어 플레이어는 디지털화, 재생, 다른 기기로의 스트리밍을 지원하는 좋은 툴이지만 시스템 리소스를 과도하게 쓰는 단점이 있다. 이럴 때 사용할 수 있는 오픈소스 대안이 도파민(Dopamine)이다. 훨씬 더 가벼우면서도 많은 관리 기능, 재생 목록, 통합 이퀄라이저를 제공한다. 또한 온라인에서 노래 가사를 불러오고 Last.fm 및 디스코드를 통합할 수 있다. 포터블 버전이 특히 유용하다. 음악이 들어 있는 USB 드라이브에 설치해 두면 다양한 컴퓨터에서 사용할 수 있으며 곡 데이터베이스는 항상 최신 상태로 유지된다. 이 기능은 로컬 네트워크에서도 작동한다. 보안과 관리 : 데이터 및 시스템 백업 중요한 데이터와 시스템 파티션은 반드시 정기적으로 백업해야 하는데, 문서, 사진 및 음악 백업에 안성맞춤인 오픈소스가 바로 듀플리카티(Duplicati)다. 설치하고 시작하면 백그라운드에서 작동하며, 데이터 선택, 스케줄 등의 구성은 브라우저 인터페이스를 통해 할 수 있다. 하드 디스크, 네트워크 드라이브, USB 스토리지 디바이스 또는 인터넷의 서버를 백업 파일 저장 대상으로 설정할 수 있다. FTP, WebDAV와 같이 잘 알려진 전송 프로토콜 외에 드롭박스, 아마존, 구글과 같은 클라우드 서비스 액세스도 지원한다. 저장된 데이터를 압축하며 AES256으로 암호화한다. 전체 파티션 또는 하드 드라이브 백업에 적합한 또다른 오픈소스 앱이 클론질라(Clonezilla)다. CD 또는 USB 드라이브에 부팅 가능한 복구 시스템을 만든 다음 이를 사용해 하드 디스크 또는 개별 파티션의 이미지를 만든다. 하드웨어 장애가 발생하면 클론질라로 시스템을 재시작하고 이미지 데이터를 복원하면 된다. 백업 저장 대상으로는 로컬 스토리지 기기 또는 네트워크 드라이브를 설정할 수 있다. 클론질라는 NFS 또는 WebDAV를 통해 연결을 설정해 인터넷의 서버로도 데이터를 백업할 수 있다. 한편 문서나 사진을 파일 단위로 공유하는 방법은 많다. 단, 클라우드나 이메일을 통한 공유는 많은 경우 보안 위험이 따르므로, 민감한 데이터의 경우 암호화된 연결을 사용하는 것이 좋다. 이처럼 안전한 파일 교환이 필요할 때 쓸 수 있는 앱이 어니언셰어(Onionshare)다. 어니언셰어는 토르(Tor) 브라우저에 적용돼 사용자 정보를 익명화하는 어니언(Onion) 기술을 활용해 데이터의 안전한 교환을 구현한다. 즉, 전송의 경우 수신자가 검색할 수 있는 어니언 주소를 생성하고, 데이터 암호화 자체가 부가적인 보안을 형성한다. 발신자는 수신자가 전송 잠금을 해제할 수 있는 개인 키를 정의한다. 어니언셰어에는 파일 공유 기능 외에 채팅 옵션과 토르 네트워크를 통해 안전하게 웹사이트를 제공하는 웹 서버 기능도 있다. 그밖에 유용한 오픈소스 애플리케이션 ZIP 형식은 여러 파일을 하나의 패키지로 합치고 데이터를 압축한다. 파일을 압축하면 메일 또는 클라우드를 통해 더 빠르게 전송할 수 있다. 이런 ZIP 압축 프로그램 중 가장 유명한 오픈소스 앱이 7Zip이다. 7Zip은 ZIP 압축 파일을 열고 생성하며 파일을 추가 또는 제거할 수 있고 원하는 경우 윈도우 탐색기의 컨텍스트 메뉴에 통합할 수 있다. 이렇게 하면 ZIP을 열고 만드는 작업을 빠르게 불러올 수 있다. 7Zip을 이용하면 ZIP 파일을 지원할 뿐만 아니라 RAR, TAR, BZIP2, GZ, ARJ, LHA, LZH와 그 외의 많은 형식도 읽을 수 있다. 민감한 데이터가 포함된 파일이라면 AES 크립트(AES Crypt)를 사용해 손쉽게 암호화할 수 있다. 파일을 암호화하면 인터넷을 통해 전송할 때도 안전하게 보호할 수 있다. AES 크립트를 설치하면 윈도우 탐색기의 컨텍스트 메뉴에 새 항목이 생긴다. 암호화를 실행하려면 마우스 오른쪽 버튼으로 하나 이상의 파일을 클릭하고 컨텍스트 메뉴의 “AESCrypt”를 클릭한다. 이후 열리는 창에서 비밀번호를 입력하고 확인을 누르면 된다. 비밀번호를 입력해야만 데이터에 대한 액세스를 허용하는 256비트 보안 파일을 생성한다. 이런 파일을 열려면 마우스 오른쪽 버튼을 다시 클릭하고 AES크립트 항목을 선택한 다음 비밀번호를 입력해야 한다. editor@itworld.co.kr
대규모 언어 모델(LLM)을 기반으로 하는 챗GPT, 클로드(Claude), 바드(Bard)를 비롯한 공용 생성형 AI 챗봇도 충분히 좋지만, 이와 같은 범용 챗봇은 엔터프라이즈 워크플로우에 매끄럽게 통합되지는 않는다. 기업 직원이 별도의 앱을 사용하거나, 회사가 시간과 노력을 들여 애플리케이션 프로그래밍 인터페이스를 통해 자체 애플리케이션에 AI 기능을 추가해야 한다. 또한 챗GPT 및 기타 생성형 AI 챗봇을 사용하기 위해서는 직원이 프롬프트 엔지니어링에 대해서도 배워야 한다. 반면, 임베디드 생성형 AI는 직원이 이 기술을 가장 필요로 하는 곳, 즉 기존 워드 프로세싱 애플리케이션과 스프레드시트, 이메일 클라이언트를 비롯한 기타 엔터프라이즈 생산성 소프트웨어에 새로운 AI 기능을 구현해주며, 이를 위해 회사가 따로 해야 할 일도 없다. 제대로 구현되면 직관적으로, 단절 없이 새로운 AI 기능을 사용할 수 있게 되므로 어려운 생성형 AI 사용법 학습 과정 없이 모든 혜택을 누리게 된다. 포레스터는 최근 북미와 영국의 기술 의사 결정자를 대상으로 한 설문조사 결과를 근거로 2025년까지 거의 모든 기업이 쓰기 및 편집을 포함한 커뮤니케이션 지원 용도로 생성형 AI를 사용하게 될 것으로 예측했다. 실제로 설문 응답자의 70%는 쓰기 또는 편집 작업의 대부분 또는 전체에서 이미 생성형 AI를 사용하고 있다고 답했다. 그러나 포레스터에 따르면 챗GPT 같은 독립적인 생성형 AI 툴은 교차 직무 협업을 지원하지 못하며 직원이 업무를 수행하는 부분에서 작동하지도 않는다. 포레스터는 설문조사 보고서에서 “많은 사용 사례에서 생성형 AI는 독립형 앱보다는 임베디드 기능일 때 더 큰 혜택을 제공한다는 의미”라고 설명했다. IBM 컨설팅의 글로벌 AI 및 분석 부문 리더 매니시 고얄 역시 “아무리 좋은 AI를 가져오더라도 정작 사람들이 워크플로우에서 AI를 사용할 수 없다면 채택되지 않는다"라고 말했다. 임베디드 생성형 AI와 관련하여 현재 가장 큰 화제는 마이크로소프트 365 생산성 제품군 전반에 통합 구축되고 있는 생성형 AI 비서인 마이크로소프트 365 코파일럿이다. 일부 생성형 AI 기능은 팀즈 및 기타 마이크로소프트 365 앱에 구현됐지만 코파일럿 자체는 아직 정식 출시되지 않았고 테스트를 위한 초기 액세스가 허용된 기업은 600개에 불과하다. 마이크로소프트 365 코파일럿의 정식 출시를 손꼽아 기다리고 있는 솔루션 통합업체 인사이트(Insight)의 최고 엔터프라이즈 설계자 겸 CTO 데이비드 맥커디는 “데모를 본 사람이라면 생성형 AI의 통합이 백오피스가 돌아가는 방식을 완전히 바꿔 놓게 될 것임을 알고 있다"라고 말했다. 한편 일부 기업은 오픈AI에 대한 API를 통하거나 라마 2(Llama 2) 같은 LLM을 로컬로 실행해서 자체 앱에 생성형 AI를 직접 추가하고 있다. 예를 들어 인사이트는 API를 통해 마이크로소프트 엑셀에 생성형 AI를 내장했다. 맥커디는 “다만 향후 오피스 365에 통합될 것이기 때문에 이 부분에 대한 개발을 너무 많이 하지는 않고 있다"라고 말했다. 자체 AI 임베드를 만드는 데 필요한 시간이나 인력을 갖추지 못한 기업도 지금 생산성 툴 내에서 생성형 AI 사용을 시작할 수 있다. 많은 업체가 이미 앱에 다양한 생성형 AI 기능을 추가했기 때문이다. 예를 들어 줌, 마이크로소프트 팀즈를 비롯한 여러 온라인 회의 플랫폼은 내장형 또는 애드온 방식으로 AI 기반 요약 기능을 제공한다. 맥커디는 “이 기능이 회의 요약 방식을 완전히 바꾸어 놓았다. 요약 기능이 매우 유용한다는 점은 확실히 말할 수 있다. 큰 이득이 없는 기능도 많지만 요약과 목록 작성만큼은 최고”라고 말했다. 일부 기업에서 워크플로우에 생성형 AI를 어떻게 사용하고 있는지, 어느 부분에서 효과적인지, 그리고 생성형 AI를 안전하게 도입하기 위한 전략은 무엇인지 알아보자. 스트림 파이낸셜 : 이메일, 텍스트 문서, 코드의 생성형 AI 미국 솔트레이크시티에 소재한 핀테크 기업 스트림 파이낸셜 테크놀로지(Stream Financial Technology)의 엔지니어링 책임자인 조완자 조셉은 “우리가 사용하는 스파크(Spark)라는 이메일 클라이언트에는 이메일 요약과 작성을 위한 생성형 AI가 내장돼 있다"라고 말했다. 조셉은 “나도, 경영진도 대부분 긍정적이다. 유일하게 부정적으로 보는 부분은 AI가 이해 부족을 가리는 허울이 될 수 있다는 점이다. 즉, 글을 읽다가 말이 안 되는 부분이 있어서 지적하면 AI가 써서 그렇다고 둘러댈 수 있다는 점”이라고 말했다. 스트림 파이낸셜이 사용하는 또 다른 생성형 AI 툴은 마이크로소프트 워드, 구글 문서도구를 비롯한 많은 애플리케이션 내에서 작동하는 그래멀리(Grammarly)다. 그래멀리는 처음에는 단순한 문법 검사기였지만 최근 AI 기반의 텍스트 생성, 문구 수정 및 요약 기능까지 더했다. 조셉은 “그래멀리 기업 구독을 이용하고 있다. 구글 문서 도구 내에서 작동하며, 단락을 쓰거나 요약하도록 지시할 수 있다. 내용을 채워 넣고 요약하는 용도로는 좋지만 기술적인 분야에 대한 심층적인 내용은 다루지 못한다"라고 말했다. 조셉이 지적한 그래멀리 AI의 문제점은 각각의 상호작용이 별개라는 점이다. 챗GPT, 클로드와 같이 대화를 계속 주고받으면서 결과물을 세밀하게 다듬을 수가 없다. 조셉은 “그래멀리 AI에 무엇을 해야 할지 지시할 좋은 방법이 없다"라고 말했다. 조셉은 회사 측이 기밀 데이터 또는 고객 정보에 대해서는 공용 AI를 사용하지 않도록 주의한다고 강조했다. 조셉은 “장기적 관점에서 생성형 AI를 사용해 마케팅 문구와 같은 콘텐츠를 생성하는 데 대해 낙관적이다. A/B 테스트를 위한 다른 문구를 작성하거나 동일한 문구를 다양한 형태로 반복 생성할 수 있다"라고 말했다. 조셉은 생성형 AI가 가장 크게 영향을 미치는 부분은 코드 생성이라면서 “깃허브 코파일럿에 1인당 월 19달러를 내고 있는데, 그 5배라 해도 기꺼이 낼 것이다. 막대한 시간을 절약할 수 있게 해주며 지식도 상당한 수준”이라고 말했다. 조셉은 “코드 생성은 생성형 AI의 가치가 입증된 부분이다. 그 외의 모든 부분은 아직 단언할 수 없고, 갈 길이 멀다"라고 말했다. NFP : 마케팅 문구, 회의 요약에 생성형 AI 사용 보험 중개업체 NFP는 2년 전부터 텍스트 작성에 AI를 사용해왔다. 이 회사의 영업 지원 부문 SVP인 카일 힐리에 따르면 NFP는 챗GPT가 대중에 공개되기 훨씬 전부터 재스퍼(Jasper) AI를 사용해서 마케팅 문구를 작성했다. 처음 오픈AI의 GPT 3.5 대규모 언어 모델을 기반으로 2021년 2월 출시된 재스퍼는 화이자, 스포츠 일러스트레이티드(Sports Illustrated), 허브스팟(HubSpot), 센티넬원(SentinelOne)을 포함한 10만 곳 이상의 기업 고객을 두고 있다. 현재 재스퍼 AI는 가장 진보된 버전의 챗GPT와 같은 기반 모델인 GPT 4를 사용한다. 여기에 특정 사용 사례에 따라 맞춤화된 마케팅 또는 비즈니스 콘텐츠를 생성하도록 설계된 부가적인 모델과 세부적인 조정 등 비즈니스 친화적인 기능을 추가했다. 또한 회사 자체 브랜드 성격을 학습시키고, 회사 워크플로우 내에서 확장 기능 및 API를 통해 사용할 수 있다. 힐리는 “보안에 대해 일부 우려가 있었다. 그리고 재스퍼는 폐쇄형 시스템이다. 마케팅 부서에서 일부 카피라이팅 작업에 여전히 재스퍼를 사용하고 있다"라고 말했다. 최근 NFP는 재스퍼에서 영업 활동 지원 플랫폼인 세일즈로프트(Salesloft)에 내장된 생성형 AI 툴로 대부분 전환했다. 세일즈로프트는 지난 봄에 빠른 이메일 작성을 위한 생성형 AI 기능을 추가했다. 힐리는 “CRM 시스템의 안내 및 코칭에도 생성형 AI를 사용하기 시작했다. AI 툴이 모든 부분에 연결되기 시작하면서 이제는 더 많은 프로그램에서 GPT를 사용하고 있다. 마이크로소프트 생태계 전반에 완전히 내장된 형태”라고 말했다. 힐리 본인도 생성형 AI를 적극적으로 사용한다. 힐리는 “2023년 비즈니스 계획 전체를 AI를 사용해 작성했다”면서 “AI의 효과에 대해 내부적인 설득 작업을 진행하던 중에 고위직의 누군가가 AI가 아직 그 수준에 이르지 못했다고 말했다. 그래서 오기로 비즈니스 계획을 AI로 만들어서 제출했는데, 반응이 아주 좋았다. 로봇이 작성한 것으로 믿기지 않는다는 반응이었다"라고 말했다. 힐리는 “사모펀드 분야에서 일하는 영업팀의 고위급 직원도 리드를 작성하고 계약을 체결하는 데 AI를 사용하기 시작했다. 올해 초부터 경영진, 영업부서를 비롯해 많은 직원이 AI를 사용하고 있다. 이들은 ‘AI를 채택해야만 한다’고 말한다"라고 전했다. NFP는 마이크로소프트 팀즈에서도 생성형 AI를 사용해서 회의 노트를 자동으로 생성한다. 힐리는 “모두가 이해해야 할 중요한 점은 AI가 우리 일을 대체하는 것이 아니라 증폭하고 보강한다는 것이다. 같은 수의 사람으로 더 많은 일을 할 수 있게 해준다"라고 말했다. 힐리는 다음 단계는 세일즈포스의 생성형 AI 기능을 사용해서 원시 데이터를 해설적 데이터로 바꾸는 것이라며 “지금 이 부분을 추진하고 있다. 이를 통해 경영진은 자연스럽게 느껴지는 방식으로 정보를 흡수할 수 있게 된다. 예를 들어 나처럼 숫자에 서툴고 항상 숫자에서 막힌다면 숫자가 아닌 다른 방식으로 정보를 흡수할 수 있게 될 것”이라고 말했다. 생성형 AI 툴을 사용할지 여부를 결정할 때 중요한 것은 학습 데이터의 정확성과 개인정보 보호, 보안, 그리고 사용성이다. 힐리는 “영업 및 마케팅 문구에서는 사유 부분을 다루지 않는다. 그러나 NFP는 인수합병을 많이 한다. 법무팀이 AI를 사용해서 계약서를 더 빠르게 만들거나 미묘한 차이 또는 세부 사항을 찾을 수 있을까? 개인정보 보호와 보안, 클로즈드 소스 모델을 살펴봐야 한다"라고 말했다. 힐리는 지금은 영업 담당자가 새로운 AI 툴을 익히도록 하는 작업을 진행 중이라면서 “간소함과 사용의 용이함이 중요하다. 자연스럽게 느껴지는지, 마음을 먹고 사용법을 배워야 하는지가 관건”이라고 말했다. 힐리는 예를 들어 챗GPT는 사용하기가 쉽지 않았다면서 “챗GPT에 말을 하기 위해서는 거의 정해진 코스에 따라야 한다. 어떤 면에서는 프로그래밍과 상당히 비슷하다. 하지만 NFP는 기술 기업이 아니고 보험을 판매하는 회사”라고 말했다. 직원이 이미 사용하는 툴에 내장된 형태의 생성형 AI는 이러한 사용성 장벽을 극복하는 데 도움이 될 수 있다. 힐리는 “예를 들어 세일즈로프트는 반복적이고 유기적이다. 생성형 AI는 이 툴의 자연스러운 확장이다. 새로운 것을 배울 필요가 없다는 것이 NFP에는 중요한 점이다. 35년째 일하는 보험 담당자도 바로 사용할 수 있고, 25세 직원이라면 시스템 전체를 지극히 자연스럽게 받아들인다"라고 말했다. 톰슨 로이터 : 서신 초안 작성, 직원 질문에 대한 응답에 생성형 AI 사용 뉴스 기업 톰슨 로이터(Thomson Reuters)의 최고 인사 책임자인 매리 앨리스 부이식은 수십년 전부터 제품과 사무실에서 AI를 사용해왔다면서 “이미 존재하는 많은 부분에 AI가 내장돼 있다. 핵심은 증강, 즉 사람들이 더 가치 있는 일을 할 수 있도록 해주는 데 있다"라고 말했다. 부이식은 AI는 사람이 아니라 “작업을 대체한다"라고 말했다. 생성형 AI가 보편화된 지금 톰슨 로이터는 선제적으로 공급업체에 관심을 갖고 이들의 AI 로드맵을 살펴봤다. 부이식은 이미 많은 부분이 발표됐다고 말했다. 예를 들어 세일즈포스와 워크데이(Workday) 모두 생성형 AI 전략을 마련했다. 부이식은 “마이크로소프트 코파일럿과 그 외에도 수많은 툴이 있다"라고 말했다. 부이식은 톰슨 로이터에서 이미 많은 생성형 AI 툴이 사용되고 있다고 말했다. 예를 들어 커뮤니케이션 팀은 AI를 사용해서 문서의 초안을 작성한다. “실제로 작업의 첫 번째 초안 작성에서 전반적으로 AI 툴을 사용할 여지가 있다. 다만 정확성은 AI에 의지할 수 없고 교육에서도 이 부분을 다뤘다. 처음 초안이 작성된 다음에는 사람이 편집한다. 즉, 사람의 전문성을 적용해서 더 높은 품질의 제품을 제공한다"라고 말했다. HR 분야에서는 생성형 AI를 사용해 직원 질문에 답하기와 관련한 실험이 진행 중이다. 부이식은 “초기 결과는 매우 만족스럽다. 지금까지 정확도는 95%이며 과거 이러한 질문에 답하느라 빼앗겼던 시간을 돌려줘서 부가가치를 창출하는 일에 투자할 수 있게 해준다"라고 말했다. 생성형 AI 도입을 위한 세 갈래 접근 부이식은 톰슨 로이터는 가능성에서 앞서 나가기 위해 AI 도입을 가속화하기 위한 전사적 이니셔티브를 출범했다고 말했다. 첫 번째 단계는 AI 표준과 윤리의 정립으로, 몇 년 전부터 해오고 있다. 부이식은 “톰슨 로이터는 30년 이상 AI를 사용하고 있다. 생성형 AI 이전에도 이 분야의 리더가 되기 위해 노력했다"라고 말했다. 부이식은 “다음 단계는 인력 교육이다. 이는 반드시 필요한 단계”라고 말했다. 톰슨 로이터는 지난 4월 전세계 모든 직원이 참여할 수 있는 AI 교육의 날을 열었다. 총 2만 7,000명의 직원 중 약 7,000명이 라이브로 이 이벤트에 참석했다. 부이식은 “그 외에도 수천 명이 비동기적으로 이 교육 자료를 활용하고 있다"라고 덧붙였다. 부이식에 따르면 참가자의 대다수는 이미 자신의 업무에 생성형 AI를 적용할 수 있다고 말했다. 부이식은 “이는 로이터 직원 대부분이 앞으로 일하면서 겪게 될 가장 중요한 혁신이다. 우리는 이 부분에서 선두에 서야 한다. 회사 측은 교육과 개발, 업스킬 및 리스킬에 대한 책임이 있다. 그러나 모든 개인도 배우고 발전해야 할 책임이 있다"라고 말했다. 톰슨 로이터 AI 전략의 세 번째 축은 모든 툴을 실험할 수 있는 안전한 장소를 제공하는 것이다. 부이식에 따르면 톰슨 로이터는 생산성 소프트웨어에 내장된 생성형 AI 외에도 오픈AI, 앤트로픽, 구글, 그리고 라마 2와 같은 오픈소스 모델을 포함한 다양한 대규모 언어 모델을 실험하고 있다. 부이식은 “변화의 속도가 매우 빠르다. 톰슨 로이터는 고객 사용 사례를 위해 최선의 기술을 활용하고자 한다"라고 말했다. 마지막으로, 이 회사는 학습과 실험의 문화를 강화하고 있다. 부이식은 “가장 빠르게 배우고 실험하는 팀이 승리하게 될 것”이라고 말했다. 위험을 고려해서 현명하게 선택하기 몇몇 엔터프라이즈 기술 업체는 생성형 AI 기능뿐만 아니라 모델을 학습시키는 방법 또는 사용할 구체적인 모델에 관한 유연함도 고객에 제공한다. IBM 컨설팅의 고얄은 “IBM은 세일즈포스를 사용한다. IBM의 세일즈포스 관리자는 나와 같은 최종 사용자가 그냥 볼 수 있도록 적절한 모델을 선택하고 구성할 수 있다. 세일즈포스는 임베디드 AI를 선택할 수 있는 옵션도 제공한다"라고 말했다. 고얄은 IBM 컨설턴트가 현재 기업과 협력해서 마이크로소프트 365를 비롯한 과련 기술로 무엇이 가능한지, 그리고 법률 및 보안 측면에서 생성형 AI가 어떤 영향을 미치는지에 대해 생각하도록 돕고 있다고 말했다. 고얄은 “IBM의 왓슨x(Watsonx)에 대한 입장은 확고하다. 고객의 데이터는 고객의 소유라는 것이다. IBM은 모델 학습에 고객 데이터를 절대 사용하지 않는다. 애저, AWS, 구글과 협력하고 있으며 이들 각 기업은 생성형 AI의 이 부분에 있어 예전부터 명확한 입장을 유지하고 있다. IBM의 파트너 및 고객 역시 마찬가지다. 고객이 업로드하거나 서비스에 사용하는 어떠한 데이터도 모델 학습에 사용되지 않는다. 그렇지 않으면 어떤 기업도 AI를 사용하지 않을 것”이라고 말했다. 이 원칙을 위반한 엔터프라이즈 업체의 예로 줌이 있다. 줌은 처음에 회의 녹취록을 AI 학습에 사용할 것이라고 말했다가 격렬한 반발에 직면해 황급히 철회한 바 있다. 그러나 초기 학습 데이터의 출처에 대해서는 업체의 투명성이 부족하다. 고얄도 그 점을 인정하면서 “왓슨x는 학습 데이터에 대한 완전한 데이터 계보를 제공한다. 그러나 모든 업체가 그렇지는 않다. 명확하게 밝히지 않는 경우가 많다"라고 말했다. 또한 몇몇 AI 업체는 저작권이 있는 상품을 허가 없이 AI 학습에 사용했다는 이유로 아티스트 및 작가로부터 피소된 상황이다. 고얄은 “AI에는 항상 위험이 있었다"라고 말했다. 대규모 언어 모델에는 과거의 오래된 위험이 더 증폭된 경우도 있고 새로운 위험도 있다. 고얄은 “기업은 생성형 AI를 사용할 때 가드레일을 설치해야 한다"라고 말했다. 그러나 기업에 결국 중요한 것은 이러한 새로운 기능을 어떻게 사용할 수 있을지를 살펴보는 것이다. 고얄은 “그 방법을 가장 빠르게 파악하는 기업이 승자가 되고 꿈처럼 보이는 일을 현실화할 수 있을 것”이라고 말했다. editor@itworld.co.kr
파이썬은 강력하고 유연하며 다루기 쉬운 언어로 유명하다. 이런 장점 때문에 방대하고 다양한 애플리케이션과 워크플로우, 분야에 사용된다. 그러나 인터프리티드 언어인 데다 런타임의 동적 특성 때문에 파이썬은 C, C++와 같은 머신 네이티브 언어에 비해 속도가 훨씬 더 느리다는 고질적인 단점이 있다. 개발자들은 오랜 시간 동안 파이썬의 속도 제한을 극복하기 위한 다양한 방법을 고민해왔다. 예를 들어 성능 집약적인 작업을 C로 작성하고 이 C 코드를 파이썬으로 래핑하는 방법 같은 것이다. 많은 머신러닝 라이브러리가 실제로 이 방식으로 동작한다. 또는 파이썬 코드에 런타임 형식 정보를 섞어 C로 컴파일할 수 있게 해주는 프로젝트인 사이썬(Cython)을 사용하는 방법도 있다. 그러나 차선책은 이상적인 방법일 수는 없다. 그냥 파이썬 프로그램을 그대로 가져와 훨씬 더 빠르게 실행할 수 있다면 좋지 않을까? 그 대답이 바로 파이파이(PyPy)다. 파이파이 vs. C파이썬 파이파이는 기본 파이썬 인터프리터인 C파이썬(CPython)을 대체한다. C파이썬은 파이썬을 중간 바이트코드로 컴파일하고 이 바이트코드가 가상머신에 의해 인터프리트되는 방식인 데 반해, 파이파이는 JIT(JustInTime) 컴파일을 사용해 파이썬 코드를 머신 네이티브 어셈블리어로 변환한다. 수행하는 작업에 따라 상당한 정도의 성능 향상이 가능하다. 평균적으로 파이파이는 파이썬 3.7에 비해 파이썬 속도를 약 4.7배 더 높여주며 일부 작업에서는 50배 이상의 속도 향상이 가능하다. 새로운 버전의 C파이썬 인터프리터에도 특정 종류의 JIT 최적화가 추가되고 있지만 현재 파이파이의 범위와 효과에 비할 바는 아니다. 앞으로 대등해질 가능성을 배제할 수 없지만 적어도 지금은 아니다. 가장 좋은 점은 파이파이가 제공하는 효과를 얻기 위해 개발자가 따로 해야 할 일이 거의 없다는 것이다. C파이썬을 파이파이로 바꾸기만 하면 된다. (다음에서 설명할) 몇 가지 예외는 있지만 파이파이의 공식적인 목표는 기존의 파이썬 코드를 수정 없이 실행하면서 자동으로 속도를 높여주는 것이다. 현재 파이파이는 파이썬 2와 파이썬 3을 각기 다른 프로젝트 구현으로 모두 지원한다. 즉, 실행할 파이썬의 버전에 따라 다른 버전의 파이파이를 다운로드해야 한다. 파이파이의 파이썬 2 브랜치가 나온 시점이 훨씬 더 오래됐지만 파이썬 3 버전도 최근 거의 따라잡았다. 현재 파이썬 버전 3.9까지 지원하며 파이썬 3.10은 실험 수준에서 지원된다. 파이파이는 모든 핵심 파이썬 언어를 지원하는 것 외에, 패키징을 위한 pip, 가상 환경을 위한 virtualenv 등 파이썬 생태계의 방대한 툴과도 호환된다. C 모듈을 사용하는 패키지를 포함해 대부분의 파이썬 패키지는 변경 없이 그대로 동작한다. 물론 일부 제한도 있다. 이는 아래에서 살펴본다. 파이파이의 작동 방식 파이파이는 동적 언어를 위한 다른 JIT 컴파일러에도 있는 최적화 기법을 사용한다. 실행 중인 파이썬 프로그램을 분석하면서 생성 및 사용되는 객체의 형식 정보를 판단한 후 이 형식 정보를 가이드 삼아 속도를 높인다. 예를 들어 파이썬 함수가 한두 개의 객체 형식에서만 작동한다면 파이파이는 이러한 특정 사례를 처리하는 기계 코드를 생성한다. 파이파이의 최적화는 런타임에서 자동으로 처리되므로 일반적으로는 개발자가 직접 성능을 조정할 필요가 없다. 고급 사용자라면 파이파이의 명령줄 옵션을 변경하면서 특수한 사례를 위한 더 빠른 코드를 생성할 수 있지만 그럴 필요까지는 거의 없다. 또한 파이파이는 몇몇 내부 함수를 처리하는 방식도 C파이썬과 다르지만 동작의 호환성을 유지하려고 노력한다. 예를 들어 파이파이의 가비지 수집 방식은 C파이썬과 달라서 범위에서 벗어나는 모든 객체가 즉각 수집되지는 않으므로 파이파이로 실행되는 파이썬 프로그램은 C파이썬으로 실행되는 경우에 비해 메모리 사용량이 더 높게 표시될 수 있다. 그러나 gc 모듈을 통해 노출되는 gc.enable(), gc.disable(), gc.collect()와 같은 파이썬의 고수준 가비지 수집 컨트롤을 여전히 사용할 수 있다. 파이파이의 JIT 동작에 대한 정보가 필요하다면 파이파이에 포함된, 파이썬 애플리케이션에 대한 많은 JIT 후크를 노출하는 pypyjit라는 모듈을 활용하면 된다. JIT에서 성능이 떨어지는 함수 또는 모듈이 있는 경우 pypyjit를 사용해 세부적인 통계를 확인할 수 있다. 또 다른 파이파이 전용 모듈인 __pypy__는 파이파이만의 다른 기능을 노출하며 해당 기능을 활용하는 애플리케이션을 작성하는 데 유용하다. 파이썬의 런타임 동적 특성 덕분에 파이파이가 있을 때 이러한 기능을 사용하고, 없을 때는 무시하는 파이썬 애플리케이션을 만드는 것이 가능하다. 파이파이의 제약 파이파이는 매우 강력하지만 제약도 있다. 파이파이는 기본 C파이썬 런타임에 대한 완전한 범용 대체재는 아니다. 몇 가지 제약으로 인해 특정 종류의 프로그램에서는 파이파이의 효과가 줄어들거나 아예 사라진다. 가장 중요한 제한 사항은 다음과 같다. 파이파이는 순수 파이썬 앱에서 가장 효과적 : 파이파이는 전통적으로 “순수” 파이썬 애플리케이션, 즉 다른 언어 없이 파이썬만으로 작성된 애플리케이션에서 최고의 효과를 발휘했다. 넘파이(NumPy)와 같이 C 라이브러리와 접촉하는 파이썬 패키지는 파이파이가 C파이썬의 네이티브 바이너리 인터페이스를 에뮬레이션하는 방식상 좋은 결과를 얻지 못했다. 파이파이 개발자들은 그동안 이 문제를 줄여 나가면서 C 확장에 의존하는 대다수 파이썬 패키지와의 호환성을 더 높였다. 예를 들어 넘파이는 지금은 파이파이에서 매우 잘 작동한다. 그러나 최대한의 C 확장 호환성을 원한다면 C파이썬을 사용해야 한다. 파이파이는 장기간 실행되는 프로그램에서 가장 효과적 : 파이파이가 파이썬 프로그램을 최적화하는 방법의 특성상 장시간 실행되는 프로그램이 최적화 효과를 가장 많이 얻는다. 프로그램 실행 시간이 길수록 파이파이는 런타임 형식 정보를 더 많이 얻을 수 있고 최적화도 더 많이 할 수 있기 때문이다. 단발성 파이썬 스크립트는 이러한 혜택을 얻지 못한다. 이 효과를 얻는 애플리케이션은 일반적으로 오랜 시간 실행되는 루프가 있거나 백그라운드에서 지속적으로 실행되는 웹 프레임워크 같은 애플리케이션이다. 파이파이는 AOT 컴파일을 하지 못함 : 파이파이는 파이썬 코드를 컴파일하지만 파이썬 코드용 컴파일러는 아니다. 파이파이의 최적화 수행 방법과 파이썬의 태생적인 동적 특성으로 인해 JIT 코드를 독립형 바이너리로 배출해서 재사용할 방법이 없다. 즉, 이 문서에 설명돼 있듯이 각 프로그램이 실행될 때마다 매번 컴파일해야 한다. 파이썬을 독립형 애플리케이션으로 실행할 수 있는 더 빠른 코드로 컴파일하고 싶다면 사이썬, 넘바(Numba), 또는 현재 실험 단계인 누이트카(Nuitka) 프로젝트를 사용해야 한다. editor@itworld.co.kr
머신러닝(Machine learning)과 딥러닝(deep learning)은 널리 알려진 익숙한 용어지만, 이런 유명세 만큼이나 더 폭넓은 오해를 받는 부분도 있다. 여기서는 한 걸음 물러서서 머신러닝과 딥러닝의 기본을 살펴보고, 가장 보편적인 몇 가지 머신러닝 알고리즘을 알아본다. 이런 알고리즘이 역사적 데이터로부터 예측 모델을 만들기 위한 퍼즐의 다른 조각과 어떻게 관련되는지도 설명한다. 머신러닝 알고리즘이란 머신러닝은 데이터로부터 자동으로 모델을 생성하는 방법이고, 머신러닝 알고리즘은 머신러닝을 움직이는 엔진이다. 즉, 데이터 집합을 모델로 바꿔주는 알고리즘이다. 지도, 비지도, 분류, 회귀 등 어떤 알고리즘이 가장 효과적인지는 해결하려는 문제의 종류, 가용한 컴퓨팅 리소스, 데이터의 속성에 따라 달라진다. 머신러닝의 작동 원리 일반적인 프로그래밍 알고리즘은 컴퓨터에 해야 할 일을 간단한 방식으로 알려준다. 예를 들어 정렬 알고리즘은 정렬되지 않은 데이터를 데이터에 있는 하나 이상 필드의 숫자 또는 알파벳 순서 등 특정 기준에 따라 정렬된 데이터로 변환한다. 선형 회귀 알고리즘은 직선, 또는 다항식과 같이 매개변수가 선형인 다른 함수를 수치 데이터에 맞추는데, 이를 위해 일반적으로 사용하는 방법은 선과 데이터 간의 제곱 오차를 최소화하기 위해 행렬 역변환을 수행하는 것이다. 제곱 오차를 척도로 사용하는 이유는 회귀선이 데이터 포인트 위에 있는지, 아래에 있는지는 중요하지 않기 때문이다. 중요한 것은 선과 포인트 간의 거리다. 매개변수가 선형이 아닌 곡선을 데이터에 맞추는 비선형 회귀 알고리즘은 조금 더 복잡하다. 선형 회귀 문제와 달리 결정론적 방법으로 해결할 수 없기 때문이다. 대신 비선형 회귀 알고리즘은 일종의 반복적 최소화 프로세스를 구현하는데, 이는 급속 하강(steepest descent) 방법의 변형인 경우가 많다. 급속 하강은 기본적으로 현재 매개변수 값에서 제곱 오차와 그 기울기를 계산하고, 단계 크기 즉, 학습률을 선택하고, 기울기 방향을 "아래로" 따라간 다음, 새로운 매개변수 값에서 제곱 오차와 그 기울기를 다시 계산한다. 운이 좋다면 최종적으로 이 과정은 수렴한다. 급속 하강에는 수렴 속성을 개선하고자 하는 여러 변형이 있다. 머신러닝 알고리즘은 비선형 회귀보다도 더 복잡한데, 머신러닝은 다항식과 같은 특정 수학 함수에 맞추는 제약이 없다는 점도 그 이유 중 하나다. 머신러닝이 해결하는 대표적인 두 가지 문제 범주는 회귀와 분류다. 회귀는 수치 데이터, 분류는 비수치 데이터에 사용된다. 전자는 특정 주소와 직업을 가진 사람의 예상 수입은 어느 정도인가와 같은 문제, 후자는 대출 신청자가 이 대출을 상환하지 않을 것인가와 같은 문제다. 예측 문제(“내일 마이크로소프트 주식의 시초가는 얼마가 될까?”)는 시계열 데이터에 대한 회귀 문제의 하위 집합이다. 분류 문제는 이진(예/아니요), 다중 범주 문제(동물, 채소 또는 광물)로 나뉘기도 한다. 지도 학습 vs. 비지도 학습 이러한 구분과 별개로 머신러닝 알고리즘에는 지도와 비지도, 2가지 종류가 있다. 지도 학습에서는 동물 이름이 딸린 일련의 동물 사진과 같은, 답변이 포함된 학습 데이터 집합을 제공한다. 이 학습의 목표는 이전에 본 적이 없는 사진을 올바르게 식별(학습 집합에 포함된 동물의 종류)할 수 있는 모델을 만드는 것이다. 비지도 학습에서는 알고리즘이 스스로 데이터를 살펴보고 유의미한 결과를 도출하려고 시도한다. 예를 들어 각 클러스터 내에서 연관될 수 있는 데이터 포인트의 클러스터 집합이 결과로 나올 수 있다. 클러스터가 겹치지 않을 때 더 효과적으로 작동한다. 학습과 평가를 통해 매개변수를 최적화해 데이터의 기준 진실과 가장 잘 일치하는 값 집합을 찾음으로써 지도 학습 알고리즘을 모델로 바꾼다. 알고리즘은 옵타마이저를 위해 예를 들어 확률적 경사 하강(SGD: 무작위 시작점에서 여러 번 수행되는 급속 하강이라고 할 수 있음)과 같은 급속 하강의 변형에 의존하는 경우가 많다. SGD의 일반적인 개선 방법은 운동량을 기반으로 경사의 방향을 수정하거나, 한 데이터 패스(에포크라고 함)에서 다음 패스로의 진행에 따라 학습률을 조정하는 요소를 추가하는 것이다. 머신러닝을 위한 데이터 정제 자연 상태에서 깨끗한 데이터는 존재하지 않는다. 머신러닝에 사용하려면 데이터를 적극적으로 필터링해야 한다. 예를 들면 다음과 같다. 데이터를 살펴보고 누락된 데이터가 많은 열을 제외한다. 데이터를 다시 살펴보면서 예측에 사용할 열을 선택한다. 이 열은 반복할 때 바꾸는 경우가 많다. 나머지 열에서 여전히 누락된 데이터가 있는 행을 제외한다. 명백한 오타를 교정하고 동일한 답변을 병합한다. 예를 들어 U.S. US. USA, 미국은 하나의 범주로 병합해야 한다. 범위를 벗어난 데이터가 있는 행을 제외한다. 예를 들어 뉴욕시 내의 택시 이동을 분석한다면 뉴욕시 경계 상자를 벗어난 승하차 위도 및 경도는 필터링으로 걸러낸다. 그 외에도 할 수 있는 일이 많지만 이는 수집된 데이터에 따라 달라진다. 지루한 작업일 수 있으나 머신러닝 파이프라인에 데이터 정제 단계를 두면 자유롭게 수정하고 반복할 수 있다. 머신러닝을 위한 데이터 인코딩 및 정규화 머신 분류를 위해 범주 데이터를 사용하려면 텍스트 레이블을 다른 양식으로 인코딩해야 한다. 일반적으로 2가지 인코딩이 사용된다. 첫째는 레이블 인코딩으로, 각 텍스트 레이블이 숫자로 대체된다. 둘째는 원핫(onehot) 인코딩으로, 각 텍스트 레이블 값이 이진 값(1 또는 0)이 있는 열로 변환된다. 대부분의 머신러닝 프레임워크에는 이 같은 변환을 수행하는 함수가 있다. 레이블 인코딩의 경우 머신러닝 알고리즘이 혼동해서 인코딩된 열이 정렬된 것으로 착각할 수 있으므로 일반적으로 원핫 인코딩이 선호된다. 머신 회귀에 숫자 데이터를 사용하려면 일반적으로 데이터를 정규화해야 한다. 그렇지 않으면 범위가 큰 숫자가 특징 벡터 간의 유클리드 거리를 지배하는 경향이 있고, 이들의 효과가 확대되면서 다른 필드가 희생되고 급속 하강 최적화가 잘 수렴되지 않을 수 있다. ML을 위해 데이터를 정규화 및 표준화하는 방법은 최소최대 정규화, 평균 정규화, 표준화, 단위 길이로 스케일링 등 여러 가지가 있다. 이 프로세스를 보통 특징 스케일링(feature scaling)이라고 한다. 머신러닝 특징 앞에서 언급한 특징(feature) 벡터가 무엇인지 알아보자. 우선, 특징이란 관찰 대상 현상의 측정 가능한 개별적인 속성 또는 특성이다. “특징”이라는 개념은 선형 회귀와 같은 통계 기법에서 사용되는 설명 변수와 관계가 있다. 특징 벡터는 한 행의 모든 특징을 하나의 숫자 벡터로 결합한다. 특징을 선택하는 기법 중 하나는 문제를 설명하는 최소 독립 변수 집합을 선택하는 것이다. 두 변수가 고도로 상호 연관된다면 하나의 특징으로 결합해야 하거나 하나를 삭제해야 한다. 주성분 분석을 수행하여 상호 연관된 여러 변수를 선형적으로 상호 연관되지 않은 변수들의 집합으로 변환하는 경우도 종종 있다. 새로운 특징을 구축하거나 특징 벡터의 차원을 축소하기 위해 사용하는 변환 방법 중에서 간단한 방법도 몇 가지 있다. 예를 들어 Year of Death에서 Year of Birth를 빼면 수명 및 사망 분석을 위한 주요 독립 변수인 Age at Death를 구축할 수 있다. 특징 구축이 명확하지 않은 경우도 있다. 일반적인 머신러닝 알고리즘 머신러닝 알고리즘은 선형 회귀와 로지스틱 회귀부터 심층 신경망 및 앙상블(다른 모델의 조합)에 이르기까지 수십 가지가 있지만 가장 일반적인 알고리즘은 다음과 같다. 선형 회귀 또는 최소 제곱 회귀(숫자 데이터) 로지스틱 회귀(이진 분류) 선형 판별 분석(다중 범주 분류) 결정 트리(분류와 회귀) 나이브 베이즈(분류와 회귀) K최근접 이웃(KNN, 분류와 회귀) 학습 벡터 양자화(LVQ, 분류와 회귀) 서포트 벡터 머신(SVM, 이진 분류) 랜덤 포레스트, “배깅” 앙상블 알고리즘의 한 유형(분류와 회귀) 부스팅 방법(AdaBoost 및 XGBoost 포함)은 일련의 모델을 생성하는 앙상블 알고리즘으로, 각각의 새로운 모델이 이전 모델의 오류를 수정하려고 시도 흔히 듣는 신경망과 심층 신경망은 어디에 있을까? 이 둘은 대체로 계산 집약적이라서 GPU 또는 다른 특수한 하드웨어가 필요하므로 비교적 단순한 알고리즘에는 맞지 않는 이미지 분류, 음성 인식과 같은 특수한 문제에만 사용해야 한다. 위에서 “심층”은 신경망 안에 숨은 계층이 많다는 것을 의미한다. 신경망과 심층 신경망에 대한 더 자세한 내용은 “딥러닝의 진정한 의미”를 참고하면 된다. 머신러닝 알고리즘의 초매개변수 머신러닝 알고리즘은 데이터로 학습해서 예측된 값 또는 클래스에 영향을 미치는 각 독립 변수에 대한 최적의 가중치 집합을 찾는다. 알고리즘 자체에는 초매개변수(hyperparameters)라는 변수가 있다. 결정되는 가중치가 아니라 알고리즘의 작동을 제어하기 때문에 매개변수가 아닌 초매개변수로 불린다. 많은 경우 가장 중요한 초매개변수는 학습률이다. 학습률은 최적화에서 다음에 시도할 가중치 집합을 찾을 때 사용되는 단계 크기를 결정한다. 학습률이 너무 높으면 경사 하강이 평지(plateau) 또는 비최적 지점에 빠르게 수렴할 수 있고, 학습률이 너무 낮으면 경사 하강이 정체되어 완전히 수렴하지 않을 수 있다. 다른 많은 일반적인 초매개변수는 사용되는 알고리즘에 따라 달라진다. 대부분 알고리즘에는 최대 에포크 수, 또는 최대 실행 시간, 에포크 간 최소 개선과 같은 중지 매개변수가 있다. 특정 알고리즘에는 검색의 형태를 제어하는 초매개변수가 있다. 예를 들어 랜덤 포레스트에는 리프당 최소 샘플 수, 최대 깊이, 분할 시 최소 샘플 수, 리프의 최소 가중치 비율, 그 외에 8가지에 대한 초매개변수가 있다. 초매개변수 튜닝 여러 프로덕션 머신러닝 플랫폼이 현재 자동 초매개변수 튜닝을 제공한다. 기본적으로 시스템에 변경할 초매개변수와 최적화하고자 하는 메트릭을 알려주면 시스템은 허용되는 만큼 많은 실행 횟수에 걸쳐 이러한 초매개변수를 스윕한다. 단, 구글 클라우드 초매개변수 튜닝은 텐서플로우 모델에서 적절한 메트릭을 추출하므로 직접 지정할 필요가 없다. 초매개변수 스위핑을 위한 검색 알고리즘에는 베이지안(Bayesian) 최적화, 그리드(grid) 검색, 무작위 검색의 3가지가 있다. 베이지안 최적화가 대체로 가장 효율적이다. 최대한 많은 초매개변수를 튜닝해야 최선의 답을 얻는다고 생각할 수 있다. 그러나 개인 하드웨어에서 실행하는 경우가 아닌 한 비용이 상당히 커질 수 있고, 어떤 경우든 얻는 이득은 점점 줄어든다. 자신의 데이터와 선택한 알고리즘에서 가장 중요한 초매개변수는 경험을 통해 발견할 수 있다. 자동 머신러닝 알고리즘 선택에 대해 말하자면, 어느 알고리즘 또는 알고리즘 앙상블이 현재 데이터에 맞는 최선의 모델을 제공할지 아는 방법은 하나밖에 없다. 모두 시도해 보는 것이다. 여기서 가능한 모든 정규화 및 특징 선택까지 시도한다면 조합의 수는 폭발적으로 증가한다. 모든 것을 수동으로 시도한다는 것은 비현실적이므로, 당연히 머신러닝 툴 제공업체들은 많은 노력을 기울여 오토ML(AutoML) 시스템을 출시했다. 우수한 시스템은 특징 공학과 알고리즘 및 정규화에 대한 스윕을 결합한다. 최선의 모델에 대한 초매개변수 튜닝은 나중을 위해 남겨두는 경우가 많다. 다만 특징 공학은 자동화하기 어려운 문제이며 이 부분을 다루지 않는 오토ML 시스템도 있다. 요약하자면, 머신러닝 알고리즘은 머신러닝 퍼즐의 한 조각일 뿐이다. 알고리즘 선택(수동 또는 자동) 외에도 옵티마이저, 데이터 정제, 특징 선택, 특징 정규화, 그리고 선택적으로 초매개변수 튜닝까지 처리해야 한다. 이 모든 부분을 처리하고 데이터에 맞는 모델을 구축했다면, 이제 모델을 배포하고 조건의 변화에 따라 업데이트할 차례다. 프로덕션의 머신러닝 모델을 관리하는 것은 또 다른 문제다. editor@itworld.co.kr
최신 윈도우 11 기능을 따라가다 보면 쉽게 혼란스러워진다. 마이크로소프트 빌드(Microsoft Build) 행사와 함께 새로운 기능이 끊임없이 쏟아지는 5월에는 더욱 그렇다. 올해도 마찬가지였다. 마이크로소프트는 실용적인 것부터 이상적인 것까지 빌드 행사에서 다양한 윈도우 11 기능을 쏟아냈다. 올해 빌드 행사에서는 윈도우 11의 모멘트 3(Moment 3)과 함께 흥미로운 새 기능이 공개됐고 향후 출시될 더 많은 기능에 대한 힌트도 얻을 수 있었다. 다만 소규모 기능 업데이트인 모멘트는 언제든 배포될 수 있기 때문에 출시 시기는 달라질 수 있다. 현재 모멘트 3에 도입될 것으로 알려진, 그리고 사용자 PC에 배포될 여러 새 기능을 간단히 설명한다. 윈도우 11 모멘트 3의 기능들 이제부터 소개할 모멘트 3 기능은 기본 기능이 아니라 옵션이며, 새로운 기능을 출시 즉시 받겠다고 미리 설정하지 않은 이상 6월 이후에야 배포된다. 2023년 6월, 아마도 패치 화요일 주기를 고려하면 6월 13일쯤 윈도우 11 비보안 프리뷰 릴리즈에 추가 선택 형식으로 배포될 예정이다. 새로운 기능을 한발 먼저 사용하는 것을 좋아하고 최신 업데이트가 출시되는 즉시 받고 싶은 사용자라면 윈도우 11 설정 앱의 ‘윈도우 업데이트 항목’으로 이동한다. 여기서 ‘최신 업데이트가 제공되는 즉시 받기’ 메뉴의 토글을 켠다. 마이크로소프트는 사용자의 삶의 질을 조금씩 개선하는 기능을 단계적으로 릴리즈한다. 모멘트 3 역시 마찬가지다. 마이크로소프트는 이달 초 이들 기능을 윈도우 참가자 프로그램 22621.1776(릴리즈 채널) 베타 일부분으로 테스트했고 이제 최종 릴리즈로 배포했다. 더 넓은 위젯 창 : 윈도우 11에 추가된 흥미로운 변화는 사용자가 앱을 더 많이 설정할 수 있도록 많은 공간을 확보하는 위젯의 변화다. 위젯은 2개가 아닌 3개 열로 더 넓어지고 개인화할 수 있다. 마이크로소프트가 공개한 새로운 위젯 선택기를 보면 사용자는 자신이 선택한 위젯이 어떤 모습으로 나타날지 미리 볼 수 있으며, 더 많은 위젯을 찾을 수 있다(위젯 선택기는 조금 늦게 배포될 수 있다). 센서 설정 : 일부 노트북은 사용자가 자리를 비우거나 보안을 위해 PC를 잠가 둘 경우 화면을 자동으로 어둡게 조정하는 존재 감지 센서가 있다. 설정 개인정보 보호 및 보안 감지 센서에서 관리할 수 있다. VPN 아이콘 : 이제 VPN을 사용할 때 작업표시줄에 작은 방패 아이콘이 나타난다. USB4 허브 및 설정 : 인텔 기반 노트북은 보통 썬더볼트 독과 연결된다. 그러나 USB4는 AMD 라이젠 노트북에서 거의 동일한 기능을 수행한다. 어떤 것이든 새로운 윈도우 설정 페이지에서는 노트북의 USB4 기능과 연결된 주변장치의 정보를 알 수 있다. 블루투스 지원 확대 : 윈도우 11은 이제 갤럭시 버드2나 버드2 프로 같은 이어폰에서 지원하는 저전력 오디오 표준인 블루투스 저전력 오디오(Bluetooth Low Energy Audio)를 지원한다. 계정 아이콘 배지 : 시작 메뉴의 계정 아이콘에 작은 느낌표가 나타나면 마이크로소프트 계정 관리에 주의가 필요하다는 뜻이다. 다른 윈도우 기능에 대한 유용한 알림(즉, 광고)과 연결되어 있다. 라이브 자막 언어 확대 : 자막이 없는 콘텐츠에 자막을 자동으로 제공한다. 라이브 자막은 중국어, 다양한 영어 방언, 프랑스어, 독일어, 스페인어 등을 지원한다. 마이크로소프트가 이전 프리뷰에서 공개한 내용을 기반으로 할 때 모먼트 3 릴리즈에서는 다음과 같은 작은 변경도 있을 것으로 보인다. 새로운 프린트 화면 바로가기 : PrtScn 키를 누르면 이제 캡처 도구가 열린다. 원드라이브 저장공간 표시 : 윈도우 11 설정 앱 안의 계정 페이지에서 사용자의 모든 원드라이브 구독 내용에 할당된 저장 공간의 전체 양을 확인할 수 있다. 2FA 복사 : '휴대폰과 연결' 앱으로 PC에 스마트폰을 연결하면 다른 서비스에서 받은 2FA 인증 코드가 자동으로 복사된다. 터치 키보드 옵션 : 새로운 설정 시간 및 언어 입력 터치 키보드 설정에서 터치 키보드를 항상 보이게 할지, 아예 없앨지, 하드웨어 키보드를 연결하지 않았을 때만 보이게 할지 선택할 수 있다. 키보드를 떼었다 붙일 수 있는 서피스 프로 같은 노트북에서 특히 유용하다. 초 시계 : 이제 작업 표시줄 시계 앱에서 초 단위의 시간을 알 수 있다. 검색용 빙 챗 AI 바로가기 : 이제 검색창에 작은 빙 챗 아이콘이 나타난다. 기업 계정으로 로그인할 때는 기업 아이콘으로 바뀐다. 콘텐츠 적응형 밝기 제어 : 콘텐츠 종류에 따라 디스플레이를 밝거나 어둡게 할 수 있다. HDR은 아니지만 유사한 기능이다. 모먼트 3 이외의 새로운 윈도우 11 기능들 마이크로소프트는 빌드 행사에서 모먼트 3 이외의 신규 기능도 공개했지만 출시 시기는 아직 알려지지 않았다. 일부는 윈도우 참가자 프로그램 베타 코드에서 보았거나 앞으로 볼 가능성이 있고, 다른 기능은 모먼트 업데이트를 통해 윈도우 PC에 배포될 것이다. WinRAR 지원 : WinRAR, 7Zip, GZ 같은 압축 포맷 형식이 윈도우에 통합된다는 반가운 소식이 전해졌다. 마이크로소프트는 해당 기능을 빠른 시일 내에 테스트할 것이으로 보이며, 완전한 압축 해제 기능이 윈도우 11에 릴리즈되는 것은 9월쯤으로 예상된다. 2024년에는 RAR, Zip 같은 다른 압축 파일을 생성하는 것도 가능하다. 윈도우 코파일럿 : 빌드 행사에서 큰 주목을 받은 윈도우 코파일럿은 AI 기술을 윈도우로 가져온다. 마이크로소프트는 6월 중 윈도우 코파일럿 출시를 약속했지만, 구체적인 방법은 알려지지 않았다. 윈도우 참가자 프로그램에서 윈도우 코파일럿을 확인할 수 있기를 기대한다. 작업표시줄 앱 그룹 해제 : 윈도우 10에서는 작업표시줄 내 다수 앱에 개별 레이블을 지정해 표시할 수 있다. 윈도우 11도 이 기능을 다시 수용했다. 참가자 프로그램(개발자 채널) 릴리즈에서 이번 주에 공개될 예정이다. 머지않아 전체 공개되기를 기대한다. 작업표시줄 앱 우클릭 : 작업표시줄과 관련한 또 하나의 재미있는 기능이 있다. 마치 작업 관리자에서 하듯이 작업표시줄에서 앱을 우클릭해 진행 중인 작업을 종료할 수 있다. 윈도우 백업 : 마이크로소프트는 참가자 프로그램(개발자 채널)에서 윈도우 백업을 테스트하고 있다. 윈도우 백업은 파일, 폴더(데스크톱에서의 레이아웃 위치까지), 앱과 더 많은 데이터를 클라우드에 저장하고 새로운 PC에서 재설치를 지원하는 기능이다. RGB 조명 제어 : 크리스마스트리처럼 색색의 조명을 달고 작동 중일 때마다 반짝거리는 PC 주변장치를 여럿 소유하고 있다면 축배를 들 만한 소식이다. 최근 마이크로소프트는 RGB 조명을 윈도우에서 제어하는 기능을 추가하고 업계에 표준화된 설정을 제공한다고 밝혔다. editor@itworld.co.kr
PC 사용자에게 가장 인기 있는 웹 브라우저인 크롬은 처음에는 빠르고 반응성 좋은 브라우징 경험을 제공하지만, 시간이 지나면 캐시 파일, 확장 프로그램, 리소스 소비 등의 요인 때문에 느려질 수 있다. 크롬의 성능을 향상시키는 방법은 브라우저 최신 상태 유지, 캐시 삭제, 이용 가능한 특수 기능 활용 등 많다. 크롬 실행 속도를 최대한 빠르게 유지하는 간단한 9가지 방법을 소개한다. 크롬을 항상 업데이트할 것 크롬을 최신 버전으로 업데이트하면 가장 최근의 성능 개선과 버그 수정, 보안 업데이트를 확보할 수 있다. 구글은 브라우저에 업데이트를 자주 제공하므로 항상 최신 상태를 유지하는 것이 중요하다. 업데이트는 브라우저를 닫을 때 백그라운드에서 자동으로 실행되도록 설계되어 있으며, 브라우저를 닫는 일이 거의 없다면 업데이트를 직접 확인해야 한다. 크롬은 업데이트 시간이 되면 브라우저 창 우측 상단 구석에 버튼이 생긴다. 이 버튼을 누르면 업데이트된다. 버튼이 보이지 않는다면 창 우측 상단 구석에서 세로 방향 점 3개 도움말 Chrome 정보를 클릭한다. 그러면 크롬이 업데이트를 확인한 후 설치한다. 다시 시작을 클릭하면 크롬 업데이트가 완료되고 크롬이 닫힌다. 따라서 업데이트 전에는 탭에 미완성 작업이 열려 있지 않은 지 확인해야 한다. 너무 많은 탭을 열지 말 것 브라우저에서 탭을 여러 개 열어 놓으면 메모리가 소비되며, 메모리만큼은 아니지만 CPU도 소비된다. 열어 놓은 탭의 개수가 늘어날수록 컴퓨터 리소스에 대한 수요도 늘어난다. 성능이 저하되고 페이지 로드 시간이 늘어날 수 있다. 시스템이 과부하 상태가 되면 정지 또는 멈춤 현상까지 발생할 수 있다. 미사용 확장 프로그램을 설정 해제할 것 확장 프로그램은 브라우저에 기능을 추가하는 작은 소프트웨어 프로그램이다. 유용하지만 너무 많이 설치하거나 부실하게 최적화된 것을 사용하면 구글 크롬의 성능에 부정적인 영향을 미칠 수 있다. 불필요한 확장 프로그램을 설정 해제하면 브라우저의 성능을 높일 수 있다. 브라우저 확장 프로그램을 설정 해제하는 방법은 간단하다. chrome://extensions 로 들어가 해당 확장 프로그램의 슬라이더를 끔 위치로 밀거나 삭제를 클릭하면 된다. 브라우징 데이터를 삭제할 것 기록, 쿠키, 캐시 파일 등의 브라우징 데이터를 삭제하면 디스크 공간이 확보되고 오래되거나 손상된 파일로 야기된 웹사이트 문제가 해결되므로 성능 향상에 도움이 된다. 시스템 성능뿐 아니라 개인정보보호 및 보안도 향상된다. 일반적으로 쿠키와 캐시 파일은 빠른 접근을 위해 컴퓨터의 RAM에 저장되므로 브라우징 데이터를 삭제하면 RAM 사용량을 줄여 성능이 향상될 수도 있다. 특히 장치의 메모리가 한정적인 경우, 브라우징이 부드러워지고 페이지 로딩 시간도 빨라지는 것이 보통이다. 브라우징 데이터를 삭제하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안을 클릭한 후 각 옵션을 개별적으로 선택하고 데이터를 삭제하면 된다. 웹 페이지 미리 로드를 설정할 것 웹 페이지 미리 로드를 설정하면 웹 페이지에 실제로 도착하기 전에 리소스를 가져와 로드 함으로 성능이 향상된다. 사용자가 링크 위에 커서를 가져가거나 특정 페이지에 방문할 것으로 예측되면 크롬은 해당 페이지를 표시하는 데 필요한 리소스(예 : 이미지, CSS, 자바스크립트 파일)을 가져오기 시작한다. 이 작업은 사용자가 아직 현재 페이지에 있는 동안 배경에서 수행된다. 사용자가 결국 링크를 클릭하는 시점에는 컨텐츠의 많은 부분이 이미 로드 된 상태이므로 페이지의 로드 속도가 더욱 빨라 보인다. 웹 페이지 미리 로드를 설정하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안 쿠키 및 기타 사이트 데이터를 클릭한 후 빠른 탐색 및 검색을 위해 페이지 미리 로드 옆에 있는 슬라이더를 켬 위치로 밀면 된다. 크롬의 에너지 절약 모드를 사용할 것 크롬의 에너지 절약 모드는 주요 기능이 배터리 지속 시간을 아끼는 것이지만 특정 배경 활동을 제한하는 방식으로 성능도 약간 향상시킨다. 에너지 절약 모드는 배터리 잔량이 20% 이하인 경우에만 사용 설정할 수 있으며, 컴퓨터의 전원이 연결되어 있지 않을 때 사용 설정할 수도 있다. 에너지 절약 모드를 설정하려면 세로 방향 점 3개 설정 성능을 클릭하고 전원 그룹에서 에너지 절약 모드 옆에 있는 슬라이더를 켬 위치로 민 다음 이 기능을 활성화하고자 하는 경우를 선택한다. 하드웨어 가속을 설정할 것 하드웨어 가속을 설정하면 크롬은 하드웨어 가속이 도움이 되는 특정 작업에 컴퓨터의 GPU를 사용한다. GPU는 그래픽 집약적인 작업을 효율적으로 처리하도록 설계되었고 특정 연산을 병렬로 처리할 수 있기 때문에 동영상 재생, 애니메이션, 그래픽 렌더링과 같은 작업에 더욱 적합하다. 이런 작업 중 일부를 CPU에서 GPU로 전가하면 성능이 향상되고 웹 컨텐츠 렌더링이 부드러워지며 시스템 리소스 소비가 줄어든다. 이는 고성능 그래픽 카드가 탑재된 시스템에서나 그래픽 요소가 많은 애플리케이션 및 웹사이트를 사용하는 경우에 특히 유익하다. 하드웨어 가속을 설정하려면 세로 방향 점 3개 설정 시스템을 클릭한 후 가능한 경우 하드웨어 가속 사용 옆에 있는 슬라이더를 켬 위치로 민다. 구글 플래그에서 GPU 래스터화를 설정할 것 래스터화는 벡터 그래픽(예: HTML, CSS, SVG 요소)을 화면에 표시될 수 있는 픽셀로 변환하는 과정이다. 기본적으로 크롬은 래스터화에 CPU를 사용한다. GPU 래스터화를 설정하면 이 작업이 컴퓨터의 GPU로 대신 전가된다. GPU는 CPU보다 그래픽 처리를 더욱 효율적으로 처리하도록 설계되었으므로 특히 고성능 GPU가 탑재된 시스템에서 웹 페이지의 렌더링이 빨라지고 성능이 향상될 수 있다. GPU 래스터화를 설정하는 방법은 chrome://flags로 이동하여 GPU Rasterization(GPU 래스터화)를 검색한 후 항목 옆에서 Enabled(설정)을 선택하면 된다. 이는 실험적인 기능이며 구글 크롬은 이 기능을 테스트 목적으로만 사용함을 분명히 밝히고 있다는 점에 유념해야 한다. 사용할 수 있다고 해서 사용해야 하는 것은 아니다. 위험이 보상보다 클 수도 있다. 또한, 하드웨어 가속을 설정했다면 래스터화도 어차피 설정되어 있다. 구글 크롬 설정을 초기화할 것 크롬을 기본 설정으로 초기화하면 브라우저가 원래 구성으로 복원되고 속도 저하 등의 문제의 원인인 사용자화, 확장 프로그램, 설정이 제거되므로 성능 문제가 해결될 수 있다. 이 방법은 다른 성능 개선 방법을 시도했으나 실패했거나 어떤 구체적인 설정이나 확장 프로그램이 문제의 원인인지 확실하지 않은 경우에 사용하면 좋다. 구글 크롬 설정을 초기화하려면 세로 방향 점 3개 설정 설정 초기화를 클릭하면 나오는 페이지에서 설정을 기본 값으로 복원하는 옵션을 선택하면 된다. 구글은 이미 크롬 속도를 높이고 있다 구글 크롬 112는 이 인기 웹 브라우저의 성능을 상당히 개선했다. innerHTML 파싱을 위한 전문 고속 경로뿐만 아니라 toString() 및 join()와 같은 자바스크립트 함수가 최적화되었다. 이런 기능은 다수의 웹사이트와 웹 앱에 걸쳐 널리 활용되면서 웹 브라우징에 눈에 띄는 차이를 가져왔다. 구글은 이런 개선 덕분에 3개월간 애플의 스피도미터(Speedometer) 2.1 브라우저 벤치마크가 10% 증가했다고 전했다. 크롬을 항상 최신 상태로 유지해야 할 또 하나의 이유다. 구글이 노고를 들여 항상 내놓는 성능 업데이트를 적극 활용하자. editor@itworld.co.kr
‘챗GPT’는 인공지능과 상호작용하는 방식에 혁신을 가져왔다. 고급 자연어 처리 기능을 갖춘 챗GPT는 퀴즈 놀이부터 시 쓰기까지 다양한 작업에 도움을 줄 수 있다. 여기서는 챗GPT를 활용할 수 있는 놀랍도록 재미있고 유용한 10가지 방법을 살펴본다. 재미있는 레시피 만들기 챗GPT가 할 수 있는 흥미로운 일 중 하나는 사용자의 입맛, 재료, 특정 식단 요건에 따라 레시피를 생성하는 것이다. 원하는 요리 종류, 사용하려는 재료, 식이 제한 사항 등 특정 정보를 입력하면 된다. 그러면 챗GPT가 단계별 지침, 재료의 양, 요리 팁이 포함된 레시피를 알려준다. 챗GPT에 위스키를 베이스로 하고 스웨덴 미트볼을 사용한 칵테일을 만들어 달라고 했다. 챗GPT는 파격적인 요청이라는 점을 금방 알아차렸지만 이내 요구사항에 따라 레시피를 제공했다. 칵테일 이름도 ‘스모키 미트볼 즈위즐’이라고 지어줬다(개인적으로는 ‘미트볼 맨해튼’이 더 낫다고 생각한다). 맞춤형 운동 계획 챗GPT는 사용자의 체력 수준, 목표, 사용 가능한 장비, 건강 상태 등에 따라 맞춤화된 운동 계획을 짤 수 있다. 기본 정보, 현재 체력 수준, 운동 경험, 목표, 건강 상태, 장비 사용 가능 여부 등의 정보를 제공하면 된다. 챗GPT에 3개월짜리 운동 계획을 만들어 달라고 했다. 나이, 성별, 몸무게를 입력하고 무릎이 좋지 않다고 언급했다. 또 헬스장 장비를 이용할 수 없고, 7kg가량을 감량하는 것이 목표라고 덧붙였다. 우선 챗GPT는 새로운 운동 계획을 시작하기 전에 의사 또는 개인 트레이너와 상담하고, 부상을 입지 않도록 자세 모니터링이 중요하다고 권고했다. 이어 제공한 정보를 바탕으로 운동 계획을 알려줬다. 어떤 정보를 입력해야 할지 모르겠다면 챗GPT에 가장 정확하고 개인화된 운동 계획을 짜는 데 필요한 정보가 무엇이냐고 물어볼 수도 있다. 퀴즈 게임 다양한 주제에 대한 질문, 답변 또는 흥미로운 사실을 제공해 챗GPT와 퀴즈 게임을 하거나, 퀴즈 게임을 만들어 달라고 할 수 있다. 예를 들어 챗GPT에게 게임하고 싶다고 말한 다음, 주제나 테마를 지정하면 챗GPT가 질문을 던진다. 직접 만든 퀴즈로 챗GPT에 문제를 낼 수도 있다. 챗GPT에게 퀴즈 게임을 하고 싶다고 말한 다음, 양자 물리학에 관련된 5가지 질문을 해달라고 했다. 챗GPT는 답을 입력하면 정답인지 아닌지 알려준다고 말했다. 구글의 도움으로 간신히 5개 퀴즈 중 3개를 맞힐 수 있었다. 가상의 여행 가이드 챗GPT는 다양한 여행지 정보, 추천, 조언을 제공하는 가상의 여행 가이드 역할을 할 수 있다. 한 가지 명심해야 할 점은 챗GPT의 지식은 적어도 현재로서는 2021년까지의 데이터를 기반으로 한다는 것이다. 즉, 신상 레스토랑처럼 최근에 문을 연 곳은 추천할 수 없다. 하지만 방문 장소, 현지 관습, 요리, 기타 여행 관련 주제에 관해 귀중한 인사이트를 얻을 순 있다. 챗GPT에게 대만 타이베이로 여행을 계획 중이라고 하고, 꼭 가봐야 할 명소와 현지인에게 인기 있는 음식을 추천해 달라고 했다. 방문해야 할 장소와 추천 음식 목록은 꽤 정확했지만, 개인적으로는 대만식 오믈렛 단빙이 목록에 포함돼 있지 않아 아쉬웠다. 음악 작곡 챗GPT는 직접 음악을 작곡하거나 오디오 파일을 만들 순 없지만 가사 작성, 코드 진행 제안, 노래 구조 및 편곡 팁 제공 등을 도울 수 있다. 특정 음악 콘셉트 지침을 요청하거나 멜로니 또는 하모니 아이디어를 브레인스토밍할 수도 있다. 챗GPT에게 E플랫 단조로 작곡 중인 재즈에 좋은 코드 진행을 제안해 달라고 했다. 챗GPT는 i – iv – VII7 – III7 – V7 – i(9) 코드 진행을 제안하고, 재즈 곡에 깊이를 더하기 위해 코드 확장, 대체, 변경을 실험해 보라고 권유했다. 명상 및 마음 챙김 연습 명상을 좋아하는 사용자가 있다면 챗GPT가 마음 챙김 운동을 도와줄 수 있다. 예를 들어 5분 동안 마음 챙김 호흡 운동을 하고 싶다고 하면, 챗GPT가 어떻게 해야 하는지 단계별로 자세히 알려준다. 다른 유형의 명상이나 마음 챙김 운동을 하고 싶지만 어떻게 해야 할지 잘 모르겠다면 언제든지 챗GPT에게 제안을 요청할 수도 있다. 이력서 작성하기 시중에 많은 이력서 빌더가 있지만, 이력서를 직접 작성하려고 한다면 챗GPT가 콘텐츠 및 형식 지침, 제안, 팁을 제공할 수 있다. 이력서에 포함하려는 업무 경험, 교육, 스킬, 성과, 기타 세부 정보를 입력하면 된다. 챗GPT로 이력서를 작성하는 것이 다소 불편하다면, 지원 직무에 관한 이력서 템플릿을 제공해 달라고 요청할 수도 있다. 실제로 PC월드에서 기자로 일하고 싶지만 개인정보는 제공하고 싶지 않다고 말했더니 꽤 괜찮은 이력서 템플릿을 만들어줬다. 빈칸을 채우기만 하면 됐다. 개인 스타일리스트 AI가 실제로 사람을 스타일링할 수 있는 수준까지 발전하진 못했지만, 의상 아이디어, 색 조합, 액세서리 등을 제안할 순 있다. 아울러 특정 상황에 맞는 옷차림 팁을 제공할 수도 있다. 선호하는 스타일, 체형, 행사 내용, 기타 특정 요구사항 등 몇 가지 개인 정보를 공유해야 한다. 이를테면 닌텐도를 테마로 한 파티에 갈 예정인데, 닌텐도의 기업 컬러를 반영한 비즈니스 캐주얼 스타일 제안이 필요하다고 챗GPT에 말했다. 매우 상세한 제안을 받았다. 텍스트 기반 RPG 게임 챗GPT는 주어진 프롬프트에 응답하고 시나리오에 따라 선택하며 플레이하는 텍스트 기반 롤플레잉 게임을 만들 수 있다. 게임 설정을 챗GPT에 맡기거나, 직접 자세한 설명을 할 수 있다. 예를 들면 방금 불시착한 외딴 적대 행성을 배경으로 하는 텍스트 기반 롤플레잉 게임을 하고 싶다고 챗GPT에 말했다. 이어 플레이어는 탑승자 중 유일하게 살아남은 사람이고, 이 행성에는 초목과 물이 거의 없으며, 목표는 살아남아 원래 행성으로 돌아가는 것이라고 덧붙였다. 시 쓰기 챗GPT는 다양한 스타일과 테마로 시를 쓸 수 있다. 주제, 스타일, 원하는 분위기 등 시를 작성하는 데 필요한 기본 정보나 관련 있는 정보를 챗GPT에 알려주면 된다. 그러면 해당 정보를 바탕으로 시를 생성한다. 마리오가 젤다를 가논도르프에서 구출하고 피치 공주가 질투를 느껴 루이지와 함께 도망치는 장면에 관한 시를 써달라고 요청했다. 아울러 자유시의 아버지라고 불리는 월트 휘트먼 스타일로 써야 한다고 덧붙였다. 그 결과 환상적인 시가 탄생했고, 이를 다시 하이쿠(일본 정형시)로 바꿔달라고 말했다. 다음 단계는? 챗GPT는 어시스턴트, 엔터테인먼트 또는 창의적인 영감을 원하는 사용자에게 ‘가능성의 세계’를 열어줬다. 레시피와 운동 계획 생성부터 이력서 작성, 시 창작까지 다양한 작업을 처리할 수 있는 다재다능함은 일상을 증강하는 AI의 힘을 보여준다. 기술이 계속 발전하면서 챗GPT와 유사한 AI 모델은 더욱 혁신적으로 응용되리라 예상된다. AI 어시스턴트의 미래는 밝으며, 사람들이 디지털 세상과 상호작용하는 방식을 혁신할 잠재력은 이제 겨우 표면을 드러내기 시작했을 뿐이다. editor@itworld.co.kr
여러 대의 컴퓨터 모니터로 작업하는 데 익숙하다면 노트북만 가지고 출장을 떠나는 것이 힘들 수 있다. 비좁은 노트북 디스플레이 하나만 써야 하기 때문이다. 하지만 다행히도 오래된 아이패드나 안드로이드 태블릿 또는 기타 노트북을 윈도우 PC용 추가 모니터로 활용할 방법이 있다. 심지어 공짜다! 바로 ‘스페이스데스크(Spacedesk)’ 앱을 사용하는 것이다. 물론 유일한 멀티 모니터 소프트웨어는 아니지만 지금까지 본 무료 옵션 가운데 가장 다재다능하다. 윈도우용 스페이스데스크 설치 스페이스데스크는 2가지 부분으로 구성된다. • 스페이스데스크의 드라이버 소프트웨어는 PC의 백그라운드에서 실행돼 다른 화면과 연결된다. 스페이스데스크 웹사이트에서 다운로드해 설치할 수 있다. 스페이스데스크를 실행하려면 방화벽 예외 설정을 해야 한다. 이 옵션은 설치 과정에 포함돼 있다. • 다른 기기에서 스페이스데스크의 뷰어 앱을 실행하면, PC에서 해당 기기를 보조 모니터로 인식한다. 웹 뷰어를 통해 윈도우, iOS, 안드로이드, 아마존 기기 및 기타 모든 기기에서 앱을 사용할 수 있다. 서버 연결은 와이파이를 통해 이뤄진다. 드라이버 소프트웨어를 설치했다면 뷰어 앱을 연다. 예를 들어 PC와 태블릿이 동일한 와이파이 네트워크에 연결돼 있으면 스페이스데스크가 자동으로 태블릿을 감지한다. 태블릿을 선택하고 2번째 화면 모드를 시작할 수 있다. 스페이스데스크 구성 기본적으로 스페이스데스크는 디스플레이 UI를 확대하지 않기 때문에 보조 모니터에서 너무 작게 보일 수 있다. 이 문제를 해결하려면 ‘윈도우 설정 시스템 디스플레이’로 이동해 모니터 목록에서 새 디스플레이를 선택한 다음, 디스플레이 해상도와 배율을 조정하면 된다. 아울러 스페이스데스크 드라이버는 컴퓨터가 부팅될 때마다 항상 실행된다. 변경하고 싶다면 스페이스데스크의 작업 표시줄 아이콘을 마우스 오른쪽 버튼으로 클릭하고, ‘스페이스데스크 드라이버 콘솔’을 선택한 다음 ‘시스템 부팅 시 자동 시작’을 해제한다. 윈도우에서도 모니터를 구성해야 한다. ‘설정 시스템 디스플레이’로 들어가면 모든 화면의 레이아웃이 표시되며, 이를 드래그 앤 드롭해 실제 위치를 반영할 수 있다. 뷰어 앱에서 톱니바퀴 아이콘을 클릭하고 추가 옵션(예: 화면 해상도 및 품질 등)을 설정할 수도 있다. 안타깝게도 스페이스데스크는 안드로이드 기기에서 유선 USB 연결만 지원한다. 아울러 향후 유선 연결 기능이 프리미엄 기능이 될 수 있다고 밝힌 바 있다. 그렇지만 무선 연결 상태에서 스페이스데스크는 이메일을 보내고, 문서를 확인하며, 팀 채팅을 하기에 충분한 성능을 갖췄다. 시스템 오디오와 동기화해 비디오를 재생하는 데도 문제가 없었다. 기타 멀티 모니터 소프트웨어 옵션 스페이스데스크 외에 살펴볼 만한 앱은 다음과 같다. • 루나 디스플레이(Luna Display)는 아이패드나 남는 맥을 보조 모니터로 바꾸는 130달러짜리 동글이다(USBC, HDMI 또는 맥용 디스플레이포트에서 사용 가능). 일반적으로 다른 솔루션에서 흔하게 볼 수 있는 커서 지연 문제가 없다. 그래픽 디자인 또는 세밀한 입력이 중요한 기타 애플리케이션에서 매력적인 대안이다. • 듀엣 디스플레이(Duet Display)는 유선 및 무선 연결을 모두 지원한다. 하지만 연간 25달러의 유료 서비스다. • 삼성 갤럭시 탭 사용자는 삼성의 세컨드 스크린(Second Screen) 앱을 활용해 태블릿을 보조 모니터로 사용할 수 있다. • 맥 사용자는 사이드카(Sidecar) 기능을 통해 아이패드를 보조 모니터로 활용할 수 있다. 제어 센터에서 ‘디스플레이’ 버튼을 누른 다음, 아이패드를 선택해 활성화하면 된다. 또는 녹색 전체 화면 버튼 위에 커서를 놓고 아이패드로 이동하는 옵션도 있다. editor@itworld.co.kr
AI 기반 채팅, 검색 앱이 큰 인기를 끌고 있지만 여기는 작은 문제가 하나 있다. 이런 앱은 브라우저에서 실행되므로 각 사이트로 개별적으로 이동해야 쓸 수 있다. 그런데 이런 번거로움을 피하는 방법이 있다. 즉, 새로운 AI 기반 빙(Bing), ChatGPT, 그리고 마침내 구글의 바드(Bard) 검색 엔진은 모두 윈도우에 앱으로 저장해 필요할 때 호출할 수 있다. 구체적인 방법은 다음과 같다. 일단 웹 사이트는 윈도우 시작 메뉴에 고정되거나 모든 위치에 직접 ‘애플리케이션’으로 저장할 수 있다. 그 결과인 애플리케이션은 여전히 웹 앱이지만 자체적으로 별도 창으로 로드되며, 구석에 두거나 최소화하고 혹은 그렇지 않을 경우 윈도우를 통해 관리할 수 있다. 마이크로소프트 엣지 및 구글 크롬 모두에서 이 작업을 할 수 있다. 이렇게 사용하는 것이 구체적으로 어떻게 다를까? 웹 앱을 시작 메뉴에 고정하면 기본값은 새 브라우저 탭에서 챗GPT 혹은 빙을 여는 것이다. 반면 윈도우에 앱으로 저장하면 탭이나 즐겨찾기 없이 자체 브라우저 창으로 저장된다. 두 가지 모두 웹 페이지를 메인 시작 바로가기 메뉴 내에 저장하지만, 후자만 앱 목록에 배치된다. 이를 빠르게 실행하려면 Win+R 명령을 사용하면 된다. 여기서 살펴볼 더 쉬운 방법은 ChatGPT, 빙 혹은 기타 AI 프로그램을 앱으로 저장하는 것이다. 참고로 여기서 살펴보는 모든 지침은 빙, ChatGPT 혹은 구글 바드도 동일하게 적용된다. 이제 윈도우 내에 ChatGPT 혹은 새로운 빙을 앱으로 저장하는 방법을 살펴보자. 마이크로소프트 엣지 웹 브라우저를 열고 빙닷컴(Bing.com), ChatGPT 혹은 또 다른 사이트로 이동한다 : 이 단계는 구글 및 엣지 모두 동일하게 적용된다. 빙의 경우, https://www.bing.com로, ChatGPT는 https://chat.openai.com/chat으로 이동한다. 구글 바드도 (아직은 서비스 전이지만 서비스를 시작하면) 마찬가지다. 물론 이 모든 것은 사이트가 정상 작동한다는 것을 전제로 한다. 무료 버전 ChatGPT는 때때로 사람이 너무 몰려 접속하지 못할 수 있고, 빙은 사용하기 전 대기자 목록에 가입해야 할 수 있다. 빙 채팅 인터페이스에 액세스하기 위해 작은 채팅 링크를 클릭하거나 위로 스와이프한다 : 앞서 살펴본 첫번째 방법의 ChatGPT 링크를 통해 AI 애플리케이션으로 바로 이동할 수 있다. 빙의 경우 현재로서는 약간의 추가 단계가 필요하다. 마이크로소프트 엣지를 사용해 빙, 챗GPT 혹은 바드를 윈도우 앱으로 저장한다 : 이 방법은 마이크로소프트 엣지에만 적용된다. 추가 옵션을 표시하려면 오른쪽 상단 코너의 줄임표 메뉴(…)를 클릭한 후 앱 항목이 나타날 때까지 메인 메뉴에서 아래로 스크롤한 다음 ‘이 사이트를 앱으로 설치’로 이동한다. 이제 ‘앱’의 이름을 쓰고 작업 표시줄, 시작 메뉴 혹은 모두 중 어디에 저장할지 선택하면 된다. 엣지에서는 저장된 앱이 시작 메뉴에 나타난다 : 저장된 앱이 시작 바로가기 및 앱 드로어(app drawer)에 나타난다. 앱이 바로가기 메뉴 하단에 표시되고 앱 드로어 내에 알파벳 순으로 표시되므로 이를 찾기 위해 아래로 스크롤해야 할 수 있다. 앱 이름을 알고 있으면 윈도우 키 및 앱 이름을 입력하거나 윈도우 + R 바로가기를 사용해 빠른 실행 창을 열면 언제든지 빠르게 사용할 수 있다. 채팅 창 내에 앱을 저장하더라도 앱이 기본 빙 검색창에 기본 저장돼 있을 것이다. 그러면 빙 혹은 ChatGPT가 앱으로 나타난다. 여기서 ChatGPT 경우와 같이 마이크로소프트 엣지의 시작 메뉴에 앱을 고정할 수도 있다 : 오른쪽 상단의 줄임표 메뉴(…)로 다시 이동한 다음 아래로 스크롤해 ‘더 많은 툴(More Tools) 시작메뉴에 고정(Pin to Start)’으로 이동한다. 이는 사용해야 할 때 바로가기에서 ChatGPT, 빙 혹은 바드를 제외하면 된다는 의미다. 챗GPT 혹은 빙을 크롬 내 ‘바로가기’로 저장하기 : 크롬은 사용자가 앱에 대한 ‘바로가기’를 생성할 수 있도록 지원한다. 별도의 창을 만들 것인지도 선택할 수 있다. 기본값은 클릭 시 열리는 추가 탭으로 바로가기를 저장하는 것이다. 바로가기를 별도의 창으로도 저장할 수 있는데, 이는 바로가기를 앱으로 저장한다는 의미다. 두 경우 모두 바로가기는 시작 바로가기 메뉴에 저장되지만 윈도우 앱 목록에는 저장되지 않는다. editor@itworld.co.kr
2023년이 막 시작됐지만, IT 업계에는 이미 ‘스타’가 등장했다. 바로 ChatGPT이다. 대학과 각급 학교는 이미 ChatGPT를 금지했는데, 학생의 창의성과 개인 성취를 저해할 우려가 있기 때문이다. 하지만 ChatGPT와 이를 개발하는 오픈AI는 투자자의 상상력을 자극하기에 충분하다. 마이크로소프트는 오픈AI에 100억 달러를 투자하겠다고 했으며, 벤처 캐피탈인 쓰라이브 캐피탈과 파운더스 펀드도 3억 달러 규모의 지분에 관심을 보였다. 두 벤처 캐피탈은 이미 에어비앤비, 스포티파이, 리프트 등에 투자한 곳이다. 하지만 과연 ChatGPT란 무엇인가? CNET에서 사용하고 있는 편집자 보조 AI 같은 것인가? 아니면 값비싼 과외교사를 대신할 현대적인 숙제 도우미일 뿐인가? 아니면 고객 서비스를 자동화할 현대적인 기업용 챗봇인가? 이런 질문에 ChatGPT 자신보다 더 잘 대답할 수 있는 사람은 없을 것이다. 그래서 ChatGPT의 정체에 관해 ChatGPT를 인터뷰했다. 다음의 인터뷰 내용은 AI 스스로 자신을 설명하도록 하려는 시도이다. 인간 대담자와의 인터뷰처럼 COMPUTERWOCHE는 일부 답변을 짧게 줄이고 매끄럽게 편집했다. 하지만 ChatGPT가 대답한 내용은 임의로 수정하지 않았다. COMPUTERWOCHE : ChatGPT를 둘러싸고 과장된 소문이 많이 돌고 있다. ChatGPT란 정확하게 무엇인가? ChatGPT : ChatGPT는 자연어에 특화된 언어 모델이다. 트랜스포머(Transformer) 기술과 어텐션(Attention) 메커니즘을 기반으로 구축한 첨단 인공지능 모델이다. ChatGPT는 인터넷으로 수집한 대규모 텍스트 데이터로 훈련했으며, 텍스트 생성이나 텍스트 요약, 텍스트 완성, 텍스트 분류 같은 다양한 자연어 처리 작업을 수행할 수 있다. 또한 질의응답 시스템이기도 하다. 고객 서비스나 마케팅, 교육, 재무 등 많은 산업군과 애플리케이션에서 ChatGPT를 활용할 수 있다. 나는 자연어 처리 작업에서 매우 높은 성능을 시연해 보였으며, 특히 대화 시스템을 자동화하는 데 잘 맞는다. COMPUTERWOCHE : 학습은 ChatGPT에 어떻게 적용되는가? ChatGPT : 나는 트랜스포머 모델을 기반으로 하는데, 이 모델은 어텐션 메커니즘의 기술을 기반으로 한다. 이 메커니즘은 AI 모델이 입력된 텍스트의 특정 부분에 주의를 기울이고, 이를 출력 텍스트를 생성할 때 반영한다. 학습할 때 모델은 대량의 텍스트 데이터로 훈련을 받고, 이들 데이터의 패턴과 관계를 인식하고자 한다. 모델은 주어진 입력 텍스트와 이에 대응하는 출력 텍스트로 훈련한다. 목표는 가능한 한 출력 텍스트를 생성하는 것이다. 이를 위해 ‘마스크드 언어 모델링(Masked Language Modeling)’이란 프로세스를 사용하는데, 출력 텍스트의 일부 단어가 일시적으로 "마스킹"되고 모델이 해당 단어를 예측하려고 시도한다. 그런 다음 모델을 예측 결과와 비교하고 예측과 실제 출력 텍스트 간의 불일치를 사용해 모델의 뉴런 가중치를 조정해 다음에는 예측 결과가 개선되도록 한다. 이 프로세스는 모델이 텍스트 생성에서 높은 정확도를 달성할 때까지 반복된다. COMPUTERWOCHE : 개발 기간은 얼마나 걸렸는가? ChatGPT : 나를 개발하는 데 얼마나 많은 시간이 걸렸는지는 정확하게 모른다. 하지만 ChatGPT 같은 대형 언어 모델을 개발하는 것은 복잡하고 힘든 과정으로, 보통 수개 월 또는 수년이 걸린다는 점에 유의해야 한다. 이런 모델을 개발하려면, 학습을 위해 대량의 텍스트를 사용하고 머신러닝이나 인공지능 같은 고급 기술을 적용해야 한다. 또한 ChatGPT 개발이 일회성 프로세스가 아니라 최신 지식과 기술을 개선하고 조정하는 지속적인 프로세스라는 점도 고려해야 한다. COMPUTERWOCHE : ChatGPT는 누가 만들었는가? ChatGPT : 나는 오픈AI의 제품이다. 영리 AI 연구 개발 회사인 오픈AI는 2015년 일론 머스크, 샘 알트만, 그렉 브록만, 일리야 서츠케버, 보치엑 자렘바가 설립했다. 현재 다수의 투자자가 참여하고 있는데, 피터 틸, 코슬라 벤처스, 앤드리슨 호로위츠 등 잘 알려진 곳도 포함되어 있다. COMPUTERWOCHE : 수익은 어떻게 내는가? ChatGPT : 말한 대로 나는 오픈AI가 개발하고 운영한다. 오픈AI는 주로 이 기술을 API 호출과 라이선스 방식으로 사용하는 기업과 개발자로부터 수익을 낸다. 여기에 더해 오픈AI는 ChatGPT에 관한 조언과 훈련도 제공한다. COMPUTERWOCHE : 일부 보도처럼 ChatGPT는 조만간 유료화되는가? ChatGPT : 오픈AI가 나를 유료화할 계획에 관한 정보는 나에게 없다. 하지만 오픈AI는 앞으로 자사의 모델을 상용화해 수익화하겠다고 발표한 바 있다. 언제 유료화할지는 확실하지 않다. 유료화에 관해서는 오픈AI 공식 웹 사이트를 방문할 것을 추천한다. COMPUTERWOCHE : 텍스트에서 편향성은 어떻게 피하는가? ChatGPT : 나를 포함해 어떤 모델이라도 편향될 수 있다는 것을 유념해야 한다. 따라서 모델을 훈련하는 데 사용되는 데이터가 대표적이고 가능한 한 편견이 없는 것이 중요하다. 또한 편향을 방지하기 위해 훈련 과정 중에 편향 보정 기술을 적용해야 하고, 작동 중에도 모델을 모니터링하고 편향성이 발견되면 수정해야 한다. COMPUTERWOCHE : 어떤 데이터로 훈련을 받았는가? ChatGPT : 인터넷에서 수집한 대량의 텍스트 데이터로 훈련을 받았다. 이 데이터에는 기사, 블로그 게시물, 책, 뉴스, 소셜 미디어 게시물 등 다양한 텍스트가 포함되어 있으며, 모델이 자연어를 이해하고 생성할 수 있도록 훈련하는 데 사용됐다. 많은 양의 데이터로 훈련했기 때문에 다양한 상황에서 언어가 어떻게 사용되는지, 인간 언어의 다양성을 어떻게 매핑하는지 배울 수 있었다. COMPUTERWOCHE : 다른 언어 모델과의 차이점은 무엇인가? ChatGPT : 나는 현재 이용할 수 있는 가장 강력한 첨단 음성 모델 중 하나이다. 다른 언어 모델과 차별화되는 요소는 다음과 같다. 크기와 깊이. 나는 1,750억 개의 뉴런으로 구성된 매우 큰 네트워크 아키텍처를 사용한다. 이를 기반으로 매우 복잡한 패턴을 자연어로 인식하고 생성한다. 어텐션 메커니즘. 여기에 더해 나는 어텐션 메커니즘을 사용한다. 이 방법론은 입력 텍스트의 특정 부분에 주의를 집중하고, 해당 부분을 출력 텍스트를 생성할 때 반영하도록 해준다. 사전 훈련. 나는 방대한 양의 데이터로 사전 훈련을 받았다. 이를 통해 자연어 처리에서 매우 높은 성능을 낼 수 있다. 유연성. 나는 다양한 자연어 처리 작업에 사용할 수 있는데, 텍스트 생성, 텍스트 요약, 텍스트 이해, 질의응답 시스템 등이다. 이런 요소가 나를 현재 이용할 수 있는 가장 강력한 첨단 언어 모델 중 하나로 만들었다. COMPUTERWOCHE : ChatGPT는 어떤 용도로 활용할 수 있는가? ChatGPT : 나는 자연어를 생성하고 이해하고 번역하는 데 사용할 수 있다. 적용 분야는 다음과 같다. 챗봇. 챗봇이 더 자연스럽게 말할 수 있도록 대화 기술을 개선할 수 있다. 자동 텍스트 작문. 뉴스나 설명문, 기사 등의 텍스트를 자동으로 생성할 수 있다. 텍스트 생성. 특정 양식이나 어조의 텍스트를 생성하는 데 이용할 수 있다. 텍스트 요약. 긴 텍스트를 자동으로 요약하는 데 사용할 수 있다. 텍스트 완성. 필요하다면 텍스트를 자동으로 완성하는 데 사용할 수 있다. 번역. 더 나아가 텍스트를 다른 언어로 번역할 수 있다. 나를 활용할 수 있는 분야는 이보다 더 많으며, 기술이 발전하면서 활용 분야는 더 늘어날 것이다. COMPUTERWOCHE : 프로그래밍도 할 수 있는가? ChatGPT : 나는 주로 자연어 처리 훈련을 받았고 구체적으로 코딩용으로 설계된 것은 아니다. 하지만 적절한 데이터로 훈련을 받으면 코드를 생성하거나 완성할 수 있다. 예를 들어, 챗봇 개발에 나를 사용할 수 있다. 하지만 프로그램에 특화되어 설계한 모델의 결과만큼 믿을 만하거나 효율적이지 않을 수 있다. COMPUTERWOCHE : ChatGPT를 비판적으로 보는 사람이 많은가? ChatGPT : 일부 사람들이 대규모 언어 모델 사용에 비판적인 데는 몇 가지 이유가 있다. 사무직 같은 특정 업무가 자동화되어 일자리를 잃을 수도 있다는 불안감을 예로 들 수 있다. 또한 모델을 훈련하는 데 대량의 데이터가 필요하기 때문에 데이터 보호와 프라이버시 우려도 있다. 모델을 훈련하는 데 사용하는 데이터가 항상 안전하고 은밀하지 않을 수 있다는 우려도 있다. 윤리적인 우려도 있는데, 우리가 가짜 뉴스나 선전선동, 기타 조작된 콘텐츠를 만드는 데 이용될 수도 있다는 것이다. 마지막으로 편향성에 대한 우려도 있는데, 이는 앞서 이야기한 주제이다. 하지만 데이터 보안과 프라이버시, 그리고 AI의 윤리성 검증을 강조하는 것은 중요한 일이다. COMPUTERWOCHE : 또 하나의 우려는 ChatGPT와 다른 언어 모델이 저작권을 존중하지 않는다는 것이다. 저작권을 지키고 있는가? ChatGPT : 우리는 특정 규칙과 알고리즘으로 프로그래밍된 컴퓨터 기반의 시스템일 뿐이다. 따라서 우리는 저작권이나 기타 법률을 준수해야 할 어떤 법적 도덕적 책임도 없다. 저작권 보호는 우리를 사용하는 기업과 개발자가 해야 할 일이다. 사용자는 관련 법률과 규제를 준수해야만 한다. 나를 사용하는 기업이 관련 저작권과 기타 지적재산권 법률에 따라 행동하도록 하는 것이 중요하다. COMPUTERWOCHE : ChatGPT가 생성한 텍스트의 저작권은 누구에게 속하는가? 내가 생성한 텍스트의 저작권은 복잡할 수 있으며, 여러 가지 요소에 따라 달라진다. 일부 국가에서는 AI를 자동화된 저작 툴로 간주하기 때문에 저자의 권리는 없고 저작권은 AI 시스템의 개발자가 갖는다. 어떤 국가에서는 저작권이 텍스트의 저자에게 있으며, AI 시스템이 생성한 텍스트라도 마찬가지이다. 저작권과 관련해서는 법적 지위도 중요한데, 많은 국가에서 AI의 법적 지위가 분명하지 않다. 따라서 저작권과 AI에 관한 문제를 확실히 하고 싶다면, 변호사에게 조언을 구하는 것이 좋다. editor@itworld.co.kr
네트워크 엔지니어의 업무는 갈수록 복잡해진다. 핵심 애플리케이션은 더 많은 대역폭을 놓고 싸우고, IoT로 인해 기기 수는 폭발적으로 증가한다. 네트워크 자체도 클라우드와 엣지, 홈 오피스로 확장 중이다. 사이버 보안 문제에도 신경 써야 한다. 공격이 전반적으로 증가하고 공격자는 끊임없이 취약점이나 백도어를 찾고 있다. 사이버 보안을 위한 조기 경보 시스템으로써 견고하고 안전한 네트워킹의 필요성은 더 커졌다. 다행히 네트워크 엔지니어가 끝없이 밀려드는 작업을 처리할 수 있게 도와주는 유용한 툴이 많다. 게다가 상당수가 무료다. 비용 부담이 없으면서 유용하기도 한 12가지 네트워크 툴을 소개한다. 1. 와이어샤크 : 패킷 분석기 와이어샤크(Wireshark) 분석 툴은 무료 오픈소스 프로그램으로 네트워크를 통과하는 데이터 패킷을 캡처하고 분석하는 데 주로 쓰인다. 와이어샤크는 1998년 제럴드 콤이 만들었지만 지금도 처음 만들어졌을 당시와 마찬가지로 유용하다. 네트워크 엔지니어는 와이어샤크를 통해 네트워크 인터페이스 컨트롤러(NIC)를 무차별 모드로 설정해서 대부분의 트래픽, 컨트롤러의 MAC 주소로 전송되지 않은 유니캐스트 트래픽까지 관측할 수 있다. 와이어샤크의 모든 버전과 소스 코드는 완전한 오픈소스이며 무료로 다운로드할 수 있다. 2. N맵 : 네트워크 매핑 네트워크 매핑의 줄임말인 N맵(Nmap)은 취약점 확인, 포트 스캔, 네트워크 매핑에 사용되는 오픈소스 툴이다. 다른 프로그램이 놓친, 네트워크 내의 숨겨진 취약점까지 종종 찾는 강력한 툴로, 최초 개발자인 고든 라이온을 포함한 대규모 커뮤니티의 지원을 받는다. N맵 유지 관리 커뮤니티에 따르면 매주 다운로드 횟수는 수천 회에 이른다. 누구나 무료로 다운로드할 수 있으며 윈도우, 맥, 리눅스용이 있다. 3. 인펙션 몽키 : 침투 테스트 인펙션 몽키(Infection Monkey)는 네트워크의 규모와 관계없이 작동하도록 설계된 지속적 침투 테스트 툴이다. 많은 고급 익스플로잇이 포함돼 있으며 약한 암호와 같은 흔한 보안 실수를 점검하는 기능도 제공한다. 일반적인 사이버 보안 문제를 추적하는 용도로 사용할 수 있으며 최근에는 엔터프라이즈에서 제로 트러스트 네트워킹을 사용하는 경우 올바르게 구성되었는지 검사하는 기능도 추가됐다. 인펙션 몽키 프로그램은 무료로 다운로드할 수 있고, 소스 코드는 깃허브에서 받을 수 있다. 누구나 자신의 목적에 맞게 자유롭게 코드를 수정할 수 있다. 4. iperf : 네트워크 연결 테스트 iperf 툴은 기업의 전체 네트워크 연결을 측정하고 테스트한다. 클라이언트 또는 서버로 작동할 수 있으며 데이터 스트림을 생성해 두 지점 간의 처리량을 테스트한다. 데이터 스트림은 전송 제어 프로토콜(TCP) 또는 사용자 데이터그램 프로토콜(UDP)로 생성된다. 무료로 다운로드할 수 있고 소스 코드도 공개돼 있다. 리눅스, 유닉스, 윈도우 네트워크에서 작동한다. 5. fprobe : 성능 테스트 fprobe 툴은 일반적으로 네트워크의 특정 지점에 위치해 그 지점을 지나 이동하는 트래픽에 대한 데이터를 기록한다. 대역폭을 과도하게 점유하는 기능, 또는 네트워크에서 허용되지 않는 트래픽을 생성하거나 기능을 수행하는 섀도 IT를 찾는 데도 유용하다. 6. 칵티 : 시각화 툴 칵티(Cacti) 툴은 2001년 이안 베리가 시작한 더 하기 프로젝트(The Cacti Project)의 일부로 탄생했다. 주 기능은 2가지다. 첫째, 완전히 분산된 내결함성 데이터 수집 프레임워크를 제공한다. 그러나 이 툴이 유명한 이유는 그래프 구성요소에 있다. 복잡한 데이터 집합을 시각화해 트래픽 스파이크부터 냉각 팬이 가장 높은 속도로 작동한 시간에 이르기까지 온갖 트래픽 정보를 보여준다. 칵티는 네트워크 모니터링 툴, 또는 다른 툴의 데이터에 대한 그래픽 인터페이스를 제공하는 보조 툴로 모두 사용할 수 있다. 7. 스노트 : 침입 차단 스노트(Snort)는 잘 알려진 무료 네트워킹 툴 중 하나다. 1998년 마틴 로슈가 만들었고 이후 시스코가 개발을 이어받았다. 스노트는 사용자가 규칙을 사용해 악성 네트워크 활동을 정의할 수 있는 침입 차단 시스템(IPS)이다. 이렇게 만들어진 규칙을 사용해 정의와 일치하는 패킷을 찾고, 발견 시 경보를 생성한다. 현재 버전 3에 이른 스노트는 악성 패킷을 차단하는 데도 사용할 수 있으며 추가된 자동화 구성요소는 무료 툴로서는 상당한 고급 기능이다. 8. 에어크랙ng : 무선 네트워크 요즘 기술자는 유선 네트워크 외에 무선 네트워크의 정상 작동도 살펴야 한다. 에어크랙ng(Aircrackng)는 바로 이 부분에 도움이 되는 툴이다. 802.11 무선 LAN을 위한 무선 감지기, 패킷 스니퍼, WEP 및 WPA/WPA2PSK 크래커와 분석 툴을 모아 놓은 일종의 툴 묶음이다. 인근에서 어떤 무선 네트워크가 작동 중인지, 누가 그 네트워크를 사용 중인지, 얼마나 잘 보호되고 있는지를 감지하는 데 사용한다. 무료로 다운로드 가능하다. 9. 오픈NMS : 네트워크 모니터링 오픈NMS(OpenNMS)는 네트워크 엔지니어가 기업의 로컬 및 분산 네트워크를 시각화하고 모니터링할 수 있는 오픈소스 네트워크 모니터링 플랫폼이다. 오픈NMS는 종합적인 결함, 성능, 트래픽 모니터링 및 알림 생성 기능을 제공한다. 또한 폭넓은 맞춤 구성과 확장이 가능하다. 플랫폼에는 두 가지 버전이 있다. 메리디안(Meridian)은 유료 제품으로 툴 구성과 실행에 도움을 주는 구독 서비스가 함께 제공되며 호라이즌(Horizon)은 무료 커뮤니티 기반 플랫폼으로 누구나 다운로드해서 사용할 수 있다. 호라이즌에는 유료 플랫폼의 모든 기능이 있지만 사용자가 자신의 네트워크 내에서 작동하도록 직접 구성해 사용해야 한다. 10. 스모크핑 : 지연 측정 스모크핑(SmokePing)은 네트워크 지연과 패킷 손실을 측정하는 흥미로운 툴이다. 일정 간격으로 핑을 보내 응답 시간을 기록한 다음 지연 패턴을 인터랙티브 그래프로 표시한다. 사용자는 그래프에서 원하는 부분을 클릭해 그 시점에 일어난 일에 대한 정보를 얻을 수 있다. 네트워크에 간헐적으로 문제가 발생하지만 정확한 시점이나 이유를 모르는 경우 이 기능이 도움이 된다. 무료로 다운로드할 수 있다. 11. 디봇 : 슬랙 앱 모니터링 많은 네트워크 엔지니어가 슬랙을 사용해 서로 소통하거나 사용자와 관리자로부터 요청과 지시를 받는다. 슬랙은 특히 기술 분야에서 현재 가장 인기 있는 인스턴트 커뮤니케이션 플랫폼이다. 그러나 슬랙 자체가 취약점이 되지 않도록 하는 것이 중요하다. 일종의 봇인 디봇(DBOT)은 슬랙 환경 내의 모든 URL, 파일, IP 주소를 스캔하면서 악성 콘텐츠를 찾는다. 이 과정에서 악성코드로 알려진 IP로부터 파일이 전송되는 등의 상황을 발견하면 사용자에게 직접 알린다. 무료 오픈소스 툴이며, 모든 슬랙 환경에 신속하게 추가해 부가적인 보호 계층을 제공한다. 12. 센징 : 데이터 매칭 센징(Senzing) 툴은 네트워킹과 보안 측면에서는 부수적이라고 할 수 있지만 특정 상황에서는 꽤 유용하다. 센징은 서로 다른 데이터베이스 간의 유사성과 관계를 찾는다. 사이버 보안 용도로 사용할 경우 네트워크에서 노출되지 말아야 할 개인 정보를 찾거나, 여러 곳에 흩어진 개별적인 정보 조각을 연결해 같은 사용자가 소유한 여러 개의 계정을 발견할 수도 있다. 센징은 대부분의 주요 플랫폼을 위한 API로 배포되며 최대 10만 개 레코드까지는 무료로 분석할 수 있다. 그 이후에는 비용을 내고 더 많은 레코드를 분석할 수 있다. editor@itworld.co.kr
클라우드에서도 생성형 AI 열풍이 거세다. 빅3 클라우드 모두 새로운 매출원으로 생성형 AI를 내세우면서 그렇지 않아도 계속 증가하는 기업의 클라우드 관련 지출이 점점 더 커지고 있다. 문제는 클라우드가 예전처럼 마냥 저렴하지 않다는 것. IT 하드웨어 비용이 저렴해지면서 온프레미스로 애플리케이션과 데이터를 ‘송환’하는 일이 심심치 않게 벌어지고 있다. 그렇다고 클라우드를 사용하지 않을 수는 없다. ‘클라우드 스마트’ 전략이 필요한 시점, 전문가들은 적절한 통제와 올바른 핀옵스 프로그램, 그리고 적극적인 비용 최적화를 해법으로 제시한다.
PC 경험을 완성하는 것은 다채로운 색상을 사실적으로 재현하고 무한한 스크롤을 부드럽게 유영하는 느낌을 선사하는 모니터도, 어떤 작업이든 닥치는 대로 처리하는 고성능 그래픽카드도, AI를 통해 생산성을 몰라보게 개선하는 OS도 아니다. 사용자와 물리적인 상호작용이 가장 많은, 미세한 피드백까지 손끝으로 느낄 수 있는 키보드다. 자신에게 잘 맞는 키보드를 선택하면 일을 하든 게임을 하든 손의 피로도를 줄일 수 있을 뿐 아니라 눈과 귀도 즐겁다. 인체공학 키보드부터 다양한 기계식 키보드까지 완벽한 PC 경험을 선사할 리뷰 기사를 모았다.
규제와 기술 발전의 간극을 메우기 위해 다양한 시도가 이루어지고 있다. 최근 거의 대부분의 AI 기업이 저작권 소송에 휘말린 것은 AI가 동의나 권한 없이 개인의 저작물, 예술작품을 학습 데이터로 사용하는 일이 비일비재하게 벌어졌기 때문이다. 동시에 AI가 작품을 학습할 수 없도록 훈련 데이터에 독을 푸는 데이터 포이즈닝 기술이 대두되고, 나이트셰이드 같은 구체적인 도구가 대안으로 발표됐다. 모델 학습 데이터를 오염시키는 기술이 정당할까? 거대 IT 기업이 AI 학습 과정에서 지켜야 할 '선'이 마련될 때까지는 필요악일지 모른다.
메타가 AR/VR 신제품 퀘스트 3 판매를 시작했다. 전작 대비 해상도와 주사율을 개선했고 그래픽 성능을 2배 이상 끌어 올렸다. 특히 풀컬러 패스스루를 지원해 더 정교한 MR을 구현했다. 현재 AR/VR 활용 분야는 엔터테인먼트에 집중돼 있지만 확장 가능성은 무궁무진하다. 3D 모델링 등 산업용으로 다양한 도입사례가 있고, 일반적인 협업이나 교육은 물론 불안 장애 치료 등 의학용으로도 활용되고 있다. 반면 경기 침체와 신제품 출시 부족 등으로 올 2분기 AR/VR 기기 판매량이 감소했다. 게임과 애플리케이션, 영상, 기기 등 AR/VR 생태계는 여전히 빈약하다. 그러나 일부 어려움에도 AR/VR 유행은 당분간 계속될 전망이다. 무엇보다 내년 초에 사양(4K)과 가격(500만 원) 모두 '끝판왕'인 애플 비전 프로가 나온다. 애플은 개발자 랩을 오픈하는 등 본격적인 생태계 구축에 나서고 있다. AR/VR 분야가 점점 더 흥미로워지고 있다.
마이크로소프트가 윈도우, 서피스, 오피스를 통해 ‘AI’에 올인하고 있다. 윈도우 AI 기능을 지원할 칩까지 출시된다. 앞으로 윈도우는 한 문장의 요청만으로도 PC 설정을 변경하며, 엑셀 파일의 데이터에서 명시적으로 알 수 없는 정보를 알아낸다. 단순 작업만 수행하던 기본 앱은 유료 앱 못지않은 AI 기능을 제공한다. 하지만 아직은 마이크로소프트의 원대한 포부에 불과하다. 현재로서 코파일럿이 수행하는 작업은 극히 제한적이며, 결과물의 정확도를 확인하려면 여전히 사람의 손길이 필요하다. “윈도우 PC의 AI 시대 개막”이라는 표현은 시기상조일지도 모른다.
2022년 말부터 시작해 전 세계를 뜨겁게 달군 ‘생성형 AI’ 광풍이 잦아드는 모양새다. 많은 기업이 다양한 생성형 AI 서비스를 쏟아내고 있지만, 이렇다 할 ‘한 방’은 내놓지 못하고 있다. 생성형 AI의 대표 격인 챗GPT 사용량도 감소했다. 6월 기준 챗GPT 트래픽(웹/모바일)은 전월 대비 9.7% 하락했으며, 순 방문자 수와 체류 시간도 각각 5.7%, 8.5% 감소했다. 많은 사람에게 AI의 매력이 사라지고 환멸이 확산되고 있다고 보는 전문가가 적지 않다. 챗GPT가 종종 신뢰할 수 없는 답변을 하는 것도 관심 하락에 한몫하는 것으로 보인다. 삼성의 정보 유출 사례에서 드러난 것처럼 민감한 기업 정보가 노출될 수 있다는 위험 때문에 사내 챗GPT 사용을 금지한 기업도 많다. 파괴적인 기술의 등장 자체에 열광했던 것에서 벗어나 신뢰성, 안정성, 실질적인 쓰임새 등을 따지기 시작하면서 이제 정책, 관리 방침, 보안, 환각 및 편향성 문제 해결 등이 쟁점으로 떠오르고 있다.
애플이 아이폰 15를 공개하는 행사가 10일 앞으로 다가왔다. 아이폰 15 출시와 함께 차세대 운영체제 iOS 17도 정식 배포된다. 지난 6월 WWDC 2023에서 소개된 iOS 17은 이전보다 훨씬 직관적이고 개인화된 경험을 제공하는 새로운 기능으로 큰 기대감을 모았다. iOS뿐 아니라 맥OS 14 소노마(Sonoma)와 아이패드OS 17에서도 배경화면/잠금화면 위젯과 생산성이 개선된 기본 앱 등을 통해 변화를 확실하게 체감할 수 있다. 올 하반기 새롭게 달라지는 애플 생태계가 낯설게 느껴지지 않도록 미리 살펴보면 좋을 기사를 모았다.
"사용하기 쉽고 보기에도 아름다운"이라는 설명에 어울리는 언어, 파이썬이 AI 열풍을 등에 업고 여전히 인기 가도를 달리고 있다. 읽기 쉽고, 오픈소스이며 확장 가능하고, 광범위한 표준 라이브러리가 있는 크로스 플랫폼 언어인 파이썬은 웹 개발부터 AI/ML까지 거의 모든 용도로 사용할 수 있다. 최근에는 엑셀 내 셀에 직접 입력할 수 있도록 마이크로소프트의 지원이 시작됐다. 간결한 코드로 개발자는 일관적이고 안정적인 시스템을 만들 수 있고, 기계 학습 작업에 필요한 강력한 알고리즘과 프레임워크를 만들 수 있다. 23년 상반기 파이썬의 기술적 진전과 변화, 그리고 다양한 관련 도구를 살펴 보자.
역대 가장 성공적인 선거 캐치프레이즈 중 하나가 '저녁이 있는 삶'이다. 해당 후보는 낙선했지만, 이 구호는 워라밸의 지향점으로 아직도 쓰이고 있다. 최근 워라벨의 맥락에서 '주 4일 근무'에 대한 논의가 활발하다. 영국, 미국 등에서 대규모 실험이 진행됐고, 긍정적인 평가와 일부 부정적인 평가가 나왔다. 반면 우리나라는 세계적인 흐름과 반대로 달리고 있다. 정부는 지난 3월 주 (최대) 69시간 근무제를 추진했다가 거센 반발에 직면한 바 있다. 참고할 만한 주 4일제 관련 기사를 모았다.
산업을 불문하고 많은 기업이 AI 프로젝트를 시작하고 있지만, 모든 AI 프로젝트가 성공하는 것은 아니다. 실패의 원인은 미흡한 도입 전략 및 운영 체계, 이해관계자 간 합의 실패, AI에 대한 잘못된 인식 등 다양하고 복합적이다. AI를 성공적으로 도입하고자 하는 기업은 ‘AI는 만능’이라는 잘못된 인식에서 벗어나 어떤 문제에 AI가 필요한지, 어떤 모델이 적합한지 따지고 그에 맞게 기술과 데이터를 다룰 수 있어야 한다. AI 프로젝트를 시작하기 전 참고하면 좋을 기사를 모았다.
스마트폰뿐 아니라 다른 기기에서도 게임을 즐기기를 원하는 사용자가 많다는 사실을 닌텐도 스위치가 증명한 후, 손에 쥐는 핸드헬드(hand-held) 게임 기기가 새로운 생명을 얻었다. 이들 기기가 전력 효율적이고 게임 친화적인 AMD의 x86 기반 모바일 프로세서에 집중한 덕분이다. 시작은 가 출시됐다. 리전 고는 ROG 앨라이에 탑재된 것과 동일한 프로세서인 AMD 라이젠 Z1 익스트림(Extreme)을 기반으로 하며, 동일한 용량의 메모리와 스토리지, 즉 16GB RAM 및 512GB SSD를 갖추고 있어 성능 면에서 ROG 앨라이와 거의 비슷하다. 젠4 아키텍처와 RDNA 3세대의 AMD 회로는 PC 타이틀에서 인상적인 그래픽 성능을 제공한다. 필자는 ROG 앨라이를 테스트했을 때와 동일한 수준의 프레임 속도와 품질을 얻었다. 스타필드(Starfield)나 사이버펑크(Cyberpunk)와 같은 게임을 중간 그래픽 설정에서 30~60fps로 실행할 수 있었다. 성능을 중시하는 게이밍 PC 빌더에게는 낮은 수치이지만, 대부분 사람은 핸드헬드 PC를 구입한 비용만큼을 그래픽 카드에 또 지불하고 싶지는 않을 것이다. 많은 게임이 훨씬 적은 성능을 요구하며 60fps 이상에서 더 잘 실행되며, 일부는 화면의 최대 주파수인 144Hz까지 지원한다. 한 가지 단점은 리전 고가 프리싱크(Freesync)를 지원하지 않는다는 것이다. 레노버는 144Hz의 프레임 속도의 화면에서는 프리싱크가 필요하지 않다고 주장하지만, 일부 상황에서는 프리싱크의 필요성이 느껴졌다. 60Hz 주파수 모드에서 화면을 실행하고 60Hz로 제한하면 특히 눈에 띈다. 하지만 프리싱크 미지원이 큰 단점은 아니다. 이렇게 저렴한 기기에서 완벽함을 기대하면 안 된다. 크고 선명한 디스플레이 레노버가 ROG 앨라이를 사양을 확인한 다음 에이수스 컴퓨터를 기반으로 구축할 뿐만 아니라 부족한 부분을 해결하기 위해 생각할 수 있는 모든 업그레이드와 솔루션을 집어넣었다고 생각해도 될 정도다. 물론 두 제품은 비슷한 시기에 개발됐지만, ROG 앨라이 출시 몇 달 후에 리전 고가 출시되었기 때문에 직접적인 대응처럼 느껴진다. 화면은 8.8인치로 7인치인 ROG 앨라이보다 더 크며, 144Hz의 최고 주파수와 2,560×1,600 해상도는 ROG 앨라이(120Hz, 1,920×1,080)보다 더 높다. 또한 DCI-P3 표준에 가까운 색 영역과 최대 500CD/m2의 높은 밝기를 갖춘 컬러풀한 디스플레이다. 최대 밝기에서는 검은색 표면이 약간의 배경광을 누출하지만, 밝기를 절반으로 낮추면 선명한 명암비를 제공해 실내에서는 문제가 되지 않는다. 디스플레이는 매우 선명하고 보기에 아름답다. AMD의 하드웨어가 따라잡는 한 매우 좋은 움직임을 볼 수 있다. 디스플레이는 비디오 시청과 같은 게임 외의 작업에도 적합하다. 표면적이 넓어 게임 몰입감도 더 좋다. 하드웨어가 감당하기에는 무거운 게임을 할 때는 전체 해상도를 1,280×800 또는 1,920×1200으로 쉽게 낮출 수 있다. 닌텐도 스위치 같은 컨트롤 특별한 버튼을 누르면 화면 측면에서 레노버 리전 고 설정 메뉴가 슬라이드 방식으로 나타난다. 여기에서 프레임 속도를 제어하고 사운드 볼륨, 화면 밝기, 컨트롤의 RGB 조명 효과, 간단한 성능 및 팬 제어와 같은 기기의 다른 기본 사항을 설정할 수 있다. 컴퓨터와 컨트롤의 배터리 잔량도 빠르게 확인할 수 있다. 컨트롤은 닌텐도 스위치처럼 탈부착할 수 있으며, 본체와 무선으로 통신한다. 따라서 무게가 거의 9kg에 달하는 리전 고 전체를 들고 다닐 필요가 없다. 테이블 위에 놓고 양손에 컨트롤러를 하나씩 들고 쇼파에 앉으면 된다. 스위치처럼 중앙에 부착할 수 있는 홀더는 없는 점이 아쉬웠다. 레노버가 이런 문제를 해결하면 좋을 듯하다. 컨트롤은 제자리에 있든 느슨해지든 기능적이고 잘 만들어진 느낌이다. 2개의 D-패드 컨트롤 스틱, 상단의 트리거 버튼, 십자형 컨트롤, 액션 버튼으로 구성된 일반적인 조합이다. 모두 손이 닿기 쉽고 기계적인 피드백도 좋다. 한 가지 불만이 있다면 상단 버튼 몇 개는 너무 민감해서 손가락을 얹지 않는 방법을 배워야 한다는 것이다. 양쪽 뒷면에는 게임 내 옵션 기능에 수동으로 매핑할 수 있는 버튼이 2개 더 있다. 솔직히 필자는 뒷면 버튼을 사용하지 않는다. 너무 쉽게 접근할 수 있기 때문에 실수로 계속 누르고 있기 때문이다. 그리고 2개의 마우스 ROG 앨라이와 비교했을 때 리전 고가 차별화되는 부분은 마우스 컨트롤이다. 추가적인 제어 및 정밀도가 필요한 FPS(first-person shooter) 게임이나 게임 이외의 작업에서 유용하다. ROG 앨라이는 D-패드 스틱 중 하나에 대한 대체 마우스 포인터 모드로 이런 문제를 해결했지만, 전통적인 마우스를 대체하기에는 부족하다. 이것이 바로 리전 고에서 얻을 수 있는 기능이다. 레노버는 이를 FPS 모드라고 부른다. 오른쪽 컨트롤 하단에는 옵티컬 마우스 센서와 해당 모드를 활성화하는 스위치가 있다. 스위치를 켜면 일반 무선 마우스처럼 지지대에 올려놓고 테이블을 가로질러 드래그할 수 있다. 컨트롤 측면에는 일반적인 마우스 오른쪽 및 왼쪽 클릭으로 작동하는 마우스 버튼이 있으며 가운데 버튼을 누를 수 있는 스크롤 휠도 있다. 이론적으로는 좋은 것 같지만 실제로는 사용하기 쉽지 않다. 각진 모양, 이상한 버튼 배치, 손바닥을 불편하게 찌르는 조이스틱으로 인해 잡기가 불편하다. 오른쪽 절반을 마우스로 사용하면 오른쪽의 다른 모든 버튼 컨트롤이 사라지고 게임에서는 키보드와도 연결한 것으로 인식하므로 미리 구성된 몇 가지를 제외한 나머지 버튼과 컨트롤을 키보드 버튼에 대응하도록 공들여 매핑해야 한다. 물론 실행하려는 게임이 이런 설정을 잘 지원해야 하는데, 모든 게임이 이를 지원하는 것은 아니다. 지원한다고 해도 쉽지 않은 일이다. 스타필드에서 테스트해 본 결과, 누를 수 있는 버튼을 30분 동안 다시 프로그래밍했지만, 아직 점프 버튼이 남아있다는 것을 뒤늦게 알아차렸다. 또한 컨트롤이 느슨해져 본체와의 연결이 끊기는 바람에 게임 세션을 중단하고 다시 연결한 후, 리전 고 전체를 다시 시작해야 모든 것이 정상으로 작동하는 경우도 몇 번 있었다. FPS 모드의 또 다른 문제점은 왼쪽 D-패드가 WASD 명령을 시스템에 전달한다는 것이다. 제대로 된 아날로그 컨트롤은 불가능하지만 게임에서 작동하기는 한다. 하지만 다른 모든 모드에서는 매우 실용적이지 못한 기능이다. 마우스 컨트롤은 좋은 생각이지만, 레노버는 구현 방식을 미세 조정할 필요가 있다. 차라리 단순하게 마우스와 키보드를 연결하고 플레이하는 것이 훨씬 쉽다. 꽤 안정적으로 작동하기도 한다. 그 자체로 완성형 PC에 가깝다 기기를 연결하는 가장 쉬운 방법은 블루투스를 사용하는 것이지만, 필자처럼 리전 고 그 자체를 PC로 사용하고 싶을 수도 있다. 아무리 좋은 컴퓨터를 보유하고 있더라도 최대한 활용하지 못한다면 좋은 컴퓨터라 할 수 없다. 필자와 생각이 같다면 USB-C 독이나 모든 기능이 내장된 모니터에 투자하는 것을 추천한다. 제품 상단과 하단에 각각 USB-C 포트가 있다. USB 4 속도, 전원 공급 및 디스플레이 포트 출력을 지원한다. 좋은 도킹 스테이션을 사용하면 화면, 전원 및 유선 액세서리를 쉽게 연결할 수 있다. 그런 다음 레노버의 리전 스페이스(Legion Space) 프로그램을 최소화하거나 닫으면 대신 일반 윈도우 데스크톱처럼 사용할 수 있다. 완전한 PC로 기능하기 위해 빠진 유일한 것은 웹캠이다. ROG 앨라이와 마찬가지로 실망스러웠다. 물론 별도의 웹캠을 연결해 데스크톱 화면에 걸면 되지만, 간단한 웹캠을 제공할 수 있지 않았을까? 가장 저렴한 노트북이나 태블릿에도 웹캠이 있다. 모든 게임을 한 곳에서 리전 스페이스는 리전 고를 실행하면 자동으로 시작되는 애플리케이션이다. 설치된 게임을 찾고 실행하는 콘솔과 같은 인터페이스를 제공한다. 스팀, 엑스박스, 에픽게임즈, GOG 등 주요 PC 게임 스토어 대부분에서 설치할 수 있다. 또한 레노버는 리전 스페이스에 자체 게임 스토어를 내장하고 있으며, 설치된 다른 게임이나 프로그램을 라이브러리에 자유롭게 추가할 수 있다. 엑스박스 게임 패스 얼티밋(Game Pass Ultimate) 구독자를 위한 스트리밍 게임 라이브러리 메뉴도 통합돼 있으며, 3개월 평가판 구독도 제공된다. 안드로이드 게임 탭도 있지만, 현재는 ‘출시 예정’ 메시지와 함께 비활성화되어 있으므로 향후에 어떤 게임이 표시될지는 두고 봐야 한다. 여러 게임 스토어와 여러 인터페이스를 오가며 게임을 구매하고 설치한 다음, 리전 스페이스의 라이브러리 메뉴로 깔끔하게 가져와 깔끔하고 원활하게 실행할 수 있도록 하는 것은 번거로운 일이다. 또한 게임을 시작하려면 별도의 실행 프로그램과 추가 기능이 필요할 수 있으며, 자체 로그인이 필요하고 보안 코드, 계정 연결, 저장 파일의 클라우드 시딩 등에 대한 메시지와 요구사항이 잔뜩 표시된다. 윈도우 게이머라면 이미 이 사실을 잘 알고 있겠지만, 작고 비좁은 화면에서 핸드헬드 콘솔 형식으로 관리하려면 복잡하고 귀찮은 일이 한 층 더 늘어난다. 마우스 패드가 어느 정도 도움이 되긴 하지만 충분하지는 않다. 리전 고를 모니터에 연결해 원하는 방식으로 구성하고 개별 게임을 미세 조정한 다음 핸드헬드 콘솔 모드로 돌아가는 것을 추천한다. 최종 결론 레노버 리전 고의 국내 출시 공식 소비자가는 109만 9,000원부터 시작한다. 성능과 구성을 고려했을 때 가격이 상대적으로 높지 않은 점이 놀랍다. 리전 고는 소파에 누워서 플레이하거나 이동 중에도 게임을 즐길 수 있는 생산성과 저예산이라는 측면을 모두 충족하는 미니 PC다. 다만 배터리가 몇 시간 이상 지속되지 않기 때문에 짧은 시간 동안만 사용할 수 있다. 레노버는 더 나은 화면과 매우 다채로운 컨트롤로 ROG 앨라이에서 제공하는 것보다 기준을 약간 높였지만, 이는 기회만큼이나 좌절과 골칫거리로 이어진다. 리전 고가 완벽해지려면 많은 사용자 피드백과 인터페이스 업데이트가 필요하다. 또한 모든 하드웨어가 최고 수준인 것은 아니다. 음질은 비교적 인상적이지 않다. 레노버가 리전 고를 출시하기 전에 내부적으로 더 많은 점을 고려했다면 좋았을 것이다. 마지막으로, 필자는 여러 컴퓨터 제조업체와 AMD에 라이젠 Z1 익스트림에 올인하고 이 뛰어난 프로세서를 탑재한 더 많은 소형 컴퓨터를 출시해 줄 것을 다시 한번 요청한다. 꼭 핸드헬드 콘솔이 아니더라도 좋은 가격의 소형 게임용 노트북은 시장을 뒤흔들 수 있을 것이다. 세부사양 제품명 : 레노버 리전 고 83E1000KMX 리뷰일 : 2023년 11월 제조사 : 레노버 프로세서 : AMD 라이젠 Z1 익스트림, 8개의 젠4 코어, 최대 5.1GHz 그래픽 : AMD 라데온 그래픽, 12CU, 2.7 GHz 메모리 : 16GB LPDDR5 스토리지 : 512GB SSD, 마이크로SD 슬롯 디스플레이 : 8.8인치 광택 IPS, 2,560×1,600, 144Hz, 멀티터치 웹캠 : 없음 포트구성 : USC-C 2개, 3.5mm 헤드셋 무선연결 : 와이파이 6E, 블루투스 5.2 운영체제 : 윈도우 11 홈 기타 : 분리되는 게임패드 컨트롤, 옵티컬 마우스, 마우스 패드, 접이식 스탠드, 케이스 소음 수준 : 0~37dBA 배터리 성능 : 40Wh, 최대 밝기에서 약 1시간 20분, 최소 밝기에서 약 7시간 30분 크기 : 29.9×13.1×24.1cm 무게 : 865g editor@itworld.co.kr
노트북을 고정된 장소에서 쓴다면 USB-C나 썬더볼트 혹은 도킹 스테이션을 이용해 손쉽게 외부 모니터에 연결할 수 있다. 굳이 일하는 장소를 옮길 필요가 없다면 대형 외부 모니터를 이용하는 것이 가장 좋다. 문제는 외근이 잦은 경우다. 외부 모니터를 가지고 다니는 것이 쉽지 않기 때문이다. 이때 해결책이 될 수 있는 제품이 바로 휴대용 1080p HD 모니터인 '듀엑스(DUEX)'다. 듀엑스 라이트(0.6kg)는 12~13인치 노트북에 적합한 12.5인치 휴대용 모니터이고, 듀엑스 플러스(0.6kg)는 13~14인치 노트북에 적합한 13.3인치 제품이다. 여기서 리뷰하는 듀엑스 맥스(0.8kg)도 있다. 14인치 이상 노트북을 위한 14.1인치 휴대용 모니터다. 비프로/맥스 M1/M2/M3 맥에는 기본적으로 모니터를 1대만 연결할 수 있다. 하지만 다른 소프트웨어 혹은 하드웨어를 사용하면 2대 이상 모니터를 M1/M2/M3 맥에 연결할 수 있다. 디자인 듀엑스 모니터는 노트북 뒷면에 장착해 쓸 수 있다. 자석 4개를 이용해 고정한 후 노트북 화면 한쪽 방향으로 모니터 프레임을 잡아 당겨 늘릴 수 있다. 비슷한 컨셉의 다른 제품은 무게 때문에 노트북 전체가 한쪽으로 기우는 경우도 있는데 듀엑스 맥스는 안정적으로 기울어지지 않고 고정됐다. 이 모니터의 프레임 색상은 매우 다양하다. 라이트 제품은 셋 세일 블루, 스카이 블루, 미스티 라일락, 딥 그레이, 제이다이트 그린 등이다. 플러스는 그레이, 맥스는 리오 루즈, 멜러드 그린, 건메탈 그레이, 셋 세일 블루 등이 있다. 애플이라면 절대 허용하지 않을 색상과 크기지만, 실물을 보면 걱정할만큼 조잡하진 않다. 필자는 14인치 맥북 프로에 맥스 제품을 장착해 테스트했다. 맥북에 부착하기는 쉬웠지만, 자석 4개를 설치하고 나면 맥북 상판의 애플 로고가 가려진다. 한 가지 주의할 것은, 한번 부착하면 자석을 재활용하기 어렵다는 점이다. 일단 떼어낸 후 다시 붙일 때를 대비해 여분의 스티커 커버가 제품에 포함돼 있기는 하다. 프레임을 계속해서 맥북에 붙여 놓을 필요는 없지만, 자주 탈부착하며 사용하려면 자석을 계속 붙여 두는 것이 좋다. 제품 설명서를 보면, 이 제품에 맞는 소프트웨어 드라이버를 다운로드해 설치할 수 있다. 시스템 설정에서 추가로 작업을 해야 할 줄 알았는데, 제품 포장을 벗기고 바로 연결해 사용해도 문제가 없었다. 디스플레이 포트를 지원하는 USB-C 포트를 이용해 맥북과 이 제품을 연결해야 한다는 것만 주의하면 된다. USB-A 커넥터로도 연결할 수 있지만 최신 맥에는 USB-A 포트 자체가 없다. 마지막으로 시스템 설정 > 디스플레이 메뉴로 가서 원하는 대로 모니터 위치를 정렬하고 화면 해상도를 설정하면 된다. 모니터 각도는 최대 270도까지 조절할 수 있다. 180도는 발표자 모드(Presenter Mode)로, 노트북 화면 바로 뒷면에 듀엑스가 맞붙어 있는 형태가 된다. 듀엑스 모니터로 화면 미러링을 한 후에, 발표자는 노트북 내장 화면을 보면서 설명하고, 앞에 앉은 사람은 듀엑스 모니터를 보면서 들으면 된다. 노트북 내장 화면과 듀엑스 모니터 화면이 매끄럽게 연결된 형태로 쓰고 싶다면, 설정에서 두 화면을 나란히 배치하면 된다. USC-C 케이블도 화면 뒤로 숨길 수 있으므로 신경 쓸 필요가 없다. 듀엣을 거치하는 방식도 다양하다. 맥북에서 완전히 분리해 나란히 세워둘 수도 있고 세로로 길게 세워서 사용하는 것도 가능하다. 성능과 가격 듀엣 화면은 맥북 내장 화면 만큼 선명하고 밝지는 않지만, 설정할 수 있는 해상도가 800×600, 1920×1080, 1600×900 혹은 60Hz 1280×720로, 여느 휴대용 모니터보다 사양이 좋다. 14인치 크기도 복잡한 스프레드시트, 브라우저 창, 다른 애플리케이션을 사용하기에 충분하다. 듀엑스는 영상회의를 할 때도 유용하다. 맥북 자체 화면에서 줌, 팀즈, 구글 미트 창을 열어 회의를 하면서, 듀엑스 화면에는 필요한 다른 앱을 띄워 놓고 자료를 보면서 대화할 수 있다. 반면, 화면이 2개 달린 리믹 AI 얼라이 포터블 트리플 모니터(Limink Al Alloy Portable Triple Monitor)와 달리, 듀엑스는 화면 밝기와 대비 같은 화면 설정을 사용할 수 없다. 밝기도 300니트로 리믹의 350~400니트와 비교해 더 어둡다. 맥북의 경우 표준 SDR 콘텐츠 기준 최대 밝기가 500니트이므로 차이가 더 벌어진다. 듀엑스의 가격대는 200~260달러(맥스)다. 콥게인 듀얼 랩톱 스크린 익스텐더(CopGain Dual Laptop Screen Extender) 같은 경쟁 제품과 비슷하다. 하지만 콥게인과 비교하면 듀엑스가 더 편리하고 안정적으로 거치할 수 있다. 노트북 화면을 넓히는 손쉬운 방법 정리하면 휴대용 모니터는 약간의 번거로움이 있지만, 물리적인 업무 공간 자체를 넓혀 주는 더 큰 화면 확대의 장점이 있다. 듀얼은 부착하기 쉽고 가볍고 휴대가 가능한 HD 모니터여서 필요한 멀티태스킹 작업을 더 수월할 수 있다. 영상회의나 여러 앱을 사용해야 하는 작업이 많다면 안성맞춤이다. editor@itworld.co.kr
애플의 최신 실적 발표에 따르면, 맥 판매는 애플의 기대에 미치지 못한다. M 시리즈 칩의 대성공에도 불구하고 맥북은 새장을 벗어나 하늘 높이 날지는 못하고 있다. 맥북 판매가 주춤한 이유는 여러 가지지만, 일단 맥 제품과 여기에 적용된 기술 문제는 아니다. 오히려 M 시리즈 맥북 프로가 성공적인 데뷔에도, 여전히 인텔 기반 맥북을 쓰는 사람이 많은 것이 한 요인일 수 있다. 높은 완성도 덕분에 구형 맥북을 조금 더 오래 사용하는 것이 그리 어렵지 않기 때문이다. 이런 가운데 애플이 최근 M3 시리즈 칩을 사용한 맥북 프로 신제품을 내놓았다. M 시리즈의 3세대 칩이고 동시에 노트북 외부도 일부 변경했다. 기존 구형 맥북 사용자에게 M 시리즈 맥북을 구매하라는 3번째 유혹이기도 하다. 실제 써보니, 과연 이번 유혹에는 정말로 넘어갈 수도 있을 것 같다. 새로운 스페이스 블랙 색상은 꽤 매혹적이고 더 밝아진 화면은 눈부시다. 성능 역시 매우 만족스럽다. 구매 버튼을 외면하기 힘든 매력적인 맥북 프로 제품이 나왔다. 사양 이번에 애플이 내놓은 신제품에는 M3 칩이 들어간 14인치 맥북 프로 제품도 있다. M3 프로, M3 맥스 칩이 들어간 14인치, 16인치 맥북 프로도 있다. 이 3가지 칩의 차이는 를 참고하면 된다. 이중 이번에 리뷰하는 16인치 맥북 프로는 애플 제품군 중 가장 비싼 표준 사양이다. 여기서 메모리와 SSD를 추가할 수 있고 물론 그만큼 가격이 더 올라간다. 리뷰한 제품의 구체적인 사양은 다음과 같다. CPU : M3 맥스 16코어 CPU(12 성능 코어, 4 효율 코어), 16 코어 뉴럴 엔진 GPU : 40코어 GPU 메모리 : 48GB 통합 메모리 (400GBps 메모리 대역폭) 스토리지 : 1TB SSD 디스플레이 : 16.2인치 리퀴드 레티나 XDR 디스플레이, 3456×2234 네이티브 해상도, 인치당 254픽셀, 100만:1 대비, 1,000니트 풀 스크린 XDR, 1,600니트 최대 HDR, 600니트 SDR 밝기, P3 컬러, 트루톤, 프로모션 포트 : 3 Thunderbolt 4/USB-C; SDXC card slot; HDMI 2.1; MagSafe 3; 3.5mm audio 네트워킹 : Wi-Fi 6E (802.11ax), 블루투스 5.3 무게 : 2.16 kg 크기 : 1.68×35.57×24.81cm 배터리 용량 : 100Wh 가격 : $3,999 성능 M2 맥스 대비 큰 폭의 성능 향상 GPU를 많이 사용하는 앱에서 그래픽 성능 대폭 개선 신형 맥북 프로의 가장 큰 변화는 M3 칩이다. M3 맥스의 성능 벤치마크 결과를 보면 얼마나 개선됐는지 바로 알 수 있다. 애플은 M 시리즈 칩의 세대를 거듭하면서 성능을 계속해서 개선하고 있지만, M2는 데스크톱 맥 미니에 넣든 노트북 맥북 프로에 넣든 성능이 같았다. 따라서 성능 벤치마크 결과를 볼 때는 맥 제품이 아니라 칩 간에만 비교하면 된다. 긱벤치 6 벤치마크 긱벤치 6은 일반적이고 전반적인 성능을 나타내는 지표다. 구체적인 테스트 결과를 보면, 먼저 멀티 코어 테스트에서 M3 맥스 맥북 프로는 M2 맥스 대비 43% 성능이 향상됐다. 기존 M 칩이 세대를 거듭하면서 15~20% 성능이 향상된 것과 비교하면 M3에서 매우 큰 폭의 개선이 이뤄진 것을 알 수 있다. 물론, M3 맥스는 M2 맥스보다 CPU 코어가 2개, 효율 코어가 2개 더 많다는 것을 고려해야 한다. 싱글 코어 테스트에서는 M3 맥스가 11% 정도로 일반적인 수준의 개선이 이뤄진 것으로 나타났다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 한편 M2 울트라의 멀티 코어 성능은 M3 맥스와 맞먹는다. 울트라 칩은 노트북에서는 사용할 수 없고 맥 스튜디오와 맥 프로에서만 사용되므로 직접 비교하는 것은 무리지만, M3 울트라 칩이 어느 정도 성능을 보여줄지에 대한 기대를 높이는 것도 사실이다. 이런 성능을 인텔 기반 노트북과 비교하면 어떨까? 차트의 가장 아래를 보면, 2019년에 나온 최후의 인텔 칩 애플 제품이자 가장 성능이 높았던 코어 i9 맥북 프로에 대한 수치가 있다. 현재 이 제품 혹은 더 오래된 인텔 칩 맥북을 쓰고 있다면 업그레이드했을 때 성능이 얼마나 개선될지 짐작할 수 있다. 씨네벤치 2024 벤치마크 M3 맥스 맥북 프로를 고전력 모드로 설정하고 테스트했다. 고전력 모드는 맥스 수준의 칩을 사용한 16인치 맥북에서만 설정할 수 있다. 쿨링 팬이 더 빠르게 돌기 때문에 칩이 더 많은 전력을 사용해 최고의 성능을 낸다. 고전력 모드는 배터리 시스템 설정에서 활성화할 수 있으며, 전원 어댑터를 연결한 상태에서만 사용할 수 있다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 씨네벤치 2024 테스트 결과 고전력 모드를 켜면 차이가 없는 것은 아니지만 크지는 않았다. 맥OS가 전력 소모와 성능 사이에서 자동 관리하는 기본 자동 설정 대비 고전력 모드에서 2~3% 성능이 더 빨랐다. 차이가 적었던 것은 벤치마크 툴 때문인 것으로 보인다. 씨네벤치 R23 벤치마크 씨네벤치 R23 벤치마크 테스트에서는 CPU 성능만 테스트할 수 있는데, 맥북 프로 M3 맥스는 M2 맥스 맥 스튜디오 대비 62% 성능이 향상된 것으로 나타났다. CPU 성능 코어가 더 많이 들어갔기 때문이다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 핸드브레이크 1.6 비디오 인코딩 핸드브레이크를 이용해 로봇의 눈물(Tears of Steel) 4K 영상을 1080p H.265 파일로 인코딩하는 테스트를 해 봤다. H.265(x265) 비디오 인코더를 사용한 소프트웨어로 인코딩 했을 때 M3 맥스는 M2 맥스보다 33% 더 빠른 속도를 보여줬다. 핸드브레이크의 H.265(비디오툴박스) 인코더를 이용하면 앱에서 하드웨어 가속 기능을 사용할 수 있으므로, M3 맥스가 M2 맥스 대비 33% 개선을 이룬 것을 알 수 있다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 아이무비 4K 비디오 벤치마크 아이무비에서 10분 분량 4K 비디오를 내보내는 테스트도 했는데, M3 맥스 맥북 프로는 M2 맥스 맥 스튜디오보다 약간 더 좋은 정도였다. 이 테스트는 칩에 내장된 비디오 인코더를 사용하는데, SSD에서 병목이 발생한 것으로 나타났다. 두 칩 간의 차이가 별로 없었던 이유다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 블랙매직 디스크 테스트 맥스 칩을 사용한 신/구 제품간 쓰기 속도 비교에서는 상대적으로 차이가 거의 없었다. 반면 읽기 속도는 고전력 모드에서도 10% 정도 더 느렸다. 흥미로운 결과인데, 실제 사용할 때는 기가 단위의 파일 작업을 하지 않는 한 거의 차이를 느끼지 못할 정도다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 긱벤치 6 컴퓨트 벤치마크 긱벤치 컴퓨트 벤치마크는 메탈과 오픈CL API 2가지를 이용해 GPU 성능을 테스트한다. 두 테스트에서 M3 맥스와 40코어 GPU는 M2 맥스와 38코어 GPU 대비 7% 더 빨랐다. M3 맥스와 M1 맥스의 32코어 GPU와 비교하면 성능 개선은 더 도드라졌다. 메탈과 오픈CL 모두에서 M3 맥스가 29% 더 빨랐다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 비디오게임 벤치마크 라이즈 오브 툼 레이더(Rise of the Tomb Raider), 문명 6(Civilization VI)은 인텔 칩용으로 개발된 오래된 게임으로 애플의 메타 그래픽 API에는 최적화되지 않았다. 이를 M3 맥스에서 맥OS 소노마의 새로운 게임 모드를 활성화한 채 실행했더니 벤치마크 내내 냉각 팬이 심하게 돌았다. 온도를 관리하기 위해 스로틀링이 걸린 것으로 보인다. 반면 M2 맥스 맥 스튜디오에는 발열 관리를 위한 더 강력한 냉각 시스템이 들어가 있어서 스로틀링이 나타나지 않았다. !function(e,n,i,s){var d="InfogramEmbeds";var o=e.getElementsByTagName(n)[0];if(window[d]&&window[d].initialized)window[d].process&&window[d].process();else if(!e.getElementById(i)){var r=e.createElement(n);r.async=1,r.id=i,r.src=s,o.parentNode.insertBefore(r,o)}}(document,"script","infogram-async","https://infogram.com/js/dist/embed-loader-min.js"); 이외에도 이번 리뷰를 위해 M3 맥스의 성능을 측정하기 위해 다양한 그래픽 벤치마크를 실행했다. M3 맥스부터는 GPU에서 하드웨어 가속 레이 트레이싱과 메시 쉐이딩을 지원한다. 또한 사용하는 메모리양을 최적화하는 이른바 '다이내믹 캐싱(Dynamic Caching)' 기능도 추가됐다. 다음은 M 시리즈 네이티브 혹은 유니버설 앱을 대상으로 한 여러 가지 벤치마크 결과다. 3D마크 와일드 라이프 : iOS 앱이다. 애플 메탈 API를 이용했으며, 테스트 결과는 베이스마크 GPU 스코어 스케어드패스 : 메탈 API를 이용한 고사양 3D 그래픽 테스트다. 윈도우와 리눅스용도 있다. 테스트 결과는 베이스마크 GPU : 베이스마크 록솔리드(Rocksolid) 상용 그래픽 엔진을 이용해 그래픽 화면을 생성하는 테스트다. 테스트 결과는 코로나 벤치마크 : 코로나 10 렌더러를 이용한 3D 렌더링 유니버설 앱이다. 테스트 결과는 V레이 5 벤치마크 : 애플 실리콘을 지원하지 않고 로제타(Rosetta)를 사용하는 렌더링 테스트 툴이다. 테스트 결과는 디자인과 만듦새 M3 프로와 맥스 제품을 위한 새로운 스페이스 블랙 색상 이전 세대 제품과 같은 디자인에 알루미늄 케이스 16인치 모델은 크고 견고함 노트북의 색상은 중요한 요소가 아닌 것처럼 보여도 애플과 애플 제품 사용자는 색상이 프리미엄 제품을 만드는 매우 중요한 역할을 한다는 사실을 알고 있다. 애플은 그동안 색상과 마감에서 놀라운 능력을 보여줬고 신형 맥북 프로에도 이런 노력이 이어지고 있다. 바로 스페이스 블랙 색상이다. 스페이스 블랙은 리얼 블랙이 아니다. 짙은 다크 그레이에 더 가깝다. 16진수 컬러에 익숙한 사용자를 위해 부연설명하면, 스페이스 블랙은 헥스 #414a4c와 유사하다. 아웃터 스페이스(Outer Space)라고도 불리는 색깔이다. 스페이스 블랙은 조명은 바로 받았을 때 위에서 보거나 사진을 찍으면 더 밝은 색상처럼 나타난다. M3 프로, M3 맥스 맥북 프로에서는 더는 볼 수 없는 기존 스페이스 그레이와 비교하면 많이 어두운 색상이다. 애플이 '스케어리 페스트(Scary Fast)'라고 이름 붙인 신제품 발표 행사에서 스페이스 블랙을 발표했을 때, 필자의 첫 반응은 '사고 싶다'였다. 하지만 행사 이후 나온 여러 영상과 실물을 직접 본 후에는 구매 의욕이 다소 사그라들었다. 가능한 한 헥스 #000000에 가까운 검은색을 기대했지만, 현실은 양극 처리를 한 알루미늄에서 이 색상을 구현하기는 불가능하다는 것이었다. 참고로 헥스 컬러는 맥북 색상과 정확히 매칭되지는 않는다. 하지만 모호하게 색깔을 표현하는 것보다는 이렇게 정량화하는 것이 더 실제에 가깝다고 판단했다. 실제 신형 맥북 프로를 사용해 보면서 생각이 또 바뀌었다. 스페이스 블랙 색상은 맥북을 닫았을 때보다 맥북 상판을 열어 사용할 때 더 인상적이었다. 검은색 키보드와 본체 사이에는 거의 색상 차이가 없었고, 백라이트를 최대한으로 켜도 마찬가지였다. 실버나 스페이스 그레이에서는 경험할 수 없는 경험으로, 매우 신비한 느낌이었다. 애플이 만든 마지막 트루 블랙 노트북을 기억하는가? 2008년에 나온 13인치 맥북이었다. 애플은 비 맥북 프로 제품군에 플라스틱 케이스를 사용했는데, 화이트 제품보다 블랙 노트북을 더 비싸게 받았다. 이 제품은 꽤 멋진 제품이었지만, 손가락을 대는 순간 달라진다. 제품이 온통 지문으로 뒤덮였다. 애플은 당시의 교훈을 잊지 않은 것으로 보인다. 신형 스페이스 블랙 맥북 프로에는 아노다이징 처리를 해서 지문이 묻는 것을 줄였다고 업체는 설명했다. 실제로 사용해보니 효과가 있었다. 깨끗한 손으로 만졌을 때는 맥북 프로에 지문이 묻어나지 않았다. 설사 묻어난다고 해도 2008년 맥북과 달리 쉽게 지울 수 있었다. 스페이스 블랙 색상은 M3 제품을 차별화하는 주요 특성이다. M3 14인치 맥북 프로 기본 모델에서는 실버와 스페이스 그레이만 선택할 수 있다. 이런 제한을 둔 이유는 사실 별 게 없다. 더 많은 사람이 더 비싼 M3 프로 모델을 구매하도록 하려는 상술이다. 결과적으로 블랙 색상의 제품을 가지려면 더 많은 비용을 지불해야 한다. 2008년과 똑같은 상황이다. 애플은 스페이스 블랙이 더 비싼 제품을 구매하는 이들에 대한 보상이라고 우길 수도 있지만, 결과적으로 주변에서 스페이스 블랙 맥북 프로를 발견한다면, 색상만으로도 최소 M3 프로 모델임을 알 수 있다. 한편 전체적인 디자인을 보면 2021년 이후에 나온 기존 M 시리즈 14, 16인치 맥북 프로와 다를 바 없다. 견고한 알루미늄 본체에, 굴곡이 있어서 잡기 편한 모서리, 바닥의 고무 지지대 4개, 광택이 있는 애플 로고 등 모두 그대로다. 이미 검증된 멋진 디자인을 망칠 이유가 없었던 것으로 보인다. 16인치 맥북 프로의 무게는 2.3kg 정도다. 크기는 상판을 닫았을 때를 기준으로 1.68×35.57×24.81cm여서 일부 사용자에게는 부담스러울 수 있다. 16인치 제품은 더 큰 화면이 필요하면서 물리적으로 크고 무겁다는 것을 알고 있는 이들이 구매하는 것이 좋다. 다른 이들이라면 14인치 맥북 프로가 무게와 크기 면에서 더 다루기 수월할 것이다. 포트와 연결성 이전 모델과 같음 신제품의 포트와 연결성은 이전 모델과 차이가 없다. M3 프로와 맥스 모델은 다음과 같다. 썬더볼트 4/USB-C 포트 3개 HDMI 2.1 SDXC 카드 슬롯 맥세이프 3 충전 포트 3.5mm 오디오 잭 애플은 제품을 구매해도 썬더볼트나 USB-C 케이블을 제공하지 않으므로, 케이블을 별도로 구매해야 하는데 이때 주의할 것이 있다. 썬더볼트 기기를 사용한다면, 썬더볼트 케이블이 필요하다. 썬더볼트 케이블은 USB-C 기기에도 사용할 수 있다. 반면 USB-C 전용 케이블은 더 저렴하지만 썬더볼트를 지원하지 않거나 속도가 더 느리다. 지난 1월 애플이 14인치, 16인치 M2 프로/맥스 맥북 프로를 공개했을 때 가장 큰 변화는 HDMI 포트였다. HDMI 2.0에서 2.1로 업그레이드됐는데, 이는 외부 디스플레이 지원을 개선하는 것이어서 꽤 중요한 업그레이드였다. HDMI 2.1은 M3 모델에서도 똑같이 지원한다. 무선 연결의 경우 맥북 프로는 와이파이 6E와 블루투스 5.3을 지원한다. 셀룰러 연결 지원은 이번 제품에서도 빠졌다.. 디스플레이와 스피커 더 높은 SDR 밝기를 지원하는 리퀴드 레티나 XDR 디스플레이 6개 스피커 시스템로 개선 애플은 이미 사용해 온 리퀴드 레티나 XDR(미니 LED) 디스플레이를 이번 신제품에서 더 개선했다. 주로 일반적인 용도로 쓰는 SDR(Standard Dynamic Range) 모드로 설정하면, 최대 밝기가 600니트로 기존 맥북 프로 500니트에서 향상됐다. 상당한 차이를 체감할 수 있는 변화로, 외근을 하며 밝은 곳에서 작업을 할 때 특히 유용하다. 그외의 디스플레이 사양은 이전 제품과 같다. XDR(Extreme Dynamic Range) 밝기 1,000니트, HDR(High Dynamic Range) 최대 1,600니트, 100만:1 명암비, 10억 가지 컬러와 P3 컬러 지원 등이다. 트루 톤 모드가 별도로 있고, 화면에서 재생하는 콘텐츠에 따라 재생률을 최대 120Hz로 자동 조절하는 프로모션(ProMotion)도 지원한다. 맥북 프로의 디스플레이는 언제나 인상적이고 이번 제품 역시 역대 최고 수준이다. 디스플레이의 상단 중앙 노치에는 페이스타임 카메라가 달려 있다. 맥북에도 아이폰과 마찬가지로 노치에 다이내믹 아일랜드(Dynamic Island)가 적용될 것이라는 전망이 있었지만, 이번 모델은 아닌 것으로 나타났다. 현재 노치는 작업 공간 위쪽, 일종의 보너스 공간에 달려 있어서 엄밀히 말해 디스플레이 종횡비를 침범하지 않는다. M3, M3 프로, M3 맥스 맥북 프로의 외장 디스플레이 지원에 대해서는 를 참고하면 된다. M3 맥스 16인치 맥북 프로에는 6개의 스피커와 포스 캔슬링 우퍼 시스템이 들어가 있어서 소리가 크고 풍부하다. 볼륨을 키워 놓은 줄 모르고 음악을 재생했는데, 깜짝 놀라 의자에서 넘어질 뻔 했다. 음악과 영상 감상시에는 돌비 애트모스가 적용된 공간감 오디오를 지원하므로 엔터테인먼트 경험이 만족스러울 것이다. 오디오 녹음 관련해서는, 맥북 프로에 3개의 마이크가 달려 있고 잘 작동한다. 하지만 외장 USB-C나 블루투스 마이크보다 크게 뛰어난 정도는 아니다. 3.5mm 오디오 잭에서는 하이 임피던스 헤드폰을 지원한다. 카메라 1080p 페이스타임 카메라 연속성 카메라 지원 M1 프로 맥북 프로와 M2 프로 맥북 프로의 1080p 페이스타임 카메라는 이미 많은 비판을 받았다. 하지만 M3 프로/맥스 맥북 프로 역시 변한 것은 없다. 이전 제품과 같은 1080p 페이스타임 카메라다. 전반적으로 보면 1080p 페이스타임은 이전 세대 제품의 720p 카메라보다는 많이 개선된 것이고 실제로 사용해보면 나쁘지 않다. 화상회의 영상 품질로 불편할 정도는 아니다. 하지만 맥북 프로라면 화각 122도의 12MP 울트라 와이드 카메라가 들어가는 것이 마땅하다. ƒ/2.4 조리개, HDR, 1080p HD 동영상 녹화, 센터 스테이지를 지원해야 하는 것도 물론이다. 이미 10세대 아이패드에 들어간 이 사양의 카메라가 맥북 프로에서는 빠져 있다. 애플은 카메라를 더 얇게 만들어 맥북 프로에 탑재할 수 있는 방법을 찾아야 한다. 이런 제약 때문에 많은 사람이 연속성 카메라 기능으로 아이폰을 맥북에 연결한 후 아이폰 전면 카메라를 사용하는 불편함을 겪고 있다. 배터리 사용시간과 충전 하루 종일 사용할 수 있는 배터리 16인치 모델 기준 140W 어댑터 포함 꼬아 놓은 모직 느낌의 맥세이프 케이블이 블랙 본체와 잘 어울림 M3 맥스 맥북 프로에는 100W 리튬 폴리머 배터리가 들어가 있어, 애플 TV 앱으로 무한 재생하는 테스트를 했을 때 22시간 사용할 수 있다. 필자가 애플의 테스트보다 약간 어둡게 화면 밝기 150니트로, 전체 화면 동영상을 연속 재생해 봤다. 27시간 이후 꺼졌다. 파일 렌더링, 비디오 게임 플레이 같은 더 무거운 작업을 한다면 배터리 사용시간이 약간 줄어들겠지만, 전원을 연결하지 않고도 꽤 오래 사용할 수 있다. 16인치 M3 맥스 맥북 프로를 구매하면 140W USB-C 어댑터와 맥세이프 케이블이 기본으로 들어 있다. 이를 이용하면 고속 충전을 지원하므로 30분만에 최대 50%까지 충전된다. 또한 맥세이프 케이블은 꼬아 놓은 모직의 고급스러운 느낌인데다, 맥북 프로의 스페이스 블랙에는 검은색 맥세이프 케이블이 들어 있어 본체와 잘 어울린다. 키보드와 트랙패드, 가격 풀사이즈 펑션키가 포함된 백라이트 키보드 터치 ID 멀티 터치를 지원하는 포스 터치 트랙패드 애플은 M1 프로/맥스 맥북 프로부터 키보드와 트랙패드는 항상 같은 부품을 사용하고 있다. 키보드는 백라이트를 지원하고 펑션 키는 풀사이즈다. 터치 ID 버튼은 오른쪽 상단에 있다. 트랙패드는 크게 빠르게 반응한다. 한편 이번에 리뷰한 16인치 맥북 프로 가격은 3,999달러다. M3 맥스 구성에서 CPU와 GPU 코어, 메모리와 SSD 용량을 줄이면 가격이 더 저렴해진다. 더 가격을 낮추려면 M3 프로 혹은 14인치 모델을 선택하면 된다. 애플은 (미국 기준) 11월 11일부터 주문을 받았다. 아직 주문하지 않았다면 제품을 받는 기간이 11월 혹은 12월까지도 밀릴 수 있다. 이제 인텔 맥북을 보내줘야 할 때 M 시리즈 칩이 3세대까지 진화하는 동안 맥북 프로는 성공 가도를 달리고 있다. 디자인부터 포트, 디스플레이, 성능, 배터리 사용시간 등 모든 요건을 만족하는 노트북이 분명하다. 이전 세대 제품과 마찬가지로, 만족하며 사용할 수 있다. 이 제품을 구매할지 여부는 현재 사용하는 제품에 따라 다를 수 있다. 이미 M2 맥스 맥북 프로를 구매했다면 이미 최고의 노트북을 사용하고 있는 것이므로 굳이 새로 구매할 필요가 없다. 이전 세대 대비 성능 개선이 있기는 하지만 생산성에서 큰 차이를 만들 정도는 아니다. SDR 밝기, 스페이스 블랙 색상을 제외하면 변한 것이 거의 없으므로 거부할 수 없이 매력적인 제품인 것도 아니다. M1 프로/맥스 맥북 프로를 갖고 있다면, 더 심사숙고할 필요가 있다. 성능 차이가 눈에 띌 정도이기 때문이다. 애플 트레이드인 프로그램을 통해 기존 기기를 반납하는 방식으로 새 제품을 구매하는 비용을 줄이는 것도 고려할 필요가 있다. 필자 지인의 경우 14인치 M1 프로 맥북 프로 제품을 갖고 있는데 트레이드인 프로그램으로 900달러를 보상 받았다. 여전히 인텔 기반 맥북 프로를 사용하고 있다면, 지금이 업그레이드하기 적기다. 그동안 업그레이드하지 않은 이유가 현재 사용 중인 앱의 M 시리즈 네이티브 혹은 유니버설 버전이 없을까 우려했기 때문이라면, 이제 걱정을 내려 놓아도 된다. M1이 나온지 벌써 3년이 넘었기 때문이다. 앱이 여전히 M칩에 최적화되지 않았다면 앞으로도 수정할 가능성이 크지 않다. 더구나 이런 경우는 인텔 네이티브 앱을 M 시리즈 앱에서 실행할 수 있는 에뮬레이션 엔진인 '로제타2(Rosetta2)'를 사용하는 방법도 있다. 성능 차이도 거의 알아챌 수 없을 것이다. M 시리즈 맥에서 실행할 수 없지만 반드시 써야 하는 앱이 있다면 이제는 다른 새로운 앱을 찾는 것도 고려하자. 성능 차이가 워낙 크기 때문이다. 이제 인텔 맥북은 놓아줄 때가 됐다. editor@itworld.co.kr
중급 스마트폰인 삼성 갤럭시 A34와 구글 픽셀 6a는 각각 고유의 이점이 있다. 어떤 제품이 더 나은 선택인지 결정하는 것은 어디까지나 취향의 문제다. 여기서는 디스플레이 품질 및 보안 기능부터 성능, 배터리 수명 및 카메라 기능에 이르기까지 갤럭시 A34와 픽셀 6a의 주요 측면을 자세히 비교한다. 어떤 제품이 자신의 요구사항에 더 적합한지 판단하는 데 도움이 될 것이다. 디스플레이 갤럭시 A34의 경우, 6.6인치 120Hz 슈퍼 아몰레드(Super AMOLED) 디스플레이가 탑재됐고 구글 픽셀 6a는 6.1인치 60Hz 올레드(OLED) 디스플레이를 제공한다. 일반적으로 두 제품 모두 디스플레이가 훌륭하다. 영상을 시청하거나 시각적인 즐거움을 추구하는 등 다양한 콘텐츠를 소비한다면 두 제품 모두 만족스러울 것이다. 그러나 갤럭시 A34에는 몇 가지 이점이 더 있다. 우선 화면이 더 크기 때문에 더 넓은 공간을 선호하는 이들에게 더 나은 선택지다. 픽셀 6a는 A34보다 더 작다. 또한 갤럭시 A34가 빠른 움직임을 픽셀 6a보다 더 부드럽게 구현한다. 갤럭시 A34의 주사율은 120Hz며, 픽셀 6a는 60Hz에 불과하다. 업데이트 지원 및 기타 기능 두 제품 모두 안드로이드 13을 실행한다. 안드로이드 스마트폰의 경우 삼성 및 구글이 제공하는 최고의 소프트웨어 지원을 받을 수 있다. 두 제품 중 하나를 사용한다면 향후 몇 가지 주요 업데이트를 제공받을 수 있을 것이다. 픽셀 6a는 3년간의 안드로이드 업데이트 및 5년간의 보안 업데이트를 제공하며, A34는 4년간의 안드로이드 업데이트 및 5년간의 보안 업데이트를 제공한다. 즉, 두 제품 모두 안드로이드 14를 지원한다. 보안과 관련해 두 제품 모두 디스플레이에 지문 스캐너가 내장돼 있다. 반응성은 모두 뛰어나므로 차이는 크지 않을 것이다. 그러나 갤럭시 A34는 한 단계 더 나아가 픽셀 6a에 없는 기능인 안면 인식을 제공한다. 대부분 사람은 지문 스캐너를 선호하는 경향이 있지만, 안면 인식 잠금 해제와 같은 보조 옵션으로 인해 A34가 이 측면에서 우위를 확보한다. 두 스마트폰 모두 NFC를 지원해 구글 페이/삼성 페이를 사용할 수 있으며, 방진 및 방수 등급도 IP67로 같다. 두 제품 모두 헤드폰잭을 포함하지 않으므로 무선 이어버드를 가지고 있지 않거나 표준 유선 헤드폰을 사용하는 경우 별도의 어댑터가 필요하다. 프로세서 및 메모리 갤럭시 A34는 미디어텍 디멘시티 1080 칩셋(MediaTek Dimensity 1080 chipset)과 6GB RAM을, 픽셀 6a는 구글 텐서 칩셋(Google Tensor chipset)과 6GB RAM을 제공한다. 긱벤치 5(Geekbench 5) 멀티 코어 테스트에서 픽셀 6a는 2,745점, 갤럭시 A34는 2,312점을 기록했다. 전반적으로 두 제품 모두 일상적인 사용에 적합한 성능을 제공하지만, 조금 더 자세히 따지면 픽셀 6a가 성능 면에서는 약간의 우위를 차지한다. 픽셀 6a와 갤럭시 A34 모두 128GB 내장 스토리지를 제공한다. 가장 큰 차이점은 확장 여부다. 갤럭시 A34는 마이크로SD 카드 확장을 지원하지만, 픽셀 6a는 지원하지 않는다. 갤럭시 A34는 8GB RAM/256GB 버전도 있다. 확장 가능한 스토리지가 필요하다면 A34가 더 나은 선택지다. 배터리 성능 갤럭시 A34의 경우, 25W 충전 어댑터를 사용할 경우 제공된 케이블로 급속 충전이 가능하다. 하지만 배터리 용량이 픽셀 6a보다 커 실제 충전 속도는 픽셀 6a보다 느리다. 15분에 약 15~20% 충전, 30분에 약 1/3, 2시간 만에 완전 충전이 가능하다. 반면 픽셀 6a는 최대 충전 속도가 최대 18W로 갤럭시 A34보다 비교적 느리지만, 15분 만에 22%, 30분 만에 약 42%까지 충전되고 1시간 50분 만에 완전 충전할 수 있다. 두 제품 모두 배터리 성능이 견고하므로 더 빠른 충전 속도를 중요하게 고려한다면 배터리 용량이 더 작아도 픽셀 6a가 더 나은 선택지다. 카메라 및 가격 갤럭시 A34는 1,300만 화소 전면 렌즈, 4,800만 화소 후면 메인 렌즈, 800만 화소 초광각 렌즈, 500만 화소 접사 렌즈가 탑재된 트리플 렌즈 구성이다. 후면 및 전면 카메라 모두 4K 영상을 촬영할 수 있다. 픽셀 6a에 탑재된 전면 렌즈는 800만 화소이며, 후면의 경우 1,220만 화소의 메인 렌즈와 1,200만 화소의 초광각 렌즈로 구성된다. 후면 카메라는 4K 영상을 촬영할 수 있으나 전면 카메라로는 1080p까지만 촬영할 수 있다. 두 제품의 카메라 성능은 각각의 장점이 있다. 갤럭시 A34는 픽셀 6a에는 없는 근접 촬영용 접사 렌즈를 갖추고 있다. 하지만 픽셀 6a는 전반적인 사진 및 영상 품질이 뛰어나다. 픽셀 6a는 449달러(약 60만 9,700원)로 출시됐으며, 갤럭시 A34의 출시가는 6GB RAM/128GB 구성이 49만 9,400원, 8GB RAM/256GB 구성이 51만 8,700원이다. 결론 큰 화면과 부드러운 움직임, 다양한 보안 옵션 및 확장할 수 있는 스토리지를 우선시한다면 삼성 갤럭시 A34가 더 나은 선택지다. 배터리 충전 속도, 벤치마크 성능 면에서는 픽셀 6a가 뛰어나다. 일상적인 사용 환경에서는 중요하지 않을 수 있지만, 약간의 차이라도 성능이 중요하고 카메라 품질을 중요하게 여긴다면 픽셀 6a가 적합할 수 있다. 세부사양 안드로이드 13 기반 원 UI(One UI) 안드로이드 13 6.6인치 120Hz AMOLED 2340×1080(19.5:9) 6.1인치 60Hz OLED 2400×1080 (20:9) 미디어택 디멘시티 1080 칩셋 구글 텐서 칩셋 6/8GB RAM 6GB RAM 128/256GB 스토리지, 마이크로SDXC 128GB 스토리지 카메라 기본 : 4,800만 화소 f/1.8 OIS 초광각 : 800만 화소 f/2.2 접사 : 500만 화소 f/2.4 전면 : 1,300만 화소 f/2.2 카메라 기본 : 1,220만 화소 IMX363 f/1.7 OIS 초광각 : 1,200만 화소 IMX386 f/2.2 전면 : 800만 화소 IMX355 f/2.0 스테레오 스피커 스테레오 스피커 NFC/와이파이 5 NFC/와이파이 6E 블루투스 5.3 블루투스 5.2 5G 5G 지문인식/안면인식 지원 지문인식 5,000mAh 배터리 4,400mAh 배터리 유선 충전 속도 최대 25W 유선 충전 속도 최대 18W IP67 IP67 161.3×78.1×8.2mm 152.2×71.8×8.9mm 199g 178g editor@itworld.co.kr
지난 수십년 동안 필자는 아침에 일을 시작하면 먼저 마이크로소프트 비주얼 스튜디오(또는 그 전의 비주얼 C++나 비주얼 인터데브 등)를 시작한 다음, 프로그램이 힘든 시작 과정을 거치는 사이 차를 내리고 아침 회의가 있다면 참석하기도 했다. 이 긴 시작 과정을 다시 거치기 싫어서 개발/테스트/디버그 작업을 하는 동안 종일 IDE를 열어 놨다. 200만 줄의 코드가 포함된 C++ 프로젝트 작업을 할 때는 새벽에 코드 체크아웃과 제품 전체 리빌드를 수행하는 배치 스크립트가 자동으로 실행되도록 해놓고 하루를 시작하기도 했다. 그런데 시간이 지나면서 비주얼 스튜디오의 시작 오버헤드도 많이 줄어서 이제는 대규모 비주얼 스튜디오 2022 프로젝트에서도 별 문제가 되지 않는 수준이다. 비주얼 스튜디오 코드의 경우 대체로 시작 속도가 빨라서 큰 프로젝트라 해도 몇 분만에 작업을 시작할 수 있다. ‘항상’이 아니고 ‘대체로’임에 주목해야 한다. 비주얼 스튜디오 코드 자체에 월별 업데이트가 필요하고, 필자가 따로 설치해둔 많은 확장 기능에도 자체 업데이트가 필요한 경우가 많다. 다만 비주얼 스튜디오 코드에서 십여 개의 확장을 업데이트하는 데 걸리는 시간이라고 해봐야 과거 비주얼 스튜디오에서 대규모 C++ 프로젝트의 기호 테이블을 리빌드하는 데 걸렸던 시간보다 짧다. 그래도 비주얼 스튜디오 코드와 비주얼 스튜디오 간의 선택을 가벼운 편집기와 무거운 IDE 간의 선택으로 간단히 정리할 수는 없다. 비주얼 스튜디오 코드는 구성의 폭이 넓고 비주얼 스튜디오는 완성도가 높다. 필요한 언어 지원 및 기능 못지않게 작업 스타일도 선택에 영향을 미치는 요소다. 두 개발 툴의 기능과 절충점을 알아보자. 비주얼 스튜디오 코드의 강점 비주얼 스튜디오 코드는 가벼우면서도 강력한 소스 코드 편집기로, 데스크톱에서 실행되며 윈도우, 맥OS, 리눅스에서 사용할 수 있다. 자바스크립트, 타입스크립트, Node.js를 기본 지원하고 다른 언어(예를 들어 C++, C#, 자바, 파이썬, PHP, 고)와 런타임(예를 들어 .NET, 유니티)을 위한 확장 생태계도 풍부하다. 비주얼 스튜디오 코드는 가벼움과 빠른 시작에 중점을 두면서 그 외에도 변수, 메서드, 가져온 모듈을 대상으로 한 인텔리센스 코드 완성, 그래픽 디버깅, 린팅, 멀티 커서 편집, 매개변수 힌트, 그리고 강력한 편집 기능과 세련된 코드 탐색 및 리팩터링, 깃 지원을 포함한 기본 소스코드 제어 기능도 제공한다. 이러한 기능 중 상당수는 비주얼 스튜디오 기술에서 가져온 것이다. 비주얼 스튜디오 코드 자체는 일렉트론(Electron) 셸, Node.js, 타입스크립트, 랭귀지 서버(Language Server) 프로토콜을 사용해서 구축되며 월 단위로 업데이트된다. 확장 기능은 필요에 따라 수시로 업데이트된다. 지원 수준은 프로그래밍 언어와 각각의 확장 기능에 따라 구문 강조 표시 및 괄호 일치부터 디버깅과 리팩터링에 이르기까지 다양하다. 언어 서버가 제공되지 않는 경우 텍스트메이트(TextMate) 컬러라이저를 통해 선호하는 언어에 대한 기본적인 지원을 추가할 수 있다. 비주얼 스튜디오 코드 리포지토리의 코드는 MIT 라이선스에 따라 오픈소스로 제공된다. VS 코드 제품 자체는 마이크로소프트만의 맞춤 기능을 일부 포함하고 있으므로 표준 마이크로소프트 제품 라이선스에 따라 제공된다. 상업용 라이선스지만 무료다. 비주얼 스튜디오의 강점 비주얼 스튜디오(현재 버전은 64비트인 비주얼 스튜디오 2022)는 윈도우 및 맥OS를 위한 마이크로소프트의 고급 IDE다(단, 2024년 8월 31일을 기점으로 맥용 비주얼 스튜디오는 단종됨). 비주얼 스튜디오에서 소프트웨어를 개발, 분석, 디버깅, 테스트, 협업 및 배포할 수 있다. 윈도우의 비주얼 스튜디오 2022에는 다양한 개발 대상을 위한 일관된 툴 및 구성요소 설치 번들인 17개의 워크로드가 있다. 워크로드는 비주얼 스튜디오 설치 프로세스의 중요한 개선 사항이다. 비주얼 스튜디오 2022 전체 다운로드 및 설치에는 몇 시간이 걸리고, 특히 SSD의 경우 디스크를 가득 채울 정도로 용량을 많이 소비하기 때문이다. 맥용 비주얼 스튜디오 2022의 경우 지원하는 대상의 수가 윈도우만큼 많지 않으므로 설치 프로그램도 윈도우 버전에 비해 덜 복잡하다. .NET으로 웹, 모바일 및 데스크톱용 개발을 할 수 있으며 유니티, 애저, 도커 지원이 기본적으로 포함된다. .NET 코어, 안드로이드, iOS, 맥 OS 대상은 선택 사항이며 뒤의 3개는 자마린(Xamarin)을 사용한다. 비주얼 스튜디오 2022는 커뮤니티(무료지만 기업용 지원되지 않음), 프로페셔널(첫 해 1,199달러, 갱신 시 799달러), 엔터프라이즈(첫 해 5,999달러, 갱신 시 2,569달러)의 세 가지 SKU로 제공된다. 엔터프라이즈 에디션에는 다른 두 SKU에는 없는 설계자용 기능과 고급 디버깅 및 테스팅 기능이 있다. 비주얼 스튜디오 또는 비주얼 스튜디오 코드, 선택은? 소프트웨어 개발 작업을 위해 비주얼 스튜디오와 비주얼 스튜디오 코드 중에서 결정하라고 하면 IDE와 편집기, 둘 중 하나를 선택하는 간단한 문제라고 생각할 수 있다. 그런데 간단한 문제가 아니다. 비주얼 스튜디오 코드도 많은 프로그래밍 언어에서 IDE에 근접한 수준으로 구성이 가능하기 때문이다. 그러나 이 구성의 유연함에는 몇 가지 타협이 따른다. 예를 들어 개발 스타일이 테스트 중심이라면 비주얼 스튜디오를 구입해서 곧바로 사용할 수 있다. 반면 비주얼 스튜디오 코드에는 Node.js와 고, .NET, PHP를 지원하는 테스트 중심 개발(TDD) 확장 기능이 15개 이상 있다. 마찬가지로, 비주얼 스튜디오는 데이터베이스, 특히 마이크로소프트 SQL 서버 및 관련 작업에서 탁월하지만 비주얼 스튜디오 코드에는 다수의 데이터베이스 확장 기능이 있다. 비주얼 스튜디오는 리팩터링을 잘 지원하지만 비주얼 스튜디오 코드는 6개 언어에 대한 기본적인 리팩터링 작업을 구현한다. 둘 중 한 개발 환경이 뚜렷하게 더 유리한 몇 가지 경우도 있다. 예를 들어 소프트웨어 설계자이며 비주얼 스튜디오 엔터프라이즈를 이용할 수 있다면 아키텍처 다이어그램에 이를 사용하기를 원할 것이다. 개발 또는 디버깅 작업에서 팀원들과 협업을 해야 한다면 비주얼 스튜디오가 더 나은 선택이다. 심층적인 코드 분석이나 성능 프로파일링을 하거나 스냅샷에서 디버깅을 해야 한다면 비주얼 스튜디오 엔터프라이즈가 유용할 것이다. 비주얼 스튜디오 코드는 데이터 과학 커뮤니티에서 인기가 높다. 그러나 비주얼 스튜디오에는 많은 기능을 제공하는 데이터 과학 워크로드가 있다. 비주얼 스튜디오는 리눅스에서 실행되지 않고 비주얼 스튜디오 코드는 실행된다. 반면 윈도우용 비주얼 스튜디오에는 리눅스/C++ 워크로드와 애저 지원이 포함된다. 비주얼 스튜디오와 비주얼 스튜디오 코드에서 모두 지원되는 프로그래밍 언어를 사용한 일상적인 개발/테스트/디버그 사이클에서의 툴 선택은 사실상 개인적인 취향의 문제다. 한 번에 몇 시간씩 개발 프로젝트 작업을 하는 편이라면 비주얼 스튜디오가 더 맞을 것이다. 짧은 시간 동안 개발에 몰두하고 다른 여러 작업을 번갈아 하는 경향이 있다면 비주얼 스튜디오 코드가 더 만족스러울 것이다. editor@itworld.co.kr
품질 좋은 모니터 암은 홈 오피스 환경을 업그레이드할 수 있는 최고의 아이템 중 하나이다. 모니터 암은 책상에서 모니터를 이동하고 배치할 때 더 많은 선택지를 제공할 뿐만 아니라 책상 공간을 확보해 다른 용도로 사용할 수 있도록 해준다. 또한 책상 환경도 더욱 깔끔하게 만든다. 단 한 가지 걸림돌은 가격이다. 대부분의 모니터 암은 200달러에 육박하며, 고강도 모니터 암은 훨씬 더 비싸다. 하지만 처음부터 제대로 된 모니터 암을 구입하는 것이 중요하며, 그래야 투자한 만큼의 가치를 얻을 수 있다. 모니터 암을 구매할 때 생각해야 할 주요 고려사항과 자주 묻는 질문, 그리고 PCWorld가 확인한 올해 최고의 모니터 암을 소개한다. 이번 테스트에는 에고트론(Ergotron), 허만 밀러(Herman Miller), 모노프라이스의 워크스트림, 화누오(Huanuo) 등의 모니터 암을 살펴봤다. 모니터 암에서 살펴봐야 할 사항 모니터 암을 구입하는 것은 일반 홈 오피스 장비를 구입하는 것과는 조금 다르다. 모니터 암은 모니터와 달리 무겁고 내구성이 강한 장비로 쉽게 구식이 되지 않는다. 또한 업그레이드 및 사용자 설정이 제한적이므로 당장 원하는 특정 기능을 지원해야 한다. 주요 고려사항은 다음과 같다. 조정 가능성 및 동작 범위. 모니터 암이 제공할 수 있는 조정 가능 범위와 동작은 매우 중요하지만, 종종 간과되는 기능이다. 모니터 암은 높이, 기울기, 좌우 회전, 상하 회전을 조정할 수 있어야 하며 도구 없이도 조정할 수 있어야 한다. 많은 모니터 암이 이 기준을 충족하지만 몇 가지 차이점이 있다. 일부 모니터 암만 360도 좌우 회전을 지원해 모니터 암의 목 부분을 어느 위치로든 회전할 수 있다. 다양한 위치에서 모니터를 사용할 수 있기 때문에 책상이 방 한가운데 있는 경우 유용하다. 저가형 모니터 암 중 대다수가 이런 조절 기능이 없고 나사로 고정하는 간단한 장력 메커니즘을 갖고 있다. 저렴하지만 한 번 조정하면 모니터의 위치가 제자리에 고정된다. 이런 방식의 모니터 암은 권장하지 않는다. 이 전략을 사용하는 마운트는 피하는 것을 권장한다. 간편한 설치 및 조정 용이성. 테스트한 모니터 암 중 설치가 어려운 제품은 없었지만, 저가형과 프리미엄 모델 간의 차이는 분명했다. 저가형 모델은 설치하는 데 더 많은 나사가 필요하고 암 조절 메커니즘의 기본 장력이 바로 사용하는 데 적합하지 않을 가능성이 크다. 조정의 용이성 또한 매우 다양하다. 이번에 테스트한 모든 모니터 암은 장력 조절을 위해 육각 렌치가 필요했지만(암이 너무 뻣뻣하거나 느슨해 보이는 경우 필요함), 일부 제품은 다른 제품보다 훨씬 더 어려웠다. 예를 들어, 허만 밀러 플로는 부드럽고 쉽게 조절할 수 있는 반면, 워크스트림은 상당한 힘을 줘야 돌릴 수 있었다. 케이블 관리. 깔끔하고 정돈된 책상을 중요하게 생각한다면 적절한 케이블 관리가 중요하다. 하지만 이 부분은 가격과 비례하지 않는 디자인 요소이다. 허만 밀러 플로는 기본적인 케이블 관리 기능만을 제공하는 반면, 워크스트림은 케이블을 잘 숨겨준다. 한편으로는 허만 밀러 플로는 기본적인 구성이라도 모니터를 움직일 때 케이블이 엉킬 가능성이 가장 작아 보였다. 케이블 관리가 유용하긴 하지만, 이번에 테스트한 어떤 모니터 암도 고급 USB-C 모니터까지 연결할 수 있도록 모든 케이블을 처리할 수 있는 제품은 없었다. 이는 제조업체가 개선할 수 있었던 모니터 암 설계의 한 측면이다. 최대 지원 크기 및 무게. 사용하는 모니터를 지탱할 수 있는 모니터 암을 구입하는 것이 중요하다. 24인치 또는 27인치 모니터라면 큰 문제가 되지 않지만, 그래도 모니터 암을 구입하기 전에 모니터의 무게를 다시 한번 확인하는 것이 좋다. 모니터 무게에는 스탠드가 빠진다는 점도 잊지 말자. 32인치, 34인치, 49인치 이상의 대형 모니터는 다루기가 더 어려우며, 튼튼한 모니터 암으로 업그레이드해야 할 수도 있다. 모니터 크기 제한도 중요하다. 32인치 모니터용 암에 40인치 모니터를 부착할 수도 있고, 40인치 모니터가 모니터 암의 제한 무게 내에 들어올 수도 있다. 하지만 모니터가 크면 무게가 다르게 분산되어 암의 장력 메커니즘이 고장 날 수 있다. 모니터 암 테스트 방법 이번 테스트는 PCWorld 사무실과 필자의 집에서 직접 테스트했다. 우선, 각 모니터 암의 품질, 설치 용이성, 조정 범위를 조사해 제조업체의 주장에 부합하는지 확인했다. 암 테스트에 사용하는 모니터는 시간이 지남에 따라 달라질 수 있지만 일반적으로 27인치 및 32인치 와이드스크린 모니터를 하나 이상 포함했다. 고부하 등급의 모니터 암은 무게가 9kg 이상인 모니터를 최소 한 대 이상 사용해 테스트했다. 2023년 최고의 모니터 암 : 어고트론 LX 어고트론 LX는 대다수 모니터를 다룰 수 있는 견고하고 실용적인 모니터 암이다. 설치가 쉽고 사용하기 쉬우며, 흰색 또는 광택 알루미늄 모델은 외관도 매력적이다. 어고트론은 LX를 보급형 모니터 암으로 내세우고 있지만, 이 회사의 ‘보급형’에 대한 정의는 경쟁업체와는 조금 다르다. 이 제품은 주로 금속으로 제작됐으며 일부 플라스틱 클래딩이 적용된 정도이다. 최대 25파운드 무게의 모니터를 지탱할 수 있다. 어고트론은 34인치 이하의 모니터를 사용할 것을 권장하며, 보증기간은 무려 10년이다. 어고트론 LX는 13인치, 75도 기울기, 360도 상하 회전, 360도 좌우 회전을 포함한 적절한 조절 범위를 가지고 있다. 허먼 밀러 플로만큼 부드럽지는 않지만 일어서지 않고도 모니터 암을 왼쪽, 오른쪽, 앞뒤로 조절할 수 있다. 설정은 간단하다. 모니터에는 클램프와 그로밋 마운트가 포함되어 있다. 번들로 제공되는 육각 렌치로 대부분 설치가 가능하지만, 모니터를 VESA 마운트에 부착하려면 십자드라이버가 필요하다. 24~27인치 소형 모니터는 혼자 충분히 설치할 수 있지만, 그 이상의 대형 디스플레이라면, 다른 사람의 도움을 받을 것을 권장한다. 심각한 결함은 없다. 물론 몇 가지 아쉬운 점이 있다. 클램프가 더 작을 수 있다고 생각한다. 흰색 색상에는 맞춘 VESA 마운트도 없다. 그리고 모니터 암의 전체적인 디자인은 약간 산업적으로 보인다. 그래도 이 마운트는 방폭형이며 200달러 미만으로 구입할 수 있다. 모니터 암 FAQ Q. 모니터 암은 살 만한 가치가 있는가? A. 모니터 암이 가격 대비 가치가 있는지는 주관적이지만, PCWorld가 추천하는 모니터 암은 투자할 만한 가치가 있다고 생각한다. 모니터 암은 스탠드보다 사용하기가 더 쉽고, 더 넓은 범위에서 조정할 수 있으며, 책상을 깔끔하게 정리할 수 있다. 또한 내구성이 뛰어나 모니터 암보다 모니터를 먼저 교체할 가능성이 높다. Q. 내 모니터와 호환되는가? A. 모든 모니터와 거의 모든 모니터 암은 VESA 마운팅 표준을 사용한다. 100x100mm 볼트 패턴이 가장 일반적이지만, 때로는 75x75mm가 대안으로 사용되기도 한다. 권장하는 모든 모니터 암은 두 가지 볼트 패턴을 모두 지원한다. 모니터가 VESA를 지원하는지 확실하지 않은가? 모니터 뒷면을 확인하라. 모니터 중앙에 VESA 마운트가 있으며, 자나 줄자로 볼트 패턴을 확인할 수 있다. 스탠드가 있는 모니터는 스탠드 목 아래에 있을 가능성이 있다. VESA 마운트가 없는 모니터도 장착할 수 있지만 VESA 어댑터를 구입해야 한다. 모니터 후면에 고정하는 커다란 X자 모양의 장치이다. Q. 내 책상과 호환되는가? A. 대부분의 모니터 암은 클램프와 그로밋의 두 가지 장착 옵션을 제공한다. 클램프 마운트는 홈 오피스에서 가장 일반적으로 사용된다. U자형 클램프가 책상 가장자리에 맞는다. 나사 메커니즘을 사용하여 고정한다. 대부분의 클램프는 손으로 조절할 수 있으며 다양한 책상에 잘 맞는다. 일부 클램프 마운트는 너무 작아서 두꺼운 책상 표면에서 작동하지 않으므로 책상 두께가 1인치 이상인 경우 모니터 암의 사양을 다시 한번 확인하는 것이 중요하다. 또한 클램프는 책상 위쪽과 아래쪽 모두에 장애물이 없는 가장자리가 필요하다. 그로밋 마운트는 회사 사무실에서 제작 및 판매되는 많은 책상에서 볼 수 있는 원형 컷아웃에 삽입된다. 그로밋 마운트도 클램프의 한 형태이지만 메커니즘의 크기가 다르며, 모니터를 책상 외부 가장자리가 아닌 내부에 부착하는 마운트이다. 거의 모든 모니터 암에는 클램프와 그로밋 마운트가 함께 제공되지만, 그로밋 마운트는 그다지 흔하지 않다. 모니터 암을 그로밋 마운트로 장착할 계획이라면 그로밋 마운트가 지원되는지 다시 한번 확인하는 것이 좋다. Q. 모니터 암이 책상을 손상시키는가? A. 모니터 암의 클램프 마운트를 사용할 경우 책상에 경미한 손상을 입힐 수 있다. 장착하거나 제거할 때 책상 표면이 긁힐 수도 있으며, 클램프를 너무 강하게 조으면 파티클보드 위에 베니어를 사용하는 책상처럼 부드러운 책상에 움푹 들어간 자국이 생길 수 있다. 유리 책상의 경우에도 문제가 발생할 수 있으므로 책상 제조업체에 문의해 모니터 암을 안전하게 사용할 수 있는지 확인하라. Q. 모니터 암은 흔들리는가? 고품질 모니터 암을 사용하면 모니터 흔들림이 최소화되지만 얇고 가벼운 책상에 모니터 암을 장착하면 일부 흔들림이 발생할 수 있다. 모니터 암을 안전한 표면에 장착하고 암의 장력을 장착한 모니터에 적합한 수준으로 조정해야 한다. Q. 아마존에서 25달러짜리 모니터 암을 구매해도 되는가? 모니터 암의 가격표는 지갑이 얇은 사용자를 겁먹게 할 수 있다. 보급형 모니터의 가격이 200달러 이하인데, 모니터 암에 150~300달러를 지출하는 것은 정당화하기 어려워 보일 수 있다. 하지만 너무 저렴한 모니터 암은 피하는 것이 좋다. 가장 저렴한 모니터 암에는 가스 피스톤이나 스프링과 같은 동적 장력 메커니즘이 없다. 35~50달러대의 일부 암은 가스 피스톤을 사용하지만 27인치 모니터를 겨우 거치할 수 있을 정도의 허술한 제품인 경우가 많다. 저렴한 모니터 암은 또한 플라스틱을 많이 사용한다. 처음부터 문제가 되지는 않겠지만, 플라스틱은 시간이 지남에 따라 부서지기 쉬워 모니터 암의 수명이 짧아질 수 있다. editor@itworld.co.kr
프로그램 하나의 소소한 개선 사항 몇 가지가 놀라울 정도로 큰 변화를 이끌어낼 수 있다. 해당 프로그램이 온갖 종류의 사이트, 앱, 정보에 접근하는 데 사용하는 브라우저라면 특히 그렇다. 안드로이드에서 사실상 기본 브라우저로 통하는 이 바로 여기에 해당한다. 여기서는 기억해 두면 좋을 안드로이드 크롬 앱의 몇 가지 유용한 기능을 소개한다. 크롬 안드로이드 기능 1 : 간편하고 빠른 페이지 전송 안드로이드에는 윈도우 컴퓨터를 포함한 다양한 디바이스 간에 정보를 전송할 수 있는 새로운 시스템이 있지만, 크롬에는 로그인한 다른 곳으로 페이지를 바로 전송하는 훨씬 더 쉬운 방법이 있다. 휴대폰에서 크롬 앱의 페이지를 볼 때 앱 오른쪽 상단의 점 3개 메뉴 아이콘을 탭하고 ‘공유(Share)’를 선택한다. 그런 다음 표시되는 패널에서 ‘장치로 보내기(Send to devices)’ 옵션을 찾는다. 해당 옵션을 탭하면 동일한 구글 계정에 로그인한 휴대폰, 태블릿, 컴퓨터 등 다른 디바이스 목록이 표시된다. 여기서 한 번 더 탭하면 현재 보고 있는 페이지가 선택한 다른 디바이스에 알림으로 표시된다. 크롬 PC 버전에서 휴대폰 크롬 앱으로 페이지를 보내는 경우에도 같은 방법을 사용할 수 있다. 페이지 상단, 주소 표시줄 오른쪽에 있는 공유 아이콘만 찾으면 된다. 크롬 안드로이드 기능 2 : 매끄러운 동기화 디바이스 간 페이지 전송 기능도 좋지만, 화면 사이를 이동할 때 지난번에 멈춘 부분부터 이어서 볼 수 있는 기능도 있다. 잊어버리기 쉽지만 크롬 안드로이드 앱에는 로그인한 다른 휴대폰/태블릿/컴퓨터에서 열었거나 최근에 연 탭의 전체 목록을 볼 수 있는 간단한 기능이 있다. 앱의 점 3개 메뉴 아이콘을 탭하고, 이번에는 ‘최근 탭(Recent Tabs)’을 탭한다. 그러면 최근 몇 주 동안 같은 구글 계정으로 크롬을 사용한 모든 디바이스 목록이 표시된다. 그중 하나를 탭하면 열린 탭 전체 목록을 펼치거나 접을 수 있다. 보너스 팁이 있다. 최근 탭 목록에 있는 디바이스 이름을 길게 누르면 그 안의 모든 탭을 한꺼번에 열 수 있는 추가 옵션이 표시된다. 지난번에 중단한 부분을 더욱 쉽게 찾을 수 있을 것이다. 크롬 안드로이드 기능 3 : 최고 수준의 번역 여기서 소개할 기능은 자주 필요하지는 않지만, 필요한 상황에서는 큰 빛을 발하는 기능이다. 바로 크롬에 내장된 번역 시스템으로, 매우 강력하고 편리하며 다음과 같이 다양한 방식으로 동작한다. 단어 번역 : 해당 단어를 길게 눌러 선택한다. 그러면 화면 하단에 즉시 번역이 표시된다. 문구 혹은 단락 번역 : 디바이스에 구글 번역 앱을 설치하고 번역할 부분을 선택한다. 팝업 메뉴가 열리고 ‘번역(Translate)’ 옵션이 표시된다. 표시되지 않을 경우 메뉴 내의 점 3개 아이콘을 탭하면 된다. 탭하면 ‘번역’이 포함된 팝업창이 표시된다. 해당 창에는 번역을 복사하거나 소리 내어 읽을 수 있는 옵션이 있다. 페이지 번역 : 크롬 오른쪽 상단의 3점 메뉴 아이콘을 탭해서 ‘번역’ 옵션을 선택하면 된다. 쉽지 않은가? 크롬 안드로이드 기능 4 : 시크릿 탭 잠금 시크릿 탭을 사용해 민감한 정보를 보는 사람에게는(무엇을 보고 있는지 자세히 묻지는 않겠다) 이 숨겨진 크롬 기능이 정말 유용할 것이다. 크롬 안드로이드 앱의 설정 깊은 곳에는 열려 있는 시크릿 탭에 부가적인 보호 계층을 추가하는 옵션이 있다. 이런 옵션을 사용하면 다른 사람이 우연히 자신의 시크릿 탭을 열어 무엇을 보고 있었는지 알게 될 일이 없다. 화면이 꺼지거나 크롬에서 다른 앱으로 이동하면 브라우저가 시크릿 탭을 잠근다. 다시 보기 위해서는 비밀번호, PIN, 지문을 비롯한 표준 인증 방법을 통해 인증해야 한다. 크롬의 점 3개 메뉴 아이콘을 탭하고 ‘설정(Settings)’을 선택한 다음 ‘개인정보 보호 및 보안(Privacy and security)’을 선택하고 ‘크롬에서 나갈 때 시크릿 탭 잠그기(Lock Incognito tabs when you leave Chrome)’ 옵션을 활성화한다. 크롬 안드로이드 기능 5 : 맞춤형 바로가기 버튼 필자가 가장 좋아하는 크롬 안드로이드 기능은 최근에 추가된 기능이다. 언제든 브라우저의 주소 표시줄에서 탭 한 번으로 이용할 수 있다. 개인적으로 필자는 공유 명령을 실행하는 용도로 사용한다. 이외에도 새 탭 열기, 음성 검색 등을 위한 바로가기로도 설정할 수 있다. 해당 옵션을 활성화하려면 크롬 안드로이드 설정에서 ‘도구 모음 바로가기(Toolbar shortcut)’를 찾아서 탭한 다음, 전환 토글을 켜고 원하는 설정을 선택한다. 옵션이 표시되지 않는다 해도 걱정할 필요는 없다. 구글이 이 옵션을 보편적으로 제공하기까지는 꽤 오랜 시간이 걸리겠지만 수동으로 활성화할 수 있다. 브라우저의 주소 표시줄에 chrome:flags를 입력하고 화면에 표시되는 검색 상자에 button을 입력한 다음 ‘상단 도구 모음 맞춤 설정의 적응형 버튼(Adaptive button in top toolbar customization)’을 찾아서 설정을 ‘기본값(Default)’에서 ‘활성화(Enabled)’로 바꾸면 된다. 바꾼 후에는 화면 하단의 파란색 다시 실행(Relaunch) 버튼을 눌러야 한다. 크롬 안드로이드 기능 6: 무제한 확대 마지막 기능은 오래전부터 있던 기능으로, 필자는 새로운 디바이스에 로그인할 때마다 항상 이 기능을 활성화한다. 두 손가락을 사용한 제스처로 화면을 확대하지 못하도록 막아 놓은 일부 웹사이트의 설정을 무시할 수 있도록 하는 토글이다. 웹사이트에서 두 손가락을 사용한 확대를 왜 막는지 이해할 수 없지만, 어쨌든 확대하려고 시도했을 때 확대되지 않으면 기분이 좋지는 않다. 크롬 설정으로 들어가서 이번에는 ‘접근성(Accessibility)’을 선택하고 ‘확대 강제 활성화(Force enable zoom)’ 옆의 토글을 탭해서 켜면 된다. 설정했다면 이제 새로 찾은 자유를 마음껏 즐기는 일만 남았다. editor@itworld.co.kr
수시로 새로운 소프트웨어를 설치, 제거하고 프로그램의 베타 버전을 테스트하거나 윈도우 레지스트리를 만지작거리는 사람은 어느 시점이 되면 운영체제를 완전히 재설치해야 하는 상황에 부닥치게 된다. 가상 머신(virtual machine, VM)을 사용하면 그럴 필요가 없다. 현재 사용하는 운영체제 외에 리눅스를 별도의 운영체제로 사용하고자 하는 가장 쉬운 방법도 바로 가상 PC다. 가상 PC로 할 수 있는 것 가상 머신 혹은 가상 PC(virtual PC, VPC)는 PC의 창 안에서 실행되지만 PC와는 격리된 상태로 유지되는 하나의 완전한 PC 시스템이다. 여기에 필요한 가상화 소프트웨어인 하이퍼바이저는 가상 머신 형태로 PC에 샌드박스를 설정하고, 이 샌드박스에 주 OS로부터 격리된 상태로 실행되는 운영체제를 설치할 수 있다. 윈도우 분야의 전통적인 하이퍼바이저에는 오라클 버추얼박스(Virtualbox), VM웨어 워크스테이션 플레이어(Workstation Player), 워크스테이션 프로(Workstation Pro), 그리고 윈도우 프로, 엔터프라이즈 버전에 내장된 마이크로소프트 하이퍼-V(Hyper-V)가 있다. 이 방법에서는 모두 x86 프로세서 아키텍처를 기반으로 한다는 전제하에 다양한 운영체제의 여러 가상 머신을 하나의 표준 PC에서 매끄럽게 실행할 수 있다. 가상 시스템은 일반적인 운영체제처럼 사용할 수 있고 주 컴퓨터의 구성을 변경하지 않고 손쉽게 이전 상태로 재설정할 수도 있다. 아무 위험도 없으므로 무엇이든 시도해 볼 수 있다. 예를 들어, 가상 머신을 위한 공유 폴더를 지정하지 않는 한 가상 머신의 새로운 프로그램과 ‘실제’ PC에 이미 설치된 소프트웨어는 서로 접할 일이 없다. 하드웨어 에뮬레이션 실제 PC에서 버추얼박스, VM웨어, 하이퍼-V는 적절한 드라이버를 통해 호스트 운영체제가 액세스하는 모든 주요 하드웨어 구성요소를 지원한다. 반면 가상 머신은 프로세서 및 그래픽 카드와 같이 실제로 설치된 구성요소에 관계없이 하드 디스크, CD/DVD 드라이브, 그래픽 카드, 네트워크 어댑터가 포함된, 표준화된 컨트롤러가 있는 표준 PC를 제공한다. 호스트에 연결된 USB 디바이스는 가상 PC 내에서 다양한 수준으로 제공된다. 하이퍼바이저는 플래시 드라이브, 프린터, 외부 USB 드라이브, 스마트폰을 인식하며 이를 가상 머신에 전달할 수 있다. 이를 위해 USB 디바이스는 호스트 운영체제에서 일시적으로 연결이 해제됐다가 가상 게스트 컴퓨터가 종료된 후 다시 연결된다. 전제 조건은 게스트 운영체제 측에서의 적절한 드라이버 지원이다. 마우스 클릭으로 PC 변경 가상 머신은 설정하고 나서 언제든 재구성할 수 있다. 예를 들어, 주 메모리를 늘리거나 인터페이스를 추가하거나 드라이브를 통합하고 다양한 애플리케이션 환경을 손쉽게 만들 수 있다. 버추얼박스 및 기타 VM 소프트웨어는 가상 PC의 하드 드라이브를 호스트 PC에 장착된 실제 하드 디스크의 컨테이너 파일에 저장한다. 최대 크기를 지정해서 동적으로 커지도록 할 수 있다. 이 파일은 가상 머신이 실제로 사용하는 만큼의 스토리지 공간만 실제 PC에서 점유한다. 가상 머신 컨테이너의 크기를 고정할 수도 있다. 가상 머신을 만들고 원하는 운영체제를 설치하면 다른 호스트 PC에서도 이 가상 하드 디스크를 사용할 수 있으며, 리눅스 민트와 같은 무료 시스템의 경우 이전도 가능하다. 또한 가상 머신을 노트북에 전송하거나 백업 목적으로 다른 드라이브에 저장할 수도 있다. 리소스 요구사항 동시에 실행되는 가상 운영체제의 수는 호스트 PC의 메모리 및 하드 디스크 리소스에 따라 제한된다. 컴퓨터의 RAM 용량이 클수록 더 많은 운영체제를 가상 머신으로 시작할 수 있다. 가상 머신의 운영체제는 할당된 RAM 크기에 따라 동일한 하드웨어 구성의 일반적인 설치보다 비교적 느리게 실행되지만, 빠른 PC 하드웨어에서는 일반적으로 거의 문제가 되지 않는 수준이다. 가상 머신에 설정할 수 있는 최대 RAM 크기는 실제 PC의 RAM 용량에 따라 달라진다. 하이퍼바이저는 호스트 PC에서 가용하지 않은 RAM을 제공할 수는 없다. 종합적인 충돌 보호 가상 머신은 별도의 영역에서 독립적으로 실행되며, 한 운영체제가 다른 운영체제, 나아가 호스트 운영체제와 충돌할 수 없는 방식으로 상호 보호된다. 반면 가상 머신 내부의 충돌은 가령 게스트 운영체제의 오류(블루스크린), 설치된 드라이버나 애플리케이션의 오류 등을 이유로 얼마든지 발생할 수 있다. 이 경우 가상화 소프트웨어에서 충돌이 발생한 가상 컴퓨터를 재시작하기만 하면 된다. 호스트 컴퓨터에 영향을 미치지 않으며 재시작 전에 이전 상태로 재설정할 필요도 없다. 알아야 할 기술 용어집 게스트, 게스트 시스템 : 가상 머신 내에서 시작되는 윈도우 또는 리눅스와 같은 운영체제 게스트 확장 : 게스트 확장(가상 머신 추가 기능)은 운영체제를 설정한 후 부가적인 기능과 드라이버를 얻기 위해 가상 머신에 설치하는 드라이버 패키지다. 호스트, 주 컴퓨터, 실제 PC, 호스트 PC : VM웨어나 버추얼박스와 같은 가상화 소프트웨어가 설치된 컴퓨터. 이를 사용하여 가상 머신을 설정 및 사용한다. 호스트 키 : 호스트 키를 누르면 가상 머신 창에서 나가게 된다. 버추얼박스의 경우 오른쪽 ctrl 키, VM웨어에서는 ctrl+alt 키를 누르면 된다. ISO 파일 : CD 또는 DVD의 이미지 파일(이미지)이다. 윈도우 DVD 등 원본 디스크의 모든 데이터가 포함되며 가상 DVD 드라이브를 통해 액세스한다. ISO를 사용해서 운영체제를 설치할 수 있다. 클론 : 설치된 가상 머신의 클론을 만들 수 있다. 클론은 원본 VM과는 별개로 실행되며 즉시 사용 가능하다. 따라서 가상 PC를 다시 설정할 필요가 없고 운영체제를 설치할 필요도 없다. 콘솔 : 가상화 소프트웨어의 주 메뉴다. 콘솔을 사용해서 가상 머신을 관리하고 모든 설정을 조정한다. 콘솔에서 새 가상 컴퓨터를 만들고 가상 PC를 시작, 중지, 복사, 삭제하거나 가상 데이터 캐리어를 마운트할 수 있다. 가상 하드 디스크 : 가상 머신 내에서 가상 하드 디스크(VHD)는 PC의 물리적 하드 디스크의 기능을 담당한다. 가상 하드 디스크는 호스트 PC의 실제 하드 디스크에 대용량 컨테이너 파일로 저장된다. 가상 머신(VM), 가상 PC(VPC) : 호스트 PC에서 VM웨어 또는 버추얼박스와 같은 가상화 소프트웨어로 에뮬레이션되는 런타임 환경을 위한 용어. 가상 네트워크 어댑터 : VM에서 네트워크 액세스는 가상화 소프트웨어가 실제 PC에 설정하는 가상 네트워크 어댑터를 통해 이뤄진다. 가상 네트워크 어댑터의 설정에 따라 가상 PC의 네트워크 액세스의 허용 여부 및 방식이 결정된다. editor@itworld.co.kr
텐서플로우는 가장 인기 있는 머신러닝 플랫폼이며, 노드(Node) 버전인 TensorFlow.js를 사용하면 자바스크립트 애플리케이션에서 손쉽게 텐서플로우를 쓸 수 있다. 여기서는 현재 가장 흥미로운 2가지 기술인 암호화폐와 AI를 결합한다. 신경망을 학습시켜 기존 비트코인 가격 변동 데이터를 근거로 가격 예측을 수행한 다음 지정된 날짜 범위에서 실제 비트코인 가격과 비교해 보자. 프로젝트 시작하기 시작하려면 Node/NPM이 설치돼 있어야 한다. 새 디렉터리를 만들고 npm init을 실행하고 기본값 그대로 둔다. 그 다음 npm i tensorflow/tfjs를 입력해 텐서플로우를 설치한다. 이것이 이 데모에서 필요한 유일한 종속 항목이다. 애플리케이션은 다음 3개 파일로 구성된다. predict.js : 명령줄 상호작용 처리 fetchPriceData.js : 가격 데이터 가져오기 >trainAndPredict.js : 예측 수행 predict.js는 명령줄 인수를 처리하는 일반적인 Node.js다. 인수를 정리하기 위한 몇 가지 유용한 기능이 추가됐지만 여기서는 다루지 않는다. 기본 개념은 사용자가 predict.js를 실행하고 다음 3개 인수를 전달하는 것이다. 비트코인, 솔라나 등 토큰 기호 종료 날짜 돌아갈 일 수 아무것도 제공하지 않으면 프로그램의 기본값인 각각 비트코인, 오늘 종료, 90일 이전으로 돌아가기로 설정된다. 예측 설정 여기서는 과거 데이터를 반환하는 방식을 다루는 API인 를 사용한다. 이 API는 기간 범위가 90일을 초과하면 자동으로 시간 대신 일 간격을 사용한다. 여기서 사용하는 코드는 두 경우 모두 처리하지만 기본적으로 3개월 분량의 시간 데이터를 사용하고 종료 날짜는 오늘이다. 참고로 CoinGecko가 원하는 타임스탬프는 밀리초가 아닌 초 단위다. 시작과 종료 날짜 계산에 1000이 사용된 이유도 이 때문이다. 에서 predict.js 파일을 볼 수 있다. predict.js const fetchPriceData = require('./fetchPriceData'); const trainAndPredict = require('./trainAndPredict.js'); const [tokenSymbol] = process.argv.slice(2); // Set default if argument not provided const defaultTokenSymbol = 'bitcoin'; // CoinGecko likes timestamps in seconds, not ms const endDate = new Date(Date.now()) / 1000; const startDate = new Date((endDate * 1000) - 90 * 24 * 60 * 60 * 1000); // Use default values if arguments are not present const finalTokenSymbol = tokenSymbol || defaultTokenSymbol; async function main(){ try { const { timePrices, predictTime, actualPrice } = await fetchPriceData(finalTokenSymbol, startDate, endDate); const results = await trainAndPredict(timePrices, predictTime); console.log(`Prediction for ${new Date(predictTime)}: ${results} `); console.log(`Actual: ${actualPrice}`); } catch (error) { console.error('Error:', error); } } main(); 이 코드는 가져올 모듈 2개를 만들기 전까지는 실행되지 않는다. predict.js는 fetchPriceData와 trainAndPredict 모듈을 사용해 가격 데이터를 가져오고 AI를 실행한다. fetchPriceData 모듈은 다음 3가지 항목을 반환한다. 타임스탬프와 가격의 배열 비트코인 가격 예측에 사용된 타임스탬프 그 시점의 실제 가격 실제 가격을 사용해 AI의 예측을 실제 가격과 비교한다. 가격 데이터 가져오기 가격 데이터를 가져오기 위해 CoinGecko API를 사용해 와 같이 fetchPriceData 모듈을 정의한다. fetchPriceData.js async function fetchPriceData(tokenSymbol, fromTimestamp, toTimestamp) { try { const url = `https://api.coingecko.com/api/v3/coins/${tokenSymbol}/market_chart/range?vs_currency=usd&from=${fromTimestamp}&to=${toTimestamp}`; console.info("Getting price data from: " + url); const response = await fetch(url); const data = await response.json(); console.info(`Got ${data.prices.length} data points`); if (data && data.prices) { const lastElement = data.prices.pop(); const pricesButLast = data.prices.slice(0, data.prices.length - 1); return { timePrices: pricesButLast, predictTime: lastElement[0], actualPrice: lastElement[1] }; } else { console.log('No price data available.'); return { timePrices: [], predictTime: null, actualPrice: null }; } } catch (error) { console.error('Error fetching data:', error.message); return { timePrices: [], predictTime: null, actualPrice: null }; } } module.exports = fetchPriceData; CoinGecko API는 api.coingecko.com/api/에 있다. market_chart/range 엔드포인트를 사용해 날짜 범위와 토큰 ID를 정의할 수 있다. vs_currency 매개변수는 척도로 사용할 명목화폐를 지정하는데, 여기서는 usd로 하드코딩됐다. 더 자세한 내용은 를 참고하면 된다. 완전한 기능을 갖춘 API이며 대부분 기능을 API 키 없이 사용할 수 있다. predict.js에서 전달된 인수를 다음과 같이 엔드포인트 URL에 집어넣는다. https://api.coingecko.com/api/v3/coins/${tokenSymbol}/market_chart/range?vs_currency=usd&from=${fromTimestamp}&to=${toTimestamp} 여기에 실제로 일부 데이터를 연결하면 브라우저에서 URL을 열어 형식을 볼 수 있다. 예를 들어 다음을 연결해 보자. https://api.coingecko.com/api/v3/coins/bitcoin/market_chart/range?vs_currency=usd&from=1684013673.171&to=1691789673.171 참고로 시간은 유닉스 타임스탬프 형식으로 돼 있다. 를 탐색해 data.prices에서 실제 가격 목록을 얻는다. 여기에는 2차원 배열이 [timestamp, price] 구조로 저장된다. 학습 및 예측 다음으로 몇 가지 조작을 했는데 얼핏 이상해 보일 수 있지만 마지막 시간/가격 쌍을 데이터 집합의 끝에서 제거하기 위한 것이다. 이렇게 하면 AI 모델이 나머지로 학습할 수 있다. 그런 다음 모델에 마지막 타임스탬프를 제공하고 예측을 받아서 실제 가격과 비교할 수 있다. 여기까지 하면 데이터가 저장된 3개의 필드가 있는 객체가 반환된다. { timePrices: pricesButLast, predictTime: lastElement[0], actualPrice: lastElement[1] } predict.js로 돌아와서, 이 데이터를 받으면 trainAndPredict를 호출할 준비가 된다. trainAndPredict는 시간/가격 데이터와 타임스탬프를 받고 값, 즉 예측을 반환한다. 에서 trainAndPredict 모듈을 위한 코드를 볼 수 있다. trainAndPredict async function trainAndPredict(timeAndPriceData, newTimestamp) { // Extract timestamps and prices from the data const timestamps = timeAndPriceData.map(([timestamp, price]) => timestamp); const prices = timeAndPriceData.map(([timestamp, price]) => price); // Normalize and scale the data const minTimestamp = Math.min(...timestamps); const maxTimestamp = Math.max(...timestamps); const minPrice = Math.min(...prices); const maxPrice = Math.max(...prices); const normalizedTimestamps = timestamps.map(ts => (ts - minTimestamp) / (maxTimestamp - minTimestamp)); const normalizedPrices = prices.map(price => (price - minPrice) / (maxPrice - minPrice)); // Convert data to TensorFlow tensors const X = tf.tensor1d(normalizedTimestamps); const y = tf.tensor1d(normalizedPrices); // Create a simple linear regression model const model = tf.sequential(); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); model.add(tf.layers.dense({ units: 1, inputShape: [1] })); // Compile the model model.compile({ optimizer: 'sgd', loss: 'meanSquaredError' }); // Train the model await model.fit(X, y, { epochs: 100 }); // Normalize the new timestamp for prediction const normalizedNewTimestamp = (newTimestamp - minTimestamp) / (maxTimestamp - minTimestamp); // Predict the normalized price for the new timestamp const normalizedPredictedPrice = model.predict(tf.tensor1d([normalizedNewTimestamp])); // Scale the predicted price back to the original range const predictedPrice = normalizedPredictedPrice.mul(maxPrice - minPrice).add(minPrice); return predictedPrice.dataSync()[0]; } module.exports = trainAndPredict; 부터 머신러닝 코드로 들어가기 시작한다. 여기서부터는 기본적인 머신러닝 개념을 이해하는 것이 도움이 될 것이다. 모델 학습 먼저 시간과 가격, 두 개의 데이터 요소를 개별적인 변수로 추출한 다음 정규화한다. 정규화를 사용한 데이터 전처리는 신경망에서 일반적인 일이다. 기본적으로 여기서 하는 일은 두 데이터 집합의 분산이 서로 근접하도록 하는 것이다. 구체적으로, 두 데이터 집합의 값을 0~1 범위로 압축한다. 이렇게 하면 최소 오차를 찾는 경사 하강 알고리즘의 효율성이 높아지고 에 갇히는 현상을 방지하는 데 도움이 된다. 두 값에 대한 정규화 연산은 최대 및 최솟값을 찾고 실제 값에서 최솟값을 뺀 다음 최댓값에서 최솟값을 빼서 나오는 값으로 나누는 과정으로 구성된다. 다음으로, 데이터를 사용해 텐서플로우의 기본적인 빌딩 블록인 텐서를 만든다. 텐서는 n-차원으로 벡터를 강화한 것과 같다. 텐서는 차원 간의 상호작용을 위한 복잡한 연산을 지원한다. 텐서플로우를 사용하면 데이터를 텐서로 모델링한 다음 이 데이터를 사용해 모델을 학습시킬 수 있다. 실제 텐서 사용에 대한 더 자세한 내용은 에서 볼 수 있다. 이번 예제에서 필요한 텐서는 시간과 가격에 대한 2개의 1차원 벡터가 전부다. tensor1d()를 호출하면 된다. 이제 신경망을 만들고 레이어를 추가한다. 간단한 “순차” 네트워크를 사용한다. 열에 각 레이어가 있고, model.add(tf.layers.dense({ units: 1, inputShape: [1] }))를 사용해 추가한다. 각각은 신경망의 뉴런 레이어다. “dense”는 각 뉴런이 다음 레이어의 다른 모든 뉴런과 연결된다는 것을 의미한다. 매우 기초적인 레이어다. 텐서플로우에는 예를 들어 레이어의 수, 뉴런의 수, 레이어의 유형(dense, convolution, Long Short-Term Memory), 활성화 함수 등 사용할 수 있는 구성이 매우 풍부하다. 맞춤형 신경망과 뉴런 속성을 정의할 수도 있다. 다음으로, 옵티마이저를 “sgd”(확률적 경사 하강)로 설정하고 평균 제곱 오차 손실 함수를 사용해 모델을 컴파일한다. 마찬가지로, 모든 부분은 모델 성능을 개선하기 위해 구성할 수 있다. 예측 실행 이제 await model.fit(X, y, { epochs: 100 })으로 실제 학습을 실행할 준비가 됐다. 여기서 epochs는 신경망을 거쳐 데이터를 실행할 사이클 수다. 참고로 에포크가 너무 많으면 학습 데이터의 과적합으로 이어질 수 있다. 마지막으로, 타임스탬프(마찬가지로 정규화함)를 사용해서 예측을 수행할 수 있다. model.predict(tf.tensor1d([normalizedNewTimestamp])) 호출을 사용한다. 가격으로 돌아가기 위해 예측을 역정규화한다. 텐서 연산(여기서는 요소의 곱)을 지원하는 텐서플로우의 일부인 mul() 메서드를 제외하면 일반적인 자바스크립트 수학이다. 여기서는 배열이 아닌 하나의 예측된 값만 있으므로 일반적인 곱셈만 수행된다. 이 코드를 실행하면 와 같은 결과를 얻게 된다. 예측기 실행 $ node predict Prediction for Fri Aug 11 2023 21:00:01 GMT+0000 (Coordinated Universal Time): 30595.5546875 Actual: 29380.31012784574 $ node predict solana Prediction for Fri Aug 11 2023 22:00:54 GMT+0000 (Coordinated Universal Time): 24.18000602722168 Actual: 24.5108586331892 소스 다운로드하기 첫 번째에서는 비트코인 예측을, 두 번째에서는 솔라나 예측을 수행한다. 두 경우 모두 지난 90일 간의 시간별 데이터를 사용한다. 두 경우 모두 대략적인 예측이긴 하지만 별로 정확하지 않다. 이유가 무엇일까? 타임스탬프와 가격 간에 아무런 실질적 관계가 없기 때문이다. 즉, 비트코인 가격 예측 방법으로는 너무 단순하고 어리석은 방법이다. 그럼에도 불구하고 이 예제를 통해 암호화폐 API 피드와 함께 텐서플로우 사용에 관한 기초적인 요소를 잘 살펴볼 수 있었다. 이 데모의 전체 프로젝트 코드는 에서 받을 수 있다. editor@itworld.co.kr