기존 기업 대비 클라우드 활용 기업이 매년 내놓는 새로운 기능의 수
Z세대 : 결제의 미래 (Gen Z: the future of spending)
2027년까지 생성형 AI 반도체 예상 매출액
올해를 빛낸 AI 앱
팬데믹 이후 많은 중소중견기업(SMB)이 대기업과 같은 툴과 이용하고 효율성을 높이기 위해 클라우드로 이전했다. 그러나 에 따르면 전체 기업의 클라우드 도입률은 아직도 44% 수준에 그친다. 이는 클라우드 디지털 트랜스포메이션에 여전히 큰 기회가 있음을 보여준다. 그렇다면 클라우드 도입을 가로막는 장애물은 무엇일까? 많은 SMB가 우려하는 것은 필요 이상의 서비스에 대한 비용 지급, 적절한 인재 확보와 유지 그리고 클라우드 데이터에 대한 보안이다. 이는 SMB 경영진이 가장 우선 고려해야 할 사항이기도 하다. 여기서 질문을 뒤집어 보자. 클라우드로 전환하지 않고 레거시 기술을 고수함으로써 잃는 것은 무엇일까? 클라우드 컴퓨팅은 비용을 최소화하면서 효율적으로 확장하는 유연성을 제공하므로 SMB는 이를 적절히 활용해 미래 성장 기회를 발굴하고 더 빠르게 혁신하고 사용자 경험을 개선하고 새로운 수익원을 창출할 수 있다. 지금부터 SMB가 클라우드를 활용하는 구체적인 방법과 주의해야 할 점을 살펴보자. 클라우드 컴퓨팅의 이점 이점 1. IT 비용 낮추고 통제 강화 기본적으로 클라우드는 비용을 낮추는 강력한 툴이다. SMB가 물리적 컴퓨팅 또는 스토리지 하드웨어와 소프트웨어를 구매, 구축 또는 유지 관리할 필요를 없애 주기 때문이다. 대신 기업은 클라우드에서 사용한 부분에 한해서만 비용을 지불하며 수요 변화에 따라 용량을 유연하게 확장하거나 축소할 수 있는데, 이 과정에서 IT 비용을 크게 낮출 수 있다. 를 보면, 온프레미스 데이터센터 대신 클라우드에서 리소스를 프로비저닝한 기업이 IT 지출 비용을 연평균 25% 줄였다. 같은 워크로드를 실행할 때, 특히 SMB에서는 클라우드 인프라가 온프레미스 데이터센터에 비해 더 효율적이다. 대부분의 온프레미스 데이터센터는 사용률이 낮으며, 최대 사용량을 지원하기 위해 구매한 여분의 하드웨어가 공간을 차지하고 있다. 하지만 사실 SMB에는 최대 사용량을 장기간 지원하기 위한 인프라가 일반적으로 불필요하다. 거의 쓰지 않는 하드웨어에 묶여 비용 효율성만 떨어뜨릴 뿐이다. 반면 클라우드를 사용하면 전기, 하드웨어, 유지보수 등 자체 서버를 유지 관리하기 위한 초기 자본 비용을 완전히 없앨 수 있다. 많은 클라우드 서비스 업체는 SMB가 클라우드에서 지출하는 비용을 관리, 통제, 최적화할 수 있도록 지원한다. 기업이 지출을 줄이면서 지출에 따른 가치를 극대화하는 데 도움이 되는 자동화된 클라우드 관리 툴도 기본 제공한다. 대표적인 것이 데이터 수명주기 관리를 자동화하고 사용 빈도가 낮은 데이터를 비용이 더 낮은 스토리지에 저장하는 지능형 계층화 솔루션이다. 이런 솔루션은 자동으로 클라우드 지출을 최적화하고 비용을 줄여준다. 이점 2. 데이터 최대한 활용 데이터는 모든 기업에 소중한 자산이다. 산업과 지역을 불문하고 기업은 과거 어느 때보다 많은 데이터를 생성하고 있고, 특히 SMB에서 효과적인 데이터 활용은 경쟁사와의 차별화를 결정한다. 그러나 데이터가 가진 잠재력을 최대한 끌어내려면 이 데이터에 액세스해 분석할 수 있는 안전하고 경제적인 툴이 필요하다. 대량의 데이터, 즉 빅데이터를 처리해서 고유한 인사이트를 파악하고 활용하는 것은 더 이상 방대한 리소스를 보유한 대기업의 전유물이 아니다. 클라우드 기반의 접근 방식은 SMB가 데이터에서 가치를 끌어내기 위한 최첨단 툴에 경제적으로 활용할 수 있는 방법이다. 최신 데이터 아키텍처를 직접 구축하는 데 따르는 복잡하고 값비싼 프로세스를 관리하는 대신 클라우드를 통해 대기업이 활용하는 것과 같은 데이터 기술과 역량을 확보해 관련성 있는 최신 인사이트를 얻고 성장을 가속화할 수 있다. SMB는 데이터에 근거한 인사이트와 클라우드 기반 데이터 분석을 통해 운영을 개선하고 운영 비용을 절감하고 사용자 경험을 강화하고 새로운 수익원을 창출해서 경쟁에서 앞서 나갈 수 있다. 이점 3. 더 빠른 혁신과 신기능 구축 SMB에 클라우드는 운영 효율성을 높여줄 뿐만 아니라 제품과 서비스를 혁신하고 강화할 기회도 제공한다. 클라우드를 통해 SMB는 필요에 따라 신속하게 리소스를 가동해서 더 빠르게, 자주 실험하고 반복할 수 있다. 기업은 몇 분 만에 수백, 수천 대의 서버를 배포해서 새로운 애플리케이션을 신속하게 개발할 수 있다. 애플리케이션의 새로운 버전을 프로덕션 환경을 똑같이 옮긴 복제본에서 테스트할 수 있다. 이와 같은 작업을 온프레미스 데이터센터에서 하면 많은 비용과 시간이 필요하지만, 클라우드에서는 저렴한 비용으로 거의 즉각적으로 수행할 수 있다. 이처럼 클라우드는 SMB가 새로운 제품과 기능, 업데이트를 배포하는 데 있어 경쟁력을 높이고 혁신적인 제품을 출시하고 사용자 요구를 더 신속하게 충족할 수 있게 해준다. 에 따르면 클라우드로 마이그레이션한 기업은 실제로 매년 3배 더 많은 기능을 개발한다. 이점 4. AI/ML 활용한 사용자 경험 향상 클라우드는 SMB도 대기업이 사용하는 것과 같은 데이터와 기술, 역량에 접근할 수 있도록 함으로써 SMB를 위한 평평한 운동장을 만들어 준다. 이제 SMB도 강력한 AI, 머신러닝(ML), 예측 분석을 활용해 사용자 경험을 혁신하고 있으며 이는 사용자 요구가 빠르게 변화하는 시대에 점점 더 중요해지고 있다. 예를 들어 전자상거래 사이트를 운영하는 SMB는 머신러닝 기반 개인화 서비스를 통해 더 정확하게 사용자를 타겟팅하는 개인화된 추천 기능을 신속하게 제공하고, FAQ에 답하고 사용자 여정을 자동화하는 서비스 챗봇을 만들 수 있다. 또한 이 기술을 사용해 정확한 비즈니스 성과를 손쉽게 예측하고 유동 인구, 필요한 인력 상황, 재고 현황 등을 파악한다. 클라우드에서 피해야 할 일반적인 실수 유능한 클라우드 서비스 업체를 이용하면 클라우드로 쉽게 전환할 수 있지만 SMB에서 흔히 발생하는 실수를 파악해 대비하는 것도 중요하다. 실수 1. 하나로 모든 요구를 충족할 수는 없음 클라우드는 비용을 낮춰주지만, 그렇다고 해서 모든 프레임워크가 원하는 만큼 비용 절감 효과를 제공하는 것은 아니다. 따라서 SMB는 지출한 만큼 최대한의 가치를 얻을 수 있는 관리 툴을 갖춘 서비스 업체를 선택해야 한다. 예를 들어 클라우드 비용 지출 모니터링 및 가드레일을 가능하게 해주는 지능형 계층화 솔루션이 포함된 요금제를 구독하는 것이 좋다. SMB가 흔히 저지르는 실수 중 하나는 현재의 온프레미스 서버를 같은 컴퓨팅 및 용량으로 그대로 옮기는 것이다. 그러나 그 정도의 컴퓨팅과 용량은 거의 필요가 없다. 폭넓은 파트너 네트워크를 갖춘 유능한 클라우드 서비스 업체를 선택하면, 현재 오버프로비저닝된 온프레미스 환경에서 '적절한 규모의' 클라우드로 전환하도록 도움을 받을 수 있다. 실수 2. 인사이트의 품질은 데이터가 좌우한다 레거시 데이터 입력 프로세스에는 오랜 기간에 걸쳐 오류와 비일관성이 누적되었을 수 있다. 수동 데이터 입력, 불완전한 데이터 집합, 데이터 사일로는 데이터의 품질을 떨어뜨려 인사이트와 의사 결정을 왜곡한다. 의사 결정에 깨끗하고 정확한 데이터를 사용하지 않을 경우 잘못된 조언과 예측으로 이어질 수 있다. 클라우드는 데이터 수집, 데이터 품질, 변환, 분석 및 거버넌스를 개선하는 데 있어 중요한 역할을 한다. 중복 데이터를 제거하고 다양한 종류의 데이터와 범주를 연결할 수 있는 서비스 등 데이터 관리의 다양한 측면을 다루는 여러 가지 기술을 활용해야 한다. 실수 3. 데이터를 단순히 저장만 하지 말고 가치를 극대화할 것 최근 설문에 따르면 많은 SMB가 클라우드로 데이터를 마이그레이션하지만 실제로 클라우드 기반 분석을 사용하는 경우는 35%에 불과하다. 이는 데이터 저장과 저장된 데이터에서 가치를 끌어내는 것 사이에 큰 격차가 있음을 보여준다. 데이터 분석 툴은 기업에서 시장 추세를 예측하고 더 나은 정보에 근거한 의사 결정을 내리고 판매를 예측 및 증대하고 기존 제품 또는 서비스를 개선하고 사용자 경험을 강화하는 데 도움이 된다. SMB는 데이터를 패키징해 기존 및 신규 사용자에 판매하는 방식으로 데이터를 수익화할 수 있다. 데이터에서 최대한의 가치를 얻으려면, SMB는 통합 분석 스택과 성숙한 분석 툴 모음을 제공하고 특정 요구사항에 맞게 데이터 전략을 조정하고 데이터 여정의 모든 단계를 지원할 수 있는 클라우드 서비스 업체를 찾아야 한다. 실수 4. 불필요한 기술을 도입하지 말 것 새롭고 멋진 최신 기술을 사용하고 싶겠지만 자칫하면 회사 수익에 기여하지 않고 화려하기만 한 기능에 비용을 지불하게 될 수 있다. 예를 들면 모든 SMB가 제품을 개선하기 위해 자연어 처리가 필요하지는 않은 것이다. 따라서 SMB가 생성형 AI와 같은 첨단 기술을 활용할 수는 있지만, 이 기술 도입은 새롭고 멋진 장난감에 대한 욕구가 아니라 명확한 비즈니스 요구와 연계해서 이뤄져야 한다. 클라우드 서비스 업체 역시 비즈니스 요구에서 시작해 거슬러 올라가면서 목표를 달성하는 데 도움이 되는 툴을 찾도록 도울 수 있어야 한다. 실수 5. 스스로를 보호 보안 위협이 끊임없이 진화하는 가운데, 많은 SMB가 보안 리소스를 지속적으로 유지하고 모니터링하기 위한 인력과 전문 지식의 부족 문제를 겪고 있다. 서버가 정확히 어디에 있는지 아는 것이 더 안전하다고 느낄 수 있지만, 클라우드는 연중무휴 24시간 보안 및 인프라 모니터링을 통해 악의적 행위자나 일상적인 사고 등 모든 종류의 위험으로부터 데이터를 지켜준다. 따라서 SMB는, 평가 및 교정을 수행하고 사이버 보안 애플리케이션을 배포하고 모범 사례를 수립하는 보안 역량을 갖춘 IT 서비스 파트너를 확보할 수 있는 클라우드 서비스 업체의 전문 지식을 이용하는 것이 좋다. 가장 좋은 것은 보안 파트너가 연중무휴 24시간 보안 보호 및 리소스 모니터링을 완전히 관리되는 서비스로 제공하는 것이다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트-투-스피치 및 스피치-투-텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT-2(2019)의 경우 16억 개, GPT-3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT-4(2023)의 매개변수는 1조 7,600억 개에 이른다. 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(fine-tuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트-투-텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트-투-텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타-FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT-2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT-2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT-2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT-3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT-3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT-3에 사용된 신경망은 GPT-2와 비슷하지만 몇 개의 추가 블록이 있다. GPT-3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT-3.5와 GPT-4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT-3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT-3.5는 GPT-3와 코덱스의 2022년 업데이트 집합이다. gpt-3.5-turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT-4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT-4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT-3.5를 앞섰다. 참고로 시간이 지나면서 GPT-3.5와 GPT-4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT-4 모델의 편향성에 대한 우려 GPT-4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT-4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT-4는 독성 쓰레기로 간주해야 한다”라고 말했다. 챗GPT와 빙GPT는 원래 gpt-3.5-turbo 기반의 챗봇이었지만 2023년 3월에 GPT-4를 사용하도록 업그레이드됐다. 현재 GPT-4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT-3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜-코더(PaLM-Coder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜-E(PaLM-E) 팜-E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜-E의 ‘E’는 구체화를 의미)”했다. 또한 팜-E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트-투-스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타-FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
윈도우 11 2023 업데이트(Windows 11 2023 Update) 혹은 23H2가 누적 업데이트로 제공되고 있다. 에서 알 수 있듯이 최신 윈도우 11 2023 업데이트는 마이크로소프트, 인텔, AMD, 퀄컴 등의 PC 제조업체가 도입한 용어인 ‘AI PC’로의 진화에 대한 약속이라는 측면에서 의미 있는 업데이트다. 메타버스처럼 한때 유행했던 신조어가 될 수도 있지만, AI PC는 이미 특정한 유형의 이점을 제공하고 있다. 여기서는 사용자의 일상에 자연스럽게 녹아들 ‘AI PC’의 4가지 기능을 소개한다. 패스키 윈도우 헬로(Windows Hello)가 탑재된 PC가 윈도우 11 2023 업데이트를 받게 되면 를 사용할 수 있다. 패스키를 사용하면 앞으로는 비밀번호가 필요 없어질 수 있다. 윈도우 11 2023 업데이트에서는 가장 덜 매력적이지만 매우 유용한 기능이다. 예전에는 PC 앞에 앉은 즉시 비밀번호를 입력하느라 진땀을 흘려야 했다. 윈도우 헬로는 이런 불편함을 해소했다. 이제 윈도우 헬로가 브라우저나 비밀번호 관리자에 저장한 암호를 대체한다. 패스키가 바로 그런 역할을 한다. 마이크로소프트뿐 아니라 구글과 AWS도 지원하는 새로운 표준이다. 각 사이트마다 설정해야 하는 번거로움이 있지만, PC처럼 웹사이트가 사용자를 인식하는 방식은 매우 편리하다. 저장된 암호는 설정 앱(계정 > 암호 키)에서 관리할 수 있다. 코파일럿 기본적으로 빙챗에 추가 기능을 더한 것으로, 정확한 사용법을 몰라도 PC를 설정할 수 있도록 명령할 수 있다. 윈도우 11 2023 업데이트의 주요 기능이지만, 최고의 기능은 아니다. 하지만 코파일럿과 AI가 무엇을 할 수 있고 무엇을 할 수 없는지 이해하려면 한 번쯤은 꼭 사용해 보기를 바란다. 코파일럿 아이콘은 작업 표시줄의 검색 상자 바로 오른쪽에 위치하거나 win+C를 입력해 활성화할 수 있다. (마이크로소프트 엣지의 오른쪽 상단 모서리에도 비슷한 코파일럿 아이콘이 중첩되어 있는 것을 볼 수 있다. 엣지 버전은 챗봇이고, 윈도우의 코파일럿은 PC를 설정할 수 있다.) 아이콘을 클릭하면 화면 오른쪽에 사이드바가 열린다. ‘창의적’, ‘균형 잡힌’, ‘정확한’ 선택 항목은 빙챗과 큰 차이가 없다. 코파일럿은 빙을 검색 엔진으로 사용한다. 하지만 단순 검색 엔진으로 취급하지 말자. 정답이 아니라 의견과 분석을 찾는 도구로 사용하자. 그리고 창의성을 발휘하자. 오프라 윈프리의 가치가 어느 정도인지 물어볼 수도 있고, 윈프리가 버락 오바마 또는 타일러 페리보다 영향력이 더 큰지 질문해도 깨달음을 줄 것이다. “나는 40세이고 은행에 85,000달러가 있다. 은퇴 자금을 극대화하려면 어떻게 해야 할까?”라고 묻는다면 코파일럿은 웹을 검색하고 이런 수치를 AARP 은퇴 계산기에 입력한 후 전략을 제안할 것이다. 이 모든 것이 웹 페이지를 열지 않고 가능하다. 코파일럿이 항상 객관적으로 옳은 것은 아니지만, 각주와 링크를 통해 출처를 인용할 것이다. 또한 코파일럿은 사진 또는 이미지를 입력하면 이에 관한 질문에도 답한다. 이미지를 그려달라고 요청할 수도 있다. 코파일럿은 느린 것이 약점이다. 질문에 응답하는 데 몇 초가 소요될 수 있다. 이상한 이모티콘 외에도 특징이 없고 개성이 부족하다. 개인정보 보호 등 관련 정책에 따라 답변을 거부할 수도 있다. 대화는 단 30개의 응답으로 끝난다. 그리고 그 답변이 옳다고 100% 확신할 수도 없다. 검색 외에도 코파일럿에게 PC를 다크 모드로 설정하거나 스크린샷을 촬영하는 등 PC의 다양한 요소를 수정하도록 요청할 수 있다. 코파일럿은 자신이 무엇을 할 수 있는지 정확하게 알려주지 않기 때문에 불만족스러울 수 있다. (코파일럿에게 요청해도 그렇게 잘 작동하지 않는다.) 하지만 코파일럿은 반드시 알아야 하는 AI 도구이다. 그림판 2019년 그림판의 수명이 연장됐으며, 그 이후 마이크로소프트는 결국 그림판을 다시 부활시켰다. 2019년에 접근성 개선 기능이 추가된 이후로 그림판은 부흥기를 맞이하며 배경 제거, 투명도 및 레이어, 빙 이미지 크리에이터(Bing Image Creator)를 사용하는 AI 아트 도구인 코크리에이터(Cocreator)가 추가됐다. 그림판의 핵심은 여전히 그림이다. 크기를 변경하고 그림을 그리며 화살표를 추가하고 이미지 전반을 교정하는 기본적인 도구이다. 하지만 3가 최신 기능은 포토샵과 유사하다. 사진을 촬영하고 AI를 사용해 사진 속 대상을 선택하고 가져오며, AI 배경을 추가하고 새로운 예술 작품을 다시 만들 수 있다. 포토샵을 사용해 본 적 없는 사람에게는 직관적이지 않을 수 있지만, 간단한 기능이다. 그림판의 기조는 여전히 간결성이다. 윈도우 11 2023 업데이트는 생성형 AI 아트의 이점을 몇 가지 가져와 그림판에 적용한다. 개선의 여지는 있지만 흥미로운 추가 기능이다. 캡처 도구 캡처 도구는 접근성이 뛰어난 기능으로 개선됐다. 마이크로소프트의 스크린샷 도구(win+shift+S)이며, 화면을 사진이나 동영상으로 기록하는 2가지 용도로 사용할 수 있다. 많은 사람이 후자의 기능을 사용하지 않고 캔버나 클립챔프를 선호할 것이다. 하지만 비디오 녹화에 마이크 및/또는 시스템 오디오가 추가됐다. 자동화된 텍스트 추출 및 편집 기능도 제공한다. 스크린샷을 촬영하고 작은 텍스트 추출 버튼을 클릭하면 윈도우가 OCR을 사용하여 이미지에서 텍스트를 자동으로 복사한다. 필자의 테스트에서는 매우 잘 작동했다. 판매 회의 또는 학회에서 촬영한 사진에서 텍스트를 신속하게 기록하고 싶을 때 캡처 도구를 사용할 수 있다. 또한 캡처 도구는 공유하고 싶어 하지 않는 텍스트를 인식한다. 이 또한 인상적이다. 광범위하게 테스트하지는 않았지만 보고서 작성을 위한 출장 비용 파일을 보관할 때 개인정보를 삭제했다. 몇 가지 더… 윈도우 11 2023 업데이트는 이 외에도 많은 기능을 제공한다. 자세한 내용은 를 참고하자. 예를 들어, 게이밍에 관심이 있는 경우 다이나믹 라이팅(Dynamic Lighting)이 유용할 수 있으며, 생산성이 중요한 사람을 위한 파일 탐색기 개선 사항도 있다. editor@itworld.co.kr
싱글 보드 컴퓨터 애호가를 위한 연말 깜짝 선물이 일찍 도착했다. 라즈베리파이 재단이 라즈베리 파이 4의 후속작을 발표했다. 첫인상은 상당히 멋져 보인다. 10월 말 출시되는 새로운 라즈베리 파이 5는 60달러 4GB 버전, 80달러 8GB 버전이다. 과거 사례를 보면 새로운 버전이 발표될 가능성은 높지 않아 보인다. 신제품 라즈베리 파이 5는 최근 추세에 맞춰 전력에 초점이 맞췄다. 2019년에 나온 라즈베리 파이 4에 비해 성능이 크게 개선됐는데, 특히 새로운 실리콘은 라즈베리파이 팀이 자체적으로 설계했다. 사양이 전반적으로 눈에 띄게 업그레이드된 이유다. 2.4GHz 암 코텍스-A76 CPU (쿼드 코어, 64-비트) 비디오 코어 VII GPU (OpenGL ES 3.1 지원, 벌칸 1.2) 듀얼 4K60 HDMI 출력 4K60 HEVC 디코더 듀얼-밴드 Wi-Fi 5 (802.11ac) 블루투스 5.0 / 블루투스 저전력 에너지 (BLE) 고속 마이크로SD 카드 인터페이스 (SDR104 모드 지원) USB 3.0 포트 (5Gbps 동시 작동 지원) 2개 USB 2.0 포트 2개 기가비트 이더넷(별도의 PoE+ HAT로 PoE+ 지원) 4레인 MIPI 카메라/디스플레이 트랜시버 2개 PCIe 2.0 x1 인터페이스 라즈베리 파이 표준 40핀 GPIO 헤더 실시간 시계 전원 버튼 애플리케이션 프로세서(보드의 전원을 공급하는 칩) 다이가 라즈베리파이 4의 28nm에서 라즈베리파이 5의 16nm으로 줄어드는 등 하드웨어 애호가라면 흥미로워할 부분이 많다. 아키텍처도 단일 설계에서 칩렛 설계로 바뀌었다. 전반적인 성능 향상은 숫자 '2'로 설명할 수 있다. 일단 메모리 대역폭이 4,267MT/s로, 라즈베리 파이 4의 2,000MT/s에 비해 빨라졌다. 또한 이전에는 4K60 디스플레이 하나 혹은 4K30 디스플레이 2개만 지원했지만, 이젠 최대 4K60 디스플레이 2개를 사용할 수 있다. 실용적인 변화도 있다. 예를 들어, 새 제품의 보드에는 히트 싱크를 장착할 수 있는 구멍, 실시간 시계에 전원을 공급하는 코인형 배터리 커넥터가 달려 있다. 또한 모든 라즈베리 파이 팬이 같지는 않겠지만, 필자는 솔직히 전원 버튼이 하드웨어 업데이트만큼 흥미롭다. 더 자세한 정보는 라즈베리 파이 재단의 을 참고하면 된다. 라즈베리 파이 5의 액세서리 또한 풍부해졌다. 공식 케이스에는 이제 통합 팬이 포함돼 있으며 SD 카드를 먼저 꺼낼 필요 없이 보드를 삽입할 수 있게 수정됐다. 뚜껑을 제거해 다른 케이스 혹은 애드온 보드(공식적으로 HAT 혹은 ‘상단에 부착된 하드웨어’라고 함)를 더 쉽게 쌓을 수 있다. 라즈베리파이 4의 5달러 케이스에 비해 10달러가 더 많이 들지만 전반적인 가성비는 오히려 좋아졌다. 이제 라즈베리 파이 5 칩용 액티브 쿨러도 구매할 수 있다. 이 쿨러는 패시브 방열판 세트와 같은 가격인 5달러로 보드에 추가할 수 있는 사랑스럽고 저렴한 제품이다. 보드를 푸시 할 경우 필요하다. 일반적으로 더 전력 소모가 적고 효율적이나 라즈베리파이 5의 애플리케이션 프로세서를 한계까지 밀어붙이면 라즈베리 파이 4의 8W 대비 더 높은 약 12W에 도달한다. 현재 구형 라즈베리파이 전원 공급장치를 사용 중이라면 12달러짜리 새로운 27W(5V, 5A) 전원 공급장치로 업그레이드하는 것을 추천한다. 이전의 15W(5V, 3A) 모델의 경우 USB 포트에 공급되는 전류가 600mA로 내려가기에 더는 사용할 수 없다. 27W 버전의 경우 USB 전류가 1.6A에 도달하고 보드에 추가로 5W의 전력을 공급해 오버클러킹에 사용 가능하다. 아직 끝나지 않았다. 새로운 HAT가 출시될 예정인데, 그 중에서도 가장 기대를 모으는 것은 NVMe SSD(혹은 모든 M.2 모듈)를 사용할 수 있는 M.2 HAT이다. 즉, 라즈베리 파이 5는 고성능 컴퓨팅에 더 가까워지고 있다는 의미다. 희소식이 하나 더 있다. 그동안 많은 사용자가 라즈베리 파이 4 공급 문제에도 인내심을 가져준 것에 대한 감사의 표시로 라즈베리 파이 재단이 연말까지 개인에게 우선 판매할 예정이라는 것이다. 미국과 영국의 일부 소매업체는 이미 라즈베리파이 5의 사전 주문을 받기 시작했다. 라즈베리 파이 5는 사양만 봐도 상당히 기대되는 제품이다. 라즈베리파이 5 출시에 앞서 새로운 공식 운영체제도 나온다. '라즈베리 파이 OS'라고 불리는 이 운영체제는 리눅스 데비안 배포판과 수년간 존재해 온 라즈베리 파이 OS 파생 버전을 기반으로 한다. 최신 라즈베리 파이가 엄청난 변신을 예고하고 있다. editor@itworld.co.kr
AMD는 라이젠 7000(코드명 라파엘) 및 라이젠 7000X3D(라파엘-X) 시리즈의 데스크탑 프로세서 포트폴리오를 훌륭하게 완성했다. AMD의 CPU는 게임뿐 아니라 많은 프로덕션 애플리케이션에서 성능 우위를 유지하고 있다. 여기서는 AMD의 라이젠 7000 및 7000X3D 시리즈 CPU를 구매해야 하는 결정적인 이유 5가지를 살펴본다. 이유 1 : 성능 AMD는 현재 4세대 젠(Zen) 마이크로 아키텍처를 통해 큰 도약을 이뤘다. 이전 세대보다 성능이 크게 향상됐다. 라이젠 5000(젠 3)에서 라이젠 7000(젠 4)으로 전환할 때 얻을 수 있는 성능 향상은 인상적이며, 그 수치는 거짓이 아니다. 가령 단일 코어 성능, 즉 프로세서 코어당 성능 측면에서 라이젠 9 7950X는 바로 이전 모델인 라이젠 9 5950X보다 20% 더 뛰어난 성능을 발휘할 수 있다. 모든 프로세서 코어에 걸친 성능인 멀티스레드 성능 영역에서 젠 4 CPU는 말 그대로 젠 3 CPU를 압도한다. 성능 향상은 독일 PCWorld에서 진행한 를 통해 명확하게 확인할 수 있다. 싱글 코어 성능: +20% 멀티스레드 성능: +35% 720p 해상도에서 수행된 벤치마크에서 알 수 있듯이, 라이젠 7000 시리즈의 각 모델은 게임에서도 이전 모델 라이젠 5000 시리즈보다 확실히 앞서 있다. 특히 라이젠 7000X3D 시리즈의 최상위 모델은 인텔의 CPU에 기회를 주지 않고 AMD CPU가 지키고 있는 ‘게이밍 왕좌’를 공고히 한다. 성능 면에서는 현재 AMD를 따라올 방법이 없다. 이유 2 : 전력 효율성 현재의 CPU는 유휴 모드 또는 저부하 환경에 모두 최적화되어 있으며, 전력을 거의 소비하지 않는다. 그러나 AMD는 게임과 전부하(full-load) 시나리오에서도 앞서간다. 현재 시중에서 가장 빠른 게이밍 CPU인 라이젠 9 7950X3D의 최대 전력 소비량은 사이버펑크 2077(Cyberpuck 2077)과 같은 최신 AAA 게임에서 80W다. 반면 코어 i9-13900K는 최대 160W 이상을 소비한다. AMD CPU는 인텔의 코어 i 시리즈보다 훨씬 더 효율적이다. 생산성 애플리케이션과 시네벤치(Cinebench) R23과 같은 합성 벤치마크에서 젠 4 아키텍처의 효율성 이점은 매우 분명해진다. 최대 부하 시 라이젠 9 7950X3D의 전력 소비량(패키지 전력)은 130~140W, 코어 i9-13900K는 300W 이상을 소비하므로 전력 소비량이 2배 이상 차이 난다. 독일 PCWorld의 2023년 대규모 CPU 비교 측정 결과에서도 성능으로 측정한 효율성이 가장 높은 프로세서는 라이젠임을 알 수 있다. 이유 3 : 가격 대비 성능 가격 대비 성능만 놓고 봐도 AMD 라이젠 7000 및 7000X3D 시리즈 CPU가 우위를 차지한다. AMD 라이젠 7 7800X3D 및 인텔 코어 i7-13700K는 현재 가격 측면에서 절대적으로 동등하다. 이런 경우라면 성능과 효율성이 더 뛰어난 라이젠 7000 또는 라이젠 7000X3D를 구입하는 것이 유리하다. 이유 4 : 업그레이드 가능성 라이젠 7000 및 7000X3D 시리즈 프로세서가 탑재된 AM5 플랫폼은 2022년 9월 출시됐다. AMD는 새로운 아키텍처를 포함해 최소 2026년까지는 AM5를 지원할 것으로 보인다. 현재 라이젠 7000을 향후 2세대 라이젠 8000 및 라이젠 9000으로 여전히 업그레이드할 수 있다는 의미다. 젠 5, 아마 젠 6도 AM5 플랫폼에서 실행할 수 있게 될 것이다. 자세한 내용은 AMD의 소켓 로드맵에서 확인할 수 있다. 이유 5 : 다양한 기능 세트 메모리를 위한 AMD EXPO(Extended Profiles for Overclocking), 그래픽 카드에 직접 액세스할 수 있는 AMD SAM(Smart Access Memory) 및 리눅스용 오픈소스 드라이버와 같은 기술을 포함한 개방형 기능 세트도 AMD의 CPU를 선택하게 만드는 대표적인 이유다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. class="image" ⓒ Getty Images Bank 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. class="image" ⓒ Getty Images Bank 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. class="image" ⓒ Getty Images Bank 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM class="image" ⓒ Getty Images Bank 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. class="image" ⓒ Getty Images Bank 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
GPT, 바드, 라마 2 같은 대규모 언어 모델(LLM)은 대중의 상상력을 자극하고 다양한 반응을 끌어냈다. LLM에 대한 열기의 이면을 살펴보면서 대규모 언어 모델의 기원, 이러한 모델이 어떻게 구축 및 학습되는지를 살펴본다. 또한, 어떤 범위에서 효과적인지 검토하고, 가장 많이 사용되는 LLM에 대해 알아보자. 대규모 언어 모델이란? 언어 모델의 시초는 20세기 초까지 거슬러 올라가지만 대규모 언어 모델이 본격적으로 부상한 시점은 신경망이 도입된 이후다. 특히 2017년에 등장한 트랜스포머(Transformer) 심층 신경망 아키텍처는 언어 모델에서 LLM으로의 진화에 큰 역할을 했다. 대규모 언어 모델은 설명 프롬프트를 기반으로 한 텍스트 생성, 코드 생성 및 코드 완성, 텍스트 요약, 언어 간 번역, 텍스트투스피치 및 스피치투텍스트 애플리케이션을 포함한 다양한 작업에 유용하다. 한편, 적어도 현재 개발 단계에서의 LLM에는 단점도 있다. 생성된 텍스트의 품질이 그다지 좋은 편이 아니며, 형편없는 경우도 종종 발생한다. LLM은 없는 사실을 만들어 내기도 하는데 이를 환각(hallucination)이라고 한다. 답을 구하는 사용자에게 관련 지식이 없다면 환각은 상당히 그럴듯하게 들릴 것이다. 언어 번역의 경우, 네이티브 스피커의 검수를 받지 않은 문장은 100% 정확한 경우가 거의 없지만, 검수는 일반적으로 상용구에 한해서만 이뤄진다. 생성된 코드에는 버그가 흔하고, 아예 실행되지 않는 경우도 있다. 대체로 LLM은 논란의 여지가 있는 언급을 하거나 불법적인 행동을 추천하는 일이 없도록 미세한 조정을 거치지만 악의적인 프롬프트를 사용하면 안전 장치를 무력화할 수도 있다. 대규모 언어 모델을 학습시키기 위해서는 대규모 텍스트 말뭉치(corpus)가 하나 이상 필요하다. 학습 예제에는 1B 워드 벤치마크(1B Word Benchmark), 위키피디아, 토론토 북 코퍼스(Toronto Books Corpus), 커먼 크롤(Common Crawl) 데이터 집합, 그리고 공개 오픈소스인 깃허브 리포지토리 등이 포함된다. 대규모 텍스트 데이터 집합에는 저작권 침해와 쓰레기라는 두 가지 문제점이 있다. 저작권 침해의 경우 현재 여러 관련 소송이 진행 중이다. 쓰레기는 최소한 청소는 가능하다. 쓰레기 청소가 된 데이터 집합의 예로, 커먼 크롤 데이터 집합을 기반으로 한 800GB 용량의 데이터 집합인 콜로설 클린 크롤드 코퍼스(Colossal Clean Crawled Corpus: C4)가 있다. 대규모 언어 모델은 딥러닝 신경망, 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 전통적인 언어 모델과 다르다. 하나 이상의 대용량 학습 말뭉치와 함께 LLM에는 많은 수의 매개변수, 즉 가중치가 필요하다. 매개변수의 수는 지금까지 매년 증가했다. 엘모(ELMo, 2018)의 매개변수 수는 9,360만 개이며 버트(BERT, 2018)는 1억 1,700만 개, T5(2020)는 2억 2,000만 개다. GPT2(2019)의 경우 16억 개, GPT3(2020)는 1,750억 개, 팜(PaLM, 2022)은 5,400억 개이며 GPT4(2023)의 매개변수는 1조 7,600억 개에 이른다. 매개변수가 많을수록 모델의 정확도는 높아지지만 그만큼 더 많은 메모리가 필요하고 실행 속도가 느려진다. 2023년에는 비교적 작은 모델들이 여러 가지 크기로 출시되기 시작했다. 예를 들어 라마 2(Llama 2)는 70억 개, 130억 개, 700억 개 버전으로 제공되며 클로드 2(Claude 2)는 930억 개와 1,370억 개의 매개변수 크기로 제공된다. 텍스트를 생성하는 AI 모델의 역사 언어 모델의 시초는 1913년에 시에 수학을 적용한 안드레이 마코프다. 마코프는 푸시킨의 유게니 오네긴에서 한 문자가 나타날 확률은 이전 단어에 따라 달라지며, 일반적으로 자음과 모음이 번갈아 나타나는 경향이 있음을 밝혀냈다. 현재 마코프 체인은 각 이벤트의 확률이 이전 이벤트의 상태에 따라 달라지는 이벤트 시퀀스를 설명하는 데 사용된다. 마코프의 연구는 1948년 클로드 섀넌의 통신 이론에서 확장됐고, 이후 IBM의 프레드 젤리넥과 로버트 머서가 1985년에 교차 검증 기반의 언어 모델을 만들어 실시간 대규모 어휘 음성 인식에 적용하면서 다시 한번 확장됐다. 기본적으로 통계적 언어 모델은 단어의 시퀀스에 확률을 할당한다. 언어 모델의 실제 작동을 간단히 보려면 구글 검색 또는 휴대폰에서 자동 완성을 켠 상태로 문자 메시지 앱에 단어를 몇 개 입력해보면 된다. 2000년에 요슈아 벤지오와 공동 저자들은 통계적 언어 모델의 확률을 신경망으로 대체하여 차원의 저주를 회피하고 당시 최첨단 기술이었던 평탄화 트라이그램(smoothed trigram) 모델에 비해 단어 예측을 20%~35% 개선하는 신경 확률 언어 모델을 다룬 논문을 발표했다. 피드 포워드 자동 회귀 신경망 언어 모델 개념은 지금도 여전히 사용되지만, 현재의 모델은 매개변수 수가 수십억 개에 이르고 광범위한 말뭉치로 학습되며, 그래서 ‘대규모 언어 모델’이라는 명칭으로 불린다. 언어 모델이 성능 개선을 목표로 발전하면서 시간이 갈수록 크기도 커졌다. 그러나 이 같은 크기 증가에는 단점도 있다. 2021년에 발표된 논문 ‘확률적 앵무새의 위험에 대해: 언어 모델의 크기에는 한계가 없는가?’는 언어 모델은 클수록 좋다고 생각하는 경향에 대해 의문을 제기한다. 논문 저자는 웹의 모든 것을 수집하지 말고 환경적, 재정적 비용을 먼저 고려해서 데이터 집합을 선별 및 문서화하는 데 투자할 것을 제안한다. 언어 모델과 LLM에 대한 이해 현재의 언어 모델은 다양한 작업과 목표가 있고 형태도 다양하다. 예를 들어 언어 모델은 문서에서 다음 단어를 예측하는 작업 외에 새로운 텍스트를 생성하고 텍스트를 분류하고 질문에 답하고 감정을 분석하고 명명된 개체를 인식하고 음성을 인식하고 이미지의 텍스트를 인식하고 손글씨를 인식할 수 있다. 일반적으로 중소 규모의 보충 학습 집합을 사용하여 실시되는 특정 작업을 위한 언어 모델 맞춤 설정을 미세 조정(finetuning)이라고 한다. 언어 모델에 들어가는 중간 작업의 예를 들면 다음과 같다. 학습 말뭉치를 문장으로 세분화 단어 토큰화 어간 추출 표제어 추출(어근 단어로 변환) POS(Part Of Speech) 태깅 정지단어 식별 및 제거(경우에 따라) 명명된 객체 인식(NER) 텍스트 분류 청킹(Chunking, 문장을 유의미한 구로 분할) 상호참조 해결(텍스트의 동일한 개체를 가리키는 모든 표현 찾기) 이 중에서 일부는 텍스트 분류와 같이 자체적인 작업 또는 애플리케이션으로도 유용하다. 대규모 언어 모델은 딥러닝 신경망과 대규모 학습 말뭉치를 사용하며, 신경망을 위한 수백만 개 이상의 매개변수 또는 가중치를 필요로 한다는 면에서 기존 언어 모델과 다르다. LLM 학습은 지정된 작업에 대한 모델의 오류를 가능한 가장 낮게 하기 위한 가중치 최적화의 문제다. 예를 들어 보통 자기 지도 방식으로 말뭉치의 임의의 지점에서 다음 단어를 예측하는 작업이 있다. 가장 인기 있는 LLM 최근 대규모 언어 모델의 폭발적인 성장을 촉발한 것은 2017년 발표된 “필요한 것은 주의 집중(Attention is All You Need)”이라는 논문이다. 이 논문은 “순환과 컨볼루션을 완전히 배제하고 오로지 주의 집중 메커니즘에만 기반을 둔 새롭고 단순한 신경망 아키텍처”로 트랜스포머를 소개했다. 오늘날 가장 많이 사용되는 대규모 언어 모델 중 몇 가지를 소개하면 다음과 같다. 엘모(ELMo) 엘모는 2018년에 나온 앨런NLP(AllenNLP)의 심층 맥락화 단어 표현 LLM으로, 단어 사용의 복잡한 특징, 그리고 언어적 맥락에 따라 그 단어 사용이 어떻게 달라지는지를 모델링한다. 원본 모델은 9,360만 개의 매개변수를 사용하며 1B 워드 벤치마크로 학습됐다. 버트(BERT) 버트는 구글 AI가 자사 트랜스포머 신경망 아키텍처를 기반으로 2018년에 출시한 언어 모델이다. 버트는 모든 레이어에서 왼쪽과 오른쪽의 맥락에 대한 공동 조건화를 통해 레이블 없는 텍스트로부터 심층 양방향 표현을 사전 학습하도록 설계됐다. 초기에 사용된 두 모델의 크기는 각각 매개변수 1억 개와 3억 4,000만 개였다. 버트는 토큰의 최대 15%가 “손상되는” 마스킹된 언어 모델링(MLM)을 학습에 사용한다. 영어 위키피디아와 토론토 북 코퍼스를 사용해 학습됐다. T5 구글의 2020년 텍스트투텍스트 트랜스퍼 트랜스포머(T5) 모델은 GPT, ULMFiT, 엘모, 버트 및 후속 모델에 적용된 최고의 전이 학습 기법을 기반으로 새로운 모델을 합성한다. 오픈소스 콜로설 클린 크롤드 코퍼스(C4)를 사전 학습 데이터 집합으로 사용한다. 영어용 표준 C4는 원본 커먼 크롤 데이터 집합을 기반으로 한 800GB 데이터 집합이다. T5는 모든 NLP 작업을 통합 텍스트투텍스트 형식으로 재구성한다. 클래스 레이블 또는 입력의 범위만 출력할 수 있는 버트 스타일 모델과 달리, 이 형식에서는 입력과 출력이 항상 텍스트 문자열이다. 기본 T5 모델에는 총 2억 2,000만 개의 매개변수가 사용된다. GPT 제품군 AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다. 오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.) GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다. GPT2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. GPT3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT3에 사용된 신경망은 GPT2와 비슷하지만 몇 개의 추가 블록이 있다. GPT3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT3.5와 GPT4에도 정도는 덜하지만 같은 문제가 있다. 코덱스(CODEX)는 2021년 GPT3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다. GPT3.5는 GPT3와 코덱스의 2022년 업데이트 집합이다. gpt3.5turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다. GPT4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT3.5를 앞섰다. 참고로 시간이 지나면서 GPT3.5와 GPT4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다. GPT4 모델의 편향성에 대한 우려 GPT4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다. 오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다. 에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT4는 독성 쓰레기로 간주해야 한다”라고 말했다. 챗GPT와 빙GPT는 원래 gpt3.5turbo 기반의 챗봇이었지만 2023년 3월에 GPT4를 사용하도록 업그레이드됐다. 현재 GPT4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다. 빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다. 홍콩 과학기술대학교 인공 지능 연구 센터의 파스칼 펑 교수는 2023년 3월 초에 챗GPT 평가에 대해 강연했는데, 시간을 투자해서 볼 만한 가치가 충분한 강연이다. 람다(LaMDA) 구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다. 팜(PaLM) 팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다. 팜코더(PaLMCoder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다. 팜E(PaLME) 팜E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜E의 ‘E’는 구체화를 의미)”했다. 또한 팜E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다. 바드(Bard) 바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트투스피치 기능이 추가됐다. 라마(LLaMA) 라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다. 대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다. 라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다. 라마 2(Llama 2) 라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다. 라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다. 클로드 2(Claude 2) 2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다. 클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다. 결론 살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다. editor@itworld.co.kr
누구나 널리 알려진 좋은 소프트웨어를 사용하고 싶지만, 사실 전문가용 프로그램은 개인이 구매하기에 너무 비싸다. 이럴 때는 실행 파일은 물론 소스 코드까지 다운로드할 수 있는 오픈소스 소프트웨어라는 대안이 있다. 무료 소프트웨어여서 그 품질과 기능에 의심이 들겠지만 걱정할 필요가 없다. 많은 오픈소스 소프트웨어가 전문가용 제품 못지않은 품질과 기능을 제공한다. 오피스부터 미디어 편집, 파일 관리 및 백업까지 분야별 최고의 오픈소스 애플리케이션을 모았다. 생산성 : 오피스, PDF 및 컨퍼런스 툴 컴퓨터에서 매일 하는 작업을 꼽으라면 무엇보다 문서 편집이다. 리브레오피스(LibreOffice)는 텍스트, 스프레드시트, 프레젠테이션을 작성하는 종합 오피스 패키지로, 2000년에 소스코드가 공개된 오픈 오피스(Open Office)에서 파생됐다. 오픈 오피스 프로젝트는 현재 아파치 오픈 오피스라는 이름으로 지속되고 있다. 리브레오피스의 빠른 업데이트 주기는 아파치 오픈 오피스보다 유리한 점이다. 최신 7.5 버전에서는 라이터(Writer)의 텍스트 문서 편집 기능이 개선돼 머리글의 서식이 향상됐고 표 삽입이 쉬워졌다. 컬러 북마크를 사용해 섹션을 더 쉽게 탐색하고 찾을 수 있다. 스프레드시트인 칼크(Calc)에서는 확장된 수식 보조 기능과 다이어그램을 위한 새로운 함수가 눈에 띈다. 드로우(Draw)와 임프레스(Impress)는 표를 더 쉽게 디자인할 수 있게 바뀌었고, EMF 그래픽을 더 빠르게 가져올 수 있다. 어두운 색의 사용자 인터페이스가 표시되는 다크 모드도 지원된다. 한편 여러 기기 간 문서 교환에 유용한 것이 바로 PDF 포맷이다. PDF 파일로 문서를 만들면 다른 운영체제와 모바일 앱에서도 문서가 깨지지 않고 똑같이 표시된다. 마킹, 메모와 같은 부가 기능을 사용해 신속하게 메모 또는 변경 요청을 문서화할 수 있고, 그룹 작업도 가능하다. 보통 많은 사람이 PDF 파일을 다루기 위해 무료 어도비 아크로벳 리더를 사용하지만, PDF 파일을 빠르게 보는 용도로는 오픈소스 프로그램인 수마트라 PDF(Sumatra PDF)가 있다. 구글 번역 및 딥엘(DeepL)을 통한 번역으로 연결되는 링크, 주석을 사용한 마커 삽입 등의 기능을 제공한다. 협업 툴도 살펴보자. 팀의 협업 형태는 코로나 시기를 거치면서 크게 변했다. 온라인 비디오 컨퍼런스가 이제 보편적으로 사용된다. 화상회의는 회의실이 불필요하고 출장을 갈 필요도 없으며 이동 중에도 참여할 수 있는 장점이 있다. 협업 툴에는 줌 또는 마이크로소프트 팀즈가 유명하지만, 오픈소스 대안으로 오픈 토크(Open Talk)가 있다. 오픈 토크 시스템은 클라우드에서 작동하며 웹사이트를 통해 바로 사용할 수 있다. 전화 걸기, 화면 공유, 투표, 회의 녹화 등 상용 경쟁 툴과 비슷한 기능을 제공한다. 이밖에 많은 기업이 이미 작업 그룹을 디지털 방식으로 관리할 텐데, 이 분야에는 매터모스트(Mattermost)가 있다. 그룹 채팅, 프로젝트 관리, 소리를 포함한 화면 공유 옵션 등을 지원하는 데스크톱, 모바일 및 온라인 시스템이다. 매터모스트 웹사이트의 무료 계정을 통해 사용할 수 있다. 회사 IT에 통합하려면 추가 소프트웨어가 필요하며, 기술 지원 및 IT 통합은 유료로 제공된다. 인터넷 : 브라우저와 이메일 메시징, 온라인 쇼핑, 인터넷 뱅킹은 많은 사람에게 없어서는 안될 요소로 자리잡았고, 이런 사이트에 액세스하려면 웹 브라우저가 필요하다. 많은 사용자가 구글 크롬을 선호하지만 크롬에는 개인정보 보호 문제가 있다. 인터넷 검색을 넘어서는 구글의 탐욕스러운 데이터 수집은 이미 악명이 높다. 대안은 언구글드 크로미엄(Ungoogled Chromium)이다. 크롬 웹 브라우저의 오픈소스 버전으로, 구글의 모든 액세스가 차단된다. 서핑 시 기능 제약은 없으며 크롬 웹 스토어의 확장 프로그램도 작동한다. 이메일 역시 PC에서 매일 사용하는 기능이다. 이메일은 속도가 빠르며 사진이나 문서, 다양한 데이터를 주고받기에 적합하다. 썬더버드(Thunderbird)는 많은 기능을 갖춘 무료 메일 프로그램이다. 여러 사서함과 다양한 전송 프로토콜, 주소록, 캘린더 등을 지원한다. 썬더버드 20주년을 맞아 개발팀은 앱 전체에 대한 전반적인 현대화를 진행중이다. 멀티 미디어 : 사진, 영상, DTP 및 디자인 디지털 사진의 인기가 계속되는 가운데, 김프(Gimp)를 사용하면 손쉽게 사진을 편집할 수 있다. 대비와 밝기를 조절하고 이미지를 더 선명하게 할 수 있다. 레이어, 마스크를 비롯한 이미지 몽타주 툴은 오래전부터 거의 모든 이미지 툴이 지원하는 표준 기능이다. 김프 버전 2.10부터는 배경 제거 툴이 추가됐고, 영역을 자르고 선택하는 툴도 포함된다. 또다른 오픈소스 이미지 편집 툴인 디지캠 포토 매니저(Digikam Photo Manager)는 사진 모음을 전체적으로 보여준다. 키워드, 평점, 컬러 마커를 기준으로 정렬하거나 사진의 메타데이터를 분석해 위치를 보여준다. RAW 이미지를 위한 편집 기능과 툴도 있다. 로우 테라피(RAW Therapee)도 RAW 사진 현상을 위한 다양한 툴과 이미지 보기 관리를 포함한 많은 RAW 옵션을 제공한다. 데스크톱 출판(DTP)용 문서 디자인 분야에는 잉크스케이프(Inkscape)와 스크라이버스(Scribus)의 조합을 추천한다. 잉크스케이프에서는 세밀한 일러스트레이션을 디자인할 수 있다. 곡선, 개체, 텍스트를 만드는 주요 기능을 지원하고, 요소 정렬, 색 채우기, 그라디언트 또는 그래픽 결합을 포함한 다양한 툴이 있다. 이 프로그램을 이용하면 확장 가능한 로고, 인포그래픽 및 기타 디자인을 빠르게 만들 수 있다. 이렇게 만든 요소는 스크라이버스의 페이지 디자인에 사용할 수 있다. 샘플 페이지와 자체 디자인된 표준 요소를 사용해 간단한 전단지 또는 메뉴뿐만 아니라 신문, 잡지도 만들 수 있다. PDF 형식으로 출력해 전문적인 인쇄까지 가능하다. 잉크스케이프와 스크라이버스는 JPG, TIF, PNG, SVG와 같은 다양한 그래픽 형식을 지원한다. 한편 그림을 그리고 스케치하고 색을 칠하는 작업을 컴퓨터에서 하는 경우가 늘어나고 있다. 그 결과 아티스트의 일러스트레이션, 그림 또는 개념 디자인까지 디지털로 받아 별도의 스캔 작업 없이 즉각 처리할 수 있는 세상이다. 이때 특수한 그래픽 프로그램을 사용하면 머리 속 아이디어를 바로 화면으로 옮길 수 있다. 크리타(Krita)가 대표적이다. 특수한 브러시 팁, 레이어, 효과, 마스크를 통해 이 과정을 지원한다. 애니메이션 옵션을 사용해 생기를 불어넣을 수도 있다. 그래픽 태블릿과 함께 사용하면 디지털 펜의 압력과 기울기까지 반영해 브러시 스트로크 또는 디지털 연필 스트로크를 표현한다. 3D 애플리케이션인 블렌더(Blender)도 있다. 나온지 30년이 넘은 이 유서 깊은 앱은 처음에 영화사에서 내부적으로만 사용되다가 2002년 오픈소스가 된 이후부터 개발 속도가 빨라졌다. 정교한 모델링과 텍스처 모듈 외에 애니메이션, 합성, 비디오 편집을 위한 기능도 제공한다. 플러그인 인터페이스와 스크립팅을 통해 사용자가 원하는 대로 확장하고 조정할 수 있다. 블렌더는 지원하는 기능이 워낙 다양해 쓰임새도 광범위하다. 예를 들어 스파이더맨 2와 원더우먼 등 헐리우드 영화 제작에도 이 툴이 사용됐다. 나사(NASA)는 인터렉티브 웹 애플리케이션인 익스피리언스 큐리오시티(Experience Curiosity)에 블렌더를 사용했다. 영상 재생기로는 VLC 미디어 플레이어가 압도적이다. 구형 휴대폰 촬영 영상부터 새로운 고해상도 4K 클립까지 VLC로 재생할 수 없는 형식은 거의 없다. 재생 목록 사용하기, 온라인 비디오 및 팟캐스트 검색, 홈 네트워크를 사용한 스트리밍 등으로 다양한 용도에 맞게 사용할 수 있다. 잘 알려져 있지는 않지만 비디오 변환 기능도 유용하다. 샷컷(ShotCut)은 비디오 편집에 유용하다. 비디오를 보고 자르고 배열하는 용도로 사용된다. 비디오, 오디오, 전환, 효과 믹싱을 위한 유연한 타임라인도 제공한다. FFmeg 프레임워크를 설치하면 다양한 비디오 형식을 가져오고 내보낼 수 있다. 많은 사용자가 마이크로소프트의 미디어 플레이어를 사용해 음악 파일을 관리한다. 미디어 플레이어는 디지털화, 재생, 다른 기기로의 스트리밍을 지원하는 좋은 툴이지만 시스템 리소스를 과도하게 쓰는 단점이 있다. 이럴 때 사용할 수 있는 오픈소스 대안이 도파민(Dopamine)이다. 훨씬 더 가벼우면서도 많은 관리 기능, 재생 목록, 통합 이퀄라이저를 제공한다. 또한 온라인에서 노래 가사를 불러오고 Last.fm 및 디스코드를 통합할 수 있다. 포터블 버전이 특히 유용하다. 음악이 들어 있는 USB 드라이브에 설치해 두면 다양한 컴퓨터에서 사용할 수 있으며 곡 데이터베이스는 항상 최신 상태로 유지된다. 이 기능은 로컬 네트워크에서도 작동한다. 보안과 관리 : 데이터 및 시스템 백업 중요한 데이터와 시스템 파티션은 반드시 정기적으로 백업해야 하는데, 문서, 사진 및 음악 백업에 안성맞춤인 오픈소스가 바로 듀플리카티(Duplicati)다. 설치하고 시작하면 백그라운드에서 작동하며, 데이터 선택, 스케줄 등의 구성은 브라우저 인터페이스를 통해 할 수 있다. 하드 디스크, 네트워크 드라이브, USB 스토리지 디바이스 또는 인터넷의 서버를 백업 파일 저장 대상으로 설정할 수 있다. FTP, WebDAV와 같이 잘 알려진 전송 프로토콜 외에 드롭박스, 아마존, 구글과 같은 클라우드 서비스 액세스도 지원한다. 저장된 데이터를 압축하며 AES256으로 암호화한다. 전체 파티션 또는 하드 드라이브 백업에 적합한 또다른 오픈소스 앱이 클론질라(Clonezilla)다. CD 또는 USB 드라이브에 부팅 가능한 복구 시스템을 만든 다음 이를 사용해 하드 디스크 또는 개별 파티션의 이미지를 만든다. 하드웨어 장애가 발생하면 클론질라로 시스템을 재시작하고 이미지 데이터를 복원하면 된다. 백업 저장 대상으로는 로컬 스토리지 기기 또는 네트워크 드라이브를 설정할 수 있다. 클론질라는 NFS 또는 WebDAV를 통해 연결을 설정해 인터넷의 서버로도 데이터를 백업할 수 있다. 한편 문서나 사진을 파일 단위로 공유하는 방법은 많다. 단, 클라우드나 이메일을 통한 공유는 많은 경우 보안 위험이 따르므로, 민감한 데이터의 경우 암호화된 연결을 사용하는 것이 좋다. 이처럼 안전한 파일 교환이 필요할 때 쓸 수 있는 앱이 어니언셰어(Onionshare)다. 어니언셰어는 토르(Tor) 브라우저에 적용돼 사용자 정보를 익명화하는 어니언(Onion) 기술을 활용해 데이터의 안전한 교환을 구현한다. 즉, 전송의 경우 수신자가 검색할 수 있는 어니언 주소를 생성하고, 데이터 암호화 자체가 부가적인 보안을 형성한다. 발신자는 수신자가 전송 잠금을 해제할 수 있는 개인 키를 정의한다. 어니언셰어에는 파일 공유 기능 외에 채팅 옵션과 토르 네트워크를 통해 안전하게 웹사이트를 제공하는 웹 서버 기능도 있다. 그밖에 유용한 오픈소스 애플리케이션 ZIP 형식은 여러 파일을 하나의 패키지로 합치고 데이터를 압축한다. 파일을 압축하면 메일 또는 클라우드를 통해 더 빠르게 전송할 수 있다. 이런 ZIP 압축 프로그램 중 가장 유명한 오픈소스 앱이 7Zip이다. 7Zip은 ZIP 압축 파일을 열고 생성하며 파일을 추가 또는 제거할 수 있고 원하는 경우 윈도우 탐색기의 컨텍스트 메뉴에 통합할 수 있다. 이렇게 하면 ZIP을 열고 만드는 작업을 빠르게 불러올 수 있다. 7Zip을 이용하면 ZIP 파일을 지원할 뿐만 아니라 RAR, TAR, BZIP2, GZ, ARJ, LHA, LZH와 그 외의 많은 형식도 읽을 수 있다. 민감한 데이터가 포함된 파일이라면 AES 크립트(AES Crypt)를 사용해 손쉽게 암호화할 수 있다. 파일을 암호화하면 인터넷을 통해 전송할 때도 안전하게 보호할 수 있다. AES 크립트를 설치하면 윈도우 탐색기의 컨텍스트 메뉴에 새 항목이 생긴다. 암호화를 실행하려면 마우스 오른쪽 버튼으로 하나 이상의 파일을 클릭하고 컨텍스트 메뉴의 “AESCrypt”를 클릭한다. 이후 열리는 창에서 비밀번호를 입력하고 확인을 누르면 된다. 비밀번호를 입력해야만 데이터에 대한 액세스를 허용하는 256비트 보안 파일을 생성한다. 이런 파일을 열려면 마우스 오른쪽 버튼을 다시 클릭하고 AES크립트 항목을 선택한 다음 비밀번호를 입력해야 한다. editor@itworld.co.kr
대규모 언어 모델(LLM)을 기반으로 하는 챗GPT, 클로드(Claude), 바드(Bard)를 비롯한 공용 생성형 AI 챗봇도 충분히 좋지만, 이와 같은 범용 챗봇은 엔터프라이즈 워크플로우에 매끄럽게 통합되지는 않는다. 기업 직원이 별도의 앱을 사용하거나, 회사가 시간과 노력을 들여 애플리케이션 프로그래밍 인터페이스를 통해 자체 애플리케이션에 AI 기능을 추가해야 한다. 또한 챗GPT 및 기타 생성형 AI 챗봇을 사용하기 위해서는 직원이 프롬프트 엔지니어링에 대해서도 배워야 한다. 반면, 임베디드 생성형 AI는 직원이 이 기술을 가장 필요로 하는 곳, 즉 기존 워드 프로세싱 애플리케이션과 스프레드시트, 이메일 클라이언트를 비롯한 기타 엔터프라이즈 생산성 소프트웨어에 새로운 AI 기능을 구현해주며, 이를 위해 회사가 따로 해야 할 일도 없다. 제대로 구현되면 직관적으로, 단절 없이 새로운 AI 기능을 사용할 수 있게 되므로 어려운 생성형 AI 사용법 학습 과정 없이 모든 혜택을 누리게 된다. 포레스터는 최근 북미와 영국의 기술 의사 결정자를 대상으로 한 설문조사 결과를 근거로 2025년까지 거의 모든 기업이 쓰기 및 편집을 포함한 커뮤니케이션 지원 용도로 생성형 AI를 사용하게 될 것으로 예측했다. 실제로 설문 응답자의 70%는 쓰기 또는 편집 작업의 대부분 또는 전체에서 이미 생성형 AI를 사용하고 있다고 답했다. 그러나 포레스터에 따르면 챗GPT 같은 독립적인 생성형 AI 툴은 교차 직무 협업을 지원하지 못하며 직원이 업무를 수행하는 부분에서 작동하지도 않는다. 포레스터는 설문조사 보고서에서 “많은 사용 사례에서 생성형 AI는 독립형 앱보다는 임베디드 기능일 때 더 큰 혜택을 제공한다는 의미”라고 설명했다. IBM 컨설팅의 글로벌 AI 및 분석 부문 리더 매니시 고얄 역시 “아무리 좋은 AI를 가져오더라도 정작 사람들이 워크플로우에서 AI를 사용할 수 없다면 채택되지 않는다"라고 말했다. 임베디드 생성형 AI와 관련하여 현재 가장 큰 화제는 마이크로소프트 365 생산성 제품군 전반에 통합 구축되고 있는 생성형 AI 비서인 마이크로소프트 365 코파일럿이다. 일부 생성형 AI 기능은 팀즈 및 기타 마이크로소프트 365 앱에 구현됐지만 코파일럿 자체는 아직 정식 출시되지 않았고 테스트를 위한 초기 액세스가 허용된 기업은 600개에 불과하다. 마이크로소프트 365 코파일럿의 정식 출시를 손꼽아 기다리고 있는 솔루션 통합업체 인사이트(Insight)의 최고 엔터프라이즈 설계자 겸 CTO 데이비드 맥커디는 “데모를 본 사람이라면 생성형 AI의 통합이 백오피스가 돌아가는 방식을 완전히 바꿔 놓게 될 것임을 알고 있다"라고 말했다. 한편 일부 기업은 오픈AI에 대한 API를 통하거나 라마 2(Llama 2) 같은 LLM을 로컬로 실행해서 자체 앱에 생성형 AI를 직접 추가하고 있다. 예를 들어 인사이트는 API를 통해 마이크로소프트 엑셀에 생성형 AI를 내장했다. 맥커디는 “다만 향후 오피스 365에 통합될 것이기 때문에 이 부분에 대한 개발을 너무 많이 하지는 않고 있다"라고 말했다. 자체 AI 임베드를 만드는 데 필요한 시간이나 인력을 갖추지 못한 기업도 지금 생산성 툴 내에서 생성형 AI 사용을 시작할 수 있다. 많은 업체가 이미 앱에 다양한 생성형 AI 기능을 추가했기 때문이다. 예를 들어 줌, 마이크로소프트 팀즈를 비롯한 여러 온라인 회의 플랫폼은 내장형 또는 애드온 방식으로 AI 기반 요약 기능을 제공한다. 맥커디는 “이 기능이 회의 요약 방식을 완전히 바꾸어 놓았다. 요약 기능이 매우 유용한다는 점은 확실히 말할 수 있다. 큰 이득이 없는 기능도 많지만 요약과 목록 작성만큼은 최고”라고 말했다. 일부 기업에서 워크플로우에 생성형 AI를 어떻게 사용하고 있는지, 어느 부분에서 효과적인지, 그리고 생성형 AI를 안전하게 도입하기 위한 전략은 무엇인지 알아보자. 스트림 파이낸셜 : 이메일, 텍스트 문서, 코드의 생성형 AI 미국 솔트레이크시티에 소재한 핀테크 기업 스트림 파이낸셜 테크놀로지(Stream Financial Technology)의 엔지니어링 책임자인 조완자 조셉은 “우리가 사용하는 스파크(Spark)라는 이메일 클라이언트에는 이메일 요약과 작성을 위한 생성형 AI가 내장돼 있다"라고 말했다. 조셉은 “나도, 경영진도 대부분 긍정적이다. 유일하게 부정적으로 보는 부분은 AI가 이해 부족을 가리는 허울이 될 수 있다는 점이다. 즉, 글을 읽다가 말이 안 되는 부분이 있어서 지적하면 AI가 써서 그렇다고 둘러댈 수 있다는 점”이라고 말했다. 스트림 파이낸셜이 사용하는 또 다른 생성형 AI 툴은 마이크로소프트 워드, 구글 문서도구를 비롯한 많은 애플리케이션 내에서 작동하는 그래멀리(Grammarly)다. 그래멀리는 처음에는 단순한 문법 검사기였지만 최근 AI 기반의 텍스트 생성, 문구 수정 및 요약 기능까지 더했다. 조셉은 “그래멀리 기업 구독을 이용하고 있다. 구글 문서 도구 내에서 작동하며, 단락을 쓰거나 요약하도록 지시할 수 있다. 내용을 채워 넣고 요약하는 용도로는 좋지만 기술적인 분야에 대한 심층적인 내용은 다루지 못한다"라고 말했다. 조셉이 지적한 그래멀리 AI의 문제점은 각각의 상호작용이 별개라는 점이다. 챗GPT, 클로드와 같이 대화를 계속 주고받으면서 결과물을 세밀하게 다듬을 수가 없다. 조셉은 “그래멀리 AI에 무엇을 해야 할지 지시할 좋은 방법이 없다"라고 말했다. 조셉은 회사 측이 기밀 데이터 또는 고객 정보에 대해서는 공용 AI를 사용하지 않도록 주의한다고 강조했다. 조셉은 “장기적 관점에서 생성형 AI를 사용해 마케팅 문구와 같은 콘텐츠를 생성하는 데 대해 낙관적이다. A/B 테스트를 위한 다른 문구를 작성하거나 동일한 문구를 다양한 형태로 반복 생성할 수 있다"라고 말했다. 조셉은 생성형 AI가 가장 크게 영향을 미치는 부분은 코드 생성이라면서 “깃허브 코파일럿에 1인당 월 19달러를 내고 있는데, 그 5배라 해도 기꺼이 낼 것이다. 막대한 시간을 절약할 수 있게 해주며 지식도 상당한 수준”이라고 말했다. 조셉은 “코드 생성은 생성형 AI의 가치가 입증된 부분이다. 그 외의 모든 부분은 아직 단언할 수 없고, 갈 길이 멀다"라고 말했다. NFP : 마케팅 문구, 회의 요약에 생성형 AI 사용 보험 중개업체 NFP는 2년 전부터 텍스트 작성에 AI를 사용해왔다. 이 회사의 영업 지원 부문 SVP인 카일 힐리에 따르면 NFP는 챗GPT가 대중에 공개되기 훨씬 전부터 재스퍼(Jasper) AI를 사용해서 마케팅 문구를 작성했다. 처음 오픈AI의 GPT 3.5 대규모 언어 모델을 기반으로 2021년 2월 출시된 재스퍼는 화이자, 스포츠 일러스트레이티드(Sports Illustrated), 허브스팟(HubSpot), 센티넬원(SentinelOne)을 포함한 10만 곳 이상의 기업 고객을 두고 있다. 현재 재스퍼 AI는 가장 진보된 버전의 챗GPT와 같은 기반 모델인 GPT 4를 사용한다. 여기에 특정 사용 사례에 따라 맞춤화된 마케팅 또는 비즈니스 콘텐츠를 생성하도록 설계된 부가적인 모델과 세부적인 조정 등 비즈니스 친화적인 기능을 추가했다. 또한 회사 자체 브랜드 성격을 학습시키고, 회사 워크플로우 내에서 확장 기능 및 API를 통해 사용할 수 있다. 힐리는 “보안에 대해 일부 우려가 있었다. 그리고 재스퍼는 폐쇄형 시스템이다. 마케팅 부서에서 일부 카피라이팅 작업에 여전히 재스퍼를 사용하고 있다"라고 말했다. 최근 NFP는 재스퍼에서 영업 활동 지원 플랫폼인 세일즈로프트(Salesloft)에 내장된 생성형 AI 툴로 대부분 전환했다. 세일즈로프트는 지난 봄에 빠른 이메일 작성을 위한 생성형 AI 기능을 추가했다. 힐리는 “CRM 시스템의 안내 및 코칭에도 생성형 AI를 사용하기 시작했다. AI 툴이 모든 부분에 연결되기 시작하면서 이제는 더 많은 프로그램에서 GPT를 사용하고 있다. 마이크로소프트 생태계 전반에 완전히 내장된 형태”라고 말했다. 힐리 본인도 생성형 AI를 적극적으로 사용한다. 힐리는 “2023년 비즈니스 계획 전체를 AI를 사용해 작성했다”면서 “AI의 효과에 대해 내부적인 설득 작업을 진행하던 중에 고위직의 누군가가 AI가 아직 그 수준에 이르지 못했다고 말했다. 그래서 오기로 비즈니스 계획을 AI로 만들어서 제출했는데, 반응이 아주 좋았다. 로봇이 작성한 것으로 믿기지 않는다는 반응이었다"라고 말했다. 힐리는 “사모펀드 분야에서 일하는 영업팀의 고위급 직원도 리드를 작성하고 계약을 체결하는 데 AI를 사용하기 시작했다. 올해 초부터 경영진, 영업부서를 비롯해 많은 직원이 AI를 사용하고 있다. 이들은 ‘AI를 채택해야만 한다’고 말한다"라고 전했다. NFP는 마이크로소프트 팀즈에서도 생성형 AI를 사용해서 회의 노트를 자동으로 생성한다. 힐리는 “모두가 이해해야 할 중요한 점은 AI가 우리 일을 대체하는 것이 아니라 증폭하고 보강한다는 것이다. 같은 수의 사람으로 더 많은 일을 할 수 있게 해준다"라고 말했다. 힐리는 다음 단계는 세일즈포스의 생성형 AI 기능을 사용해서 원시 데이터를 해설적 데이터로 바꾸는 것이라며 “지금 이 부분을 추진하고 있다. 이를 통해 경영진은 자연스럽게 느껴지는 방식으로 정보를 흡수할 수 있게 된다. 예를 들어 나처럼 숫자에 서툴고 항상 숫자에서 막힌다면 숫자가 아닌 다른 방식으로 정보를 흡수할 수 있게 될 것”이라고 말했다. 생성형 AI 툴을 사용할지 여부를 결정할 때 중요한 것은 학습 데이터의 정확성과 개인정보 보호, 보안, 그리고 사용성이다. 힐리는 “영업 및 마케팅 문구에서는 사유 부분을 다루지 않는다. 그러나 NFP는 인수합병을 많이 한다. 법무팀이 AI를 사용해서 계약서를 더 빠르게 만들거나 미묘한 차이 또는 세부 사항을 찾을 수 있을까? 개인정보 보호와 보안, 클로즈드 소스 모델을 살펴봐야 한다"라고 말했다. 힐리는 지금은 영업 담당자가 새로운 AI 툴을 익히도록 하는 작업을 진행 중이라면서 “간소함과 사용의 용이함이 중요하다. 자연스럽게 느껴지는지, 마음을 먹고 사용법을 배워야 하는지가 관건”이라고 말했다. 힐리는 예를 들어 챗GPT는 사용하기가 쉽지 않았다면서 “챗GPT에 말을 하기 위해서는 거의 정해진 코스에 따라야 한다. 어떤 면에서는 프로그래밍과 상당히 비슷하다. 하지만 NFP는 기술 기업이 아니고 보험을 판매하는 회사”라고 말했다. 직원이 이미 사용하는 툴에 내장된 형태의 생성형 AI는 이러한 사용성 장벽을 극복하는 데 도움이 될 수 있다. 힐리는 “예를 들어 세일즈로프트는 반복적이고 유기적이다. 생성형 AI는 이 툴의 자연스러운 확장이다. 새로운 것을 배울 필요가 없다는 것이 NFP에는 중요한 점이다. 35년째 일하는 보험 담당자도 바로 사용할 수 있고, 25세 직원이라면 시스템 전체를 지극히 자연스럽게 받아들인다"라고 말했다. 톰슨 로이터 : 서신 초안 작성, 직원 질문에 대한 응답에 생성형 AI 사용 뉴스 기업 톰슨 로이터(Thomson Reuters)의 최고 인사 책임자인 매리 앨리스 부이식은 수십년 전부터 제품과 사무실에서 AI를 사용해왔다면서 “이미 존재하는 많은 부분에 AI가 내장돼 있다. 핵심은 증강, 즉 사람들이 더 가치 있는 일을 할 수 있도록 해주는 데 있다"라고 말했다. 부이식은 AI는 사람이 아니라 “작업을 대체한다"라고 말했다. 생성형 AI가 보편화된 지금 톰슨 로이터는 선제적으로 공급업체에 관심을 갖고 이들의 AI 로드맵을 살펴봤다. 부이식은 이미 많은 부분이 발표됐다고 말했다. 예를 들어 세일즈포스와 워크데이(Workday) 모두 생성형 AI 전략을 마련했다. 부이식은 “마이크로소프트 코파일럿과 그 외에도 수많은 툴이 있다"라고 말했다. 부이식은 톰슨 로이터에서 이미 많은 생성형 AI 툴이 사용되고 있다고 말했다. 예를 들어 커뮤니케이션 팀은 AI를 사용해서 문서의 초안을 작성한다. “실제로 작업의 첫 번째 초안 작성에서 전반적으로 AI 툴을 사용할 여지가 있다. 다만 정확성은 AI에 의지할 수 없고 교육에서도 이 부분을 다뤘다. 처음 초안이 작성된 다음에는 사람이 편집한다. 즉, 사람의 전문성을 적용해서 더 높은 품질의 제품을 제공한다"라고 말했다. HR 분야에서는 생성형 AI를 사용해 직원 질문에 답하기와 관련한 실험이 진행 중이다. 부이식은 “초기 결과는 매우 만족스럽다. 지금까지 정확도는 95%이며 과거 이러한 질문에 답하느라 빼앗겼던 시간을 돌려줘서 부가가치를 창출하는 일에 투자할 수 있게 해준다"라고 말했다. 생성형 AI 도입을 위한 세 갈래 접근 부이식은 톰슨 로이터는 가능성에서 앞서 나가기 위해 AI 도입을 가속화하기 위한 전사적 이니셔티브를 출범했다고 말했다. 첫 번째 단계는 AI 표준과 윤리의 정립으로, 몇 년 전부터 해오고 있다. 부이식은 “톰슨 로이터는 30년 이상 AI를 사용하고 있다. 생성형 AI 이전에도 이 분야의 리더가 되기 위해 노력했다"라고 말했다. 부이식은 “다음 단계는 인력 교육이다. 이는 반드시 필요한 단계”라고 말했다. 톰슨 로이터는 지난 4월 전세계 모든 직원이 참여할 수 있는 AI 교육의 날을 열었다. 총 2만 7,000명의 직원 중 약 7,000명이 라이브로 이 이벤트에 참석했다. 부이식은 “그 외에도 수천 명이 비동기적으로 이 교육 자료를 활용하고 있다"라고 덧붙였다. 부이식에 따르면 참가자의 대다수는 이미 자신의 업무에 생성형 AI를 적용할 수 있다고 말했다. 부이식은 “이는 로이터 직원 대부분이 앞으로 일하면서 겪게 될 가장 중요한 혁신이다. 우리는 이 부분에서 선두에 서야 한다. 회사 측은 교육과 개발, 업스킬 및 리스킬에 대한 책임이 있다. 그러나 모든 개인도 배우고 발전해야 할 책임이 있다"라고 말했다. 톰슨 로이터 AI 전략의 세 번째 축은 모든 툴을 실험할 수 있는 안전한 장소를 제공하는 것이다. 부이식에 따르면 톰슨 로이터는 생산성 소프트웨어에 내장된 생성형 AI 외에도 오픈AI, 앤트로픽, 구글, 그리고 라마 2와 같은 오픈소스 모델을 포함한 다양한 대규모 언어 모델을 실험하고 있다. 부이식은 “변화의 속도가 매우 빠르다. 톰슨 로이터는 고객 사용 사례를 위해 최선의 기술을 활용하고자 한다"라고 말했다. 마지막으로, 이 회사는 학습과 실험의 문화를 강화하고 있다. 부이식은 “가장 빠르게 배우고 실험하는 팀이 승리하게 될 것”이라고 말했다. 위험을 고려해서 현명하게 선택하기 몇몇 엔터프라이즈 기술 업체는 생성형 AI 기능뿐만 아니라 모델을 학습시키는 방법 또는 사용할 구체적인 모델에 관한 유연함도 고객에 제공한다. IBM 컨설팅의 고얄은 “IBM은 세일즈포스를 사용한다. IBM의 세일즈포스 관리자는 나와 같은 최종 사용자가 그냥 볼 수 있도록 적절한 모델을 선택하고 구성할 수 있다. 세일즈포스는 임베디드 AI를 선택할 수 있는 옵션도 제공한다"라고 말했다. 고얄은 IBM 컨설턴트가 현재 기업과 협력해서 마이크로소프트 365를 비롯한 과련 기술로 무엇이 가능한지, 그리고 법률 및 보안 측면에서 생성형 AI가 어떤 영향을 미치는지에 대해 생각하도록 돕고 있다고 말했다. 고얄은 “IBM의 왓슨x(Watsonx)에 대한 입장은 확고하다. 고객의 데이터는 고객의 소유라는 것이다. IBM은 모델 학습에 고객 데이터를 절대 사용하지 않는다. 애저, AWS, 구글과 협력하고 있으며 이들 각 기업은 생성형 AI의 이 부분에 있어 예전부터 명확한 입장을 유지하고 있다. IBM의 파트너 및 고객 역시 마찬가지다. 고객이 업로드하거나 서비스에 사용하는 어떠한 데이터도 모델 학습에 사용되지 않는다. 그렇지 않으면 어떤 기업도 AI를 사용하지 않을 것”이라고 말했다. 이 원칙을 위반한 엔터프라이즈 업체의 예로 줌이 있다. 줌은 처음에 회의 녹취록을 AI 학습에 사용할 것이라고 말했다가 격렬한 반발에 직면해 황급히 철회한 바 있다. 그러나 초기 학습 데이터의 출처에 대해서는 업체의 투명성이 부족하다. 고얄도 그 점을 인정하면서 “왓슨x는 학습 데이터에 대한 완전한 데이터 계보를 제공한다. 그러나 모든 업체가 그렇지는 않다. 명확하게 밝히지 않는 경우가 많다"라고 말했다. 또한 몇몇 AI 업체는 저작권이 있는 상품을 허가 없이 AI 학습에 사용했다는 이유로 아티스트 및 작가로부터 피소된 상황이다. 고얄은 “AI에는 항상 위험이 있었다"라고 말했다. 대규모 언어 모델에는 과거의 오래된 위험이 더 증폭된 경우도 있고 새로운 위험도 있다. 고얄은 “기업은 생성형 AI를 사용할 때 가드레일을 설치해야 한다"라고 말했다. 그러나 기업에 결국 중요한 것은 이러한 새로운 기능을 어떻게 사용할 수 있을지를 살펴보는 것이다. 고얄은 “그 방법을 가장 빠르게 파악하는 기업이 승자가 되고 꿈처럼 보이는 일을 현실화할 수 있을 것”이라고 말했다. editor@itworld.co.kr
파이썬은 강력하고 유연하며 다루기 쉬운 언어로 유명하다. 이런 장점 때문에 방대하고 다양한 애플리케이션과 워크플로우, 분야에 사용된다. 그러나 인터프리티드 언어인 데다 런타임의 동적 특성 때문에 파이썬은 C, C++와 같은 머신 네이티브 언어에 비해 속도가 훨씬 더 느리다는 고질적인 단점이 있다. 개발자들은 오랜 시간 동안 파이썬의 속도 제한을 극복하기 위한 다양한 방법을 고민해왔다. 예를 들어 성능 집약적인 작업을 C로 작성하고 이 C 코드를 파이썬으로 래핑하는 방법 같은 것이다. 많은 머신러닝 라이브러리가 실제로 이 방식으로 동작한다. 또는 파이썬 코드에 런타임 형식 정보를 섞어 C로 컴파일할 수 있게 해주는 프로젝트인 사이썬(Cython)을 사용하는 방법도 있다. 그러나 차선책은 이상적인 방법일 수는 없다. 그냥 파이썬 프로그램을 그대로 가져와 훨씬 더 빠르게 실행할 수 있다면 좋지 않을까? 그 대답이 바로 파이파이(PyPy)다. 파이파이 vs. C파이썬 파이파이는 기본 파이썬 인터프리터인 C파이썬(CPython)을 대체한다. C파이썬은 파이썬을 중간 바이트코드로 컴파일하고 이 바이트코드가 가상머신에 의해 인터프리트되는 방식인 데 반해, 파이파이는 JIT(JustInTime) 컴파일을 사용해 파이썬 코드를 머신 네이티브 어셈블리어로 변환한다. 수행하는 작업에 따라 상당한 정도의 성능 향상이 가능하다. 평균적으로 파이파이는 파이썬 3.7에 비해 파이썬 속도를 약 4.7배 더 높여주며 일부 작업에서는 50배 이상의 속도 향상이 가능하다. 새로운 버전의 C파이썬 인터프리터에도 특정 종류의 JIT 최적화가 추가되고 있지만 현재 파이파이의 범위와 효과에 비할 바는 아니다. 앞으로 대등해질 가능성을 배제할 수 없지만 적어도 지금은 아니다. 가장 좋은 점은 파이파이가 제공하는 효과를 얻기 위해 개발자가 따로 해야 할 일이 거의 없다는 것이다. C파이썬을 파이파이로 바꾸기만 하면 된다. (다음에서 설명할) 몇 가지 예외는 있지만 파이파이의 공식적인 목표는 기존의 파이썬 코드를 수정 없이 실행하면서 자동으로 속도를 높여주는 것이다. 현재 파이파이는 파이썬 2와 파이썬 3을 각기 다른 프로젝트 구현으로 모두 지원한다. 즉, 실행할 파이썬의 버전에 따라 다른 버전의 파이파이를 다운로드해야 한다. 파이파이의 파이썬 2 브랜치가 나온 시점이 훨씬 더 오래됐지만 파이썬 3 버전도 최근 거의 따라잡았다. 현재 파이썬 버전 3.9까지 지원하며 파이썬 3.10은 실험 수준에서 지원된다. 파이파이는 모든 핵심 파이썬 언어를 지원하는 것 외에, 패키징을 위한 pip, 가상 환경을 위한 virtualenv 등 파이썬 생태계의 방대한 툴과도 호환된다. C 모듈을 사용하는 패키지를 포함해 대부분의 파이썬 패키지는 변경 없이 그대로 동작한다. 물론 일부 제한도 있다. 이는 아래에서 살펴본다. 파이파이의 작동 방식 파이파이는 동적 언어를 위한 다른 JIT 컴파일러에도 있는 최적화 기법을 사용한다. 실행 중인 파이썬 프로그램을 분석하면서 생성 및 사용되는 객체의 형식 정보를 판단한 후 이 형식 정보를 가이드 삼아 속도를 높인다. 예를 들어 파이썬 함수가 한두 개의 객체 형식에서만 작동한다면 파이파이는 이러한 특정 사례를 처리하는 기계 코드를 생성한다. 파이파이의 최적화는 런타임에서 자동으로 처리되므로 일반적으로는 개발자가 직접 성능을 조정할 필요가 없다. 고급 사용자라면 파이파이의 명령줄 옵션을 변경하면서 특수한 사례를 위한 더 빠른 코드를 생성할 수 있지만 그럴 필요까지는 거의 없다. 또한 파이파이는 몇몇 내부 함수를 처리하는 방식도 C파이썬과 다르지만 동작의 호환성을 유지하려고 노력한다. 예를 들어 파이파이의 가비지 수집 방식은 C파이썬과 달라서 범위에서 벗어나는 모든 객체가 즉각 수집되지는 않으므로 파이파이로 실행되는 파이썬 프로그램은 C파이썬으로 실행되는 경우에 비해 메모리 사용량이 더 높게 표시될 수 있다. 그러나 gc 모듈을 통해 노출되는 gc.enable(), gc.disable(), gc.collect()와 같은 파이썬의 고수준 가비지 수집 컨트롤을 여전히 사용할 수 있다. 파이파이의 JIT 동작에 대한 정보가 필요하다면 파이파이에 포함된, 파이썬 애플리케이션에 대한 많은 JIT 후크를 노출하는 pypyjit라는 모듈을 활용하면 된다. JIT에서 성능이 떨어지는 함수 또는 모듈이 있는 경우 pypyjit를 사용해 세부적인 통계를 확인할 수 있다. 또 다른 파이파이 전용 모듈인 __pypy__는 파이파이만의 다른 기능을 노출하며 해당 기능을 활용하는 애플리케이션을 작성하는 데 유용하다. 파이썬의 런타임 동적 특성 덕분에 파이파이가 있을 때 이러한 기능을 사용하고, 없을 때는 무시하는 파이썬 애플리케이션을 만드는 것이 가능하다. 파이파이의 제약 파이파이는 매우 강력하지만 제약도 있다. 파이파이는 기본 C파이썬 런타임에 대한 완전한 범용 대체재는 아니다. 몇 가지 제약으로 인해 특정 종류의 프로그램에서는 파이파이의 효과가 줄어들거나 아예 사라진다. 가장 중요한 제한 사항은 다음과 같다. 파이파이는 순수 파이썬 앱에서 가장 효과적 : 파이파이는 전통적으로 “순수” 파이썬 애플리케이션, 즉 다른 언어 없이 파이썬만으로 작성된 애플리케이션에서 최고의 효과를 발휘했다. 넘파이(NumPy)와 같이 C 라이브러리와 접촉하는 파이썬 패키지는 파이파이가 C파이썬의 네이티브 바이너리 인터페이스를 에뮬레이션하는 방식상 좋은 결과를 얻지 못했다. 파이파이 개발자들은 그동안 이 문제를 줄여 나가면서 C 확장에 의존하는 대다수 파이썬 패키지와의 호환성을 더 높였다. 예를 들어 넘파이는 지금은 파이파이에서 매우 잘 작동한다. 그러나 최대한의 C 확장 호환성을 원한다면 C파이썬을 사용해야 한다. 파이파이는 장기간 실행되는 프로그램에서 가장 효과적 : 파이파이가 파이썬 프로그램을 최적화하는 방법의 특성상 장시간 실행되는 프로그램이 최적화 효과를 가장 많이 얻는다. 프로그램 실행 시간이 길수록 파이파이는 런타임 형식 정보를 더 많이 얻을 수 있고 최적화도 더 많이 할 수 있기 때문이다. 단발성 파이썬 스크립트는 이러한 혜택을 얻지 못한다. 이 효과를 얻는 애플리케이션은 일반적으로 오랜 시간 실행되는 루프가 있거나 백그라운드에서 지속적으로 실행되는 웹 프레임워크 같은 애플리케이션이다. 파이파이는 AOT 컴파일을 하지 못함 : 파이파이는 파이썬 코드를 컴파일하지만 파이썬 코드용 컴파일러는 아니다. 파이파이의 최적화 수행 방법과 파이썬의 태생적인 동적 특성으로 인해 JIT 코드를 독립형 바이너리로 배출해서 재사용할 방법이 없다. 즉, 이 문서에 설명돼 있듯이 각 프로그램이 실행될 때마다 매번 컴파일해야 한다. 파이썬을 독립형 애플리케이션으로 실행할 수 있는 더 빠른 코드로 컴파일하고 싶다면 사이썬, 넘바(Numba), 또는 현재 실험 단계인 누이트카(Nuitka) 프로젝트를 사용해야 한다. editor@itworld.co.kr
머신러닝(Machine learning)과 딥러닝(deep learning)은 널리 알려진 익숙한 용어지만, 이런 유명세 만큼이나 더 폭넓은 오해를 받는 부분도 있다. 여기서는 한 걸음 물러서서 머신러닝과 딥러닝의 기본을 살펴보고, 가장 보편적인 몇 가지 머신러닝 알고리즘을 알아본다. 이런 알고리즘이 역사적 데이터로부터 예측 모델을 만들기 위한 퍼즐의 다른 조각과 어떻게 관련되는지도 설명한다. 머신러닝 알고리즘이란 머신러닝은 데이터로부터 자동으로 모델을 생성하는 방법이고, 머신러닝 알고리즘은 머신러닝을 움직이는 엔진이다. 즉, 데이터 집합을 모델로 바꿔주는 알고리즘이다. 지도, 비지도, 분류, 회귀 등 어떤 알고리즘이 가장 효과적인지는 해결하려는 문제의 종류, 가용한 컴퓨팅 리소스, 데이터의 속성에 따라 달라진다. 머신러닝의 작동 원리 일반적인 프로그래밍 알고리즘은 컴퓨터에 해야 할 일을 간단한 방식으로 알려준다. 예를 들어 정렬 알고리즘은 정렬되지 않은 데이터를 데이터에 있는 하나 이상 필드의 숫자 또는 알파벳 순서 등 특정 기준에 따라 정렬된 데이터로 변환한다. 선형 회귀 알고리즘은 직선, 또는 다항식과 같이 매개변수가 선형인 다른 함수를 수치 데이터에 맞추는데, 이를 위해 일반적으로 사용하는 방법은 선과 데이터 간의 제곱 오차를 최소화하기 위해 행렬 역변환을 수행하는 것이다. 제곱 오차를 척도로 사용하는 이유는 회귀선이 데이터 포인트 위에 있는지, 아래에 있는지는 중요하지 않기 때문이다. 중요한 것은 선과 포인트 간의 거리다. 매개변수가 선형이 아닌 곡선을 데이터에 맞추는 비선형 회귀 알고리즘은 조금 더 복잡하다. 선형 회귀 문제와 달리 결정론적 방법으로 해결할 수 없기 때문이다. 대신 비선형 회귀 알고리즘은 일종의 반복적 최소화 프로세스를 구현하는데, 이는 급속 하강(steepest descent) 방법의 변형인 경우가 많다. 급속 하강은 기본적으로 현재 매개변수 값에서 제곱 오차와 그 기울기를 계산하고, 단계 크기 즉, 학습률을 선택하고, 기울기 방향을 "아래로" 따라간 다음, 새로운 매개변수 값에서 제곱 오차와 그 기울기를 다시 계산한다. 운이 좋다면 최종적으로 이 과정은 수렴한다. 급속 하강에는 수렴 속성을 개선하고자 하는 여러 변형이 있다. 머신러닝 알고리즘은 비선형 회귀보다도 더 복잡한데, 머신러닝은 다항식과 같은 특정 수학 함수에 맞추는 제약이 없다는 점도 그 이유 중 하나다. 머신러닝이 해결하는 대표적인 두 가지 문제 범주는 회귀와 분류다. 회귀는 수치 데이터, 분류는 비수치 데이터에 사용된다. 전자는 특정 주소와 직업을 가진 사람의 예상 수입은 어느 정도인가와 같은 문제, 후자는 대출 신청자가 이 대출을 상환하지 않을 것인가와 같은 문제다. 예측 문제(“내일 마이크로소프트 주식의 시초가는 얼마가 될까?”)는 시계열 데이터에 대한 회귀 문제의 하위 집합이다. 분류 문제는 이진(예/아니요), 다중 범주 문제(동물, 채소 또는 광물)로 나뉘기도 한다. 지도 학습 vs. 비지도 학습 이러한 구분과 별개로 머신러닝 알고리즘에는 지도와 비지도, 2가지 종류가 있다. 지도 학습에서는 동물 이름이 딸린 일련의 동물 사진과 같은, 답변이 포함된 학습 데이터 집합을 제공한다. 이 학습의 목표는 이전에 본 적이 없는 사진을 올바르게 식별(학습 집합에 포함된 동물의 종류)할 수 있는 모델을 만드는 것이다. 비지도 학습에서는 알고리즘이 스스로 데이터를 살펴보고 유의미한 결과를 도출하려고 시도한다. 예를 들어 각 클러스터 내에서 연관될 수 있는 데이터 포인트의 클러스터 집합이 결과로 나올 수 있다. 클러스터가 겹치지 않을 때 더 효과적으로 작동한다. 학습과 평가를 통해 매개변수를 최적화해 데이터의 기준 진실과 가장 잘 일치하는 값 집합을 찾음으로써 지도 학습 알고리즘을 모델로 바꾼다. 알고리즘은 옵타마이저를 위해 예를 들어 확률적 경사 하강(SGD: 무작위 시작점에서 여러 번 수행되는 급속 하강이라고 할 수 있음)과 같은 급속 하강의 변형에 의존하는 경우가 많다. SGD의 일반적인 개선 방법은 운동량을 기반으로 경사의 방향을 수정하거나, 한 데이터 패스(에포크라고 함)에서 다음 패스로의 진행에 따라 학습률을 조정하는 요소를 추가하는 것이다. 머신러닝을 위한 데이터 정제 자연 상태에서 깨끗한 데이터는 존재하지 않는다. 머신러닝에 사용하려면 데이터를 적극적으로 필터링해야 한다. 예를 들면 다음과 같다. 데이터를 살펴보고 누락된 데이터가 많은 열을 제외한다. 데이터를 다시 살펴보면서 예측에 사용할 열을 선택한다. 이 열은 반복할 때 바꾸는 경우가 많다. 나머지 열에서 여전히 누락된 데이터가 있는 행을 제외한다. 명백한 오타를 교정하고 동일한 답변을 병합한다. 예를 들어 U.S. US. USA, 미국은 하나의 범주로 병합해야 한다. 범위를 벗어난 데이터가 있는 행을 제외한다. 예를 들어 뉴욕시 내의 택시 이동을 분석한다면 뉴욕시 경계 상자를 벗어난 승하차 위도 및 경도는 필터링으로 걸러낸다. 그 외에도 할 수 있는 일이 많지만 이는 수집된 데이터에 따라 달라진다. 지루한 작업일 수 있으나 머신러닝 파이프라인에 데이터 정제 단계를 두면 자유롭게 수정하고 반복할 수 있다. 머신러닝을 위한 데이터 인코딩 및 정규화 머신 분류를 위해 범주 데이터를 사용하려면 텍스트 레이블을 다른 양식으로 인코딩해야 한다. 일반적으로 2가지 인코딩이 사용된다. 첫째는 레이블 인코딩으로, 각 텍스트 레이블이 숫자로 대체된다. 둘째는 원핫(onehot) 인코딩으로, 각 텍스트 레이블 값이 이진 값(1 또는 0)이 있는 열로 변환된다. 대부분의 머신러닝 프레임워크에는 이 같은 변환을 수행하는 함수가 있다. 레이블 인코딩의 경우 머신러닝 알고리즘이 혼동해서 인코딩된 열이 정렬된 것으로 착각할 수 있으므로 일반적으로 원핫 인코딩이 선호된다. 머신 회귀에 숫자 데이터를 사용하려면 일반적으로 데이터를 정규화해야 한다. 그렇지 않으면 범위가 큰 숫자가 특징 벡터 간의 유클리드 거리를 지배하는 경향이 있고, 이들의 효과가 확대되면서 다른 필드가 희생되고 급속 하강 최적화가 잘 수렴되지 않을 수 있다. ML을 위해 데이터를 정규화 및 표준화하는 방법은 최소최대 정규화, 평균 정규화, 표준화, 단위 길이로 스케일링 등 여러 가지가 있다. 이 프로세스를 보통 특징 스케일링(feature scaling)이라고 한다. 머신러닝 특징 앞에서 언급한 특징(feature) 벡터가 무엇인지 알아보자. 우선, 특징이란 관찰 대상 현상의 측정 가능한 개별적인 속성 또는 특성이다. “특징”이라는 개념은 선형 회귀와 같은 통계 기법에서 사용되는 설명 변수와 관계가 있다. 특징 벡터는 한 행의 모든 특징을 하나의 숫자 벡터로 결합한다. 특징을 선택하는 기법 중 하나는 문제를 설명하는 최소 독립 변수 집합을 선택하는 것이다. 두 변수가 고도로 상호 연관된다면 하나의 특징으로 결합해야 하거나 하나를 삭제해야 한다. 주성분 분석을 수행하여 상호 연관된 여러 변수를 선형적으로 상호 연관되지 않은 변수들의 집합으로 변환하는 경우도 종종 있다. 새로운 특징을 구축하거나 특징 벡터의 차원을 축소하기 위해 사용하는 변환 방법 중에서 간단한 방법도 몇 가지 있다. 예를 들어 Year of Death에서 Year of Birth를 빼면 수명 및 사망 분석을 위한 주요 독립 변수인 Age at Death를 구축할 수 있다. 특징 구축이 명확하지 않은 경우도 있다. 일반적인 머신러닝 알고리즘 머신러닝 알고리즘은 선형 회귀와 로지스틱 회귀부터 심층 신경망 및 앙상블(다른 모델의 조합)에 이르기까지 수십 가지가 있지만 가장 일반적인 알고리즘은 다음과 같다. 선형 회귀 또는 최소 제곱 회귀(숫자 데이터) 로지스틱 회귀(이진 분류) 선형 판별 분석(다중 범주 분류) 결정 트리(분류와 회귀) 나이브 베이즈(분류와 회귀) K최근접 이웃(KNN, 분류와 회귀) 학습 벡터 양자화(LVQ, 분류와 회귀) 서포트 벡터 머신(SVM, 이진 분류) 랜덤 포레스트, “배깅” 앙상블 알고리즘의 한 유형(분류와 회귀) 부스팅 방법(AdaBoost 및 XGBoost 포함)은 일련의 모델을 생성하는 앙상블 알고리즘으로, 각각의 새로운 모델이 이전 모델의 오류를 수정하려고 시도 흔히 듣는 신경망과 심층 신경망은 어디에 있을까? 이 둘은 대체로 계산 집약적이라서 GPU 또는 다른 특수한 하드웨어가 필요하므로 비교적 단순한 알고리즘에는 맞지 않는 이미지 분류, 음성 인식과 같은 특수한 문제에만 사용해야 한다. 위에서 “심층”은 신경망 안에 숨은 계층이 많다는 것을 의미한다. 신경망과 심층 신경망에 대한 더 자세한 내용은 “딥러닝의 진정한 의미”를 참고하면 된다. 머신러닝 알고리즘의 초매개변수 머신러닝 알고리즘은 데이터로 학습해서 예측된 값 또는 클래스에 영향을 미치는 각 독립 변수에 대한 최적의 가중치 집합을 찾는다. 알고리즘 자체에는 초매개변수(hyperparameters)라는 변수가 있다. 결정되는 가중치가 아니라 알고리즘의 작동을 제어하기 때문에 매개변수가 아닌 초매개변수로 불린다. 많은 경우 가장 중요한 초매개변수는 학습률이다. 학습률은 최적화에서 다음에 시도할 가중치 집합을 찾을 때 사용되는 단계 크기를 결정한다. 학습률이 너무 높으면 경사 하강이 평지(plateau) 또는 비최적 지점에 빠르게 수렴할 수 있고, 학습률이 너무 낮으면 경사 하강이 정체되어 완전히 수렴하지 않을 수 있다. 다른 많은 일반적인 초매개변수는 사용되는 알고리즘에 따라 달라진다. 대부분 알고리즘에는 최대 에포크 수, 또는 최대 실행 시간, 에포크 간 최소 개선과 같은 중지 매개변수가 있다. 특정 알고리즘에는 검색의 형태를 제어하는 초매개변수가 있다. 예를 들어 랜덤 포레스트에는 리프당 최소 샘플 수, 최대 깊이, 분할 시 최소 샘플 수, 리프의 최소 가중치 비율, 그 외에 8가지에 대한 초매개변수가 있다. 초매개변수 튜닝 여러 프로덕션 머신러닝 플랫폼이 현재 자동 초매개변수 튜닝을 제공한다. 기본적으로 시스템에 변경할 초매개변수와 최적화하고자 하는 메트릭을 알려주면 시스템은 허용되는 만큼 많은 실행 횟수에 걸쳐 이러한 초매개변수를 스윕한다. 단, 구글 클라우드 초매개변수 튜닝은 텐서플로우 모델에서 적절한 메트릭을 추출하므로 직접 지정할 필요가 없다. 초매개변수 스위핑을 위한 검색 알고리즘에는 베이지안(Bayesian) 최적화, 그리드(grid) 검색, 무작위 검색의 3가지가 있다. 베이지안 최적화가 대체로 가장 효율적이다. 최대한 많은 초매개변수를 튜닝해야 최선의 답을 얻는다고 생각할 수 있다. 그러나 개인 하드웨어에서 실행하는 경우가 아닌 한 비용이 상당히 커질 수 있고, 어떤 경우든 얻는 이득은 점점 줄어든다. 자신의 데이터와 선택한 알고리즘에서 가장 중요한 초매개변수는 경험을 통해 발견할 수 있다. 자동 머신러닝 알고리즘 선택에 대해 말하자면, 어느 알고리즘 또는 알고리즘 앙상블이 현재 데이터에 맞는 최선의 모델을 제공할지 아는 방법은 하나밖에 없다. 모두 시도해 보는 것이다. 여기서 가능한 모든 정규화 및 특징 선택까지 시도한다면 조합의 수는 폭발적으로 증가한다. 모든 것을 수동으로 시도한다는 것은 비현실적이므로, 당연히 머신러닝 툴 제공업체들은 많은 노력을 기울여 오토ML(AutoML) 시스템을 출시했다. 우수한 시스템은 특징 공학과 알고리즘 및 정규화에 대한 스윕을 결합한다. 최선의 모델에 대한 초매개변수 튜닝은 나중을 위해 남겨두는 경우가 많다. 다만 특징 공학은 자동화하기 어려운 문제이며 이 부분을 다루지 않는 오토ML 시스템도 있다. 요약하자면, 머신러닝 알고리즘은 머신러닝 퍼즐의 한 조각일 뿐이다. 알고리즘 선택(수동 또는 자동) 외에도 옵티마이저, 데이터 정제, 특징 선택, 특징 정규화, 그리고 선택적으로 초매개변수 튜닝까지 처리해야 한다. 이 모든 부분을 처리하고 데이터에 맞는 모델을 구축했다면, 이제 모델을 배포하고 조건의 변화에 따라 업데이트할 차례다. 프로덕션의 머신러닝 모델을 관리하는 것은 또 다른 문제다. editor@itworld.co.kr
최신 윈도우 11 기능을 따라가다 보면 쉽게 혼란스러워진다. 마이크로소프트 빌드(Microsoft Build) 행사와 함께 새로운 기능이 끊임없이 쏟아지는 5월에는 더욱 그렇다. 올해도 마찬가지였다. 마이크로소프트는 실용적인 것부터 이상적인 것까지 빌드 행사에서 다양한 윈도우 11 기능을 쏟아냈다. 올해 빌드 행사에서는 윈도우 11의 모멘트 3(Moment 3)과 함께 흥미로운 새 기능이 공개됐고 향후 출시될 더 많은 기능에 대한 힌트도 얻을 수 있었다. 다만 소규모 기능 업데이트인 모멘트는 언제든 배포될 수 있기 때문에 출시 시기는 달라질 수 있다. 현재 모멘트 3에 도입될 것으로 알려진, 그리고 사용자 PC에 배포될 여러 새 기능을 간단히 설명한다. 윈도우 11 모멘트 3의 기능들 이제부터 소개할 모멘트 3 기능은 기본 기능이 아니라 옵션이며, 새로운 기능을 출시 즉시 받겠다고 미리 설정하지 않은 이상 6월 이후에야 배포된다. 2023년 6월, 아마도 패치 화요일 주기를 고려하면 6월 13일쯤 윈도우 11 비보안 프리뷰 릴리즈에 추가 선택 형식으로 배포될 예정이다. 새로운 기능을 한발 먼저 사용하는 것을 좋아하고 최신 업데이트가 출시되는 즉시 받고 싶은 사용자라면 윈도우 11 설정 앱의 ‘윈도우 업데이트 항목’으로 이동한다. 여기서 ‘최신 업데이트가 제공되는 즉시 받기’ 메뉴의 토글을 켠다. 마이크로소프트는 사용자의 삶의 질을 조금씩 개선하는 기능을 단계적으로 릴리즈한다. 모멘트 3 역시 마찬가지다. 마이크로소프트는 이달 초 이들 기능을 윈도우 참가자 프로그램 22621.1776(릴리즈 채널) 베타 일부분으로 테스트했고 이제 최종 릴리즈로 배포했다. 더 넓은 위젯 창 : 윈도우 11에 추가된 흥미로운 변화는 사용자가 앱을 더 많이 설정할 수 있도록 많은 공간을 확보하는 위젯의 변화다. 위젯은 2개가 아닌 3개 열로 더 넓어지고 개인화할 수 있다. 마이크로소프트가 공개한 새로운 위젯 선택기를 보면 사용자는 자신이 선택한 위젯이 어떤 모습으로 나타날지 미리 볼 수 있으며, 더 많은 위젯을 찾을 수 있다(위젯 선택기는 조금 늦게 배포될 수 있다). 센서 설정 : 일부 노트북은 사용자가 자리를 비우거나 보안을 위해 PC를 잠가 둘 경우 화면을 자동으로 어둡게 조정하는 존재 감지 센서가 있다. 설정 개인정보 보호 및 보안 감지 센서에서 관리할 수 있다. VPN 아이콘 : 이제 VPN을 사용할 때 작업표시줄에 작은 방패 아이콘이 나타난다. USB4 허브 및 설정 : 인텔 기반 노트북은 보통 썬더볼트 독과 연결된다. 그러나 USB4는 AMD 라이젠 노트북에서 거의 동일한 기능을 수행한다. 어떤 것이든 새로운 윈도우 설정 페이지에서는 노트북의 USB4 기능과 연결된 주변장치의 정보를 알 수 있다. 블루투스 지원 확대 : 윈도우 11은 이제 갤럭시 버드2나 버드2 프로 같은 이어폰에서 지원하는 저전력 오디오 표준인 블루투스 저전력 오디오(Bluetooth Low Energy Audio)를 지원한다. 계정 아이콘 배지 : 시작 메뉴의 계정 아이콘에 작은 느낌표가 나타나면 마이크로소프트 계정 관리에 주의가 필요하다는 뜻이다. 다른 윈도우 기능에 대한 유용한 알림(즉, 광고)과 연결되어 있다. 라이브 자막 언어 확대 : 자막이 없는 콘텐츠에 자막을 자동으로 제공한다. 라이브 자막은 중국어, 다양한 영어 방언, 프랑스어, 독일어, 스페인어 등을 지원한다. 마이크로소프트가 이전 프리뷰에서 공개한 내용을 기반으로 할 때 모먼트 3 릴리즈에서는 다음과 같은 작은 변경도 있을 것으로 보인다. 새로운 프린트 화면 바로가기 : PrtScn 키를 누르면 이제 캡처 도구가 열린다. 원드라이브 저장공간 표시 : 윈도우 11 설정 앱 안의 계정 페이지에서 사용자의 모든 원드라이브 구독 내용에 할당된 저장 공간의 전체 양을 확인할 수 있다. 2FA 복사 : '휴대폰과 연결' 앱으로 PC에 스마트폰을 연결하면 다른 서비스에서 받은 2FA 인증 코드가 자동으로 복사된다. 터치 키보드 옵션 : 새로운 설정 시간 및 언어 입력 터치 키보드 설정에서 터치 키보드를 항상 보이게 할지, 아예 없앨지, 하드웨어 키보드를 연결하지 않았을 때만 보이게 할지 선택할 수 있다. 키보드를 떼었다 붙일 수 있는 서피스 프로 같은 노트북에서 특히 유용하다. 초 시계 : 이제 작업 표시줄 시계 앱에서 초 단위의 시간을 알 수 있다. 검색용 빙 챗 AI 바로가기 : 이제 검색창에 작은 빙 챗 아이콘이 나타난다. 기업 계정으로 로그인할 때는 기업 아이콘으로 바뀐다. 콘텐츠 적응형 밝기 제어 : 콘텐츠 종류에 따라 디스플레이를 밝거나 어둡게 할 수 있다. HDR은 아니지만 유사한 기능이다. 모먼트 3 이외의 새로운 윈도우 11 기능들 마이크로소프트는 빌드 행사에서 모먼트 3 이외의 신규 기능도 공개했지만 출시 시기는 아직 알려지지 않았다. 일부는 윈도우 참가자 프로그램 베타 코드에서 보았거나 앞으로 볼 가능성이 있고, 다른 기능은 모먼트 업데이트를 통해 윈도우 PC에 배포될 것이다. WinRAR 지원 : WinRAR, 7Zip, GZ 같은 압축 포맷 형식이 윈도우에 통합된다는 반가운 소식이 전해졌다. 마이크로소프트는 해당 기능을 빠른 시일 내에 테스트할 것이으로 보이며, 완전한 압축 해제 기능이 윈도우 11에 릴리즈되는 것은 9월쯤으로 예상된다. 2024년에는 RAR, Zip 같은 다른 압축 파일을 생성하는 것도 가능하다. 윈도우 코파일럿 : 빌드 행사에서 큰 주목을 받은 윈도우 코파일럿은 AI 기술을 윈도우로 가져온다. 마이크로소프트는 6월 중 윈도우 코파일럿 출시를 약속했지만, 구체적인 방법은 알려지지 않았다. 윈도우 참가자 프로그램에서 윈도우 코파일럿을 확인할 수 있기를 기대한다. 작업표시줄 앱 그룹 해제 : 윈도우 10에서는 작업표시줄 내 다수 앱에 개별 레이블을 지정해 표시할 수 있다. 윈도우 11도 이 기능을 다시 수용했다. 참가자 프로그램(개발자 채널) 릴리즈에서 이번 주에 공개될 예정이다. 머지않아 전체 공개되기를 기대한다. 작업표시줄 앱 우클릭 : 작업표시줄과 관련한 또 하나의 재미있는 기능이 있다. 마치 작업 관리자에서 하듯이 작업표시줄에서 앱을 우클릭해 진행 중인 작업을 종료할 수 있다. 윈도우 백업 : 마이크로소프트는 참가자 프로그램(개발자 채널)에서 윈도우 백업을 테스트하고 있다. 윈도우 백업은 파일, 폴더(데스크톱에서의 레이아웃 위치까지), 앱과 더 많은 데이터를 클라우드에 저장하고 새로운 PC에서 재설치를 지원하는 기능이다. RGB 조명 제어 : 크리스마스트리처럼 색색의 조명을 달고 작동 중일 때마다 반짝거리는 PC 주변장치를 여럿 소유하고 있다면 축배를 들 만한 소식이다. 최근 마이크로소프트는 RGB 조명을 윈도우에서 제어하는 기능을 추가하고 업계에 표준화된 설정을 제공한다고 밝혔다. editor@itworld.co.kr
PC 사용자에게 가장 인기 있는 웹 브라우저인 크롬은 처음에는 빠르고 반응성 좋은 브라우징 경험을 제공하지만, 시간이 지나면 캐시 파일, 확장 프로그램, 리소스 소비 등의 요인 때문에 느려질 수 있다. 크롬의 성능을 향상시키는 방법은 브라우저 최신 상태 유지, 캐시 삭제, 이용 가능한 특수 기능 활용 등 많다. 크롬 실행 속도를 최대한 빠르게 유지하는 간단한 9가지 방법을 소개한다. 크롬을 항상 업데이트할 것 크롬을 최신 버전으로 업데이트하면 가장 최근의 성능 개선과 버그 수정, 보안 업데이트를 확보할 수 있다. 구글은 브라우저에 업데이트를 자주 제공하므로 항상 최신 상태를 유지하는 것이 중요하다. 업데이트는 브라우저를 닫을 때 백그라운드에서 자동으로 실행되도록 설계되어 있으며, 브라우저를 닫는 일이 거의 없다면 업데이트를 직접 확인해야 한다. 크롬은 업데이트 시간이 되면 브라우저 창 우측 상단 구석에 버튼이 생긴다. 이 버튼을 누르면 업데이트된다. 버튼이 보이지 않는다면 창 우측 상단 구석에서 세로 방향 점 3개 도움말 Chrome 정보를 클릭한다. 그러면 크롬이 업데이트를 확인한 후 설치한다. 다시 시작을 클릭하면 크롬 업데이트가 완료되고 크롬이 닫힌다. 따라서 업데이트 전에는 탭에 미완성 작업이 열려 있지 않은 지 확인해야 한다. 너무 많은 탭을 열지 말 것 브라우저에서 탭을 여러 개 열어 놓으면 메모리가 소비되며, 메모리만큼은 아니지만 CPU도 소비된다. 열어 놓은 탭의 개수가 늘어날수록 컴퓨터 리소스에 대한 수요도 늘어난다. 성능이 저하되고 페이지 로드 시간이 늘어날 수 있다. 시스템이 과부하 상태가 되면 정지 또는 멈춤 현상까지 발생할 수 있다. 미사용 확장 프로그램을 설정 해제할 것 확장 프로그램은 브라우저에 기능을 추가하는 작은 소프트웨어 프로그램이다. 유용하지만 너무 많이 설치하거나 부실하게 최적화된 것을 사용하면 구글 크롬의 성능에 부정적인 영향을 미칠 수 있다. 불필요한 확장 프로그램을 설정 해제하면 브라우저의 성능을 높일 수 있다. 브라우저 확장 프로그램을 설정 해제하는 방법은 간단하다. chrome://extensions 로 들어가 해당 확장 프로그램의 슬라이더를 끔 위치로 밀거나 삭제를 클릭하면 된다. 브라우징 데이터를 삭제할 것 기록, 쿠키, 캐시 파일 등의 브라우징 데이터를 삭제하면 디스크 공간이 확보되고 오래되거나 손상된 파일로 야기된 웹사이트 문제가 해결되므로 성능 향상에 도움이 된다. 시스템 성능뿐 아니라 개인정보보호 및 보안도 향상된다. 일반적으로 쿠키와 캐시 파일은 빠른 접근을 위해 컴퓨터의 RAM에 저장되므로 브라우징 데이터를 삭제하면 RAM 사용량을 줄여 성능이 향상될 수도 있다. 특히 장치의 메모리가 한정적인 경우, 브라우징이 부드러워지고 페이지 로딩 시간도 빨라지는 것이 보통이다. 브라우징 데이터를 삭제하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안을 클릭한 후 각 옵션을 개별적으로 선택하고 데이터를 삭제하면 된다. 웹 페이지 미리 로드를 설정할 것 웹 페이지 미리 로드를 설정하면 웹 페이지에 실제로 도착하기 전에 리소스를 가져와 로드 함으로 성능이 향상된다. 사용자가 링크 위에 커서를 가져가거나 특정 페이지에 방문할 것으로 예측되면 크롬은 해당 페이지를 표시하는 데 필요한 리소스(예 : 이미지, CSS, 자바스크립트 파일)을 가져오기 시작한다. 이 작업은 사용자가 아직 현재 페이지에 있는 동안 배경에서 수행된다. 사용자가 결국 링크를 클릭하는 시점에는 컨텐츠의 많은 부분이 이미 로드 된 상태이므로 페이지의 로드 속도가 더욱 빨라 보인다. 웹 페이지 미리 로드를 설정하는 방법은 세로 방향 점 3개 설정 개인 정보 보호 및 보안 쿠키 및 기타 사이트 데이터를 클릭한 후 빠른 탐색 및 검색을 위해 페이지 미리 로드 옆에 있는 슬라이더를 켬 위치로 밀면 된다. 크롬의 에너지 절약 모드를 사용할 것 크롬의 에너지 절약 모드는 주요 기능이 배터리 지속 시간을 아끼는 것이지만 특정 배경 활동을 제한하는 방식으로 성능도 약간 향상시킨다. 에너지 절약 모드는 배터리 잔량이 20% 이하인 경우에만 사용 설정할 수 있으며, 컴퓨터의 전원이 연결되어 있지 않을 때 사용 설정할 수도 있다. 에너지 절약 모드를 설정하려면 세로 방향 점 3개 설정 성능을 클릭하고 전원 그룹에서 에너지 절약 모드 옆에 있는 슬라이더를 켬 위치로 민 다음 이 기능을 활성화하고자 하는 경우를 선택한다. 하드웨어 가속을 설정할 것 하드웨어 가속을 설정하면 크롬은 하드웨어 가속이 도움이 되는 특정 작업에 컴퓨터의 GPU를 사용한다. GPU는 그래픽 집약적인 작업을 효율적으로 처리하도록 설계되었고 특정 연산을 병렬로 처리할 수 있기 때문에 동영상 재생, 애니메이션, 그래픽 렌더링과 같은 작업에 더욱 적합하다. 이런 작업 중 일부를 CPU에서 GPU로 전가하면 성능이 향상되고 웹 컨텐츠 렌더링이 부드러워지며 시스템 리소스 소비가 줄어든다. 이는 고성능 그래픽 카드가 탑재된 시스템에서나 그래픽 요소가 많은 애플리케이션 및 웹사이트를 사용하는 경우에 특히 유익하다. 하드웨어 가속을 설정하려면 세로 방향 점 3개 설정 시스템을 클릭한 후 가능한 경우 하드웨어 가속 사용 옆에 있는 슬라이더를 켬 위치로 민다. 구글 플래그에서 GPU 래스터화를 설정할 것 래스터화는 벡터 그래픽(예: HTML, CSS, SVG 요소)을 화면에 표시될 수 있는 픽셀로 변환하는 과정이다. 기본적으로 크롬은 래스터화에 CPU를 사용한다. GPU 래스터화를 설정하면 이 작업이 컴퓨터의 GPU로 대신 전가된다. GPU는 CPU보다 그래픽 처리를 더욱 효율적으로 처리하도록 설계되었으므로 특히 고성능 GPU가 탑재된 시스템에서 웹 페이지의 렌더링이 빨라지고 성능이 향상될 수 있다. GPU 래스터화를 설정하는 방법은 chrome://flags로 이동하여 GPU Rasterization(GPU 래스터화)를 검색한 후 항목 옆에서 Enabled(설정)을 선택하면 된다. 이는 실험적인 기능이며 구글 크롬은 이 기능을 테스트 목적으로만 사용함을 분명히 밝히고 있다는 점에 유념해야 한다. 사용할 수 있다고 해서 사용해야 하는 것은 아니다. 위험이 보상보다 클 수도 있다. 또한, 하드웨어 가속을 설정했다면 래스터화도 어차피 설정되어 있다. 구글 크롬 설정을 초기화할 것 크롬을 기본 설정으로 초기화하면 브라우저가 원래 구성으로 복원되고 속도 저하 등의 문제의 원인인 사용자화, 확장 프로그램, 설정이 제거되므로 성능 문제가 해결될 수 있다. 이 방법은 다른 성능 개선 방법을 시도했으나 실패했거나 어떤 구체적인 설정이나 확장 프로그램이 문제의 원인인지 확실하지 않은 경우에 사용하면 좋다. 구글 크롬 설정을 초기화하려면 세로 방향 점 3개 설정 설정 초기화를 클릭하면 나오는 페이지에서 설정을 기본 값으로 복원하는 옵션을 선택하면 된다. 구글은 이미 크롬 속도를 높이고 있다 구글 크롬 112는 이 인기 웹 브라우저의 성능을 상당히 개선했다. innerHTML 파싱을 위한 전문 고속 경로뿐만 아니라 toString() 및 join()와 같은 자바스크립트 함수가 최적화되었다. 이런 기능은 다수의 웹사이트와 웹 앱에 걸쳐 널리 활용되면서 웹 브라우징에 눈에 띄는 차이를 가져왔다. 구글은 이런 개선 덕분에 3개월간 애플의 스피도미터(Speedometer) 2.1 브라우저 벤치마크가 10% 증가했다고 전했다. 크롬을 항상 최신 상태로 유지해야 할 또 하나의 이유다. 구글이 노고를 들여 항상 내놓는 성능 업데이트를 적극 활용하자. editor@itworld.co.kr
‘챗GPT’는 인공지능과 상호작용하는 방식에 혁신을 가져왔다. 고급 자연어 처리 기능을 갖춘 챗GPT는 퀴즈 놀이부터 시 쓰기까지 다양한 작업에 도움을 줄 수 있다. 여기서는 챗GPT를 활용할 수 있는 놀랍도록 재미있고 유용한 10가지 방법을 살펴본다. 재미있는 레시피 만들기 챗GPT가 할 수 있는 흥미로운 일 중 하나는 사용자의 입맛, 재료, 특정 식단 요건에 따라 레시피를 생성하는 것이다. 원하는 요리 종류, 사용하려는 재료, 식이 제한 사항 등 특정 정보를 입력하면 된다. 그러면 챗GPT가 단계별 지침, 재료의 양, 요리 팁이 포함된 레시피를 알려준다. 챗GPT에 위스키를 베이스로 하고 스웨덴 미트볼을 사용한 칵테일을 만들어 달라고 했다. 챗GPT는 파격적인 요청이라는 점을 금방 알아차렸지만 이내 요구사항에 따라 레시피를 제공했다. 칵테일 이름도 ‘스모키 미트볼 즈위즐’이라고 지어줬다(개인적으로는 ‘미트볼 맨해튼’이 더 낫다고 생각한다). 맞춤형 운동 계획 챗GPT는 사용자의 체력 수준, 목표, 사용 가능한 장비, 건강 상태 등에 따라 맞춤화된 운동 계획을 짤 수 있다. 기본 정보, 현재 체력 수준, 운동 경험, 목표, 건강 상태, 장비 사용 가능 여부 등의 정보를 제공하면 된다. 챗GPT에 3개월짜리 운동 계획을 만들어 달라고 했다. 나이, 성별, 몸무게를 입력하고 무릎이 좋지 않다고 언급했다. 또 헬스장 장비를 이용할 수 없고, 7kg가량을 감량하는 것이 목표라고 덧붙였다. 우선 챗GPT는 새로운 운동 계획을 시작하기 전에 의사 또는 개인 트레이너와 상담하고, 부상을 입지 않도록 자세 모니터링이 중요하다고 권고했다. 이어 제공한 정보를 바탕으로 운동 계획을 알려줬다. 어떤 정보를 입력해야 할지 모르겠다면 챗GPT에 가장 정확하고 개인화된 운동 계획을 짜는 데 필요한 정보가 무엇이냐고 물어볼 수도 있다. 퀴즈 게임 다양한 주제에 대한 질문, 답변 또는 흥미로운 사실을 제공해 챗GPT와 퀴즈 게임을 하거나, 퀴즈 게임을 만들어 달라고 할 수 있다. 예를 들어 챗GPT에게 게임하고 싶다고 말한 다음, 주제나 테마를 지정하면 챗GPT가 질문을 던진다. 직접 만든 퀴즈로 챗GPT에 문제를 낼 수도 있다. 챗GPT에게 퀴즈 게임을 하고 싶다고 말한 다음, 양자 물리학에 관련된 5가지 질문을 해달라고 했다. 챗GPT는 답을 입력하면 정답인지 아닌지 알려준다고 말했다. 구글의 도움으로 간신히 5개 퀴즈 중 3개를 맞힐 수 있었다. 가상의 여행 가이드 챗GPT는 다양한 여행지 정보, 추천, 조언을 제공하는 가상의 여행 가이드 역할을 할 수 있다. 한 가지 명심해야 할 점은 챗GPT의 지식은 적어도 현재로서는 2021년까지의 데이터를 기반으로 한다는 것이다. 즉, 신상 레스토랑처럼 최근에 문을 연 곳은 추천할 수 없다. 하지만 방문 장소, 현지 관습, 요리, 기타 여행 관련 주제에 관해 귀중한 인사이트를 얻을 순 있다. 챗GPT에게 대만 타이베이로 여행을 계획 중이라고 하고, 꼭 가봐야 할 명소와 현지인에게 인기 있는 음식을 추천해 달라고 했다. 방문해야 할 장소와 추천 음식 목록은 꽤 정확했지만, 개인적으로는 대만식 오믈렛 단빙이 목록에 포함돼 있지 않아 아쉬웠다. 음악 작곡 챗GPT는 직접 음악을 작곡하거나 오디오 파일을 만들 순 없지만 가사 작성, 코드 진행 제안, 노래 구조 및 편곡 팁 제공 등을 도울 수 있다. 특정 음악 콘셉트 지침을 요청하거나 멜로니 또는 하모니 아이디어를 브레인스토밍할 수도 있다. 챗GPT에게 E플랫 단조로 작곡 중인 재즈에 좋은 코드 진행을 제안해 달라고 했다. 챗GPT는 i – iv – VII7 – III7 – V7 – i(9) 코드 진행을 제안하고, 재즈 곡에 깊이를 더하기 위해 코드 확장, 대체, 변경을 실험해 보라고 권유했다. 명상 및 마음 챙김 연습 명상을 좋아하는 사용자가 있다면 챗GPT가 마음 챙김 운동을 도와줄 수 있다. 예를 들어 5분 동안 마음 챙김 호흡 운동을 하고 싶다고 하면, 챗GPT가 어떻게 해야 하는지 단계별로 자세히 알려준다. 다른 유형의 명상이나 마음 챙김 운동을 하고 싶지만 어떻게 해야 할지 잘 모르겠다면 언제든지 챗GPT에게 제안을 요청할 수도 있다. 이력서 작성하기 시중에 많은 이력서 빌더가 있지만, 이력서를 직접 작성하려고 한다면 챗GPT가 콘텐츠 및 형식 지침, 제안, 팁을 제공할 수 있다. 이력서에 포함하려는 업무 경험, 교육, 스킬, 성과, 기타 세부 정보를 입력하면 된다. 챗GPT로 이력서를 작성하는 것이 다소 불편하다면, 지원 직무에 관한 이력서 템플릿을 제공해 달라고 요청할 수도 있다. 실제로 PC월드에서 기자로 일하고 싶지만 개인정보는 제공하고 싶지 않다고 말했더니 꽤 괜찮은 이력서 템플릿을 만들어줬다. 빈칸을 채우기만 하면 됐다. 개인 스타일리스트 AI가 실제로 사람을 스타일링할 수 있는 수준까지 발전하진 못했지만, 의상 아이디어, 색 조합, 액세서리 등을 제안할 순 있다. 아울러 특정 상황에 맞는 옷차림 팁을 제공할 수도 있다. 선호하는 스타일, 체형, 행사 내용, 기타 특정 요구사항 등 몇 가지 개인 정보를 공유해야 한다. 이를테면 닌텐도를 테마로 한 파티에 갈 예정인데, 닌텐도의 기업 컬러를 반영한 비즈니스 캐주얼 스타일 제안이 필요하다고 챗GPT에 말했다. 매우 상세한 제안을 받았다. 텍스트 기반 RPG 게임 챗GPT는 주어진 프롬프트에 응답하고 시나리오에 따라 선택하며 플레이하는 텍스트 기반 롤플레잉 게임을 만들 수 있다. 게임 설정을 챗GPT에 맡기거나, 직접 자세한 설명을 할 수 있다. 예를 들면 방금 불시착한 외딴 적대 행성을 배경으로 하는 텍스트 기반 롤플레잉 게임을 하고 싶다고 챗GPT에 말했다. 이어 플레이어는 탑승자 중 유일하게 살아남은 사람이고, 이 행성에는 초목과 물이 거의 없으며, 목표는 살아남아 원래 행성으로 돌아가는 것이라고 덧붙였다. 시 쓰기 챗GPT는 다양한 스타일과 테마로 시를 쓸 수 있다. 주제, 스타일, 원하는 분위기 등 시를 작성하는 데 필요한 기본 정보나 관련 있는 정보를 챗GPT에 알려주면 된다. 그러면 해당 정보를 바탕으로 시를 생성한다. 마리오가 젤다를 가논도르프에서 구출하고 피치 공주가 질투를 느껴 루이지와 함께 도망치는 장면에 관한 시를 써달라고 요청했다. 아울러 자유시의 아버지라고 불리는 월트 휘트먼 스타일로 써야 한다고 덧붙였다. 그 결과 환상적인 시가 탄생했고, 이를 다시 하이쿠(일본 정형시)로 바꿔달라고 말했다. 다음 단계는? 챗GPT는 어시스턴트, 엔터테인먼트 또는 창의적인 영감을 원하는 사용자에게 ‘가능성의 세계’를 열어줬다. 레시피와 운동 계획 생성부터 이력서 작성, 시 창작까지 다양한 작업을 처리할 수 있는 다재다능함은 일상을 증강하는 AI의 힘을 보여준다. 기술이 계속 발전하면서 챗GPT와 유사한 AI 모델은 더욱 혁신적으로 응용되리라 예상된다. AI 어시스턴트의 미래는 밝으며, 사람들이 디지털 세상과 상호작용하는 방식을 혁신할 잠재력은 이제 겨우 표면을 드러내기 시작했을 뿐이다. editor@itworld.co.kr
여러 대의 컴퓨터 모니터로 작업하는 데 익숙하다면 노트북만 가지고 출장을 떠나는 것이 힘들 수 있다. 비좁은 노트북 디스플레이 하나만 써야 하기 때문이다. 하지만 다행히도 오래된 아이패드나 안드로이드 태블릿 또는 기타 노트북을 윈도우 PC용 추가 모니터로 활용할 방법이 있다. 심지어 공짜다! 바로 ‘스페이스데스크(Spacedesk)’ 앱을 사용하는 것이다. 물론 유일한 멀티 모니터 소프트웨어는 아니지만 지금까지 본 무료 옵션 가운데 가장 다재다능하다. 윈도우용 스페이스데스크 설치 스페이스데스크는 2가지 부분으로 구성된다. • 스페이스데스크의 드라이버 소프트웨어는 PC의 백그라운드에서 실행돼 다른 화면과 연결된다. 스페이스데스크 웹사이트에서 다운로드해 설치할 수 있다. 스페이스데스크를 실행하려면 방화벽 예외 설정을 해야 한다. 이 옵션은 설치 과정에 포함돼 있다. • 다른 기기에서 스페이스데스크의 뷰어 앱을 실행하면, PC에서 해당 기기를 보조 모니터로 인식한다. 웹 뷰어를 통해 윈도우, iOS, 안드로이드, 아마존 기기 및 기타 모든 기기에서 앱을 사용할 수 있다. 서버 연결은 와이파이를 통해 이뤄진다. 드라이버 소프트웨어를 설치했다면 뷰어 앱을 연다. 예를 들어 PC와 태블릿이 동일한 와이파이 네트워크에 연결돼 있으면 스페이스데스크가 자동으로 태블릿을 감지한다. 태블릿을 선택하고 2번째 화면 모드를 시작할 수 있다. 스페이스데스크 구성 기본적으로 스페이스데스크는 디스플레이 UI를 확대하지 않기 때문에 보조 모니터에서 너무 작게 보일 수 있다. 이 문제를 해결하려면 ‘윈도우 설정 시스템 디스플레이’로 이동해 모니터 목록에서 새 디스플레이를 선택한 다음, 디스플레이 해상도와 배율을 조정하면 된다. 아울러 스페이스데스크 드라이버는 컴퓨터가 부팅될 때마다 항상 실행된다. 변경하고 싶다면 스페이스데스크의 작업 표시줄 아이콘을 마우스 오른쪽 버튼으로 클릭하고, ‘스페이스데스크 드라이버 콘솔’을 선택한 다음 ‘시스템 부팅 시 자동 시작’을 해제한다. 윈도우에서도 모니터를 구성해야 한다. ‘설정 시스템 디스플레이’로 들어가면 모든 화면의 레이아웃이 표시되며, 이를 드래그 앤 드롭해 실제 위치를 반영할 수 있다. 뷰어 앱에서 톱니바퀴 아이콘을 클릭하고 추가 옵션(예: 화면 해상도 및 품질 등)을 설정할 수도 있다. 안타깝게도 스페이스데스크는 안드로이드 기기에서 유선 USB 연결만 지원한다. 아울러 향후 유선 연결 기능이 프리미엄 기능이 될 수 있다고 밝힌 바 있다. 그렇지만 무선 연결 상태에서 스페이스데스크는 이메일을 보내고, 문서를 확인하며, 팀 채팅을 하기에 충분한 성능을 갖췄다. 시스템 오디오와 동기화해 비디오를 재생하는 데도 문제가 없었다. 기타 멀티 모니터 소프트웨어 옵션 스페이스데스크 외에 살펴볼 만한 앱은 다음과 같다. • 루나 디스플레이(Luna Display)는 아이패드나 남는 맥을 보조 모니터로 바꾸는 130달러짜리 동글이다(USBC, HDMI 또는 맥용 디스플레이포트에서 사용 가능). 일반적으로 다른 솔루션에서 흔하게 볼 수 있는 커서 지연 문제가 없다. 그래픽 디자인 또는 세밀한 입력이 중요한 기타 애플리케이션에서 매력적인 대안이다. • 듀엣 디스플레이(Duet Display)는 유선 및 무선 연결을 모두 지원한다. 하지만 연간 25달러의 유료 서비스다. • 삼성 갤럭시 탭 사용자는 삼성의 세컨드 스크린(Second Screen) 앱을 활용해 태블릿을 보조 모니터로 사용할 수 있다. • 맥 사용자는 사이드카(Sidecar) 기능을 통해 아이패드를 보조 모니터로 활용할 수 있다. 제어 센터에서 ‘디스플레이’ 버튼을 누른 다음, 아이패드를 선택해 활성화하면 된다. 또는 녹색 전체 화면 버튼 위에 커서를 놓고 아이패드로 이동하는 옵션도 있다. editor@itworld.co.kr
AI 기반 채팅, 검색 앱이 큰 인기를 끌고 있지만 여기는 작은 문제가 하나 있다. 이런 앱은 브라우저에서 실행되므로 각 사이트로 개별적으로 이동해야 쓸 수 있다. 그런데 이런 번거로움을 피하는 방법이 있다. 즉, 새로운 AI 기반 빙(Bing), ChatGPT, 그리고 마침내 구글의 바드(Bard) 검색 엔진은 모두 윈도우에 앱으로 저장해 필요할 때 호출할 수 있다. 구체적인 방법은 다음과 같다. 일단 웹 사이트는 윈도우 시작 메뉴에 고정되거나 모든 위치에 직접 ‘애플리케이션’으로 저장할 수 있다. 그 결과인 애플리케이션은 여전히 웹 앱이지만 자체적으로 별도 창으로 로드되며, 구석에 두거나 최소화하고 혹은 그렇지 않을 경우 윈도우를 통해 관리할 수 있다. 마이크로소프트 엣지 및 구글 크롬 모두에서 이 작업을 할 수 있다. 이렇게 사용하는 것이 구체적으로 어떻게 다를까? 웹 앱을 시작 메뉴에 고정하면 기본값은 새 브라우저 탭에서 챗GPT 혹은 빙을 여는 것이다. 반면 윈도우에 앱으로 저장하면 탭이나 즐겨찾기 없이 자체 브라우저 창으로 저장된다. 두 가지 모두 웹 페이지를 메인 시작 바로가기 메뉴 내에 저장하지만, 후자만 앱 목록에 배치된다. 이를 빠르게 실행하려면 Win+R 명령을 사용하면 된다. 여기서 살펴볼 더 쉬운 방법은 ChatGPT, 빙 혹은 기타 AI 프로그램을 앱으로 저장하는 것이다. 참고로 여기서 살펴보는 모든 지침은 빙, ChatGPT 혹은 구글 바드도 동일하게 적용된다. 이제 윈도우 내에 ChatGPT 혹은 새로운 빙을 앱으로 저장하는 방법을 살펴보자. 마이크로소프트 엣지 웹 브라우저를 열고 빙닷컴(Bing.com), ChatGPT 혹은 또 다른 사이트로 이동한다 : 이 단계는 구글 및 엣지 모두 동일하게 적용된다. 빙의 경우, https://www.bing.com로, ChatGPT는 https://chat.openai.com/chat으로 이동한다. 구글 바드도 (아직은 서비스 전이지만 서비스를 시작하면) 마찬가지다. 물론 이 모든 것은 사이트가 정상 작동한다는 것을 전제로 한다. 무료 버전 ChatGPT는 때때로 사람이 너무 몰려 접속하지 못할 수 있고, 빙은 사용하기 전 대기자 목록에 가입해야 할 수 있다. 빙 채팅 인터페이스에 액세스하기 위해 작은 채팅 링크를 클릭하거나 위로 스와이프한다 : 앞서 살펴본 첫번째 방법의 ChatGPT 링크를 통해 AI 애플리케이션으로 바로 이동할 수 있다. 빙의 경우 현재로서는 약간의 추가 단계가 필요하다. 마이크로소프트 엣지를 사용해 빙, 챗GPT 혹은 바드를 윈도우 앱으로 저장한다 : 이 방법은 마이크로소프트 엣지에만 적용된다. 추가 옵션을 표시하려면 오른쪽 상단 코너의 줄임표 메뉴(…)를 클릭한 후 앱 항목이 나타날 때까지 메인 메뉴에서 아래로 스크롤한 다음 ‘이 사이트를 앱으로 설치’로 이동한다. 이제 ‘앱’의 이름을 쓰고 작업 표시줄, 시작 메뉴 혹은 모두 중 어디에 저장할지 선택하면 된다. 엣지에서는 저장된 앱이 시작 메뉴에 나타난다 : 저장된 앱이 시작 바로가기 및 앱 드로어(app drawer)에 나타난다. 앱이 바로가기 메뉴 하단에 표시되고 앱 드로어 내에 알파벳 순으로 표시되므로 이를 찾기 위해 아래로 스크롤해야 할 수 있다. 앱 이름을 알고 있으면 윈도우 키 및 앱 이름을 입력하거나 윈도우 + R 바로가기를 사용해 빠른 실행 창을 열면 언제든지 빠르게 사용할 수 있다. 채팅 창 내에 앱을 저장하더라도 앱이 기본 빙 검색창에 기본 저장돼 있을 것이다. 그러면 빙 혹은 ChatGPT가 앱으로 나타난다. 여기서 ChatGPT 경우와 같이 마이크로소프트 엣지의 시작 메뉴에 앱을 고정할 수도 있다 : 오른쪽 상단의 줄임표 메뉴(…)로 다시 이동한 다음 아래로 스크롤해 ‘더 많은 툴(More Tools) 시작메뉴에 고정(Pin to Start)’으로 이동한다. 이는 사용해야 할 때 바로가기에서 ChatGPT, 빙 혹은 바드를 제외하면 된다는 의미다. 챗GPT 혹은 빙을 크롬 내 ‘바로가기’로 저장하기 : 크롬은 사용자가 앱에 대한 ‘바로가기’를 생성할 수 있도록 지원한다. 별도의 창을 만들 것인지도 선택할 수 있다. 기본값은 클릭 시 열리는 추가 탭으로 바로가기를 저장하는 것이다. 바로가기를 별도의 창으로도 저장할 수 있는데, 이는 바로가기를 앱으로 저장한다는 의미다. 두 경우 모두 바로가기는 시작 바로가기 메뉴에 저장되지만 윈도우 앱 목록에는 저장되지 않는다. editor@itworld.co.kr
2023년이 막 시작됐지만, IT 업계에는 이미 ‘스타’가 등장했다. 바로 ChatGPT이다. 대학과 각급 학교는 이미 ChatGPT를 금지했는데, 학생의 창의성과 개인 성취를 저해할 우려가 있기 때문이다. 하지만 ChatGPT와 이를 개발하는 오픈AI는 투자자의 상상력을 자극하기에 충분하다. 마이크로소프트는 오픈AI에 100억 달러를 투자하겠다고 했으며, 벤처 캐피탈인 쓰라이브 캐피탈과 파운더스 펀드도 3억 달러 규모의 지분에 관심을 보였다. 두 벤처 캐피탈은 이미 에어비앤비, 스포티파이, 리프트 등에 투자한 곳이다. 하지만 과연 ChatGPT란 무엇인가? CNET에서 사용하고 있는 편집자 보조 AI 같은 것인가? 아니면 값비싼 과외교사를 대신할 현대적인 숙제 도우미일 뿐인가? 아니면 고객 서비스를 자동화할 현대적인 기업용 챗봇인가? 이런 질문에 ChatGPT 자신보다 더 잘 대답할 수 있는 사람은 없을 것이다. 그래서 ChatGPT의 정체에 관해 ChatGPT를 인터뷰했다. 다음의 인터뷰 내용은 AI 스스로 자신을 설명하도록 하려는 시도이다. 인간 대담자와의 인터뷰처럼 COMPUTERWOCHE는 일부 답변을 짧게 줄이고 매끄럽게 편집했다. 하지만 ChatGPT가 대답한 내용은 임의로 수정하지 않았다. COMPUTERWOCHE : ChatGPT를 둘러싸고 과장된 소문이 많이 돌고 있다. ChatGPT란 정확하게 무엇인가? ChatGPT : ChatGPT는 자연어에 특화된 언어 모델이다. 트랜스포머(Transformer) 기술과 어텐션(Attention) 메커니즘을 기반으로 구축한 첨단 인공지능 모델이다. ChatGPT는 인터넷으로 수집한 대규모 텍스트 데이터로 훈련했으며, 텍스트 생성이나 텍스트 요약, 텍스트 완성, 텍스트 분류 같은 다양한 자연어 처리 작업을 수행할 수 있다. 또한 질의응답 시스템이기도 하다. 고객 서비스나 마케팅, 교육, 재무 등 많은 산업군과 애플리케이션에서 ChatGPT를 활용할 수 있다. 나는 자연어 처리 작업에서 매우 높은 성능을 시연해 보였으며, 특히 대화 시스템을 자동화하는 데 잘 맞는다. COMPUTERWOCHE : 학습은 ChatGPT에 어떻게 적용되는가? ChatGPT : 나는 트랜스포머 모델을 기반으로 하는데, 이 모델은 어텐션 메커니즘의 기술을 기반으로 한다. 이 메커니즘은 AI 모델이 입력된 텍스트의 특정 부분에 주의를 기울이고, 이를 출력 텍스트를 생성할 때 반영한다. 학습할 때 모델은 대량의 텍스트 데이터로 훈련을 받고, 이들 데이터의 패턴과 관계를 인식하고자 한다. 모델은 주어진 입력 텍스트와 이에 대응하는 출력 텍스트로 훈련한다. 목표는 가능한 한 출력 텍스트를 생성하는 것이다. 이를 위해 ‘마스크드 언어 모델링(Masked Language Modeling)’이란 프로세스를 사용하는데, 출력 텍스트의 일부 단어가 일시적으로 "마스킹"되고 모델이 해당 단어를 예측하려고 시도한다. 그런 다음 모델을 예측 결과와 비교하고 예측과 실제 출력 텍스트 간의 불일치를 사용해 모델의 뉴런 가중치를 조정해 다음에는 예측 결과가 개선되도록 한다. 이 프로세스는 모델이 텍스트 생성에서 높은 정확도를 달성할 때까지 반복된다. COMPUTERWOCHE : 개발 기간은 얼마나 걸렸는가? ChatGPT : 나를 개발하는 데 얼마나 많은 시간이 걸렸는지는 정확하게 모른다. 하지만 ChatGPT 같은 대형 언어 모델을 개발하는 것은 복잡하고 힘든 과정으로, 보통 수개 월 또는 수년이 걸린다는 점에 유의해야 한다. 이런 모델을 개발하려면, 학습을 위해 대량의 텍스트를 사용하고 머신러닝이나 인공지능 같은 고급 기술을 적용해야 한다. 또한 ChatGPT 개발이 일회성 프로세스가 아니라 최신 지식과 기술을 개선하고 조정하는 지속적인 프로세스라는 점도 고려해야 한다. COMPUTERWOCHE : ChatGPT는 누가 만들었는가? ChatGPT : 나는 오픈AI의 제품이다. 영리 AI 연구 개발 회사인 오픈AI는 2015년 일론 머스크, 샘 알트만, 그렉 브록만, 일리야 서츠케버, 보치엑 자렘바가 설립했다. 현재 다수의 투자자가 참여하고 있는데, 피터 틸, 코슬라 벤처스, 앤드리슨 호로위츠 등 잘 알려진 곳도 포함되어 있다. COMPUTERWOCHE : 수익은 어떻게 내는가? ChatGPT : 말한 대로 나는 오픈AI가 개발하고 운영한다. 오픈AI는 주로 이 기술을 API 호출과 라이선스 방식으로 사용하는 기업과 개발자로부터 수익을 낸다. 여기에 더해 오픈AI는 ChatGPT에 관한 조언과 훈련도 제공한다. COMPUTERWOCHE : 일부 보도처럼 ChatGPT는 조만간 유료화되는가? ChatGPT : 오픈AI가 나를 유료화할 계획에 관한 정보는 나에게 없다. 하지만 오픈AI는 앞으로 자사의 모델을 상용화해 수익화하겠다고 발표한 바 있다. 언제 유료화할지는 확실하지 않다. 유료화에 관해서는 오픈AI 공식 웹 사이트를 방문할 것을 추천한다. COMPUTERWOCHE : 텍스트에서 편향성은 어떻게 피하는가? ChatGPT : 나를 포함해 어떤 모델이라도 편향될 수 있다는 것을 유념해야 한다. 따라서 모델을 훈련하는 데 사용되는 데이터가 대표적이고 가능한 한 편견이 없는 것이 중요하다. 또한 편향을 방지하기 위해 훈련 과정 중에 편향 보정 기술을 적용해야 하고, 작동 중에도 모델을 모니터링하고 편향성이 발견되면 수정해야 한다. COMPUTERWOCHE : 어떤 데이터로 훈련을 받았는가? ChatGPT : 인터넷에서 수집한 대량의 텍스트 데이터로 훈련을 받았다. 이 데이터에는 기사, 블로그 게시물, 책, 뉴스, 소셜 미디어 게시물 등 다양한 텍스트가 포함되어 있으며, 모델이 자연어를 이해하고 생성할 수 있도록 훈련하는 데 사용됐다. 많은 양의 데이터로 훈련했기 때문에 다양한 상황에서 언어가 어떻게 사용되는지, 인간 언어의 다양성을 어떻게 매핑하는지 배울 수 있었다. COMPUTERWOCHE : 다른 언어 모델과의 차이점은 무엇인가? ChatGPT : 나는 현재 이용할 수 있는 가장 강력한 첨단 음성 모델 중 하나이다. 다른 언어 모델과 차별화되는 요소는 다음과 같다. 크기와 깊이. 나는 1,750억 개의 뉴런으로 구성된 매우 큰 네트워크 아키텍처를 사용한다. 이를 기반으로 매우 복잡한 패턴을 자연어로 인식하고 생성한다. 어텐션 메커니즘. 여기에 더해 나는 어텐션 메커니즘을 사용한다. 이 방법론은 입력 텍스트의 특정 부분에 주의를 집중하고, 해당 부분을 출력 텍스트를 생성할 때 반영하도록 해준다. 사전 훈련. 나는 방대한 양의 데이터로 사전 훈련을 받았다. 이를 통해 자연어 처리에서 매우 높은 성능을 낼 수 있다. 유연성. 나는 다양한 자연어 처리 작업에 사용할 수 있는데, 텍스트 생성, 텍스트 요약, 텍스트 이해, 질의응답 시스템 등이다. 이런 요소가 나를 현재 이용할 수 있는 가장 강력한 첨단 언어 모델 중 하나로 만들었다. COMPUTERWOCHE : ChatGPT는 어떤 용도로 활용할 수 있는가? ChatGPT : 나는 자연어를 생성하고 이해하고 번역하는 데 사용할 수 있다. 적용 분야는 다음과 같다. 챗봇. 챗봇이 더 자연스럽게 말할 수 있도록 대화 기술을 개선할 수 있다. 자동 텍스트 작문. 뉴스나 설명문, 기사 등의 텍스트를 자동으로 생성할 수 있다. 텍스트 생성. 특정 양식이나 어조의 텍스트를 생성하는 데 이용할 수 있다. 텍스트 요약. 긴 텍스트를 자동으로 요약하는 데 사용할 수 있다. 텍스트 완성. 필요하다면 텍스트를 자동으로 완성하는 데 사용할 수 있다. 번역. 더 나아가 텍스트를 다른 언어로 번역할 수 있다. 나를 활용할 수 있는 분야는 이보다 더 많으며, 기술이 발전하면서 활용 분야는 더 늘어날 것이다. COMPUTERWOCHE : 프로그래밍도 할 수 있는가? ChatGPT : 나는 주로 자연어 처리 훈련을 받았고 구체적으로 코딩용으로 설계된 것은 아니다. 하지만 적절한 데이터로 훈련을 받으면 코드를 생성하거나 완성할 수 있다. 예를 들어, 챗봇 개발에 나를 사용할 수 있다. 하지만 프로그램에 특화되어 설계한 모델의 결과만큼 믿을 만하거나 효율적이지 않을 수 있다. COMPUTERWOCHE : ChatGPT를 비판적으로 보는 사람이 많은가? ChatGPT : 일부 사람들이 대규모 언어 모델 사용에 비판적인 데는 몇 가지 이유가 있다. 사무직 같은 특정 업무가 자동화되어 일자리를 잃을 수도 있다는 불안감을 예로 들 수 있다. 또한 모델을 훈련하는 데 대량의 데이터가 필요하기 때문에 데이터 보호와 프라이버시 우려도 있다. 모델을 훈련하는 데 사용하는 데이터가 항상 안전하고 은밀하지 않을 수 있다는 우려도 있다. 윤리적인 우려도 있는데, 우리가 가짜 뉴스나 선전선동, 기타 조작된 콘텐츠를 만드는 데 이용될 수도 있다는 것이다. 마지막으로 편향성에 대한 우려도 있는데, 이는 앞서 이야기한 주제이다. 하지만 데이터 보안과 프라이버시, 그리고 AI의 윤리성 검증을 강조하는 것은 중요한 일이다. COMPUTERWOCHE : 또 하나의 우려는 ChatGPT와 다른 언어 모델이 저작권을 존중하지 않는다는 것이다. 저작권을 지키고 있는가? ChatGPT : 우리는 특정 규칙과 알고리즘으로 프로그래밍된 컴퓨터 기반의 시스템일 뿐이다. 따라서 우리는 저작권이나 기타 법률을 준수해야 할 어떤 법적 도덕적 책임도 없다. 저작권 보호는 우리를 사용하는 기업과 개발자가 해야 할 일이다. 사용자는 관련 법률과 규제를 준수해야만 한다. 나를 사용하는 기업이 관련 저작권과 기타 지적재산권 법률에 따라 행동하도록 하는 것이 중요하다. COMPUTERWOCHE : ChatGPT가 생성한 텍스트의 저작권은 누구에게 속하는가? 내가 생성한 텍스트의 저작권은 복잡할 수 있으며, 여러 가지 요소에 따라 달라진다. 일부 국가에서는 AI를 자동화된 저작 툴로 간주하기 때문에 저자의 권리는 없고 저작권은 AI 시스템의 개발자가 갖는다. 어떤 국가에서는 저작권이 텍스트의 저자에게 있으며, AI 시스템이 생성한 텍스트라도 마찬가지이다. 저작권과 관련해서는 법적 지위도 중요한데, 많은 국가에서 AI의 법적 지위가 분명하지 않다. 따라서 저작권과 AI에 관한 문제를 확실히 하고 싶다면, 변호사에게 조언을 구하는 것이 좋다. editor@itworld.co.kr
네트워크 엔지니어의 업무는 갈수록 복잡해진다. 핵심 애플리케이션은 더 많은 대역폭을 놓고 싸우고, IoT로 인해 기기 수는 폭발적으로 증가한다. 네트워크 자체도 클라우드와 엣지, 홈 오피스로 확장 중이다. 사이버 보안 문제에도 신경 써야 한다. 공격이 전반적으로 증가하고 공격자는 끊임없이 취약점이나 백도어를 찾고 있다. 사이버 보안을 위한 조기 경보 시스템으로써 견고하고 안전한 네트워킹의 필요성은 더 커졌다. 다행히 네트워크 엔지니어가 끝없이 밀려드는 작업을 처리할 수 있게 도와주는 유용한 툴이 많다. 게다가 상당수가 무료다. 비용 부담이 없으면서 유용하기도 한 12가지 네트워크 툴을 소개한다. 1. 와이어샤크 : 패킷 분석기 와이어샤크(Wireshark) 분석 툴은 무료 오픈소스 프로그램으로 네트워크를 통과하는 데이터 패킷을 캡처하고 분석하는 데 주로 쓰인다. 와이어샤크는 1998년 제럴드 콤이 만들었지만 지금도 처음 만들어졌을 당시와 마찬가지로 유용하다. 네트워크 엔지니어는 와이어샤크를 통해 네트워크 인터페이스 컨트롤러(NIC)를 무차별 모드로 설정해서 대부분의 트래픽, 컨트롤러의 MAC 주소로 전송되지 않은 유니캐스트 트래픽까지 관측할 수 있다. 와이어샤크의 모든 버전과 소스 코드는 완전한 오픈소스이며 무료로 다운로드할 수 있다. 2. N맵 : 네트워크 매핑 네트워크 매핑의 줄임말인 N맵(Nmap)은 취약점 확인, 포트 스캔, 네트워크 매핑에 사용되는 오픈소스 툴이다. 다른 프로그램이 놓친, 네트워크 내의 숨겨진 취약점까지 종종 찾는 강력한 툴로, 최초 개발자인 고든 라이온을 포함한 대규모 커뮤니티의 지원을 받는다. N맵 유지 관리 커뮤니티에 따르면 매주 다운로드 횟수는 수천 회에 이른다. 누구나 무료로 다운로드할 수 있으며 윈도우, 맥, 리눅스용이 있다. 3. 인펙션 몽키 : 침투 테스트 인펙션 몽키(Infection Monkey)는 네트워크의 규모와 관계없이 작동하도록 설계된 지속적 침투 테스트 툴이다. 많은 고급 익스플로잇이 포함돼 있으며 약한 암호와 같은 흔한 보안 실수를 점검하는 기능도 제공한다. 일반적인 사이버 보안 문제를 추적하는 용도로 사용할 수 있으며 최근에는 엔터프라이즈에서 제로 트러스트 네트워킹을 사용하는 경우 올바르게 구성되었는지 검사하는 기능도 추가됐다. 인펙션 몽키 프로그램은 무료로 다운로드할 수 있고, 소스 코드는 깃허브에서 받을 수 있다. 누구나 자신의 목적에 맞게 자유롭게 코드를 수정할 수 있다. 4. iperf : 네트워크 연결 테스트 iperf 툴은 기업의 전체 네트워크 연결을 측정하고 테스트한다. 클라이언트 또는 서버로 작동할 수 있으며 데이터 스트림을 생성해 두 지점 간의 처리량을 테스트한다. 데이터 스트림은 전송 제어 프로토콜(TCP) 또는 사용자 데이터그램 프로토콜(UDP)로 생성된다. 무료로 다운로드할 수 있고 소스 코드도 공개돼 있다. 리눅스, 유닉스, 윈도우 네트워크에서 작동한다. 5. fprobe : 성능 테스트 fprobe 툴은 일반적으로 네트워크의 특정 지점에 위치해 그 지점을 지나 이동하는 트래픽에 대한 데이터를 기록한다. 대역폭을 과도하게 점유하는 기능, 또는 네트워크에서 허용되지 않는 트래픽을 생성하거나 기능을 수행하는 섀도 IT를 찾는 데도 유용하다. 6. 칵티 : 시각화 툴 칵티(Cacti) 툴은 2001년 이안 베리가 시작한 더 하기 프로젝트(The Cacti Project)의 일부로 탄생했다. 주 기능은 2가지다. 첫째, 완전히 분산된 내결함성 데이터 수집 프레임워크를 제공한다. 그러나 이 툴이 유명한 이유는 그래프 구성요소에 있다. 복잡한 데이터 집합을 시각화해 트래픽 스파이크부터 냉각 팬이 가장 높은 속도로 작동한 시간에 이르기까지 온갖 트래픽 정보를 보여준다. 칵티는 네트워크 모니터링 툴, 또는 다른 툴의 데이터에 대한 그래픽 인터페이스를 제공하는 보조 툴로 모두 사용할 수 있다. 7. 스노트 : 침입 차단 스노트(Snort)는 잘 알려진 무료 네트워킹 툴 중 하나다. 1998년 마틴 로슈가 만들었고 이후 시스코가 개발을 이어받았다. 스노트는 사용자가 규칙을 사용해 악성 네트워크 활동을 정의할 수 있는 침입 차단 시스템(IPS)이다. 이렇게 만들어진 규칙을 사용해 정의와 일치하는 패킷을 찾고, 발견 시 경보를 생성한다. 현재 버전 3에 이른 스노트는 악성 패킷을 차단하는 데도 사용할 수 있으며 추가된 자동화 구성요소는 무료 툴로서는 상당한 고급 기능이다. 8. 에어크랙ng : 무선 네트워크 요즘 기술자는 유선 네트워크 외에 무선 네트워크의 정상 작동도 살펴야 한다. 에어크랙ng(Aircrackng)는 바로 이 부분에 도움이 되는 툴이다. 802.11 무선 LAN을 위한 무선 감지기, 패킷 스니퍼, WEP 및 WPA/WPA2PSK 크래커와 분석 툴을 모아 놓은 일종의 툴 묶음이다. 인근에서 어떤 무선 네트워크가 작동 중인지, 누가 그 네트워크를 사용 중인지, 얼마나 잘 보호되고 있는지를 감지하는 데 사용한다. 무료로 다운로드 가능하다. 9. 오픈NMS : 네트워크 모니터링 오픈NMS(OpenNMS)는 네트워크 엔지니어가 기업의 로컬 및 분산 네트워크를 시각화하고 모니터링할 수 있는 오픈소스 네트워크 모니터링 플랫폼이다. 오픈NMS는 종합적인 결함, 성능, 트래픽 모니터링 및 알림 생성 기능을 제공한다. 또한 폭넓은 맞춤 구성과 확장이 가능하다. 플랫폼에는 두 가지 버전이 있다. 메리디안(Meridian)은 유료 제품으로 툴 구성과 실행에 도움을 주는 구독 서비스가 함께 제공되며 호라이즌(Horizon)은 무료 커뮤니티 기반 플랫폼으로 누구나 다운로드해서 사용할 수 있다. 호라이즌에는 유료 플랫폼의 모든 기능이 있지만 사용자가 자신의 네트워크 내에서 작동하도록 직접 구성해 사용해야 한다. 10. 스모크핑 : 지연 측정 스모크핑(SmokePing)은 네트워크 지연과 패킷 손실을 측정하는 흥미로운 툴이다. 일정 간격으로 핑을 보내 응답 시간을 기록한 다음 지연 패턴을 인터랙티브 그래프로 표시한다. 사용자는 그래프에서 원하는 부분을 클릭해 그 시점에 일어난 일에 대한 정보를 얻을 수 있다. 네트워크에 간헐적으로 문제가 발생하지만 정확한 시점이나 이유를 모르는 경우 이 기능이 도움이 된다. 무료로 다운로드할 수 있다. 11. 디봇 : 슬랙 앱 모니터링 많은 네트워크 엔지니어가 슬랙을 사용해 서로 소통하거나 사용자와 관리자로부터 요청과 지시를 받는다. 슬랙은 특히 기술 분야에서 현재 가장 인기 있는 인스턴트 커뮤니케이션 플랫폼이다. 그러나 슬랙 자체가 취약점이 되지 않도록 하는 것이 중요하다. 일종의 봇인 디봇(DBOT)은 슬랙 환경 내의 모든 URL, 파일, IP 주소를 스캔하면서 악성 콘텐츠를 찾는다. 이 과정에서 악성코드로 알려진 IP로부터 파일이 전송되는 등의 상황을 발견하면 사용자에게 직접 알린다. 무료 오픈소스 툴이며, 모든 슬랙 환경에 신속하게 추가해 부가적인 보호 계층을 제공한다. 12. 센징 : 데이터 매칭 센징(Senzing) 툴은 네트워킹과 보안 측면에서는 부수적이라고 할 수 있지만 특정 상황에서는 꽤 유용하다. 센징은 서로 다른 데이터베이스 간의 유사성과 관계를 찾는다. 사이버 보안 용도로 사용할 경우 네트워크에서 노출되지 말아야 할 개인 정보를 찾거나, 여러 곳에 흩어진 개별적인 정보 조각을 연결해 같은 사용자가 소유한 여러 개의 계정을 발견할 수도 있다. 센징은 대부분의 주요 플랫폼을 위한 API로 배포되며 최대 10만 개 레코드까지는 무료로 분석할 수 있다. 그 이후에는 비용을 내고 더 많은 레코드를 분석할 수 있다. editor@itworld.co.kr
클라우드에서도 생성형 AI 열풍이 거세다. 빅3 클라우드 모두 새로운 매출원으로 생성형 AI를 내세우면서 그렇지 않아도 계속 증가하는 기업의 클라우드 관련 지출이 점점 더 커지고 있다. 문제는 클라우드가 예전처럼 마냥 저렴하지 않다는 것. IT 하드웨어 비용이 저렴해지면서 온프레미스로 애플리케이션과 데이터를 ‘송환’하는 일이 심심치 않게 벌어지고 있다. 그렇다고 클라우드를 사용하지 않을 수는 없다. ‘클라우드 스마트’ 전략이 필요한 시점, 전문가들은 적절한 통제와 올바른 핀옵스 프로그램, 그리고 적극적인 비용 최적화를 해법으로 제시한다.
PC 경험을 완성하는 것은 다채로운 색상을 사실적으로 재현하고 무한한 스크롤을 부드럽게 유영하는 느낌을 선사하는 모니터도, 어떤 작업이든 닥치는 대로 처리하는 고성능 그래픽카드도, AI를 통해 생산성을 몰라보게 개선하는 OS도 아니다. 사용자와 물리적인 상호작용이 가장 많은, 미세한 피드백까지 손끝으로 느낄 수 있는 키보드다. 자신에게 잘 맞는 키보드를 선택하면 일을 하든 게임을 하든 손의 피로도를 줄일 수 있을 뿐 아니라 눈과 귀도 즐겁다. 인체공학 키보드부터 다양한 기계식 키보드까지 완벽한 PC 경험을 선사할 리뷰 기사를 모았다.
규제와 기술 발전의 간극을 메우기 위해 다양한 시도가 이루어지고 있다. 최근 거의 대부분의 AI 기업이 저작권 소송에 휘말린 것은 AI가 동의나 권한 없이 개인의 저작물, 예술작품을 학습 데이터로 사용하는 일이 비일비재하게 벌어졌기 때문이다. 동시에 AI가 작품을 학습할 수 없도록 훈련 데이터에 독을 푸는 데이터 포이즈닝 기술이 대두되고, 나이트셰이드 같은 구체적인 도구가 대안으로 발표됐다. 모델 학습 데이터를 오염시키는 기술이 정당할까? 거대 IT 기업이 AI 학습 과정에서 지켜야 할 '선'이 마련될 때까지는 필요악일지 모른다.
메타가 AR/VR 신제품 퀘스트 3 판매를 시작했다. 전작 대비 해상도와 주사율을 개선했고 그래픽 성능을 2배 이상 끌어 올렸다. 특히 풀컬러 패스스루를 지원해 더 정교한 MR을 구현했다. 현재 AR/VR 활용 분야는 엔터테인먼트에 집중돼 있지만 확장 가능성은 무궁무진하다. 3D 모델링 등 산업용으로 다양한 도입사례가 있고, 일반적인 협업이나 교육은 물론 불안 장애 치료 등 의학용으로도 활용되고 있다. 반면 경기 침체와 신제품 출시 부족 등으로 올 2분기 AR/VR 기기 판매량이 감소했다. 게임과 애플리케이션, 영상, 기기 등 AR/VR 생태계는 여전히 빈약하다. 그러나 일부 어려움에도 AR/VR 유행은 당분간 계속될 전망이다. 무엇보다 내년 초에 사양(4K)과 가격(500만 원) 모두 '끝판왕'인 애플 비전 프로가 나온다. 애플은 개발자 랩을 오픈하는 등 본격적인 생태계 구축에 나서고 있다. AR/VR 분야가 점점 더 흥미로워지고 있다.
마이크로소프트가 윈도우, 서피스, 오피스를 통해 ‘AI’에 올인하고 있다. 윈도우 AI 기능을 지원할 칩까지 출시된다. 앞으로 윈도우는 한 문장의 요청만으로도 PC 설정을 변경하며, 엑셀 파일의 데이터에서 명시적으로 알 수 없는 정보를 알아낸다. 단순 작업만 수행하던 기본 앱은 유료 앱 못지않은 AI 기능을 제공한다. 하지만 아직은 마이크로소프트의 원대한 포부에 불과하다. 현재로서 코파일럿이 수행하는 작업은 극히 제한적이며, 결과물의 정확도를 확인하려면 여전히 사람의 손길이 필요하다. “윈도우 PC의 AI 시대 개막”이라는 표현은 시기상조일지도 모른다.
2022년 말부터 시작해 전 세계를 뜨겁게 달군 ‘생성형 AI’ 광풍이 잦아드는 모양새다. 많은 기업이 다양한 생성형 AI 서비스를 쏟아내고 있지만, 이렇다 할 ‘한 방’은 내놓지 못하고 있다. 생성형 AI의 대표 격인 챗GPT 사용량도 감소했다. 6월 기준 챗GPT 트래픽(웹/모바일)은 전월 대비 9.7% 하락했으며, 순 방문자 수와 체류 시간도 각각 5.7%, 8.5% 감소했다. 많은 사람에게 AI의 매력이 사라지고 환멸이 확산되고 있다고 보는 전문가가 적지 않다. 챗GPT가 종종 신뢰할 수 없는 답변을 하는 것도 관심 하락에 한몫하는 것으로 보인다. 삼성의 정보 유출 사례에서 드러난 것처럼 민감한 기업 정보가 노출될 수 있다는 위험 때문에 사내 챗GPT 사용을 금지한 기업도 많다. 파괴적인 기술의 등장 자체에 열광했던 것에서 벗어나 신뢰성, 안정성, 실질적인 쓰임새 등을 따지기 시작하면서 이제 정책, 관리 방침, 보안, 환각 및 편향성 문제 해결 등이 쟁점으로 떠오르고 있다.
애플이 아이폰 15를 공개하는 행사가 10일 앞으로 다가왔다. 아이폰 15 출시와 함께 차세대 운영체제 iOS 17도 정식 배포된다. 지난 6월 WWDC 2023에서 소개된 iOS 17은 이전보다 훨씬 직관적이고 개인화된 경험을 제공하는 새로운 기능으로 큰 기대감을 모았다. iOS뿐 아니라 맥OS 14 소노마(Sonoma)와 아이패드OS 17에서도 배경화면/잠금화면 위젯과 생산성이 개선된 기본 앱 등을 통해 변화를 확실하게 체감할 수 있다. 올 하반기 새롭게 달라지는 애플 생태계가 낯설게 느껴지지 않도록 미리 살펴보면 좋을 기사를 모았다.
"사용하기 쉽고 보기에도 아름다운"이라는 설명에 어울리는 언어, 파이썬이 AI 열풍을 등에 업고 여전히 인기 가도를 달리고 있다. 읽기 쉽고, 오픈소스이며 확장 가능하고, 광범위한 표준 라이브러리가 있는 크로스 플랫폼 언어인 파이썬은 웹 개발부터 AI/ML까지 거의 모든 용도로 사용할 수 있다. 최근에는 엑셀 내 셀에 직접 입력할 수 있도록 마이크로소프트의 지원이 시작됐다. 간결한 코드로 개발자는 일관적이고 안정적인 시스템을 만들 수 있고, 기계 학습 작업에 필요한 강력한 알고리즘과 프레임워크를 만들 수 있다. 23년 상반기 파이썬의 기술적 진전과 변화, 그리고 다양한 관련 도구를 살펴 보자.
역대 가장 성공적인 선거 캐치프레이즈 중 하나가 '저녁이 있는 삶'이다. 해당 후보는 낙선했지만, 이 구호는 워라밸의 지향점으로 아직도 쓰이고 있다. 최근 워라벨의 맥락에서 '주 4일 근무'에 대한 논의가 활발하다. 영국, 미국 등에서 대규모 실험이 진행됐고, 긍정적인 평가와 일부 부정적인 평가가 나왔다. 반면 우리나라는 세계적인 흐름과 반대로 달리고 있다. 정부는 지난 3월 주 (최대) 69시간 근무제를 추진했다가 거센 반발에 직면한 바 있다. 참고할 만한 주 4일제 관련 기사를 모았다.
산업을 불문하고 많은 기업이 AI 프로젝트를 시작하고 있지만, 모든 AI 프로젝트가 성공하는 것은 아니다. 실패의 원인은 미흡한 도입 전략 및 운영 체계, 이해관계자 간 합의 실패, AI에 대한 잘못된 인식 등 다양하고 복합적이다. AI를 성공적으로 도입하고자 하는 기업은 ‘AI는 만능’이라는 잘못된 인식에서 벗어나 어떤 문제에 AI가 필요한지, 어떤 모델이 적합한지 따지고 그에 맞게 기술과 데이터를 다룰 수 있어야 한다. AI 프로젝트를 시작하기 전 참고하면 좋을 기사를 모았다.
앤커의 200달러짜리 사운드코어 모션 X600(Motion X600)가 TechHive 에디터들에게 좋은 평가를 받은 후, 필자는 이보다 조금 더 작은 제품인 모션 X500(Motion X500)에 큰 기대를 걸었다. 실망하는 일은 없었다. 처음 본 순간부터 마음에 들었고 손잡이를 잡고 집어 들었을 때도, 음악을 재생할 때도 만족스러웠다. 만듦새 및 세부사양 사운드코어 모션 X500은 ACC, LDAC, SBC 코덱을 지원하는 블루투스 5.3 스피커다. 크기는 약 6.75×6.5×3인치(H×W×D)다. 고정식 금속 손잡이는 X600보다 높이가 2인치, 너비가 0.5인치 길어졌다. 손잡이를 포함한 제품 전체의 무게는 4파운드 정도로 다소 무겁지만, 간편하게 휴대할 수 있다. 손잡이가 제어 버튼을 어느 정도 보호해주기 때문에 백팩에 넣기에도 좋다. 스피커 위쪽 면에는 제어 버튼과 단일 1.7인치 업파이어링(up-firing) 드라이버가 있다. 업파이어링 드라이버는 2개의 2.3인치 전방 발사형 풀레인지 드라이버를 보강해 입체 음향을 구현하는 데 도움을 주는 것으로 보인다. 제어 버튼은 전원/배터리 상태, 블루투스 페어링, 오디오 모드, 불륨 줄이기/이전 곡, 재생/일시 정지, 불륨 높이기/다음 곡 6개로 구성되어 있다. 앤커는 스피커 상단에 불이 들어오면 ‘색이 바뀐다’고 주장하지만, 실제로는 사용 중인 사운드/EQ 모드에 따라 푸르스름한 흰색 음영으로 바뀌는 것이 전부였다. 사운드코어 모션 X500의 방수 등급은 IPX7로, 실리콘 플러그가 USB-C 충전 포트를 덮고 있을 때 최대 1m 수심에서 30분 동안 견딜 수 있다. 사운드코어 모션 X500은 3.5mm 잭을 통한 유선 연결을 지원하지 않아 블루투스로만 사용할 수 있다. 하지만 꼭 필요하다면 아날로그-블루투스 어댑터를 사용하는 방법도 있다. 음질 지금까지 여러 블루투스 스피커를 테스트하면서 AC/DC의 ‘Thunderstruck’을 수천 번도 더 재생했지만, 공간 다이내믹(Spatial Dynamic) 모드에서 이 곡을 재생하니 다시 한번 흥이 올랐다. 쿵쿵거리며 불륨감 넘치는 훌륭한 소리가 큰 역할을 했다. 저음도 단단하고 밋밋하지 않았다. 필자의 취향에 딱 맞는 소리였다. 고음도 밝고 활기찬 느낌이었고 중음도 잘 정의되어 있었다. 다른 무엇보다 필자는 저음이 가장 마음에 들었다. 또한 공간 다이내믹 모드로 청음했을 때 필자가 지금껏 들어본 단일 스테레오 스피커 중에서 좌우 분리 성능이 가장 우수했다. 공간 다이내믹 모드가 기본값으로 설정돼 훌륭한 사운드를 제공한다. 사용자화, 공간 시그니처(Spatial Signature) 및 베이스 부스트 설정도 지원된다. 하지만 단점도 있다. 클래식과 재즈 음악을 재생할 때 공간 다이내믹 프리셋은 쿵쾅거리는 사운드를 제공했다. 사운드코어 앱의 EQ 섹션으로 이동했지만, 사용자 지정 프리셋을 만들 때 공간 다이내믹 모드는 지원하지 않았다. 즉, 적어도 지금으로서는 자신만의 EQ 설정과 넓은 사운드 스테이지를 모두 누릴 수는 없다는 이야기다. 음악 장르에 상관없이 필자는 공간 다이내믹 프리셋을 선호한다. 다른 프리셋은 밋밋하고 생동감 없이 들린다. 공간 오디오가 충분하지 않다면 트루 와이어리스 스테레오(True Wireless Stereo)를 통해 두 번째 사운드코어 모션 X500과 페어링할 수 있다(동일 모델끼리만 페어링할 수 있다). 배터리 수명 앤커는 모션 X500이 50% 볼륨에서 5시간 충전으로 최대 12시간까지 재생할 수 있다고 주장했다. 이는 6,400mAh 배터리로 작동하는 40W 앰프에 적합한 수치다. 배터리 수명이 약 70% 남은 상태에서 조용한 음량으로 2시간 동안 사용했으므로 앤커가 주장하는 성능과 비슷한 것으로 보인다. 사운드코어 모션 X500, 사야 할까? 더 이상 고민할 필요가 없다. 이 정도 크기의 스피커를 찾고 있다면 X500이다. 지금까지 테스트한 붐박스 중 가장 멋지고 소리가 좋으며, 가장 쿵쾅거리는 붐박스다. 모션 X600의 성능도 매우 만족스러웠지만, 이 정도로 필자를 감동시키지는 못했다. editor@itworld.co.kr
스칸디나비아 난방 가전 업체 밀(Mill)은 다양한 오일, 팬, 패널 라디에이터를 생산한다. 단순하고 현대적인 디자인에 에너지 고효율 기술이 적용된 것이 특징이다. 업체는 이들 제품이 일반적인 플러그인 라디에이터보다 열 손실을 줄이도록 설계됐다고 주장하는데, 실제로 난방비를 줄여줄까? 밀 젠틀 에어(Mill Gentle Air) 오일 라디에이터로 테스트해봤다. 참고로 오일 라디에이터란 라디에이터 안에 물 대신 기름이 들어 있는 방식이며 전기로 작동한다. 오일을 보충할 필요가 없다. 디자인과 제품 구성 34.4×26.1×65.6cm LED 온도계 화면 젠틀 에어 오일 라디에이터는 1,000W, 1,500W, 2,000W 등 3개 모델로 구성된다. 일부는 스마트 기능을 지원하고 일부는 지원하지 않으므로, 원하는 모델을 잘 비교해 구매해야 한다. 이번 리뷰에서는 1,500W 와이파이 모델을 사용한다. 이 모델은 오일 라디에이터와 팬 히터의 장점을 결합한 것이 특징이다. 덕분에 조용하고 효율적일 뿐만 아니라, 제품 상단을 통해 뜨거운 바람을 분출하기 때문에 방 전체를 빠르게 데워준다. 젠틀 에어 라디에이터는 둥근 모서리와 벌집 모양 바람 분출구 등 섬세하게 디자인됐고 만듦새도 깔끔하다. 라디에이터와 선풍기 같은 가전은 자칫 집안을 어수선하게 만들 수 있는데, 이 제품은 현대적이고 미니멀한 인테리어를 추구하는 사람도 만족할만한 디자인이다. 크기는 34.4×26.1×65.6cm다. 폭이 좁은 디자인이어서 집안에서 보관할 곳을 찾기가 용이하다. 단, 실제 사용할 때는 양 측면이 매우 뜨겁다. 바퀴가 달려 있지 않으므로, 제품을 옮기려면 충분히 식힌 후에 잡아야 한다. 손잡이는 측면에 있다. 무게는 9.9kg으로 꽤 나가는 편이다. 또한, 측면이 뜨겁다는 것은 어린 아이가 있는 집에서 조심해서 사용해야 한다는 의미이기도 하다. 제품 제어부는 한쪽 면에 몰려 있다. 작고 그리 밝지 않은 LED 온도계 화면이다. 라이트닝 볼트 아이콘이 있는데, 이 아이콘이 활성화되면 실제 전기를 사용해 작동중임을 의미한다. 사용해 보면 꽤 자주 이 아이콘이 비활성화된다. 그만큼 전기를 사용하는 시간이 길지 않음을 알 수 있다. 화면 아래로는 온도계 다이얼 외에 난방 옵션, 와이파이, 타이머를 설정하는 버튼 4개가 있다. 최저 온도 같은 고급 설정도 여기서 할 수 있다. 최저 온도 기능을 사용하면 잠자는 시간 등 온도 차이에 민감하지 않은 상황에서 온도를 더 낮게 유지해 전력을 절약한다. 일부 기능은 설정해 사용하려면 여러 버튼을 눌러야 한다. 매뉴얼이 있기는 하지만 제대로 사용하기가 쉽지 않다. 매뉴얼을 잃어버렸다면 기기에 달린 제어부를 통해 조작하기 어려울 수 있다. 이럴 때는 스마트 기능을 사용해야 한다. 설정과 스마트 기능 일부 조립 작업이 필요함 다양한 스마트 기능 박스를 벗기고 가장 먼저 해야 할 일은 제품 조립이다. 본체를 받침대에 고정해야 한다. 만듦새가 좋아서 미리 뚫어놓은 나사 구멍이 잘 맞고 작업 자체도 수월하다. 스크루 드라이버만 하나 있으면 된다. 조립을 하고 나면 이제 스마트 기능을 설정할 때다. 제품 자체에 달려 있는 제어기로도 라디에이터를 조작할 수 있고, 손님이나 앱을 쓰지 않는 가족에게 유용하다. 그러나 기본 기능 이외 기능을 사용하려면 과정이 좀 복잡하다. 이 제품의 진가는 스마트 기능을 사용할 때 드러난다. 밀 앱을 다운로드해 사용할 것을 강력 권장한다. iOS, 안드로이드용으로 있으며 모두 무료다. 일단 계정을 설정하면 라디에이터와 페어링 해야 한다. 블루투스나 와이파이를 이용하면 된다. 와이파이 암호가 필요하니 미리 준비해 놓는 것이 좋다. 여기까지는 직관적이어서 헛갈릴 것이 없다. 문제는 다음부터다. 테스트 과정에서 기기를 연결하고 나면 펌웨어를 업데이트했다. 이제 기기를 연결할 준비가 된 것처럼 보였다. 그런데 라디에이터에 다시 연결하면 다시 펌웨어 업데이트로 돌아갔다. 이런 과정을 3번 반복하고 나서야 연결 과정이 끝났다. 이제 계정을 만들어야 한다. 앱에 몇 가지 추가 정보를 입력해야 한다. 예를 들면, 해당 지역의 에너지 가격을 확인하기 위한 우편번호, 밀 제품과 서비스에 대한 중요한 안내를 받을 휴대폰 번호 등이다. 앱의 모든 기능을 이용하기 위해 이런 정보를 모두 입력할 필요는 없다. 제품이 소모하는 전력량을 kWh로 확인할 수 있기 때문이다. 따라서 표준 전기요금을 알고 있다면, 간단히 계산해 정확한 전기요금을 추산할 수 있다. 이 앱은 라디에이터의 제어부보다 훨씬 직관적이다. 그러면서도 복잡한 기능까지 잘 지원한다. 일단 라디에이터가 놓인 방의 온도를 확인할 수 있다. 라디에이터가 사용한 전력량을 오늘, 이번달, 올해 기간으로 볼 수 있다. 컴포트, 취침, 외출 등 여러 가지 모드로 히터를 예약실행하는 것도 가능하다. 히터나 센서, 스마트 플러그 같은 다른 밀 제품을 사용한다면 같은 앱으로 동시에 제어할 수 있다. 성능 켤 때 소음이 있음 열 손실 제어 가능 사용설명서를 보면, 전원을 넣었을 때 소음이 있는 것은 정상이라고 설명한다. 실제로 기기를 켜면 마치 계란 후라이를 하는 것 같은 날카로운 소리가 몇 분간 계속된다. 그러다가 천천히 작아져 없어진다. 라디에이터를 켜면 몇 분만에 따뜻해진다. 계란 후라이 소리가 사라지면 전혀 소음이 나지 않는다. 밀의 에너지 절감 기술은 PID(proportional integral derivative) 제어기를 기반으로 한다. 설정한 온도에 가까워질수록 히터의 열기를 제어하는 알고리즘을 활용해 과열되거나 에너지를 낭비하지 않는다. 업체는 예측적인 난방과 전력 소비 기능도 지원한다고 설명하는데, 단기간 사용해 본 정도로는 얼마나 효과가 있는지 확인하기 어려웠다. 전기요금을 직접 계산해 보니, 1,500W 제품을 기준으로 시간당 41p(1p가 약 17원) 정도 비용이 들었다. 에너지 절약 기능 없이 최대 출력으로 틀었을 때다. 오전에 20도 정도를 유지하도록 사용한 결과 전력을 0.06~1.235kWh 소모했는데, 비용은 70p 정도다. 요금을 신경 쓰면 사용하면 더 줄일 수 있지만, 스마트 난방기 대부분이 요금 절약 기능을 지원한다. 따라서 이미 세심하게 요금을 관리하며 사용하고 있다면 이 제품으로 요금을 줄일 수 있는 여지는 그만큼 줄어든다. 이 라디에이터가 지원하는 온도 관리 범위는 5~25도이며, 과열 방지 기능이 있다. 구매할 만한 제품일까 밀 젠틀 에어 라디에이터는 꽤 비싼 제품이다. 다이슨 제품 수준에 미치지 못하는데도, 일반적인 가전기기보다 훨씬 비싸다. 1,500W 와이파이 모델 기준 210파운드다. 2,000W 모델은 433달러인데, 가격 대비 성능을 고려하면 구매를 추천하지 않는다. 밀 라디에이터는 통제 불능의 열풍을 내뿜고 전기요금 폭탄을 안겨주는 팬 히터의 정반대 지점에 있는 제품이다. 디자인 외에도 열 출력을 정교하게 조종하는 자동 온도제어기와 관련 기술을 통해 필요 이상의 에너지를 사용하지 않는다. 비싼 값을 하는 것은 분명하다. 단, 급할 때 잠깐 사용하거나 가장 추운 날 가끔 빠르게 방안 온도를 올릴 수 있는 전기 히터를 찾고 있다면이 제품은 가성비가 좋다고 할 수 없다. 이 제품이 개발된 의도대로 사용하지 않으면 에너지 절약 효과를 거의 못볼 수도 있다. 또한, 기기 자체에 있는 제어부가 좋게 평가해도 '불편하다'. 더 사용하기 쉽게 바꿀 필요가 있어 보인다. 반면 이 밀 라디에이터는 중앙난방 대신 계속해서 사용하는 용도로 적합한 제품이다. 외풍이 많은 외부 사무실이나 다이닝 룸 혹은 간혹 사용하는 방이라면 이 제품이 에너지 사용량을 계속 추적하면서도 효율적으로 난방하는 좋은 방법이 될 수 있다. editor@itworld.co.kr
2023년 9월 출시된 최신 세대 아이폰은 안드로이드 사용자나 이전 세대 아이폰 사용자의 업그레이드를 유도할 만한 매력적인 기능을 많이 가지고 있다. 하지만 선택해야 할 것이 있다. 기본형 아이폰 15와 아이폰 15 프로 중 어떤 것을 선택해야 할까? 여기서는 구매 버튼을 클릭하기 전에 고려하면 좋을 사항을 정리했다. 세부 사양 비교 6.1인치 2556×1179(460ppi) 슈퍼 레티나 XDR OLED 전체 최대 밝기 1,000니트(일반) 부분 최대 밝기 1,600니트(HDR) 부분 최대 밝기 2,000니트(야외) 다이내믹 아일랜드 지원 6.1인치 2556×1179(460ppi) 슈퍼 레티나 XDR OLED 전체 최대 밝기 1,000니트(일반) 부분 최대 밝기 1,600니트(HDR) 부분 최대 밝기 2,000니트(야외) 다이내믹 아일랜드 지원 프로모션 지원(최대 120Hz 재생률) 올웨이즈온 디스플레이 지원 A17 프로 128GB/256GB/512GB 128GB/256GB/512GB/1TB 4,800만 화소 f/1.6 메인 1,200만 화소 f/2.4 초광각 0.5x, 1x, 2x 광학 줌 지원 스마트 HDR 5 4,800만 화소 f/1.78 메인 1,200만 화소 f/2.2 초광각 1,200만 화소 f/2.8 망원 0.5x, 1x, 2x, 3x 광학 줌 지원 스마트 HDR 5 1,200만 화소 f/1.9 트루뎁스 4K(24, 25, 30, 60fps) 1080p HD(25, 30, 60fps) 돌비 비전 4K HDR(60fps) 시네마틱 모드 액션 모드 4K(24, 25, 30, 60fps) 1080p HD(25, 30, 60fps) 돌비 비전 4K HDR(60fps) 4K ProRes(60fps, 외부저장) 시네마틱 모드 액션 모드 Log 동영상 촬영 ACES 지원 접사 동영상 촬영 페이스 ID 페이스 ID 5G/와이파이6/블루투스5.3 5G/와이파이6E/블루투스5.3 USB-C(USB2) USB-C(USB3) 최대 20시간 동영상 재생 맥세이프 지원 최대 23시간 동영상 재생 맥세이프 지원 IP68 IP68 147.6x71.6x7.8mm(171g) 146.6x70.6x8.25mm(187g) 아이폰 15와 15 프로는 같은 세대이므로 구성 요소에 유사점이 많다. 그러나 ‘프로’라는 접미사에서 예상할 수 있듯이 더 비싼 모델에는 기본형보다 개선 사항이 더 많이 포함돼 있다. 가장 눈에 띄는 개선점은 칩셋이다. 아이폰 15는 아이폰 14 프로/14 프로 맥스에 처음 탑재된 A16 바이오닉이 채택됐다. 어떠한 기기라도 구동할 수 있는 강력한 기반이지만, 아이폰 15 프로에는 전작보다 10% 더 빠른 CPU와 20% 더 빠른 GPU, 4배 더 빠른 레이 트레이싱 기능을 갖춘 새로운 A17 프로 칩이 탑재돼 게이머가 매우 만족할 것으로 보인다. 배터리 수명에 대해 애플은 아이폰 15가 최대 20시간, 15 프로가 최대 23시간 동안 동영상을 재생할 수 있다고 주장한다. 두 제품 모두 크기가 같다는 점이 인상적이다. 애플이 독점적인 라이트닝 포트를 포기하도록 강요한 EU 법률이 시행되면서 아이폰 제품군에 USB-C 포트가 최초로 탑재됐다. 아이폰 15에는 USB 2 표준이, 프로 모델에는 더 빠른 USB 3 표준이 탑재됐다. 방수/방진 등급은 두 제품 모두 IP68이며, 무선 충전 및 맥세이프, 5G LTE 및 와이파이 6(프로는 와이파이 6E)을 지원하며 128GB, 256GB, 512GB 구성으로 제공된다. 프로는 1TB 버전도 있다. 디자인 및 만듦새 애플은 아이폰 12 시리즈부터 도입한 정사각형 모서리 디자인을 계속 사용하고 있다. 두 핸드셋의 크기는 매우 비슷하며, 프로가 약간 더 작지만 더 두껍고 무겁다. 섀시의 경우 아이폰 15는 알루미늄으로 제작됐으며, 뒷면은 컬러가 들어간 유리 소재를 채택했다. 15 프로는 질감이 있는 무광 유리 뒷판에 고급 티타늄을 사용한다. 물론 케이스에 넣으면 눈에 띄지 않지만, 각 기기의 소재는 가격을 고려했을 때 합리적이다. 프로에는 동작 버튼이 추가됐다. 아이폰 15의 음소거 스위치를 대신하지만, 음소거 스위치 역할을 하거나 집중 모드 활성화, 카메라 열기, 손전등 켜기, 음성 메모 시작 등과 같은 여러 기능을 프로그래밍할 수 있다. 디스플레이 아이폰 15의 디스플레이는 기본형 아이폰 14 시리즈보다 ‘프로’에 한층 더 가깝다. 14 프로에 처음 등장한 다이내믹 아일랜드가 적용됐기 때문이다. 따라서 15와 15 프로를 전면 디스플레이로만 구분하기는 어려울 것이다. 몇 가지 차이점이 있긴 하다. 15 프로는 올웨이즈온 디스플레이와 더 부드러운 120Hz 프로모션 재생률을 지원한다. 120Hz 프로모션은 페이지를 스크롤할 때만 눈에 띄는 차이점이다. 이런 추가 기능 외에도 두 모델 모두 6.1인치 슈퍼 레티나 XDR 패널을 탑재하고 있으며, 2556×1179 해상도 및 460ppi, HDR, 트루 톤, 햅틱 터치, 와이드 컬러 디스플레이를 갖추고 있으며, 화면 밝기는 기본 최대 밝기가 1,000니트, HDR 모드에서 최대 1,600니트, 실외에서 2,000니트다. 색상 아이폰 15는 핑크, 옐로, 그린, 블루, 블랙 색상으로 출시됐다. 아이폰 15 프로의 색상은 내추럴 티타늄, 블루 티타늄, 화이트 티타늄, 블랙 티타늄으로 구성된다. 카메라 아이폰 15의 카메라는 아이폰 14보다 크게 업그레이드됐다. 애플은 지난 몇 세대 동안 사용했던 1,200만 화소 센서를 버리고 4,800만 화소 f/1.6 센서를 메인 카메라에 장착했다. 이 카메라는 1,200만 화소 f/2.4 초광각 센서와 결합해 0.5배, 1배, 2배 광학 줌을 제공한다. 또한 센서 시프트 광학 안정화 기능으로 선명한 사진을 촬영할 수 있으며, 스마트 HDR 5, 인물 조명, 야간 모드 등을 지원한다. 아이폰 15 프로는 기존의 다른 세대와 마찬가지로 트리플 렌즈 구성을 따른다. 아이폰 15와 유사한 4,800만 화소 f/1.78 메인 렌즈, 1,200만 화소 f/2.2 울트라 와이드 렌즈, 그리도 동영상은 물론 매크로 촬영이 가능한 1,200만 화소 f/2.8 망원 센서로 구성된다. 3배 광학 줌도 지원한다(5배 광학 줌은 아이폰 15 프로 맥스만 지원). 사진 애호가가 관심을 가질 만한 요소도 있다. 이미지 편집 방법을 효과적으로 제어할 수 있는 애플 ProRAW 모드다. 전면 렌즈는 두 제품 모두 업그레이드되지 않았다. 아이폰 15/15 프로 모두 1,200만 화소 f/1.9 트루뎁스 센서가 탑재돼 있다. 비디오 촬영의 경우 두 아이폰 모두 60fps로 최대 40K 동영상을 촬영할 수 있다. 시네마틱 및 액션 모드, 야간 모드, 타임랩스, 슬로 모션(초당 120 또는 240 프레임), 오디오 줌, 센서 시프트 안정화 기능을 갖추고 있다. 프로 모델은 여기에 더해 ProRe 녹화, 로그(Log) 촬영, 아카데미 컬러 인코딩 시스템(Academy Color Encoding System, ACES), 접사 촬영이 추가됐는데, 이는 동영상 촬영에 진심인 사람에게는 확실히 도움될 만한 기능이다. 가격 아이폰 15는 125만 원부터, 15 프로는 155만 원부터 시작한다. 용량별 가격은 다음과 같다. 아이폰 15 128GB : 125만 원 256GB : 140만 원 512GB : 170만 원 아이폰 15 프로 128GB : 155만 원 256GB : 170만 원 512GB : 200만 원 1TB : 223만 원 결론 두 제품은 모두 최신 프리미엄 스마트폰에 대한 애플의 비전을 보여주는 훌륭한 예다. 아이폰 15 프로는 사용자가 원하는 모든 기능을 갖추고 있지만, 대다수 사용자에게는 과한 기능이라는 느낌을 지울 수 없다. 한 제품을 수년간 사용할 수 있고 멋진 사진과 동영상 촬영, 일상적인 업무에서 뛰어난 성능을 발휘하는 경험은 아이폰 15로도 충분하다. 하지만 게임을 즐기거나 접사 동영상 촬영, 사진의 미세한 편집 등 콘텐츠 촬영 및 편집에 많은 시간을 할애하는 사용자라면 아이폰 15 프로가 적절한 선택이 될 것이다. editor@itworld.co.kr
풀사이즈 2280(너비 22mm, 길이 80mm) WD 블랙 SN770을 테스트한 후 약 2년이 지났다. 그리고 최근 WD가 스팀 덱, 에이수스 로그 엘라이 같은 휴대용 게이밍 PC를 업그레이드할 수 있도록 훨씬 짧은 2230(길이 30mm) SN770M을 출시했다. 성능 및 부품 측면에서 SN770M과 SN770은 큰 차이가 없으며 가격도 크게 다르지 않다. WD 블랙 SN770M의 특징 SN770M은 M.2, PCIe 4.0 x4(4레인) 드라이브를 지원하고 자체 샌디스크 컨트롤러 및 SN770 같은 112단 샌디스크 라벨 TLC NAND를 사용한다. 스팀 덱은 PCIe 3.0, 로그 엘라이는 4.0을 지원한다. PCIe 4.0/5.0 SSD는 하위 호환이 되지만 순차 쓰기 성능이 약 3.5GBps로 제한된다. SN770M은 DRAM리스(DRAM-less, HMB/호스트 메모리 버퍼) 설계다. 즉, 최고 쓰기 성능의 경우 SN770M을 설치하는 장치가 이 기술을 지원하고 캐싱을 목적으로 메모리 중 일부를 제공해야 한다. WD는 블랙 SN770M에 5년 품질보증을 제공하며 500GB당 300TBW(드라이브 수명 중 쓸 수 있는 테라바이트) 등급을 매겼다. 등급은 일반적이지만 시게이트, 킹스턴, 렉사에는 조금 못 미친다. WD 블랙 SN770M의 가격 현재 SN770M은 500GB/80달러, 1TB/120달러, 2TB/220달러다. 할인된 수준은 아니지만 일반적으로 더 작은 ‘특수 용도’ 2230 SSD와 비슷한 정도다. 그새브런트 로켓Q4(2230)같이 조금 더 저렴한 제품도 있다. WD Black SN770M의속도 테스트에 따라 속도가 달랐으며 전체적으로 SN770M은 SN770 전작과 유사한 성능을 보였다. 유일한 예외점은 450GB 쓰기였으며, 2TB 드라이브인 SN770M은 SN770처럼 보조 캐시(3비트 TLC를 1비트 SLC로 씀)가 부족한 적이 없었다. SN770M과 SN770은 크리스털디스크마크(CrystalDiskMark) 8의 4K 테스트에서도 32큐를 제외하고 박빙의 승부를 보여주었다. 구형 SN770이 앞선 32큐 읽기를 빼면, 크리스털디스크마크 8의 4K 테스트에서 SN770과 SN770이 나란히 선두를 기록했다. AS SSD 2.0 결과는 크리스털디스크마크와 비슷한 경향이 있기 때문에 일반적으로 포함하지 않는다. 하지만 4K 테스트에서 두 WD 드라이브의 차이는 무시하기에는 너무 흥미로웠다. 그리고 렉사 NM790은 여전히 4K 파일에서 최악의 성능을 보여주었다. 실제 48GB 전송에서 SN770M은 SN770만큼 빠른 속도를 보여주었다. 렉사 NM790은 4K 테스트에서 허약한 모습을 보였지만 여기에서 빛을 발했다. 450GB 단일 파일 쓰기에서 SN770M은 발군의 성능을 보여주었다. SN770의 경우 테스트한 유닛이 1TB 드라이브로 약 375GB 지점에서 보조 캐시가 부족했기 때문에 결과가 조금 떨어졌다. 그리고 NM790은 연속 대용량 파일 쓰기에서도 빛을 발했다. 보조 캐시 수치는 다음 결과에서도 볼 수 있다. SN770M도 보조 캐시가 부족할 때 약 300MBps(TLC로써 네이티브 쓰기)로 떨어진다. 두 WD 드라이브 모두 주기적으로 대용량 데이터를 쓰기에는 적합하지 않다. WD SN770M의 캐시가 부족해지면 속도가 그리 빠르지 않다. 새로운 TLC NAND의 경우 네이티브 상태로 3~4배 빠르게 쓸 수 있다. 과거, 드라이브의 보조 캐시가 부족할 때 SATA 같은 쓰기 성능이 나오는 것은 모든 SSD가 마찬가지였다. 하지만 렉사 NM790처럼 NAND가 더 빠른 일부 신형 드라이브는 네이티브로 쓸 때 700MBps ~ 1.5GBps까지만 떨어진다. 즉, 풀 3비트로 쓴다는 것이다. WD 블랙 SN770M을 사야 할까? 스팀 덱 또는 2230 폼 팩터 SSD만 장착할 수 있는 다른 기기를 위해 2TB 용량의 고속 SSD를 찾고 있다면 WD SN770M만한 것이 없다. 그 외에는 일반 SSD가 가격 대 성능 비가 더 좋다. 테스트 방법 내장 드라이브 테스트는 X790(PCIe 4.0/5.0) 마더보드/i5-12400 CPU 콤보 및 2개의 킹스턴 퓨리 32GB DDR5 4800MHz 모듈(총 64GB 메모리)로 구동하는 윈도우 11, 64비트 환경에서 이루어졌다. 20Gbps USB 및 썬더볼트 4가 백 패널에 통합되어 있으며 인텔 CPU/GPU 그래픽 카드를 사용한다. 48GB 전송 테스트는 임디스크 RAM 디스크를 사용하며 총 64GB 메모리 중 58GB를 차지한다. 450GB 파일은 같은 OS로 구동하는 2TB 삼성 990 프로에서 전송된다. 각 테스트는 새롭게 포맷되고 트림(TRIM)이 적용된 드라이브에서 수행되기 때문에 최적의 결과가 도출된다. 일반적인 사용 시 드라이브가 채워지면서 보조 캐시를 위한 NAND 부족 등의 이유로 성능이 저하될 수 있다. NAND가 훨씬 빠른 최신 SSD의 경우 큰 영향이 없다. 참고 표시된 성능 수치는 PCWorld가 수령한 드라이브에서 테스트한 용량까지만 적용된다. SSD 성능은 읽기/쓰기를 위해 사용된 칩의 수와 보조 캐시를 위해 제공되는 NAND의 용량 때문에 용량에 따라 다를 수 있다. 제공업체 또한 가끔 부품을 변경한다. editor@itworld.co.kr
1981년 설립된 유명한 스피커 제조업체 크리에이티브는 사운드 카드, 스피커, 심지어 7.1 시스템과 같이 좋은 제품을 많이 만들었다. 크리에이티브의 제품은 가격 대비 성능이 좋다는 평을 달고 다녔다. 새로운 스테이지 SE 미니(Stage SE Mini)는 컴퓨터 앞에 놓거나 태블릿에 연결할 수 있는 비교적 저렴한 다. 오디오 성능은 나쁘지 않지만, 그렇게 좋지도 않다. 디자인 및 만듦새 크리에이티브는 스테이지 SE 미니의 디자인에 많은 신경을 썼다. 1988년의 고광택 검은색 피아노 래커, 즉 이 세상의 모든 지문을 다 흡수할 것만 같은 마감은 이제 사라졌다. 스테이지 SE 미니는 윤기 없는 거친 표면으로 현대적인 느낌을 준다. 외관상으로는 별다른 특징이 없다. 스테이지 SE 미니는 직사각형의 검은색 스피커로, 한쪽에 음량을 제어하는 컨트롤 노브가 있고 전원이 켜져 있음을 나타내는 작은 LED가 있다. 다이얼은 볼륨 조절 혹은 전원을 켜고 끄는 용도로 사용한다. 다이얼 옆에 있는 작은 버튼으로 사용하려는 오디오 연결 방식을 선택할 수 있다. 별도의 설치는 필요 없다. 스피커를 연결하는 가장 쉬운 방법은 동봉된 USB-C 케이블을 사용하는 것이다. USB-C 포트가 없는 기기와 연결할 때는 블루투스를 사용할 수 있다. 스테이지 SE 미니는 블루투스 5.3을 지원한다. 헤드폰 연결도 가능하며, PS5에도 연결할 수 있다. 성능 스테이지 SE 미니의 음질은 평범하다. 스피커를 사용하는 용도에 따라 약간 평가가 달라질 수 있는데, 음악 감상이 주목적이라면 실망스러울 것이고 팟캐스트를 들을 때는 꽤 괜찮을 것이다. 하지만 스피커라면 모든 상황에서 괜찮은 소리를 전달해야 하지 않을까? 문제는 아마도 디자인에 있을 것이다. 소노스(Sonos)와 1,000달러가 넘는 제품을 제외하고 오늘날 제조되는 대부분 사운드바는 음악을 재생할 때 좋은 소리를 내지 못한다. 드라이버가 너무 작은 것이 문제인지, 일반적인 원형 드라이버가 아닌 타원형 모양의 이른바 ‘레이스트랙(racetrack)’ 디자인을 채택한 것이 문제인지는 정확하지 않다. 자체적인 EQ 설정은 지원하지 않으며, 함께 사용하는 앱에서 조정해야 한다. 스테이지 SE 미니는 뚜렷한 저음이 없고 중음역대도 그다지 뚜렷하지 않다. 스포티파이에서 오디오 설정을 조정한 후에야 나름대로 괜찮은 소리를 들을 수 있었지만, ‘좋다’고 말하기는 어려웠다. 또한 언제나 그러듯 스테이지 SE 미니에는 스피커를 너무 세게 누르면 소리가 나지 않는 지점이 있다. 스테이지 SE 미니의 가격은 (약 4만 7,000원)로 저렴한 편이다. 하지만 필자는 스테이지 SE 미니보다는 크리에이티브의 기가웍스(GigaWorks) 시리즈 스피커 한 쌍을 구매하는 것을 더 추천한다. 스테이지 SE 미니와 같은 일체형 사운드바처럼 책상을 깔끔하게 정리해 주지도 않고 가격은 더 비싸지만, 훨씬 더 나은 소리를 제공한다. 세부 사양 제조업체 : 크리에이티브(Creative) 모델명 : 스테이지 SE 미니(Stage SE Mini) 리뷰 시기 : 2023년 10월 23일 연결성 : USB-C, 블루투스 5.3, 3.5mm 헤드폰 출력 단자 크기 : 410×82×63mm 소비전력 : 24W 가격 : 34.99달러 editor@itworld.co.kr
소프트웨어 개발자의 효율성을 측정하는 것은 수십 년 동안 불가능한 것으로 여겨졌다. 두 명의 맥킨지 컨설턴트는 개발자가 개발자의 생산성을 측정할 수 있는 방법을 소개한다. 우리는 다양한 산업 분야의 많은 기업과 협력한 결과, 소프트웨어 개발자의 생산성을 측정할 수 있는 방법을 찾았다. 3년 전, 맥킨지는 440곳 대기업의 개발자 속도를 분석했다. 그 결과 소프트웨어 개발자의 성과와 회사의 성공 사이에는 분명한 상관관계가 있다는 사실이 밝혀졌다. 이는 IT 기업뿐만 아니라 다른 분야에도 적용된다. 전 세계 소프트웨어 엔지니어의 약 절반이 IT 산업이 아닌 다른 산업군에서 일한다. 현재 전 세계적으로 약 2,700만 명의 개발자가 있으며, 440만 명이 미국에 있다. 미국 노동통계국은 2021년부터 2031년까지 이 숫자가 25% 더 증가할 것으로 예측하고 있다. 생성형 AI의 급격한 확산을 고려하면, 개발자 수요는 훨씬 더 커질 것이다. 성과와 직결되는 개발자 생산성 이런 조사 결과를 종합하면, 관리자는 소프트웨어 개발 인재를 가장 잘 활용할 수 있는 방법을 정확히 알아야 한다는 결론에 도달할 수 있다. 오늘날의 소프트웨어 개발은 창의적인 과정일 뿐만 아니라 협업 과정이기도 하므로 이는 쉽지 않은 일이다. 노력과 수익 간의 합리적인 관계를 보장하는 것은 결코 쉬운 일이 아니다. 이미 많은 기업이 시스템, 팀, 개인의 생산성을 측정하는 데 실패했다. 배치 빈도와 같은 알려진 지표는 팀의 생산성을 추적하는 데 도움이 될 수 있지만, 개인의 생산성을 추적하는 데는 도움이 되지 않는다. 하지만 우리는 개발자의 생산성을 측정하는 일이 가능하다고 생각한다. 특히 맥킨지는 이미 이 작업을 수행하고 있는 20여 곳의 IT, 금융 및 제약 회사와 협력하고 있다. 아직 100% 신뢰할 수 있는 결과는 얻은 것은 아니지만, 유망한 결과이다. 맥킨지의 계산에 따르면, 이들 기업은 개발자의 생산성을 측정하고 개선해 오류율을 평균 20~30% 줄이고 고객 만족도를 60%까지 높일 수 있었다. 개발자의 생산성을 측정하는 방법 우선, 구글과 마이크로소프트에서 개발한 두 가지 지표, 즉 소프트웨어 배치 처리량과 안정성을 측정하는 DORA(DevOps Research and Assessment)와 개발자의 개별 생산성을 측정, 이해 및 개선하기 위해 설계된 프레임워크인 SPACE(Satisfaction, Performance, Activity, Communication/Collaboration and Efficiency)를 활용한다. 맥킨지는 이들 지표를 다음과 같은 네 가지 '기회 지향 지표'로 보완했다. 내부 루프 및 외부 루프에 소요된 시간. 내부 루프는 코딩, 빌드, 단위 테스트 등 소프트웨어 제품 개발과 직접 관련된 활동을 포함한다. 외부 루프는 코드를 프로덕션 환경으로 이전하는 것과 관련된 활동으로, 통합, 테스트, 릴리스, 배치 등을 말한다. 개발자가 내부 루프에 더 많은 시간을 할애할수록 생산성이 높아지는데, 상위 기업의 경우 이 비율이 70%에 달한다. 개발자 속도 지수(Developer Velocity Index, DVI) 벤치마킹. 사내 프랙티스를 다른 회사 또는 경쟁사의 프랙티스와 비교함으로써 개선해야 할 영역을 파악할 수 있다. 백로그 관리, 테스트 또는 보안 및 규정 준수 등이 이에 해당한다. 개발자 기여도 분석. 팀이 백로그에 어떤 기여를 하고 있는지 평가한다. 백로그 관리를 측정하는 지라(Jira) 같은 툴을 사용해 성과 향상을 방해하는 부정적인 흐름을 파악할 수 있다. 작업 환경을 개선하고 자동화 수준을 높이거나 팀원 개개인의 기술을 최적화할 방법을 보여줄 수도 있다. 예를 들어, 한 회사는 자사의 최고 개발자들이 코딩 이외의 활동에 너무 많은 시간을 소비하고 있다는 사실을 깨달았고, 모든 개발자가 자신이 가장 잘하는 일에 집중할 수 있도록 운영 모델을 변경했다. 인재 관리. 인재 관리의 목표는 직원들이 각자의 재능과 선호도에 따라 배치하는 것이다. 업계 표준 역량 맵을 사용해 조직의 기존 지식, 기술 및 능력을 가시화할 수 있는 점수를 만들 수 있다. 이를 통해 격차와 약점을 파악할 수 있다. 예를 들어, 한 고객사는 경험이 부족한 개발자를 너무 많이 고용하고 있다는 사실을 깨달았다. 이 문제를 해결하기 위해 맞춤형 학습 프로그램을 제공했고, 개발자의 30%가 6개월 이내에 다음 단계의 역량에 도달했다. 이런 접근법은 DORA 및 SPACE와 함께 소프트웨어 생산성에 대한 차별화된 관점을 가능하게 한다. 또한 개발자에게 동기를 부여할 수 있는 방법, 적절한 툴와 전문 지식을 보유하고 있는지, 시간을 어떻게 사용하는지, 팀 구성이 최적화된 상태인지 등을 파악할 수 있다. 성공의 증거는 없지만 명확한 지표 개발자 생산성 측정은 여전히 논란의 여지가 있는 주제이며, 많은 전문가가 우리의 시도를 부정적으로 생각한다는 것도 알고 있다. 하지만 맥킨지와 긴밀하게 협력하는 20개 기업은 이에 동의하지 않는다. 우리는 소프트웨어 개발이 측정이 불가능할 정도로 복잡하고 신비롭다고 생각하지 않는다. 오히려 업데이트를 코딩하고 구현할 때 생성형 AI 도구를 사용하면 얼마나 개선되는지 꽤 잘 예측할 수 있다. 여기서 설명한 개발자 생산성 측정 시스템은 아직 완벽하지 않다. 우리는 개선해야 할 부분에 대한 건설적인 비판을 언제나 환영한다. 하지만 소프트웨어 개발의 중요성이 날로 커지고 인재 확보 경쟁이 치열해지는 상황에서 복잡하다고 미뤄두기에는 너무나 중요한 주제이다. *Chandra Gnanasambandam와 Martin Harrysson은 맥킨지 실리콘 밸리 오피스의 수석 파트너이다. editor@itworld.co.kr
윈도우 휴지통 가이드 기사가 이렇게 길 필요가 있나? 있다. 윈도우 휴지통 툴은 단순히 더 이상 필요 없는 데이터를 수집하는 것 말고도 훨씬 더 많은 기능을 제공한다. ‘수집’이라는 단어를 선택한 것은 이 단어가 ‘삭제’보다 휴지통의 기능을 훨씬 더 정확히 설명하기 때문이다. 집에 있는 진짜 휴지통과 마찬가지로, 쓰레기를 휴지통에 던져 넣는다고 해서 사라지는 것은 아니다. 휴지통이 넘치지 않게 하거나 버린 물건이 진짜 사라지게 하려면 휴지통을 비워야 한다. 이 두 가지 모두 윈도우에도 똑같이 적용된다. 휴지통의 공간은 제한되며, 삭제된 파일은 비교적 쉽게 복원이 가능하다. 따라서 기밀 콘텐츠를 보호하는 기능은 제공되지 않는다. 휴지통에 넣었다고 데이터가 삭제되지는 않는다 마이크로소프트는 항상 이 윈도우 기능을 ‘삭제’로 지칭하는데, 재차 강조하지만 올바른 표현은 ‘휴지통으로 옮기기’다. 즉시 파일 삭제 옵션(휴지통으로 이동하지 않음)을 사용해도 이 사실에는 변함이 없다. 데이터 자체는 실제로 삭제되지 않기 때문이다. 다만 이 휴지통 설정은 삭제 시 다른 데이터를 저장할 수 있도록 하드 드라이브 공간이 실제로 확보된다. 동시에 데이터를 덮어쓰므로 삭제된 요소를 되살리기가 더 어려워진다. 반면, 삭제 시 대화 상자 표시 옵션에서는 프롬프트만 생략할 수 있으므로 이 경우 삭제된 데이터가 여전히 저장 공간에 유지되고 쉽게 복원이 가능하다. 팁 : 휴지통을 비운 다음 시큐어 이레이저(Secure Eraser)를 사용해서 여러 번 파일을 덮어쓰고 저장 공간을 확보하면 복원을 차단할 수 있다. 윈도우에서는 각 파티션과 하드 드라이브에 대해 서로 다른 휴지통 설정을 적용할 수 있다. 윈도우 운영체제는 한 영역의 요소는 직접 삭제하고 다른 영역의 요소는 휴지통에 수집할 수 있다. 개별 사례에서 Del 키 대신 Shift + Del 단축키를 사용해서 삭제하면 이 수집 설정을 생략할 수 있다. 휴지통이 사용하는 최대 저장 공간도 각 파티션마다 따로 구성이 가능하다. 중요한 점은 외장 드라이브를 삭제할 때는 처리 방식이 다르다는 것이다. 삭제 명령은 외장 USB 하드 드라이브의 항목을 내장 드라이브와 마찬가지로 휴지통으로 옮기지만, USB 스틱 및 네트워크 하드 드라이브의 경우 휴지통이 생략되고 곧바로 삭제된다. 다만 윈도우는 해당 항목을 영구 삭제할 것인지 묻는 단계를 통해 즉시 삭제된다는 것을 알려준다. 아이콘, 아이콘 크기, 탐색기 항목, 작업 표시줄, 컨텍스트 메뉴 바탕 화면에서 휴지통 아이콘을 표시하거나 숨길 수 있다. 설정 앱을 열고 개인 설정 > 테마 > 바탕 화면 아이콘 설정을 열면 된다. 휴지통 숨김 또는 표시는 휴지통의 동작에는 영향을 미치지 않는다. 빈 휴지통 및 가득 찬 휴지통 아이콘도 설정에서 바꿀 수 있다. 여기서 가득 찬 휴지통이라는 말은 용량 한도까지 찼다는 의미가 아니라 휴지통에 뭔가 들어 있다는 의미다. 휴지통 및 다른 모든 바탕 화면 아이콘의 크기를 변경하려면 Ctrl 키를 누른 채로 마우스의 스크롤 휠을 돌리면 된다. 설정 앱의 시스템 > 화면(윈도우 10) 또는 시스템 > 디스플레이(윈도우 11)에서 아이콘 아래에 표시되는 레이블을 포함한 아이콘 전체 크기를 바꿀 수 있다. 기본 설정 중 하나 또는 맞춤형 배율을 선택할 수 있다. 윈도우 탐색기 트리 구조의 왼쪽에 휴지통이 표시되도록 하려면 휴지통을 연 다음 트리 구조의 왼쪽에서 빈 공간을 마우스 오른쪽 버튼으로 클릭한다. 컨텍스트 메뉴에서 ‘현재 폴더로 확장’ 옵션을 클릭하면 이제 이 공간에 휴지통도 표시된다. 작업 표시줄에 휴지통을 고정하려면? 마우스로 끌어서 놓기로는 휴지통을 고정할 수 없으므로 먼저 바탕 화면의 빈 공간을 오른쪽 버튼으로 클릭하고 컨텍스트 메뉴에서 새로 만들기 > 바로 가기를 선택해서 바로 가기를 만든다. 저장 위치로 다음을 입력한다. C:\Windows\explorer.exe shell:RecycleBinFolder 그런 다음 이름으로 휴지통을 선택한다. 다음 단계에서 새 바로 가기를 작업 표시줄로 끌어서 놓기 전에 폴더 아이콘을 휴지통 아이콘으로 바꾼다. 이렇게 하려면 위에서 만든 바탕 화면 바로 가기를 마우스 오른쪽 버튼으로 클릭하고 속성 > 기타 아이콘을 선택한다. 찾아보기로 C:\Windows\System32\imageres.dll 폴더에서 휴지통 아이콘을 찾을 수 있다. 확인을 누른 다음 마우스 버튼을 누른 채로 바로 가기를 끌어서 작업 표시줄 위에 놓는다. 원한다면 바탕 화면 바로 가기 자체는 삭제해도 된다. 삭제해도 작업 표시줄의 휴지통은 계속 작동한다. 소프트웨어 설치 후에 휴지통 컨텍스트 메뉴에 표시될 수 있는 성가신 항목을 제거하는 방법도 알아두면 유용하다. 작업 표시줄의 실행 필드에 regedit을 입력해서 윈도우 레지스트리를 연다. 레지스트리 편집기에서 Ctrl+F 단축키를 눌러 검색 필드를 열고 다음을 입력한다. 645FF040-5081-101B-9F08-00AA002F954E 그 다음 엔터 키를 누르고 잠시 기다리면 일치 항목이 표시된다. 두 번 클릭해서 연 다음 휴지통 컨텍스트 메뉴에서 뺄 프로그램에 해당하는 항목을 셸 하위 키에서 삭제한다. 휴지통 자동 비우기 데이터를 삭제할 때 윈도우가 실제로 데이터를 삭제하지 않고 먼저 휴지통에 수집하는 것은 당연한 기능이다. 언제든 실수로 삭제 키를 누르거나 클릭할 수 있기 때문이다. 그러나 휴지통을 일목요연하게 유지하기 위해서는 수집된 콘텐츠를 주기적으로 삭제하는 것이 좋다. 윈도우는 이 기능을 자동으로 수행한다. 설정 앱을 열고 시스템 > 저장소를 클릭한다. 윈도우 10에서는 슬라이더를 켬으로 전환하고 저장소 최적화 구성을 클릭한다. 윈도우 11에서는 저장 공간 센스 옵션을 활성화한다. 두 시스템 모두 저장 공간이 부족할 때 기본 설정을 사용한 일반적인 저장 공간 최적화 외에, 다음 기간 이상 휴지통에 있는 파일 삭제:라는 옵션도 있다. 기본 설정은 30일인데 PC 사용량에 따라 상당히 긴 시간이므로 삭제 기간을 14일 또는 그보다 더 짧게 줄이는 것이 좋다. 찾거나 복원할 때는 정렬 설정을 윈도우 탐색기에서 휴지통은 대체로 일반적인 디렉터리와 비슷하게 작동한다. 다른 폴더와 같은 방식으로 구성하고, 제한적이지만 검색도 할 수 있다. 윈도우는 폴더와 파일에 대해 내용부터 아주 큰 아이콘까지 8가지 보기를 제공한다. 윈도우 10과 윈도우 11에서 보기를 통해 파일 관리자에서 선택할 수 있다. 개인적인 습관 및 콘텐츠의 양에 따라 보기를 선택하면 된다. 자세히 보기에서는 열 헤더 중 하나를 클릭해서 휴지통의 전체 콘텐츠를 신속하게 정렬할 수도 있다. 예를 들어 파일을 삭제했다면 이름을 몰라도 복원할 수 있다. 삭제된 날짜 열 헤더를 클릭하면 방금 삭제된 파일이 맨 위에 표시된다. 정렬 기능도 원칙적으로 비슷한 옵션을 제공하고 그 외의 부가적인 옵션까지 제공하지만 결과는 헤더를 클릭한 결과에 비해 명확성이 떨어지고 체계적이지 않다. 정렬 옵션 외에 탐색기에서 콘텐츠를 검색할 수도 있다. 검색하려면 오른쪽 상단의 검색 필드에 찾고자 하는 항목의 이름을 입력한다. 중요: 윈도우는 휴지통에 대해 일반적인 검색 옵션을 제공하지만 별표(*)와 같은 잘라내기 문자는 모든 문자에 사용 가능하다. 파일 이름의 일부를 알고 있다면 이 기능을 사용해 뒤죽박죽 섞인 파일 중에서 간단히 검색할 수 있다. 휴지통에서 원하는 요소를 찾았다면 컨텍스트 메뉴의 복원을 사용해 원래 위치로 되돌린다. 여러 요소를 선택하고 복원할 수도 있다. 휴지통의 콘텐츠를 원래 위치 대신 바탕 화면에 복원하거나 끌어서 놓기를 사용해 원하는 다른 디렉터리에 복원할 수 있다. 휴지통에서 이미 삭제된 데이터는 를 사용해서 복원이 가능하다. 모든 항목 복원은 신중하게 사용해야 한다. 이름 그대로의 기능이 실제로 수행되기 때문이다. 실수로 이 버튼을 눌렀다면 곧바로 Ctrl + Z 조합을 눌러 취소할 수 있다. 복원된 수백 개의 요소를 수동으로 일일이 정리하는 것보다 훨씬 더 빠르고 쉬운 방법이다. 휴지통, HDD, SSD 안전하게 삭제하기 윈도우 휴지통을 통해 삭제되는 파일은 실제로 삭제되지 않으며 비교적 쉽게 복원할 수 있다. 삭제할 파일을 가 좋다. 루푸스(Rufus)를 사용하면 DBAN ISO 파일에서 삭제 프로그램이 포함된 부팅 스틱을 만들 수 있다. 시큐어 이레이즈를 사용해서 SSD를 지울 수 있다. 이 기능은 드라이브 펌웨어에 통합되어 있으며 윈도우가 실행 중인 상태에서는 액세스할 수 없다. 메인보드 제조업체가 BIOS/UEFI에 시큐어 이레이즈를 통합해둔 경우 쉽게 SSD를 지울 수 있다. 그러나 그렇지 않은 컴퓨터도 있으므로 BIOS/UEFI를 확인해봐야 한다. 확인하려면 PC를 재부팅하고 화면에 표시되는 버튼을 눌러 BIOS/UEFI를 연다. 인터페이스는 PC마다 다르므로 해당 버튼을 직접 찾아야 한다. 시큐어 이레이즈가 없다면 부팅 스틱에서 리눅스 라이브 시스템을 통해 컴퓨터를 시작한다. SSD 제조업체가 제공하는 툴 또는 을 사용하면 된다. 현재 최신 버전이 무료로 제공된다. 이전의 무료 버전은 이름 뒤에 free를 붙여서 인터넷에서 검색하면 찾을 수 있다. 루푸스를 사용해서 ISO 파일에서 부팅 스틱을 만들어 SSD를 지울 수 있을 것이다. editor@itworld.co.kr
인터넷에는 범죄 도구가 풍부하다. 한 예로 비밀번호 해독기와 취약점 검색기가 있다. 사생활 침해에 적합한 웹 애플리케이션도 쉽게 찾을 수 있다. 이를테면 전화번호 주인이나 사진 속 인물의 역 검색이다. 그러나 이런 도구는 범죄나 타인의 신원 확인 목적만이 아니라 사용자 보호나 비상 사태 대비 목적으로도 사용할 수 있다. 예를 들어, 비밀번호 해독기는 중요한 비밀번호를 찾는 최후의 수단인 경우가 많다. 취약점 검색기 역시 네트워크에서 해커가 진입 가능한 지점을 탐지한 후 차단할 목적으로 사용할 수 있다. 주의 : 비밀번호 해독이나 심지어 네트워크 염탐도 본인의 비밀번호와 본인의 네트워크가 관련된 경우에만 법적으로 허용된다. 타인의 비밀번호 해독이나 다른 네트워크의 염탐을 시도하면 처벌 대상이 된다. 윈도우 비밀번호 교체 도구 컴퓨터의 전원을 켠 후 입력하는 첫 비밀번호는 대개 윈도우 비밀번호다. 이 비밀번호를 몰라도 데이터를 잃는 것은 아니다. 컴퓨터를 부팅용 USB나 CD로 부팅한 후 중요한 문서를 다른 매체로 복사하면 된다. 단, 운영체제는 재설치해야 하는 것이 보통이다. 무료 도구인 가 해결책을 제공한다. 이 도구는 비밀번호를 해독하려 들지도 않고 그저 사용자가 선택한 문자 조합을 덮어 씌운다. 이 에디터는 업데이트된 지 오래 돼 마지막 버전이 2014년까지 거슬러 올라가지만 그래도 윈도우 10 및 11에서 실행된다. 단, 약간의 제한은 있다. 예를 들면, 컴퓨터가 부팅 시 레거시 모드를 지원해야 한다. 프로그램이 UEFI 부트와 연동되지 않기 때문이다. 하드디스크 또는 SSD가 비트로커(Bitlocker) 등의 소프트웨어로 암호화된 상태여도 안 된다. 윈도우의 내장 암호화 기능인 EFS 파일 시스템이 비밀번호와 연계되어 있다는 점도 유의해야 한다. 만일 예전에 하드 디스크를 암호화한 적이 있는 상태에서 비밀번호를 오프라인 NT 패스워드 앤 레지스트리 에디터로 변경하면 데이터를 잃는다. 오프라인 NT 패스워드 앤 레지스트리 에디터의 사용 방법 안내서는 확인할 수 있다. 오피스 문서의 비밀번호 워드, 엑셀, 파워포인트 등 마이크로소프트 365 프로그램은 문서를 비밀번호로 보호하고 암호화할 수 있다. 마이크로소프트는 새로운 버전이 나올 때마다 암호화 기능을 약간씩 강화하고 있다. 따라서, 구형 오피스 버전의 비밀번호를 해독할 수 있는 온갖 도구를 인터넷에서 찾을 수 있지만 최신 빌드의 마이크로소프트 365에서는 거의 불가능하다. 한 가지 예외가 다. 모든 마이크로소프트 오피스 버전 문서의 비밀번호를 해독할 수 있다. 개발사에 따르면 워드퍼펙트 오피스(Wordperfect Office), 오픈오피스(Openoffice.org), 그 외 여러 오피스 패키지의 비밀번호도 알아낼 수 있다. 비밀번호 해독 과정이 너무 오래 걸리지 않도록 하나 이상의 GPU가 사용된다. 이 도구는 유료인데, 가정용 버전은 49달러가 든다. 무료로 다운로드 가능한 테스트 버전도 있지만, 비밀번호가 최대 3글자만 표시돼 사실상 의미가 없다. 어도비 아크로뱃이나 워드를 통해 비밀번호 보호 기능을 적용한 PDF 문서는 특수한 경우다. 이런 문서의 비밀번호를 해독하려면 별도의 프로그램이 필요하다. 라는 도구인데 역시 49달러가 들고 기능이 한정된 테스트 버전이 있다. 엘컴소프트 제품 대신 쓸만한 것은 무료 명령줄 프로그램인 다. 이 도구는 명령줄을 통해 소프트웨어를 제어하므로 조작이 약간 더 복잡하다. 그러나 확장 프로그램의 도움을 받으면 마이크로소프트 365파일은 물론, 리브레 오피스 또는 암호화된 ZIP 파일을 해독하는 용도로 사용할 수 있다. 기존에 사용한 적이 있는 비밀번호로 엘컴소프트 프로그램과 존 더 리퍼가 비밀번호를 알아내는 데 얼마나 시간이 걸리는지 시험해 보면 현재 사용하는 비밀번호가 얼마나 안전한지 감을 잡을 수 있다. 범죄 해커 집단은 여러 개의 GPU와 그에 상응하는 수준인 최신 고성능 컴퓨터를 여러 대 이용할 수 있다는 점을 명심해야 한다. 이들 컴퓨터의 성능은 적어도 비밀번호 해독과 같은 특수 작업에 있어서는 PC 한 대의 성능을 수백 배 이상 능가할 수 있다. 내 네트워크 직접 검사하기 멀웨어가 컴퓨터에 침투하면 네트워크 내 다른 컴퓨터에도 공격을 시도하는 경우가 많다. 예방 조치로 네트워크 내 장치에 취약점 분석을 실시할 수 있다. 이 목적에 가장 잘 알려진 도구는 오픈소스 소프트웨어 이다. 엔맵은 외부에서 장치에 접근 가능한 통로인 열린 포트를 찾아 내고 포트 구성과 기타 데이터로부터 운영체제와 그 버전, 실행 서비스, 설치된 방화벽을 추론한다. 찾아 낸 구성의 취약점이 알려져 있는 경우, 범죄 해커는 그 취약점을 악용하여 컴퓨터를 접수할 수 있다. 엔맵은 전문가용 도구로, 네트워크 작동 방식에 대한 지식이 필요하다. 에서 프로그램의 명령줄 버전과 윈도우 인터페이스 사용 버전 둘 다에 대한 상세한 설명을 확인할 수 있다. 엔맵에서 제공한 데이터를 해석하려면 좀 공부를 해야 할 수도 있다. 와이파이 비밀번호 테스트 와이파이 네트워크의 보안은 사용되는 비밀번호에 크게 좌우된다. 이런 이유로 와이파이 비밀번호는 매우 길고 복잡한 경우가 많다. 와이파이 번호를 해독하려면 액세스 포인트와 클라이언트 사이의 데이터 트래픽을 장기간 기록하고 분석하는 것도 필요하다. 그 대신 무작위 대입 공격을 수행하여 네트워크 접근이 가능한 비밀번호가 나올 때까지 문자 조합을 시도하는 방법도 있다. 는 방식이 다르다. 사전 공유 키(데이터 암호화를 위해 액세스 포인트와 클라이언트 컴퓨터 사이에 교환되는 키)를 검색한다. 가능한 위치는 감시되는 와이파이 네트워크 또는 파일 형태로 기록된 데이터 트래픽이다. 에어크랙엔지는 몇몇 선택된 와이파이 칩셋 및 안테나와만 호환된다. 조작하기가 쉽지도 않다. 또한, 현실적으로는 짧은 비밀번호만 해독할 수 있다. 예컨대 프릿츠박스(Fritzbox)의 20자리 비밀번호는 해독할 가망이 없다. 그러나 보안 테스트 목적으로는 이 기능이 안성맞춤이다. 와이파이 비밀번호가 에어크랙엔지로 해독된다면 너무 짧은 것이다. 인터넷 상에서 신원 감추기 는 들키지 않고 인터넷을 돌아다니는 목적에 여전히 가장 좋은 선택지다. 여러 사이트에서 불법 상품이 거래되는 다크 웹을 방문하려면 토르를 통한 등록이 필수 전제조건이라는 점도 사실이다. 그런데 토르는 통제 국가의 많은 사람이 자국에서는 접근할 수 없는 웹사이트에 들키지 않고 접근할 가장 안전한 수단이기도 하다. 미국에서는 토르가 인터넷에서 익명성을 유지할 안전한 수단일 뿐이다. 토르 네트워크를 통해 이메일을 보내거나 SNS를 사용할 수도 있다. 페이스북은 다크 웹에서 자체 사이트를 수년 간 운영하고 있다. 토르에 접근하려면 파이어폭스(Firefox)를 커스터마이징하여 사전 구성한 버전인 무료 토르 브라우저만 있으면 된다. 안전하게 사용하고 싶다면, 역시 토르 네트워크 접근을 허용하는 리눅스 배포판 가 들어 있는 부팅용 CD를 사용하여 PC를 부팅해야 한다. 사진 역검색하기 는 얼굴 전용 검색 엔진이다. 인물 사진을 웹사이트에 업로드하거나 스마트폰으로 사진을 찍으면 자체 데이터베이스에서 동일한 인물의 더 많은 사진을 눈깜짝할 사이에 검색한다. 그 다음에는 검색된 사진을 제시하고 사진이 검색된 웹사이트의 이름을 알려준다. 세 건의 검색까지는 무료지만 웹 주소를 알려 주지는 않는다. 활성화하려면 검색 당 14.99달러를 지불해야 한다. 추가로 검색하려면 요금을 내야 한다. 가장 저렴한 구독 비용은 월 29.99달러다. 구글도 비슷한 서비스를 무료로 제공한다. 으로 이미지 검색을 할 수 있다. 검색 필드 오른쪽의 카메라 기호를 클릭하면 사진을 업로드할 수 있다. “검색”을 클릭한 후 이미지 부분을 조정한 다음 “이미지 소스 찾기”를 클릭한다. 그러면 이 사진이 나타나는 웹사이트의 목록이 제시된다. 두 서비스의 차이점은 하나다. 핌아이즈는 동일한 인물의 사진을 검색할 수 있으므로 캡션 등으로 사진을 식별할 수 있다. 즉, 핌아이즈는 안면 인식 서비스다. 반면, 구글의 이미지 검색은 웹 상에서 동일하거나 유사한 사진만 찾는다. 그러나, 두 검색 엔진 모두 저작권 있는 이미지의 무단 사용 등을 검색할 때 유용하게 활용할 수 있다. editor@itworld.co.kr
때때로 애플은 매우 흥미로운 아이디어를 내놓는다. 지난주 아이폰 신제품 출시 행사에서 눈길을 끄는 기능이 하나 있었다. 아이폰 15 프로와 아이폰 15 프로 맥스의 측면에만 있는 새로운 ‘액션 버튼’이다. 액션 버튼으로 아이폰 사용자가 선택한 특정 명령을 하나씩 소환할 수 있다. 화면에 집중하는 동시에 간단한 물리적 스위치를 쓸 수 있다는 개념이 정말 영리하게 느껴졌다. 언제나 사용할 수 있으며, 아무 생각이나 노력 없이 쉽게 찾을 수 있고, 일반적인 명령어를 손끝에 두고 쉽게 접근할 수 있다. 한 가지 비밀을 말하자면, 애플의 최신 기기가 있어야만 액션 버튼의 이점을 누릴 수 있는 것은 아니다. 사용 중인 모든 안드로이드 스마트폰에서 비슷한 기능을 만들 수 있으며, 훨씬 더 유연하고 강력할 수 있다. 그 방법은 다음과 같다. 안드로이드 ‘액션 버튼’을 향한 모험 안드로이드는 개방적인 접근을 허용하기 때문에 애플의 최고급 기기에 탑재된 최신 기능을 모방할 수 있을 뿐만 아니라 한 단계 업그레이드까지 할 수 있다. 기기 사용 환경 전체가 엄격하게 통제되고 애플이 생각하는 방식으로만 탐색할 수 있는 iOS와 달리, 안드로이드에는 다양한 옵션이 있다. 사용자는 원하는 거의 모든 방식으로 작업을 수행할 수 있으며, 앱 개발자 커뮤니티는 유연성과 맞춤 설정을 지원하는 도구를 만들도록 권장된다. 바로 이 철학이 ‘안드로이드 액션 버튼’을 향한 모험을 가능하게 만들었다. 정확하게 말하자면 ‘키 매퍼(Key Mapper)’라는 멋진 앱 덕분이다. 키 매퍼를 사용하면 스마트폰의 모든 물리적 버튼에 추가 작업을 할당할 수 있다. (아이폰의) ‘액션 버튼’이 없어도 전원 및 볼륨키 같은 기존 버튼에 동일한 개념을 적용할 수 있다는 이야기다. 또 애플이 허용하는 것에서 훨씬 더 나아가 해당 영역에 모든 종류의 고급 사용자 지정 작업을 할당할 수 있다. 그 예는 다음과 같다. • 스마트폰의 볼륨 줄이기 버튼을 길게 누르면 구글 어시스턴트가 호출되고, 볼륨 키우기 버튼을 길게 누르면 시스템 설정이나 자주 쓰는 앱이 열리도록 설정할 수 있다. • 볼륨을 조정할 때와 혼선이 있지 않도록 미디어를 재생하지 않을 때만 해당 기능을 사용하게끔 키 매퍼를 설정할 수 있다. • 미디어가 재생 중일 때 볼륨 키우기 버튼을 길게 누르면 현재 재생 목록의 이전 트랙으로 건너뛰고, 볼륨 줄이기 버튼을 길게 누르면 다음 트랙으로 건너뛰는 등 다양한 단축키를 만들 수도 있다. • 볼륨 높이기 버튼을 빠르게 누른 다음 볼륨을 줄이기 버튼을 누르면 플래시가 켜지도록 하는 등 고급 키 조합에 동작을 매핑할 수도 있다. 이 고리타분해 보일 정도로 상상할 수 있는 거의 모든 명령의 방대한 목록이 제공된다. 사용할 수 있는 작업은 사실상 무한하다. 이제 나만의 안드로이드 ‘액션 버튼’을 설정하고 실행할 준비가 됐는가?. 안드로이드 ‘액션 버튼’을 만드는 방법 1. 구글 플레이 스토어에서 키 매퍼를 설치한다. 완전히 무료다. 물론 사용하려면 시스템 권한이 필요하지만, 데이터를 공유, 판매하는 등의 의심스러운 행위는 하지 않는다. 오픈소스이기 때문에 누구나 기본 코드를 살펴보고 이것이 사실인지 확인할 수 있다. 2. 앱을 열고 안내에 따라 필요한 액세스 권한을 허용한다. 앱이 사용자의 물리적 버튼 누름을 감지하고 다른 작업을 매핑하기 위해 필요하다. 3. 앱의 메인 화면으로 이동한 후, 중앙 하단에 있는 더하기(+) 아이콘을 누른다. 4. 빨간색 레코드 트리거 버튼을 탭하고 볼륨 키우기 또는 볼륨 줄이기 버튼을 누른다. 5. 다음 화면에서 하단의 옵션을 ‘짧게 누르기’에서 ‘길게 누르기’ 또는 ‘두 번 누르기’로 변경한다. 그렇지 않으면 여기에서 만든 작업이 볼륨 버튼을 짧게 누르는 표준 동작을 대신해 볼륨을 변경할 수 없게 된다. 6. 마지막으로 화면 상단의 ‘작업’을 누른 다음, 작업 추가 버튼을 탭하고 원하는 작업을 선택한다. 사용자가 선택한 특정 작업에 따라 앱에서 다른 권한을 부여하라는 메시지가 뜰 수 있다. 예를 들어 방해 금지 모드와 관련된 모든 작업을 수행하려면 키 매퍼가 해당 설정을 수정할 수 있는 액세스 권한이 있어야 한다. 작업을 선택한 후 화면에 이 메시지가 표시되면 해당 메시지를 탭하고 단계에 따라 필요한 작업을 수행하면 된다. 좀 더 멋지게 꾸미고 싶다면 화면 상단의 ‘제약 조건’을 눌러 앞서 언급한 미디어 재생 예시처럼 새 기능이 작동하는 시점을 구체적으로 제한할 수 있으며, ‘옵션’을 탭 해 버튼을 길게 눌러야 등록되는 시간을 정확히 제어하는 등 몇 가지 고급 설정을 살펴볼 수 있다. 이제 기본 설정이 완료됐다. 규칙을 활성화할 준비가 됐다면 화면 오른쪽 하단에 있는 플로피 디스크 아이콘을 탭 해 저장하면 된다. 다른 볼륨키 길게 누르기 또는 두 번 누르기 동작에 추가 명령을 생성하려면 동일한 단계를 수행하여 믹스에 추가하면 된다. 또 여러 키를 동시에 또는 연속해서 누르는 트리거를 기록해 옵션을 더 확장할 수도 있다. 이제 남은 일은 새 안드로이드 ‘액션 버튼’ 단축키를 사용하는 습관을 들이고, 아이폰 사용자에게 새로운 능력을 과시하고 싶은 충동을 참는 것뿐이다! editor@itworld.co.kr
겉으로는 변화가 느껴지지 않을 수 있다. 새로운 핑크 색상을 제외한 의 모든 변경 사항은 S9 SiP, U2 초광대역 칩, 더 밝아진 디스플레이 등 내부에 있기 때문이다. 그중에서도 애플 워치 시리즈 9에 숨겨진 가장 흥미로운 신기능은 디스플레이를 터치하지 않고도 일부 명령을 제어할 수 있는 새로운 ‘’ 제스처다. 시계를 착용한 손의 엄지와 검지를 두 번 탭하기만 하면 전화 받기/끊기, 음악 재생/일시 정지, 알림 일시 중지 등 기본적인 기능을 실행할 수 있다. 다른 한 손이 바쁠 때 유용하게 활용할 수 있는 깔끔한 기능이다. 원더러스트 행사에서 사용해 본 결과, 제스처에 익숙해지는 데 시간이 조금 걸릴 것 같았다. 하지만 좋은 소식은 애플 워치 시리즈 9가 출시되기 전에 익숙해질 수 있다. 애플은 이미 애플 워치의 접근성 설정에 일련의 제스처를 내장하고 있기 때문이다. 주먹 두 번 쥐기 : 동작 메뉴 불러오기 주먹 쥐기 : 항목 탭하기 엄지 검지 맞대기 : 다음 항목으로 이동 엄지 검지 두 번 맞대기 : 이전 항목으로 이동 엄지와 검지를 맞대는 제스처는 애플 워치 시리즈 9의 더블 탭 제스처와 비슷한 듯하다. 아이폰의 애플 워치 앱이나 시계에서 설정으로 이동해 ‘손쉬운 사용 > 어시스티브터치(AssistiveTouch)’에서 활성화할 수 있다. ‘손 제스처’을 켜면 명령을 테스트할 수 있는 짧은 튜토리얼이 안내된다. 여기서 각 제스처가 수행하는 기능을 사용자화할 수 있다. 애플이 애플 워치 시리즈 9에서 접근성의 손 제스처를 변경할지, 어시스티브터치를 활성화할 때 ‘엄지 검지 두 번 맞대기’ 제스처를 비활성화할지는 확실하지 않지만, 새로운 더블 탭 제스처는 오랫동안 사용된 접근성 기능의 연장선상이 분명하다. editor@itworld.co.kr
지난달 바이든 미국 대통령은 안전 및 보안 조치부터 편견과 시민권 관련 문제, 생성형 AI 생산 방식에 대한 감독에 이르기까지 모든 것을 다루는 광범위한 행정 명령을 발표했다. 겉으로 보기에는 포괄적이고 강력한 행정명령이다. 하지만 실제로 그런 영향력을 발휘할지는 의문이다. 마이크로소프트는 다른 대형 생성형 AI 개발업체와 마찬가지로 이번 행정명령을 환영했다. 마이크로소프트 부회장 브래드 스미스는 "AI 기술 거버넌스에 있어 또 하나의 중요한 진전이다. 우리는 미국 정부와 협력해 이 새로운 기술의 힘과 가능성을 완전히 실현할 수 있기를 기대한다”라고 밝혔다. 마이크로소프트만이 아니다. 다른 대형 AI 업체의 임원들도 환영의 뜻을 밝혔다. 이유는 무엇일까? 뉴욕타임즈는 "마이크로소프트, 구글, 오픈AI, 메타 같은 업체 임원들은 모두 미국이 기술을 규제할 것으로 기대한다고 말했고, 놀랍게도 일부는 다소 안도하는 모습도 보였다. 기업은 강력한 AI 시스템이 남용될 경우 발생할 기업의 책임을 걱정하고 있다. 그리고 일부는 AI 기반 제품이 정부의 승인을 받아 소비자의 우려가 완화되기를 바란다”라고 분석했다. 여기서 근본적인 질문이 남는다. 브래드 스미스와 다른 IT 업체 임원들이 정부 규제를 지지한다는 것은 AI가 책임감 있는 방식으로 배포될 것이라는 확신을 가질 수 있다는 의미인가? 아니면 그들이 원하는 것을 할 수 있도록 혼자 남겨질 것이기 때문에 Biden의 행동에 만족할까요? 이 질문에 답하려면 먼저 이번 행정명령의 세부 내용을 살펴봐야 한다. 규제되지 않은 AI와 정면대결. 바이든 대통령은 행정명령을 내린 이유에 대해 "AI의 약속을 실현하고 위험을 피하려면 이 기술을 관리해야 한다. 다른 방법은 없다"고 솔직하게 말했다. 미국 대통령은 흔히 행정명령으로 진지한 조처를 하는 것처럼 보여줘 정치적으로 점수를 따는 수단으로 사용한다. 하지만 이번에는 다르다. 생성형 AI 규제는 이 기술을 마음대로 개발하도록 하면 일어날 수 있는 심각한 피해에 대한 면밀한 연구 분석을 기반으로 한다. 그런 위험성 주위에 방어막을 세우도록 설계