이 기사에서는 현대 데이터 과학에 가장 큰 영향을 미치는 세 가지 프로그래밍 언어를 살펴본다. 이 세 언어는 강력한 기능과 속도뿐만 아니라 편의성, 써드파티 라이브러리를 통해 데이터 기반 작업을 구현하는 방법 측면에서도 중요하다.
파이썬
파이썬을 빼고 현대 데이터 과학을 논할 수는 없다. 몇 십년 전에 탄생한 언어지만 데이터 과학을 위한 사실상의 표준 언어가 되면서 지난 10년 동안 폭발적으로 인기가 높아졌다.여기에는 파이썬의 두 가지 특징이 중요하기 작용한다. 첫째, 파이썬은 프로그램하기가 비교적 쉬운 언어다. 작동하는 소프트웨어 프로토타입을 빠르게 만들고 필요에 따라 점진적으로 성능을 개선해 나갈 수 있다. 다른 언어보다 파이썬을 사용할 때 더 빠르게 데이터 과학 프로젝트를 준비하고 실행할 수 있다. 또한 기존 데이터 과학 커뮤니티에서 파이썬 기반 프로젝트에 사용할 수 있는 빠른 템플릿이 많이 제공된다는 점도 도움이 된다.
두 번째 중요한 특징은 파이썬의 서드파티 라이브러리 생태계다. 어떤 문제에 직면하든 대부분의 경우 다른 사람이 개발해서 패키지로 만들어둔 해결책이 이미 있다. 이 생태계에는 수치 계산 라이브러리(넘파이, 판다스, 폴라스), 그래프 및 플롯 툴(보케, 플로틀리), 재현 가능한 작업을 위한 노트북 환경(주피터), 머신 러닝 및 AI 툴킷(파이토치), 분석 툴(덕DB) 등 데이터 과학을 위한 유용한 툴이 넘칠 만큼 많다.
다만 높은 인기와 매력에도 불구하고 일부 데이터 과학 애플리케이션의 개발과 배포를 어렵게 하는 단점도 존재한다.
파이썬에는 파이썬 애플리케이션을 독립적인 프로그램으로 배포하기 위한 기본 메커니즘이 없다. 파이썬 라이브러리를 작성한다면 이 라이브러리를 패키지화해서 파이PI를 통해 다른 사용자에게 배포할 수 있다. 그러나 이 말은 다른 사용자가 이 코드를 사용하기 위해 파이썬 환경을 설정하는 방법을 알아야 한다는 것을 의미한다. 파이썬 경험이 없는 사람이 간단히 다운로드해서 실행할 수 있도록 파이썬 프로그램을 패키지화하는 것은 훨씬 더 어렵다. 물론 불가능하지는 않다. 다만 어렵고, 파이썬 툴체인에서 기본적으로 지원되지 않는다.
자신이 만든 파이썬 툴을 다른 사람들이 사용할 수 있도록 리패키징하려는 데이터 과학자에게 선택지는 한계가 있다. 다른 사람들이 파이썬을 잘 안다고 전제하고 라이브러리로 배포하거나(파이썬을 모르는 사람들도 있음), 웹 인터페이스를 통해 배포하거나(항상 가능한 방법은 아님), 도커와 같은 컨테이너 시스템을 통해 배포하거나(이 방법 역시 다른 사람에게 익숙하지 않을 수 있음), 서드파티 툴을 사용해서 앱 및 라이브러리와 함께 파이썬 런타임을 패키징하는 방법이 있다(안정성이 보장되지 않음).
또 다른 단점은 네이티브 파이썬 코드의 속도다. CPU 기반 계산을 수행할 때 C, 러스트, 줄리아 또는 다른 언어에 비해 훨씬 더 느리다. 즉, 고성능 파이썬 코드는 일반적으로 파이썬 자체로 작성되지 않아서 사용자와 사용자가 수행하는 작업 사이에 가외의 추상화 수준이 들어갈 수밖에 없다. 네이티브 파이썬의 속도를 높이기 위한 작업이 진행 중이지만 빠른 시일 내에 머신 네이티브 코드와 같은 정도의 속도를 낼 가능성은 높지 않다.
줄리아
2012년에 처음 출시된 줄리아 언어는 데이터 과학자를 위해 만들어진 언어다. 줄리아를 만든 사람들은 파이썬만큼 다루기 쉬우면서 C 또는 포트란만큼 빠르고, 동시에 두 가지 이상의 언어로 작업하지 않아도 최선의 결과를 얻을 수 있는 언어를 목표로 했다.줄리아의 핵심은 LLVM 컴파일러 시스템을 통한 "Just-In-Time", 즉 JIT 컴파일되는 머신 네이티브 코드다. 줄리아 코드는 파이썬 구문만큼 간소하므로 쉽게 작성해서 빠르게 결과를 얻을 수 있다. 처음에는 컴파일러가 형식을 추론하도록 한 다음 나중에 형식 주석을 제공해 성능을 높일 수 있다.
줄리아의 패키지 모음에는 일반적인 수학 함수(예를 들어 선형 대수 또는 행렬 이론), AI, 통계, 병렬 컴퓨팅 또는 GPU 기반 컴퓨팅 작업을 위한 툴 등 대부분의 일반적인 데이터 과학 또는 분석 작업을 위한 라이브러리가 포함돼 있다. 이러한 패키지 중 다수는 네이티브 줄리아로 작성됐지만 텐서플로우와 같은 잘 알려진 서드파티 라이브러리를 활용하기도 한다. 또한 공유 라이브러리에 기존 C 또는 포트란 코드가 있는 경우 최소한의 오버헤드로 줄리아에서 직접 이를 호출할 수 있다.
데이터 과학자는 빠르게 코드를 작성하고 공유하기 위해 인터랙티브 주피터 노트북 환경을 사용한다. I줄리아(IJulia) 패키지는 주피터와 주피터랩 IDE에 줄리아 코드 지원을 추가한다.
줄리아를 사용할 때의 단점은 무엇일까? 한 가지 문제는 파이썬의 중대한 제약 중 하나와 동일하다. 줄리아 런타임이 없는 다른 사람이 사용할 수 있도록 줄리아 프로그램을 쉽게 번들로 만들 수 있는 방법이 아직 없다. 다양한 임시방편이 존재하지만 재배포 가능한 앱을 만들기 위한 전체 워크플로우를 처리하는 하나의 "만능" 솔루션은 없다.
또 다른 문제는 줄리아를 배우는 과정에서 일찍 직면하는 "첫 X까지의 시간" 문제(첫 플롯까지의 시간, 줄여서 "TTFP"라고도 함)에 있다. 줄리아는 JIT 컴파일되므로 프로그램이 처음 실행될 때의 속도는 이후 실행에 비해 훨씬 더 느릴 수 있다. 숙련된 줄리아 사용자는 첫 실행 지연을 줄이기 위한 툴과 기법을 빠르게 학습한다.
세 번째 잠재적인 장애물은 다른 언어에서는 코어 라이브러리에 포함된, 일반적으로 사용되는 몇 가지 요소가 줄리아에서는 써드파티 항목으로만 제공된다는 점에 있다. 예를 들어 파이썬의 pathlib 라이브러리는 객체 지향적인 파일 경로 처리 방법을 제공한다. 줄리아에서 경로는 기본적으로 문자열로 처리되기 때문에 몇 가지 일반적인 경로 연산이 필요 이상으로 복잡해진다.
러스트
요즘 전반적으로 가장 인기 있는 새로운 언어 중 하나인 러스트는 데이터 과학 분야에서 입지를 높이는 중이다. 개발자는 러스트를 사용하면 실행 속도가 빠르고 진정한 병렬 처리를 사용하며 메모리에 안전하고 많은 버그를 피해가는 데이터 과학 툴을 만들 수 있다. 모두 데이터를 대규모로 다룰 때 중요한 특징이다.많은 데이터 과학자가 러스트로 개발된 툴을 사용해본 적이 있을 것이다. 예를 들어 데이터프레임을 위한 폴라스 라이브러리는 러스트로 작성됐으며 파이썬을 포함한 다른 많은 언어에서 사용 가능하다. 그러나 러스트의 네이티브 패키지 컬렉션("크레이트(crate)"라고 함)을 사용하면 해당 언어에서 바로 데이터 과학 작업을 할 수 있다. ndarray 크레이트는 파이썬의 넘파이와 비슷한 강력한 행렬 수학 툴을 제공한다. plotters 크레이트는 차트와 그래프를 그린다. evcxr_jupyter 프로젝트는 노트북 환경에서 러스트를 사용하기 위한 주피터 커널을 제공한다.
러스트 프로젝트에서 재배포 가능 바이너리 생성하기는 파이썬이나 줄리아를 사용할 때보다 쉬우며 이는 데이터 과학에서 큰 장점이다. 러스트는 프로젝트만이 아니라 데이터 과학 툴(예를 들어 폴라스)을 더 쉽게 만들 수 있게 해준다.
정확성과 메모리 안전성에 대한 러스트의 고집은 가치 있는 특징이면서 가장 큰 단점이기도 하다. 파이썬, 그리고 가끔 줄리아가 실행 속도를 내주고 개발 속도를 얻는다면 러스트는 그 반대다. 러스트는 파이썬이나 줄리아보다 배우기가 어렵고 러스트 프로그램을 작성하는 데는 파이썬이나 줄리아 프로그램보다 더 오랜 시간이 걸릴 수 있다.
이러한 이유로 러스트는 단기간에 프로토타입을 만들어야 하는 프로젝트에는 적합하지 않고, 정확성과 안전성이 더 중요한 프로젝트에 잘 맞는다. 러스트의 안전 기능은 데이터 과학 라이브러리 또는 공개 애플리케이션을 개발하는 데 이상적이지만 내부 전용으로 사용할 프로젝트에는 최선의 선택이 아닐 수 있다.
결론
데이터 과학 용도로 파이썬을 선택해서 잘못될 일은 거의 없다. 가장 빠르거나 재배포하기가 가장 쉬운 솔루션이 되기 위해서는 다른 솔루션에 비해 더 많은 작업이 필요할 수 있지만 지원 범위가 넓고 전체적인 성능도 우수하기 때문이다.줄리아는 처음부터 데이터 과학을 위해 만들어졌고 전체적으로 더 적은 양의 작업으로 더 빠른 속도를 약속하며 실제로 그 약속을 실현하지만, 독립족인 줄리아 프로그램을 재배포하기가 어려운 단점이 있다. 러스트의 속도와 정확성은 최고 수준이고 그래서 많은 일반적인 데이터 과학 툴에서 선택하는 언어다. 그러나 빠른 반복 또는 빠른 프로토타이핑이 필요한 프로젝트에는 최선의 선택이 아니다.
editor@itworld.co.kr
Sponsored
Seagate
'반박 불가' 하드 드라이브와 SSD에 관한 3가지 진실
ⓒ Getty Images Bank 하드 드라이브가 멸종할 것이라는 논쟁이 10년 넘게 계속되고 있다. 빠른 속도와 뛰어난 성능이 필요한 애플리케이션에 적합한 플래시 스토리지의 연매출이 증가하고 있는 것은 자명한 사실이다. 하지만, 클라우드의 보편화 및 AI 사용 사례의 등장으로 인해 방대한 데이터 세트의 가치가 높아지는 시대에 하드 드라이브는 플래시 스토리지로 대체할 수 없는 가치를 가지고 있다. 전 세계 엑사바이트(EB) 규모 데이터의 대부분을 저장하는 하드 드라이브는 데이터센터에서 그 어느 때보다 필수적이다. 전 세계 데이터 세트의 대부분이 저장된 엔터프라이즈 및 대규모 클라우드 데이터센터는 데이터 성장에서 핵심이 될 것이다. 하드 드라이브와 SSD를 비교하자면, 하드 드라이브 스토리지는 2022년에서 2027년 사이 6,996EB 증가할 것으로 예상되는 반면, SSD는 1,363EB 증가할 것으로 보인다. ⓒ Seagate 생성형 AI 시대에는 콘텐츠를 경제적으로 저장해야 하기 때문에 플래시 기술과 밀접하게 결합된 컴퓨팅 클러스터는 더 큰 하드 드라이브 EB의 다운스트림 수요를 직간접적으로 촉진할 것이다. 하드 드라이브가 왜 데이터 스토리지 아키텍처의 중심이 될 수밖에 없는지는 시장 데이터를 근거로 설명 가능하다. 가격 책정 근거 없는 믿음 : SSD 가격이 곧 하드 드라이브 가격과 같아질 것이다. 사실 : SSD와 하드 드라이브 가격은 향후 10년간 어느 시점에도 수렴하지 않을 것이다. 데이터가 이를 명확하게 뒷받침한다. 하드 드라이브는 SSD에 비해 테라바이트당 비용 면에서 확고한 우위를 점하고 있으며, 이로 인해 하드 드라이브는 데이터센터 스토리지 인프라의 확고한 주춧돌 역할을 하고 있다. IDC 및 포워드 인사이트(Forward Insights)의 연구에 따르면, 하드 드라이브는 대부분의 기업 업무에 가장 비용 효율적인 옵션으로 유지될 것으로 전망된다. 엔터프라이즈 SSD와 엔터프라이즈 하드 드라이브의 TB당 가격 차이는 적어도 2027년까지 6대 1 이상의 프리미엄이 유지될 것으로 예상된다. ⓒ Seagate 이러한 TB당 가격 차이는 장치 구입 비용이 총소유비용(TCO)에서 가장 큰 비중을 차지하는 데이터센터에서 특히 두드러지게 드러난다. 장치 구입, 전력, 네트워킹, 컴퓨팅 비용을 포함한 모든 스토리지 시스템 비용을 고려하면 TB당 TCO는 하드 드라이브 기반 시스템이 훨씬 더 우수하게 나타난다. ⓒ Seagate 따라서, 플래시는 특정 고성능 작업의 수행에 탁월한 스토리지이지만, 하드 드라이브는 당분간 안정적이고 비용 효율적이며 널리 채택된 솔루션을 제공하는 데이터센터에서 계속해서 주류로 사용될 것이다. 공급과 확장의 관계 근거 없는 믿음 : NAND 공급이 모든 하드 드라이브 용량을 대체할 정도로 증가할 수 있다. 사실 : 하드 드라이브를 NAND로 완전히 교체하려면 감당할 수 없는 설비투자(CapEx)가 필요하다. NAND 산업이 모든 하드 드라이브 용량을 대체하기 위해 공급을 빠르게 늘릴 수 있다는 주장은 재정적, 물류적으로 엄청난 비용이 발생한다는 점을 간과한 낙관적인 생각이다. 산업 분석기관 욜 인텔리전스(Yole Intelligence)의 2023년 4분기 NAND 시장 모니터 리포트에 따르면, 전체 NAND 산업은 2015년~2023년 사이 3.1제타바이트(ZB)를 출하하면서 총 매출의 약 47%에 해당하는 2,080억 달러의 막대한 자본 지출을 투자해야 했다. 반면, 하드 드라이브 산업은 데이터센터 스토리지 수요의 거의 대부분을 매우 자본 효율적인 방식으로 해결하고 있다. 씨게이트가 2015년~2023년 사이 3.5ZB의 스토리지를 출하하며 투자한 자본은 총 43억 달러로, 전체 하드 드라이브 매출의 약 5%에 불과하다. 그러나 NAND 산업의 경우 ZB당 약 670억 달러에 해당하는 금액을 투자한 것으로 나타나 하드 드라이브가 데이터센터에 ZB를 공급하는 것이 훨씬 더 효율적임을 알 수 있다. ⓒ Seagate 작업 부하 근거 없는 믿음 : 올 플래시 어레이(AFA)만이 최신 엔터프라이즈 작업 부하의 성능 요구를 충족할 수 있다. 사실 : 엔터프라이즈 스토리지 아키텍처는 일반적으로 디스크 또는 하이브리드 어레이, 플래시, 테이프를 사용하여 특정 작업 부하의 비용, 용량, 성능 요구 사항에 최적화할 수 있도록 미디어 유형을 혼합한다. 기업이 플래시 없이는 최신 작업 부하의 성능 수요를 따라잡지 못할 위험이 있다는 주장은 다음과 같은 3가지 이유로 반박 가능하다. 첫째, 대부분의 최신 작업 부하에는 플래시가 제공하는 성능상의 이점이 필요하지 않다. 전 세계 데이터의 대부분은 클라우드와 대규모 데이터센터에 저장되어 있으며, 이러한 환경에서는 작업 부하 중 극히 일부에만 상당한 성능이 필요하다는 파레토 법칙을 따르고 있다. 둘째, 예산 제약이 있고 데이터 세트가 빠르게 증가하는 기업들은 성능뿐만 아니라 용량과 비용의 균형을 맞춰야 한다. 플래시 스토리지는 읽기 집약적인 시나리오에서는 탁월한 성능을 발휘하지만 쓰기 작업이 증가하면 내구성이 떨어져 오류 수정과 오버프로비저닝에 추가 비용이 발생한다. 또한, 대규모 데이터 세트나 장기 보존의 경우 영역 밀도가 증가하는 디스크 드라이브가 더 비용 효율적인 솔루션일 뿐만 아니라 수천 개의 하드 드라이브를 병렬로 활용하면 플래시를 보완하는 성능을 달성할 수 있다. 셋째, 수많은 하이브리드 스토리지 시스템은 다양한 미디어 유형의 강점을 단일 유닛에 원활하게 통합하고 최대한으로 활용할 수 있도록 세밀하게 조정된 소프트웨어 정의 아키텍처를 사용한다. 이러한 스토리지는 유연성을 제공하므로 기업은 지속적으로 변화하는 요구 사항에 따라 스토리지 구성을 조정할 수 있다. AFA와 SSD는 고성능의 읽기 집약적인 작업에 매우 적합하다. 하지만 하드 드라이브가 이미 훨씬 낮은 TCO로 제공하는 기능을 AFA로 불필요하게 비싼 방법으로 제공하는 것은 비용 효율적이지 않을 뿐만 아니라, AFA가 하드 드라이브를 대체할 수 있다고 주장하는 근거가 될 수 없다.
Seagate
“작지만 큰 영향력” 하드 드라이브의 나노 스케일 혁신
ⓒ Seagate 플래터당 3TB라는 전례 없는 드라이브 집적도를 자랑하는 새로운 하드 드라이브 플랫폼이 등장하며 디지털 시대의 새로운 이정표를 세웠다. 플래터당 3TB를 저장할 수 있다는 것은 동일한 면적에서 스토리지 용량을 기존 드라이브 대비 거의 두 배로 늘릴 수 있다는 것을 의미한다. 이러한 혁신은 데이터 스토리지의 미래와 데이터센터의 디지털 인프라에 괄목할 만한 영향을 미친다. AI의 발전과 함께 데이터의 가치가 그 어느 때보다 높아졌다. IDC에 따르면 2027년에는 전 세계에서 총 291ZB의 데이터가 생성될 것으로 예측되며, 이는 스토리지 제조 용량의 15배 이상일 것으로 보인다. 대부분의 데이터를 호스팅하는 대형 데이터 센터에 저장된 데이터 중 90%가 하드 드라이브에 저장된다. 즉, AI 애플리케이션의 주도로 데이터가 급증함에 따라 물리적 공간을 늘리지 않으면서도 데이터를 저장할 수 있는 스토리지 기술 혁신이 필요하다. 데이터 스토리지 인프라를 업그레이드하는 것은 단순히 기술적인 문제가 아니라 지금 시대가 직면한 규모, 총소유비용(TCO), 지속가능성이라는 과제에 대한 논리적 해답인 셈이다. 열 보조 자기 기록(HAMR) 기술은 선구적인 하드 드라이브 기술로 드라이브 집적도 향상을 위해 지난 20년 동안 수많은 연구를 거쳐 완성되어 왔다. 씨게이트 모자이크 3+ 플랫폼은 이러한 HAMR 기술을 씨게이트만의 방식으로 독특하게 구현한 것으로, 미디어(매체)부터 쓰기, 읽기 및 컨트롤러에 이르는 복잡한 나노 스케일 기록 기술과 혁신적인 재료 과학 역량을 집약한 결정체다. 이 플랫폼은 데이터 비트를 변환하고 자기 및 열 안정성을 유지하면서 더욱 촘촘하게 패킹해서 각 플래터에 훨씬 더 많은 데이터를 안정적이고 효율적으로 저장할 수 있다. 예를 들어, 기존 데이터센터에 있는 16TB 드라이브를 30TB 드라이브로 업그레이드하면 동일한 면적에서 스토리지 용량을 두 배로 늘릴 수 있다. 더 낮은 용량에서 업그레이드한다면 상승 폭은 더욱 커진다. 이 경우, 테라바이트당 전력 소비량이 40% 감소하는 등 스토리지 총소유비용(TCO)이 크게 개선된다. 또한 효율적인 자원 할당과 재활용 재료 사용으로 운영 비용을 절감하고 테라바이트당 탄소 배출량을 55% 감소시켜 데이터센터가 지속 가능성 목표를 달성할 수 있다. 드라이브 집적도 향상은 하이퍼스케일과 프라이빗 데이터센터의 판도를 바꿀 수 있다. 데이터센터가 급증하며 전력사용량과 탄소배출량 역시 늘어나 데이터센터의 지속가능성이 화두가 되고 있는 가운데, 과학기술정보통신부는 ‘탄소중립 기술혁신 추진전략-10대 핵심기술 개발방향’에서 2030년까지 데이터센터 전력소모량을 20% 절감하겠다고 밝힌 바 있다. 이러한 목표에 발맞춰, 집적도를 획기적으로 개선한 대용량 데이터 스토리지를 활용하는 것은 원활하고 지속적인 AI 모델 학습, 혁신 촉진 및 비즈니스 성공을 위해 필수적이다. 엔터프라이즈 데이터센터의 경우 제한된 공간, 전력, 예산에 맞춰 확장할 수 있는 지속 가능한 방법을 찾아야 한다. 하드 드라이브의 집적도 혁신은 점점 더 커져가는 클라우드 생태계와 AI 시대에 대응하는 해답이자, 동일한 공간에 더 많은 엑사바이트를 저장하면서도 자원 사용은 줄이도록 인프라를 확장할 수 있는 방법이다. 이는 글로벌 데이터 영역에서 경쟁력을 유지하고 글로벌 디지털 경제의 선두주자로서 입지를 강화하는 데 매우 중요하다.