string(18) "������" ������ - ITWorld Korea
IDC가 발표한 새로운 보고서에 따르면, 대용량 데이터 분석을 위한 하둡과 맵리듀스 프로그래밍 프레임워크와 연계한 소프트웨어 시장은 2011년 7,700만 달러에서 2016년 8억 1,280만 달러로 성장, 연평균 성장률 60.2%를 기록할 것이다.     하둡은 맵리듀스 프레임워크의 오픈 소스 도구다. 하둡은 아파치 소프트웨어 재단(ASF)에 호스트되어 있으며, 하둡 분산 파일 시스템(HDFS)과 피그 프로그래밍 언어를...
새로운 소셜 네트워크 서비스인 핀터레스트의 폭발적인 성장은 아마존의 클라우드 서비스가 제공하는 확장성이 없었다면 불가능했을지도 모른다.   핀터레스트의 운영 엔지니어 라이언 파크는 뉴욕에서 열린 아마존 웹 서비스 서밋에서 &ld ...
스토리지 기술은 발전하고 성숙해 많은 데이터센터에서 상품의 단계에 접근하는 수준에까지 이르렀다. 그럼에도 불구하고 기업들은 BI(Business Intelligence) 역량을 더욱 거대한 데이터 셋에 적용하는 빅 데이터 분석에 대한 압박 등 스토리지 ...
이른바 빅 데이터를 분석하기 위해 하둡을 도입하는 기업이 늘어나면서 대규모의 데이터를 하둡과 기존 데이터베이스나 데이터 웨어하우스 간에 전송하는 방법에 대한 수요 또한 늘어나고 있다. 이를 위한 새로운 커넥터를 개발하던 자원 개발자들이 이제 아파치 소 ...
SAS코리아는 최근 업그레이드한 SAS 데이터통합서버를 통해 오픈소스 프레임워크인 하둡(Hadoop)을 전격 지원한다고 밝혔다. 이제 사용자들은 범용 오픈소스 데이터 환경에서도 SAS 비즈니스 분석(Business Analytics) 제품들을 활용해 빅 데이터 자산의 가치를 증대시킬 수 있다. 현재 아파치(Apache) 소프트웨어재단이 후원하는 하둡은 분산 컴퓨팅 환경에서 대량의 데이터를 처리하기 위한 자바(JAVA) 기반의 오픈소스 ...
클라우드월드 2012 컨퍼런스가 3월 14일 400여 명의 IT 전문가들이 참석한 가운데 성황리에 개최됐다. 한국 IDG가 주최하는 클라우드 월드는 올해로 5회째를 맞이하며 명실공이 국내 최고의 클라우드 컨퍼런스란 평가를 받고 있다.   ...
리누스 토발즈는 오픈소스가 사무실의 데스크톱을 지배하는 날은 절대 오지 않을 것이라 예언했다. 그러나 프로그래머들은 그의 예언을 과거의 우화로 바꾸어 놓았다.   오늘날의 오픈소스 모델(open source model)에서 가장 ...
2012.03.13
마이크로소프트가 최신 SQL 서버 2012의 출시 준비를 마쳤다고 밝혔다. 새 버전은 오는 4월 1일 정식 출시된다.   이번 버전에서 마이크로소프트는 SQL 서버를 기업이 대규모의 비구조화 데이터를 분석할 수 있는, 이른바 빅 데이터 툴로 내세우고 있다. 마이크로소프트의 비즈니스 플랫폼 마케팅 그룹의 총괄 책임자인 더그 리랜드는 “스토리지와 컴퓨팅 비용의 지속적인 하락으로 기업이 모든 데이터를 저장할 수 있는 시대에 ...
대량의 데이터 처리를 위해 만들어진 소프트웨어 프레임워크인 아파치 하둡의 창시자 더그 커팅과 만나 이야기를 나눴다.   2011년 '클라우드'에 이어 가장 큰 화두가 된 용어는 빅 데이터였다. 2012년 빅 데이터 ...
마이크로소프트는 엑셀 사용자들이 하둡에서 나온 산출물을 다운로드하고 분석할 수 있도록 하는 커넥터를 개발하고 있다. 하둡은 점진적으로 그 영역을 확장하고 있는 개방형 오픈소스 데이터 프로세싱 플랫폼이다.      야후에서 하둡의 분배와 상용화 지원 서비스를 위해 분리 독립한 호튼웍스 CTO 에릭 발데슈빌러는 "마이크로소프트가 말 그대로 수백만의 새로운 사용자에게 아파치 하둡을 개방한다는 것은 중...
EMC가 오픈소스 분석 플랫폼인 하둡을 지원하면서 자사의 최신 아이슬론 NAS를 제공하기 시작했다.   EMC는 얼리 어댑터들이 강력한 분석에 필요한 공유 데이터 접근을 억제하면서 빅 데이터를 조사하는 데 최적화되지 않은 임시 스토리지 인프라에 의존해야만 했기 때문에 기업들이 하둡을 제대로 이해하는 데 어려움이 있었다고 주장했다.   하둡의 분산 파일 시스템(HDFS) 프로토콜이 EMC 아이슬론 스케일 아웃...
2012.02.06
오늘날 비즈니스 테크놀로지 세계에서 빅 데이터라는 주제를 다루지 않고서는 말하지 못한다.    간단히 말하면 빅 데이터는 큰 볼륨의, 빠르고 다양한 데이터 세트에 관한 것이며, 전통적인 데이터베이스 툴로는 관리하기가 불 ...
하둡이 적합하다고 생각되는 관리자가 있으면 데이터 프레임워크로 구성된 오픈소스 소프트웨어를 다운로드받아 비교적 쉽게 시험해볼 수 있다.   지금까지 하둡 총정리를 통해 하둡을 관리하기 위해 갖춰야 하는 것들, 그리고 하둡을 사용 ...
빅 데이터는 클라우드 컴퓨팅만큼이나 널리 확산되고 있는 개념이다. 그러나 빅 데이터의 역량과 한계에 관해서는 사람들이 잘못 알고 있는 부분들이 많다. 특히 빅 데이터와 관련해 사람들은 다음의 질문들에 대한 내용들을 제대로 이해하지 못하고 있다. ...
거의 7년에 이르는 긴 개발과 세부 조정 작업을 거쳐 아파치 하둡 데이터 프로세싱 프레임워크가 마침내 완전한 버전으로 발표됐다.   아파치 하둡 프로젝트 팀은 정식 1.0 버전을 발표했다. 아파치 하둡 부사장 아룬 머시는 “사용자들은 이번 발표 버전이 오픈소스 커뮤니티의 지원을 받는다는 것에 대해 더욱 확실하게 알게 됐다”며, “더 이상 어떤 기능을 위해 하둡의 어떤 버전을 사용해야 하는지에 대한 ...
  1. 하둡-맵리듀스 연계 매출, 2016년 8억 1,280억 달러 성장 예측...IDC

  2. 2012.05.08
  3. IDC가 발표한 새로운 보고서에 따르면, 대용량 데이터 분석을 위한 하둡과 맵리듀스 프로그래밍 프레임워크와 연계한 소프트웨어 시장은 2011년 7,700만 달러에서 2016년 8억 1,280만 달러로 성장, 연평균 성장률 60.2%를 기록할 것이다.     하둡은 맵리듀스 프레임워크의 오픈 소스 도구다. 하둡은 아파치 소프트웨어 재단(ASF)에 호스트되어 있으며, 하둡 분산 파일 시스템(HDFS)과 피그 프로그래밍 언어를...

  4. 아마존 클라우드, 핀터레스트 성장과 성공의 기반 제공

  5. 2012.04.20
  6. 새로운 소셜 네트워크 서비스인 핀터레스트의 폭발적인 성장은 아마존의 클라우드 서비스가 제공하는 확장성이 없었다면 불가능했을지도 모른다.   핀터레스트의 운영 엔지니어 라이언 파크는 뉴욕에서 열린 아마존 웹 서비스 서밋에서 “클라우드가 우리를 더 효율적으로 만들었고, 새로운 실험을 아주 저렴한 비용으로 시도해 볼 수 있도록 했으며, 아주 적은 인력으로 매우 극적인 성장이 가능하도록 했다”고 밝혔다. &n...

  7. 하둡을 활용해 스토리지의 한계를 극복하는 방법

  8. 2012.04.20
  9. 스토리지 기술은 발전하고 성숙해 많은 데이터센터에서 상품의 단계에 접근하는 수준에까지 이르렀다. 그럼에도 불구하고 기업들은 BI(Business Intelligence) 역량을 더욱 거대한 데이터 셋에 적용하는 빅 데이터 분석에 대한 압박 등 스토리지 기술의 한계에 직면할 수 있는 상황에 처해 있다.   하지만 빅 데이터의 분석 과정은 일반적으로 기존의 스토리지 패러다임을 넘어서는 역량을 필요로 한다. 쉽게 말해 SANs와 NAS...

  10. 아파치, 하둡 관련 스쿱 프로젝트 전력 지원

  11. 2012.04.03
  12. 이른바 빅 데이터를 분석하기 위해 하둡을 도입하는 기업이 늘어나면서 대규모의 데이터를 하둡과 기존 데이터베이스나 데이터 웨어하우스 간에 전송하는 방법에 대한 수요 또한 늘어나고 있다. 이를 위한 새로운 커넥터를 개발하던 자원 개발자들이 이제 아파치 소프트웨어 재단으로부터 전격적인 지원을 받게 됐다.   아파치 소프트웨어 재단(Apache Software Foundation, ASF)은 대용량 데이터 전송 툴인 스쿱(Sqoop)을 ...

  13. SAS, 첨단 분석 기술과 빅 데이터 융합 위해 하둡 전격 지원

  14. 2012.04.02
  15. SAS코리아는 최근 업그레이드한 SAS 데이터통합서버를 통해 오픈소스 프레임워크인 하둡(Hadoop)을 전격 지원한다고 밝혔다. 이제 사용자들은 범용 오픈소스 데이터 환경에서도 SAS 비즈니스 분석(Business Analytics) 제품들을 활용해 빅 데이터 자산의 가치를 증대시킬 수 있다. 현재 아파치(Apache) 소프트웨어재단이 후원하는 하둡은 분산 컴퓨팅 환경에서 대량의 데이터를 처리하기 위한 자바(JAVA) 기반의 오픈소스 ...

  16. "비즈니스 관점의 클라우드에 주목하라" 클라우드월드 2012 성황리 개최

  17. 2012.03.15
  18. 클라우드월드 2012 컨퍼런스가 3월 14일 400여 명의 IT 전문가들이 참석한 가운데 성황리에 개최됐다. 한국 IDG가 주최하는 클라우드 월드는 올해로 5회째를 맞이하며 명실공이 국내 최고의 클라우드 컨퍼런스란 평가를 받고 있다.   올해 클라우드월드의 주제는 “Transform. Accelerate. Profit.”으로, 지난 해 컨퍼런스가 “From Hype to Reality”로...

  19. 주목해야 할 오픈소스 프로그래밍 툴 11선

  20. 2012.03.13
  21. 리누스 토발즈는 오픈소스가 사무실의 데스크톱을 지배하는 날은 절대 오지 않을 것이라 예언했다. 그러나 프로그래머들은 그의 예언을 과거의 우화로 바꾸어 놓았다.   오늘날의 오픈소스 모델(open source model)에서 가장 크게 주목받는 영역을 꼽으라면, 프로그래밍 툴(programming tool)이 될 것이다. 오픈소스는 상표 스택(proprietary stack)의 가장 깊숙한 곳에서도 발견되며, 종종 해당 영역을 지배...

  22. 마이크로소프트, SQL 서버 2012로 빅 데이터 시장 노크

  23. 2012.03.07
  24. 마이크로소프트가 최신 SQL 서버 2012의 출시 준비를 마쳤다고 밝혔다. 새 버전은 오는 4월 1일 정식 출시된다.   이번 버전에서 마이크로소프트는 SQL 서버를 기업이 대규모의 비구조화 데이터를 분석할 수 있는, 이른바 빅 데이터 툴로 내세우고 있다. 마이크로소프트의 비즈니스 플랫폼 마케팅 그룹의 총괄 책임자인 더그 리랜드는 “스토리지와 컴퓨팅 비용의 지속적인 하락으로 기업이 모든 데이터를 저장할 수 있는 시대에 ...

  25. 인터뷰 | 더그 커팅, "오픈소스 하둡, 빅 데이터를 효과적으로 다룬다"

  26. 2012.03.06
  27. 대량의 데이터 처리를 위해 만들어진 소프트웨어 프레임워크인 아파치 하둡의 창시자 더그 커팅과 만나 이야기를 나눴다.   2011년 '클라우드'에 이어 가장 큰 화두가 된 용어는 빅 데이터였다. 2012년 빅 데이터는 공공과 민간 분야의 많은 IT 조직들이 본격적으로 도입을 고민해야 할 기술이 될 것으로 보인다.   근본적인 문제는 결국 '최종 사용자가 생성하는, 많은 경우 막대한 양의 ...

  28. 엑셀과 하둡의 만남, MS와 호튼웍스 협력 강화

  29. 2012.02.29
  30. 마이크로소프트는 엑셀 사용자들이 하둡에서 나온 산출물을 다운로드하고 분석할 수 있도록 하는 커넥터를 개발하고 있다. 하둡은 점진적으로 그 영역을 확장하고 있는 개방형 오픈소스 데이터 프로세싱 플랫폼이다.      야후에서 하둡의 분배와 상용화 지원 서비스를 위해 분리 독립한 호튼웍스 CTO 에릭 발데슈빌러는 "마이크로소프트가 말 그대로 수백만의 새로운 사용자에게 아파치 하둡을 개방한다는 것은 중...

  31. EMC, 하둡 통합한 아이슬론 NAS 출시

  32. 2012.02.06
  33. EMC가 오픈소스 분석 플랫폼인 하둡을 지원하면서 자사의 최신 아이슬론 NAS를 제공하기 시작했다.   EMC는 얼리 어댑터들이 강력한 분석에 필요한 공유 데이터 접근을 억제하면서 빅 데이터를 조사하는 데 최적화되지 않은 임시 스토리지 인프라에 의존해야만 했기 때문에 기업들이 하둡을 제대로 이해하는 데 어려움이 있었다고 주장했다.   하둡의 분산 파일 시스템(HDFS) 프로토콜이 EMC 아이슬론 스케일 아웃...

  34. 글로벌 칼럼 | "하둡 축제를 준비하자"

  35. 2012.01.27
  36. 오늘날 비즈니스 테크놀로지 세계에서 빅 데이터라는 주제를 다루지 않고서는 말하지 못한다.    간단히 말하면 빅 데이터는 큰 볼륨의, 빠르고 다양한 데이터 세트에 관한 것이며, 전통적인 데이터베이스 툴로는 관리하기가 불가능하다.    2011년 전세계 데이터 출력량은 1.8제타바이트(1제타바이트는 10억테라바이트)였다. 더 충격적인 것은 전세계 데이터의 90%는 불과 2년 전사이에 만들어진...

  37. 빅 데이터의 열쇠 하둡 총정리 3 RDBMS에서 하둡으로 가는 길

  38. 2012.01.18
  39. 하둡이 적합하다고 생각되는 관리자가 있으면 데이터 프레임워크로 구성된 오픈소스 소프트웨어를 다운로드받아 비교적 쉽게 시험해볼 수 있다.   지금까지 하둡 총정리를 통해 하둡을 관리하기 위해 갖춰야 하는 것들, 그리고 하둡을 사용하는데 따른 이익과 문제점들을 알아보았다.    이번 마지막 회에서는 기존의 RDBMS에서 하둡으로 옮겨가는데 따른 비용과 관계된 기술들을 살펴보고, 기업들이 현재 어떻게 하...

  40. 빅 데이터의 열쇠 하둡 총정리 1 : 개념과 알아둬야 할 것

  41. 2012.01.11
  42. 빅 데이터는 클라우드 컴퓨팅만큼이나 널리 확산되고 있는 개념이다. 그러나 빅 데이터의 역량과 한계에 관해서는 사람들이 잘못 알고 있는 부분들이 많다. 특히 빅 데이터와 관련해 사람들은 다음의 질문들에 대한 내용들을 제대로 이해하지 못하고 있다.   - 어떻게 기존의 데이터베이스들이 사실상 비관계형(non-relational)인 데이터 저장 엔진들과 함께 사용될 수 있는가?   - 관계형 DBMS(RDBMS)...

  43. 아파치 하둡, 마침내 정식 버전 출시

  44. 2012.01.05
  45. 거의 7년에 이르는 긴 개발과 세부 조정 작업을 거쳐 아파치 하둡 데이터 프로세싱 프레임워크가 마침내 완전한 버전으로 발표됐다.   아파치 하둡 프로젝트 팀은 정식 1.0 버전을 발표했다. 아파치 하둡 부사장 아룬 머시는 “사용자들은 이번 발표 버전이 오픈소스 커뮤니티의 지원을 받는다는 것에 대해 더욱 확실하게 알게 됐다”며, “더 이상 어떤 기능을 위해 하둡의 어떤 버전을 사용해야 하는지에 대한 ...

X