HOME > 상세정보

상세정보

(따라 하며 배우는) 하둡과 빅데이터 분석 실무 (19회 대출)

자료유형
단행본
개인저자
Owens, Jonathan R. Lentz, Jon, 저 Femiano, Brian, 저 안건국, 역 이정림, 역
서명 / 저자사항
(따라 하며 배우는) 하둡과 빅데이터 분석 실무 / 조나단 오웬스, 존 렌츠, 브라이언 페미아노 지음 ; 안건국, 이정림 옮김
발행사항
의왕 :   에이콘,   2013  
형태사항
365 p. : 삽화 ; 24 cm
총서사항
acorn+PACKT technical book 시리즈
원표제
Hadoop real-world solutions cookbook : realistic, simple code examples to solve problems at scale with Hadoop and related technologies
ISBN
9788960774865 9788960772106 (set)
일반주기
기술 감수자: 에드워드 코디(Edward J. Cody), 다니엘 쥬(Daniel Jue), 브루스 밀러(Bruce Miller)  
색인수록  
일반주제명
Electronic data processing -- Distributed processing File organization (Computer science)
000 01505camcc2200409 c 4500
001 000045790874
005 20140313101431
007 ta
008 140311s2013 ggka 001c kor
020 ▼a 9788960774865 ▼g 94000
020 1 ▼a 9788960772106 (set)
035 ▼a (KERIS)BIB000013321687
040 ▼a 243001 ▼c 243001 ▼d 243001 ▼d 211009
041 1 ▼a kor ▼h eng
082 0 4 ▼a 005.74 ▼2 23
085 ▼a 005.74 ▼2 DDCK
090 ▼a 005.74 ▼b 2013z5
100 1 ▼a Owens, Jonathan R.
245 2 0 ▼a (따라 하며 배우는) 하둡과 빅데이터 분석 실무 / ▼d 조나단 오웬스, ▼e 존 렌츠, ▼e 브라이언 페미아노 지음 ; ▼e 안건국, ▼e 이정림 옮김
246 1 9 ▼a Hadoop real-world solutions cookbook : ▼b realistic, simple code examples to solve problems at scale with Hadoop and related technologies
260 ▼a 의왕 : ▼b 에이콘, ▼c 2013
300 ▼a 365 p. : ▼b 삽화 ; ▼c 24 cm
440 0 0 ▼a acorn+PACKT technical book 시리즈
500 ▼a 기술 감수자: 에드워드 코디(Edward J. Cody), 다니엘 쥬(Daniel Jue), 브루스 밀러(Bruce Miller)
500 ▼a 색인수록
630 0 0 ▼a Apache Hadoop (Computer file)
650 0 ▼a Electronic data processing ▼x Distributed processing
650 0 ▼a File organization (Computer science)
700 1 ▼a Lentz, Jon, ▼e
700 1 ▼a Femiano, Brian, ▼e
700 1 ▼a 안건국, ▼e
700 1 ▼a 이정림, ▼e
900 1 0 ▼a 오웬스, 조나단 R., ▼e
900 1 0 ▼a 렌츠, 존, ▼e
900 1 0 ▼a 페미아노, 브라이언, ▼e
945 ▼a KLPA

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(1층서고)/ 청구기호 005.74 2013z5 등록번호 121228759 도서상태 대출가능 반납예정일 예약 서비스 B M
No. 2 소장처 세종학술정보원/과학기술실/ 청구기호 005.74 2013z5 등록번호 151320965 도서상태 대출가능 반납예정일 예약 서비스 M
No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(1층서고)/ 청구기호 005.74 2013z5 등록번호 121228759 도서상태 대출가능 반납예정일 예약 서비스 B M
No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 세종학술정보원/과학기술실/ 청구기호 005.74 2013z5 등록번호 151320965 도서상태 대출가능 반납예정일 예약 서비스 M

컨텐츠정보

책소개

이 책은 하둡의 높은 학습 곡선을 조금이라도 해소하고, 실제 실무에서 접할 수 있는 간이 형태의 프로젝트 가이드를 보여준다. 따라하며 배울 수 있는 하둡을 활용한 빅데이터 분석 실무에 대한 좋은 참고서다.

데이터 ETL과 압축, 직렬화, 가져오기와 내보내기, 기본 및 고급 집계 분석, 트러블슈팅과 디버깅, 확장성 있는 퍼시스턴스 사용, 클러스터 관리와 구성 등 총 10장으로 구성되었고, 하둡 초보자는 책의 설명을 통해 쉽게 배워볼 수 있으며 경험이 있는 하둡 개발자는 많은 도구와 기술로 다양한 사고 전환의 기회를 접할 수 있다.

이 책의 기획 의도는 실무에서 접할 수 있는 수많은 환경의 일부를 간접적으로 경험하게 하는 것이다. 그래서 뒤로 갈수록 조금씩 어려워질 있고 배경지식이 필요하다. 하지만 끝까지 살펴볼 수 있는 좋은 책이다.

★ 요약 ★
하둡(Hadoop)과 하둡 에코시스템은 데이터 라이프사이클을 책임진다고 해도 과언이 아니다. 분명 하둡은 배우기가 수월하지 않은 학습 곡선이 존재하지만, 데이터 환경에 둘러 싸여 있다면 꼭 익혀야 할 가치가 있는 기술이다. 이 책은 하둡의 높은 학습 곡선을 조금이라도 해소하고, 실제 실무에서 접할 수 있는 간이 형태의 프로젝트 가이드를 보여준다. 따라하며 배울 수 있는 하둡을 활용한 빅데이터 분석 실무에 대한 좋은 참고서다.

★ 이 책에서 다루는 내용 ★
■ 데이터 ETL과 압축, 직렬화, 가져오기와 내보내기
■ 기본 및 고급 집계 분석
■ 그래프 분석
■ 기계 학습
■ 트러블슈팅과 디버깅
■ 확장성 있는 퍼시스턴스 사용
■ 클러스터 관리와 구성


★ 이 책의 대상 독자 ★
이 책에서는 하둡으로 해결할 수 있는 여러 형태의 실제 문제를 강조하기 위해 구체적인 코드 예제를 사용한다. 따라서 하둡과 관련 도구를사용해 개발자에게 친숙하도록 설계되었다. 하둡 초보자는 책의 설명을 통해 쉽게 배워볼 수 있으며 하둡 애플리케이션의 실제 사례를 경험할 수 있다. 경험이 있는 하둡 개발자는 많은 도구와 기술로 다양한 사고 전환의 기회를 접할 수 있으며, 익숙했던 하둡 프레임워크이지만 다시 명확하게 이해하는 계기가 될 것이다.


★ 이 책의 구성 ★
1장 하둡 분산 파일 시스템: 데이터 가져오기와 내보내기에서는 피그와 플룸(Flume), 스쿱(Sqoop) 같은 도구의 도움으로 MySQL과 몽고디비(MongoDB), 그린플럼(Greenplum), MS-SQL 서버 같은 대중적인 데이터베이스 간의 데이터를 적재하거나 업로드하는 여러 접근법을 보여준다.

2장 HDFS는 HDFS에서 읽고 쓰는 것을 다룬다. 에이브로(Avro)와 스리프트(Thrift), 프로토콜 버퍼(Protocol Buffers)의 직렬화 라이브러리를 사용해서 보여준다. 또 블록 크기와 복제, LZO 압축을 설정하는 방법을 다룬다.

3장 데이터 추출과 변환에서는 여러 형태의 데이터 소스로 기초적인 하둡 ETL을 다룬다. 하이브(Hive)와 피그(Pig), 자바 맵리듀스(MapReduce) API 등의 다양한 도구는 데이터 샘플과 하나 이상의 출력을 다루는 배치 프로세스에서 사용된다.

4장, 하이브와 피그, 맵리듀스를 사용한 공통 태스크 수행에서는 문제의 여러 가지 클래스를 다루는 도구를 활용하는 방법에 중점을 둔다. 문자열 연결과 외부 테이블 매핑, 간단한 테이블 조인, 사용자 정의 함수, 클러스터 간의 의존성 배포를 다룬다.

5장, 고급 조인에서는 맵리듀스(MapReduce)와 하이브(Hive), 피그(Pig)상에서 좀 더 복잡하고 유용한 조인 테크닉을 다룬다. 해당 절에서는 피그로 병합과 복제, 편향 조인을 보여주고, 하이브 맵 사이드와 완전 외부 조인도다룬다. 또 외부의 데이터 저장소에서 데이터를 조인하는 레디스(Redis)의 사용법을 보여준다.

6장, 빅 데이터 분석에서는 데이터에 대한 다양한질문에 대답하기 위해 하둡 사용을 설계하는 방법을 보여준다. 하이브 예제 중 일부는 제대로 구현하고 다른 분석에서 재사용하기 위한 사용자 정의 함수(UDF)를 사용하는 방법을 보여준다. 두 가지의 피그 절로 Audioscrobbler 데이터셋과 하나의 맵리듀스 자바 API 절은 컴바이너(Combiner)를 다루어 다른 분석을 보여준다.

7장, 고급 빅 데이터 분석에서는 다른 형태의그래프 분석과 기계 학습 과제를 다루는 아파치 지라프(Apache Giraph)와 머하웃(Mahout) 절을 보여준다.

8장, 디버깅은 트러블슈팅과 맵리듀스 잡의 테스트를 지원하기 위한 설계 절을 포함한다. 테스트를 쉽게 하기 위해 MRUnit과 로컬 모드를 사용하는 방법을 예제로 보여준다. 또한 맵리듀스 잡 모니터링을 위한 태스크 업데이트 상태와 카운터(Counter) 사용의 중요성을 강조한다.

9장, 시스템 관리에서는 하둡에서 사용 가능한다양한 설정으로 성능 튜닝과 최적화 방법을 주로 살펴본다. 기초적인 설정과 XML 구성 튜닝, 나쁜 데이터노드의 트러블슈팅, 네임노드 실패, 갱글리아(Ganglia)를 사용한 성능 모니터링 등 여러 가지 주제를 다룬다.

10장 아파치 어큐뮬로를 사용한 퍼시스턴스화에서는 NoSQL 데이터 저장소인 아파치 어큐뮬로(Accumulo)를 사용해 특별하고 다양한 기능을 보여준다. 이터레이터와 컴바이너, 스캔 인증 권한, 제약 조건을 포함한 많은 특별한 기능을 다룬다. 또 효율적인 지리공간의 로우 키를 구축하고 맵리듀스 배치를 이용한 분석도 수행한다.


정보제공 : Aladin

저자소개

조나단 오웬스(지은이)

자바와 C++, 소프트웨어 엔지니어로서 민간과 공공 부문에서 근무했으며, 최근에는 하둡과 분산 처리 기술 관련 일에 종사해왔다. 현재는 컴스코어(comScore) 회사에서 다양한 디지털 측정과 분석 업무를 하고 있다. 컴스코어에서 집계와 분석 그리고 하루 40억 트랜잭션을 다루는 하둡과 사용자 정의 분산 시스템을 사용하는 코어 프로세싱 팀의 일원이다.

존 렌츠(지은이)

컴스코어 회사에서 온라인 고객 측정과 분석 업무를 하는 코어 프로세싱 팀의 소프트웨어 엔지니어로, 주로 피그(Pig)로 코딩하기를 좋아한다. 컴스코어에서 일하기 전에는 공급망을 최적화하고 고정 소득 증권을 배분하는 소프트웨어를 개발했다.

브라이언 페미아노(지은이)

대학에서 전산학을 전공하고 6년 넘게 프로그래머로 일해왔다. 그중 마지막 2년은 아파치 하둡을 사용해 분석과 빅데이터 처리의 가용성을 개선하는 데 보냈다. 영리 목적의 민간 부문에서 일을 하기도 했으나, 그의 대다수 경력은 공공 부문에서 보냈다. 현재는 DC/버지니아 지역의 포토맥 퓨전(Potomac Fusion)에서 일한다. 이 회사는 정부 기관의 중요하고 복잡한 데이터셋을 연구하고 개선하기 위한 알고리즘을 개발한다.

안건국(옮긴이)

데이터 관련 모든 것에 관심이 있지만, 최근에는 메모리 기반에서 데이터 처리와 데이터 샘플링 같은 데이터 엔지니어링에 관심이 많다. 또한 시각화가 없는 데이터 분석은 아무런 의미가 없다는 것을 깨닫고 뒤늦게 시각화에 대한 공부에 집중하고 있다. 에이콘출판사에서 펴낸 『하둡과 빅데이터 분석 실무』(2013), 『하둡 맵리듀스 프로그래밍』(2013)을 번역했다.

이정림(옮긴이)

현재 테라데이타에서 애스터/하둡을 이용한 데이터 분석가로 활동하고 있다. 그 전에는 SK C&C 솔루션개발팀에서 NEXCORE ALM(Application Lifecycle Management) 솔루션을 개발했고, 그 이전에는 반도체 제조 공정 관리를 위한 EES(Equipment Engineering System)로 대용량 데이터 처리 프레임워크를 개발해 삼성전자/반도체, 독일 실트로닉(Siltronic), 싱가포르 차타드(Chartered)등의 반도체 제조 공정에 적용했다. <안전한 API 인증과 권한 부여를 위한 클라이언트 프로그래밍 OAuth 2.0>(한빛미디어, 2013)을 번역했다.

정보제공 : Aladin

목차


지은이 소개 = 6
기술 감수자 소개 = 8
옮긴이 소개 = 11
옮긴이의 말 = 12
들어가며 = 19
1장 하둡 분산 파일 시스템: 데이터 가져오기와 내보내기 = 25
 개요 = 25
 하둡 셸 명령어를 사용해 데이터를 내보내고 HDFS로 데이터 가져오기 = 26
 분산 복사를 사용한 클러스터 간의 효율적인 데이터 이동 = 34
 스쿱을 사용해 데이터를 MySQL에서 HDFS로 가져오기 = 36
 스쿱을 사용해 데이터를 HDFS에서 MySQL로 내보내기 = 40
 MS-SQL 서버를 위한 스쿱 구성 = 45
 데이터를 HDFS에서 몽고DB로 내보내기 = 47
 데이터를 몽고DB에서 HDFS로 가져오기 = 51
 피그를 사용해 데이터를 HDFS에서 몽고DB로 내보내기 = 55
 그린플럼 외부 테이블에서의 HDFS 사용 = 57
 데이터를 HDFS로 적재하기 위한 플룸 사용 = 59
2장 HDFS = 63
 개요 = 63
 HDFS에서 데이터 읽고 쓰기 = 65
 LZO를 사용한 데이터 압축 = 67
 시퀀스파일로 데이터 읽고 쓰기 = 71
 데이터 직렬화를 위한 아파치 에이브로 사용 = 76
 데이터 직렬화를 위한 아파치 스리프트 사용 = 81
 데이터 직렬화를 위한 프로토콜 버퍼 사용 = 86
 HDFS 복제 계수 설정 = 91
 HDFS 블록 크기 설정 = 92
3장 데이터 추출과 변환 = 95
 개요 = 95
 맵리듀스를 사용해 아파치 로그를 TSV 포맷으로 변환 = 96
 웹 서버 로그에서 봇 트래픽을 필터링하기 위한 아파치 피그 사용 = 99
 웹 서버 로그 데이터를 타임스탬프로 정렬하기 위한 아파치 피그 사용 = 103
 웹 서버 로그 데이터를 세션화하기 위한 아파치 피그 사용 = 105
 아파치 피그 기능 확장을 위한 파이썬 사용 = 109
 페이지 뷰를 계산하기 위한 맵리듀스와 보조 정렬 사용 = 111
 지리 이벤트 데이터를 정리하고 변환하기 위한 하이브와 파이썬 사용 = 118
 시계열 분석을 수행하기 위한 파이썬과 하둡 스트리밍 사용 = 123
 출력 파일 이름을 지정하기 위한 맵리듀스의 MultipleOutputs 사용 = 129
 지리 이벤트 데이터를 읽기 위한 사용자 정의 하둡 Writable과 InputFormat 생성 = 133
4장 하이브와 피그, 맵리듀스를 사용한 공통 태스크 수행 = 143
 개요 = 143
 HDFS에서 웹로그 데이터와 외부 테이블을 매핑하기 위한 하이브 사용 = 144
 웹로그 쿼리 결과로부터 동적으로 테이블을 생성하기 위한 하이브 사용 = 146
 웹로그 데이터에서 필드를 연결하기 위한 하이브의 문자열 UDF 사용 = 149
 웹로그의 IP를 조인해서 해당 IP에 맞는 국가를 찾기 위한 하이브 사용 = 152
 맵리듀스를 사용한 뉴스 아카이브에서의 n-그램 생성 = 155
 뉴스 아카이브에서 특정 키워드를 포함하는 라인을 찾기 위한 맵리듀스 분산 캐시 사용 = 161
 데이터를 테이블에 적재하고 GROUP BY 절을 갖는 SELECT 문의 연산을 수행하기 위한 피그 사용 = 167
5장 고급 조인 = 169
 개요 = 169
 매퍼에서 맵리듀스를 사용한 데이터 조인 = 170
 아파치 피그의 복제 조인을 사용한 데이터 조인 = 174
 아파치 피그의 병합 조인을 사용한 정렬 데이터 조인 = 176
 아파치 피그의 편향 조인을 사용한 편향 데이터 조인 = 179
 지리 이벤트를 분석하기 위한 아파치 하이브 맵 사이드 조인 사용 = 181
 지리 이벤트를 분석하기 위한 아파치 하이브 완전 외부 조인 최적화 = 184
 외부 키/값 저장소(레디스)를 사용한 데이터 조인 = 188
6장 빅 데이터 분석 = 195
 개요 = 195
 맵리듀스와 컴바이너를 사용해 웹로그 데이터에서 개별 IP 주소 카운트 = 196
 지리 이벤트 데이터에서 이벤트 날짜를 변환하고 정렬하기 위한 하이브 날짜 UDF 사용 = 203
 지리 이벤트 데이터를 통해 월별 사망 보고서를 작성하기 위한 하이브 사용 = 206
 지리 이벤트 데이터의 소스 신뢰성을 검증하기 위한 하이브의 사용자 정의 UDF 구현 = 208
 하이브의 맵/리듀스 연산과 파이썬을 사용해 비폭력의 최장 기간 표시 = 214
 피그를 사용해 Audioscrobbler 데이터셋에서 가수들의 코사인 유사도 연산 = 220
 피그와 datafu 라이브러리를 사용해 Audioscrobbler 데이터셋에서 아웃라이어 제거 = 224
7장 고급 빅 데이터 분석 = 227
 개요 = 227
 아파치 지라프를 이용한 페이지랭크 = 228
 아파치 지라프를 이용한 단일 소스 최단 경로 구하기 = 231
 분산된 너비 우선 탐색을 수행하기 위한 아파치 지라프 사용 = 244
 아파치 머하웃을 이용한 협업 필터링 = 253
 아파치 머하웃을 이용한 클러스터링 = 257
 아파치 머하웃을 이용한 감성 분류 = 261
8장 디버깅 = 265
 개요 = 265
 리듀스 잡에서 잘못된 레코드 추적을 위한 카운터 사용 = 266
 MRUnit을 이용한 맵리듀스 잡의 개발과 테스트 = 269
 로컬 모드에서 실행되는 맵리듀스 잡의 개발과 테스트 = 272
 잘못된 레코드를 스킵하기 위한 맵리듀스 잡 활성화 = 275
 스트리밍 잡에서의 카운터 사용 = 278
 디버깅 정보를 표시하기 위한 태스크 상태 메시지 업데이트 = 280
 피그 잡을 디버깅하기 위한 illustrate 명령어 사용 = 283
9장 시스템 관리 = 285
 개요 = 285
 의사 분산 모드에서 하둡 시작하기 = 285
 분산 모드에서 하둡 시작하기 = 289
 기존 클러스터에 새 노드 추가 = 293
 안전한 노드 해제 = 296
 네임노드 장애 복구 = 297
 갱글리아를 사용한 클러스터 상태 모니터링 = 300
 맵리듀스 잡 매개변수 튜닝 = 302
10장 아파치 어큐뮬로를 사용한 퍼시스턴스화 = 307
 개요 = 307
 어큐뮬로에서 지리 이벤트 저장을 위한 로우 키 설계 = 308
 지리 이벤트 데이터를 어큐뮬로로 대량으로 가져오기 위한 맵리듀스 사용 = 320
 어큐뮬로에서 지리 이벤트 데이터를 입력하기 위한 사용자 정의 필드 제한 설정 = 330
 정규식 필터링 이터레이터를 사용한 쿼리 결과 제한 = 337
 SumCombiner를 사용해 동일 키의 다른 버전을 위한 사망자 카운트 = 340
 어큐뮬로를 사용한 스캔에서의 셀 수준 보안 강화 = 346
 맵리듀스를 사용한 어큐뮬로에서의 소스 집계 = 352
찾아보기 = 360

관련분야 신착자료

Zumstein, Felix (2022)