HOME > 상세정보

상세정보

(주머니 속의) 머신러닝

자료유형
단행본
개인저자
Harrison, Matt, 1975- 박찬성, 역
서명 / 저자사항
(주머니 속의) 머신러닝 / 맷 해리슨 지음 ; 박찬성 옮김
발행사항
파주 :   제이펍,   2021  
형태사항
xix, 312 p. : 삽화, 도표 ; 19 cm
총서사항
제이펍의 인공지능 시리즈 = Jpub's AI series ;31
원표제
Machine learning pocket reference : working with structured data in Python
ISBN
9791191600001
일반주기
색인수록  
일반주제명
Machine learning Python (Computer program language)
000 00000nam c2200205 c 4500
001 000046079139
005 20210506102510
007 ta
008 210504s2021 ggkad 001c kor
020 ▼a 9791191600001 ▼g 93000
040 ▼a 211009 ▼c 211009 ▼d 211009
041 1 ▼a kor ▼h eng
082 0 4 ▼a 006.31 ▼2 23
085 ▼a 006.31 ▼2 DDCK
090 ▼a 006.31 ▼b 2021z9
100 1 ▼a Harrison, Matt, ▼d 1975-
245 2 0 ▼a (주머니 속의) 머신러닝 / ▼d 맷 해리슨 지음 ; ▼e 박찬성 옮김
246 1 9 ▼a Machine learning pocket reference : ▼b working with structured data in Python
260 ▼a 파주 : ▼b 제이펍, ▼c 2021
300 ▼a xix, 312 p. : ▼b 삽화, 도표 ; ▼c 19 cm
490 1 0 ▼a 제이펍의 인공지능 시리즈 = ▼a Jpub's AI series ; ▼v 31
500 ▼a 색인수록
650 0 ▼a Machine learning
650 0 ▼a Python (Computer program language)
700 1 ▼a 박찬성, ▼e
830 0 ▼a 인공지능 시리즈 ; ▼v 31
900 1 0 ▼a 해리슨, 맷, ▼e
945 ▼a KLPA

소장정보

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(1층서고)/ 청구기호 006.31 2021z9 등록번호 121257203 도서상태 대출가능 반납예정일 예약 서비스 B M

컨텐츠정보

책소개

자세한 노트, 표, 예제를 담고 있으며, 구조적 데이터를 다루는 머신러닝의 기본을 탐색하는 데 도움이 되는 참고서이다. 또한 머신러닝 프로젝트의 수행 과정과 구조적 데이터를 분류하는 방법을 조망할 수 있어 프로그래머, 데이터 과학자, 인공지능 엔지니어에게 꼭 필요한 책이기도 하다. 클러스터링, 회귀, 차원성 감소를 비롯해 다음과 같은 여러 주제를 다룬다.

머신러닝의 길잡이가 되어줄 주머니 속 핸드북!

이 책은 자세한 노트, 표, 예제를 담고 있으며, 구조적 데이터를 다루는 머신러닝의 기본을 탐색하는 데 도움이 되는 참고서이다.
또한 머신러닝 프로젝트의 수행 과정과 구조적 데이터를 분류하는 방법을 조망할 수 있어 프로그래머, 데이터 과학자, 인공지능 엔지니어에게 꼭 필요한 책이기도 하다. 클러스터링, 회귀, 차원성 감소를 비롯해 다음과 같은 여러 주제를 다룬다.

■ 타이타닉 데이터셋을 사용한 분류
■ 누락된 데이터를 다루는 등의 데이터 정리
■ 탐색적 데이터 분석
■ 샘플 데이터를 사용한 일반적인 전처리 과정
■ 모델에 유용한 특징의 선택
■ 모델의 선택
■ 분류 모델을 위한 평가지표와 평가
■ 다양한 머신러닝 기법을 사용한 회귀 예제
■ 회귀 모델을 위한 평가지표와 평가
■ 클러스터링
■ 차원성 감소

머신러닝의 길잡이가 되어줄 Quick Reference!

인공지능을 구현하는 방법론 중 하나인 머신러닝에 대해 알아야 할 수학 공식이나 통계 지식이 너무 많아 압도될 때가 있습니다.
이 책은 이런 고민을 해결해 주는 책입니다. 너무 복잡하고 어려운 과정을 추상화해서 쉽게 사용하고 싶다거나, 알고리즘의 복잡한 내부를 바닥까지 이해하지는 못하더라도 머신러닝 알고리즘을 가져와 내 데이터에 바로 적용해 보고 싶을 때 사용할 수 있는 도구들을 소개하고 그 활용 방법을 알려줍니다.
다양한 데이터 분석기법 및 시각화 방법을 함축적 내용으로 소개하여, 옆에 두고 보면서 궁금한 것이 생겼을 때 찾아보는 용도로도 좋습니다.

이 책의 특징
머신러닝을 배울 때 참고하며 읽기 좋은 책
도구의 종류, 사용 방법, 각종 파라미터 등을 빠르게 훑으며 기억을 상기할 수 있는 좋은 레퍼런스 자료
머신러닝 모델의 구성 요소, 데이터와 모델의 평가 및 분석을 다양한 도구로 접근해 다각적으로 바라보는 방법을 제시

이 책의 대상 독자
머신러닝에 관심 있는 프로그래머
머신러닝의 방법론을 정립하고 싶은 분
머신러닝의 개념을 다시 한번 정리하고 싶은 분
머신러닝의 다양한 라이브러리와 시각화 방법을 알고 싶은 분


정보제공 : Aladin

저자소개

매트 해리슨(지은이)

맷 해리슨은 파이썬과 데이터 과학을 위한 교육 및 컨설팅 회사인 MetaSnake를 운영 중이다. 2000년부터 데이터 과학, BI, 스토리지, 테스트 및 자동화, 오픈소스 스택 관리, 금융, 검색 등 다양한 도메인에서 파이썬을 활용한 경험이 많다.

박찬성(옮긴이)

인제대학교와 워싱턴 주립대학교에서 컴퓨터 공학을 전공했으며, 현재는 한국전자통신 연구원에서 컴퓨터 네트워크 분야를 연구 및 개발하고 있다. 《나만의 스마트워크 환경만들기》(비제이퍼블릭, 2020)를 집필하고, 《실전 시계열 분석》(한빛미디어, 2021)을 번역하였으며, 제이펍 출판사의 인공지능 시리즈의 디렉터로도 활동하는 등 글 쓰는 일에 관심이 많다. 또한 구글이 공인한 머신러닝 분야의 개발 전문가(Google Developers Experts for Machine Learning, ML GDE)로서 다양한 머신러닝 관련 프로젝트 및 교육자료를 만들고 있으며, 텐서플로 코리아 및 fast.ai KR 커뮤니티의 운영진 중 한 명으로 커뮤니티 발전에도 기여하고 있다.

정보제공 : Aladin

목차

CHAPTER 1 소개
1.1 사용된 라이브러리 2
1.2 Pip을 이용한 설치 5
1.3 Conda를 이용한 설치 7

CHAPTER 2 머신러닝 과정에 대한 개요

CHAPTER 3 분류 문제 둘러보기: 타이타닉 데이터셋
3.1 프로젝트 구조의 제안 11
3.2 필요한 패키지 12
3.3 질문을 하자 13
3.4 데이터에 관한 용어 14
3.5 데이터의 수집 15
3.6 데이터의 정리 16
3.7 특징의 생성 24
3.8 샘플 데이터 27
3.9 데이터의 대치 27
3.10 데이터의 표준화 29
3.11 리팩터링 30
3.12 베이스라인 모델 31
3.13 다양한 알고리즘 32
3.14 스태킹 34
3.15 모델 만들기 35
3.16 모델의 평가 36
3.17 모델의 최적화 37
3.18 오차 행렬 38
3.19 ROC 곡선 40
3.20 학습 곡선 41
3.21 모델의 배포 42

CHAPTER 4 누락된 데이터
4.1 누락된 데이터의 분석 46
4.2 누락된 데이터의 삭제 50
4.3 데이터의 대치 51
4.4 지시자 열의 추가 52

CHAPTER 5 데이터의 정리
5.1 열의 이름 53
5.2 누락된 값의 교체 54

CHAPTER 6 탐색
6.1 데이터의 크기 57
6.2 요약 통계 58
6.3 히스토그램 59
6.4 산점도 60
6.5 조인트 플롯 61
6.6 쌍 격자 63
6.7 박스 플롯과 바이올린 플롯 65
6.8 두 순서형 값의 비교 66
6.9 상관관계 68
6.10 라드비즈 72
6.11 평행 좌표 74

CHAPTER 7 데이터 전처리
7.1 표준화 77
7.2 범위 조정 79
7.3 더미 변수 80
7.4 레이블 인코더 82
7.5 프리퀀시 인코딩 83
7.6 문자열에서 범주 가져오기 83
7.7 그 밖의 범주형 인코딩 85
7.8 날짜형 데이터의 특징 공학 88
7.9 col_na 특징의 추가 89
7.10 수동적 특징 공학 90

CHAPTER 8 특징의 선택
8.1 공선성을 가진 열 94
8.2 라소 회귀 97
8.3 재귀적 특징 제거 99
8.4 상호 정보량 100
8.5 주성분 분석 102
8.6 특징 중요도 102

CHAPTER 9 불균형 범주의 문제
9.1 다른 평가 지표 사용하기 103
9.2 트리 기반 알고리즘과 앙상블 103
9.3 모델에 페널티 부과하기 104
9.4 소수집단 데이터 업샘플링하기 105
9.5 소수집단 데이터 생성하기 106
9.6 과반수집단 데이터를 다운샘플링하기 106
9.7 업샘플링 후 다운샘플링하기 108

CHAPTER 10 분류
10.1 로지스틱 회귀 111
10.2 나이브 베이즈 116
10.3 서포트 벡터 머신 118
10.4 K-최근접 이웃 122
10.5 디시전 트리 125
10.6 랜덤 포레스트 134
10.7 XGBoost 139
10.8 LightGBM을 사용한 그래디언트 부스팅 150
10.9 TPOT 156

CHAPTER 11 모델 선택
11.1 검증 곡선 161
11.2 학습 곡선 163

CHAPTER 12 분류용 평가 지표로 평가하기
12.1 오차 행렬 165
12.2 평가 지표 168
12.3 정확도 170
12.4 재현율 171
12.5 정밀도 171
12.6 F1 171
12.7 분류 보고서 172
12.8 ROC 173
12.9 정밀도-재현율 곡선 174
12.10 누적 이득 도표 175
12.11 리프트 곡선 177
12.12 범주의 균형 179
12.13 범주 예측 오류 180
12.14 차별 임계치 181

CHAPTER 13 모델 설명
13.1 회귀 계수 183
13.2 특징 중요도 184
13.3 LIME 184
13.4 트리 기반 모델의 해석 186
13.5 부분 의존성 도표 187
13.6 대리 모델 191
13.7 SHAP 192

CHAPTER 14 회귀
14.1 베이스라인 모델 200
14.2 선형 회귀 200
14.3 SVM 204
14.4 K-최근접 이웃 207
14.5 디시전 트리 209
14.6 랜덤 포레스트 216
14.7 XGBoost 회귀 220
14.8 LightGBM 회귀 분석 227

CHAPTER 15 회귀용 평가 지표로 평가하기
15.1 평가 지표 233
15.2 잔차 도표 236
15.3 이분산성 237
15.4 정규 잔차 238
15.5 예측 오차 도표 240

CHAPTER 16 회귀 모델의 해석
16.1 SHAP 243

CHAPTER 17 차원성 감소
17.1 PCA 250
17.2 UMAP 269
17.3 t-SNE 275
17.4 PHATE 279

CHAPTER 18 클러스터링
18.1 K-평균 285
18.2 응집 클러스터링 293
18.3 클러스터의 이해 296

CHAPTER 19 파이프라인
19.1 분류 파이프라인 303
19.2 회귀 파이프라인 306
19.3 PCA 파이프라인 307

관련분야 신착자료

Baumer, Benjamin (2021)
데이터분석과인공지능활용편찬위원회 (2021)