목차
1장 소개 = 1
1.1 왜 패턴 인식인가? = 1
1.1.1 지적 호기심 = 2
1.1.2 지능 기계 = 2
1.1.3 팽창하는 응용 = 3
1.2 어떻게 인식하나? = 5
1.2.1 데이터베이스 수집 = 6
1.2.2 특징 = 8
1.2.3 분류 = 10
1.2.4 성능 평가 = 12
1.3 시스템 설계 = 16
1.4 수학 = 19
1.5 자원 = 22
2장 베이시언 결정 이론 = 27
2.1 확률과 통계 = 28
2.1.1 확률 기초 = 28
2.1.2 평균과 분산 = 32
2.1.3 확률 분포의 표현과 추정 = 36
2.2 베이시언 분류기 = 37
2.2.1 최소 오류 베이시언 분류기 = 38
2.2.2 최소 위험 베이시언 분류기 = 41
2.2.3 M 부류로 확장 = 44
2.3 분별 함수 = 45
2.4 정규 분포에서 베이시언 분류기 = 48
2.4.1 정규 분포와 분별 함수 = 48
2.4.2 선형 분별 = 51
2.4.3 2차 분별 = 54
2.4.4 최소 거리 분류기 = 57
2.5 베이시언 분류의 특성 = 59
2.6 기각처리 = 60
3장 확률 분포 추정 = 65
3.1 히스토그램 추정 = 67
3.2 최대우도 = 68
3.3 비모수적 방법 = 72
3.3.1 파젠 창 = 72
3.3.2 k-최근접 이웃 추정 = 75
3.3.3 k-최근접 이웃 분류기 = 76
3.4 혼합 모델 = 79
3.4.1 가우시언 혼합 = 79
3.4.2 EM 알고리즘 = 82
4장 신경망 = 95
4.1 소개 = 96
4.1.1 발상과 전개 = 96
4.1.2 수학적 모델로서의 신경망 = 98
4.2 퍼셉트론 = 99
4.2.1 구조와 원리 = 99
4.2.2 학습과 인식 = 102
4.2.3 구현 = 107
4.3 다충 퍼셉트론 = 110
4.3.1 구조와 원리 = 110
4.3.2 학습 = 118
4.3.3 인식 = 127
4.3.4 구현과 몇 가지 부연 설명 = 128
5장 SVM = 137
5.1 발상 = 138
5.2 선형 SVM = 139
5.2.1 선형 분리 가능한 상황 = 141
5.2.2 선형 분리 불가능한 상황 = 151
5.3 비선형 SVM = 158
5.3.1 커널 대치 = 158
5.3.2 커널 대치를 이용한 비선형 SVM = 162
5.4 구현 = 164
5.4.1 학습 = 164
5.4.2 인식 = 166
5.4.3 M 부류 SVM = 168
5.5 SVM의 특성 = 169
6장 질적 분류 = 175
6.1 결정트리 = 176
6.1.1 원리 = 177
6.1.2 노드에서의 질문 = 179
6.1.3 학습 알고리즘 = 185
6.1.4 특성 = 187
6.2 CART, ID3, 그리고 C4.5 = 191
6.3 스트링 인식기 = 194
6.3.1 교정 거리 = 195
6.3.2 Levenshtein 거리 = 197
6.3.3 Damerau-Levenshtein 거리 = 204
7장 순차 데이터의 인식 = 209
7.1 순차 데이터 = 210
7.2 마코프 모델 = 212
7.3 은닉 마코프 모델로의 발전 = 220
7.3.1 동기 = 221
7.3.2 HMM의 예 = 223
7.3.3 구성 요소와 세가지 문제 = 225
7.4 알고리즘 = 229
7.4.1 평가 = 230
7.4.2 디코딩 = 236
7.4.3 학습 = 241
7.5 부연 설명 = 249
8장 특징 추출 = 257
8.1 특징 생성의 틀 = 258
8.1.1 실제 세계의 다양성 = 258
8.1.2 특징 추출과 특징 선택 = 259
8.2 영역에서 특징 추출 = 262
8.2.1 모양에 관련한 특징 = 262
8.2.2 투영과 프로파일 특징 = 266
8.3 변환을 이용한 특징 = 268
8.3.1 퓨리에 변환 = 270
8.3.2 퓨리에 기술자 = 273
8.4 시계열 신호에서의 특징 추출 = 274
8.5 주성분 분석 = 277
8.5.1 동기 = 278
8.5.2 알고리즘과 응용 = 280
8.5.3 사례 연구: 고유 얼굴 = 286
8.6 Fisher의 선형 분별 = 288
8.7 실용적 관점 = 293
8.7.1 특징 결합 = 293
8.7.2 특징 전처리 = 295
9장 특징 선택 = 303
9.1 특징의 분별력 = 304
9.1.1 직관적 이해 = 304
9.1.2 분별력 측정 = 306
9.2 특징 선택 문제의 이해 = 308
9.3 전역 탐색 알고리즘 = 313
9.4 순차 탐색 알고리즘 = 316
9.5 통계적 탐색 연산을 가진 알고리즘 = 322
10장 군집화 = 325
10.1 정의 = 327
10.2 거리와 유사도 = 330
10.2.1 특징 값의 종류 = 331
10.2.2 거리와 유사도 측정 = 333
10.2.3 점 집합을 위한 거리 = 334
10.2.4 동적 거리 = 338
10.3 군집화 알고리즘의 분류 = 338
10.4 계층 군집화 = 340
10.4.1 응집 계층 알고리즘 = 340
10.4.2 분열 계층 알고리즘 = 346
10.5 분할 군집화 = 347
10.5.1 순차 알고리즘 = 348
10.5.2 k-means 알고리즘 = 349
10.5.3 모델 기반 알고리즘 = 354
10.6 신경망 = 356
10.6.1 자기 조직화 맵 = 356
10.6.2 ART = 362
10.7 통계적 탐색 = 366
10.7.1 시뮬레이티드 어닐링 = 367
10.7.2 유전 알고리즘 = 368
11장 최적화 알고리즘 = 373
11.1 패턴 인식의 최적화 문제와 풀이 = 375
11.1.1 최적화 문제들 = 375
11.1.2 문제 풀이 = 378
11.2 미분을 이용한 방법 = 379
11.2.1 분석적 풀이 = 380
11.2.2 내리막 경사법 = 381
11.2.3 라그랑제 승수 = 385
11.2.4 최적화 알고리즘과 패턴 인식 문제들 = 391
11.3 시뮬레이티드 어닐링 = 392
11.4 유전 알고리즘 = 395
11.4.1 원리: 내리막 경사법, 시뮬레이티드 어닐링, 그리고 유전 알고리즘 = 395
11.4.2 유전 알고리즘의 구조 = 397
11.4.3 유전 연산 = 402
11.4.4 매개 변수 설정과 선택 압력 = 408
11.4.5 찬반 논쟁 = 409
11.5 메타 휴리스틱 = 412
12장 혼성 모델 = 417
12.1 알고리즘의 성능 특성 = 418
12.2 재 샘플링에 의한 성능 평가 = 423
12.3 혼성 모델의 발상 = 426
12.3.1 동기 = 426
12.3.2 이유 = 429
12.4 앙상블 생성 = 431
12.4.1 배깅 = 432
12.4.2 부스팅 = 433
12.5 앙상블 결합 = 436.
12.5.1 부류 표지 = 438
12.5.2 부류 순위 = 442
12.5.3 부류 확률 = 442
12.6 앙상블 선택 = 444
12.6.1 다양성 척도 = 445
12.6.2 선택 알고리즘 = 450
12.7 알고리즘을 바라보는 관점 = 453
부록A 정보 이론 = 459
부록B 인터넷 자원 = 465
B.1 일반 = 465
B.2 포털 = 466
B.3 강의자료 = 467
B.4 소프트웨어 = 467
B.5 데이터베이스 = 469
참고문헌 = 471
찾아보기 = 483