목차
머리말 = ⅲ
제1장 확률의 기초 = 1
1.1 사상과 확률 = 2
1.2 조건부 확률 = 4
1.3 베이즈 정리 = 6
1.4 확률변수와 확률함수 = 8
1.4.1 확률분포(질량) 함수 = 9
1.4.2 확률밀도함수 = 10
1.5 기댓값과 분산 = 11
1.6 확률분포 = 13
1.6.1 이항분포 = 13
1.6.2 정규분포 = 15
1.6.3 중심극한정리 = 20
1.6.4 이항분포의 정규분포로의 근사화 = 23
1.7 결합확률분포 = 24
제2장 통계의 기초 = 27
2.1 신뢰구간 = 28
2.2 t-분포 = 32
2.3 카이제곱 분포 = 34
2.4 가설 검정 = 37
2.4.1 가설의 분류 = 38
2.4.2 신뢰구간을 이용한 가설 검정 = 39
2.4.3 검정통계량을 이용한 가설 검정 = 40
2.4.4 p-값을 이용한 검정 = 42
2.4.5 t-분포와 가설 검정 = 48
2.4.6 카이제곱과 가설 검정 = 52
2.5 두 모집단에 대한 통계적 추측 = 55
2.5.1 독립인 두 표본에서의 평균 차에 대한 z-검정 = 55
2.5.2 독립인 두 표본에서의 평균 차에 대한 t-검정 = 57
2.5.3 종속인 두 표본에서의 평균 차에 대한 검정 = 61
제3장 분산분석과 회귀분석 = 65
3.1 분산분석 = 66
3.1.1 일원분산분석 = 66
3.1.2 이원분산분석 = 76
3.1.3 반복측정 분산분석 = 87
3.2 회귀분석 = 94
3.2.1 최적선 = 96
3.2.2 회귀식 = 96
3.2.3 회귀선의 적합도 = 99
3.2.4 다중회귀분석 = 103
3.3 통계 소프트웨어 R = 104
3.3.1 R의 설치 = 105
3.3.2 언어 자료 분석을 위한 R = 105
제4장 N-그램 = 109
4.1 단어와 토큰 = 110
4.2 단어 연쇄의 확률 = 111
4.2.1 최대우도추정 = 111
4.2.2 문장의 확률 추정 = 116
4.3 평탄화 = 118
4.3.1 희박한 자료 = 118
4.3.2 가산적 평탄화 = 120
4.3.3 Good-Turing 추정 = 122
4.3.4 Jelinek-Mercer 평탄화 = 125
4.3.5 Katz 평탄화 = 127
4.3.6 절대 절하 = 129
4.3.7 Kneser-Ney 절하 = 130
4.3.8 범주에 기초한 N-gram = 132
4.4 N-그램 툴킷 = 133
4.4.1 SRILM 설치 = 133
4.4.2 SRILM을 이용한 언어 모델 = 134
4.4.3 혼잡도 계산 = 137
제5장 정보 이론 : 엔트로피 = 141
5.1 엔트로피 = 142
5.2 결합 엔트로피와 조건 엔트로피 = 145
5.3 상호 정보 = 149
5.4 상대적 엔트로피 = 152
5.5 교차 엔트로피 = 153
5.6 혼잡도 = 155
5.7 최대 엔트로피 = 157
5.7.1 회귀분석과 최대 엔트로피 = 158
5.7.2 로지스틱 회귀 = 160
5.7.3 최대 엔트로피 모델 = 163
5.7.4 로지스틱 회귀와 최대 엔트로피 = 168
5.8 최대 엔트로피 툴킷 = 172
5.8.1 Maxnet 설치 및 실행 = 172
5.8.2 예제를 이용한 Maxent 사용 = 173
제6장 은닉 마르코프 모델 = 179
6.1 유한상태 오토마타 = 180
6.1.1 Mealy 기계와 Moor 기계 = 180
6.2 마르코프 모델 = 182
6.3 은닉 마르코프 모델 = 184
6.3.1 문제 1: 확률 계산 = 188
6.3.2 문제 2: 최적의 상태 연속 찾기 = 196
6.3.3 문제 3: 은닉 마르코프 모델의 학습 = 199
6.4 은닉 마르코프 모델 도구 = 202
참고문헌 = 207
부록 = 211
찾아보기 = 223
Abstract = 229