목차
머리말
제1장 신경망의 개요 = 17
1.1 머리말 = 17
1.2 신경망의 배경 = 18
1.3 생물학적 뉴런 = 22
1.4 신경망의 특성 = 34
1.5 신경망과 인공지능 = 40
1.6 신경망의 주요 모델 = 44
1.7 신경망의 분류법 = 46
1.8 신경망 연구의 형태 = 47
1.9 신경망의 기술 예측 = 48
1.10 신경망과 관련된 앞으로의 연구 개발과제 = 50
1.11 결어 = 53
제2장 초기의 신경망 이론 및 모델 = 59
2.1 머리말 = 59
2.2 맥컬럭-피츠(McCulloch-Pitts) 뉴런 = 59
2.3 헵의 학습 규칙 = 64
2.4 퍼셉트론 = 66
2.5 신경망의 3가지 대표적인 비선형 함수 = 75
2.6 퍼셉트론의 학습 과정 = 77
2.7 퍼셉트론의 한계점 = 78
2.8 선형 분리 가능 = 79
2.9 Adaline(Adaptive Linear Neuron) = 80
2.10 Madaline(Many Adaline) = 84
2.11 결어 = 86
제3장 다층 퍼셉트론 = 91
3.1 머리말 = 91
3.2 다층 퍼셉트론(Multilayer Perceptron) = 92
3.3 백프로퍼게이션 학습 알고리즘의 배경 = 94
3.4 백프로퍼게이션 학습 알고리즘 = 97
3.5 백프로퍼게이션 학습 알고리즘의 문제점 및 개선책 = 11O
3.6 다층 퍼셉트론의 적용 예 = 117
3.7 결어 = 141
제4장 홉필드 네트워크(Hopfield Network) = 145
4.1 머리말 = 145
4.2 홉필드 네트워크 = 147
4.3 연상 기억장치(Associative Memory) = 149
4.4 홉필드 네트워크의 동작 알고리즘 = 154
4.5 연상기억의 실험 = 155
4.6 최적화 문제의 예 : 순회판매원 문제(Traveling Salesman Problem) = 160
4.7 장점과 제한점 = 163
4.8 결어 = 164
제5장 코호넨 네트워크 = 169
5.1 머리말 = 169
5.2 코호넨 네트워크 = 170
5.3 경쟁학습(Competitive Learning) = 171
5.4 코호넨 학습 규칙(Learning Rule) = 173
5.5 자기조직화 형상지도(Self-organizing Feature Maps) 알고리즘 = 175
5.6 자기조직화 형상지도(Self-organizing Feature Maps) = 176
5.7 코호넨 네트워크의 장점 = 183
5.8 자기조직화 형상지도의 신경망 음성타자기에의 응용 = 184
5.9 코호넨의 자동연상 기억장치 = 186
5.10 결어 = 187
제6장 ART 네트워크 = 191
6.1 머리말 = 191
6.2 ART(Adaptive Resonance Theory) = 192
6.3 ART-1 네트워크의 특성 = 196
6.4 이득 제어(Gain Control)와 '2/3규칙' = 197
6.5 ART-1 네트워크의 제한점 = 200
6.6 ART-1 네트워크를 이용한 패턴분류 = 201
6.7 ART-2 네트워크 = 206
6.8 결어 = 208
제7장 시뮬레이티드 어닐링과 볼쯔만 머신 = 211
7.1 머리말 = 211
7.2 시뮬레이티드 어닐링 (Simulated Annealing) = 212
7.3 시뮬레이티드 어닐링 알고리즘의 응용 예 = 213
7.4 볼쯔만 머신(Boltzmann Machine) = 215
7.5 볼쯔만 머신의 학습 = 221
7.6 볼쯔만 머신의 특징 및 응용 분야 = 222
7.7 결어 = 223
제8장 카운터프로퍼게이션 네트워크 = 229
8.1 머리말 = 229
8.2 카운터프로퍼게이션 네트워크 = 229
8.3 네트워크의 구조 = 231
8.4 학습 방법 = 234
8.5 응용 분야 = 235
8.6 카운터프로퍼게이션 네트워크의 장ㆍ단점 = 239
8.7 결어 = 240
제9장 코그니트론(Cognitron)과 네오코그니트론(Neocognitron) = 243
9.1 머리말 = 243
9.2 코그니트론 = 246
9.3 코그니트론과 네오코그니트론 = 248
9.4 네오코그니트론의 구조와 동작 = 249
9.5 네오코그니트론의 자기조직화(Self-organization) = 254
9.6 지도학습 = 260
9.7 손으로 쓴 숫자 인식 = 260
9.8 네오코그니트론 모델의 정리 = 274
9.9 선택적 주의(Selective Attention) 모델 = 275
9.10 네오코그니트론의 한글 문자에의 응용 = 277
9.11 결어 = 278
제10장 퍼지 신경망 모델 = 283
10.1 머리말 = 283
10.2 SONN(Self-Organizing Neural Network) 모델 = 284
10.3 퍼지 멤버십 값의 결정식 = 288
10.4 SONN 알고리즘 = 289
10.5 SONN 모델의 특성 및 응용 분야 = 292
10.6 결어 = 294
부록1 신경망 구현 예 = 299
1.1 머리말 = 299
1.2 PROGRAM = 301
1.3 구현 예제 = 322
부록2 신경망에 대한 12가지 세간의 표현들 = 337
2.1 "신경망은 새로운 것이다" = 337
2.2 "신경망은 오래된 것이다" = 338
2.3 "신경망은 단지 범용 컴퓨터다" = 339
2.4 "신경망은 범용 컴퓨터가 아니다" = 340
2.5 "신경망은 구겨진 금속 종이 위의 작은 구슬과 같이 작동한다" = 341
2.6 "신경망은 전통적인 컴퓨터들에서 시뮬레이션(simulation) 될 수 없다" = 341
2.7 "신경망은 전통적인 컴퓨터들에서 시뮬레이션 될 수 있다" = 342
2.8 "신경망은 전통적인 컴퓨터보다 더 효율적이다" = 343
2.9 "신경망은 신경의 네트워크와 같이 작동한다" = 343
2.10 "자기조직화(Self-organization)는 흥미로운 행동을 만들기에는 충분치 않다" = 344
2.11 "자기조직화만으로도 흥미로운 행위를 만들어낸다" = 344
2.12 "신경망은 전통적인 컴퓨터가 달성할 수 없는 인공지능을 달성한다" = 345
부록3 용어해설 = 347
찾아보기 = 361