
000 | 00000cam c2200205 c 4500 | |
001 | 000046140621 | |
005 | 20230206104612 | |
007 | ta | |
008 | 230202s2022 ggkad b 001c kor | |
020 | ▼a 9788969060303 ▼g 93560 | |
035 | ▼a (KERIS)BIB000016607209 | |
040 | ▼a 211032 ▼c 211032 ▼d 211009 | |
082 | 0 4 | ▼a 519.6 ▼2 23 |
085 | ▼a 519.6 ▼2 DDCK | |
090 | ▼a 519.6 ▼b 2022 | |
100 | 1 | ▼a 임장환, ▼d 1963- |
245 | 2 0 | ▼a (머신러닝, 인공지능, 컴퓨터 비젼 전공자를 위한) 최적화 이론 = ▼x Optimization theory / ▼d 임장환 지음 |
250 | ▼a 3판 | |
260 | ▼a 고양 : ▼b 장환수학, ▼c 2022 | |
300 | ▼a 202 p. : ▼b 삽화, 도표 ; ▼c 26 cm | |
500 | ▼a 본표제는 표지표제임 | |
504 | ▼a 참고문헌(p. 197-198)과 색인수록 | |
945 | ▼a ITMT |
Holdings Information
No. | Location | Call Number | Accession No. | Availability | Due Date | Make a Reservation | Service |
---|---|---|---|---|---|---|---|
No. 1 | Location Science & Engineering Library/Sci-Info(Stacks1)/ | Call Number 519.6 2022 | Accession No. 121262186 | Availability Available | Due Date | Make a Reservation | Service |
Contents information
Book Introduction
수학을 전공하지 않은 분들을 위한 수학 참고서로, 접근하기 쉽게 설명하려고 노력했다. 하지만 수학적인 논리가 필요한 부분에서는 충실히 수학의 엄격성을 유지하였다. 난이도는 대학교 학부생 수준에서 대학원생들의 연구에 사용할 정도의 최적화 이론에 대한 내용을 담았다.
이 책은 수학을 전공하지 않은 분들을 위한 수학 참고서입니다. 원래 수학 참고서는 비 전공자 분들 눈에서 매우 엄격하고 까다롭게 쓰인 경우가 종종 있습니다. 사실은 까다롭고 엄격한 방법론이 틀린 것은 아니지만 뭔가 필요한 지식을 얻어가려는 사람들에게는 매우 불편하게 여겨지는 부분이기도 합니다. 가능하면 수학 비 전공자 분들이 접근하기 쉽게 설명하려고 매우 노력했습니다. 하지만 수학적인 논리가 필요한 부분에서는 충실히 수학의 엄격성을 유지 할여고도 했습니다. 이 책의 난이도는 대학교 학부생 수준에서 대학원생들의 연구에 사용할 정도의 최적화 이론에 대한 내용을 담고 있습니다.
Information Provided By: :

Author Introduction
임장환(지은이)
독일 Trier, Kiel 대학에서 수학 Kiel대학 수학과 졸업(박사) 독일 Kiel 대학 연구원 중앙대학교 첨단영상대학원 연구교수 역임 현 장환수학 출판사 대표 관심분야: 3D Reconstruction From Multiple Images Camera Calibration 최적화 이론, 인공지능 Lie 군 이론(Lie Group Theory) 사영기하학(Projective Geometry) 위상기하학(Topological Geometry) e-mail: jang_hwan_im@naver.com 블로그: https://blog.naver.com/jang_hwan_im 유튜브: 임장환: 3D Computer Vision https://www.youtube.com/channel/UCxsF9TU0tELBAhQTWV-t_kA

Table of Contents
1. 일 변수 함수의 최대최소 이론 1.1 일 변수 함수 미분 1.2 테일러 급수(Taylor Series) 1.3 Taylor 급수 보충설명[증명] 2. 다변수 함수 2.1 다변수 함수(Multi Variable Functions)의 정의: 2.2 다변수 함수의 미분 2.3 f: R^n -〉 R 의 테일러 급수(Taylor Series) 2.4 f: R^m -〉 R^n 의 테일러 급수(Taylor Series) 2.5 레벨집합과 그레디언트 방향 3. 컨벡스 함수(Convex function) 3.1 컨벡스 함수의 정의 3.1-11 정리(컨벡스 함수 핵심정리) 4. 제약 조건이 없는 최적화 4.1 기본개념 4.2-1 하강방향 찾기 1[Gradient Descent 탐색방법] 4.2-2 직선탐색(Line search) 알고리즘: 보폭(step size)결정하기 4.3 하강방향 찾기 2[Conjugate Gradient 탐색방법] 4.4 하강방향 찾기 3 [Newton 탐색방법] 4.4-1 Newton 탐색방법 4.4-2 Levenberg-Marquardt Type Damped Newton Method 4.4-3: Quasi-Newton Method 4.5 비선형 최소자승법(non-linear least squares problem) 4.5-1: 다변수 함수의 국소 선형성질 4.5-2: 비선형 최소자승법(non-linear least squares problem) 4.5-3: Gauss-Newton 탐색방법 4.5-4: Levenberg-Marquardt 방법 5. 라그랑주 승수법(Lagrange multiplier method) 5.1 라그랑주 승수법(Lagrange multiplier method) -등호 제약조건이 있는 경우5.2 라그랑주 승수법(Lagrange multiplier method) -등호와 부등호 제약조건이 있는 경우6. 선형대수학 6.1 벡터공간 R^n (Vector space of R^n) 6.2 부분공간(Subspace): 벡터공간속의 벡터공간 6.3 일차결합(linear combination)의 기하학적인 의미: 평행사변형 법칙 6.4 일차독립, 일차종속 6.5 기저개념(Basis)과 벡터공간의 차원(Dimension) 6.6 내 적 (Inner product) 6.7 행 렬 (Matrices) 6.8 벡터공간과 행렬과의 관계 6.9 행렬에서 열벡터와 행벡터의 의미 6.10 고유치와 고유벡터의 기하학적인 의미 6.11 양 확정행렬에 대한 Gram-Schmidt(그람-슈미트) 직교화 과정 6.12 군론의 정의(Definition of Group) 6.13 R^3에서의 직교행렬(Orthogonal Matrix in R^3) 6.14 공간상의 물체의 회전과 군 이론: SO_3(R) 6.15 선형방정식의 해구하기: Ax=b 참고문헌 찾아보기