HOME > 상세정보

상세정보

케라스 창시자에게 배우는 딥러닝 (1회 대출)

자료유형
단행본
개인저자
Chollet, François, 1957- 박해선
서명 / 저자사항
케라스 창시자에게 배우는 딥러닝 / 프랑소와 숄레 지음 ; 박해선 옮김
발행사항
서울 :   길벗,   2022  
형태사항
628 p. : 천연색삽화, 도표 ; 24 cm
원표제
Deep learning with Python (2nd ed.)
ISBN
9791140701001
일반주기
창시자의 철학까지 담은 머신 러닝/딥러닝 핵심원리와 실무 기법  
서지주기
색인수록
일반주제명
Python (Computer program language) Machine learning Neural networks (Computer science)
000 00000cam c2200205 c 4500
001 000046128243
005 20220919161218
007 ta
008 220916s2022 ulkad 001c kor
020 ▼a 9791140701001 ▼g 93000
035 ▼a (KERIS)BIB000016399587
040 ▼a 211032 ▼d 211032 ▼c 211009 ▼d 211009
041 1 ▼a kor ▼h eng
082 0 4 ▼a 006.31 ▼2 23
085 ▼a 006.31 ▼2 DDCK
090 ▼a 006.31 ▼b 2022z20
100 1 ▼a Chollet, François, ▼d 1957- ▼0 AUTH(211009)113297
245 1 0 ▼a 케라스 창시자에게 배우는 딥러닝 / ▼d 프랑소와 숄레 지음 ; ▼e 박해선 옮김
246 1 9 ▼a Deep learning with Python ▼g (2nd ed.)
260 ▼a 서울 : ▼b 길벗, ▼c 2022
300 ▼a 628 p. : ▼b 천연색삽화, 도표 ; ▼c 24 cm
500 ▼a 창시자의 철학까지 담은 머신 러닝/딥러닝 핵심원리와 실무 기법
504 ▼a 색인수록
650 0 ▼a Python (Computer program language)
650 0 ▼a Machine learning
650 0 ▼a Neural networks (Computer science)
700 1 ▼a 박해선 ▼0 AUTH(211009)31527
900 1 0 ▼a 숄레, 프랑소와, ▼e
945 ▼a ITMT

소장정보

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 중앙도서관/제2자료실(3층)/ 청구기호 006.31 2022z20 등록번호 111869223 도서상태 대출중 반납예정일 2023-01-12 예약 예약가능 R 서비스 M

컨텐츠정보

책소개

케라스 창시자이자 구글 딥러닝 연구원인 저자는 ‘인공 지능의 민주화’를 강조한다. 이 책 역시 많은 사람에게 딥러닝을 전달하는 또 다른 방법이며, 딥러닝 이면의 개념과 구현을 가능하면 쉽게 이해할 수 있게 하는 데 중점을 두었다. 1판 대비 75% 이상 수정되고 3분의 1 이상 증가된 2판은 직관적인 설명, 컬러 일러스트레이션, 명확한 예로 딥러닝 애플리케이션 개발을 시작하는 데 필요한 기술을 빠르게 습득할 수 있도록 구성했다.

실생활에서 쉽게 적용할 수 있는 실용적인 기법과 신경망을 완성하기 위한 중요한 이론을 모두 다루고 있으며, 딥러닝을 시작하는 방법부터 실무 기법까지, 저자의 철학과 통찰력이 담긴 내용을 만날 수 있다. 또한, 수학 장벽을 없애고자 수학적 표기 없이 직관적이고 간결한 코드로 개념을 설명한다. 딥러닝에 관심이 있거나 이해의 폭을 넓히고자 하는 모든 분에게 추천한다.

단어 하나, 코드 한 줄 버릴 것이 없다!
단 한 권의 딥러닝 책을 선택한다면 바로 이 책이다!


케라스 창시자이자 구글 딥러닝 연구원인 저자는 ‘인공 지능의 민주화’를 강조한다. 이 책 역시 많은 사람에게 딥러닝을 전달하는 또 다른 방법이며, 딥러닝 이면의 개념과 구현을 가능하면 쉽게 이해할 수 있게 하는 데 중점을 두었다. 1판 대비 75% 이상 수정되고 3분의 1 이상 증가된 2판은 직관적인 설명, 컬러 일러스트레이션, 명확한 예로 딥러닝 애플리케이션 개발을 시작하는 데 필요한 기술을 빠르게 습득할 수 있도록 구성했다. 실생활에서 쉽게 적용할 수 있는 실용적인 기법과 신경망을 완성하기 위한 중요한 이론을 모두 다루고 있으며, 딥러닝을 시작하는 방법부터 실무 기법까지, 저자의 철학과 통찰력이 담긴 내용을 만날 수 있다. 또한, 수학 장벽을 없애고자 수학적 표기 없이 직관적이고 간결한 코드로 개념을 설명한다. 딥러닝에 관심이 있거나 이해의 폭을 넓히고자 하는 모든 분에게 추천한다.

단어 하나, 코드 한 줄 버릴 것이 없다!
파이썬과 케라스로 배우는 딥러닝 핵심 원리!

쉽고 간결하다!

케라스 창시자이자 구글 AI 연구원인 저자는 ‘인공 지능의 민주화’를 강조한다. 이런 개념을 바탕으로 케라스를 만들었으며, 현재 딥러닝을 시작하기에 가장 쉬운 라이브러리로 평가받고 있다. 이 책 역시 ‘인공 지능의 민주화’를 위한 일환이다. 1판 대비 75% 이상 수정된 2판은 직관적인 설명, 컬러 일러스트레이션, 명확한 예로 딥러닝 애플리케이션 개발을 시작하는 데 필요한 기술을 빠르게 습득할 수 있도록 구성했다. 실생활에서 쉽게 적용할 수 있는 실용적인 기법과 신경망을 완성하기 위한 중요한 이론을 모두 다루고 있다.

명확한 학습법을 제시한다!
딥러닝의 최근 혁신은 자동화된 언어 번역, 이미지 인식 등과 같은 흥미롭고 새로운 기능을 제공한다. 딥러닝은 빠르게 모든 소프트웨어 개발자의 필수 지식이 되고 있으며, 수학이나 데이터 과학에 대한 배경 지식이 없더라도 케라스와 텐서플로 같은 최신 도구를 통해 쉽게 접근할 수 있다. 이 책은 오랜 기간 딥러닝 개발자로 활동해온 저자가 딥러닝을 제대로 학습하기 위해서는 어떻게 해야 할지를 고민한 내용을 모두 담았다. 딥러닝을 시작하는 방법부터 실무 기법까지, 저자의 철학과 통찰력이 담긴 내용을 만나보자.

실용적이고 확장 가능한 예제로 학습한다!
상세한 해설, 실질적인 권장 사항, 구체적인 문제 해결을 위한 팁까지 딥러닝을 학습하기 위해 알아야 할 모든 것을 포괄하는 설명이 포함된 예제로 학습한다. 이 예제들을 학습하면서 딥러닝의 개념, 적용 범위, 한계 등을 확실하게 이해할 수 있다. 이 과정으로 머신 러닝 문제를 해결하는 작업 흐름에 익숙해질 것이며, 케라스를 사용해 컴퓨터 비전, 자연어 처리, GAN 등 실전 문제를 해결할 수 있다. 또한, 이 예제들을 확장해 나만의 딥러닝 모델을 만들거나 적용할 수도 있다.

[들어가며]
이 책은 딥러닝을 처음부터 배우거나 이해의 폭을 넓히고자 하는 모든 사람을 위해 썼습니다. 머신 러닝 기술자나 소프트웨어 엔지니어, 대학생에 상관없이 이 책에서 배울 점이 있을 것입니다.
처음에는 간단하게 시작해서 나중에 최신 기술까지 배우는 식으로 딥러닝을 탐구해 보겠습니다. 이 책은 직관, 이론, 실습 사이에 균형을 잡고 있습니다. 수학 표기를 피하고 그 대신 머신 러닝과 딥러닝의 핵심 아이디어를 자세한 코드와 직관적인 비유로 설명합니다. 자세한 주석과 실용적인 가이드라인이 포함된 많은 코드 예제가 있습니다. 구체적인 문제를 풀기 위해 딥러닝을 시작할 때 알아야 할 모든 것에 대한 간단 명료한 수준 높은 설명도 함께합니다.
예제 코드는 파이썬 딥러닝 프레임워크 케라스를 사용합니다. 케라스의 계산 엔진으로는 텐서플로 2를 사용합니다. 케라스와 텐서플로 2의 최신 모범 사례를 보여 줄 것입니다.
이 책을 읽고 나면 딥러닝이 무엇인지, 언제 적용하는지, 한계는 무엇인지에 대한 개념을 확실히 이해할 수 있습니다. 머신 러닝 문제를 구성하고 해결하기 위한 표준적인 작업 흐름에 익숙해지고 자주 마주치는 이슈들을 다루는 방법을 배웁니다. 따라서 케라스를 사용하여 컴퓨터 비전에서 자연어 처리, 이미지 분류, 이미지 분할, 시계열 예측, 텍스트 분류, 기계 번역, 텍스트 생성까지 다양한 실전 문제를 다룰 수 있을 것입니다.

2판에서 달라진 점:
- 최신 텐서플로, 케라스 API 반영
- 어텐션을 비롯해 트랜스포머 구조를 밑바닥에서부터 직접 구현
- 이미지 분할, 기계 번역, 텍스트 생성, 얼굴 이미지 생성 등 고급 모델 추가
- 사용자 정의 지표, 사용자 정의 콜백, 사용자 정의 훈련 루프 구현
- 그레이디언트 테이프 및 서브클래싱을 사용한 모델 구현
- 머신러닝 문제 정의, 배포, 최적화 등 머신 러닝의 전체 워크플로 설명
- 대부분의 코드에 함수형 API 사용
- 새로운 이미지 증식 층을 사용한 이미지 증식 기법 소개
- 케라스튜너, 혼합 정밀도, 다중 GPU, TPU를 사용한 훈련 방법
- 지능과 일반화에 대해 고찰하고 딥러닝의 미래를 그려봄

이 책의 장점:
- 어려운 수식을 사용하지 않고 파이썬 코드로 기초부터 최신 고급 알고리즘까지 모두 설명
- 간결한 케라스 코드를 사용하므로 파이썬에 익숙한 개발자가 쉽게 이해할 수 있음
- 합성곱 신경망, 순환 신경망, 트랜스포머, 생성 모델까지 폭 넓은 애플리케이션을 포괄함
- 머신 러닝 프로젝트를 위한 전체 워크플로와 주의해야 할 점을 배움
- 초보자에게: 수학을 몰라도 기초적인 부분부터 딥러닝을 배울 수 있음
- 개발자에게: 파이썬에 익숙하다면 고급 모델까지 모두 구현해 볼 수 있음
- 연구자에게: 케라스로 사용자 정의 모델을 만드는 방법을 모두 배울 수 있음


정보제공 : Aladin

저자소개

프랑소와 숄레(지은이)

가장 널리 사용되는 딥러닝 프레임워크인 케라스의 창시자다. 현재 구글의 소프트웨어 엔지니어로 케라스 팀을 이끌고 있으며, 추상화, 추론 그리고 인공 지능의 일반성을 높이기 위한 방법을 연구한다. • https://fchollet.com • https://twitter.com/fchollet • https://github.com/fchollet

박해선(옮긴이)

기계공학을 전공했지만 졸업 후엔 줄곧 코드를 읽고 쓰는 일을 했습니다. 텐서 플로우 블로그(tensorflow.blog)를 운영하고 있고, 머신러닝과 딥러닝에 관한 책을 집필하고 번역하면서 소프트웨어와 과학의 경계를 흥미롭게 탐험하고 있습니다. 『혼자 공부하는 머신러닝+딥러닝』(한빛미디어, 2020), 『Do it! 딥러닝 입문』(이지스퍼블리싱,2019)을 집필했습니다. 『XGBoost와 사이킷런을 활용한 그레이디언트 부스팅』(한빛미디어, 2022), 『구글 브레인 팀에게 배우는 딥러닝 with TensorFlow.js』(길벗, 2022), 『파이썬 라이브러리를 활용한 머신러닝(번역개정2판)』(한빛미디어, 2022), 『머신러닝 파워드 애플리케이션』(한빛미디어, 2021), 『파이토치로 배우는 자연어 처리』(한빛미디어, 2021), 『머신 러닝 교과서 with 파이썬, 사이킷런, 텐서플로(개정3판)』(길벗, 2021), 『딥러닝 일러스트레이티드』(시그마프레스, 2021), 『GAN 인 액션』(한빛미디어, 2020), 『핸즈온 머신러닝(2판)』(한빛미디어, 2020), 『미술관에 GAN 딥러닝 실전 프로젝트』(한빛미디어, 2019), 『파이썬을 활용한 머신러닝 쿡북』(한빛미디어, 2019), 『케라스 창시자에게 배우는 딥러닝』(길벗, 2018)을 포함하여 여러 권의 책을 우리말로 옮겼습니다.

정보제공 : Aladin

목차

1장 딥러닝이란 무엇인가?
1.1 인공 지능과 머신 러닝, 딥러닝
__1.1.1 인공 지능
__1.1.2 머신 러닝
__1.1.3 데이터에서 표현을 학습하기
__1.1.4 딥러닝에서 ‘딥’이란 무엇일까?
__1.1.5 그림 3개로 딥러닝의 작동 원리 이해하기
__1.1.6 지금까지 딥러닝의 성과
__1.1.7 단기간의 과대 선전을 믿지 말자
__1.1.8 AI에 대한 전망
1.2 딥러닝 이전: 머신 러닝의 간략한 역사
__1.2.1 확률적 모델링
__1.2.2 초창기 신경망
__1.2.3 커널 방법
__1.2.4 결정 트리, 랜덤 포레스트, 그레이디언트 부스팅 머신
__1.2.5 다시 신경망으로
__1.2.6 딥러닝의 특징
__1.2.7 머신 러닝의 최근 동향
1.3 왜 딥러닝일까? 왜 지금일까?
__1.3.1 하드웨어
__1.3.2 데이터
__1.3.3 알고리즘
__1.3.4 새로운 투자의 바람
__1.3.5 딥러닝의 대중화
__1.3.6 지속될까?

2장 신경망의 수학적 구성 요소
2.1 신경망과의 첫 만남
2.2 신경망을 위한 데이터 표현
__2.2.1 스칼라(랭크- 0 텐서)
__2.2.2 벡터(랭크-1 텐서)
__2.2.3 행렬(랭크-2 텐서)
__2.2.4 랭크-3 텐서와 더 높은 랭크의 텐서
__2.2.5 핵심 속성
__2.2.6 넘파이로 텐서 조작하기
__2.2.7 배치 데이터
__2.2.8 텐서의 실제 사례
__2.2.9 벡터 데이터
__2.2.10 시계열 데이터 또는 시퀀스 데이터
__2.2.11 이미지 데이터
__2.2.12 비디오 데이터
2.3 신경망의 톱니바퀴: 텐서 연산
__2.3.1 원소별 연산
__2.3.2 브로드캐스팅
__2.3.3 텐서 곱셈
__2.3.4 텐서 크기 변환
__2.3.5 텐서 연산의 기하학적 해석
__2.3.6 딥러닝의 기하학적 해석
2.4 신경망의 엔진: 그레이디언트 기반 최적화
__2.4.1 도함수란?
__2.4.2 텐서 연산의 도함수: 그레이디언트
__2.4.3 확률적 경사 하강법
__2.4.4 도함수 연결: 역전파 알고리즘
2.5 첫 번째 예제 다시 살펴보기
__2.5.1 텐서플로를 사용하여 첫 번째 예제를 밑바닥부터 다시 구현하기
__2.5.2 훈련 스텝 실행하기
__2.5.3 전체 훈련 루프
__2.5.4 모델 평가하기
2.6 요약

3장 케라스와 텐서플로 소개
3.1 텐서플로란?
3.2 케라스란?
3.3 케라스와 텐서플로의 간략한 역사
3.4 딥러닝 작업 환경 설정하기
__3.4.1 주피터 노트북: 권장하는 딥러닝 실험 도구
__3.4.2 코랩 사용하기
3.5 텐서플로 시작하기
__3.5.1 상수 텐서와 변수
__3.5.2 텐서 연산: 텐서플로에서 수학 계산하기
__3.5.3 GradientTape API 다시 살펴보기
__3.5.4 엔드-투-엔드 예제: 텐서플로 선형 분류기
3.6 신경망의 구조: 핵심 Keras API 이해하기
__3.6.1 층: 딥러닝의 구성 요소
__3.6.2 층에서 모델로
__3.6.3 ‘컴파일’ 단계: 학습 과정 설정
__3.6.4 손실 함수 선택하기
__3.6.5 fit( ) 메서드 이해하기
__3.6.6 검증 데이터에서 손실과 측정 지표 모니터링하기
__3.6.7 추론: 훈련한 모델 사용하기
3.7 요약

4장 신경망 시작하기: 분류와 회귀
4.1 영화 리뷰 분류: 이진 분류 문제
__4.1.1 IMDB 데이터셋
__4.1.2 데이터 준비
__4.1.3 신경망 모델 만들기
__4.1.4 훈련 검증
__4.1.5 훈련된 모델로 새로운 데이터에 대해 예측하기
__4.1.6 추가 실험
__4.1.7 정리
4.2 뉴스 기사 분류: 다중 분류 문제
__4.2.1 로이터 데이터셋
__4.2.2 데이터 준비
__4.2.3 모델 구성
__4.2.4 훈련 검증
__4.2.5 새로운 데이터에 대해 예측하기
__4.2.6 레이블과 손실을 다루는 다른 방법
__4.2.7 충분히 큰 중간층을 두어야 하는 이유
__4.2.8 추가 실험
__4.2.9 정리
4.3 주택 가격 예측: 회귀 문제
__4.3.1 보스턴 주택 가격 데이터셋
__4.3.2 데이터 준비
__4.3.3 모델 구성
__4.3.4 K-겹 검증을 사용한 훈련 검증
__4.3.5 새로운 데이터에 대해 예측하기
__4.3.6 정리
4.4 요약

5장 머신 러닝의 기본 요소
5.1 일반화: 머신 러닝의 목표
__5.1.1 과소적합과 과대적합
__5.1.2 딥러닝에서 일반화의 본질
5.2 머신 러닝 모델 평가
__5.2.1 훈련, 검증, 테스트 세트
__5.2.2 상식 수준의 기준점 넘기
__5.2.3 모델 평가에 대해 유념해야 할 점
5.3 훈련 성능 향상하기
__5.3.1 경사 하강법의 핵심 파라미터 튜닝하기
__5.3.2 구조에 대해 더 나은 가정하기
__5.3.3 모델 용량 늘리기
5.4 일반화 성능 향상하기
__5.4.1 데이터셋 큐레이션
__5.4.2 특성 공학
__5.4.3 조기 종료 사용하기
__5.4.4 모델 규제하기
5.5 요약

6장 일반적인 머신 러닝 워크플로
6.1 작업 정의
__6.1.1 문제 정의
__6.1.2 데이터 수집
__6.1.3 데이터 이해
__6.1.4 성공 지표 선택
6.2 모델 개발
__6.2.1 데이터 준비
__6.2.2 평가 방법 선택
__6.2.3 기준 모델 뛰어넘기
__6.2.4 모델 용량 키우기: 과대적합 모델 만들기
__6.2.5 모델 규제와 하이퍼파라미터 튜닝
6.3 모델 배포
__6.3.1 고객에게 작업을 설명하고 기대치 설정하기
__6.3.2 추론 모델 배치하기
__6.3.3 작동 중 모델 모니터링하기
__6.3.4 모델 유지 관리
6.4 요약

7장 케라스 완전 정복
7.1 다양한 워크플로
7.2 케라스 모델을 만드는 여러 방법
__7.2.1 Sequential 모델
__7.2.2 함수형 API
__7.2.3 Model 서브클래싱
__7.2.4 여러 방식을 혼합하여 사용하기
__7.2.5 작업에 적합한 도구 사용하기
7.3 내장된 훈련 루프와 평가 루프 사용하기
__7.3.1 사용자 정의 지표 만들기
__7.3.2 콜백 사용하기
__7.3.3 사용자 정의 콜백 만들기
__7.3.4 텐서보드를 사용한 모니터링과 시각화
7.4 사용자 정의 훈련, 평가 루프 만들기
__7.4.1 훈련 vs 추론
__7.4.2 측정 지표의 저수준 사용법
__7.4.3 완전한 훈련과 평가 루프
__7.4.4 tf.function으로 성능 높이기
__7.4.5 fit( ) 메서드를 사용자 정의 루프로 활용하기
7.5 요약

8장 컴퓨터 비전을 위한 딥러닝
8.1 합성곱 신경망 소개
__8.1.1 합성곱 연산
__8.1.2 최대 풀링 연산
8.2 소규모 데이터셋에서 밑바닥부터 컨브넷 훈련하기
__8.2.1 작은 데이터셋 문제에서 딥러닝의 타당성
__8.2.2 데이터 내려받기
__8.2.3 모델 만들기
__8.2.4 데이터 전처리
__8.2.5 데이터 증식 사용하기
8.3 사전 훈련된 모델 활용하기
__8.3.1 사전 훈련된 모델을 사용한 특성 추출
__8.3.2 사전 훈련된 모델 미세 조정하기
8.4 요약

9장 컴퓨터 비전을 위한 고급 딥러닝
9.1 세 가지 주요 컴퓨터 비전 작업
9.2 이미지 분할 예제
9.3 최신 컨브넷 아키텍처 패턴
__9.3.1 모듈화, 계층화 그리고 재사용
__9.3.2 잔차 연결
__9.3.3 배치 정규화
__9.3.4 깊이별 분리 합성곱
__9.3.5 Xception 유사 모델에 모두 적용하기
9.4 컨브넷이 학습한 것 해석하기
__9.4.1 중간 활성화 시각화
__9.4.2 컨브넷 필터 시각화하기
__9.4.3 클래스 활성화의 히트맵 시각화하기
9.5 요약

10장 시계열을 위한 딥러닝
10.1 다양한 종류의 시계열 작업
10.2 온도 예측 문제
__10.2.1 데이터 준비
__10.2.2 상식 수준의 기준점
__10.2.3 기본적인 머신 러닝 모델 시도해 보기
__10.2.4 1D 합성곱 모델 시도해 보기
__10.2.5 첫 번째 순환 신경망
10.3 순환 신경망 이해하기
__10.3.1 케라스의 순환 층
__10.4 순환 신경망의 고급 사용법
__10.4.1 과대적합을 감소하기 위해 순환 드롭아웃 사용하기
__10.4.2 스태킹 순환 층
__10.4.3 양방향 RNN 사용하기
__10.4.4 더 나아가서
10.5 요약

11장 텍스트를 위한 딥러닝
11.1 자연어 처리 소개
11.2 텍스트 데이터 준비
__11.2.1 텍스트 표준화
__11.2.2 텍스트 분할(토큰화)
__11.2.3 어휘 사전 인덱싱
__11.2.4 TextVectorization 층 사용하기
11.3 단어 그룹을 표현하는 두 가지 방법: 집합과 시퀀스
__11.3.1 IMDB 영화 리뷰 데이터 준비하기
__11.3.2 단어를 집합으로 처리하기: BoW 방식
__11.3.3 단어를 시퀀스로 처리하기: 시퀀스 모델 방식
11.4 트랜스포머 아키텍처
__11.4.1 셀프 어텐션 이해하기
__11.4.2 멀티 헤드 어텐션
__11.4.3 트랜스포머 인코더
__11.4.4 BoW 모델 대신 언제 시퀀스 모델을 사용하나요?
11.5 텍스트 분류를 넘어: 시퀀스-투-시퀀스 학습
__11.5.1 기계 번역 예제
__11.5.2 RNN을 사용한 시퀀스-투-시퀀스 모델
__11.5.3 트랜스포머를 사용한 시퀀스-투-시퀀스 모델
11.6 요약

12장 생성 모델을 위한 딥러닝
12.1 텍스트 생성
__12.1.1 시퀀스 생성을 위한 딥러닝 모델의 간단한 역사
__12.1.2 시퀀스 데이터를 어떻게 생성할까?
__12.1.3 샘플링 전략의 중요성
__12.1.4 케라스를 사용한 텍스트 생성 모델 구현
__12.1.5 가변 온도 샘플링을 사용한 텍스트 생성 콜백
__12.1.6 정리
12.2 딥드림
__12.2.1 케라스 딥드림 구현
__12.2.2 정리
12.3 뉴럴 스타일 트랜스퍼
__12.3.1 콘텐츠 손실
__12.3.2 스타일 손실
__12.3.3 케라스로 뉴럴 스타일 트랜스퍼 구현하기
__12.3.4 정리
12.4 변이형 오토인코더를 사용한 이미지 생성
__12.4.1 이미지의 잠재 공간에서 샘플링하기
__12.4.2 이미지 변형을 위한 개념 벡터
__12.4.3 변이형 오토인코더
__12.4.4 케라스로 VAE 구현하기
__12.4.5 정리
12.5 생성적 적대 신경망 소개
__12.5.1 GAN 구현 방법
__12.5.2 훈련 방법
__12.5.3 CelebA 데이터셋 준비하기
__12.5.4 판별자
__12.5.5 생성자
__12.5.6 적대 네트워크
__12.5.7 정리
12.6 요약

13장 실전 문제 해결을 위한 모범 사례
13.1 모델의 최대 성능을 끌어내기
__13.1.1 하이퍼파라미터 최적화
__13.1.2 모델 앙상블
13.2 대규모 모델 훈련하기
__13.2.1 혼합 정밀도로 GPU에서 훈련 속도 높이기
__13.2.2 다중 GPU 훈련
__13.2.3 TPU 훈련
13.3 요약

14장 결론
14.1 핵심 개념 리뷰
__14.1.1 AI를 위한 여러 방법
__14.1.2 머신 러닝 분야에서 딥러닝이 특별한 이유
__14.1.3 딥러닝에 대해
__14.1.4 핵심 기술
__14.1.5 일반적인 머신 러닝 워크플로
__14.1.6 주요 네트워크 구조
__14.1.7 딥러닝의 가능성
14.2 딥러닝의 한계
__14.2.1 머신 러닝 모델의 의인화 위험
__14.2.2 자동 기계 vs 지능 에이전트
__14.2.3 지역 일반화 vs 궁극 일반화
__14.2.4 지능의 목적
__14.2.5 일반화의 스펙트럼
14.3 AI에서 일반화를 높이기 위한 방법
__14.3.1 올바른 목표 설정의 중요성: 지름길 규칙
__14.3.2 새로운 목표
14.4 지능 구현: 누락된 구성 요소
__14.4.1 추상적 비유에 뛰어난 지능
__14.4.2 두 종류의 추상화
__14.4.3 누락된 절반의 그림
14.5 딥러닝의 미래
__14.5.1 프로그램 같은 모델
__14.5.2 딥러닝과 프로그램 합성을 혼합하기
__14.5.3 영구 학습과 모듈화된 서브루틴 재사용
__14.5.4 장기 비전
14.6 빠른 변화에 뒤처지지 않기
__14.6.1 캐글의 실전 문제로 연습하기
__14.6.2 아카이브(arXiv)를 통해 최신 논문 읽기
__14.6.3 케라스 생태계 탐험하기
14.7 맺음말

관련분야 신착자료