HOME > 상세정보

상세정보

텐서플로 케라스를 이용한 딥러닝 / 제2판 (4회 대출)

자료유형
단행본
개인저자
박유성, 朴裕聖, 1958-
서명 / 저자사항
텐서플로 케라스를 이용한 딥러닝 / 박유성 지음
판사항
제2판
발행사항
파주 :   자유아카데미,   2021  
형태사항
x, 616 p. : 삽화, 도표 ; 26 cm
ISBN
9791158083335
서지주기
참고문헌(p. 601-604)과 색인수록
000 00000cam c2200205 c 4500
001 000046103534
005 20220105134231
007 ta
008 220104s2021 ggkad b 001c kor
020 ▼a 9791158083335 ▼g 93000
035 ▼a (KERIS)BIB000016002062
040 ▼a 241008 ▼c 241008 ▼d 211009
082 0 4 ▼a 006.31 ▼2 23
085 ▼a 006.31 ▼2 DDCK
090 ▼a 006.31 ▼b 2021z29
100 1 ▼a 박유성, ▼g 朴裕聖, ▼d 1958- ▼0 AUTH(211009)26443
245 1 0 ▼a 텐서플로 케라스를 이용한 딥러닝 / ▼d 박유성 지음
250 ▼a 제2판
260 ▼a 파주 : ▼b 자유아카데미, ▼c 2021
300 ▼a x, 616 p. : ▼b 삽화, 도표 ; ▼c 26 cm
504 ▼a 참고문헌(p. 601-604)과 색인수록
945 ▼a KLPA

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 중앙도서관/지정도서실/지정 청구기호 006.31 2021z29 등록번호 111856434 도서상태 지정도서 반납예정일 예약 서비스 M
No. 2 소장처 과학도서관/Sci-Info(1층서고)/ 청구기호 006.31 2021z29 등록번호 521006713 도서상태 대출중 반납예정일 2022-06-08 예약 예약가능 R 서비스 M
No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 중앙도서관/지정도서실/지정 청구기호 006.31 2021z29 등록번호 111856434 도서상태 지정도서 반납예정일 예약 서비스 M
No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(1층서고)/ 청구기호 006.31 2021z29 등록번호 521006713 도서상태 대출중 반납예정일 2022-06-08 예약 예약가능 R 서비스 M

컨텐츠정보

책소개

제2판은 전판과 비교하여 딥러닝을 좀 더 체계적으로 공부할 수 있도록 구성을 바꿨으며 computer vision의 R-CNN과 YOLO를 새롭게 추가하였다. 자연어처리를 위한 TransFormer, BERT, ALBERT, RoBERTa, ELECTRA, Distil-BERT, M-BERT, XLM, XLM-R 등의 사전학습모형에 대한 자세한 설명과 작동원리도 추가하였고 이러한 자연어처리 모형을 실행하기 위한 Hugging Face의 transformers 라이브러리 사용법 역시 새롭게 수록하였다.

딥러닝과 자연어처리 실습을 위한 실습데이터는 TensorFlow 데이터 API와 Hugging Face 데이터 API에서 풍부하게 제공하고 있다. 이 두 가지의 데이터 API는 딥러닝 모형의 문법에 맞는 입력자료를 쉽고 효율적으로 처리할 수 있는 기능도 가지고 있기 때문에 이들 데이터 API의 사용법 역시 본문에 수록하였다.

딥러닝은 입력층, 은닉층, 출력층으로 구성되어 있다. 입력층에는 목적변수를 예측하기 위한 특성변수가 입력되고 출력층에서는 목적변수의 예측치를 출력한다. 만약 딥러닝 모형에서 은닉층을 제거하면 일반적인 통계모형과 동일하게 된다. 그러므로 은닉층의 구조와 특성, 그리고 자료구조에 따른 은닉층의 설계변경을 잘 이해하면 딥러닝의 수많은 모형을 쉽게 이해할 수 있다. 은닉층의 구조와 특성은 오직 3개의 딥러닝 기본모형만 잘 이해하면 된다. 딥러닝의 모든 모형은 이 3개 기본모형의 조합이기 때문이다. 딥러닝의 모수추정방법을 포함해서 2, 3장에 이러한 논의를 상세하게 수록하였다. 수학적인 부호에 능숙하지 않은 독자는 처음에는 어렵게 느낄 수 있으나 제시된 여러 개념도를 중심으로 천천히 읽다 보면 이해하는 데 큰 무리는 없을 것이다. 모수의 수를 어떻게 계산하는지를 이해하면 신경망의 구조를 이해한 것으로 생각해도 무방하다.

딥러닝 전문가가 되기 위한 지름길은 딥러닝의 기본구조와 설계방법의 이해를 바탕으로 끊임없이 ‘try and error’를 해보는 것이다. 남이 짜놓은 프로그램을 무작정 따라서 해보는 것보다, ‘왜 이렇게 딥러닝 아키텍처를 만들었지?’, ‘이걸 바꾸면 무슨 일이 일어날까?’ 등을 생각해봐야 한다. 특히, 모수의 수렴에 관련된 정규화(normalization) 방법, 배치의 크기, 그리고 미분사라짐 현상에 대한 해결방안, 과대적합을 방지하기 위한 규제화(regularization) 방법 등을 익히고 모수를 증가시키거나 감소시켜 딥러닝 모형의 성능을 비교하게 되면 자신만의 딥러닝 모형을 구축할 수 있는 능력이 생기게 된다.

이 책은 총 5부로 구성되어 있다. 제1부는 1~5장으로 딥러닝 기초와 설계를 위한 내용으로 구성하였고, 제2부는 6~9장으로 제1부를 기초로 하여 딥러닝의 기본모형에 대한 일반적인 응용을 논의하였다. 제3부는 10~11장으로 객체인식, R-CNN, YOLO 등 computer vision을 논의하였고, 제4부는 12 ~ 16장으로 자연어처리를 위한 머신번역, TransFormer, BERT, BERT 변형, XLM 등의 사전학습모형을 논의하였다. 제5부는 17 ~ 19장으로 이미지재현, 이미지이전과 생성을 위한 Autoencoder와 GAN 모형 등을 논의하였다. 제1부와 제2부는 딥러닝을 응용하기 위한 필수코스이다. 제3부에서 제5부는 관심의 정도와 필요에 따라 선택적으로 공부할 수 있는 분야이다. 예를 들어, 제5부는 강화학습(reinforcement learning)에 필요한 분야이므로 강화학습에 관심있는 독자는 제5부의 작동원리와 구조를 익혀야 한다.

이번 제2판은 전판과 비교하여 딥러닝을 좀 더 체계적으로 공부할 수 있도록 구성을 바꿨으며 computer vision의 R-CNN과 YOLO를 새롭게 추가하였다. 자연어처리를 위한 TransFormer, BERT, ALBERT, RoBERTa, ELECTRA, Distil-BERT, M-BERT, XLM, XLM-R 등의 사전학습모형에 대한 자세한 설명과 작동원리도 추가하였고 이러한 자연어처리 모형을 실행하기 위한 Hugging Face의 transformers 라이브러리 사용법 역시 새롭게 수록하였다. 딥러닝과 자연어처리 실습을 위한 실습데이터는 TensorFlow 데이터 API와 Hugging Face 데이터 API에서 풍부하게 제공하고 있다. 이 두 가지의 데이터 API는 딥러닝 모형의 문법에 맞는 입력자료를 쉽고 효율적으로 처리할 수 있는 기능도 가지고 있기 때문에 이들 데이터 API의 사용법 역시 본문에 수록하였다.

이 책에 제공된 프로그램은 TensorFlow와 tf.keras로 작성되었기 때문에 클라우드 기반의 무료 Jupyter Notebook인 Colab에서 실습하기에 최적화되어 있다. 독자 스스로 프로그램을 이해할 수 있도록 가능한 한 상세하게 해설하였지만, 실습을 하지 않으면 딥러닝은 독자들의 것이 될 수 없다는 것을 명심하길 바란다.

일정 수준 이상의 데이터 과학자가 되기 위해서는 딥러닝의 전 과정을 이해해야만 한다. 다른 사람이 이미 구축해 놓은 프로그램에 자신의 자료를 집어넣을 줄만 아는 것은 단순한 데이터 기술자에 불과하기 때문이다. 이 책을 통해 독자들은 자료의 사전정리, 모형설정, 모형검증, 모형적용의 순서로 딥러닝 자료분석의 전 과정을 공부하게 될 것이다. 자료의 사전정리과정은 딥러닝 모형 구축에 가장 많은 시간과 정성을 기울여야 할 분야이므로 연구목적에 따른 이미지 자료, 텍스트 자료 등의 비정형 자료에 대한 사전자료 정리과정을 가능한 한 자세하게 설명하고자 노력하였다. 모형설정에서는 모형의 성능을 향상시키기 위한 초기치와 활성함수의 선택, 최적화 알고리즘의 선택, 과대적합 해결방안, 그리고 맞춤형 딥러닝 모형의 구축을 자세하게 설명하였다.

좋은 책을 위해 최선을 다했지만 부족한 부분이 있을 수 있다. 이 점은 양해를 바라며, 책에 나오는 실습 프로그램 및 데이터 파일과 출간 후 나올 수 있는 수정사항 등은 자유아카데미 홈페이지(www.freeaca.com) 자료실을 통해 제공할 예정이니 참조하기를 바란다.


정보제공 : Aladin

저자소개

박유성(지은이)

정보제공 : Aladin

목차

〈1부 딥러닝의 기초와 설계〉

1장 서론

2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리과정
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망

3장 최적화와 딥러닝 모형진단
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
3.4 딥러닝 모형의 진단과 일반화

4장 TensorFlow 2.x와 Keras
4.1 TensorFlow 2.x의 기초 문법과 tf.keras의 설치
4.2 딥러닝 구축을 위한 3대 API
4.3 최적화를 위한 점검

5장 딥러닝 모형의 성능향상과 맞춤형 딥러닝 설계
5.1 딥러닝 모형의 성능향상
5.2 맞춤형 딥러닝 설계

〈2부 딥러닝의 기본 응용〉

6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구분하는 CNN
6.2 이전학습 I
6.3 Image Generator를 이용한 CNN과 자료증대
6.4 이전학습 II

7장 텍스트 자료에 대한 딥러닝
7.1 Word2Vec과 Glove
7.2 텍스트 자료에 특화된 Word Embedding
7.3 Word Embedding 사례분석

8장 RNN의 적용과 응용
8.1 RNN 모형의 비교
8.2 다른 형태의 RNN 모형
8.3 딥러닝을 이용한 시계열 자료분석

9장 다중 입출력, 병렬형, 비순환 딥러닝 아키텍처
9.1 다중입력과 다중출력 딥러닝
9.2 비순환형 딥러닝 아키텍처

〈3부 Computer Vision〉

10장 자율자동차의 이미지분석
10.1 교통표식의 식별
10.2 객체분할
10.3 객체의 의미분할

11장 이미지 객체인식과 위치화
11.1 R-CNN
11.2 YOLO

〈4부 자연어처리〉

12장 머신번역
12.1 자료의 사전정리
12.2 sequence-to-sequence 학습
12.3 머신번역을 위한 Encoder-Decoder 아키텍처
12.4 Attention을 이용한 머신번역

13장 Transformer
13.1 Transformer의 입력층
13.2 Transformer의 은닉층
13.3 Transformer의 적용
13.4 한국어 챗봇

14장 BERT
14.1 BERT의 구조
14.2 서브워드 토큰화

15장 Hugging Face를 이용한 BERT
15.1 BERT의 적용
15.2 NLP 데이터셋 API와 BERT의 적용

16장 BERT 변형
16.1 ALBERT
16.2 RoBERTa
16.3 ELECTRA
16.4 DistilBERT
16.5 M-BERT, XLM, XLM-R

〈5부 Autoencoder와 GAN〉

17장 Autoencoder와 Variational Autoencoder
17.1 Autoencoder 모형
17.2 오염제거 Autoencoder
17.3 Variational Autoencoder

18장 Generative Adversarial Networks
18.1 DCGAN
18.2 GAN 학습을 위한 손실함수
18.3 WGAN의 구현
18.4 LSGAN의 구현

19장 Cross-Domain GAN
19.1 CycleGAN
19.2 CIFAR10 데이터를 이용한 CycleGAN
19.3 MNIST 데이터와 SVHN 데이터를 이용한 CycleGAN
19.4 모네그림 데이터와 사진데이터를 이용한 CycleGAN

참고문헌
찾아보기














"〈1부 딥러닝의 기초와 설계〉


1장 서론

2장 딥러닝 데이터와 세 가지 기본신경망
2.1 데이터의 사전정리과정
2.2 딥러닝에 사용되는 데이터의 형태
2.3 은닉층 설계를 위한 세 가지 핵심 신경망

3장 최적화와 딥러닝 모형진단
3.1 출력층과 손실함수
3.2 역전파
3.3 최적화 알고리즘
3.4 딥러닝 모형의 진단과 일반화

4장 TensorFlow 2.x와 Keras
4.1 TensorFlow 2.x의 기초 문법과 tf.keras의 설치
4.2 딥러닝 구축을 위한 3대 API
4.3 최적화를 위한 점검

5장 딥러닝 모형의 성능향상과 맞춤형 딥러닝 설계
5.1 딥러닝 모형의 성능향상
5.2 맞춤형 딥러닝 설계


〈2부 딥러닝의 기본 응용〉


6장 CNN의 응용과 이전학습
6.1 사람의 성별을 구분하는 CNN
6.2 이전학습 I
6.3 Image Generator를 이용한 CNN과 자료증대
6.4 이전학습 II

7장 텍스트 자료에 대한 딥러닝
7.1 Word2Vec과 Glove
7.2 텍스트 자료에 특화된 Word Embedding
7.3 Word Embedding 사례분석

8장 RNN의 적용과 응용
8.1 RNN 모형의 비교
8.2 다른 형태의 RNN 모형
8.3 딥러닝을 이용한 시계열 자료분석

9장 다중 입출력, 병렬형, 비순환 딥러닝 아키텍처
9.1 다중입력과 다중출력 딥러닝
9.2 비순환형 딥러닝 아키텍처


〈3부 Computer Vision〉


10장 자율자동차의 이미지분석
10.1 교통표식의 식별
10.2 객체분할
10.3 객체의 의미분할

11장 이미지 객체인식과 위치화
11.1 R-CNN
11.2 YOLO

〈4부 자연어처리〉


12장 머신번역
12.1 자료의 사전정리
12.2 sequence-to-sequence 학습
12.3 머신번역을 위한 Encoder-Decoder 아키텍처
12.4 Attention을 이용한 머신번역

13장 Transformer
13.1 Transformer의 입력층
13.2 Transformer의 은닉층
13.3 Transformer의 적용
13.4 한국어 챗봇

14장 BERT
14.1 BERT의 구조
14.2 서브워드 토큰화

15장 Hugging Face를 이용한 BERT
15.1 BERT의 적용
15.2 NLP 데이터셋 API와 BERT의 적용

16장 BERT 변형
16.1 ALBERT
16.2 RoBERTa
16.3 ELECTRA
16.4 DistilBERT
16.5 M-BERT, XLM, XLM-R


〈5부 Autoencoder와 GAN〉


17장 Autoencoder와 Variational Autoencoder
17.1 Autoencoder 모형
17.2 오염제거 Autoencoder
17.3 Variational Autoencoder

18장 Generative Adversarial Networks
18.1 DCGAN
18.2 GAN 학습을 위한 손실함수
18.3 WGAN의 구현
18.4 LSGAN의 구현

19장 Cross-Domain GAN
19.1 CycleGAN
19.2 CIFAR10 데이터를 이용한 CycleGAN
19.3 MNIST 데이터와 SVHN 데이터를 이용한 CycleGAN
19.4 모네그림 데이터와 사진데이터를 이용한 CycleGAN

참고문헌
찾아보기"

관련분야 신착자료

딥노이드. 교육팀 (2021)
Patterson, Josh (2022)