HOME > 상세정보

상세정보

Deep learning with Keras : implement neural networks with Keras on Theano and TensorFlow

Deep learning with Keras : implement neural networks with Keras on Theano and TensorFlow (8회 대출)

자료유형
단행본
개인저자
Gulli, Antonio. Pal, Sujit.
서명 / 저자사항
Deep learning with Keras : implement neural networks with Keras on Theano and TensorFlow / Antonio Gulli, Sujit Pal.
발행사항
Birmingham :   Mumbai Packt Publishing,   c2017.  
형태사항
303 p. : ill. ; 24 cm.
ISBN
9781787128422
서지주기
Includes bibliographical references and index.
000 00000nam u2200205 a 4500
001 000045919628
005 20171102173620
008 171102s2017 enka b 001 0 eng d
020 ▼a 9781787128422
040 ▼a 211009 ▼c 211009 ▼d 211009
082 0 4 ▼a 006.31 ▼2 23
084 ▼a 006.31 ▼2 DDCK
090 ▼a 006.31 ▼b G973d
100 1 ▼a Gulli, Antonio.
245 1 0 ▼a Deep learning with Keras : ▼b implement neural networks with Keras on Theano and TensorFlow / ▼c Antonio Gulli, Sujit Pal.
260 ▼a Birmingham : ▼b Mumbai Packt Publishing, ▼c c2017.
300 ▼a 303 p. : ▼b ill. ; ▼c 24 cm.
504 ▼a Includes bibliographical references and index.
700 1 ▼a Pal, Sujit.
945 ▼a KLPA

소장정보

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(2층서고)/ 청구기호 006.31 G973d 등록번호 121242243 도서상태 대출가능 반납예정일 예약 서비스 B M

컨텐츠정보

저자소개

안토니오 걸리(지은이)

혁신과 실행에 있어 전체적 기술과 관리를 구축하는 데 열정이 있다. 전문 분야는 클라우드 컴퓨팅, 딥러닝, 검색 엔진이다. 현재 구글 CTO 사무소에서 엔지니어링 이사로 재직 중이다. 이전에 구글 바르샤바(Warsaw) 사이트에서 리더로 근무하며 엔지니어링 사이트를 두 배로 늘렸다. 지금까지 운 좋게 유럽 4개국에서 전문적인 경험을 쌓을 수 있었고, EMEA의 6개국과 미국에서 팀을 관리했다. 암스테르담의 주요 과학 출판사인 엘스비어(Elsevier)에서는 부사장으로 과학 출판을 이끌었고, 런던에서는 마이크로소프트 Ask.com의 CTO로 Bing 검색 작업을 수행하는 엔지니어링 사이트 책임자로 일했다. 또한 유럽 최초의 웹 검색 회사 중 하나를 비롯한 여러 공동 펀드 스타트업에서 일했다. 검색, 스마트 에너지, 환경, AI 분야에서 수많은 기술을 공동 발명했고, 20개가 넘는 특허를 출원/등록했으며, 코딩과 머신러닝에 관한 다수의 책을 저술했고 그 책들은 일본어와 중국어로도 번역됐다. 스페인어, 영어, 이탈리아어를 할 수 있으며 현재 폴란드어와 프랑스어를 배우고 있다. 두 아들 로렌조(Lorenzo)와 레오나르도(Leonardo) 그리고 어린 공주 오로라(Aurora)의 아버지이기도 하다.

수짓 팔(지은이)

리드-엘스비어(Reed-Elsevier) 그룹의 고급 기술 그룹인 엘스비어 랩(Elsevier Labs)의 기술 연구 이사다. 관심 분야는 문맥 검색, 자연어 처리, 머신러닝, 딥러닝이다. 엘스비어에서 여러 머신러닝 이니셔티브(initiatives)를 수행했는데, 대규모 이미지와 텍스트 말뭉치, 추천 시스템과 지식 그래프 개발 등의 다른 이니셔티브도 수행했다. 이전에 안토니오 걸리와 함께 딥러닝에 대한 또 다른 책을 공동 저술했으며 블로그 Salmon Run에서 기술 관련 글을 쓰고 있다.

정보제공 : Aladin

목차

CONTENTS
Preface = 1
Chapter 1 : Neural Networks Foundations = 9
 Perceptron = 11
  The first example of Keras code = 11
 Multilayer perceptron - the first example of a network = 12
  Problems in training the perceptron and a solution = 13
  Activation function - sigmoid = 14
  Activation function - ReLU = 15
  Activation functions = 15
 A real example - recognizing handwritten digits = 16
  One-hot encoding - OHE = 17
  Defining a simple neural net in Keras = 17
  Running a simple Keras net and establishing a baseline = 21
  Improving the simple net in Keras with hidden layers = 22
  Further improving the simple net in Keras with dropout = 25
  Testing different optimizers in Keras = 28
  Increasing the number of epochs = 34
  Controlling the optimizer learning rate = 34
  Increasing the number of internal hidden neurons = 35
  Increasing the size of batch computation = 37
  Summarizing the experiments run for recognizing handwritten charts = 37
  Adopting regularization for avoiding overfitting = 38
  Hyperparameters tuning = 40
  Predicting output = 40
 A practical overview of backpropagation = 40
 Towards a deep learning approach = 42
 Summary = 43
Chapter 2 : Keras Installation and API = 45
 Installing Keras = 46
  Step 1 - install some useful dependencies = 46
  Step 2 - install Theano = 47
  Step 3 - install TensorFiow = 47
  Step 4 - install Keras = 48
  Step 5 - testing Theano, TensorFiow, and Keras = 48
 Configuring Keras = 49
 Installing Keras on Docker = 50
 Installing Keras on Google Cloud ML = 53
 Installing Keras on Amazon AWS = 56
 Installing. Keras on Microsoft Azure = 58
 Keras API = 60
  Getting started with Keras architecture = 60
  An overview of predefined neural network layers = 61
  An overview of predefined activation functions = 64
  An overview of losses functions = 65
  An overview of metrics = 66
  An overview of optimizers = 66
  Some useful operations = 66
  Saying and loading the weights and the architecture of a model = 66
 Callbacks for customizing the training process = 67
  Checkpointing = 68
  Using TensorBoard and Keras = 69
  Using Quiver and Keras = 70
 Summary = 71
Chapter 3 : Deep Learning with ConvNets = 73
 Deep convolutional neural network - DCNN = 74
  Local receptive fields = 74
  Shared weights and bias = 75
  Pooling layers = 76
 An example of DCNN - LeNet = 78
  LeNet code in Keras = 78
  Understanding the power of deep learning = 85
 Recognizing CIFAR-10 images with deep learning = 86
  Improving the CIFAR-10 performance with deeper a network = 91
  Improving the CIFAR-10 performance with data augmentation = 93
  Predicting with CIFAR-10 = 97
 Very deep convolutional networks for large scale image recognition = 98
  Recognizing cats with a VGG-16 net = 99
  Utilizing Keras built-in VGG-16 net module = 100
  Recycling pre-built deep learning models for extracting features = 102
  Very deep inception-v3 net used for transfer learning = 103
 Summary = 106
Chapter 4 : Generative Adversarial Networks and WaveNet = 107
 What is a GAN? = 108
  Some GAN applications = 110
 Deep convolutional generative adversarial networks = 114
 Keras adversarial GANs for forging MNIST = 117
 Keras adversarial GANs for forging CIFAR = 124
 WaveNet - a generative model for learning how to produce audio = 132
 Summary = 141
Chapter 5 : Word Embeddings = 143
 Distributed representations = 144
 word2vec = 145
  The skip-gram word2vec model = 146
  The CBOW word2vec model = 150
  Extracting word2vec embeddings from the model = 152
  Using third-party implementations of word2vec = 155
 Exploring GloVe = 159
 Using pre-trained embeddings = 161
  Learn embeddings from scratch = 162
  Fine-tuning learned embeddings from word2vec = 167
  Fine-tune learned embeddings from GloVe = 171
  Look up embeddings = 172
 Summary = 176
Chapter 6 : Recurrent Neural Network - RNN = 179
 SimpleRNN cells = 180
  SimpleRNN with Keras - generating text = 182
 RNN topologies = 187
 Vanishing and exploding gradients = 188
 Long short term memory - LSTM = 191
  LSTM with Keras - sentiment analysis = 193
 Gated recurrent unit - GRU = 200
  GRU with Keras - POS tagging = 202
 Bidirectional RNNs = 209
 Stateful RNNs = 210
  Stateful LSTM with Keras - predicting electricity consumption = 210
 Other RNN variants = 217
 Summary = 218
Chapter 7 : Additional Deep Learning Models = 219
 Keras functional API = 221
 Regression networks = 223
  Keras regression example - predicting benzene levels in the air = 224
 Unsupervised learning - autoencoders = 228
  Keras autoencoder example - sentence vectors = 230
 Composing deep networks = 239
  Keras example - memory network for question answering = 240
 Customizing Keras = 247
  Keras example - using the lambda layer = 248
  Keras example - building a custom normalization layer = 249
 Generative models = 252
  Keras example - deep dreaming = 252
  Keras example - style transfer = 261
 Summary = 267
Chapter 8 : AI Game Playing = 269
 Reinforcement learning = 270
  Maximizing future rewards = 271
  Q-learning = 272
  The deep Q-network as a Q-function = 273
  Balancing exploration with exploitation = 275
  Experience replay, or the value of experience = 276
 Example - Keras deep Q-network for catch = 276
 The road ahead = 289
 Summary = 291
Appendix : Conclusion = 293
 Keras 2.0 - what is new = 295
  Installing Keras 2.0 = 295
  API changes = 296
Index = 299

관련분야 신착자료

Baumer, Benjamin (2021)
Harrison, Matt (2021)
데이터분석과인공지능활용편찬위원회 (2021)