
000 | 00000nam u2200205 a 4500 | |
001 | 000045919628 | |
005 | 20171102173620 | |
008 | 171102s2017 enka b 001 0 eng d | |
020 | ▼a 9781787128422 | |
040 | ▼a 211009 ▼c 211009 ▼d 211009 | |
082 | 0 4 | ▼a 006.31 ▼2 23 |
084 | ▼a 006.31 ▼2 DDCK | |
090 | ▼a 006.31 ▼b G973d | |
100 | 1 | ▼a Gulli, Antonio. |
245 | 1 0 | ▼a Deep learning with Keras : ▼b implement neural networks with Keras on Theano and TensorFlow / ▼c Antonio Gulli, Sujit Pal. |
260 | ▼a Birmingham : ▼b Mumbai Packt Publishing, ▼c c2017. | |
300 | ▼a 303 p. : ▼b ill. ; ▼c 24 cm. | |
504 | ▼a Includes bibliographical references and index. | |
700 | 1 | ▼a Pal, Sujit. |
945 | ▼a KLPA |
소장정보
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 과학도서관/Sci-Info(2층서고)/ | 청구기호 006.31 G973d | 등록번호 121242243 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
컨텐츠정보
저자소개
안토니오 걸리(지은이)
혁신과 실행에 있어 전체적 기술과 관리를 구축하는 데 열정이 있다. 전문 분야는 클라우드 컴퓨팅, 딥러닝, 검색 엔진이다. 현재 구글 CTO 사무소에서 엔지니어링 이사로 재직 중이다. 이전에 구글 바르샤바(Warsaw) 사이트에서 리더로 근무하며 엔지니어링 사이트를 두 배로 늘렸다. 지금까지 운 좋게 유럽 4개국에서 전문적인 경험을 쌓을 수 있었고, EMEA의 6개국과 미국에서 팀을 관리했다. 암스테르담의 주요 과학 출판사인 엘스비어(Elsevier)에서는 부사장으로 과학 출판을 이끌었고, 런던에서는 마이크로소프트 Ask.com의 CTO로 Bing 검색 작업을 수행하는 엔지니어링 사이트 책임자로 일했다. 또한 유럽 최초의 웹 검색 회사 중 하나를 비롯한 여러 공동 펀드 스타트업에서 일했다. 검색, 스마트 에너지, 환경, AI 분야에서 수많은 기술을 공동 발명했고, 20개가 넘는 특허를 출원/등록했으며, 코딩과 머신러닝에 관한 다수의 책을 저술했고 그 책들은 일본어와 중국어로도 번역됐다. 스페인어, 영어, 이탈리아어를 할 수 있으며 현재 폴란드어와 프랑스어를 배우고 있다. 두 아들 로렌조(Lorenzo)와 레오나르도(Leonardo) 그리고 어린 공주 오로라(Aurora)의 아버지이기도 하다.
수짓 팔(지은이)
리드-엘스비어(Reed-Elsevier) 그룹의 고급 기술 그룹인 엘스비어 랩(Elsevier Labs)의 기술 연구 이사다. 관심 분야는 문맥 검색, 자연어 처리, 머신러닝, 딥러닝이다. 엘스비어에서 여러 머신러닝 이니셔티브(initiatives)를 수행했는데, 대규모 이미지와 텍스트 말뭉치, 추천 시스템과 지식 그래프 개발 등의 다른 이니셔티브도 수행했다. 이전에 안토니오 걸리와 함께 딥러닝에 대한 또 다른 책을 공동 저술했으며 블로그 Salmon Run에서 기술 관련 글을 쓰고 있다.

목차
CONTENTS Preface = 1 Chapter 1 : Neural Networks Foundations = 9 Perceptron = 11 The first example of Keras code = 11 Multilayer perceptron - the first example of a network = 12 Problems in training the perceptron and a solution = 13 Activation function - sigmoid = 14 Activation function - ReLU = 15 Activation functions = 15 A real example - recognizing handwritten digits = 16 One-hot encoding - OHE = 17 Defining a simple neural net in Keras = 17 Running a simple Keras net and establishing a baseline = 21 Improving the simple net in Keras with hidden layers = 22 Further improving the simple net in Keras with dropout = 25 Testing different optimizers in Keras = 28 Increasing the number of epochs = 34 Controlling the optimizer learning rate = 34 Increasing the number of internal hidden neurons = 35 Increasing the size of batch computation = 37 Summarizing the experiments run for recognizing handwritten charts = 37 Adopting regularization for avoiding overfitting = 38 Hyperparameters tuning = 40 Predicting output = 40 A practical overview of backpropagation = 40 Towards a deep learning approach = 42 Summary = 43 Chapter 2 : Keras Installation and API = 45 Installing Keras = 46 Step 1 - install some useful dependencies = 46 Step 2 - install Theano = 47 Step 3 - install TensorFiow = 47 Step 4 - install Keras = 48 Step 5 - testing Theano, TensorFiow, and Keras = 48 Configuring Keras = 49 Installing Keras on Docker = 50 Installing Keras on Google Cloud ML = 53 Installing Keras on Amazon AWS = 56 Installing. Keras on Microsoft Azure = 58 Keras API = 60 Getting started with Keras architecture = 60 An overview of predefined neural network layers = 61 An overview of predefined activation functions = 64 An overview of losses functions = 65 An overview of metrics = 66 An overview of optimizers = 66 Some useful operations = 66 Saying and loading the weights and the architecture of a model = 66 Callbacks for customizing the training process = 67 Checkpointing = 68 Using TensorBoard and Keras = 69 Using Quiver and Keras = 70 Summary = 71 Chapter 3 : Deep Learning with ConvNets = 73 Deep convolutional neural network - DCNN = 74 Local receptive fields = 74 Shared weights and bias = 75 Pooling layers = 76 An example of DCNN - LeNet = 78 LeNet code in Keras = 78 Understanding the power of deep learning = 85 Recognizing CIFAR-10 images with deep learning = 86 Improving the CIFAR-10 performance with deeper a network = 91 Improving the CIFAR-10 performance with data augmentation = 93 Predicting with CIFAR-10 = 97 Very deep convolutional networks for large scale image recognition = 98 Recognizing cats with a VGG-16 net = 99 Utilizing Keras built-in VGG-16 net module = 100 Recycling pre-built deep learning models for extracting features = 102 Very deep inception-v3 net used for transfer learning = 103 Summary = 106 Chapter 4 : Generative Adversarial Networks and WaveNet = 107 What is a GAN? = 108 Some GAN applications = 110 Deep convolutional generative adversarial networks = 114 Keras adversarial GANs for forging MNIST = 117 Keras adversarial GANs for forging CIFAR = 124 WaveNet - a generative model for learning how to produce audio = 132 Summary = 141 Chapter 5 : Word Embeddings = 143 Distributed representations = 144 word2vec = 145 The skip-gram word2vec model = 146 The CBOW word2vec model = 150 Extracting word2vec embeddings from the model = 152 Using third-party implementations of word2vec = 155 Exploring GloVe = 159 Using pre-trained embeddings = 161 Learn embeddings from scratch = 162 Fine-tuning learned embeddings from word2vec = 167 Fine-tune learned embeddings from GloVe = 171 Look up embeddings = 172 Summary = 176 Chapter 6 : Recurrent Neural Network - RNN = 179 SimpleRNN cells = 180 SimpleRNN with Keras - generating text = 182 RNN topologies = 187 Vanishing and exploding gradients = 188 Long short term memory - LSTM = 191 LSTM with Keras - sentiment analysis = 193 Gated recurrent unit - GRU = 200 GRU with Keras - POS tagging = 202 Bidirectional RNNs = 209 Stateful RNNs = 210 Stateful LSTM with Keras - predicting electricity consumption = 210 Other RNN variants = 217 Summary = 218 Chapter 7 : Additional Deep Learning Models = 219 Keras functional API = 221 Regression networks = 223 Keras regression example - predicting benzene levels in the air = 224 Unsupervised learning - autoencoders = 228 Keras autoencoder example - sentence vectors = 230 Composing deep networks = 239 Keras example - memory network for question answering = 240 Customizing Keras = 247 Keras example - using the lambda layer = 248 Keras example - building a custom normalization layer = 249 Generative models = 252 Keras example - deep dreaming = 252 Keras example - style transfer = 261 Summary = 267 Chapter 8 : AI Game Playing = 269 Reinforcement learning = 270 Maximizing future rewards = 271 Q-learning = 272 The deep Q-network as a Q-function = 273 Balancing exploration with exploitation = 275 Experience replay, or the value of experience = 276 Example - Keras deep Q-network for catch = 276 The road ahead = 289 Summary = 291 Appendix : Conclusion = 293 Keras 2.0 - what is new = 295 Installing Keras 2.0 = 295 API changes = 296 Index = 299