
000 | 00000nam u2200205 a 4500 | |
001 | 000045917466 | |
005 | 20171011164721 | |
008 | 171011s2017 caua 001 0 eng d | |
020 | ▼a 9781491978511 | |
040 | ▼a 211009 ▼c 211009 ▼d 211009 | |
082 | 0 4 | ▼a 006.31 ▼2 23 |
084 | ▼a 006.31 ▼2 DDCK | |
090 | ▼a 006.31 ▼b H791L | |
100 | 1 | ▼a Hope, Tom. |
245 | 1 0 | ▼a Learning TensorFlow : ▼b a guide to building deep learning systems / ▼c Tom Hope, Yehezkel S. Resheff, Itay Lieder. |
260 | ▼a Sebastopol, CA : ▼b O'Reilly Media, ▼c c2017. | |
300 | ▼a x, 228 p. : ▼b ill. ; ▼c 24 cm. | |
500 | ▼a Includes index. | |
700 | 1 | ▼a Resheff, Yehezkel S. |
700 | 1 | ▼a Lieder, Itay. |
945 | ▼a KLPA |
소장정보
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 과학도서관/Sci-Info(2층서고)/ | 청구기호 006.31 H791L | 등록번호 121241848 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
컨텐츠정보
저자소개
톰 호프(지은이)
학계와 업계에 걸쳐 다양한 경력을 갖춘 응용 머신러닝 연구자이자 데이터 과학자. 다국적 기업 환경에서 선임 데이터 과학자로 재직하며 웹 마이닝, 텍스트 분석, 컴퓨터 비전, 세일즈와 마케팅, IoT, 금융시장 예측, 대규모 제조업 등 여러 분야를 넘나들며 데이터 과학과 딥러닝 연구개발팀을 이끌어왔다. 이전에는 전자상거래 스타트업에서 데이터 과학 연구개발을 주도했다. 주요 다국적 기업과 스타트업에서 데이터 과학 컨설팅을 수행하기도 했다. 컴퓨터 과학, 데이터 마이닝, 통계를 연구하다 보니 현재는 머신러닝, 딥러닝, 자연어처리, 약지도 학습, 시계열 등이 주요 연구 분야다.
예헤즈켈 레셰프(지은이)
머신러닝과 데이터 마이닝 분야 응용 연구자. 히브리 대학교에서 웨어러블 기기와 IoT에서 발생한 데이터를 분석하기 위한 머신러닝과 딥러닝 방법론을 공부했다. 대규모 기업과 소규모 스타트업 모두에서 연구 활동을 주도하고 있으며, 여러 개의 특허와 논문을 발표했다. 현재는 차세대 딥러닝 기술 개발에 참여하고 있으며 머신러닝의 한계를 극복하려는 기업들에 컨설팅을 하고 있다.
이타이 리더(지은이)
머신러닝과 전산 신경과학 분야 응용 연구자. 히브리 대학교에서는 저수준 퍼셉트론 모델링을 위한 계산 방법론을 개발하여 충분한 학습이 어려운 개인을 대상으로 한 프로파일링 도구에 적용했다. 거대 다국적 기업에 근무하며 텍스트 분석, 웹 마이닝, 금융 기록 등 여러 분야에서 혁신적인 딥러닝 연구개발을 이끌고 있다.

목차
CONTENTS Preface = vii 1. Introduction = 1 Going Deep = 1 Using TensorFlow for AI Systems = 2 TensorFlow : What''''s in a Name? = 5 A High-Level Overview = 6 Summary = 8 2. Go with the Flow : Up and Running with TensorFlow = 9 Installing TensorFlow = 9 Hello World = 11 MNIST = 13 Softmax Regression = 14 Summary = 21 3. Understanding TensorFlow Basics = 23 Computation Graphs = 23 What Is a Computation Graph? = 23 The Benefits of Graph Computations = 24 Graphs, Sessions, and Fetches = 24 Creating a Graph = 25 Creating a Session and Running It = 26 Constructing and Managing Our Graph = 27 Fetches = 29 Flowing Tensors = 30 Nodes Are Operations, Edges Are Tensor Objects = 30 Data Types = 32 Tensor Arrays and Shapes = 33 Names = 37 Variables, Placeholders, and Simple Optimization = 38 Variables = 38 Placeholders = 39 Optimization = 40 Summary = 49 4. Convolutional Neural Networks = 51 Introduction to CNNs = 51 MNIST : TakeⅡ = 53 Convolution = 54 Pooling = 56 Dropout = 57 The Model = 57 CIFAR10 = 61 Loading the CIFAR10 Dataset = 62 Simple CIFAR10 Models = 64 Summary = 68 5. TextⅠ : Working with Text and Sequences, and TensorBoard Visualization = 69 The Importance of Sequence Data = 69 Introduction to Recurrent Neural Networks = 70 Vanilla RNN Implementation = 72 TensorFlow Built-in RNN Functions = 82 RNN for Text Sequences = 84 Text Sequences = 84 Supervised Word Embeddings = 88 LSTM and Using Sequence Length = 89 Training Embeddings and the LSTM Classifier = 91 Summary = 93 6. TextⅡ : Word Vectors, Advanced RNN, and Embedding Visualization = 95 Introduction to Word Embeddings = 95 Word2vec = 97 Skip-Grams = 98 Embeddings in TensorFlow = 100 The Noise-Contrastive Estimation(NCE) Loss Function = 101 Learning Rate Decay = 101 Training and Visualizing with TensorBoard = 102 Checking Out Our Embeddings = 103 Pretrained Embeddings, Advanced RNN = 105 Pretrained Word Embeddings = 106 Bidirectional RNN and GRU Cells = 110 Summary = 112 7. TensorFlow Abstractions and Simplifications = 113 Chapter Overview = 113 High-Level Survey = 115 contrib.learn = 117 Linear Regression = 118 DNN Classifier = 120 FeatureColumn = 123 Homemade CNN with contrib.learn = 128 TFLearn = 131 Installation = 131 CNN = 131 RNN = 134 Keras = 136 Pretrained models with TF-Slim = 143 Summary = 151 8. Queues, Threads, and Reading Data = 153 The Input Pipeline = 153 TFRecords = 154 Writing with TFRecordWriter = 155 Queues = 157 Enqueuing and Dequeuing = 157 Multithreading = 159 Coordinator and QueueRunner = 160 A Full Multithreaded Input Pipeline = 162 tf.train.string_input_producer() and tf.TFRecordReader() = 164 tf.train.shuffle_batch() = 164 tf.train.start_queue_runners() and Wrapping Up = 165 Summary = 166 9. Distributed TensorFlow = 167 Distributed Computing = 167 Where Does the Parallelization Take Place? = 168 What Is the Goal of Parallelization? = 168 TensorFlow Elements = 169 tf.app.flags = 169 Clusters and Servers = 170 Replicating a Computational Graph Across Devices = 171 Managed Sessions = 171 Device Placement = 172 Distributed Example = 173 Summary = 179 10. Exporting and Serving Models with TensorFlow = 181 Saving and Exporting Our Model = 181 Assigning Loaded Weights = 182 The Saver Class = 185 Introduction to TensorFlow Serving = 191 Overview = 192 Installation = 193 Building and Exporting = 194 Summary = 201 A. Tips on Model Construction and Using TensorFlow Serving = 203 Index = 221