HOME > 상세정보

상세정보

Learning TensorFlow : a guide to building deep learning systems

Learning TensorFlow : a guide to building deep learning systems (9회 대출)

자료유형
단행본
개인저자
Hope, Tom. Resheff, Yehezkel S. Lieder, Itay.
서명 / 저자사항
Learning TensorFlow : a guide to building deep learning systems / Tom Hope, Yehezkel S. Resheff, Itay Lieder.
발행사항
Sebastopol, CA :   O'Reilly Media,   c2017.  
형태사항
x, 228 p. : ill. ; 24 cm.
ISBN
9781491978511
일반주기
Includes index.  
000 00000nam u2200205 a 4500
001 000045917466
005 20171011164721
008 171011s2017 caua 001 0 eng d
020 ▼a 9781491978511
040 ▼a 211009 ▼c 211009 ▼d 211009
082 0 4 ▼a 006.31 ▼2 23
084 ▼a 006.31 ▼2 DDCK
090 ▼a 006.31 ▼b H791L
100 1 ▼a Hope, Tom.
245 1 0 ▼a Learning TensorFlow : ▼b a guide to building deep learning systems / ▼c Tom Hope, Yehezkel S. Resheff, Itay Lieder.
260 ▼a Sebastopol, CA : ▼b O'Reilly Media, ▼c c2017.
300 ▼a x, 228 p. : ▼b ill. ; ▼c 24 cm.
500 ▼a Includes index.
700 1 ▼a Resheff, Yehezkel S.
700 1 ▼a Lieder, Itay.
945 ▼a KLPA

소장정보

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/Sci-Info(2층서고)/ 청구기호 006.31 H791L 등록번호 121241848 도서상태 대출가능 반납예정일 예약 서비스 B M

컨텐츠정보

저자소개

톰 호프(지은이)

학계와 업계에 걸쳐 다양한 경력을 갖춘 응용 머신러닝 연구자이자 데이터 과학자. 다국적 기업 환경에서 선임 데이터 과학자로 재직하며 웹 마이닝, 텍스트 분석, 컴퓨터 비전, 세일즈와 마케팅, IoT, 금융시장 예측, 대규모 제조업 등 여러 분야를 넘나들며 데이터 과학과 딥러닝 연구개발팀을 이끌어왔다. 이전에는 전자상거래 스타트업에서 데이터 과학 연구개발을 주도했다. 주요 다국적 기업과 스타트업에서 데이터 과학 컨설팅을 수행하기도 했다. 컴퓨터 과학, 데이터 마이닝, 통계를 연구하다 보니 현재는 머신러닝, 딥러닝, 자연어처리, 약지도 학습, 시계열 등이 주요 연구 분야다.

예헤즈켈 레셰프(지은이)

머신러닝과 데이터 마이닝 분야 응용 연구자. 히브리 대학교에서 웨어러블 기기와 IoT에서 발생한 데이터를 분석하기 위한 머신러닝과 딥러닝 방법론을 공부했다. 대규모 기업과 소규모 스타트업 모두에서 연구 활동을 주도하고 있으며, 여러 개의 특허와 논문을 발표했다. 현재는 차세대 딥러닝 기술 개발에 참여하고 있으며 머신러닝의 한계를 극복하려는 기업들에 컨설팅을 하고 있다.

이타이 리더(지은이)

머신러닝과 전산 신경과학 분야 응용 연구자. 히브리 대학교에서는 저수준 퍼셉트론 모델링을 위한 계산 방법론을 개발하여 충분한 학습이 어려운 개인을 대상으로 한 프로파일링 도구에 적용했다. 거대 다국적 기업에 근무하며 텍스트 분석, 웹 마이닝, 금융 기록 등 여러 분야에서 혁신적인 딥러닝 연구개발을 이끌고 있다.

정보제공 : Aladin

목차

CONTENTS
Preface = vii
1. Introduction = 1
 Going Deep = 1
  Using TensorFlow for AI Systems = 2
 TensorFlow : What''''s in a Name? = 5
 A High-Level Overview = 6
 Summary = 8
2. Go with the Flow : Up and Running with TensorFlow = 9
 Installing TensorFlow = 9
 Hello World = 11
 MNIST = 13
 Softmax Regression = 14
 Summary = 21
3. Understanding TensorFlow Basics = 23
 Computation Graphs = 23
  What Is a Computation Graph? = 23
  The Benefits of Graph Computations = 24
 Graphs, Sessions, and Fetches = 24
  Creating a Graph = 25
  Creating a Session and Running It = 26
  Constructing and Managing Our Graph = 27
  Fetches = 29
 Flowing Tensors = 30
  Nodes Are Operations, Edges Are Tensor Objects = 30
  Data Types = 32
  Tensor Arrays and Shapes = 33
  Names = 37
 Variables, Placeholders, and Simple Optimization = 38
  Variables = 38
  Placeholders = 39
  Optimization = 40
 Summary = 49
4. Convolutional Neural Networks = 51
 Introduction to CNNs = 51
 MNIST : TakeⅡ = 53
  Convolution = 54
  Pooling = 56
  Dropout = 57
  The Model = 57
 CIFAR10 = 61
  Loading the CIFAR10 Dataset = 62
  Simple CIFAR10 Models = 64
 Summary = 68
5. TextⅠ : Working with Text and Sequences, and TensorBoard Visualization = 69
 The Importance of Sequence Data = 69
 Introduction to Recurrent Neural Networks = 70
  Vanilla RNN Implementation = 72
  TensorFlow Built-in RNN Functions = 82
 RNN for Text Sequences = 84
  Text Sequences = 84
  Supervised Word Embeddings = 88
  LSTM and Using Sequence Length = 89
  Training Embeddings and the LSTM Classifier = 91
 Summary = 93
6. TextⅡ : Word Vectors, Advanced RNN, and Embedding Visualization = 95
 Introduction to Word Embeddings = 95
 Word2vec = 97
  Skip-Grams = 98
  Embeddings in TensorFlow = 100
  The Noise-Contrastive Estimation(NCE) Loss Function = 101
  Learning Rate Decay = 101
  Training and Visualizing with TensorBoard = 102
  Checking Out Our Embeddings = 103
  Pretrained Embeddings, Advanced RNN = 105
  Pretrained Word Embeddings = 106
  Bidirectional RNN and GRU Cells = 110
 Summary = 112
7. TensorFlow Abstractions and Simplifications = 113
 Chapter Overview = 113
  High-Level Survey = 115
 contrib.learn = 117
  Linear Regression = 118
  DNN Classifier = 120
  FeatureColumn = 123
  Homemade CNN with contrib.learn = 128
 TFLearn = 131
  Installation = 131
  CNN = 131
  RNN = 134
  Keras = 136
  Pretrained models with TF-Slim = 143
 Summary = 151
8. Queues, Threads, and Reading Data = 153
 The Input Pipeline = 153
 TFRecords = 154
  Writing with TFRecordWriter = 155
 Queues = 157
  Enqueuing and Dequeuing = 157
  Multithreading = 159
  Coordinator and QueueRunner = 160
 A Full Multithreaded Input Pipeline = 162
  tf.train.string_input_producer() and tf.TFRecordReader() = 164
  tf.train.shuffle_batch() = 164
  tf.train.start_queue_runners() and Wrapping Up = 165
 Summary = 166
9. Distributed TensorFlow = 167
 Distributed Computing = 167
  Where Does the Parallelization Take Place? = 168
  What Is the Goal of Parallelization? = 168
 TensorFlow Elements = 169
  tf.app.flags = 169
  Clusters and Servers = 170
  Replicating a Computational Graph Across Devices = 171
  Managed Sessions = 171
  Device Placement = 172
 Distributed Example = 173
 Summary = 179
10. Exporting and Serving Models with TensorFlow = 181
 Saving and Exporting Our Model = 181
  Assigning Loaded Weights = 182
  The Saver Class = 185
 Introduction to TensorFlow Serving = 191
  Overview = 192
  Installation = 193
  Building and Exporting = 194
 Summary = 201
A. Tips on Model Construction and Using TensorFlow Serving = 203
Index = 221

관련분야 신착자료

Gross, Carson (2023)