000 | 00000cam c2200205 c 4500 | |
001 | 000046008424 | |
005 | 20230419133030 | |
007 | ta | |
008 | 191205s2019 ulkad 001c kor | |
020 | ▼a 9791162242285 ▼g 93000 | |
035 | ▼a (KERIS)BIB000015441254 | |
040 | ▼a 211063 ▼c 211063 ▼d 211092 ▼d 211009 | |
041 | 1 | ▼a kor ▼h eng |
082 | 0 4 | ▼a 006.31 ▼2 23 |
085 | ▼a 006.31 ▼2 DDCK | |
090 | ▼a 006.31 ▼b 2019z34 | |
100 | 1 | ▼a Trask, Andrew W. |
245 | 2 0 | ▼a (알기 쉬운 비유와 기초 수학으로 시작하는) 그로킹 딥러닝 / ▼d 앤드루 트라스크 지음 ; ▼e 박상현 옮김 |
246 | 1 9 | ▼a Grokking deep learning |
260 | ▼a 서울 : ▼b 한빛미디어, ▼c 2019 | |
300 | ▼a 388 p. : ▼b 삽화, 도표 ; ▼c 24 cm | |
500 | ▼a 단계별로 이해하고, 구현할 수 있다 | |
500 | ▼a 색인수록 | |
700 | 1 | ▼a 박상현, ▼e 역 ▼0 AUTH(211009)47496 |
900 | 1 0 | ▼a 트라스크, 앤드루, ▼e 저 |
소장정보
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 중앙도서관/제2자료실(3층)/ | 청구기호 006.31 2019z34 | 등록번호 511042855 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. 2 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2019z34 | 등록번호 121251496 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. 3 | 소장처 의학도서관/자료실(3층)/ | 청구기호 006.31 2019z34 | 등록번호 131053844 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 중앙도서관/제2자료실(3층)/ | 청구기호 006.31 2019z34 | 등록번호 511042855 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2019z34 | 등록번호 121251496 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 의학도서관/자료실(3층)/ | 청구기호 006.31 2019z34 | 등록번호 131053844 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
컨텐츠정보
책소개
신경망이 어떻게 인간을 모사하는지를 먼저 알려준다. 복잡한 수식 없이 서너 줄짜리 간단한 코드로 신경망을 구축한 다음, 이 작은 코드 조각을 다음 장에서 활용해 조금 더 그럴 듯한 프로그램으로 점차 발전시켜간다. 책 전체에 걸쳐 다음과 같이 물 흐르듯 학습할 수 있다.
인공지능/딥러닝 용어 설명 → 예측, 비교, 학습 패러다임 실습 → 기초 신경망 구축 → 딥러닝 관련 이론 설명 → 최신 기법 소개 → 딥러닝 프레임워크 구축. 그리고 마지막 장은 이 책을 읽은 다음 무엇을 할지 10단계에 거쳐 딥러닝을 처음 접하는 입문자에게 방향을 제시한다.
- 딥러닝 문턱을 낮춰 드립니다. 수포자도 이해할 수 있는 명쾌하고 친절한 딥러닝 입문서!
인공지능은 단순한 유행이 아니라 시대의 요구사항이 되었습니다. 두 번의 AI 겨울을 지나고, 전 세계 바둑 챔피언을 꺽으며 새롭게 등장한 인공지능은 기술을 넘어 예술까지도 넘보며 다양한 산업과 함께 발전하고 있습니다. 실시간으로 빠른 길을 안내하는 지도 앱을 보며 길을 찾고 넷플릭스가 취향에 맞는 영화를 추천하고, 은행 앱이 투자 방향을 알려주는 개인 비서 시대, 영화속 스카이넷은 현실에서 점차 구체화되고 있습니다.
지금이 바로 여러분이 이 책을 읽어야 하는 '때'입니다. 딥러닝을 이해하는 데 필요한 모든 사전 지식은 이 책 안에 있습니다. 이 책을 위해 여러분이 준비할 것은 아무것도 없습니다. 쉬운 비유와 그림으로 차근차근 책에서 안내하는 대로 앞 장에서 배운 내용을 복기하며 다음 장의 코드를 입력하다 보면 어느새 딥러닝의 기본을 튼튼히 갖추게 될 것입니다.
누구를 위한 책인가요?
· 수학은 자신 없지만, 딥러닝을 배우고 싶은 개발자
· 딥러닝을 연구에 활용하고 싶은 개발자가 아닌 연구자
· 라이브러리를 활용해 딥러닝을 구현했지만 동작원리가 궁금한 개발자
· 프로그래밍에 능숙하진 않지만, 딥러닝 또한 배워두고 싶은 학생
어려운 수식, 고수준 라이브러리, 복잡한 코드 없이도 단계별 학습으로 완성하는 딥러닝 코드
이 책은 신경망이 어떻게 인간을 모사하는지를 먼저 알려줍니다. 복잡한 수식 없이 서너 줄짜리 간단한 코드로 신경망을 구축한 다음, 이 작은 코드 조각을 다음 장에서 활용해 조금 더 그럴 듯한 프로그램으로 점차 발전시켜갑니다. 책 전체에 걸쳐 다음과 같이 물 흐르듯 학습할 수 있습니다.
인공지능/딥러닝 용어 설명 → 예측, 비교, 학습 패러다임 실습 → 기초 신경망 구축 → 딥러닝 관련 이론 설명 → 최신 기법 소개 → 딥러닝 프레임워크 구축
그리고 마지막 장은 이 책을 읽은 다음 무엇을 할지 10단계에 거쳐 딥러닝을 처음 접하는 입문자에게 방향을 제시합니다.
이 책에서 배우고 구현하는 내용
딥러닝에 필요한 것 / 머신러닝의 기본 개념 / 예측, 비교, 학습 패러다임 / 기초 신경망 구현 / 예측 평가와 에러 식별 / 학습 과정 / 심층 신경망 실습 / 오버피팅 / 드롭아웃 / 경사하강법 / 활성화 함수 / 확률 모델링 / 합성곱 신경망 / 자연어 처리 / 순환 신경망 / 언어 모델링 / 데이터 프라이버시
정보제공 :

저자소개
앤드루 트라스크(지은이)
구글 DeepMind 리서치 사이언티스트. 인간의 언어와 연관된 딥러닝을 주로 연구하고 있습니다. Digital Reasoning에서 연구원으로 있으며 세계 최대 인공 신경망을 구축했습니다.
박상현(옮긴이)
반도체 공정 자동화, 통신 장비, 무기 체계, 사이버 시큐리티 분야에서 SW를 개발해 왔으며 현재는 캘리포니아 소재 스타트업에서 소프트웨어 엔지니어로 근무 중이다. 2010년 대한민국학술원 우수학술도서로 선정된 『뇌를 자극하는 알고리즘』(2009) 외에 『이것이 C#이다(개정판)』(2021), 『뇌를 자극하는 파이썬 3』(2016) 등을 집필했으며, 2020년 세종도서 학술부문에 선정된 『그로킹 딥러닝』(2019)를 번역했다.

목차
__추천사 __옮긴이의 글 __독자들에게 __마음을 열고 이 책을 읽기 위한 사전 안내 __각 장의 내용 미리보기 __감사의 말 CHAPTER 1 딥러닝을 소개합니다 : 당신이 딥러닝을 공부해야 하는 이유 __딥러닝의 세계에 어서 오세요 __왜 딥러닝을 공부해야 할까요? __딥러닝을 시작하기가 어렵진 않을까요? __이 책으로 딥러닝을 공부해야 하는 이유 __시작에 앞서 필요한 지식과 실습 환경은? __파이썬 지식이 조금 필요합니다 __요약 CHAPTER 2 딥러닝의 기초 개념 : 컴퓨터가 학습하는 원리 __딥러닝이란? __머신러닝이란? __지도 학습 __비지도 학습 __모수적 학습 vs 비모수적 학습 __모수적 지도 학습 __모수적 비지도 학습 __비모수적 학습 __요약 CHAPTER 3 신경망을 소개합니다 : 순전파 __신경망이 처음으로 할 일 : 예측 __예측을 수행하는 신경망 __신경망이 뭔가요? __신경망이 하는 일이 궁금합니다 __복수 입력을 받아 예측하기 __신경망은 복수 입력을 어떻게 다루나요? __복수 입력 코드 : 실행 가능한 완성 버전 코드 __복수 출력을 하는 예측하기 __복수 입력을 받아 복수 출력을 하는 예측 __복수 입력과 복수 출력 : 동작 원리 __예측에 관한 예측 __NumPy 빠르게 입문하기 __요약 CHAPTER 4 딥러닝을 소개합니다 : 경사하강법 __예측하고 비교하고 학습하라 __비교 __학습 __비교 : 여러분의 신경망은 예측을 잘하고 있습니까? __오차를 측정하는 이유 __신경망 학습의 가장 간단한 형태는 어떤 걸까요? __온냉 학습 __온냉 학습의 특징 __오차를 이용하여 이동 방향과 거리 계산하기 __경사하강법 1회 반복 __학습이란 오차를 줄이는 것 __학습의 여러 단계를 관찰해보세요 __왜 이게 작동하죠? weight_delta는 뭔가요? __한 가지 개념에 집중하기 __툭 튀어나오는 막대기가 있는 상자 __미분계수 : 두 번째 이야기 __이건 몰라도 괜찮습니다 __미분계수를 학습에 이용하는 방법 __익숙한가요? __경사하강법 망가뜨리기 __과잉 교정 시각화하기 __발산 __알파를 소개합니다 __코드 속의 알파 __외우기 CHAPTER 5 복수 가중치 동시에 학습하기 : 경사하강법 일반화 하기 __복수 입력을 받는 경사하강법 __복수 입력을 받는 경사하강법 이해하기 __학습의 각 단계를 관찰해보세요 __가중치 한 개 동결시키기 __복수 출력을 하는 경사하강법 __복수 입력을 받아 복수 출력을 하는 경사하강법 __가중치가 학습하는 것은 무엇일까요? __가중치 시각화하기 __내적(가중합) 시각화하기 __요약 CHAPTER 6 첫 심층 신경망 만들기 : 역전파를 소개합니다 __신호등 문제 __데이터 준비하기 __행렬과 행렬 관계 __파이썬으로 행렬 만들기 __신경망 구축하기 __전체 데이터셋 학습하기 __전체, 배치, 확률적 경사하강법 __신경망은 상관관계를 학습합니다 __상향 압력과 하향 압력 __경계 조건 : 과적합 __경계 조건 : 서로 충돌하는 압력 __간접 상관관계 학습 __신경망 적층하기 : 복습 __역전파 : 장거리 오차 귀착법 __역전파는 왜 효과가 있는 걸까요? __선형 vs 비선형 __아직 신경망이 동작하지 않는 이유 __간헐적 상관관계의 비밀 __짧은 휴식 __첫 심층 신경망 만들기 __코드로 만나는 역전파 __역전파의 한살이 __모두 합치기 __심층 신경망이 왜 중요한가요? CHAPTER 7 신경망 사진 찍기 : 머릿속과 종이 위에 __이제 단순하게 만들어야 합니다 __상관관계 요약 __미리 너무 복잡해져 버린 시각화 __단순화한 시각화 __더 단순하게 __이 신경망이 예측하는 모습을 관찰해봅시다 __그림 대신 문자로 시각화하기 __변수 연결하기 __모두 나란히 __시각화 도구의 중요성 CHAPTER 8 신호 학습과 잡음 제거 : 정규화와 배치 소개 __3계층 신경망으로 MNIST 도전하기 __흠, 쉬운데요 __암기 vs 일반화 __신경망에서의 과적합 __오버피팅의 원인 __가장 단순한 정규화 : 조기 종료 __산업 표준 정규화 : 드롭아웃 __드롭아웃은 왜 효과가 있을까요 : 앙상블 __코드 속의 드롭아웃 __배치 경사하강법 __요약 CHAPTER 9 확률과 비선형성 모델링하기 : 활성화 함수 __활성화 함수란 무엇일까요? __표준 은닉 계층 활성화 함수 __표준 출력 계층 활성화 함수 __핵심 사안 : 입력에 유사성이 있는 경우 __softmax 계산하기 __신경망 계층에 활성화 함수 추가하기 __delta에 기울기 곱하기 __출력을 기울기로 변환하기(미분계수) __MNIST 신경망 업그레이드하기 CHAPTER 10 가장자리와 모서리를 학습하는 신경망 : CNN 소개 __여러 장소에서 가중치 재사용하기 __합성곱 계층 __NumPy로 간단하게 구현하기 __요약 CHAPTER 11 언어를 이해하는 신경망 : 왕-남자+여자 == ? __언어를 이해한다는 것은 무엇을 의미할까요? __NLP : 자연어 처리 __지도 NLP __IMDB 영화 리뷰 데이터셋 __입력 데이터 안에서 단어 상관관계 포착하기 __영화 리뷰 예측하기 __임베딩 계층 기초 __출력 해석하기 __신경 아키텍처 __단어 임베딩 비교하기 __뉴런이 가지는 의미는 뭘까요? __공란 채우기 __King - Man + Woman ~= Queen __단어 유추 __요약 CHAPTER 12 셰익스피어처럼 글쓰기 : 순환 계층으로 가변 데이터 다루기 __임의의 길이를 향한 도전 __비교가 정말 중요할까요? __평균 단어 벡터의 놀라운 힘 __임베딩은 어떻게 정보를 저장할까요? __신경망은 임베딩을 어떻게 활용할까요? __단어주머니 벡터의 한계 __단위행렬을 이용해서 단어 임베딩 총합하기 __정말 아무것도 바꾸지 않는 행렬 __전이행렬 __유용한 문장 벡터 생성하는 법 학습하기 __파이썬으로 순전파 하기 __어떻게 여기에 역전파를 넣을까요? __학습시켜 봅시다! __준비하기 __임의 길이로 순전파 하기 __임의의 길이로 역전파 하기 __임의의 길이로 가중치 갱신하기 __실행과 출력 분석 __요약 CHAPTER 13 자동 최적화를 소개합니다 : 딥러닝 프레임워크를 만들어봅시다 __딥러닝 프레임워크란? __텐서를 소개합니다 __자동 미분, autograd를 소개합니다 __간단히 점검해보기 __여러 번 재사용되는 텐서 __텐서 재사용을 위한 자동 미분 업그레이드 __덧셈 역전파는 어떻게 이루어질까요? __부정 연산 지원하기 __몇 가지 함수 더 지원하기 __자동 미분을 이용해서 신경망 학습하기 __자동 최적화 추가하기 __계층 형식 지원하기 __계층을 포함하는 계층 __손실 함수 계층 __프레임워크 배우기 __비선형 계층 __임베딩 계층 __자동 미분에 색인화 추가하기 __임베딩 계층 다시 생각하기 __교차 엔트로피 계층 __순환 신경망 계층 __요약 CHAPTER 14 셰익스피어처럼 글쓰기 : LSTM __문자 언어 모델링 __부분 역전파의 필요성 __부분 역전파 __출력의 샘플 __소멸하는 기울기, 폭발하는 기울기 __RNN 역전파의 장난감 예제 __LSTM 셀 __LSTM 게이트에 관한 몇 가지 직관 __LSTM 계층 __문자 언어 모델 업그레이드하기 __LSTM 문자 언어 모델 학습하기 __LSTM 문자 언어 모델 튜닝하기 __요약 CHAPTER 15 보이지 않는 데이터로 하는 딥러닝 : 통합 학습 입문 __딥러닝의 개인정보 문제 __통합 학습 __스팸 탐지 학습 __통합해봅시다 __통합 학습 해킹하기 __보안 통합 __동형 암호화 __동형 암호화 통합 학습 __요약 CHAPTER 16 다음 도약을 위한 준비 : 작은 안내서 __축하합니다! __1단계 : 파이토치를 배우세요 __2단계 : 새 딥러닝 수업을 수강하세요 __3단계 : 수학적으로 접근하는 딥러닝 교과서를 구하세요 __4단계 : 블로그를 개설해서 딥러닝을 가르치세요 __5단계 : 트위터 __6단계 : 학술 논문의 내용을 구현하세요 __7단계 : GPU를 사용할 수 있는 환경을 확보하세요 __8단계 : 급여를 받으면서 일하세요 __9단계 : 오픈소스 프로젝트에 참여하세요 __10단계 : 지역 커뮤니티를 발전시키세요 __찾아보기