000 | 00000nam c2200205 c 4500 | |
001 | 000046103103 | |
005 | 20220106124546 | |
007 | ta | |
008 | 220103s2021 ulkad 001c kor | |
020 | ▼a 9791161755571 ▼g 93000 | |
040 | ▼a 211009 ▼c 211009 ▼d 211009 | |
041 | 1 | ▼a kor ▼h eng |
082 | 0 4 | ▼a 006.31 ▼2 23 |
085 | ▼a 006.31 ▼2 DDCK | |
090 | ▼a 006.31 ▼b 2021z31 | |
100 | 1 | ▼a Lonza, Andrea |
245 | 1 0 | ▼a 파이썬 기반 강화학습 알고리듬 : ▼b DP, Q-learning, AC, DQN, TRPO, PPO, DDPG, TD3, imitation learning, ESBAS 알아보기 / ▼d 안드레아 론자 지음 ; ▼e 정사범 옮김 |
246 | 1 9 | ▼a Reinforcement learning algorithms with Python : ▼b learn, understand, and develop smart algorithms for addressing AI challenges |
260 | ▼a 서울 : ▼b 에이콘, ▼c 2021 | |
300 | ▼a 445 p. : ▼b 삽화, 도표 ; ▼c 24 cm | |
490 | 1 0 | ▼a 에이콘 데이터 과학 시리즈 |
500 | ▼a 색인수록 | |
700 | 1 | ▼a 정사범, ▼e 역 ▼0 AUTH(211009)86106 |
830 | 0 | ▼a 에이콘 데이터 과학 시리즈 |
900 | 1 0 | ▼a 론자, 안드레아, ▼e 저 |
945 | ▼a KLPA |
소장정보
No. | 소장처 | 청구기호 | 등록번호 | 도서상태 | 반납예정일 | 예약 | 서비스 |
---|---|---|---|---|---|---|---|
No. 1 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2021z31 | 등록번호 121258824 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
No. 2 | 소장처 과학도서관/Sci-Info(1층서고)/ | 청구기호 006.31 2021z31 | 등록번호 521006678 | 도서상태 대출가능 | 반납예정일 | 예약 | 서비스 |
컨텐츠정보
책소개
강화학습(RL)은 인공지능의 인기 있고 유망한 분야로 변화하는 요구사항에 대응해 이상적인 행동을 자동으로 결정하는 에이전트와 스마트한 모델을 만드는 알고리듬이다. 이 책은 강화학습 알고리듬을 마스터하고 자가학습(self-learning)하는 에이전트를 구현하는 방법을 이해할 수 있도록 도와준다. 강화학습에 필요한 툴, 라이브러리, 설정 사항에 대한 소개를 시작으로 강화학습의 빌딩블록, Q-러닝, SARSA 알고리듬과 같은 가치 기반 방법을 상세히 다룬다.
★ 이 책에서 다루는 내용 ★
■ OpenAI Gym 인터페이스를 이용해 카트폴 게임을 하는 에이전트 개발
■ 모델 기반 강화학습 패러다임
■ 동적 프로그래밍으로 프로즌레이크 문제 해결
■ Q-러닝과 SARAS를 이용해 택시 게임 실행
■ 딥 Q-러닝(DQN)을 이용해 아타리 게임 실행
■ 액터 크리틱과 REINFORCE를 이용해 폴리시 그래디언트 알고리듬 학습
■ PPO와 TRPO를 연속형 로코모션 환경에 사용
■ 진화 전략을 사용한 달 착륙 문제 해결
★ 이 책의 대상 독자 ★
인공지능 엔지니어나 딥러닝 사용자가 강화학습 기초를 배울 때 적합하다. 또한 강화학습 분야의 일부 고급 기술을 알고 싶은 경우에도 유용하다. 다만 책 내용을 이해하려면 파이썬을 활용할 줄 알아야 한다.
★ 이 책의 구성 ★
1장, '강화학습의 개요'에서는 강화학습이 필요한 분야와 강화학습 알고리듬을 이미 적용한 분야를 설명한다. 또한 2장의 프로젝트 실행에 필요한 툴, 라이브러리, 설정(setup)을 설명한다.
2장, '강화학습 사이클과 OpenAI Gym 구현'에서는 강화학습 알고리듬의 주요 사이클, 알고리듬 개발에 필요한 툴킷, 다양한 환경 유형을 설명한다. 랜덤 액션을 이용해 카트폴(cartpole)을 플레이하기 위해 OpenAI Gym 인터페이스를 이용한 랜덤 에이전트를 개발할 수 있다. 또한 다른 환경을 실행하기 위해 OpenAI Gym 인터페이스를 사용하는 방법을 학습해본다.
3장, '동적 프로그래밍으로 문제 해결하기'에서는 핵심 아이디어, 용어, 강화학습의 접근법을 소개한다. 강화학습의 메인 블록을 학습하고 문제 해결을 위해 강화학습 알고리듬을 만드는 방법의 일반적인 아이디어를 개발한다. 또한 모델 기반과 모델 프리 알고리듬의 차이와 강화학습 알고리듬 분류를 학습할 것이다. 동적 프로그래밍은 프로즌레이크(frozen lake) 게임을 해결하는 데 사용해본다.
4장, 'Q-러닝과 SARSA 애플리케이션'에서는 가치 기반 메소드, 특히 동적 프로그래밍과 다르며 대규모 문제에 확장 적용이 가능한 Q-러닝과 SARSA를 설명한다. 이 알고리듬을 이해하기 위해 프로즌레이크 게임에 강화학습을 적용하고 동적 프로그래밍과의 차이를 알아본다.
5장, 'DQN'에서는 특별히 Q-러닝에 적용한 신경망과 컨볼루션 신경망 CNN을 설명한다. Q-러닝과 신경망의 결합이 어떻게 뛰어난 결과를 만들고 많은 문제 해결에 사용될 수 있는지 알게 될 것이다. 추가로 DQN을 OpenAI Gym 인터페이스를 이용한 아타리 게임에 사용해본다.
6장, '확률적 PG 최적화 학습'에서는 새로운 모델 프리 알고리듬군(폴리시 그래디언트 메소드)을 소개한다. 그리고 폴리시 그래디언트와 가치 기반 메소드의 차이점과 장단점을 학습한다. 다음으로 REINFORCE와 액터 크리틱 알고리듬을 구현해 달 착륙 문제를 해결해 본다.
7장, 'TRPO와 PPO 구현'에서는 폴리시 개선을 제어하기 위해 신규 메커니즘을 사용한 폴리시 그래디언트 메소드 변경을 제안한다. 이 메커니즘은 폴리시 그래디언트 알고리듬의 안정성과 수렴성을 개선하는 데 사용한다. 특히 TRPO와 PPO 같은 기술을 사용한 2개의 메인 폴리시 그래디언트 메소드를 구현한다. 연속형 액션 공간을 가진 환경인 로보스쿨(RoboSchool)에 구현해본다.
8장, 'DDPG와 TD3 애플리케이션'에서는 폴리시 그래디언트와 Q-러닝을 모두 결합한 결정적 폴리시 알고리듬이라는 신규 알고리듬을 소개한다. 내부 컨셉을 학습하고 신규 환경에서 2개의 딥 결정적 알고리듬인 DDPG와 TD3를 구현해본다.
9장, '모델 기반 강화학습'에서는 미래 액션을 계획하거나 환경 모델을 학습하는 강화학습 알고리듬을 설명한다. 강화학습 알고리듬의 작동 방법, 장점, 많은 상황에서 선호하는 이유를 알게 될 것이다. 모델 기반 강화학습을 마스터하기 위해 로보스쿨에서 모델 기반 알고리듬을 구현해본다.
10장, 'DAgger 알고리듬으로 이미테이션 학습하기'에서는 이미테이션 학습의 작동 방법과 문제에 적용하고 적합화하는 방법을 설명한다. 가장 잘 알려진 이미테이션 학습 알고리듬인 DAgger를 학습한다. 이 알고리듬을 잘 이해하기 위해 플래피 버드(Flappy Bird)에서 에이전트의 학습과정 속도를 높이는 데 활용해 본다.
11장, '블랙박스 최적화 알고리듬 이해하기'에서는 역전파에 의존하지 않는 블랙박스 최적화 알고리듬인 진화 알고리듬을 알아본다. 이 알고리듬은 빠른 훈련과 수백, 수천 개 코어를 이용한 쉬운 병렬화 때문에 관심 받고 있다. 11장은 일종의 진화 알고리듬인 진화 전략 알고리듬에 초점을 둬 이 이론에 대한 이론적 실제 적용 배경을 설명한다.
12장, 'ESBAS 알고리듬 개발하기'에서는 강화학습에 특화된 중요한 탐색-활용 딜레마를 소개한다. 이 딜레마는 멀티 암트 밴딧 문제를 이용해 데모 시연을 하고 UCB와 UCB1 같은 접근법으로 해결할 것이다. 다음으로 알고리듬 선택 문제를 학습하고 ESBAS 메타 알고리듬을 개발한다. 이 알고리듬은 개별 상황에서 가장 적합한 강화학습 알고리듬을 선택하는 UCB1을 이용한다.
13장, '강화학습의 도전적 과제를 해결하기 위한 실제 구현'에서는 이 분야의 주요 도전 과제를 살펴보고 이를 극복하기 위한 몇 가지 사례와 메소드를 설명한다. 강화학습을 실제 현실 문제에 적용하기 위한 몇 가지 도전 과제, 딥 강화학습의 미래 개발, 현실에서의 사회적 임팩트를 학습한다.
정보제공 :

목차
1부. 알고리듬과 환경 1장. 강화학습의 개요 __강화학습 소개 ______강화학습과 지도학습의 비교 ____강화학습의 역사 ____딥 강화학습 __강화학습의 구성 요소 ____폴리시 ____가치함수 ____보상 ____모델 __강화학습 애플리케이션 ____게임 ____로봇과 인더스트리 4.0 ____기계학습 ____경제와 금융 ____헬스케어 ____지능형 교통시스템 ____에너지 최적화와 스마트 그리드 __요약 __질문 __심화학습 자료 2장. 강화학습 사이클과 OpenAI Gym 구현하기 __환경 설정하기 ____OpenAI Gym 설치하기 ____로보스쿨 설치하기 __OpenAI Gym과 강화학습 사이클 ____강화학습 사이클 개발하기 ____공간에 익숙해지기 ____텐서플로우 2.X ________즉시 실행 ________오토그래프 __텐서플로우 기반 기계학습 모델 개발 ____텐서 ________상수 ________변수 ________그래프 생성하기 ____간단한 선형회귀 예제 ____텐서보드 도입하기 __강화학습 환경의 유형 ____왜 다른 환경인가? ____오픈소스 환경 __요약 __질문 __심화학습 자료 3장. 동적 프로그래밍DP으로 문제 해결하기 __MDP ____폴리시 ____감가율과 리턴 ____가치함수 ____벨만 방정식 __강화학습 알고리듬 분류 ____모델 프리 알고리듬 ________가치 기반 알고리듬 ________폴리시 그래디언트 알고리듬 ________액터 크리틱 알고리듬 ________하이브리드 알고리듬 ____모델 기반 강화학습 ____알고리듬 다양화 __DP ____폴리시 평가와 폴리시 개선 ____폴리시 이터레이션 ________프로즌레이크에 적용된 폴리시 이터레이션 ____가치 이터레이션 ________프로즌레이크에 적용한 가치 이터레이션 __요약 __질문 __심화학습 자료 2부. 모델 프리 강화학습 알고리듬 4장. Q-러닝과 SARSA 애플리케이션 __모델없이 학습하기 ____사용자 경험 ____폴리시 평가 ____탐색 문제 ________왜 탐색해야 하는가? ________탐색 방법 __시간차 학습 ____시간차 업데이트 ____폴리시 개선 ____몬테카를로와 시간차 비교 __SARSA ____알고리듬 __Taxi-v2에 SARSA 적용하기 __Q-러닝 ____이론 ____알고리듬 __Taxi-v2에 Q-러닝 적용하기 ____SARSA와 Q-러닝 비교 __요약 __질문 5장. Deep Q-Network __심층신경망과 Q-러닝 ____함수 근사 ____신경망을 이용한 Q-러닝 ____딥 Q-러닝의 불안정성 __DQN ____해결책 ________리플레이 메모리 ________타깃 네트워크 ____DQN 알고리듬 ________손실함수 ________의사코드 ____모델 아키텍처 __DQN을 퐁에 적용하기 ____아타리 게임 ____전 처리 ____DQN 구현 ________DNN ________경험 버퍼 ________계산 그래프와 훈련 루프 ____결과 __DQN 개선 알고리듬 ____Double DQN ________DDQN 구현 ________결과 ____DQN 듀얼링하기 ________듀얼링 DQN 구현 ________결과 ____N-스텝 DQN ________구현 ________결과 __요약 __질문 __심화학습 자료 6장. 확률 기반 PG 최적화 학습 __폴리시 그래디언트 메소드 ____폴리시의 그래디언트 ____폴리시 그래디언트 정리 ____그래디언트 계산하기 ____폴리시 ____온-폴리시 PG __REINFORCE 알고리듬 이해하기 ____REINFORCE 구현하기 ____REINFORCE를 이용해 탐사선 착륙시키기 ________결과 분석하기 __베이스라인이 있는 REINFORCE ____베이스라인으로 REINFORCE 구현하기 __AC 알고리듬 학습하기 ____액터가 학습하도록 돕기 위해 크리틱 사용하기 ____n-step AC 모델 ____AC 구현 ____AC를 사용해 탐사선spacecraft 착륙시키기 ____고급 AC 팁과 트릭 __요약 __질문 __심화학습 자료 7장. TRPO와 PPO 구현 __로보스쿨 ____연속 시스템 제어 __Natural Policy Gradient ____NPG에 대한 아이디어 ____수학적 개념 ________FIM과 KL 발산 ____NG 문제 __TRPO ____TRPO 알고리듬 ____TRPO 알고리듬 구현 ____TRPO 애플리케이션 __Proximal Policy Optimization ____PPO의 개요 ____PPO 알고리듬 ____PPO의 구현 ____PPO 애플리케이션 __요약 __질문 __심화학습 자료 8장. DDPG와 TD3 애플리케이션 __폴리시 그래디언트 최적화와 Q-러닝 결합하기 ____결정론적 폴리시 그래디언트 ____DDPG 알고리듬 ____DDPG 구현 ____DDPG를 BipedalWalker-v2에 적용하기 __TD3 폴리시 그래디언트 ____과대평가 편향 문제 해결 ________TD3의 구현 ____분산 감소 해결 ________지연된 폴리시 업데이트 ________타깃 정규화 ____BipedalWalker에 TD3를 적용하기 __요약 __질문 __심화학습 자료 3부. 모델 프리 알고리듬과 개선 9장. 모델 기반 강화학습 __모델 기반 메소드 ____모델 기반 학습에 대한 폭넓은 관점 ________알려진 모델 ________미지의 모델 ____장단점 __모델 기반 학습과 모델 프리 학습 결합하기 ____모델 기반과 모델 프리 접근법의 유용한 조합 ____이미지에서 모델 만들기 __역진자에 적용한 ME-TRPO 모델 ____ME-TRPO 이해하기 ____ME-TRPO 구현하기 ____로보스쿨 실험하기 ________로보스쿨 역진자 실험 결과 __요약 __질문 __심화학습 자료 10장. DAgger 알고리듬으로 모방 학습하기 __기술적 요구 사항 ____Flappy Bird 설치 __모방 접근 ____운전 보조 사례 ____IL과 RL 비교하기 ____모방 학습에서 전문가의 역할 ____IL 구조 ________수동 모방과 능동 모방 비교하기 __Flappy Bird 게임하기 ____환경을 이용하는 방법 __데이터 집합dataset 집계 알고리듬 이해하기 ____DAgger 알고리듬 ____DAgger의 구현 ________전문가 추론 모델 적재 ________학습자의 계산 그래프 만들기 ________DAgger loop 만들기 ____Flappy Bird 결과 분석 __IRL __요약 __질문 __심화학습 자료 11장. 블랙박스 최적화 알고리듬 이해하기 __강화학습의 대안 ____강화학습에 대한 간단한 요약 ____대안 ________EAs __EA의 핵심 ____유전자 알고리듬GA ____진화 전략 ________CMA-ES ________ES 대 RL __확장 가능한 진화 전략 ____핵심 ________ES 병렬화하기 ________다른 트릭 ________의사 코드 ____확장 가능한 구현 ________메인 함수 ________작업자 __확장 가능한 ES를 LunarLander에 적용하기 __요약 __질문 __심화학습 자료 12장. ESBAS 알고리듬 개발하기 __탐색 대 활용 ____멀티 암드 밴딧 __탐색 접근법 ____탐욕 전략 ____UCB 알고리듬 ________UCB1 ____탐색 복잡도 __ESBAS ____알고리듬 선택 알아보기 ____ESBAS 내부 구조 ____구현 ____Acrobot 실행하기 ________결과 __요약 __질문 __심화학습 자료 13장. 강화학습 문제를 해결하기 위한 실제 구현 __딥 강화학습의 모범 사례 ____적합한 알고리듬 선택하기 ____강화학습 알고리듬 개발하기 __딥 강화학습의 도전 과제 ____안정성과 재현성 ____효율성 ____일반화 __고급 기술 ____비지도 강화학습 ________내재적 보상 ____전이 학습 ________전이 학습의 유형 __현실에서의 강화학습 ____강화학습을 현실에 적용할 때 해결해야 할 문제 ____시뮬레이션과 현실 사이의 차이 줄이기 ____자기만의 환경 만들기 __강화학습의 미래와 사회에 미치는 영향 __요약 __질문 __심화학습 자료