HOME > 상세정보

상세정보

Triple attention을 이용한 음성 인식

Triple attention을 이용한 음성 인식

자료유형
학위논문
개인저자
정동화, 鄭東華
서명 / 저자사항
Triple attention을 이용한 음성 인식 / 鄭東華
발행사항
서울 :   고려대학교 대학원,   2020  
형태사항
ii, 16장 ; 26 cm
기타형태 저록
Triple attention을 이용한 음성 인식   (DCOLL211009)000000127340  
학위논문주기
학위논문(석사)-- 고려대학교 대학원, 컴퓨터·전파통신공학과, 2020. 2
학과코드
0510   6D36   1106  
일반주기
지도교수: 육동석  
서지주기
참고문헌: 장 14-16
이용가능한 다른형태자료
PDF 파일로도 이용가능;   Requires PDF file reader(application/pdf)  
비통제주제어
음성 인식,,
000 00000nam c2200205 c 4500
001 000046026307
005 20230712105355
007 ta
008 200107s2020 ulk bmAC 000c kor
040 ▼a 211009 ▼c 211009 ▼d 211009
085 0 ▼a 0510 ▼2 KDCP
090 ▼a 0510 ▼b 6D36 ▼c 1106
100 1 ▼a 정동화, ▼g 鄭東華
245 1 0 ▼a Triple attention을 이용한 음성 인식 / ▼d 鄭東華
260 ▼a 서울 : ▼b 고려대학교 대학원, ▼c 2020
300 ▼a ii, 16장 ; ▼c 26 cm
500 ▼a 지도교수: 육동석
502 0 ▼a 학위논문(석사)-- ▼b 고려대학교 대학원, ▼c 컴퓨터·전파통신공학과, ▼d 2020. 2
504 ▼a 참고문헌: 장 14-16
530 ▼a PDF 파일로도 이용가능; ▼c Requires PDF file reader(application/pdf)
653 ▼a 음성 인식
776 0 ▼t Triple attention을 이용한 음성 인식 ▼w (DCOLL211009)000000127340
900 1 0 ▼a 육동석, ▼g 陸東錫, ▼d 1963-, ▼e 지도교수 ▼0 AUTH(211009)153275
945 ▼a KLPA

전자정보

No. 원문명 서비스
1
Triple attention을 이용한 음성 인식 (35회 열람)
PDF 초록 목차

소장정보

No. 소장처 청구기호 등록번호 도서상태 반납예정일 예약 서비스
No. 1 소장처 과학도서관/학위논문서고/ 청구기호 0510 6D36 1106 등록번호 123063727 도서상태 대출가능 반납예정일 예약 서비스 B M
No. 2 소장처 과학도서관/학위논문서고/ 청구기호 0510 6D36 1106 등록번호 123063728 도서상태 대출가능 반납예정일 예약 서비스 B M

컨텐츠정보

초록

Attention 방법은 sequence to sequence 방식의 모델에서 성능 향상을 위해 처음 제시된 이후로, 대부분의 모델에서 활용되고 있다. 그동안 attention 방법의 개선을 위해 다양한 방법들이 제시되었다. 이 중에, 최근에는 attention 방법을 두 번 적용한 double attention 방법에 대한 연구가 진행되었다. 그러나 이 방법은 실제 음성의 구조와 다소 차이점이 있다. 음성이 발화될 때는 바로 이전의 음성과 이후의 음성, 그리고 해당 음성의 고유한 부분이 따로 존재하여 총 3가지 부분으로 나타낼 수 있다. 따라서 이를 두 번의 attention으로는 충분히 표현하기가 어렵다. 본 논문은 이전의 double attention 방법에서의 이론적인 문제점을 지적하고, 몇 번의 attention이 가장 적합한지에 대해 연구하였다. 또한 이를 음소 인식 실험을 통해 기존의 방법들과 제안하는 방법의 성능을 비교하였다. 

목차

목 차

국문 요약 
제 1 장 소개	1
1.1 연구 배경 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	1
제 2 장 배경 지식 	2
2.1 Sequence to sequence 모델 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	2
2.2 Attention 모델 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	3
2.3 Double attention 모델 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	4
2.4 Multi-head attention 모델 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	5
제 3 장 제안하는 방법	7
3.1 Triple attention 모델 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	7
제 4 장 실험 및 결과	8
4.1 실험 개요 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	8
4.2 실험 결과 ⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅⋅	9
제 5 장 결론	11
참고문헌	12

관련분야 신착자료