Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- python
- BFS
- Java
- 크루스칼
- Algorithm
- 자바의정석
- jsp
- dbms
- js
- 문자열
- 코딩테스트
- DB
- JPA
- javascript
- 개발자취업
- 코딩테스트준비
- sql
- 항해99
- 코테
- 공개키 암호화
- dfs
- 암호학
- data structure
- 생성자
- generic class
- Queue
- 알고리즘
- 가상컴퓨팅
- spring
- 자료구조
Archives
- Today
- Total
PLOD
[AI] dropout | Batch Normalization 본문
* Dropout
구글에서 만든 AI 특허 기술, 사용하기 편하며 성능도 우수하다.
학습시 특정 node weight에 의해 overfitting 되는 현상을 막아준다. (regularization)
dropout을 사용함으로써 더 작은 신경망을 사용하는것이 정규화의 효과를 준다.
dropout이 여러개의 네트워크를 학습한 후에 하나의 네트워크로 합치는 것과 같은 효과를 낸다.
Why use DropOut?
1) used to avoid overfitting
2) simple to implement
3) widely adopted
dropout을 사용하는 이유는 train data에 있어서 100%의 정확도를 출력하지만, 실제로 test data에 있어서 높은 예측율을
출력하지 못하기 때문이다. 학습시킬 장비가 많을 때 ensemble 방식을 사용한다.
*ensemble
여러개의 독립적인 모델을 만들고 독립적인 모델들을 모두 합쳐서 한번에 예측하는 방식이다.
*BatchNormalization
1) Enable faster training and higher learning rate
2) Reduce the dependency
3) widely adopted
BatchNormalization과 Dropout을 이용한 이상적인 학습 Logic 순서는 다음과 같다.
Convolution - BatchNormalization- Activation - Dropout - Pooling
'대외 활동 및 IT 지식' 카테고리의 다른 글
[IT] smart factory (0) | 2022.12.21 |
---|---|
[AI] Generatvice Adversarial Network(GAN) (0) | 2022.12.13 |
[AI] Sequence to Sequence Learning (0) | 2022.12.13 |
[AI] Autoencoder (0) | 2022.12.13 |
[Git] git bash 명령어 (1) | 2022.09.25 |
Comments