Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 개발자취업
- JPA
- dfs
- 자료구조
- js
- javascript
- 코딩테스트
- DB
- 문자열
- Java
- 크루스칼
- jsp
- 암호학
- dbms
- python
- 코테
- 코딩테스트준비
- 항해99
- 가상컴퓨팅
- generic class
- Algorithm
- 자바의정석
- Queue
- spring
- 알고리즘
- 생성자
- data structure
- sql
- BFS
- 공개키 암호화
Archives
- Today
- Total
목록BatchNormalization (1)
PLOD
[AI] dropout | Batch Normalization
* Dropout 구글에서 만든 AI 특허 기술, 사용하기 편하며 성능도 우수하다. 학습시 특정 node weight에 의해 overfitting 되는 현상을 막아준다. (regularization) dropout을 사용함으로써 더 작은 신경망을 사용하는것이 정규화의 효과를 준다. dropout이 여러개의 네트워크를 학습한 후에 하나의 네트워크로 합치는 것과 같은 효과를 낸다. Why use DropOut? 1) used to avoid overfitting 2) simple to implement 3) widely adopted dropout을 사용하는 이유는 train data에 있어서 100%의 정확도를 출력하지만, 실제로 test data에 있어서 높은 예측율을 출력하지 못하기 때문이다. 학습시킬..
대외 활동 및 IT 지식
2022. 12. 12. 19:31