Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- precision
- 1x1 convolution
- AI tech
- deep learning #machine learning #history
- evaluation
- FPS
- map
- CNN #padding #stride #parameters
- confusion matrix
- 일상
- Optimization
- neural networks #linear #nonlinear #perceptrons
- momentum #adagrad #adam #early stopping #data augmentation #dropout #label smoothing #batch normalization
- objectdetection
- 대학원생
- IOU
- flops
- generalization #overfitting # bootstrapping #bagging #boosting #stochastic gradient desent #mini-batch gradient descent #batch gradient descent
- 네이버
- 부트캠프
- recall
Archives
- Today
- Total
목록논문 리뷰 (1)
공부 일기장

Background Are Convolutional Neural Networks or Transformers more like human vision? 세로선이 평균선인데 ViT계열이 CNN보다 좋은 성능을 보임 ViT 계열이 shape bias가 높고 texture bias가 낮음 Abstract ViT가 낮은 layer에서 resnet보다 더 global한 정보를 포함 하지만 낮은 레이어에서 local정보를 포함하는 것이 중요하기에 대규모 사전학습 훈련 데이터가 이를 가능하게 함 ViT가 ResNet보다 Skip connetction의 효과가 훨씬 크고, 성능과 표현력에 많은 영향을 미침 공간 정보가 얼마나 보존되는지 확인 데이터셋의 크기에 따른 전이학습의 효과를 연구하였고, Linear probes..