일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 1x1 convolution
- confusion matrix
- IOU
- neural networks #linear #nonlinear #perceptrons
- recall
- Optimization
- CNN #padding #stride #parameters
- deep learning #machine learning #history
- 대학원생
- 일상
- AI tech
- objectdetection
- evaluation
- map
- FPS
- 네이버
- momentum #adagrad #adam #early stopping #data augmentation #dropout #label smoothing #batch normalization
- flops
- generalization #overfitting # bootstrapping #bagging #boosting #stochastic gradient desent #mini-batch gradient descent #batch gradient descent
- precision
- 부트캠프
- Today
- Total
목록네이버 부스트 캠프 (12)
공부 일기장

인간의 지능을 모방 but 똑같을 필요는 없다 과거의 새를 모방하고자 만든 비행기는 새와 똑같은가? 우리가 하늘을 날고 싶다고 해서 항상 새처럼 날 필요는 없다 neural networks가 시작은 인간의 뇌를 모방하고자 했지만 지금은 사실 많이 다르고 왜 잘됬는지는 수학적으로 분석해야 할 것이다. Neural networks are fuction approximators that stack affine transformations followed by nonlinerar transformations. 비선형 연산이 반복적으로 일어나는 연산 Linear Neural Networks NonLinear Neural Networks multi-layer perceptrons 표현력을 극대화 하기 위해서는 no..

Deep learner? 1. Implemenation Skills 2. Math Skills 3. Knowing a lot of recent Papers Key components of Deep learning (아래와 같은 항목에 focus 해서 논문을 살펴보는 것이 좋다) Data Model Loss fuction Optimization(Algorithm) 1. Data data depend on the type of the problem to solve 2. Model model의 성질에 따라 다양한 결과가 도출됨 3. Loss Loss fuction is a proxy 4. Optimization(Algorithm) dropout early stopping k-fold validation wei..

train하기 앞서서 _base_와 비슷한 형태로 세팅을 해두고 아래와 같이 test_model.py를 만들어두자 _base_ = [ './_base_/datasets/coco_detection.py', './_base_/models/faster_rcnn_r50_fpn.py', './_base_/schedules/schedule_1x.py', './_base_/default_runtime.py' ] 그리고 터미널에 python train.py configs/test_model.py 해주면 학습이 시작된다. train.py 하는 경우 설정해줄수 있는 config가 여러가지 seed고정을 하는건 필수적이라고 본다.