본문 바로가기
BoostCamp 전체 경험 정리 BoostCamp의 기간은 총 3단계로 나눌 수 있다. 첫번째로 기초적인 지식을 배양하는 단계 두번째로 실제 Task를 풀어보는 단계 세번째로 문제정의부터 해결까지 전체 싸이클을 경험해 보는 단계이다. 중점적인 경험은 두번째와 세번째 단계로 볼수 있는데, 두번째 실제 Task를 풀어보는 단계에서 Computer Vision 부문의 교육생들을 Classification, Object Detection, OCR, Segmentation 총 네개의 과제를 팀프로젝트 형식으로 진행하게 된다. Classification의 경우 총 3개의 type, 각각 3,3,2개의 class로 이뤄져 총 18개의 클래스를 분류하는 문제였는데, 이때는 보통 특별히 다른 기술이 들어가는 것이 아닌, EfficientNet계열의 모.. 2024. 4. 22.
포트폴리오 습작1 2024. 4. 12.
Details of Detection R-CNN 1. Input image 2. Extract Region proposals - (sliding window, selective search) 3. Compute CNN features 4. Classify Regions SPPNet 1. Input image 2. Compute CNN features 3. Spatial pyramid pooling 4. Classify Regions Fast R-CNN 1. Inpute image 2. Compute CNN features 3. RoI projection (feature map의 RoI계산) 4. RoI Pooling을 통해 일정한 크기의 feature 추출 5. Classify Regions + Bounding Box Regressor(Sm.. 2024. 1. 3.
Object Detection! 성능평가의 개념 mAP(mean aveage precision) mAP를 계산하기 위해 필요한 개념 - confusion matrix Ground Truth Prediction 1 0 1 TP(True Positive) FN(False Negative) 0 FP(False Positive) TN(True Negative) - Precision & Recall \(Precision = \frac{TP}{TP+FP} = \frac{TP}{All~detection} \) - positive중에 맞춘 positive를 찾는것 \(Recall = \frac{TP}{TP+FN} \frac{TP}{All~Ground~Truths} \) - 정답에 가까운 의미 - PR curve Ground Truth: 10개 Pre.. 2024. 1. 3.
streamlit # Introduction to Streamlit Streamlit is a powerful tool for building web services, especially useful for data scientists and analysts. It simplifies the process of turning data scripts into shareable web applications. ## Key Features of Streamlit - **Ease of Use:** Rapid prototyping directly from Jupyter notebooks. - **Web Development Skills Not Required:** Simplifies the web development proces.. 2023. 12. 29.
Week5 Going deeper GoogLeNet -> inception module : width 확장-> 1x1 convolution layer로 연산량 줄임 : bottleneck layer 1x1 convolution 이란? 이미지의 모든 채널에 대한 특정 픽셀 (x,y)에 1x1 kernel을 내적하여 계산 m개의 kernel을 사용한다면 output 채널이 m개 생성됨 -> 공간의 특성은 유지한채 channel수만 줄여줌 ResNet Network의 depth를 쌓기 어려웠던게 overfitting이 아니고 degradation problem 이더라 Residual function에 대한 아이디어 (skip connection) 신호의 덧셈 DensNet dense connection(상위 layer에.. 2023. 12. 4.
Week4 정리 Transfer Learning 1. FC Layer만 update하는 방법 (주로 데이터가 적을때) 2. Cov Layer의 learning rate는 낮게하고, FC layer는 learning rate를 높게 함(주로 데이터가 충분히 있을때) Knowledge distillation  모델압축에 유용하게 사용됨, pretrained된 모델의 inference를 unlabed data의 pseudo-label로써 사용하는 방법 1. Unsupervised Version (label이 없는 데이터를 학습) 같은 input에 대해 Teacher Model, Student Model의 출력값을 통해 Student Model만을 학습시킴 2. Supervised Version (label이 있는 데이터를.. 2023. 11. 27.
Week3 주간 정리 Bagging vs Boosting Bagging(Bootstrap Aggregating)과 Boosting은 앙상블 학습(Ensemble Learning) 기법으로, 다수의 기본 모델을 결합하여 더 강력한 예측 모델을 생성하는 데 사용됩니다. 그러나 두 기법은 다음과 같이 다릅니다: Bagging (Bootstrap Aggregating): Bagging은 다수의 독립적인 기본 모델을 병렬로 훈련한 다음, 이들의 예측을 결합하여 최종 예측을 생성 각 기본 모델은 학습데이터에서 무작위로 중복을 허용하여 bootstrap sample을 생성하고, 이 부트스트랩 샘플을 사용하여 모델을 훈련 Bagging은 모델의 variance를 줄이고 overfitting을 방지 Boosting Boosting은 weak.. 2023. 11. 20.
Week2 주간 학습 정리 정리 PyTorch project flow 모든 구성에 대해 꼼꼼히 알자! 1. install environment 2. Data Loader 3. define model architecture, loss function, optimizer 4. Train model with multi gpu through DDP 5. monitoring model performance with Wandb 6. trouble shooting 7. hyperparameter tuning Tensor, Parameter, Buffer의 개념차이도 처음 알게 됐고 솔직히 따로따로의 필요성을 아직 체감하지 못했기 때문에 완전히 이해하진 못했지만 그래도 좀 신기했다 hook을 걸어서 중간 layer에서 gradient를 확인 하.. 2023. 11. 17.
Week 1 주간 학습정리 Python의 기본적인 개념과 언어의 특징을 공부했다. 기본적인 package들을 공부했다 pandas는 참 내용이 진짜 진짜 어이없이 많다. 많이 알고 있으면 활용이 더 쉽겠지 동료들도 좋고.. 아 그리고 정규식에 대해 처음으로 알게됐다. 문자 전처리등에 잘 쓰일 수 있을 것 같다. 프로젝트가 기대된다 2023. 11. 10.