[폰트 비교] 폰트별 느낌을 보고싶어! https://www.myfonts.com/pages/tags/compare-fonts Compare Fonts | MyFonts www.myfonts.com이런식으로 내가 원하는 문구에 대한 폰트별 비교를 해보고싶은데 어디 없을까 여깄넹.. https://www.koreafont.com/fonts/list/ 한글마을 - 한글폰트 비교/검색모두가 찾아보는 한글디자인,오래오래 보고 싶은 글씨로 가득담았습니다.www.koreafont.com https://fonts.google.com/ Browse Fonts - Google FontsMaking the web more beautiful, fast, and open through great typographyfonts.google.com 구글이 안했을.. 2024. 5. 23. BoostCamp 전체 경험 정리 BoostCamp의 기간은 총 3단계로 나눌 수 있다. 첫번째로 기초적인 지식을 배양하는 단계 두번째로 실제 Task를 풀어보는 단계 세번째로 문제정의부터 해결까지 전체 싸이클을 경험해 보는 단계이다. 중점적인 경험은 두번째와 세번째 단계로 볼수 있는데, 두번째 실제 Task를 풀어보는 단계에서 Computer Vision 부문의 교육생들을 Classification, Object Detection, OCR, Segmentation 총 네개의 과제를 팀프로젝트 형식으로 진행하게 된다. Classification의 경우 총 3개의 type, 각각 3,3,2개의 class로 이뤄져 총 18개의 클래스를 분류하는 문제였는데, 이때는 보통 특별히 다른 기술이 들어가는 것이 아닌, EfficientNet계열의 모.. 2024. 4. 22. 포트폴리오 습작1 2024. 4. 12. Details of Detection R-CNN 1. Input image 2. Extract Region proposals - (sliding window, selective search) 3. Compute CNN features 4. Classify Regions SPPNet 1. Input image 2. Compute CNN features 3. Spatial pyramid pooling 4. Classify Regions Fast R-CNN 1. Inpute image 2. Compute CNN features 3. RoI projection (feature map의 RoI계산) 4. RoI Pooling을 통해 일정한 크기의 feature 추출 5. Classify Regions + Bounding Box Regressor(Sm.. 2024. 1. 3. Object Detection! 성능평가의 개념 mAP(mean aveage precision) mAP를 계산하기 위해 필요한 개념 - confusion matrix Ground Truth Prediction 1 0 1 TP(True Positive) FN(False Negative) 0 FP(False Positive) TN(True Negative) - Precision & Recall \(Precision = \frac{TP}{TP+FP} = \frac{TP}{All~detection} \) - positive중에 맞춘 positive를 찾는것 \(Recall = \frac{TP}{TP+FN} \frac{TP}{All~Ground~Truths} \) - 정답에 가까운 의미 - PR curve Ground Truth: 10개 Pre.. 2024. 1. 3. streamlit # Introduction to Streamlit Streamlit is a powerful tool for building web services, especially useful for data scientists and analysts. It simplifies the process of turning data scripts into shareable web applications. ## Key Features of Streamlit - **Ease of Use:** Rapid prototyping directly from Jupyter notebooks. - **Web Development Skills Not Required:** Simplifies the web development proces.. 2023. 12. 29. Docker란 무엇이냐.. 1. Docker 소개 > - 가상화란? - 가상화는 서비스 운영에 사용하는 서버와 로컬 환경의 차이를 극복하는 개념입니다. Local 환경은 윈도우일 수 있고, 서버 환경은 Linux일 수 있습니다. 이 때문에 라이브러리, 파이썬 등을 다르게 설치해야 합니다. > - Docker 등장 전 - 가상화 기술로 VM(Virtual Machine)을 사용했습니다. VM은 호스트 머신 위에 OS를 포함한 가상화 소프트웨어를 두는 방식입니다. 하지만 VM은 자원을 많이 사용하고 무겁다는 단점이 있습니다. > - Docker 소개 - Container 기술을 쉽게 사용할 수 있도록 2013년에 오픈소스로 등장한 도구입니다. 컨테이너에 기반한 개발과 운영을 빠르게 확장합니다. Docker Image는 컨테이너를 실행.. 2023. 12. 27. cGAN(conditional generative model) what is cGAN? Translating an image given "condition" \(P(X|condition)\) condition을 따르는 확률분포를 학습하는 것 Generative model vs Conditional generative model - Generative model generates a random sample - Conditional generative model generates a random smaple under the given "condition" Example of conditional generative model \(P\)(high resolution audio|low resolution audio\()\), \(P(\) English sentence|.. 2023. 12. 7. Generative Model Basic 2 Maximum Likelihood Learning - parameter가 주어졌을 때 데이터가 얼마나 likely 한지(뭐랑?), 이를 높이는 방향으로 학습함 - 뭘 Metric으로 삼을까? -> KL-divergence - minimizing KL-divergence Maximizing the expected log-likelihood - empirical log-likelihood is approximation of expected log-likelihood? - ERM(empirical risk minimization)을 보통 사용하지만 overfitting 문제를 갖고 있음 *jensen-shannon divegence(GAN), Wasserstein distance(WAE, AAE)등이 metr.. 2023. 12. 5. Generative model Basic 1 \( P(x)\)를 학습한다 : input x에 대한 확률분포를 학습한다 Suppose that we are given images of dogs we want to learn a probability distribution \(p(x)\) such that - Generation : If we sample \(\tilde x ~ p(x), \tilde x \) should look like a dog - Density estimation : \(p(x)\) shoud be high if x looks like a dog, and low otherwise. - This is also known as explicit models. - Then, how can we represent \( p(x)\)? 기본.. 2023. 12. 5. Conditional Generative model Translating an image given "condition" We can explicitly generate an image corresponding to a given "condition" Generative model vs Conditional generative model - Generative model generates a random sample - conditional generative model generates a random sample under the give "condition" 2023. 12. 5. CNN visualization Image - Low level feature map - mid level - high level -> output inference Image Filter visualization(first conv layer) Activation visualization(first conv layer) Model을 이해하기 위한 노력 vs data를 분석하기 위한 노력 Analysis of model behaviors - NN(Nearest Neighbors) search in feature space 모델자체의 연산 분석 High level 해석 - 보통 FC layer를 잘라서 feature map을 보는식으로 진행 - backbone에서 나온 결과를 해석하기위해서 Dimentionality reduction 연.. 2023. 12. 5. Week5 Going deeper GoogLeNet -> inception module : width 확장-> 1x1 convolution layer로 연산량 줄임 : bottleneck layer 1x1 convolution 이란? 이미지의 모든 채널에 대한 특정 픽셀 (x,y)에 1x1 kernel을 내적하여 계산 m개의 kernel을 사용한다면 output 채널이 m개 생성됨 -> 공간의 특성은 유지한채 channel수만 줄여줌 ResNet Network의 depth를 쌓기 어려웠던게 overfitting이 아니고 degradation problem 이더라 Residual function에 대한 아이디어 (skip connection) 신호의 덧셈 DensNet dense connection(상위 layer에.. 2023. 12. 4. Week4 정리 Transfer Learning 1. FC Layer만 update하는 방법 (주로 데이터가 적을때) 2. Cov Layer의 learning rate는 낮게하고, FC layer는 learning rate를 높게 함(주로 데이터가 충분히 있을때) Knowledge distillation 모델압축에 유용하게 사용됨, pretrained된 모델의 inference를 unlabed data의 pseudo-label로써 사용하는 방법 1. Unsupervised Version (label이 없는 데이터를 학습) 같은 input에 대해 Teacher Model, Student Model의 출력값을 통해 Student Model만을 학습시킴 2. Supervised Version (label이 있는 데이터를.. 2023. 11. 27. Week3 주간 정리 Bagging vs Boosting Bagging(Bootstrap Aggregating)과 Boosting은 앙상블 학습(Ensemble Learning) 기법으로, 다수의 기본 모델을 결합하여 더 강력한 예측 모델을 생성하는 데 사용됩니다. 그러나 두 기법은 다음과 같이 다릅니다: Bagging (Bootstrap Aggregating): Bagging은 다수의 독립적인 기본 모델을 병렬로 훈련한 다음, 이들의 예측을 결합하여 최종 예측을 생성 각 기본 모델은 학습데이터에서 무작위로 중복을 허용하여 bootstrap sample을 생성하고, 이 부트스트랩 샘플을 사용하여 모델을 훈련 Bagging은 모델의 variance를 줄이고 overfitting을 방지 Boosting Boosting은 weak.. 2023. 11. 20. Week2 주간 학습 정리 정리 PyTorch project flow 모든 구성에 대해 꼼꼼히 알자! 1. install environment 2. Data Loader 3. define model architecture, loss function, optimizer 4. Train model with multi gpu through DDP 5. monitoring model performance with Wandb 6. trouble shooting 7. hyperparameter tuning Tensor, Parameter, Buffer의 개념차이도 처음 알게 됐고 솔직히 따로따로의 필요성을 아직 체감하지 못했기 때문에 완전히 이해하진 못했지만 그래도 좀 신기했다 hook을 걸어서 중간 layer에서 gradient를 확인 하.. 2023. 11. 17. Week 1 주간 학습정리 Python의 기본적인 개념과 언어의 특징을 공부했다. 기본적인 package들을 공부했다 pandas는 참 내용이 진짜 진짜 어이없이 많다. 많이 알고 있으면 활용이 더 쉽겠지 동료들도 좋고.. 아 그리고 정규식에 대해 처음으로 알게됐다. 문자 전처리등에 잘 쓰일 수 있을 것 같다. 프로젝트가 기대된다 2023. 11. 10. [회귀분석] Pearson Coefficient vs Coefficient of Determination 회귀분석을 진행하고 모델을 평가할 때 Pearson Coefficient와 Coefficient of Determination를 Metric(평가지표)로서 사용하는 경우가 많습니다. Pearson Coefficient는 주로 r이라고 표현하고 Coefficient of Determination은 주로 r^2으로 편합니다. 그로 인해 Pearson Coefficient를 제곱 하면 Coefficient of Determination을 얻을 수 있다는 생각을 하기 쉬운데요 이는 특수한 경우에만 해당될 뿐 엄연히 다른 개념으로서 다른 목적을 갖고 있다는 것을 인지해야 합니다. 자세한 설명은 다음과 같습니다. 1. Pearson Coefficient (r) Pearson Coefficient는 두개의 varia.. 2023. 1. 10. [ViTs] Going deep with Image Transformers - Class Attention(3/4) 1-2. Class attention The vanilla ViT는 image patches와 learnable CLS(classification) token이 서로 어떻게 상호작용하는지 모델링(학습) 하기 위해 self-attention (SA) layers를 사용합니다. SA : image pathces와 learnable CLS token의 상호작용 학습하는 연산 CaiT의 저자는 the attention layer가 image patches와 CLS tokens들의 간의 연관성(?)을 떨어지도록 제안했습니다. propose to decouple the attention layers responsible for attending to the image patches and the CLS tokens.. 2022. 10. 27. [ViTs] Going deep with Image Transformers - LayerScale(2/4) Imports import io import typing from urllib.request import urlopen import matplotlib.pyplot as plt import numpy as np import PIL import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers tf.__version__ ##2.10.0 필수입니다!!! Step 1 : CaiT 에서 사용되는 block들 만들기 1-1. The LayerScale layer CaiT paper에서 제안된 두가지의 modification중에 하나인 LayerScale를 우선 구현해 보겠습니다. ViT models에서 depth를 증.. 2022. 10. 27. 이전 1 2 3 4 다음