2012년의 유물(과제였던것 같다) 진짜 개웃기다 ㅋㅋ 1⃣멋진남자란 시대를 초월함과 동시에 그 시대를 반영 하는 리더 멋진남자! 당신의 머릿속에 멋진 남자 하면 떠오르는 사람이 누구인가? 그 사람은 현 시대의 인물일수도, 과거의 인물일수도 있다. 왜 그럴까? 그 이유는 낭중지추,군계일학 즉, 아무리 열악한 상황이던 아무리 쉬운상황이던 시대를 대표하는 뛰어난 모습을 가지고 현대에 회자되고 후대에도 회자 될것이기 때문이다. 내가 생각하는 멋진 남자는 바로 이순신장군님 이다 왜냐하면 그는 약 500년 전 수적 열세에 굴하지 않는 용기와 기가 빠진 병사들의 사기를 올려주고 용기를 북돋아 주는 리더쉽 그리고 거북선을 만드는 등의 철저히 준비된 세상을 바라보는 눈을 가지고 열악한 상황 속에서 일본의 침범을 막아내는데 가장 큰 공헌을 했기 때문이다. 또 다른 멋진남자는.. 2024. 1. 25. Details of Detection R-CNN 1. Input image 2. Extract Region proposals - (sliding window, selective search) 3. Compute CNN features 4. Classify Regions SPPNet 1. Input image 2. Compute CNN features 3. Spatial pyramid pooling 4. Classify Regions Fast R-CNN 1. Inpute image 2. Compute CNN features 3. RoI projection (feature map의 RoI계산) 4. RoI Pooling을 통해 일정한 크기의 feature 추출 5. Classify Regions + Bounding Box Regressor(Sm.. 2024. 1. 3. Object Detection! 성능평가의 개념 mAP(mean aveage precision) mAP를 계산하기 위해 필요한 개념 - confusion matrix Ground Truth Prediction 1 0 1 TP(True Positive) FN(False Negative) 0 FP(False Positive) TN(True Negative) - Precision & Recall \(Precision = \frac{TP}{TP+FP} = \frac{TP}{All~detection} \) - positive중에 맞춘 positive를 찾는것 \(Recall = \frac{TP}{TP+FN} \frac{TP}{All~Ground~Truths} \) - 정답에 가까운 의미 - PR curve Ground Truth: 10개 Pre.. 2024. 1. 3. streamlit # Introduction to Streamlit Streamlit is a powerful tool for building web services, especially useful for data scientists and analysts. It simplifies the process of turning data scripts into shareable web applications. ## Key Features of Streamlit - **Ease of Use:** Rapid prototyping directly from Jupyter notebooks. - **Web Development Skills Not Required:** Simplifies the web development proces.. 2023. 12. 29. Docker란 무엇이냐.. 1. Docker 소개 > - 가상화란? - 가상화는 서비스 운영에 사용하는 서버와 로컬 환경의 차이를 극복하는 개념입니다. Local 환경은 윈도우일 수 있고, 서버 환경은 Linux일 수 있습니다. 이 때문에 라이브러리, 파이썬 등을 다르게 설치해야 합니다. > - Docker 등장 전 - 가상화 기술로 VM(Virtual Machine)을 사용했습니다. VM은 호스트 머신 위에 OS를 포함한 가상화 소프트웨어를 두는 방식입니다. 하지만 VM은 자원을 많이 사용하고 무겁다는 단점이 있습니다. > - Docker 소개 - Container 기술을 쉽게 사용할 수 있도록 2013년에 오픈소스로 등장한 도구입니다. 컨테이너에 기반한 개발과 운영을 빠르게 확장합니다. Docker Image는 컨테이너를 실행.. 2023. 12. 27. Multi-modal learning 1. Over of multi-modal learning(다중 감각) Challenge (1) - Different representations between modalities (2) - Unbalance between heterogeneous feature spaces - 1:N matching가능성 (3) - May a model be biased on a specific modality Desipite the challenges, multi-modal learning is fruitful and important Matching : 서로 다른 데이터 타입을 공통된 space로 match Translating : 하나의 데이터타입을 다른 데이터 타입으로 translate Referencing : 서.. 2023. 12. 7. Circumstances Dominance "Under similar circumstances is more powerful than personality." This concept made me reflect on the importance of having the right skills and knowledge to tackle various situations in life. I used to believe that one's personality traits were the most defining aspect of an indiviual. While personality is undoubtedly essential, I now understand that it's not enough on its own. It's under challen.. 2023. 12. 7. cGAN(conditional generative model) what is cGAN? Translating an image given "condition" \(P(X|condition)\) condition을 따르는 확률분포를 학습하는 것 Generative model vs Conditional generative model - Generative model generates a random sample - Conditional generative model generates a random smaple under the given "condition" Example of conditional generative model \(P\)(high resolution audio|low resolution audio\()\), \(P(\) English sentence|.. 2023. 12. 7. Generative Model Basic 2 Maximum Likelihood Learning - parameter가 주어졌을 때 데이터가 얼마나 likely 한지(뭐랑?), 이를 높이는 방향으로 학습함 - 뭘 Metric으로 삼을까? -> KL-divergence - minimizing KL-divergence Maximizing the expected log-likelihood - empirical log-likelihood is approximation of expected log-likelihood? - ERM(empirical risk minimization)을 보통 사용하지만 overfitting 문제를 갖고 있음 *jensen-shannon divegence(GAN), Wasserstein distance(WAE, AAE)등이 metr.. 2023. 12. 5. Generative model Basic 1 \( P(x)\)를 학습한다 : input x에 대한 확률분포를 학습한다 Suppose that we are given images of dogs we want to learn a probability distribution \(p(x)\) such that - Generation : If we sample \(\tilde x ~ p(x), \tilde x \) should look like a dog - Density estimation : \(p(x)\) shoud be high if x looks like a dog, and low otherwise. - This is also known as explicit models. - Then, how can we represent \( p(x)\)? 기본.. 2023. 12. 5. Conditional Generative model Translating an image given "condition" We can explicitly generate an image corresponding to a given "condition" Generative model vs Conditional generative model - Generative model generates a random sample - conditional generative model generates a random sample under the give "condition" 2023. 12. 5. Landmark localization Landmark localization - 예시(facial landmark localization & Human pose estimation) Predicting the coordinate of keypoints 1. Coordinate regression : Usually inaccurate and biased 2. heatmap classification : better performance but high computational cost Hourglass network stacked hourglass modules allow for repeated bottom-up and top-down inference that refines the output of the previous hourglass .. 2023. 12. 5. Segmentations(Instance & Panoptic) Semantic segmentation(stuff + things) = pixel-wise classification object detection Instance Segmentation = Semantic segmentation + distinguishing instances two-stage Mask R-CNN = Faster R-CNN + Mask branch RoIAlign single-stage YOLACT(You Only Look At CoefficienTs) - real-time 연산은 어려움 mask는 아니지만 mask처럼 쓰이는 component인 prototypes(재료)를 구하여 span 하여(선형결합) mask를 만들고자 함 YolactEdge - (Yolact의 key 부분만 가져.. 2023. 12. 5. CNN visualization Image - Low level feature map - mid level - high level -> output inference Image Filter visualization(first conv layer) Activation visualization(first conv layer) Model을 이해하기 위한 노력 vs data를 분석하기 위한 노력 Analysis of model behaviors - NN(Nearest Neighbors) search in feature space 모델자체의 연산 분석 High level 해석 - 보통 FC layer를 잘라서 feature map을 보는식으로 진행 - backbone에서 나온 결과를 해석하기위해서 Dimentionality reduction 연.. 2023. 12. 5. Object detection TASKS Image Segmentic segmentation instance segmentation (같은 클래스끼리 객체의 구분이 가능하냐) panoptic segmentation (instace segmentaion + alpha) Object Detection = classification + Box localization (label :(P_class, x_min, y_min, x_max, y_max) 꼴) 무인차 응용사례, OCR 등 object detection의 역사 - image의 경계(gradient)를 근사하는 접근(SVM) - selective search : box proposal(candidate object) 1) over-segmentation : 일단 색깔 전체를 나눔 2).. 2023. 12. 5. Week5 Going deeper GoogLeNet -> inception module : width 확장-> 1x1 convolution layer로 연산량 줄임 : bottleneck layer 1x1 convolution 이란? 이미지의 모든 채널에 대한 특정 픽셀 (x,y)에 1x1 kernel을 내적하여 계산 m개의 kernel을 사용한다면 output 채널이 m개 생성됨 -> 공간의 특성은 유지한채 channel수만 줄여줌 ResNet Network의 depth를 쌓기 어려웠던게 overfitting이 아니고 degradation problem 이더라 Residual function에 대한 아이디어 (skip connection) 신호의 덧셈 DensNet dense connection(상위 layer에.. 2023. 12. 4. On Going/Deep Learning[Paper Review] ConvNeXt - A ConvNet for the 2020s (4/n) ConvNet : Other tasks 1. object detection and segmentation on COCO도 잘하고 2. Semantic segmentation on ADE20K 도 잘하고 3. model efficiency도 낫다 In addition, Hybrid model = CNN + self attention이 연구되고 있다. Prior to ViT, the focus was on augmenting a ConvNet with self-attention/non-local modules [8, 55, 66, 79] to capture long-range dependencies The original ViT [20] first studied a hybrid configuration, and a large body of fol.. 2023. 12. 4. [Paper Review] ConvNeXt - A ConvNet for the 2020s (3/n) ConvNet : Evaluations on classification ConvNeXtT/S/B/L, to be of similar complexities to Swin-T/S/B/L. ConvNeXt-T/B is the end product of the “modernizing” procedure on ResNet-50/200 regime, respectively. In addition, we build a larger ConvNeXt-XL to further test the scalability of ConvNeXt. The variants only differ in the number of channels C, and the number of blocks B in each stage 1. settings ImageNet-22K(21841개의 class, 14M개의 이미지.. 2023. 11. 28. [Paper Review] ConvNeXt - A ConvNet for the 2020s (2/n) ConvNet : a Roadmap Starting Point is a ResNet-50 model을 Vision transformer가 학습하는 방식으로 학습시켰더니 performance가 더 좋았다. Deisign Decision (network modernization : CNN의 현대화) 1. Macro design 2. ResNeXt 3. Inverted bottleneck 4. Large kernel size 5. various layer-wise micro design Training Techniques 0. train a baseline model(resnet 50/200) with the vision transformer training procedure ~ DeiT와 Swin Trnasfomer에서 소개된 것들과 유사한 .. 2023. 11. 27. [Paper Review] ConvNeXt - A ConvNet for the 2020s (1/n) Introduction In this work, we reexamine the design spaces and test the limits of what a pure ConvNet can achieve. We gradually “modernize” a standard ResNet toward the design of a vision Transformer, and discover several key components that contribute to the performance difference along the way. 대표적인 inductive bias 1. sliding-window manner = is intrinsic to visual processing, particularly when working with h.. 2023. 11. 27. 이전 1 2 3 4 5 6 다음