성능평가의 개념
mAP(mean aveage precision)
mAP를 계산하기 위해 필요한 개념
- confusion matrix
Ground Truth | Prediction | |
1 | 0 | |
1 | TP(True Positive) | FN(False Negative) |
0 | FP(False Positive) | TN(True Negative) |
- Precision & Recall
\(Precision = \frac{TP}{TP+FP} = \frac{TP}{All~detection} \) - positive중에 맞춘 positive를 찾는것
\(Recall = \frac{TP}{TP+FN} \frac{TP}{All~Ground~Truths} \) - 정답에 가까운 의미
- PR curve
Ground Truth: 10개
Predict : 아래 10개의 객체
category | confidence | TP/FP | |
1 | Plastic | 72% | TP |
2 | Plastic | 80% | TP |
3 | Plastic | 41% | FP |
4 | Plastic | 10% | TP |
5 | Plastic | 60% | TP |
6 | Plastic | 32% | FP |
7 | Plastic | 82% | FP |
8 | Plastic | 95% | TP |
9 | Plastic | 90% | TP |
10 | Plastic | 70% | FP |
Confidence로 내림차순 정렬
category | confidence | TP/FP | 누적 TP | 누적 FP | Precision | Recall | |
8 | Plastic | 95% | TP | 1 | - | 1/1 | 1/10 |
9 | Plastic | 90% | TP | 2 | - | 2/2 | 2/10 |
7 | Plastic | 82% | FP | 3 | 1 | 2/3 | 2/10 |
6 | Plastic | 80% | TP | 4 | 1 | 3/4 | 3/10 |
1 | Plastic | 72% | TP | 5 | 1 | 4/5 | 4/10 |
Precision과 Recall을 계산하여
x축 : Recall
y축 : precision
값들을 점을 찍어 이어서 그린 그래프
- AP (Average Precision)
PR curve의 적분값
-mAP(mean Average Precision)
모든 객체에대한 AP의 평균
- IOU (Intersection Over Union)
Detection분야에서의 precision과 recall
\( IOU = \frac{overlapping~region}{combined~region} \)
True/False를 구분하는 기준이 됨!!
예시 mAP50 ~ IOU가 0.5일때의 mAP 값
속도 평가의 개념
1. FPS(Frames per second)
2. Flops(Floating points operation) - 연산량의 횟수
댓글