pml intro

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Ch5 Decision Theory (Sec5.1 Bayesian Decision Theory - 4)

지난 포스팅에서는 ROC 곡선과 이를 통한 요약 통계인 AUC와 EER에 대해서 알아보았습니다. 하지만, 어떤 문제에서는 "음성(negative)"의 개념이 명확하지 않을때가 많습니다. 예를 들어서 생각해보겠습니다. 검출기가 이미지 패치를 하나하나 분류한다고 가정하겠습니다. 그러면 검사한 패치 수가 알고리즘 설정값에 달려있습니다. 다시 말해, "음성"의 총량이 문제의 정의가 아니라 구현 파라미터에 의해 결정되는 것이죠. 다른 예시도 생각해볼 수 있습니다. 정보 검색을 한다고 가정하겠습니다. 일반적으로 이러한 시스템에서는 검색 결과 후보 문서 집합을 먼저 뽑은 뒤 이를 관련도 순으로 랭킹합니다. 이 과정에서 임의의 컷 오프를 두어 "관련문서(양성) vs 무관련문서(음성)"을 나눌 수는 있지만 음성 집합의 ..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Ch5 Decision Theory (Sec5.1 Bayesian Decision Theory - 3)

이전 포스팅에서 저희는 거짓양성(False Positive)과 거짓음성(False Negative)의 상대적 비용으로부터 결정된 임곗값 $\tau$를 이용해 이진분류에서 최적의 레이블을 선택하는 방법에 대해서 알아보았습니다. 하지만 하나의 임곗값만 고집하기 보다는 여러 개의 임곗값을 시도해보고 그때마다 모델이 얼마나 잘 동작하는 지 비교할 수도 있습니다. 먼저, 임의의 고정된 임곗값 $\tau$에 대해서 저희는 다음과 같은 결정 규칙을 고려해볼 수 있습니다. $$\hat{y}_{\tau}(\mathbf{x}) = \mathbb{I}(p(y = 1 \mid \mathbf{x}) \ge 1 - \tau)$$ 즉, 양성일 확률이 $1 - \tau$보다 크다면 양성으로 예측하고 작다면 음성으로 예측하는 것이죠..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Ch5 Decision Theory (Sec5.1 Bayesian Decision Theory - 2)

안녕하세요. 지난 포스팅에서는 베이지안 통계을 기반으로하는 결정 방식에 대해서 정말 간략하게 살펴보았습니다. 이번에는 주어진 입력 $x \in \mathcal{X}$에 대해 어떤 클래스 레이블을 예측할 지 베이지안 결정이론을 기반으로 판단해보도록 하겠습니다. 1. 제로-원 손실(Zero-One Loss)이러한 분류문제에서 가장 단순하게 손실 또는 위험을 구하는 방법이 바로 제로-원 손실 $l_{01}(y^{*}, \hat{y})$입니다. 이는 숨겨진 자연상태 $\mathcal{H}$와 행동 $\mathcal{A}$가 모두 클래스 레이블 집합인 경우를 가정합니다. 이는 예측 $\hat{y}$가 정답 $y^{*}$와 동일하다면 손실을 0으로 주고 다르다면 1로 줍니다. 이를 통해 저희는 손실행렬을 다음과 ..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Ch5 Decision Theory (Sec5.1 Bayesian Decision Theory - 1)

지금까지는 베이지안과 빈도주의 관점에서 통계에 대한 기본적인 내용을 알아보았습니다. 핵심은 어떤 데이터셋 $\mathcal{D}$가 주어졌을 때 어떻게 모델 파라미터 $\theta$의 값을 추정하고 이에 대한 불확실성을 얻는 지가 핵심이였습니다. 특히, 앞으로 저희가 관심있게 볼 베이지안 관점에서는 모델 파라미터의 사후 확률분포 $p(\theta \mid \mathcal{D})$를 이용해 바로 불확실성을 얻을 수 있었죠. 그리고 새로운 데이터가 입력되었을 때 그에 대응되는 추론 결과를 예측하는 사후 예측분포를 만들거나 사후 모드를 얻는 방법도 설명하였습니다. 하지만, 실질적으로 어떤 결정을 해야하는 지는 이야기를 하지 않았습니다!! 베이지안 추론은 관측된 데이터 $\mathbf{X} = x$가 주어졌을 ..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Ch4 Statistics (Sec4.7 Frequentist Statistics - 6)

안녕하세요. 지금까지 저희는 베이즈 관점의 통계를 넘어 빈도주의 관점의 통계까지 확인해보고 있습니다. 여기서 두 관점의 가장 큰 차이는 데이터의 무작위성 유무입니다. 베이즈 관점에서는 관측된 데이터에 대해서는 고정되어 이를 기반으로 파라미터를 추정하게 됩니다. 이에 반해 빈도주의 통계에서는 데이터셋 $\mathcal{D}$를 확률 변수로 취급합니다. 즉, 데이터셋 $\mathcal{D}$를 만드는 파라미터 $\theta^{*}$는 알지못하지만 이를 기반으로 샘플링되어 데이터셋을 만든다는 의미가 되어 $\mathcal{D} \sim p^{*}(\mathcal{D})$라고 할 수 있습니다. 따라서, 샘플링된 데이터에 의해 결정되는 추정치 $\hat{\theta} (\mathcal{D})$ 역시 확률 변수로 ..

인공지능/Probabilistic Machine Learning (intro)

[PML intro] Introduction

안녕하세요. 최근 들어 딥 러닝 모델에서 확률 모델을 사용하는 것에 큰 관심이 생겨 정리를 한번 해보려고 합니다. 교재는 Probabilistic Machine Learning: An Introduction (Murphy)를 참고하였습니다. 이전에 확률 및 통계와 관련된 포스팅을 한적은 있지만 이를 기계학습과 엮어서 설명한 적은 없기 때문에 아는 내용은 빠르게 넘어가고 모르는 내용만 자세하게 작성하도록 하겠습니다. 오늘은 간략한 Introduction만 진행하도록 하겠습니다.  What is Machine Learning?Def. 1. 기계학습 (Machine Learning)컴퓨터 프로그램이 $P$로 측정된 $T$의 작업 성능이 $E$ 경험을 통해 향상되는 경우, 특정 작업 $T$ 및 성능 평가 지표 ..

Johns Hohns
'pml intro' 태그의 글 목록 (5 Page)