안녕하세요. 오늘은 지난 포스팅의 미분방정식[4].Second Order Linear ODE-Complex roots of the Characteristic Equation(https://everyday-image-processing.tistory.com/29)에 이어서 Characteristic Equation의 해가 중근(Repeated Root)가 되는 경우에 해를 구하는 법에 대해서 알아보겠습니다. 먼저 Second Order Linear ODE를 다시 보면 $ay^{''} + by^{'} + cy = 0-(1)$의 꼴을 가지고 있음을 확인해주시길 바랍니다. 여기서 만약 $(1)$의 Charateristic Equation의 해인 $r_{1}$, $r_{2}$가 중근이 나온다면 어떻게 해결 할까요..
안녕하세요. 오늘은 지난 시간의 기초통계학[15].통계 소개(https://everyday-image-processing.tistory.com/28)에 이어서 본격적으로 통계를 배워보도록 하겠습니다. 그 첫걸음으로 최대 우도 추정법(Maximum Likelihood Estimates; MLE)에 대해서 알아보겠습니다. 본격적으로 시작하기 전에 최대 우도 추정이란 것이 필요한 이유에 대해서 알아보도록 하겠습니다. 기본적으로 통계는 데이터를 다루는 학문이라고 했기 때문에 저희에게 $n$개의 데이터 $x_{1}, x_{2}, ..., x_{n}$가 있다고 가정하겠습니다. 그리고 이 데이터들이 지수분포(exponential distribution)을 따르는 실험을 한 것을 알고 있다고 가정하겠습니다. 와~ 그럼..
안녕하세요. 오늘은 지난 포스팅의 미분방정식[3].Second Order Linear ODE(Solutions of Linear Homogeneous Equations)(https://everyday-image-processing.tistory.com/26)의 Principle of Superposition에 이어서 Charateristic Equation의 해가 Complex roots가 나오는 경우에 해를 구하는 방법에 대해서 알아보겠습니다. Second Order Linear ODE의 첫번째 포스팅에서 $ay^{''} + by^{'} + cy = 0$에서 $y(t) = e^{rt}$라고 가정하면 Charateristic Equation이 $ar^{2} + br + c = 0$이라고 하였습니다. 그럼..
안녕하세요. 오늘은 드디어 지난 시간의 마지막 확률 포스팅이였던 기초통계학[14].공분산과 상관계수(https://everyday-image-processing.tistory.com/25)를 끝내고 본격적으로 통계를 시작하기 전에 간단한 소개를 하고 넘어가도록 하겠습니다. 통계학은 기본적으로 데이터를 주로 다룹니다. 좀 더 자세하게 이야기하면 얻은 데이터를 바탕으로 의미있는 '추론'을 하는 것이 목표입니다. 이 과정은 크게 3가지로 나눌 수 있습니다.(1). 데이터 수집, 2). 데이터 설명, 3). 데이터 분석) 즉, 어떤 것이 진짜 인지에 대한 '가설(hypothesis)'를 세우고 실험을 통한 데이터 수집, 수집된 데이터 설명, 마지막으로 데이터를 분석한 뒤 이전에 세운 가설에 대한 믿음의 정도를 ..
안녕하세요. 지난 미분방정식[2].Second Order Linear ODE(Homogeneous Equations with constant coefficient)(https://everyday-image-processing.tistory.com/24)에 이어서 본격적으로 진행하기 전에 중요한 정리인 principle of superposition에 대해서 설명하고 넘어가겠습니다. principle of superposition은 지난 시간에 언급만 하고 넘어갔습니다. 오늘은 정리를 소개하도록 하겠습니다. $p(t)$, $q(t)$를 구간 $I=(\alpha, \beta)$에서 연속인 함수라고 하고 differential 연산자 $L[\phi]=\phi^{''}+p\phi^{'}+g\phi$로 정의하겠습..
안녕하세요. 오늘은 지난 시간의 기초통계학[13].결합확률분포와 독립성(https://everyday-image-processing.tistory.com/23)에 이어서 공분산과 상관계수에 대해서 알아보겠습니다. 1. 공분산(Covariance) 공분산은 이전 시간의 결합확률분포에서 두 확률변수간의 관련성을 수치한 것입니다. 지난 시간에 예를 들었던 기린의 키와 무게 사이의 양의 공분산이 나온다면 서로 함께 증가하는 경향을 보인다는 것입니다. 중요한 점은 두 확률 변수간의 인과관계가 아니라 경향성만 알 수 있다는 점입니다. 두 확률변수 $X$와 $Y$가 각각 평균 $\mu_{X}$, $\mu_{Y}$를 가진다고 했을 때 $X$와 $Y$의 공분산은 $Cov(X, Y)=E((E-\mu_{X})(Y-\mu_{..
안녕하세요. 오늘은 지난 시간의 미분방정식[1].First Order ODE(https://everyday-image-processing.tistory.com/20?category=890362)에 이어서 Second Order Linear ODE를 Characteristic Equation을 통해 푸는 방법을 알아보도록 하겠습니다. 이번 포스팅부터는 당분간 Linear ODE의 해를 구하는 방법에 대해서 설명할 예정입니다. Nonlinear의 경우 해를 구하는 방법이 한정적이고 수치적으로 구해야하는 방법이 대부분이기 때문이죠. 먼저 일반적인 Second Order Linear ODE부터 확인해봅시다. 두가지 방식으로 쓸 수 있습니다. 1). $y^{''}+p(t)y^{'}+q(t)y=g(t)-(1)$ 2..
안녕하세요. 오늘은 지난 기초통계학[12].밀도 히스토그램, Chebyshev 부등식(https://everyday-image-processing.tistory.com/19)에 이어서 결합확률분포와 독립성에 대해서 알아보겠습니다. 1. 결합확률분포(Joint Distributions) 실제에서 저희는 단일 대상에 대해서 여러가지 변수를 동시에 얻는 것에 관심있는 경우가 더 많습니다. 간단하게 생각해볼까요? 저희는 기린이라는 대상을 연구하고 있다고 가정하겠습니다. 기린이라는 대상의 특성이 목의 길이만 중요한 것은 아닙니다. 다리 길이, 꼬리의 길이, 머리 크기, 눈의 크기, 얼룩의 분포와 같이 사소한 특징부터 중요한 특징까지 알고 싶습니다. 그렇다면 이러한 특성들끼리 어떤 특징을 가지고 있지는 않을 까요?..