통계학에서는 추정량을 비교할 때 리스크라는 기준을 채택합니다. 만약, 한 추정량 $\delta_{1}$이 모든 $\theta$에 대해 항상 $\delta_{2}$ 보다 리스크가 작거나 같다면 우리는 $\delta_{1}$이 $\delta_{2}$를 지배(dominate)한다고 합니다. 그리고 어떤 추정량도 자신을 엄격히 지배하지 못한다면 그 추정량을 허용(admissible)하다고 합니다.
이 개념은 단순히 "완전히 뒤처지지 않는 추정량" 정도로 이해할 수 있습니다. 저명한 통계학자인 Wald(1947)은 모든 허용 추정량이 어떤 형태로든 베이지안 의사결정 규칙과 연결된다는 것을 증명하기도 하였습니다. 예를 들어, 평균을 추정할 때 표본 중앙값은 표본 평균보다 항상 리스크가 크기 때문에 허용이 아닙니다. 더 놀라운 점은 우리가 흔히 아는 좋은 추정량이라고 생각하는 표본 평균 조차 항상 허용은 아니라는 점 입니다. 이것이 바로 통계학에서 유명한 Stein의 역설(Stein's Paradox)입니다.
그렇다면 허용성 개념이 정말 유용할까요? 사실 그렇지는 않습니다. 예를 들어, $X \sim \mathcal{N}(\theta, 1)$일 때, 데이터와 전혀 상관없이 그냥 어떤 상수 $\theta_{0}$를 항상 추정값으로 내놓는 단순한 추정량을 생각해보겠습니다. 이 추정량은 데이터를 완전히 무시하기 때문에 전혀 쓸모없어보입니다. 하지만, 흥미롭게도 이 추정량은 허용 추정량입니다. 왜냐하면 $\theta = \theta_{0}$일 때 리스크가 0이 되어 다른 추정량이 절대 더 낮은 리스크를 가질 수 없기 때문이죠. 결국 어떤 다른 추정량도 이 상수 추정량을 엄격히 지배할 수 없는 것이죠.
이처럼 쓸모없는 추정량도 허용이 될 수 있고, 반대로 꽤 유용한 추정량이 허용이 아닐 수도 있습니다. 따라서, 허용성(admissiblity)는 이론적으로는 흥미로운 개념이지만 실무적인 가치는 크지 않다는 평가를 받기도 합니다.