tag

OLS

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

[ESL 리뷰] 교재 4-1장 LDA

9 분 소요

“The Elements of Statistical Learning” 교재 4장 Linear Methods for Classification 내용을 요약한 것이다. Classification 문제에서는 종속 변수가 이산적인 값을 갖기에 input space에 대한 분리가 항상 가...

The risk inflation criterion

9 분 소요

Foster, D. & George, E. (1994), ‘The risk inflation criterion for multiple regression’의 내용을 참고해서 글을 정리해보았다.

[ESL 리뷰] 교재 3장-2 Shrinkage Methods(Ridge, Lasso)

5 분 소요

“The Elements of Statistical Learning” 교재 3장의 Shrinkage Methods에 관한 내용을 정리해보았다. 앞서 subset selection을 통해 모델의 해석력과 더 나은 prediction error를 가질수 있음을 알 수 있었다. 하지만 ...

[ESL 리뷰] 교재 2장 figure

2 분 소요

“The Elements of Statistical Learning” 교재 2장의 figure들을 python을 이용하여 작성해보았다.

맨 위로 이동 ↑

ESL

[ESL 리뷰] 교재 3장-2 Shrinkage Methods(Ridge, Lasso)

5 분 소요

“The Elements of Statistical Learning” 교재 3장의 Shrinkage Methods에 관한 내용을 정리해보았다. 앞서 subset selection을 통해 모델의 해석력과 더 나은 prediction error를 가질수 있음을 알 수 있었다. 하지만 ...

[ESL 리뷰] 교재 2장 figure

2 분 소요

“The Elements of Statistical Learning” 교재 2장의 figure들을 python을 이용하여 작성해보았다.

맨 위로 이동 ↑

Python

[ESL 리뷰] 교재 7장-1 Model Assemssment and Selection

12 분 소요

모델의 성능을 평가하는 것은 어떠한 모델과 파라미터를 선택할지를 나타내어주는 지표이며, 최종적으로 우리가 선택할 모델의 근거가 되므로 굉장히 중요한 과정이다. 이번 포스팅에서는 먼저 편향과 분산의 트레이드 오프 관계를 알아보고, 크게 in-sample error를 통해 predic...

[ESL 리뷰] 교재 6장 Kernel Smoothers

10 분 소요

이번 포스팅에서는 저번과 마찬가지로 \(\mathbb{R}^p\)상에서의 회귀 모델 \(f(X)\)에 대한 유연성을 더해주는 방법으로 커널 함수를 이용하는 모델을 알아볼 것이다. 단순하게 각 입력 데이터 포인트 \(x_0\)마다 학습데이터 포인트들에 커널함수 \(K_{\lambda...

[ESL 리뷰] 교재 2장 figure

2 분 소요

“The Elements of Statistical Learning” 교재 2장의 figure들을 python을 이용하여 작성해보았다.

맨 위로 이동 ↑

Subset selection

The risk inflation criterion

9 분 소요

Foster, D. & George, E. (1994), ‘The risk inflation criterion for multiple regression’의 내용을 참고해서 글을 정리해보았다.

맨 위로 이동 ↑

Shrinkage method

[ESL 리뷰] 교재 3장-2 Shrinkage Methods(Ridge, Lasso)

5 분 소요

“The Elements of Statistical Learning” 교재 3장의 Shrinkage Methods에 관한 내용을 정리해보았다. 앞서 subset selection을 통해 모델의 해석력과 더 나은 prediction error를 가질수 있음을 알 수 있었다. 하지만 ...

맨 위로 이동 ↑

Multiple testing

Weighting based multiple testing cont

10 분 소요

저번 포스팅에 이어 이번에는 wBH절차 하에서 가설의 수가 충분히 많은 경우에 대해 데이터에만 의존하는 FDR의 상한을 유도해보자. 먼저, 확률변수의 수렴에 대해 복습해보자.

Weighting based multiple testing

6 분 소요

다중 검정에서 사전정보를 활용하여 p-value마다 가중치를 부여하여 검정하는 방법을 알아볼 예정이다.

Grouping based multiple testing

6 분 소요

다중 검정에서 가설들이 교환가능하지 않을 경우, 군집화를 기반으로 이를 해결하는 방법론들을 다뤄볼 것이다. 다음의 내용을 참고하였다.

맨 위로 이동 ↑

Ridge

[ESL 리뷰] 교재 6장 Kernel Smoothers

10 분 소요

이번 포스팅에서는 저번과 마찬가지로 \(\mathbb{R}^p\)상에서의 회귀 모델 \(f(X)\)에 대한 유연성을 더해주는 방법으로 커널 함수를 이용하는 모델을 알아볼 것이다. 단순하게 각 입력 데이터 포인트 \(x_0\)마다 학습데이터 포인트들에 커널함수 \(K_{\lambda...

[ESL 리뷰] 교재 3장-2 Shrinkage Methods(Ridge, Lasso)

5 분 소요

“The Elements of Statistical Learning” 교재 3장의 Shrinkage Methods에 관한 내용을 정리해보았다. 앞서 subset selection을 통해 모델의 해석력과 더 나은 prediction error를 가질수 있음을 알 수 있었다. 하지만 ...

맨 위로 이동 ↑

Lasso

[ESL 리뷰] 교재 3장-2 Shrinkage Methods(Ridge, Lasso)

5 분 소요

“The Elements of Statistical Learning” 교재 3장의 Shrinkage Methods에 관한 내용을 정리해보았다. 앞서 subset selection을 통해 모델의 해석력과 더 나은 prediction error를 가질수 있음을 알 수 있었다. 하지만 ...

맨 위로 이동 ↑

k-NN

[ESL 리뷰] 교재 6장 Kernel Smoothers

10 분 소요

이번 포스팅에서는 저번과 마찬가지로 \(\mathbb{R}^p\)상에서의 회귀 모델 \(f(X)\)에 대한 유연성을 더해주는 방법으로 커널 함수를 이용하는 모델을 알아볼 것이다. 단순하게 각 입력 데이터 포인트 \(x_0\)마다 학습데이터 포인트들에 커널함수 \(K_{\lambda...

[ESL 리뷰] 교재 2장 figure

2 분 소요

“The Elements of Statistical Learning” 교재 2장의 figure들을 python을 이용하여 작성해보았다.

맨 위로 이동 ↑

Forward Stagewise Selection

맨 위로 이동 ↑

Least Angle Regression

맨 위로 이동 ↑

Sparsity

The risk inflation criterion

9 분 소요

Foster, D. & George, E. (1994), ‘The risk inflation criterion for multiple regression’의 내용을 참고해서 글을 정리해보았다.

맨 위로 이동 ↑

In-sample Prediction

[ESL 리뷰] 교재 7장-1 Model Assemssment and Selection

12 분 소요

모델의 성능을 평가하는 것은 어떠한 모델과 파라미터를 선택할지를 나타내어주는 지표이며, 최종적으로 우리가 선택할 모델의 근거가 되므로 굉장히 중요한 과정이다. 이번 포스팅에서는 먼저 편향과 분산의 트레이드 오프 관계를 알아보고, 크게 in-sample error를 통해 predic...

The risk inflation criterion

9 분 소요

Foster, D. & George, E. (1994), ‘The risk inflation criterion for multiple regression’의 내용을 참고해서 글을 정리해보았다.

맨 위로 이동 ↑

Splines

맨 위로 이동 ↑

Basis Expansion

맨 위로 이동 ↑

Kernel

[ESL 리뷰] 교재 6장 Kernel Smoothers

10 분 소요

이번 포스팅에서는 저번과 마찬가지로 \(\mathbb{R}^p\)상에서의 회귀 모델 \(f(X)\)에 대한 유연성을 더해주는 방법으로 커널 함수를 이용하는 모델을 알아볼 것이다. 단순하게 각 입력 데이터 포인트 \(x_0\)마다 학습데이터 포인트들에 커널함수 \(K_{\lambda...

맨 위로 이동 ↑

Weighting based

Weighting based multiple testing cont

10 분 소요

저번 포스팅에 이어 이번에는 wBH절차 하에서 가설의 수가 충분히 많은 경우에 대해 데이터에만 의존하는 FDR의 상한을 유도해보자. 먼저, 확률변수의 수렴에 대해 복습해보자.

Weighting based multiple testing

6 분 소요

다중 검정에서 사전정보를 활용하여 p-value마다 가중치를 부여하여 검정하는 방법을 알아볼 예정이다.

맨 위로 이동 ↑

Likelihood-ratio test

최대 가능도비 검정 2

12 분 소요

모집단의 개수가 3개 이상인 경우의 최대 가능도비 검정과, 이변량 정규분포에서 상관계수에 대한 최대 가능도비 검정을 유도해 볼 것이다.

최대 가능도비 검정 1

8 분 소요

최대가능도비 검정(LRT)은 주어진 데이터가 두 개의 경쟁 가설 중 어느 쪽을 더 지지하는지를 가능도비를 통해 판단하는 가설 검정 방법이다.

맨 위로 이동 ↑

Bayes Classfier

[ESL 리뷰] 교재 2장 figure

2 분 소요

“The Elements of Statistical Learning” 교재 2장의 figure들을 python을 이용하여 작성해보았다.

맨 위로 이동 ↑

과학

맨 위로 이동 ↑

철학

맨 위로 이동 ↑

QR Decomposition

맨 위로 이동 ↑

Forward Stepwise Selection

맨 위로 이동 ↑

Backward Stepwise Selection

맨 위로 이동 ↑

PCA

맨 위로 이동 ↑

PLS

맨 위로 이동 ↑

Continuum Regression

맨 위로 이동 ↑

Dantzig Selector

맨 위로 이동 ↑

Piecewise linear path

맨 위로 이동 ↑

LDA

[ESL 리뷰] 교재 4-1장 LDA

9 분 소요

“The Elements of Statistical Learning” 교재 4장 Linear Methods for Classification 내용을 요약한 것이다. Classification 문제에서는 종속 변수가 이산적인 값을 갖기에 input space에 대한 분리가 항상 가...

맨 위로 이동 ↑

Logistic Regression

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

Seperating Hyperplances

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

SVM

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

Perceptron Learning

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

Lagrange Dual Problem

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

KKT condition

[ESL 리뷰] 교재 4-2장 Logistic Regression, Seperating Hyperplanes

7 분 소요

이전 포스팅에서 분류 문제는posterior를 최대화하는 클래스를 찾는 것임을 알 수 있었다. Linear Regression의 경우 조건부 기댓값을 추정하는데, 종속 변수를 indicator 변수로 변환하면 조건부 기댓값이 posterior가 된다는 것을 이용하여 예측을 진행하였...

맨 위로 이동 ↑

Regression Splines

맨 위로 이동 ↑

Smooting Splines

맨 위로 이동 ↑

RKHS

맨 위로 이동 ↑

Thin Plate Splines

맨 위로 이동 ↑

Tensor Product Splines

맨 위로 이동 ↑

Local Regression

[ESL 리뷰] 교재 6장 Kernel Smoothers

10 분 소요

이번 포스팅에서는 저번과 마찬가지로 \(\mathbb{R}^p\)상에서의 회귀 모델 \(f(X)\)에 대한 유연성을 더해주는 방법으로 커널 함수를 이용하는 모델을 알아볼 것이다. 단순하게 각 입력 데이터 포인트 \(x_0\)마다 학습데이터 포인트들에 커널함수 \(K_{\lambda...

맨 위로 이동 ↑

Cross Validation

[ESL 리뷰] 교재 7장-1 Model Assemssment and Selection

12 분 소요

모델의 성능을 평가하는 것은 어떠한 모델과 파라미터를 선택할지를 나타내어주는 지표이며, 최종적으로 우리가 선택할 모델의 근거가 되므로 굉장히 중요한 과정이다. 이번 포스팅에서는 먼저 편향과 분산의 트레이드 오프 관계를 알아보고, 크게 in-sample error를 통해 predic...

맨 위로 이동 ↑

Bootstrap

[ESL 리뷰] 교재 7장-1 Model Assemssment and Selection

12 분 소요

모델의 성능을 평가하는 것은 어떠한 모델과 파라미터를 선택할지를 나타내어주는 지표이며, 최종적으로 우리가 선택할 모델의 근거가 되므로 굉장히 중요한 과정이다. 이번 포스팅에서는 먼저 편향과 분산의 트레이드 오프 관계를 알아보고, 크게 in-sample error를 통해 predic...

맨 위로 이동 ↑

Grouping based

Grouping based multiple testing

6 분 소요

다중 검정에서 가설들이 교환가능하지 않을 경우, 군집화를 기반으로 이를 해결하는 방법론들을 다뤄볼 것이다. 다음의 내용을 참고하였다.

맨 위로 이동 ↑

Asymptotic analysis

Weighting based multiple testing cont

10 분 소요

저번 포스팅에 이어 이번에는 wBH절차 하에서 가설의 수가 충분히 많은 경우에 대해 데이터에만 의존하는 FDR의 상한을 유도해보자. 먼저, 확률변수의 수렴에 대해 복습해보자.

맨 위로 이동 ↑

Mathematical Analysis

Basic Topology

14 분 소요

루딘의 PMA 2단원을 정리한 내용이다. 열린집합과 닫힌 집합, 컴팩트 집합, 연결집합을 소개하고, 유클리드 공간을 넘어 일반적인 거리공간의 성질을 간략히 다룬다.

맨 위로 이동 ↑

Topology

Basic Topology

14 분 소요

루딘의 PMA 2단원을 정리한 내용이다. 열린집합과 닫힌 집합, 컴팩트 집합, 연결집합을 소개하고, 유클리드 공간을 넘어 일반적인 거리공간의 성질을 간략히 다룬다.

맨 위로 이동 ↑

p-value based

맨 위로 이동 ↑

Martingale

맨 위로 이동 ↑

Stochastic process

맨 위로 이동 ↑

Sufficiency

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑

Complete

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑

UMVUE

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑

Rao-Blackwell

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑

Lehmann-Scheffé

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑

Cramer-Rao Inequality

추정량의 비교 1

9 분 소요

랜덤 표본이 $X_1,…,X_n \sim F_{\theta}, \theta \in \Omega$의 형태로, 즉 모집단의 분포가 모수 $\theta$로 표현될 수 있는 모형에 대해서 모수에 대한 함수로 표현될 수 있는 $\eta = \eta(\theta)$의 추정량에 대한 비교를 다...

맨 위로 이동 ↑