Linear Regression (2)
Linear Regression - Using Substituted InputPermalink
이전 게시글에서는 주어진 변수들을 그대로 사용하여 회귀분석하는 다양한 방법을 다루었다. 이번 포스팅에서는 주어진 변수들을 기반으로 새로운 변수들을 만들어 회귀분석을 진행하는 방법을 다루어보도록 한다.
주성분회귀Principal Components RegressionPermalink
주성분(Principal Components)의 본래 의미는 Input Matrix
m번째 주성분에 해당하는 고유벡터를
이때 각 주성분들은 서로 직교하므로, 회귀계수
으로 구할 수 있다. 또한, 앞서 언급한 것과 같이 각 주성분들은
위와 같은 회귀계수의 표현이 가능하다.
Partial Least SquaresPermalink
PLS는 주성분회귀와 비슷하게 주어진 변수들의 선형결합을 바탕으로 회귀모형을 구성한다. 그러나 주성분회귀와는 다르게, PLS에서는 변수들의 선형결합을 설정하는 과정에서 종속변수
PLS Algorithm
- 각 변수
를 표쥰화하고 , 으로 설정한다. 에 대해
a)
b)
c)
d): 각 을 에 대해 직교화함. 번째까지의 위 2번의 과정들을 거치면, 식 꼴의 선형 관계식을 얻을 수 있다.
종속변수가 단일변수가 아닌 경우(Multiple Outcome) - CCAPermalink
이전 게시글부터 살펴본 회귀모형의 축소, 변수 선택 문제를 이번에는 종속변수가 다중변수인 경우로 확장해보자. 즉, 종속변수
만일 이전에 살펴본 릿지 회귀를 이용해 주어진 회귀모형을 규제하려면 어떻게 해야할까? 이 문제는 하이퍼파라미터
종속변수
CCA는 PCA(Principal component analysis)와 마찬가지로 서로 무관한(직교하는)
ReferencesPermalink
- Hastie, T., Tibshirani, R., Friedman, J. H., & Friedman, J. H. (2009). The elements of statistical learning: data mining, inference, and prediction (Vol. 2, pp. 1-758). New York: springer.
Leave a comment