뭐라도 끄적이는 BLOG

Lec 04 Multivariable linear regression 본문

AI/모두를 위한 머신러닝

Lec 04 Multivariable linear regression

Drawhale 2021. 4. 25. 05:27

Recap

우리의 가설이 무엇인지 기억해야 합니다. 가설이 정해졌을때 Cost function이 어떻게 계산하는지 생각해 봐야합니다. cost function이 나오면 이것을 최소화하기 위한 알고리즘을 생각해 봐야 할 것입니다.

Multi-variable feature

이전의 경우에는 1개의 입력 변수를 사용하는 Regression이였습니다. 하지만 수많은 Linear한 현상들 중에서 1개의 변수에 따라 결과가 달라지는 것 보다 여러개의 변수의 영향에 의해 결과가 달라지는 현상이 더 많습니다.

예를들어 2번의 퀴즈와 1번의 중간고사 총 3개의 점수들을 통해 기말고사의 성적을 예측하는 문제는 3개의 입력 변수를 가지는 Linear Regression입니다. 이렇듯 여러개의 변수를 갖는 Linear Regression을 Multi-Variable Linear Regression이라고 말합니다.

Multi-Variable Linear Regression의 기본적 개념은 일반 Linear Regression과 같습니다. 하지만 한가지 주의해야 한점으로 여러개의 변수를 갖기 때문에 각각의 변수마다 서로다른 W값을 가져야 한다는 점입니다.

Hypothesis

해당 공식의 Multi-Variable Linear Regression의 Hypothesis입니다. 물론 Hypothesis를 Cost Function에 대입하는 것도 같습니다.

Cost function

Multi-Variable Linear Regression의 Cost Function은 위와 같은 형태의 공식임을 확인 할 수 있습니다. 적은 입력 변수는 이것만으로 충분히 계산이 가능하지만 학습을 위해 Training Data Set이 많을 경우 일일이 모두 적는것은 어렵습니다. 그렇기 때문에 Matrix를 이용하게 됩니다.

Hypothesis using matrix

※Matrix를 사용하면 계산을 위해 X를 앞에 쓰게됩니다.

※ Matrix를 쓸때 일반변수 하나와 구분하기 위해 대문자를 이용하여 표기합니다.

최종적으로 입력 변수가 많은 경우 X의 Matrix만 늘려주기만 하면 됩니다. 전체를 긴 Matrix에 넣고 설정된 w를 이용해서 계산만 하변 됩니다..

X 의행은 data 샘플의 숫자 이며 열은 값의 갯수입니다.

X와 H(x)를 이용하여 쉽게 W Matrix의 갯수를 결정할 수 있습니다.

n은 numpy에서는 -1로 표시하기도 한다.

아래처럼 theory의 경우와 구현에서의 경우 수식이 조금 달라질수 있음에 유의합시다.


 

 

모두를 위한 머신러닝/딥러닝 강의

 

hunkim.github.io

 

반응형