본문 바로가기
  • 기억의 유한함을 기록의 무한함으로✍️            예비 개발자가 꿈꾸는 공간 여기는 안나의 개발 블로그 💻
Programming/Deep Learning

[모두를 위한 딥러닝] Linear Regression

by 제가안난데여♪(´ε`*) 2022. 4. 7.
728x90

 

❓ Regression

  • 데이터 변수들간의 함수 관계를 파악하여 통계적으로 추론하여 결과를 도출하는 기술이다.

❓ Hypothesis

  • 위는 Regression 데이터를 가지고 좌표를 찍은 모습이다.
  • Regression 모델을 학습하기 전에 하나의 가설을 세울 필요가 있다.
  • 우리가 예측할 무언가의 실제 데이터 결과가 어떤지는 모르겠으나 아래 사진의 1차원 방정식의 그래프 형태인 모델이 우리의 가설에 맞아 떨어질 것이다. 즉, 우리 가설의 결과가 1차원 방정식 그래프 형태인 모습일 것이다. 
  • 가설은 H(x)로 나타내고 H(x) = Wx+b 형태의 방정식이다.  W(weight), b(bias)
  • 우리의 목표는 실제 데이터 값들과 가장 유사하게 H(x)를 그려주는 W와 b를 값을 찾는 것이다. (W와 b 값은 여러개로 존재할 수 있다.)

 

 

W와 b에 따라서 그래프의 모양이 달라진다.

❓ Cost (비용)

  • Cost는 가설이 나타내는 1차원 방정식 그래프와 실제 데이터와의 거리이다.
  • 거리를 측정했을 때 거리가 짧은 것이 모델이 예측한 값(가설)과 실제 데이터 값이 유사하다는 의미이므로 cost의 값이 작을 수록 좋다.

파란색 실선 : H(x), x : 실제 데이터

❓ Cost  function

  • 가설을 나타내는 선과 실제 데이터와의 거리를 측정하여 차이들의 평균을 구하는 function 이다.
  • H(x) -y (H(x)는 가설이 예측한 값이고 y는 실제 데이터를 의미한다)
  • 하지만 가설과 실제 데이터의 차이를 측정하는 식은 H(x)-y가 아닌  $\left (  H\left ( x \right )-y\right )^{2}$ 식을 사용한다.
  • cost function을 제곱하는 이유
    • 예측한 값(가설)과 실제 데이터의 차이가 양수 혹은 음수로 나오게 되는데 편차로 구하기 위해서 제곱을 함.
    • 예측한 값과 실제 데이터 값의 차이를 제곱하게 되면 차이가 큰 부분은 더 크게 차이가 나게 되므로 극명하게 비교, 확인 할 수 있음.

Cost Function

  • H(x)는 W,b로 이루어진 식이니 cost 는 W와 b의 function이 된다.
  • m은 학습 데이터의 갯수를 의미한다. 
  • cost가 이러한 식을 가질 때 가장 작은 cost 값을 가지는 W와 b의 값을 찾는 것이 Linear Regression 의 학습니다.

 

 

반응형