딥러닝이란 자그마한 통계의 결과들이 무수히 얽히고 설켜 이루어지는 복잡한 연산이 결정체입니다.
이 딥러닝을 이해하려면 딥러닝의 가장 말단에서 이루어지는 가장 기본적인 두 가지 계산 원리를 알아야하는데, 이 계산 원리가 선형 회귀와 로지스틱 회귀입니다.
<aside> 💡 가장 훌륭한 예측선 긋기: 통계학 용어인 선형회귀와 유사 → 선의 방향에 따라 미래의 결과를 예측할 수 있음
</aside>
딥러닝에서 정보는 예측 결과를 타당하게 설명할 수 있으며 그 차이와 이유를 나타낼 때 더욱 효과적입니다.
딥러닝에서 정보, 특히 데이터의 중요성은 매우 큽니다. 데이터는 딥러닝 모델이 학습하고 예측하는 데 필요한 기반을 제공합니다. 양질의 데이터는 모델의 성능을 향상시키며, 데이터를 어떻게 처리하고 사용하느냐에 따라 모델의 정확성과 효율성이 달라집니다.
<aside> 💡 모델 학습 : [ 독립 변수 → 종속 변수 ] 예측 모델 평가 : 학습되지 않은 데이터 ⇒ 일반화 성능 측정
</aside>
선형 회귀는 한 개 이상의 독립변수와 종속변수 간의 관계를 선형적으로 모델링하는 통계 기법입니다. 목표는 주어진 독립변수에 대해 종속변수를 예측하는 것입니다.
선형 회귀란 독립 변수를 사용해 종속 변수의 움직임을 예측하고 설명하는 작업을 말한다.
항목 | 설명 |
---|---|
독립변수 | 입력 변수로서, 종속변수에 영향을 미치는 변수들 |
종속변수 | 출력 변수로서, 독립변수에 의해 영향을 받는 변수 |
항목 | 단순 선형 회귀 | 다중 선형 회귀 |
---|---|---|
정의 | 하나의 독립변수와 하나의 종속변수 간의 선형 관계 | 여러 개의 독립변수와 하나의 종속변수 간의 선형 관계 |
모델 형태 | y=mx+b | y=b0+b1x1+b2x2+⋯+bnxn |
독립변수 개수 | 1 | 2개 이상 |