| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
- Class
- 티스토리챌린지
- C++
- 백준
- 오블완
- Object Oriented Programming
- predictive analysis
- 파이썬
- 배열
- 문자열
- 포인터
- pass by reference
- Python
- string
- Pre-processing
- pointer
- OOP
- programming
- 함수
- Data Science
- raw data
- baekjoon
- const
- 알고리즘
- 반복문
- assignment operator
- function
- vscode
- Deep Learning
- array
- Today
- Total
목록2024/06/12 (2)
Channi Studies
이번 포스트에서는 선형 회귀 모델을 적용하기 위한 몇가지의 핵심 가정들을 알아보겠습니다.이 가정들이 사실이 아니라면, 최소제곱법을 적용하여 모델을 디자인 했을 때 무의미하고 부정확한 결과값이 도출될 것이므로 이 점들을 유의하는게 좋겠습니다. 1. Linearity (선형성)이름부터가 선형 회귀잖아요? 각 독립 변수는 고유한 계수가 곱해지고, 이를 다 합해서 종속변수를 도출합니다. 선형성을 판단하는 쉬운 방법은 무엇일까요? 독립 변수 중 하나(x1)를 뽑아서 종속 변수(y)에 대해서 scatter plot을 그려보세요. 그럼 얼추 방향성이 보일텐데, 이게 일차함수면 선형성이 있는 것이고, 곡선이 보이면 선형성이 부족한 데이터겠죠?그리고 그런 경우에는 선형 회귀가 아닌 다른 방법을 통해서 예측 모델을 디자..
지난 포스트에서는 R-squared, 결정 계수에 대해서 알아보았습니다.이는 우리의 회귀 모델이 실제 데이터의 분산을 얼마나 잘 설명하는지를 나타낸 값으로, SST/SSR 이였습니다. Linear Regression (선형 회귀) - 6 | R-Squared (결정 계수)지난 포스트에서는 OLS, 최소 제곱법에 대해서 간단하게 알아보았습니다. Linear Regression (선형 회귀) - 5 | Ordinary Least Squares (최소제곱법)저번 포스트에서는 SST, SSR, SSE의 관계에 대해서 알아보았습code-studies.tistory.com 이번 포스트에서는 수정된 결정계수, Adjusted R Squared에 대해서 알아보겠습니다.우리가 자주 보던 이 Regerssion summa..