※ neighbors
■ KNeighborsClassifier
□ 라이브러리 호출
> from sklearn.neighbors import KNeighborsClassifier as KNN
□ K-Nearest Neighbor
- parameter
- n_neighbors: 가장 가까운 이웃의 수 지정 (default = 5)
- weights: 이웃의 가중치 지정 (default = ‘uniform)
- ‘uniform’ : 모든 이웃에게 동일한 가중치
- ‘distance’ : 가까운 이웃일수록 높은 가중치
- p: 거리 계산 방법 (default = 2)
# 기본 구조
# 인스턴스화
> KNN_model = KNN(n_neighbors = 5, ...)
# 모델 학습
> KNN_model.fit(X_train, y_train)
# 예측
> y_pred = KNN_model.predict(X_test)
# e.g.
> KNN_model = KNN(n_neighbors = 11) # 인스턴스화
> fit(X_train, y_train) # 모델 학습
> pred_Y = KNN_model.predict(x_test) # 예측
# 모형평가
> from sklearn.metrics import *
# 정확도
> accuracy_score(y_test, y_pred) # 0.93...
# 재현율
> recall_score(y_test, y_pred) # 0.74...
■ KNeighborRegressor
□ 라이브러리 호출
> from sklearn.neighbors import KNeighborsRegressor as KNN
# 기본 구조
# 인스턴스화
> KNN_model = KNN(n_neighbors = 5, ...)
# 모델 학습
> KNN_model.fit(X_train, y_train)
# 예측
> y_pred = KNN_model.predict(X_test)
# e.g.
> KNN_model = KNN(n_neighbors = 11) # 인스턴스화
> fit(X_train, y_train) # 모델 학습
> y_pred = KNN_model.predict(X_test) # 예측
# 모형평가
> from sklearn.metrics import mean_squared_error
> print(mean_squared_error(y_test, y_pred))
댓글남기기