최대 1 분 소요

※ neighbors


■ KNeighborsClassifier

  • K-Nearest Neighbor 방법


□ 라이브러리 호출

> from sklearn.neighbors import KNeighborsClassifier as KNN


□ K-Nearest Neighbor

  • parameter
    • n_neighbors: 가장 가까운 이웃의 수 지정 (default = 5)
    • weights: 이웃의 가중치 지정 (default = ‘uniform)
      • ‘uniform’ : 모든 이웃에게 동일한 가중치
      • ‘distance’ : 가까운 이웃일수록 높은 가중치
    • p: 거리 계산 방법 (default = 2)
      • 1: 맨하탄 거리
      • 2: 유클리드 거리


# 기본 구조
# 인스턴스화
> KNN_model = KNN(n_neighbors = 5, ...)

# 모델 학습
> KNN_model.fit(X_train, y_train)

# 예측
> y_pred = KNN_model.predict(X_test)


# e.g.
> KNN_model = KNN(n_neighbors = 11) # 인스턴스화
> fit(X_train, y_train) # 모델 학습
> pred_Y = KNN_model.predict(x_test) # 예측


# 모형평가
> from sklearn.metrics import *
# 정확도
> accuracy_score(y_test, y_pred) # 0.93...

# 재현율
> recall_score(y_test, y_pred) # 0.74...


■ KNeighborRegressor


□ 라이브러리 호출

> from sklearn.neighbors import KNeighborsRegressor as KNN
# 기본 구조
# 인스턴스화
> KNN_model = KNN(n_neighbors = 5, ...)

# 모델 학습
> KNN_model.fit(X_train, y_train)

# 예측
> y_pred = KNN_model.predict(X_test)


# e.g.
> KNN_model = KNN(n_neighbors = 11) # 인스턴스화
> fit(X_train, y_train) # 모델 학습
> y_pred = KNN_model.predict(X_test) # 예측

# 모형평가
> from sklearn.metrics import mean_squared_error
> print(mean_squared_error(y_test, y_pred))

댓글남기기