19. ch04. sklearn - 분류 - 06. stochastic gradient descent - 22. ch04. sklearn - 분류 - 09. 서포트 벡터 머신 (SVM)
19. ch04. sklearn - 분류 - 06. stochastic gradient descent
stochastic gradient descent (SGD): 확률적 경사 하강법
from sklearn.linear_model import SGDClassifier
step 1: 모델 선언
sgd = SGDClassifier()
step 2: 모델 학습
sgd.fit(x_train, y_train)
step 3: 예측
prediction = sgd.predict(x_valid)
(prediction == y_valid).mean()
20. ch04. sklearn - 분류 - 07. 하이퍼 파라미터(hyper-)
하이퍼 파라미터 (hyper-parameter) 튜닝
외울 필요 없음.
random_state: 하이퍼 파라미터 튜닝시, 고정할 것
n_jobs=-1: CPU를 모두 사용 (학습속도가 빠름)
가설을 통해 학습, 검증
sgd = SGDClassifier(penalty='elasticnet', random_state=(), n_jobs=-1)
sgd.fit(x_train, y_train)
prediction = sgd.predict(x_valid)
(prediction == y_valid).mean()
21. ch04. sklearn - 분류 - 08. KNeighborsClassifier(최근접)
KNeighborsClassifier
최근접 이웃 알고리즘
from sklearn.neighbors import KNeighborsClassifier
knc = KNeighborsClassifier()
knc.fit(x_train, y_train)
knc_pred = knc.predict(x_valid)
(knc_pred == y_valid).mean()
knc = KNeighborsClassifier(n_neighbors=9)
knc.fit(x_train, y_train)
knc_pred = knc.predict(x_valid)
(knc_pred == y_valid).mean()
22. ch04. sklearn - 분류 - 09. 서포트 벡터 머신 (SVM)
서포트 벡터 머신 (SVC)
LogisticRegression과 같이 이진 분류만 가능합니다. (2개의 클래스 판별만 가능합니다.)
OvsR 전략 사용
from sklearn.svm import SVC
svc = SVC()
svc.fit(x_train, y_train)
svc_pred = svc.predict(x_valid)
svc
(svc_pred == y_valid).mean()
svc_pred[:5]
각 클래스 별 확률값을 return 해주는 decision_function()
svc.decision_function(x_valid)[:5]
패스트캠퍼스 데이터분석 강의 링크
bit.ly/3imy2uN