분류 전체보기 (75) 썸네일형 리스트형 [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 35회차 미션 36. ch05. sklearn - 회귀 - 08. 라쏘 (Lasso) - 38. ch05. sklearn - 회귀 - 10. Scaler 적용 (StandardScaler) 36. ch05. sklearn - 회귀 - 08. 라쏘 (Lasso) from sklearn.linear_model import Lasso # 값이 커질 수록 큰 규제입니다. alphas = [100, 10, 1, 0.1, 0.01, 0.001, 0.0001] for alpha in alphas: lasso = Lasso(alpha=alpha) lasso.fit(x_train, y_train) pred = lasso.predict(x_test) mse_eval('Lasso(alpha={})'.format(alpha), pred, .. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 34회차 미션 31. ch05. sklearn - 회귀 - 03. 회귀 평가지표(MSE, MAE, RMSE) - 34. ch05. sklearn - 회귀 - 06. 규제에 대한 이해 (I1, I2 규제) 31. ch05. sklearn - 회귀 - 03. 회귀 평가지표(MSE, MAE, RMSE) MSE(Mean Squared Error) 예측값과 실제값의 차이에 대한 제곱에 대하여 평균을 낸 값 오차 제곱의 평균. MAE보다 크다. MAE (Mean Absolute Error) 예측값과 실제값의 차이에 대한 절대값에 대하여 평균을 낸 값 오차에 대한 절대값. MSE보다 크겠구나 RMSE (Root Mean Squared Error) 예측값과 실제값의 차이에 대한 제곱에 대하여 평균을 낸 뒤 루트를 씌운 값 제곱을 하.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 33회차 미션 27. ch04. sklearn - 분류 - 14. 정밀도(precision)와 재현율(recall) - 30. ch05. sklearn - 회귀 - 02. 보스턴 주택 가격예측 데이터셋 27. ch04. sklearn - 분류 - 14. 정밀도(precision)와 재현율(recall) from sklearn.metrics import precision_score, recall_score 정밀도 (precision) 양성 예측 정확도 TP / (TP + FP) precision_score(y_test, pred) 무조건 양성으로 판단하면 좋은 정밀도를 얻기 때문에 유용하지 않습니다. 재현율 (recall) TP / (TP + FN) 양성 샘플의 비율 recall_score(y_test, pred) 28.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 32회차 미션 23. ch04. sklearn - 분류 - 10. 결정 트리(Decision Tree) - 26. ch04. sklearn - 분류 - 13. 오차행렬(confusion matrix) 23. ch04. sklearn - 분류 - 10. 결정 트리(Decision Tree) from sklearn.tree import DecisionTreeClassifier dtc = DecisionTreeClassifier() dtc.fit(x_train, y_train) dtc_pred = dtc.predict(x_valid) (dtc_pred == y_valid).mean() 24. ch04. sklearn - 분류 - 11. graph_viz로 시각화 해보기 from sklearn.tree import expor.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 31회차 미션 19. ch04. sklearn - 분류 - 06. stochastic gradient descent - 22. ch04. sklearn - 분류 - 09. 서포트 벡터 머신 (SVM) 19. ch04. sklearn - 분류 - 06. stochastic gradient descent stochastic gradient descent (SGD): 확률적 경사 하강법 from sklearn.linear_model import SGDClassifier step 1: 모델 선언 sgd = SGDClassifier() step 2: 모델 학습 sgd.fit(x_train, y_train) step 3: 예측 prediction = sgd.predict(x_valid) (prediction == y_valid).. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 30회차 미션 16. ch04. sklearn - 분류 - 03. 데이터의 불균형(imbalance) - 18. ch04. sklearn - 분류 - 05. 모델 선언, 학습(fit), 예측(predict) 16. ch04. sklearn - 분류 - 03. 데이터의 불균형(imbalance) from sklearn.model_selection import train_test_split x_train, x_valid, y_train, y_valid = train_test_split(df_iris.drop('target', 1), df_iris['tagret']) x_train.shape, y_train.shape x_valid.shape, y_valid.shape sns.countplot(y_train) stratif.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 29회차 미션 13. ch03. sklearn - 전처리 기본 - 07. Standardization (표준화) - 15. ch04. sklearn - 분류 - 02. dataset으로부터 데이터프레임 13. ch03. sklearn - 전처리 기본 - 07. Standardization (표준화) 표준화 (Standard Scaling) from sklearn.preprocessing import StandardScaler standard_scaler = StandardScaler() x = np.arange(10) # outlier 추가 x[9] = 1000 x.mean(), x.std() 평균, 표준편차 scaled = standard_scaler.fit_transform(x.reshape(-1, 1)) x.me.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 28회차 미션 09. ch03. sklearn - 전처리 기본 - 03. 빈값 처리(Imputer) - 12. ch03. sklearn - 전처리 기본 - 06. Normalization(정규화) 09. ch03. sklearn - 전처리 기본 - 03. 빈값 처리(Imputer) 전처리: 결측치 결측치를 확인하는 방법은 pandas의 isnull() 그리고 합계를 구하는 sum() train.isnull().sum() 개별 column 결측치 train['Age'].isnull().sum() 1. 수치형 (Numerical Column) 데이터에 대한 결측치 처리 train['Age'].fillna(0).describe() train['Age'].fillna(train['Age'].mean()).describe() .. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 27회차 미션 05. ch02. sklearn의 개요 - 03. 학습데이터와 예측데이터 - 08. ch03. sklearn의 개요 - 02. train_test_split으로 학습 05. ch02. sklearn의 개요 - 03. 학습데이터와 예측데이터 06. ch02. sklearn의 개요 - 04. 검증데이터(Validation) Training set-> training set 학습을 위한 데이터 80% / validation set 검증을 위한 데이터 20% train data로 학습 validation data로 모니터 학습할 때 validation set 관여되면 안됨.(섞이면 X) 07. ch03. sklearn의 개요 - 01. sklearn의 전처리 기능 전처리 데이터 분석에 적합하게 데이터를 가공/변.. [패스트캠퍼스 수강 후기] 데이터분석 인강 100% 환급 챌린지 26회차 미션 01. ch01. 머신러닝의 개요 - 01. 머신러닝의 개요 - 04. ch02. sklearn의 개요 - 02. 학습(fit), 예측(predict) 실습 02. ch01. 머신러닝의 개요 - 02. 가설 함수, 비용, 손실 함수 가설 함수 H(x) = W * X + b H(x) = Y Predict 손실 = Y Predict - 손실함수 = W * X + b - Y 손실함수 = W * X + b – Y = 2X + 1 - Y 손실함수 (Loss Function) = W * X + b – Y = (W * X + b – Y)2 의 전체 합 = ∑(W * X + b – Y) 2 데이터의 개수가 많아지면 손실이 커지므로 전체 손실의 평균을 구합니다 ∑(W * X + b – Y) 2 / N(데이터 개수) 03.. 이전 1 2 3 4 5 6 7 8 다음