본문 바로가기

분류 전체보기133

[MachineLearning] 선형회귀 선형모델 입력특성(데이터, 문제)을 설명할 수 있는 선형함수를 구하는 것 선형함수 기본식 문제가 1개일 때 : y= wx + b 문제가 p개일 때 : y = w1x1 + w2x2 + .... + wpxp + b w : 가중치 - 각 문제마다 다른 가중치 적용, b : 편향 입력 데이터를 완벽하게 설명하는 것은 불가능 ==> 오차가 가장 작은 선형함수를 찾아야함 오차가 가장 작은 선형함수를 찾는다는 것은? 평균제곱오차(MSE)가 가장 작은 선형함수를 찾는다. 평균제곱오차(MSE)가 가장 작은 선형함수 ==> 최적의 선형함수 평균제곱오차가 가장 작은 선형함수를 찾는 방법 수학 공식을 이용한 해석적 방법(공식으로 해결) 장점: 적은 계산으로 구함 --> 한번에 최적의 선형함수를 찾음 단점: 공식이 완벽하지 않.. 2023. 9. 15.
[MachineLearning] Ensemble 모델을 활용한 유방암 분류 실습 1. 유방암 데이터를 활용하여 Ensemble 모델을 학습해보자 wisconsin의 유방암 데이터 셋 총 569건의 데이터(악성-212, 양성-357) In [1]: # 데이서 셋 불러오기 from sklearn.datasets import load_breast_cancer cancer_data = load_breast_cancer() cancer_data # 데이터 형태: 전체적인 형태 - 딕셔너리 구조, bunch 객체 Out[1]: {'data': array([[1.799e+01, 1.038e+01, 1.228e+02, ..., 2.654e-01, 4.601e-01, 1.189e-01], [2.057e+01, 1.777e+01, 1.329e+02, ..., 1.860e-01, 2.750e-01, 8.. 2023. 9. 14.
[MachineLearning] 앙상블 기법, 배깅 vs 보팅, 타이타닉 실습 앙상블 모델을 사용하는 이유 단일 모델에 비해 높은 성능과 신뢰성을 얻을 수 있음 데이터의 양이 적은 것 대비 충분한 학습 효과를 거둘 수 있음 보팅(Voting) : 여러 개의 다른 모델이 예측한 결과를 투표 혹은 평균을 통해 최종 예측 결과를 선정 하드 보팅(Hard Voting): 다수결 소프트 보팅(Soft Voting): 각 확률의 평균 배깅(Bagging) : 여러 개의 같은 종류의 모델이 예측한 결과를 투표 혹은 평균을 통해 최종 예측 결과를 선정 예: 랜덤포레스트 보팅 vs 배깅 공통점: 여러 개의 모델이 투표 또는 평균을 통해 최종 예측 결과를 결정 차이점 보팅 > 서로 다른 모델을 결합 배깅 > 같은 종류의 모델을 결합 데이터샘플링을 다르게, 중첩 허용 -> Bootstrap 분할 방식.. 2023. 9. 13.
2023.9.13 운동기록 상쾌한 아침🌿 카페인은 선택이 아닌 필수☕️ 2023. 9. 13.