Bagging 2

앙상블 학습 : 랜덤 포레스트(Random Forest)

랜덤 포레스트(Random Forest) 배깅(Bagging) 기법을 기반으로 한 앙상블 학습 모델 여러 개의 결정 트리(Decision Tree)를 학습시킨 후, 각 트리의 예측 결과를 결합하여 최종 예측 수행개별 트리들이 독립적으로 학습되므로 과적합 방지, 일반화 성능 향상 가능  랜덤 포레스트의 구조여러 개의 결정 트리로 구성됨각 결정 트리는 원본 데이터에서 부트스트랩 샘플링(Bootstrap Sampling)된 데이터로 학습됨예측 시, 회귀 문제에서는 평균값, 분류 문제에서는 다수결 투표 방식을 사용 랜덤 포레스트의 원리부트스트랩 샘플링: 원본 데이터에서 중복을 허용하여 무작위 샘플 생성결정 트리 학습: 각 부트스트랩 샘플을 사용하여 결정 트리를 학습각 노드에서 무작위로 선택된 특성의 일부만 사용..

⊢MachineLearning 2025.03.18

앙상블 학습 : 배깅(Bagging)과 부스팅(Boosting)

앙상블 학습(Ensemble Learning) 여러 개의 개별 학습 모델을 조합하여 단일 모델보다 더 높은 예측 성능을 얻는 기법 개별 모델의 예측을 평균 또는 다수결 방식으로 결합하여 일반화 성능을 향상주요 기법 : 배깅(Bagging)과 부스팅(Boosting)  배깅(Bagging: Bootstrap Aggregating) 여러 개의 모델을 병렬로 학습하여 예측을 평균 또는 다수결로 결합하는 방식 원본 데이터셋에서 중복을 허용한 샘플링(부트스트래핑, Bootstrap)기법을 사용하여 다수의 학습 데이터를 생성각 모델이 서로 다른 샘플을 학습하여 모델 간 상관성을 줄임 과적합 방지 : 다수의 모델을 결합함으로써 개별 모델의 과적합을 줄일 수 있음안정성 향상 : 데이터 변동에 대한 민감도가 낮아짐병렬 ..

⊢MachineLearning 2025.03.17
728x90