--------------------------- 431

인공 신경망(Artificial Neural Network, ANN)

인공 신경망(ANN) 생물학적 신경망을 모방한 컴퓨팅 시스템 입력층(Input Layer), 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성각 층은 뉴런(Neuron)으로 이루어져 있으며, 가중치(Weight)와 활성화 함수(Activation Function)를 사용해 데이터를 처리 입력층 : 입력 데이터를 받아들이는 층입력  뉴런 수는 입력 데이터의 특징(Feature) 수와 동일은닉층 : 입력 데이터를 처리하고 특징을 추출하는 층뉴런 수와 층 수에 따라 모델 성능이 결정됨출력층 : 최종 예측 값을 출력하는 층뉴런 수는 예측하려는 클래스 개수 또는 회귀 문제의 출력 차원과 동일 동작 방식순전파 (Foward Propagation)입력 데이터 → 각 층의 뉴런 활성화 → 최종..

⊢ DeepLearning 2025.03.19

2025.03.18

행복행복 ! 07:30 취침 13:30 기상오늘도 밤을 새버리고, 늦게 일어났다.새벽 내내 초코 때렸다.머신러닝 다 들었다. 머신러닝 강의를 다 듣고나니까 괜히 놀고싶어서 머리카락 염색한 사람들 보고, 염색에 꽂혀서 염색약 주문도했다.그러다가 아침에 잠와서 잠때림.. 오늘 오빠 쉬는날이었다.구래서 아침에도저녁에도건강 포식했다. 어제 쿠키가 잠을 잘잤는지 오늘따라 컨디션이 최상이다. 이브한테 먼저 스파링을 건다. 샤워요가 다 안했다. 물 반컵마셨다.

2025/미정 2025.03.19

딥러닝 실습 환경 구축

Conda&Jupyter Notebook을 이용한 환경 설정, 가상환경 설치 및 Jupyter Notebook 연결  https://s2bibiprincess.tistory.com/68 Python - Pandas설치 및 Conda, Jupyter Notebook, 가상환경과 kernelPandas 설치pip install pandas   Jupyter Notebook 코드, 텍스트, 이미지 등을 한 곳에서 관리할 수 있는 대화형 컴퓨팅 환경데이터 분석, 머신러닝, 교육 등 다양한 분야에서 사용오픈 소스 웹 애플리케s2bibiprincess.tistory.com PyTorch Facebook에서 개발한 오픈 소스 딥러닝 라이브러리동적 계산 그래프(dynamic computationg graph) 지원 →..

⊢ DeepLearning 2025.03.18

신경망의 기본 원리 - 퍼셉트론과 다층 퍼셉트론

인공신공망의 기본 단위 : 퍼셉트론 단일 퍼셉트론 https://s2bibiprincess.tistory.com/168 Perceptron(퍼셉트론)Perceptron(퍼셉트론)  인공 신경망(Artificial Neural Network, ANN)의 가장 단순한 형태로, 인공 뉴런 모델 중 하나이진 분류 문제를 해결하기 위해 설계된 알고리즘으로, 입력 데이터를 받아 두 개의 클s2bibiprincess.tistory.com  단순 퍼셉트론은 선형 분류만 가능하며, 비선형 문제(XOR 등)는 해결할 수 없음  다층 퍼셉트론(MLP)과 XOR 문제 해결  다층 퍼셉트론(MLP, Multi-Layer Perceptron, MLP) 은닉층이 추가되면서 신경망이 비선형성을 학습할 수 있게 되며, 단순 퍼셉트론으..

⊢ DeepLearning 2025.03.18

Deep Learning

딥러닝(Deep Learning) 인공신경망(Artificial Neural Networks, ANN)을 기반으로 한 기계 학습(Machine Learning)의 한 분야 여러 층(layer)으로 구성된 신경망을 통해 데이터에서 중요한 특징을 자동으로 학습하고, 합습을 바탕으로 예측, 분류, 생성 등의 다양한 작업을 수행기존 머신러닝과 달리 특징 공학(feature engineering)과정이 필요 없이, 데이터로부터 직접 패턴을 학습 비선형 추론 가능 : 다층 구조를 활용해 복잡한 데이터의 패턴 학습 가능자동 특징 추출 : 별도의 특징 엔지니어링 없이도 데이터에서 유의미한 특징을 찾아낼 수 있음대용량 데이터 학습 : GPU연산을 활용하여 대량의 데이터를 빠르게 처리하고 학습 가능다양한 응용 가능 : 이..

⊢ DeepLearning 2025.03.18

앙상블 학습 - XGBoost(eXtreme Gradient Boosting)

XGBoost (eXtreme Gradient Boosting) 그래디언트 부스팅(Gradient Boosting) 알고리즘을 기반으로 한 고성능 앙상블 학습 기법 빠른 학습 속도, 높은 예측 성능, 과적합 방지 기능 등을 제공병렬 처리, 조기 종료(Early Stopping), L1 & L2 정규화 등의 기능을 지원효율성, 유연성, 이식성을 목표로 설계됨캐글(Kaggle) 등 머신러닝 경진대회에서 널리사용됨  동작 원리초기 모델 학습첫 번째 결정 트리를 학습하여 기본 모델을 생성잔여 오차(Residual) 계산초기 모델의 예측값과 실제값 간의 차이(오차)를 계산잔여 오차를 예측하는 새로운 트리 학습이전 모델이 학습하지 못한 부분(잔여 오차)을 보완하는 트리를 추가모델 업데이트기존 모델에 새롭게 학습된 ..

⊢MachineLearning 2025.03.18

앙상블 학습 - 그래디언트 부스팅 머신(Gradient Boosting Machine, GBM)

그래디언트 부스팅 머신(Gradient Boosting Machine, GBM) 여러 개의 약한 학습기(weak learner)를 순차적으로 학습시키고, 그 예측 결과를 결합하여 강한 학습기(strong learner)를 만드는 앙상블 학습 기법 중 하나 이전 모델이 잘못 예측한 데이터 포인트에 가중치를 부여하여, 다음 모델이 이를 더 잘 학습하도록 함 (각 단계에서 잔여 오차를 줄이도록 설계되어 있음)GBM은 과적합을 방지하면서도 높은 예측 성능을 제공하는 강력한 알고리즘다양한 하이퍼파라미터 튜닝을 통해 성능 최적화 가능 GBM의 구조여러 개의 결정 트리(Desicion Tree)로 구성됨각 결정 트리는 이전 트리의 예측 오류를 보완하는 방식으로 학습최종 예측 값은 개별 트리의 예측을 가중합하여 계산 ..

⊢MachineLearning 2025.03.18

앙상블 학습 : 랜덤 포레스트(Random Forest)

랜덤 포레스트(Random Forest) 배깅(Bagging) 기법을 기반으로 한 앙상블 학습 모델 여러 개의 결정 트리(Decision Tree)를 학습시킨 후, 각 트리의 예측 결과를 결합하여 최종 예측 수행개별 트리들이 독립적으로 학습되므로 과적합 방지, 일반화 성능 향상 가능  랜덤 포레스트의 구조여러 개의 결정 트리로 구성됨각 결정 트리는 원본 데이터에서 부트스트랩 샘플링(Bootstrap Sampling)된 데이터로 학습됨예측 시, 회귀 문제에서는 평균값, 분류 문제에서는 다수결 투표 방식을 사용 랜덤 포레스트의 원리부트스트랩 샘플링: 원본 데이터에서 중복을 허용하여 무작위 샘플 생성결정 트리 학습: 각 부트스트랩 샘플을 사용하여 결정 트리를 학습각 노드에서 무작위로 선택된 특성의 일부만 사용..

⊢MachineLearning 2025.03.18

2025.03.17

행복하다.03:30 취침 06:00 기상잠을 잘 못잤다.조금 잤나 싶었는데 시계를 보니까 네시였다.또 눈뜨니까 다섯시였다. 계속 뒤척이다가 여섯시가 됐다.아주 피곤할 때 아니면 잠을 못자게 됐다.누군가가 사료토를 했다.쿠키인지 이브인지 모르겠다.나도 모르는 새에 마른 토를 했다.아침에 토를 했는데, 쿠키도 이브도 응아도 잘하고 물도 잘마시고 쉬야도 잘하고 잘 뛰어놀고 밥빠도 잘 먹어서 누가 토했는지 알 수가 없다.머신러닝 강의 밀려있어서 조사줬다.내일이면 딥러닝으로 들어갈 수 있을 것 같다.얼른하고 AI 활용강의랑 LLM, DRF도 후딱 끝내버리고 싶다.저녁에 오빠야가 쪽갈비를 통으로 사와서는 연육하고 시즈닝해서 에어프라이어로 요리해줬다.샤워도요가도안했다. 물 한컵 마셨다. 오빠야는 슈퍼맨같다. 영원했으..

2025/미정 2025.03.18

앙상블 학습 : 배깅(Bagging)과 부스팅(Boosting)

앙상블 학습(Ensemble Learning) 여러 개의 개별 학습 모델을 조합하여 단일 모델보다 더 높은 예측 성능을 얻는 기법 개별 모델의 예측을 평균 또는 다수결 방식으로 결합하여 일반화 성능을 향상주요 기법 : 배깅(Bagging)과 부스팅(Boosting)  배깅(Bagging: Bootstrap Aggregating) 여러 개의 모델을 병렬로 학습하여 예측을 평균 또는 다수결로 결합하는 방식 원본 데이터셋에서 중복을 허용한 샘플링(부트스트래핑, Bootstrap)기법을 사용하여 다수의 학습 데이터를 생성각 모델이 서로 다른 샘플을 학습하여 모델 간 상관성을 줄임 과적합 방지 : 다수의 모델을 결합함으로써 개별 모델의 과적합을 줄일 수 있음안정성 향상 : 데이터 변동에 대한 민감도가 낮아짐병렬 ..

⊢MachineLearning 2025.03.17
728x90