2025/03/22 7

PyTorch 문법 정리

모델 구축 및 학습 (Model Building & Training) 신경망 기본 구조torch.nn.Module: 모든 신경망 모델의 기본 클래스import torch.nn as nnclass MyModel(nn.Module): def __init__(self): super().__init__() self.layer = nn.Linear(10, 20) def forward(self, x): return self.layer(x) 손실 함수 (Loss Function)분류CrossEntropyLossloss = nn.CrossEntropyLoss()회귀MSELossloss = nn.MSELoss()  최적화 알고리즘 (Optimizers)optimizer =..

⊢ DeepLearning 2025.03.22

모델평가와 검증

교차검증 (Cross-Validation) 데이터를 반복적으로 나누어 모델의 일반화 성능을 평가하는 기법과적합을 방지하고 새로운 데이터에 대한 예측 능력을 검증 가능 과적합 방지: 모델이 특정 데이터셋에 의존하는 것을 막음일반화 성능 측정: 새 데이터에 대한 예측 능력 평가데이터 효율성: 적은 데이터로도 학습과 평가가 가능*과적합(Overfitting): 학습 데이터에는 성능이 좋지만, 새로운 데이터에는 성능이 낮은 경우   K-Fold 교차검증전체 데이터를 K개의 폴드(fold)로 나눔각 Fold가 한번씩 검증용으로 사용되고 나머지는 학습용으로 사용총 K번 학습 및 평가를 수행 후, 그 평균을 최종 성능으로 평가 K-Fold 교차검증의 평균 정확도 𝔄 = (A₁ + A₂ + … + Aₖ) / K 𝔄..

⊢ DeepLearning 2025.03.22

하이퍼파라미터 튜닝

하이퍼파라미터(Hyperparameter) 모델 학습 이전에 사용자가 직접 설정해야 하는 값모델 구조나 학습 과정에 관여하여 모델 성능에 직접적인 영향을 미치는 요소로, 적절한 값의 설정이 중요 *파라미터(Parameter)학습을 통해 자동결정되는 값예: 가중치, 편향 등  주요 하이퍼파라미터 학습률 (Learning Rate)손실 함수의 기울기를 얼마나 반영할지를 결정하는 계수 (모델의 가중치를 업데이트하는 속도 결정)학습률이 너무 크면 발산할 수 있고, 너무 작으면 수렴이 느려짐→ 학습률이 너무 크면 불안정, 너무 작으면 학습이 느려짐 wₜ₊₁ = wₜ - η · ∇L(wₜ) η (eta): 학습률추천 값: 0.1, 0.01, 0.001 등 배치 크기 (Batch Size) 한 번의 가중치 업데이트에..

⊢ DeepLearning 2025.03.22

과적합(Overfitting) 방지 기법

과적합 방지 기법 과적합 모델이 훈련 데이터에 너무 과하게 적합(overfit)되어, 새로운 데이터(검증/테스트 데이터)에 대해 일반화 성능이 낮아지는 현상→ 훈련 데이터에선 높은 정확도를 보이지만, 실제 사용 환경에서는 성능이 떨어지는 문제가 발생   정규화와 드롭아웃 정규화 (Normalization) 데이터 분포를 일정한 범위로 조정, 학습 안정성과 수렴 속도를 향상시키고 과적합을 방지 배치 정규화 (Batch Normalization)→ 각 미니배치에 대해 평균과 분산을 정규화→ 학습 속도를 높이고, 과적합을 방지하는 데 도움레이어 정규화 (Layer Normalization)→ 각 레이어별로 정규화 수행 (RNN 등 순차 모델에서 자주 사용) 드롭아웃 (Dropout) 학습 중 임의로 일부 뉴런..

⊢ DeepLearning 2025.03.22

전이학습(Transfer Learning)

전이학습 (Transfer Learning) 기존에 학습된 모델의 지식(가중치 등)을 새로운 문제에 적용하는 머신러닝 기법 대량의 데이터를 활용해 학습한 모델을 기반으로, 새로운 작업에 적은 데이터로도 좋은 성능을 낼 수 있도록 도와줌 전이학습이 필요한 이유데이터 부족새롭게 풀고자 하는 문제에 대한 학습 데이터가 적을 때, 사전 학습된 모델을 활용해 일반화 성능을 끌어올릴 수 있음학습 시간 단축처음부터 모델을 학습하는 것보다 빠르게 수렴성능 향상ImageNet, COCO 등 대규모 데이터셋에서 학습된 모델은 일반적인 시각적 특징을 잘 추출하므로, 특정 도메인에서도 높은 성능을 보일 수 있음 전이학습의 원리 전이학습은 크게 두 가지 방식으로 구분됨특징 추출기(Feature Extractor)미세 조정(Fi..

⊢ DeepLearning 2025.03.22

생성형 모델(Generative Models)

생성형 모델 (Generative Models) 기존 데이터의 분포를 학습하여 새로운 데이터를 생성하는 모델이미지 생성, 텍스트 생성, 음성 합성 등 다양한 분야에서 사용됨  GAN (Generative Adversarial Network) 2014년 Ian Goodfellow 등에 의해 제안된 생성형 신경망 모델 두 개의 신경망, 생성자(Generator)와 판별자(Discriminator)로 구성됨생성자: 가짜 데이터를 생성판별자: 진짜/가짜를 판별두 모델은 적대적으로 경쟁하며 함께 학습함  동작 원리 생성자 (Generator) 입력: 랜덤 노이즈 벡터 z (보통 정규분포에서 샘플링)출력: 가짜 데이터 G(z) 생성 목표: 판별자를 속일 정도로 진짜 같은 데이터 생성 판별자 (Discriminato..

⊢ DeepLearning 2025.03.22

2025.03.21

행복하다~쿠키랑 이브는 격일로 양치를 하기 싫어한다.나는 요새 격일꼴로 샤워를 한다.04:00 취침 08:59 기상ResNet-18구축하고 CIFAR-10 데이터셋을 학습시켰는데 CPU로만 학습시키니까 7시간이 걸린다...MPS로 돌리니까 40분만에 끝난다.어이없다...MPS로 돌렸을 때 성능이 약 1%정도 떨어지긴해도 학습속도 면에서 압도적이다.seed도 랜덤이고 작은 데이터셋에 작은 모델이라 비교는 어렵지만 정확도가 아주 중요한 경우 아니고서야 이미지처리는 MPS로 할 것 같다. 오빠는 오늘 고기가 땡겼는지 저녁에 치킨이랑 불족발이랑 오리고기를 차렸다.덕분에 요새 잘먹는다.ㄴ샤워ㄴ요가 물 한컵 마셨다. 뭔가 생산적인일을 하고 싶다가도 아직 부족한 것 같으면서도 아리까리하다.

2025/미정 2025.03.22
728x90