pytorch 6

PyTorch 문법 정리

모델 구축 및 학습 (Model Building & Training) 신경망 기본 구조torch.nn.Module: 모든 신경망 모델의 기본 클래스import torch.nn as nnclass MyModel(nn.Module): def __init__(self): super().__init__() self.layer = nn.Linear(10, 20) def forward(self, x): return self.layer(x) 손실 함수 (Loss Function)분류CrossEntropyLossloss = nn.CrossEntropyLoss()회귀MSELossloss = nn.MSELoss()  최적화 알고리즘 (Optimizers)optimizer =..

⊢ DeepLearning 2025.03.22

전이학습(Transfer Learning)

전이학습 (Transfer Learning) 기존에 학습된 모델의 지식(가중치 등)을 새로운 문제에 적용하는 머신러닝 기법 대량의 데이터를 활용해 학습한 모델을 기반으로, 새로운 작업에 적은 데이터로도 좋은 성능을 낼 수 있도록 도와줌 전이학습이 필요한 이유데이터 부족새롭게 풀고자 하는 문제에 대한 학습 데이터가 적을 때, 사전 학습된 모델을 활용해 일반화 성능을 끌어올릴 수 있음학습 시간 단축처음부터 모델을 학습하는 것보다 빠르게 수렴성능 향상ImageNet, COCO 등 대규모 데이터셋에서 학습된 모델은 일반적인 시각적 특징을 잘 추출하므로, 특정 도메인에서도 높은 성능을 보일 수 있음 전이학습의 원리 전이학습은 크게 두 가지 방식으로 구분됨특징 추출기(Feature Extractor)미세 조정(Fi..

⊢ DeepLearning 2025.03.22

ResNet(Residual Network)

ResNet(Residual Network) 깊은 신경망을 효과적으로 학습하기 위해 개발된 모델 잔차 학습(Residual Learning) 개념을 도입하여 기울기 소실(Vanishing Gradient)문제를 해결2015년 Microsoft Research에서 개발었으며, ImageNet 챌린지(ILSVRC) 2015에서 우승    신경망의 깊이가 깊어질수록 더 복잡한 패턴을 학습 할 수 있지만, 오차 역전파 시 기울기가 매우 작아지거나 커져 가중치 업데이트가 제대로 이루어지지 않는 기울기 소실(Vanishing Gradient) 또는 기울기 폭발(Exploding Gradient) 문제로 인해 학습이 어려워 짐→ 네트워크를 깊게 쌓을수록 성능이 오히려 저하되는 문제 발생 잔차 학습(Residual L..

⊢ DeepLearning 2025.03.21

합성곱 신경망(Convolutional Neural Network, CNN)

합성곱 신경망(CNN) 이미지 데이터를 효과적으로 처리할 수 있도록 설계된 신경망합성곱 (Convolution)과 풀링(Pooling)을 활용하여 주요 특징을 추출  CNN의 기본 구성 요소합성곱 층(Convolutional Layer)입력 이미지에 필터(커널)를 적용하여 특징 맵(feature map)을 생성필터는 이미지의 국소적인 패턴(에지, 코너, 텍스처 등)을 학습풀링 층(Pooling Layer)특징 맵의 크기를 줄이고, 중요한 특징을 추출주로 Max Pooling과 Average Pooling이 사용됨완전 연결 층(Fully Connected Layer, FC Layer)추출된 특징을 바탕으로 최종 예측을 수행 대표적인 CNN 아키텍처 LeNet-5(1998년) 최초의 CNN 모델 중 하나손글..

⊢ DeepLearning 2025.03.20

인공 신경망(Artificial Neural Network, ANN)

인공 신경망(ANN) 생물학적 신경망을 모방한 컴퓨팅 시스템 입력층(Input Layer), 은닉층(Hidden Layer), 출력층(Output Layer)으로 구성각 층은 뉴런(Neuron)으로 이루어져 있으며, 가중치(Weight)와 활성화 함수(Activation Function)를 사용해 데이터를 처리 입력층 : 입력 데이터를 받아들이는 층입력  뉴런 수는 입력 데이터의 특징(Feature) 수와 동일은닉층 : 입력 데이터를 처리하고 특징을 추출하는 층뉴런 수와 층 수에 따라 모델 성능이 결정됨출력층 : 최종 예측 값을 출력하는 층뉴런 수는 예측하려는 클래스 개수 또는 회귀 문제의 출력 차원과 동일 동작 방식순전파 (Foward Propagation)입력 데이터 → 각 층의 뉴런 활성화 → 최종..

⊢ DeepLearning 2025.03.19

딥러닝 실습 환경 구축

Conda&Jupyter Notebook을 이용한 환경 설정, 가상환경 설치 및 Jupyter Notebook 연결  https://s2bibiprincess.tistory.com/68 Python - Pandas설치 및 Conda, Jupyter Notebook, 가상환경과 kernelPandas 설치pip install pandas   Jupyter Notebook 코드, 텍스트, 이미지 등을 한 곳에서 관리할 수 있는 대화형 컴퓨팅 환경데이터 분석, 머신러닝, 교육 등 다양한 분야에서 사용오픈 소스 웹 애플리케s2bibiprincess.tistory.com PyTorch Facebook에서 개발한 오픈 소스 딥러닝 라이브러리동적 계산 그래프(dynamic computationg graph) 지원 →..

⊢ DeepLearning 2025.03.18
728x90