bert 3

사전 학습과 파인 튜닝

사전 학습 (Pre-training) 대규모 일반 텍스트 데이터로 언어의 패턴과 구조를 학습하는 과정 방대한 데이터셋 사용 (예: 위키백과, 북 코퍼스)특정 작업(X) 일반적인 언어 이해(O) 예:BERT 사전 학습MLM(Masked Lanuage Modeling): 일부 단어를 가리고 예측NSP (Next Sentence Prediction): 문장 간 자연스러운 연결 예측  파인 튜닝 (Fine-tuning) 사전 학습된 모델을 특정 작업(예: 감정 분석)에 맞게 추가 학습 특정 태스크에 맞춘 미세 조정적은 데이터로도 효과적사전 학습된 가중치를 기반으로 빠른 수렴 가능   IMDb 영화 리뷰 감정 분석*IMDb(Internet Movie Database)영화 리뷰를 바탕으로 만든 이진 감정 분석용 데..

Hugging Face와 Transformers 라이브러리로 살펴본 NLP 모델들

Hugging Face의 Transformers 라이브러리를 사용해 NLP 모델을 활용실습감정 분석텍스트 생성번역문장 임베딩*Transformers 라이브러리Hugging Face에서 개발한 오픈소스 라이브러리다양한 사전학습(pretrained)된 NLP 모델 제공텍스트 생성, 번역, 감정 분석, 문장 분류 등 다양한 작업 지원pipeline()을 통해 복잡한 과정을 한 줄로 해결 가능   텍스트 생성 : GPT-2 OpenAI에서 개발다음 문장을 예측하고 생성하는 데 특화된 모델 from transformers import pipeline# GPT-2 기반 텍스트 생성 파이프라인 로드generator = pipeline("text-generation", model="gpt2")# 텍스트 생성result..

자연어 처리(Natural Language Processing, NLP) 모델

자연어 처리(NLP) 모델 워드 임베딩과 시퀀스 모델링 워드 임베딩(Word Embedding) 기법 단어를 고정된 크기의 벡터로 변환하는 기법단어 간의 의미적 유사성을 반영하여 벡터 공간에서 가까운 위치에 배치벡터 간의 연산을 통해 이미적 관계(예: '왕 - 남자 + 여자 ≈ 여왕')을 파악할 수 있음 → 단어의 의미적 관계를 벡터로 변환하는 핵심 기술 대표적 워드 임베딩 기법Word2Vec (CBOW, Skip-gram)GloVeFastTextELMo (문맥을 반영한 임베딩)  Word2Vec 신경망을 이용해 단어를 벡터로 변환하는 모델로 두 가지 학습 방식 제공 CBOW(Continuous Bag of Words)주변 단어 (Context)로 중심 단어(Target)을 예측하는 방식학습이 빠르고 데..

⊢ DeepLearning 2025.03.20
728x90