일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- leetcode
- dfs
- 백준
- 개발자 취업
- Python
- 99클럽
- 구현
- easy 딥러닝
- 프로그래머스
- boj 2309
- 파이썬
- 알고리즘
- 활성화 함수
- 해시
- 혁펜하임
- 스택
- 개발자취업
- 기능개발
- 백준 2309
- 코딩테스트준비
- softeer
- BFS
- til
- 딥러닝
- 항해99
- python 2309
- 99항해
- 코딩테스트 준비
- BOJ
- 큐
- Today
- Total
동까의 코딩
Easy! 딥러닝 chapter 1 본문
머신러닝 및 딥러닝 주요 개념 정리
이 글에서는 자연어처리의 전처리 기법부터 번역 모델의 성능 평가, 다양한 학습 방식(지도학습, 자기 지도 학습, 비지도 학습, 강화 학습)에 대해 정리합니다.
1. 자연어처리 전처리: 토크나이징 (Tokenization)
자연어처리(NLP)는 이미지 처리와 달리 텍스트 데이터를 전처리할 때 토크나이징을 사용합니다.
토크나이징은 문장을 단어, 부분어(subword) 혹은 문자 단위로 분할하는 과정으로, 언어마다 토큰의 수나 분할 방식이 달라질 수 있습니다.
- 예시:
- 영어:
"I am an instructor"
→["I", "am", "an", "instructor"]
(4 토큰) - 한국어:
"저는 강사입니다."
→["저는", "강사", "입니다."]
(3 토큰)
- 영어:
토크나이징은 모델의 입력으로 들어가기 전에 단어의 형태를 표준화하고, 언어의 구조적 특성을 반영하는 중요한 전처리 단계입니다.
2. 번역 모델 성능 평가 지표
번역(Translation) 모델의 성능을 평가하기 위해 주로 두 가지 지표가 사용됩니다.
Perplexity (당혹도):
모델이 주어진 데이터를 얼마나 잘 예측하는지를 나타내는 지표로, 값이 낮을수록 모델의 예측 능력이 우수함을 의미합니다.BLEU Score (Bilingual Evaluation Understudy):
모델이 생성한 번역문과 참조 번역문 사이의 유사도를 평가하는 지표로, 값이 높을수록 번역 품질이 뛰어남을 나타냅니다.
이 두 지표는 각각 모델의 언어 이해력과 번역 결과의 품질을 수치로 표현하여 비교·평가하는 데 활용됩니다.
3. 지도학습 (Supervised Learning)
지도학습은 정답 레이블이 있는 데이터를 사용해 모델을 학습시키는 방식입니다.
회귀 (Regression):
연속적인 값을 예측하는 문제 (예: 주택 가격 예측).분류 (Classification):
이산적인 클래스를 예측하는 문제 (예: 스팸 메일 분류).컴퓨터 비전 분야의 응용:
- 위치 추정 (Localization):
이미지 내 대상의 위치를 박스(bounding box)로 표시. - 객체 탐지 (Object Detection):
이미지에서 여러 객체를 탐지하고 각각 분류 (예: YOLO). - 분할 (Segmentation):
이미지의 각 픽셀이 어떤 클래스에 속하는지 경계선을 이용해 분류. - 자세 추정 (Pose Estimation) & 얼굴 랜드마크 탐지 (Facial Landmark Detection):
인체의 자세나 얼굴의 주요 포인트를 탐지하여 분석.
- 위치 추정 (Localization):
4. 자기 지도 학습 (Self-supervised Learning)
자기 지도 학습은 라벨 없이 대량의 데이터를 활용해 사전학습(pre-training)을 진행한 후, 특정 작업에 맞게 미세조정(fine-tuning)하는 학습 방식입니다.
주요 기법:
- Context Prediction: 문맥을 예측하는 방식 (예: BERT의 마스킹된 언어 모델).
- Contrastive Learning: 유사한 샘플과 그렇지 않은 샘플을 구분하며 특징을 학습.
대표 모델:
- GPT: Autoregressive 방식의 언어 모델.
- BERT: 양방향 문맥을 활용한 언어 모델.
이 방식은 대량의 비라벨 데이터에서 유용한 표현을 학습한 후, 소량의 라벨 데이터로 특정 작업에 맞게 모델을 최적화할 수 있다는 장점이 있습니다.
5. 비지도 학습 (Unsupervised Learning)
비지도 학습은 레이블이 없는 데이터를 이용해 데이터의 내재된 구조나 특성을 학습하는 방식입니다.
- 주요 기법:
- 군집화 (Clustering):
데이터 포인트들을 유사한 그룹으로 분류 (예: K-means, DBSCAN). - 차원 축소 (Dimension Reduction):
데이터의 복잡도를 줄이면서 주요 특징을 추출 (예: PCA, SVD).
- 군집화 (Clustering):
비지도 학습은 데이터의 숨겨진 패턴을 발견하는 데 유용하며, 데이터 전처리 및 탐색적 분석 단계에서 자주 활용됩니다.
6. 강화 학습 (Reinforcement Learning)
강화 학습은 에이전트가 환경과 상호작용하면서 보상(reward) 신호를 최대화하는 방향으로 학습하는 방식입니다.
기본 개념:
- 에이전트(Agent): 학습하는 주체.
- 환경(Environment): 에이전트가 상호작용하는 대상.
- 보상(Reward): 특정 행동에 대한 피드백 신호.
주요 알고리즘:
- Q-Learning:
상태-행동 가치(Q-value)를 학습하여 최적의 행동을 선택하는 방법. - ε-Greedy (Epsilon-Greedy):
탐험(exploration)과 활용(exploitation)의 균형을 맞추기 위해, 일정 확률(ε)로 무작위 행동을 선택하는 전략.
- Q-Learning:
응용 사례:
- 알파고(AlphaGo): 강화 학습을 비롯한 여러 기법을 결합하여 바둑에서 인간을 능가하는 성능을 보인 대표적인 사례.
이와 같이 다양한 머신러닝 및 딥러닝 학습 방식과 전처리, 성능 평가 기법은 각각의 특성과 용도에 맞게 활용되며, 실제 문제 해결에 중요한 역할을 합니다.
'ML, DL' 카테고리의 다른 글
Easy! 딥러닝 chapter 3 (0) | 2024.12.27 |
---|---|
Easy! 딥러닝 chapter 2-2 (0) | 2024.12.26 |
Easy! 딥러닝 chapter 2-1 (1) | 2024.12.15 |