Zettelkasten
Search
⌘K
Graph
Tags
#
fine-tuning
6개
Full fine-tuning vs Parameter-efficient fine-tuning 비교
589자
fine-tuning
LoRA
PEFT
LoRA 하이퍼파라미터 튜닝 가이드
533자
fine-tuning
LoRA
hyperparameter
LoRA는 Transformer의 Attention 레이어에 주로 적용된다
517자
fine-tuning
LoRA
transformer
LoRA는 저랭크 행렬로 가중치 업데이트를 근사한다
620자
fine-tuning
LoRA
deep-learning
QLoRA는 양자화와 LoRA를 결합한다
467자
fine-tuning
LoRA
QLoRA
quantization
임베딩 모델의 Frozen vs Fine-tuning 전략
618자
ML
embedding
fine-tuning
transfer-learning