Zettelkasten
Search
⌘K
Graph
Tags
#
LoRA
5개
Full fine-tuning vs Parameter-efficient fine-tuning 비교
589자
fine-tuning
LoRA
PEFT
LoRA 하이퍼파라미터 튜닝 가이드
533자
fine-tuning
LoRA
hyperparameter
LoRA는 Transformer의 Attention 레이어에 주로 적용된다
517자
fine-tuning
LoRA
transformer
LoRA는 저랭크 행렬로 가중치 업데이트를 근사한다
620자
fine-tuning
LoRA
deep-learning
QLoRA는 양자화와 LoRA를 결합한다
467자
fine-tuning
LoRA
QLoRA
quantization