Zettelkasten
Search
⌘K
Graph
Tags
#
transformer
5개
LoRA는 Transformer의 Attention 레이어에 주로 적용된다
517자
fine-tuning
LoRA
transformer
트랜스포머 어텐션
688자
transformer
ML
Encoder에서 self attention 계산시 Lower Triangular를 이용해 인과적 구조로 예측가능한 트랜스포머 구조를 만든다.
361자
transformer
whisper
speech-to-text
Transformer에서 encoder는 입력을 추상화한다.
192자
transformer
Transformer에서 self attention 계산 과정
616자
transformer