共计 34 篇文章
2024
LLM(十)——Infini Transformer
LLM(九)——Mixture-of-Depths Transformers
LLM(八)——MoE
LLM(七)——参数高效微调(Parameter-efficient fine-tuning,PEFT)
LLM(六)——Position Encoding
LLM(五)——Hardware Optimization Attention
LLM(四)——Attention变种
LLM(三)——Self-Attention、Multi-Head Attention和Transformer
LLM(二)——Attention机制
LLM(一)——LLM简介