LLM相关知识 2026年04月07日 75 字 大概 1 分钟 本课程的笔记大多参考LLM-notes 导航 导航 大语言模型架构 Transformer模型 ATTENTION机制 前置知识 attention机制是什么 大语言模型架构Transformer模型ATTENTION机制前置知识 在了解attetion机制之前我们需要了解 attention机制是什么