BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//AI聘 - ECPv5.10.0//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:AI聘
X-ORIGINAL-URL:https://aipin.io
X-WR-CALDESC:Events for AI聘
BEGIN:VTIMEZONE
TZID:America/Los_Angeles
BEGIN:DAYLIGHT
TZOFFSETFROM:-0800
TZOFFSETTO:-0700
TZNAME:PDT
DTSTART:20260308T100000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0700
TZOFFSETTO:-0800
TZNAME:PST
DTSTART:20261101T090000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260227T190000
DTEND;TZID=America/Los_Angeles:20260227T200000
DTSTAMP:20260414T163654
CREATED:20260224T104021Z
LAST-MODIFIED:20260224T104021Z
UID:12976-1772218800-1772222400@aipin.io
SUMMARY:大语言模型的核心算法 - Transformer
DESCRIPTION:你是不是也有以下经历- \n面试官问：“你讲一下 Transformer 吧。”\n你：“呃……它有 Attention，有 QKV，还有 Multi-Head……”\n面试官：… \n看过《Attention Is All You Need》，但只记得标题\n用过 ChatGPT、GPT-4、各种 LLM，但心里一直有个声音：“它到底是怎么学会说人话的？” \n如果你点头了，恭喜你——\n你已经是这场讲座的目标用户，本周技术讲座主题：《大语言模型的核心算法 —— Transformer》 \n放心，\n不是论文朗读会\n不是公式轰炸\n更不是“我们先从线性代数开始”\n这是一个 工程师友好型 Transformer 讲座：\n·听得懂\n·记得住\n·面试能用得上 \n先说句大实话 \n·90% 的人学过 Transformer\n·但 70% 的人讲不清 Transformer\n·而面试官偏偏最爱问 Transformer \n为什么？ \n因为 Transformer 是： \n·大语言模型的地基\n·NLP / LLM 面试的必考题\n·判断你是“会用模型”还是“懂模型”的分水岭 \n你会学到什么？ \n1️⃣ Transformer 出现之前，世界有多痛苦？\nRNN / LSTM： \n·算得慢\n· 记性差\n·一长就崩 \n为什么它们注定干不了 LLM 这件事？ \n2️⃣ Attention：不是“高级操作”，而是救命稻草\n·什么是 Self-Attention（不是一句话带过）\n·为什么 Attention 可以并行、扩展、规模化\n·为什么一句“Attention is All You Need”不是标题党 \n3️⃣ Q / K / V：终于不是玄学了\n·Q、K、V 到底在“问什么 / 对什么 / 拿什么”\n·为什么面试官一问 QKV，很多人开始背公式\n·Multi-Head Attention 真的是“多来几个头”吗？ \n4️⃣ Transformer 的那些“看似不起眼”的关键部件\n·Positional Encoding：为什么模型需要“方向感”\n·Feed Forward Network：看着简单，没它不行\n·Residual + LayerNorm：没它，模型直接爆炸 \n5️⃣ Transformer → GPT：发生了什么？\n·Encoder / Decoder / Decoder-only 的区别\n·为什么 GPT 坚定选择 Decoder-only\n·Transformer 是如何自然走向“自回归语言模型”的 \n听完你会有什么变化？ \n❌ 之前：“我知道 Transformer，但细节记不太清。”\n✅ 之后：“Transformer 是为了解决并行性和长期依赖问题，核心是 Self-Attention，通过 QKV 建模 token 之间的关系，多头机制让模型在不同子空间同时建模语义，这也是 GPT 能扩展到百亿参数的关键原因。” \n适合谁来听？ \n✅ 准备 AI / LLM / 算法 / 数据科学面试\n✅ 学过 Transformer，但一直“差一口气”\n✅ 用模型写代码，却被问到原理就沉默\n✅ 想把“会用”升级成“真懂” \n最后一句话总结，\nTransformer 不难，难的是一直没人给你讲“为什么它必须这样设计”。 \n————————————- \n主办方：数据应用学院 \n数据应用学院是北美首家集培训、项目实习和内推于一体的机构，我们的项目导向课程专注学员成果，并提供职业发展指导。感兴趣的小伙伴可以点击下面的链接，解锁更多专业技能： \n最新直播课程——大语言模型开发者训练营：https://study.dataapplab.com/course?courseid=llm-bootcamp-2601 \n在售录播课程列表：https://study.dataapplab.com/pages/home \n数据科学家求职训练营精华课：https://study.dataapplab.com/course?courseid=dstraining \n商业分析师求职训练营精华课：https://study.dataapplab.com/course?courseid=ba-training
URL:https://aipin.io/event/transformer/
CATEGORIES:直播讲座
ATTACH;FMTTYPE=image/png:https://aipin.io/wp-content/uploads/2026/02/大语言模型的核心算法：-Transformer.png
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/8317719212397/WN_8JL7eS7pStKCrCqUt_iO4w
END:VEVENT
END:VCALENDAR