BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//AI聘 - ECPv5.10.0//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:AI聘
X-ORIGINAL-URL:https://aipin.io
X-WR-CALDESC:Events for AI聘
BEGIN:VTIMEZONE
TZID:America/Los_Angeles
BEGIN:DAYLIGHT
TZOFFSETFROM:-0800
TZOFFSETTO:-0700
TZNAME:PDT
DTSTART:20260308T100000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0700
TZOFFSETTO:-0800
TZNAME:PST
DTSTART:20261101T090000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260402T190000
DTEND;TZID=America/Los_Angeles:20260402T200000
DTSTAMP:20260403T120813
CREATED:20260330T140849Z
LAST-MODIFIED:20260330T140849Z
UID:13027-1775156400-1775160000@aipin.io
SUMMARY:100天掌握大语言模型-第五周
DESCRIPTION:主题介绍： \n100天学会大语言模型，从 Transformer 到 GPT \n一场真正“讲透 LLM 核心算法”的技术讲座 \n在今天这个大语言模型的时代，GPT、Claude、Gemini、LLaMA，所有主流大语言模型，背后都有同一个核心架构：Transformer \n但问题是—— \n❗ 很多人“听说过 Attention”\n❗ 看过公式，却始终没真正理解 \n甚至在面试中： \n👉 讲不清 Multi-Head Attention\n👉 解释不出 √d_k 为什么存在\n👉 无法从系统角度说明 Encoder / Decoder \n为什么你必须真正理解 Transformer？因为Transformer = LLM 工程师的“地基能力”。你可以不会训练模型，但你不能不理解： \n\nAttention 是如何工作的？\n为什么Transformer 可以替代 RNN？\nGPT 和BERT 本质上有什么区别？\nLLM 的“推理能力”从哪里来？\n\n这不仅是知识问题，而是是否具备 AI 工程师思维的问题。本讲座基于经典论文“Attention Is All You Need（NeurIPS 2017）”结合完整教学系列“100天掌握大语言模型”，将带你从“听说过”到“真正理解” \n\n 为什么Transformer 会颠覆整个AI 领域？\n\n你将理解： \n\nRNN / LSTM 的三大致命瓶颈\n为什么“并行计算”改变了一切\nTransformer 如何实现O(1) 路径建模长依赖\n从“历史演进”看懂架构设计哲学\n\n\n Attention 机制（核心中的核心）\n\n深入讲透： \n\nScaled Dot-Product Attention\n为什么要除以√d_k（面试高频点🔥）\nAttention 的四步计算流程\n\n你将真正理解， 模型是如何“决定关注谁”的 \n\n Multi-Head Attention（面试必考）\n\n很多人只会背公式，但不会解释本质。本讲座将帮你搞懂： \n\n为什么必须是“多头”？\n每个head 在学什么？\n为什么计算量没有增加？\n\n\n Positional Encoding（最容易被忽略的关键点）\n\n深入拆解： \n\n正弦/ 余弦编码的数学意义\n为什么不用线性位置编码？\nRoPE / Learned PE 的演进\n\n\n Encoder & Decoder 架构全拆解\n\n你将彻底搞懂： \n\nSelf-Attention vs Cross-Attention\nMasked Attention（GPT核心）\nFFN 在模型中的真正作用\n残差连接+ LayerNorm 的工程意义\n\n\n 从Transformer 到GPT / BERT（关键过渡）\n\n讲座最后会帮你建立： \n\nGPT（Decoder-only）的本质\nBERT（Encoder-only）的设计逻辑\n现代LLM 的统一架构视角\n\n适合人群 \n\n想成为LLM Engineer / AI Engineer 的开发者\n正在准备LLM / AI 面试 的求职者\n学过Transformer，但理解不深入的人\n想从“会用API”升级到“理解模型本质”的工程师\n\n————————————- \n主办方：AI聘 — 北美数据类、软件类求职服务一站式服务。 \n三大项目为你全程解除求职困扰： \n1. 找到工作再付费的Career VIP项目，为全职岗位求职者提供最专业的支持；\n2. Career Plus项目，为全职求职者提供短期强化训练，低成本一站式求职服务；\n3. Intern VIP项目，为短期实习求职者提供内推、全程面试辅导支持。 \n可登录 www.aipin.io了解更多项目信息和成功案例。\n邮箱: info@aipin.io\n电话: +1 (626) 566 1822
URL:https://aipin.io/event/100-llm-5/
CATEGORIES:直播讲座
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/8317724471564/WN_MD5Qr28NTy62AYRatCnNJQ
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260403T190000
DTEND;TZID=America/Los_Angeles:20260403T200000
DTSTAMP:20260403T120813
CREATED:20260330T141306Z
LAST-MODIFIED:20260330T141306Z
UID:13029-1775242800-1775246400@aipin.io
SUMMARY:大语言模型在生物学中的应用
DESCRIPTION:  \n————————————- \n主办方：数据应用学院 \n数据应用学院是北美首家集培训、项目实习和内推于一体的机构，我们的项目导向课程专注学员成果，并提供职业发展指导。感兴趣的小伙伴可以点击下面的链接，解锁更多专业技能： \n最新直播课程——大语言模型开发者训练营：https://study.dataapplab.com/course?courseid=llm-developer-bootcamp-2603 \n在售录播课程列表：https://study.dataapplab.com/pages/home \n数据科学家求职训练营精华课：https://study.dataapplab.com/course?courseid=dstraining \n商业分析师求职训练营精华课：https://study.dataapplab.com/course?courseid=ba-training
URL:https://aipin.io/event/llm-llm/
CATEGORIES:直播讲座
ATTACH;FMTTYPE=image/png:https://aipin.io/wp-content/uploads/2026/03/大语言模型-在生物学中的应用.png
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/2317742626096/WN_ZbYu23RHRjeQYLPF6Xxlxg
END:VEVENT
END:VCALENDAR