BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//AI聘 - ECPv5.10.0//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:AI聘
X-ORIGINAL-URL:https://aipin.io
X-WR-CALDESC:Events for AI聘
BEGIN:VTIMEZONE
TZID:America/Los_Angeles
BEGIN:DAYLIGHT
TZOFFSETFROM:-0800
TZOFFSETTO:-0700
TZNAME:PDT
DTSTART:20260308T100000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0700
TZOFFSETTO:-0800
TZNAME:PST
DTSTART:20261101T090000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260423T190000
DTEND;TZID=America/Los_Angeles:20260423T200000
DTSTAMP:20260424T012714
CREATED:20260420T094444Z
LAST-MODIFIED:20260420T095258Z
UID:13058-1776970800-1776974400@aipin.io
SUMMARY:100天掌握大语言模型-第八周：代码演示 LoRA in Python
DESCRIPTION:“大多数 PEFT 教程都止步于公式。本教程从公式开始，最终呈现一个经过训练的LoRa适配器，该适配器将在真实输出上实时运行，并根据实际输出进行评估。您可以在Colab notebook 中 fork 并自行运行该适配器。”\n\n\n\nLoRa和实际运行LoRa之间的差距 \n第七周构建了概念基础：PEFT 是什么，为什么内存墙使得完全微调不切实际， LoRa的数学原理，以及在LoRa 、适配器和QLoRa之间进行选择的决策框架。第八周弥合了实现方面的差距。 \n从业者学习 PEFT 的过程存在一个共同的模式。他们理解概念——冻结骨干网络，添加低秩矩阵 B 和 A，只训练这些矩阵，最后合并模型。他们能够理解公式 W = W0 + BA。但是，当他们真正开始在模型上运行LoRA时，却会遇到一系列实际问题：选择哪个库？哪些参数重要？ LoRA应该针对模型的哪些层？如何判断训练是否收敛？好的微调输出和坏的微调输出有什么区别？如何评估适配器是否真的有所改进？ \n第 8 周将通过网络研讨会现场运行 Python 代码，在真实模型和真实任务上解答所有这些问题——您可以并排比较训练前后的输出结果。 \n谁应该参加 \n\n\n\n机器学习工程师\nLoRA 、适配器和QLoRA 的开源 LLM 进行微调，以及入门的实用方法。\n\n\n\n  \n\n\n\n数据科学家\n对于那些希望将基础模型应用于特定领域任务，但又无法使用多GPU基础设施的用户来说，PEFT 可以在单个GPU上实现这一目标。\n\n\n\n  \n\n\n\n人工智能产品经理\n在规划 LLM 产品功能时，谁需要了解微调方法之间的工程权衡——性能、成本、延迟、存储。\n\n\n\n  \n\n\n\n软件工程师\n集成 LLM API，以便了解为什么LoRA微调模型与基础模型的行为不同，以及如何评估权衡取舍。\n\n\n\n  \n\n\n\n研究人员\n在 LLM 的基础上构建，适用于需要最高效的参数自适应策略以适应其计算预算的学术或应用项目。\n\n\n\n  \n上一周的回忆 \n第 7 周涵盖了完整的 PEFT 堆栈：为什么内存墙使得完全微调不切实际，三种参数高效方法，每种方法背后的数学原理，以及为您的场景选择正确方法的清晰决策框架。 \n\n\n\n为什么是PEFT？记忆墙 \n70亿次微调所需的GPU内存计算如下：14GB权重 + 14GB梯度 + 56GB Adam状态 + 8GB激活值 = 总计约92GB。为什么即使是A100的80GB显存也不够用——以及PEFT如何用少10到100倍的显存解决这个问题。\n三个 PEFT 家庭 \n低秩分解（ LoRA及其变体： DoRA 、 LoftQ 、 LoRA +）、瓶颈适配器（Adapter、 AdapterDrop 、Compacter）和软提示方法（Prefix Tuning、Prompt Tuning、P-Tuning v2）。包含每种方法的公式。\n\n\n\n  \n\n\n\nLoRA深度解析 \n核心方程 W = W0 + BA，所有变量均已定义，计算得出参数缩减率达 99.6%（当 d=k=4096，r=8 时，参数从 16.8M 减少到 65.5K）。目标权重矩阵为（ Wq / Wk / Wv 为必需，Wo 为推荐）。排序选择指南：r=4，r=8，r=16–64。\n量化 + QLoRA \nFP32 → FP16 → INT8 → INT4 显存对比。NF4（4 位正态浮点数）——为何它在处理正态分布权重时优于标准 INT4。QLoRA的三大创新：NF4、双量化和分页优化器。在单个 48 GB GPU 上对 650 亿次LLaMA进行了微调。\n\n\n\nPEFT 的四种方法——并排比较 \n本次课程将介绍四种实用的适应策略，这些策略直接取自第16页幻灯片上的对比表格。以下是您将从每种策略中了解到的内容： \n\n\n\n1\n全面微调（基准）——更新所有 100% 的参数。性能上限最高。70 亿字节需要约 92 GB 显存。每个任务需要一份完整的 14 GB 模型副本。在任何标准硬件上，1000 亿字节以上的任务都无法实现。\n\n\n\n  \n\n\n\n2\nLoRa——行业默认方案——冻结骨干网。添加低秩矩阵对B和A。仅更新0.1%至1%的参数。训练完成后，将ΔW = BA合并，以实现零推理延迟。N个任务=N个小文件，共享一个14GB的骨干网。\n\n\n\n  \n\n\n\n3\n适配器调优——多任务专家——在每个 FFN 后插入瓶颈 MLP 模块： h_out = h + f( h· W_down )· W_up 。一个冻结的主干网 + N 个小型适配器集（每个 2–8 MB）。无法像LoRa那样合并——会增加约 3–10毫秒的延迟。非常适合同时处理 50 个以上任务的情况。\n\n\n\n  \n\n\n\n4\nQLoRA——消费级GPU微调——将基础模型量化为NF4（4位）。冻结模型。在BF16中训练LoRa适配器。结果：在1×A100 80GB显存上对650亿LLaMA模型进行了微调，峰值显存占用41GB。对同一模型进行完整微调需要超过500GB的显存。\n\n\n\n————————————- \n主办方：AI聘 — 北美数据类、软件类求职服务一站式服务。 \n三大项目为你全程解除求职困扰： \n1. 找到工作再付费的Career VIP项目，为全职岗位求职者提供最专业的支持；\n2. Career Plus项目，为全职求职者提供短期强化训练，低成本一站式求职服务；\n3. Intern VIP项目，为短期实习求职者提供内推、全程面试辅导支持。 \n可登录 www.aipin.io了解更多项目信息和成功案例。\n邮箱: info@aipin.io\n电话: +1 (626) 566 1822
URL:https://aipin.io/event/llm-8-lora/
CATEGORIES:直播讲座
ATTACH;FMTTYPE=image/png:https://aipin.io/wp-content/uploads/2026/04/100天掌握大语言模型-8.png
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/8317724471564/WN_MD5Qr28NTy62AYRatCnNJQ
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260424T190000
DTEND;TZID=America/Los_Angeles:20260424T200000
DTSTAMP:20260424T012715
CREATED:20260420T095128Z
LAST-MODIFIED:20260420T095128Z
UID:13060-1777057200-1777060800@aipin.io
SUMMARY:深入探讨大语言模型的安全问题
DESCRIPTION:为何每一位AI工程师现在都必须理解LLM安全? \n人工智能已不再仅仅是一个研究课题——它现已深度嵌入现代商业的核心之中。从AI 副驾驶（Copilots）和聊天机器人，到自主智能体（Agents）和企业知识系统，大型语言模型（LLMs）正在彻底改变我们构建软件、制定决策以及与数据交互的方式。然而，随着其应用加速普及，一个关键问题随之浮出水面：这些系统真的安全吗？在LLMs令人惊叹的能力背后，潜藏着一个正在迅速扩大的攻击面——而大多数开发者、产品经理，甚至连AI工程师，都尚未做好充分的准备来应对它。正因如此，我们特此举办一场专题网络研讨会： \n深入探究大型语言模型的安全问题 – LLM系统潜藏的风险 \n与传统的软件系统不同，LLMs 引入了全新类别的安全挑战： \n* 仅仅通过一个简单的 Prompt（提示词），就能改写系统的既定行为\n* 敏感数据可能会被从模型的响应内容中提取出来\n* 外部文档可能会在无声无息中 注入恶意指令\n* AI 智能体可能会执行未经授权的现实世界操作 \n这些绝非纸上谈兵的理论风险——它们正真实地发生在我们身边。那些正在部署基于 LLM的系统的组织，如今已面临着以下挑战： \n* 提示词注入攻击（Prompt Injection）\n* 数据泄露事件\n* 绕过安全控制（Jailbreaking）\n* RAG管道操纵攻击\n* AI智能体对API和工具的滥用 \n你将从本次研讨会中学到什么？ \n本次研讨会旨在超越浅层探讨，为您提供对LLM安全领域深入且具备技术深度的理解。你将学到： \n1. LLM（大型语言模型）威胁概览 \n* 为何 LLM 在本质上与传统系统截然不同\n* 由提示词（Prompts）、记忆机制和工具引入的全新攻击面\n* AI 系统故障的真实案例 \n2. 核心攻击技术 \n* 提示词注入（Prompt Injection）与“越狱”（Jailbreaking）\n* 数据提取与隐私泄露\n* RAG 投毒与检索操纵\n* 对抗性输入与编码攻击 \n3. AI 智能体（Agents）中的安全风险 \n* LLM 如何与 API 及外部工具进行交互\n* 自主决策带来的风险\n* 未经授权操作的真实场景 \n4. 防御策略与安全架构 \n* 如何设计安全的LLM应用\n* 安全护栏（Guardrails）、内容过滤与策略强制执行\n* 监控、日志记录与实时攻击检测\n* 领先AI公司采用的最佳实践 \n本次网络研讨会专为以下人群打造： \n* AI / LLM工程师\n* 数据科学家\n* 后端与全栈开发人员\n* 负责 AI 功能的产品经理\n* 正在构建 AI 产品的初创企业创始人 \n加入我们，如果你希望： \n* 深入理解LLM系统可能遭受的攻击方式\n* 学习如何为你的AI应用构建防御体系\n* 在瞬息万变的AI领域中保持领先地位 \n————————————- \n主办方：数据应用学院 \n数据应用学院是北美首家集培训、项目实习和内推于一体的机构，我们的项目导向课程专注学员成果，并提供职业发展指导。感兴趣的小伙伴可以点击下面的链接，解锁更多专业技能： \n最新直播课程——大语言模型开发者训练营：https://study.dataapplab.com/course?courseid=llm-developer-bootcamp-2603 \n在售录播课程列表：https://study.dataapplab.com/pages/home \n数据科学家求职训练营精华课：https://study.dataapplab.com/course?courseid=dstraining \n商业分析师求职训练营精华课：https://study.dataapplab.com/course?courseid=ba-training
URL:https://aipin.io/event/llm-jailbreaking/
CATEGORIES:直播讲座
ATTACH;FMTTYPE=image/png:https://aipin.io/wp-content/uploads/2026/04/深入探讨大语言模型的安全问题.png
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/9117742628907/WN_c4gk-ddzTg6B_KwPF2JNLA
END:VEVENT
END:VCALENDAR