BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//AI聘 - ECPv5.10.0//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:AI聘
X-ORIGINAL-URL:https://aipin.io
X-WR-CALDESC:Events for AI聘
BEGIN:VTIMEZONE
TZID:America/Los_Angeles
BEGIN:DAYLIGHT
TZOFFSETFROM:-0800
TZOFFSETTO:-0700
TZNAME:PDT
DTSTART:20260308T100000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:-0700
TZOFFSETTO:-0800
TZNAME:PST
DTSTART:20261101T090000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=America/Los_Angeles:20260507T190000
DTEND;TZID=America/Los_Angeles:20260507T200000
DTSTAMP:20260506T134142
CREATED:20260506T114524Z
LAST-MODIFIED:20260506T114524Z
UID:13080-1778180400-1778184000@aipin.io
SUMMARY:100天掌握大语言模型-第十周：LLM Safety Issues 大语言模型的安全
DESCRIPTION:人工智能正在以前所未有的速度进入企业、教育、金融、医疗、政府与个人生活。\n从聊天机器人，到 AI Agent，再到自动化办公系统，大语言模型（LLM）正在成为下一代数字基础设施。但与此同时，一个越来越严肃的问题也浮出水面： \n如果 AI 说错话怎么办？\n如果 AI 被恶意操控怎么办？\n如果 AI 开始泄露数据、传播偏见、甚至被黑客“洗脑”怎么办？ \n这就是为什么——\n“LLM Safety（大语言模型安全）”正在成为全球 AI 行业最热门、最关键的话题之一。 \n本次专题讲座： \n《LLM Safety Issues: Hallucination\, Bias\, Jailbreaks\, Prompt Injection》 \n将带你深入理解当前大语言模型最核心、最危险、也是企业最关心的安全问题。 \n为什么这个主题如此重要？ \n今天，越来越多企业正在部署 AI： \n\nAI 客服\nAI 办公助手\nAI 编程助手\nAI 金融分析\nAI Agent 自动执行系统\n企业知识库问答系统（RAG）\nAI 搜索与决策平台\n\n但很多团队在真正上线后才发现： \nAI 并不像想象中“可靠” \n它可能： \n\n一本正经地胡说八道（Hallucination）\n产生政治、种族、性别偏见（Bias）\n被用户绕过安全限制（Jailbreak）\n被恶意Prompt 攻击（Prompt Injection）\n泄露内部数据\n输出违法或危险内容\n被操纵执行错误任务\n\n未来 AI 系统最大的风险，可能不是模型“不够聪明”，\n而是： \n“模型太聪明，但不受控制。” \n本次讲座你将学习什么？ \n本次讲座将从“真实 AI 系统安全”的角度，深入分析 LLM 的核心风险与防御机制。 \n讲座核心内容 \n一、什么是 LLM Safety？ \n\n为什么AI 安全成为全球科技公司的重点\nOpenAI、Google、Anthropic 如何看待AI 安全\n企业部署LLM 面临的真实风险\nAI 安全与传统Cybersecurity 的区别\n\n二、Hallucination（幻觉问题） \n为什么 AI 会“编造答案”？ \n你将理解： \n\nLLM 为什么会产生hallucination\nTransformer 与next-token prediction 的本质问题\n为什么模型“看起来很自信”\nRAG 为什么仍然会hallucinate\n企业知识库中的幻觉风险\n\n案例分析： \n\nAI 编造法律案例\nAI 医疗建议错误\n金融分析中的错误推理\n\n我们还将讨论： \n\n如何降低hallucination\nGrounding 与Verification 技术\nSelf-RAG / RARR 等新方法\nAI evaluation metrics\n\n三、Bias（偏见问题） \nAI 为什么会带有偏见？ \n包括： \n\n数据偏见\n训练语料偏见\n社会偏见\n政治与文化偏见\nRecommendation Bias\n\n深入讨论： \n\n为什么AI 会放大社会问题\n企业AI 产品中的法律风险\n招聘系统中的AI bias\n金融风控中的公平性问题\n\n四、Jailbreak（越狱攻击） \n为什么用户能绕过 AI 安全限制？ \n你将看到： \n\n常见jailbreak 技术\nDAN Prompt 的原理\nRole-play attack\nToken smuggling\nObfuscated input\nAdversarial suffix\n\n以及： \n\n黑客如何“欺骗”AI\n为什么模型会被诱导输出危险内容\nAI Agent 被越狱后的风险\n\n五、Prompt Injection（提示词注入攻击） \n这是当前 AI Agent 最大的安全问题之一。 \n讲座将深入分析： \n\n什么是Prompt Injection\n为什么Agent 系统特别危险\nHidden Prompt 如何被攻击\nTool Calling 的安全风险\nAI 如何被操控执行错误命令\n\n真实案例包括： \n\nAI 泄露系统Prompt\n恶意网页攻击AI 浏览器\n企业内部知识泄露\n自动化Agent 被操纵执行危险操作\n\n六、企业级 LLM Security 架构 \n如何真正建立“安全”的 AI 系统？ \n包括： \n\nAI Firewall\nPrompt Filtering\nGuardrails\nOutput Moderation\nRole-based AI Access\nRAG 安全设计\nAgent 安全策略\nHuman-in-the-loop\n\n以及： \n\nOWASP for LLM\nNIST AI RMF\nAI Governance\n企业AI 安全框架\n\n适合哪些人参加？ \n本讲座特别适合： \n\nAI 工程师\nLLM 开发者\nData Scientist\nAI 产品经理\nCybersecurity 工程师\n企业IT 管理者\n创业者\n对AI 安全感兴趣的学生与研究人员\n\n  \n主办方：AI聘 — 北美数据类、软件类求职服务一站式服务。 \n三大项目为你全程解除求职困扰： \n1. 找到工作再付费的Career VIP项目，为全职岗位求职者提供最专业的支持；\n2. Career Plus项目，为全职求职者提供短期强化训练，低成本一站式求职服务；\n3. Intern VIP项目，为短期实习求职者提供内推、全程面试辅导支持。 \n可登录 www.aipin.io了解更多项目信息和成功案例。\n邮箱: info@aipin.io\n电话: +1 (626) 566 1822
URL:https://aipin.io/event/100%e5%a4%a9%e6%8e%8c%e6%8f%a1%e5%a4%a7%e8%af%ad%e8%a8%80%e6%a8%a1%e5%9e%8b-%e7%ac%ac%e5%8d%81%e5%91%a8%ef%bc%9allm-safety-issues-%e5%a4%a7%e8%af%ad%e8%a8%80%e6%a8%a1%e5%9e%8b%e7%9a%84%e5%ae%89/
CATEGORIES:直播讲座
ATTACH;FMTTYPE=image/png:https://aipin.io/wp-content/uploads/2026/05/100天掌握大语言模型-10.png
ORGANIZER;CN="AI%E8%81%98":MAILTO:info@aipin.io
LOCATION:https://dataapplab.zoom.us/webinar/register/8317724471564/WN_MD5Qr28NTy62AYRatCnNJQ
END:VEVENT
END:VCALENDAR