Header Image
Loading Events

« All Events

Virtual Event Virtual Event

100天掌握大语言模型-第十周:LLM Safety Issues 大语言模型的安全

May 7 @ 7:00 pm - 8:00 pm PDT

Virtual Event Virtual Event

人工智能正在以前所未有的速度进入企业、教育、金融、医疗、政府与个人生活。
从聊天机器人,到 AI Agent,再到自动化办公系统,大语言模型(LLM)正在成为下一代数字基础设施。但与此同时,一个越来越严肃的问题也浮出水面:

如果 AI 说错话怎么办?
如果 AI 被恶意操控怎么办?
如果 AI 开始泄露数据、传播偏见、甚至被黑客“洗脑”怎么办?

这就是为什么——
“LLM Safety(大语言模型安全)正在成为全球 AI 行业最热门、最关键的话题之一

本次专题讲座:

LLM Safety Issues: Hallucination, Bias, Jailbreaks, Prompt Injection

将带你深入理解当前大语言模型最核心、最危险、也是企业最关心的安全问题。

为什么这个主题如此重要

今天,越来越多企业正在部署 AI:

  • AI 客服
  • AI 办公助手
  • AI 编程助手
  • AI 金融分析
  • AI Agent 自动执行系统
  • 企业知识库问答系统(RAG)
  • AI 搜索与决策平台

但很多团队在真正上线后才发现:

AI 并不像想象中可靠

它可能:

  • 一本正经地胡说八道(Hallucination)
  • 产生政治、种族、性别偏见(Bias)
  • 被用户绕过安全限制(Jailbreak)
  • 被恶意Prompt 攻击(Prompt Injection)
  • 泄露内部数据
  • 输出违法或危险内容
  • 被操纵执行错误任务

未来 AI 系统最大的风险,可能不是模型“不够聪明”,
而是:

“模型太聪明,但不受控制。”

本次讲座你将学习什么

本次讲座将从“真实 AI 系统安全”的角度,深入分析 LLM 的核心风险与防御机制。

讲座核心内

一、什么是 LLM Safety

  • 为什么AI 安全成为全球科技公司的重点
  • OpenAI、Google、Anthropic 如何看待AI 安全
  • 企业部署LLM 面临的真实风险
  • AI 安全与传统Cybersecurity 的区别

二、Hallucination(幻觉问题

为什么 AI 会“编造答案”?

你将理解:

  • LLM 为什么会产生hallucination
  • Transformer 与next-token prediction 的本质问题
  • 为什么模型“看起来很自信”
  • RAG 为什么仍然会hallucinate
  • 企业知识库中的幻觉风险

案例分析:

  • AI 编造法律案例
  • AI 医疗建议错误
  • 金融分析中的错误推理

我们还将讨论:

  • 如何降低hallucination
  • Grounding 与Verification 技术
  • Self-RAG / RARR 等新方法
  • AI evaluation metrics

三、Bias(偏见问题

AI 为什么会带有偏见?

包括:

  • 数据偏见
  • 训练语料偏见
  • 社会偏见
  • 政治与文化偏见
  • Recommendation Bias

深入讨论:

  • 为什么AI 会放大社会问题
  • 企业AI 产品中的法律风险
  • 招聘系统中的AI bias
  • 金融风控中的公平性问题

四、Jailbreak(越狱攻击

为什么用户能绕过 AI 安全限制?

你将看到:

  • 常见jailbreak 技术
  • DAN Prompt 的原理
  • Role-play attack
  • Token smuggling
  • Obfuscated input
  • Adversarial suffix

以及:

  • 黑客如何“欺骗”AI
  • 为什么模型会被诱导输出危险内容
  • AI Agent 被越狱后的风险

五、Prompt Injection(提示词注入攻击

这是当前 AI Agent 最大的安全问题之一。

讲座将深入分析:

  • 什么是Prompt Injection
  • 为什么Agent 系统特别危险
  • Hidden Prompt 如何被攻击
  • Tool Calling 的安全风险
  • AI 如何被操控执行错误命令

真实案例包括:

  • AI 泄露系统Prompt
  • 恶意网页攻击AI 浏览器
  • 企业内部知识泄露
  • 自动化Agent 被操纵执行危险操作

六、企业级 LLM Security

如何真正建立“安全”的 AI 系统?

包括:

  • AI Firewall
  • Prompt Filtering
  • Guardrails
  • Output Moderation
  • Role-based AI Access
  • RAG 安全设计
  • Agent 安全策略
  • Human-in-the-loop

以及:

  • OWASP for LLM
  • NIST AI RMF
  • AI Governance
  • 企业AI 安全框架

适合哪些人参加

本讲座特别适合:

  • AI 工程师
  • LLM 开发者
  • Data Scientist
  • AI 产品经理
  • Cybersecurity 工程师
  • 企业IT 管理者
  • 创业者
  • 对AI 安全感兴趣的学生与研究人员

 

主办方:AI聘 — 北美数据类、软件类求职服务一站式服务。

三大项目为你全程解除求职困扰:

1. 找到工作再付费的Career VIP项目,为全职岗位求职者提供最专业的支持;
2. Career Plus项目,为全职求职者提供短期强化训练,低成本一站式求职服务;
3. Intern VIP项目,为短期实习求职者提供内推、全程面试辅导支持。

可登录 www.aipin.io了解更多项目信息和成功案例。
邮箱: [email protected]
电话: +1 (626) 566 1822

Details

Date:
May 7
Time:
7:00 pm - 8:00 pm PDT
Event Category:
Event Tags:
, , , ,
免费注册讲座

Organizer

AI聘
Phone:
+1(626)566-1822
Email:
info@aipin.io
View Organizer Website