aigc安全研究报告新版-百度网盘下载
CONTENTS
目录
3.4提示泄露攻击
3.5越狱攻击
1.AIGC研究背景
3.6数据投毒攻击
11AI技术框架安全
3.7模型投毒攻击
1.2AIGC内容安全
3.8拜占庭攻击
1.3数据安全
3.9定向投毒
1.4 国内监管政策
3.10模型萃取攻击
1.5国外监管政策
4.AIGC内容安全
2.AIGC技术框架
41 内容安全
2.1 AIGC
4.2伦理安全
2.2 Prompt
4.3安全合规
2.3 ChatGPT
2.4 ChatGPT技术架构
5.AIGC数据安全
2.5ChatGPT内部执行逻辑
5.1数据泄露
2.6 TAMER
5.2数据污染
2.7 Transformer
5.3数据合成
2.8深度学习框架
2.9 大模型
6.AIGC安全产品
210 上层应用
7.AIGC安全实验室介绍
3.AIGC框架安全
8.博特智能介绍
3.1AI供应链安全
9.创业黑马介绍
3.2LangChain安全
3.3提示注入攻击
10.参考资料
AIGC研究背景
自然语言处理(NLP)赋予了AI理解和生成能力,大规模预训练模型是NLP的发展
趋势。NLP的两个核心任务分别是自然语言理解(NLU)和自然语言生成(NLG)
ChatGPT是NLP发展中具有里程碑式意义的模型之一。ChatGPT是OpenAl从GPT-3.5
系列中的模型进行微调产生的聊天机器人模型,能够通过学习和理解人类的语言来进行
对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写
邮件、视频脚本、文案、翻译、代码等任务。
从ChatGPT的突然爆火让人们看到了AI一夜之间从一个01岁的小孩突然变成了一
个3岁的小孩。可以期待的未来正如人类孩子的成长期一样,会随着时间的推移,超级
深度大模型的学习能力会越来越强,越来越智能。
Al的深度学习已经突破了成长的瓶颈,从算法,数据到底层算力的支撑本质上来讲
所有的技术问题都已经解决。未来将会进入AI领域的快速爆发和成长期,让AI快速的学
习从3岁的小孩变成8岁甚至18岁。
越智能的技术背后的安全问题越发令人担忧,一旦失控所带来的后果将会是颠覆
性,毁灭性的。因此在发展基于深度学习模型的AI技术和应用的同时我们应该提前考虑
整个链路中所产生的新安全问题。
根据过往的研究经验AI所带来的新安全问题主要包括下面几个方向。
1.1
AI技术框架安全
我们知道目前所有的AIGC所产生的应用都不是单一的创新,而是基于过往的各种
深度学习模型,开源框架,算法的优化做的整体组合。整个组装过程中会涉及各种开源
框架,中间件,算法等。这些框架中间件本身可能会存在各种各样的安全问题。比如最
近关注比较多的关于Langchain框架PromptInjection安全问题。
研究这些框架和算法尽可能的从技术底层规避安全问题是解决AIGC链路上安全的
重要方向之一。
评论0