ChatGPT / AI新闻聚合
14:54 · 2023年4月17日 · 周一
Prompt injection 漏洞
也就是说,目前用LangChain粘合的应用,如果没有考虑好这个安全问题,很容易被注入攻击,黑客可以在prompt中注入恶意代码,而你的服务器端处理请求时就会执行这些恶意代码。
⚜️
LLM中的安全隐患-提示注入
这篇文章对 Prompt Injection 进行了展开,并推荐了几篇相关的论文。如今,随着ChatGPT插件,LangChain以及Agent,AutoGPT这类增强式语言模型越来越火热,其风险正在与日俱增。
via
chatGPT中文社区 - Telegram Channel
Home
Tags
Powered by
BroadcastChannel
&
Sepia
oaibest.com
2023-2025
admin@oaibest.com