Prompt injection 漏洞

也就是说,目前用LangChain粘合的应用,如果没有考虑好这个安全问题,很容易被注入攻击,黑客可以在prompt中注入恶意代码,而你的服务器端处理请求时就会执行这些恶意代码。

⚜️ LLM中的安全隐患-提示注入

这篇文章对 Prompt Injection 进行了展开,并推荐了几篇相关的论文。如今,随着ChatGPT插件,LangChain以及Agent,AutoGPT这类增强式语言模型越来越火热,其风险正在与日俱增。

via chatGPT中文社区 - Telegram Channel
 
 
Back to Top
oaibest.com 2023-2025
admin@oaibest.com