最近看到一个非常巧妙的 ChatGPT 攻击手段,跟大家分享一下,也算是做个提醒。
简单来说,黑客会利用 LLM 幻觉(Hallucination),在 AI 生成的答案中,找到一些不存在的安装包地址,并将其偷偷替换为自己的木马程序,让 ChatGPT 引导用户安装与下载,进而盗取用户数据。
整个操作手法以及复现过程,可看下面这篇文章的具体介绍。
详细介绍: 如何利用 ChatGPT,盗取用户数据?
不论你是否懂技术,我都建议你了解一下这种攻击手段,有备无患。
https://weibo.com/5722964389/N5zjTtJPy
Why is this step necessary? hello.2heng.xin might not be the server where you are registered, so we need to redirect you to your home server first. Don't have an account? You can sign up here
hello.2heng.xin