ESET安全:如果你的浪漫AI聊天机器人守不住秘密怎么办?

你的聊天机器人知道得太多了吗?在告诉你的AI伙伴一切之前,三思而后行。

如果你的浪漫AI聊天机器人守不住秘密怎么办?

在电影《她》中,主角与一个复杂的人工智能系统展开了一段注定失败的恋情。在2013年上映时,这样的情景还属于科幻小说范畴。但随着生成式人工智能(GenAI)和大型语言模型(LLMs)的出现,这也不再是遥不可及的前景。事实上,“伴随”应用如今正在大量涌现。

然而,不可避免地,与AI机器人连接存在风险。你怎么知道你的个人信息不会被第三方分享?还是被黑客盗走了?这些问题的答案将帮助你判断是否值得冒这个风险。

寻找(数字)爱情

伴随应用满足了不断增长的市场需求。AI男女朋友利用大型语言模型和自然语言处理(NLP)的力量,以对话式、高度个性化的方式与用户互动。像 Character.AI、Nomi和Replika这样的游戏,满足了使用者的心理甚至浪漫需求。开发者为何热衷于进入这一领域并不难理解。

甚至大型平台也在赶上。OpenAI最近表示,他们将很快推出“面向认证成人的情色作品”,并可能允许开发者创建基于ChatGPT的“成熟”应用。埃隆·马斯克的xAI也在其Grok应用中推出了调情的AI伴侣。

7月发表的研究发现,近四分之三的青少年使用过AI伴侣,其中一半经常使用。更令人担忧的是,三分之一的人在严肃对话中选择了人工智能机器人而非人类,四分之一的人与他们分享了个人信息。

这尤其令人担忧,因为警示故事开始浮现。去年十月,研究人员警告称,两个AI伴随应用(Chattee Chat和GiMe Chat)无意中泄露了高度敏感的用户信息。一个配置错误的Kafka代理实例导致这些应用的流媒体和内容分发系统没有访问控制。这意味着任何人都可能访问超过60万张用户提交的照片、IP地址以及数百万次属于40万用户的亲密对话。

与机器人搭讪的风险

机会主义的威胁行为者可能会察觉到一种新的赚钱方式。受害者在与AI伴侣的浪漫对话中分享的信息极易被勒索。例如,图片、视频和音频可以被输入深度伪造工具,用于性勒索诈骗。或者个人信息可能被出售到暗网上,用于后续的身份欺诈。根据应用的安全状况,黑客还可能获得存储在应用内购买中的信用卡信息。据Cybernews报道,一些用户在此类购买上花费数千美元。

相关阅读:ChatGPT,你愿意做我的情人节吗?

如上所述,AI应用开发者的优先事项是创造收入而非网络安全。这意味着威胁行为者可能能够发现漏洞或错误配置进行利用。他们甚至可能尝试创建自己的类似伴随应用,隐藏恶意信息窃取代码,或控用户泄露可用于欺诈或勒索的敏感信息。

即使你的应用相对安全,也可能存在隐私风险。一些开发者会尽可能多地收集用户信息,以便将其出售给第三方广告商。不透明的隐私政策可能让人难以理解你的数据是否或如何受到保护。你还可能发现,你与伴侣分享的信息和对话被用来训练或微调底层的LLM,这进一步加剧了隐私和安全风险。

如何保护你的家人安全

无论你自己是在使用AI伴随应用,还是担心孩子使用,建议都是一样的。假设AI没有内置的安全或隐私保护措施。并且不要与它分享任何你不愿意与陌生人分享的个人或财务信息。这包括可能令人尴尬或暴露的照片/视频。

更好的是,如果你或你的孩子想尝试这些应用,务必提前调查,找出那些提供最佳安全和隐私保护的。这意味着要阅读隐私政策,了解它们如何使用和/或分享你的数据。避免使用那些不明确说明预期使用或承认出售用户数据的应用。

找到应用后,务必启用双因素认证等安全功能。这将有助于防止账户被盗或暴力破解的密码被盗。并探索其隐私设置,提升保护功能。例如,可能有选项可以选择不保存对话内容用于模型训练。

如果你担心孩子使用这些工具会带来的安全、隐私和心理影响,可以与他们展开对话,了解更多。提醒他们过度分享的风险,并强调这些应用是盈利工具,并不以用户利益为中心。如果你担心它们对孩子的影响,可能需要对屏幕时间和使用设置限制——这可以通过家长监控控制或应用来执行。

不用说,你不应允许任何年龄验证和内容审核政策未能为你的孩子提供足够保护的AI伴侣应用。

监管机构是否会介入,对开发商在该领域能做什么、不能做什么,还有待观察。恋爱机器人目前处于某种灰色地带,尽管欧盟即将出台的《数字公平法案》可能会禁止过度上瘾和个性化的体验。

在开发者和监管机构赶上之前,最好不要把AI伙伴当作知己或情感支柱。