即使距离最早发布已经过去了五个月,但 ChatGPT 至今仍然是最炙手可热的话题之一:作为黄仁勋口中的「AI 的 iPhone 时刻」、周鸿祎口中「领先国内 2-3 年」的 ChatGPT 以及背后的 OpenAI,被普遍认为是本次生成式人工智能浪潮中的最大赢家。
但近期在短短一周之内,ChatGPT 就接连遭遇两次重大事件,分别是 ChatGPT 付费版本 ChatGPT Plus 暂停付费,以及意大利监管机构禁止 ChatGPT 使用。
(相关资料图)
首先是第一个问题,虽然截至目前,ChatGPT Plus 订阅已经正常恢复,但这件事所折射出的,是 OpenAI 对于当下 AI 开发阶段的重点所在:对于 OpenAI 来说,来自 ChatGPT Plus 订阅用户每月20美元的订阅费,比起微软近期向 OpenAI 投资的一百亿美元来讲更是不值一提。
相比赚眼前用户的这些蝇头小利,或许将在今年年内发布、仍需大量算力培育的 GPT-5,才是当下 OpenAI 的重点。
对于 OpenAI 来讲,ChatGPT Plus 本质上更像是一种用付费,来快速筛选用户的一种方式:付费用户能获得优先使用权,同时也代表着非付费用户只能排队,面对 GPT-4 带来的各种新功能被拒之门外。也会在新功能发布等高负载时段拒绝免费用户的访问请求,优先确保 ChatGPT Plus 的正常访问。
只是可能连 OpenAI 都没能预计到,如今的 ChatGPT Plus 也已经产生了越来越多的滥用问题,导致 OpenAI 引以为傲的算力资源也出现了缺口。以至于 OpenAI 都不得不在 4 月 5 日关闭 ChatGPT Plus 的付费渠道,给出的理由就是「需求量过大」。
此前在今年三月,ChatGPT 已经出现过数次大范围宕机事件,虽然原因并不全是「算力不足」,但却侧面反应出目前供给普通用户的 ChatGPT 服务其实并不稳定。尽管 OpenAI 从来没有披露过具体的付费用户数据,但从近一个月出现的各种状况来看,OpenAI 的算力已经无法完善支持 ChatGPT 的用户数量进一步增长。
但眼下 ChatGPT 所要面临的问题显然不只是算力不足导致的服务问题:在最初的震撼逐渐平息之后,伴随 ChatGPT 一同诞生的数据隐私问题也逐渐被更多人所察觉:所谓的生成式人工智能,目前最常见的使用场景在于将网络中的相关信息快速聚合并有机总结。因此取代搜索引擎是目前被讨论最多的应用场景之一,更一直让 Google 紧张不已。
但在关键的「信息聚合」中,自然也诞生了各种信息所涉及到的隐私问题,尤其是 OpenAI 已经明确表示用户的所有回复内容都有成为 ChatGPT 训练语料的可能性,同时建议用户不要在对话中分享个人信息,但在许多用户眼里,ChatGPT 似乎已经成为了一个可以咨询任何问题的老师,因此失去防备,将自己乃至工作上的各种隐私数据和盘托出,交予 ChatGPT 寻求帮助。
据《Economist》报导,近期三星半导体员工疑似因使用 ChatGPT,导致在三起不同事件中泄露公司机密。调查原因皆因员工将公司机密资讯输入 ChatGPT 而导致。
在三起信息泄露事件发生之后,三星在三月发布了 ChatGPT 使用禁令,并开启内部调查,由于用户与 ChatGPT 的对话都会上传至 ChatGPT 数据库,因此很多员工在将自己的问题输入 ChatGPT 时,实际上就已经产生了数据泄露。
报道中提到,外泄的信息包括半导体设备量测资料库、生产设备相关软件,以及一份内部会议语音转录的文字纪录摘要。甚至还出现了经典的「ChatGPT 改代码」:报导称一名软件工程师在开发中将整份程式码复制到 ChatGPT 中修复 Bug。
3 月 31 日,意大利当地数据监管机构 —— 个人数据保护局宣布,将暂时禁止意大利境内用户访问 ChatGPT,并借此审查 ChatGPT 存在的「非法收集用户数据」的证据。成为迄今为止第一个官方开出对生成式人工智能禁令的国家:当地用户很快就发现,所有从意大利境内访问 ChatGPT 的请求都已经被阻断。
虽然 OpenAI 创始人 Sam Altman 对此表示相当无辜,发推表示「我们遵守了所有隐私法规」言下之意表示「ChatGPT 没做错什么」,同时表示期待 ChatGPT 重新在意大利开放访问;但 Twitter 上也有从事数据安全领域的专家提醒 Altman:这并非只是结束,很可能是一波欧盟乃至世界各国禁止 ChatGPT 的开始。
在很多人看来,意大利监管机构的这一举动等同于因噎废食,甚至被许多海外 ChatGPT 用户被认为是试图阻挡 AI 发展大潮的绝望之举。但世界各地的数据监管机构确实已经蠢蠢欲动,越来越多国家的监管部门注意到其中的问题 —— 只是此时终于有人打响了对人工智能隐私数据监管的「第一枪」。
据路透社报道,包括法国、爱尔兰、德国等地的监管机构已经在与意大利个人数据保护局进行接触,以获得更多 ChatGPT 泄露用户个人数据的证据,或许为推动当地版本的 ChatGPT 禁制令做准备。此前曾令各大科技巨头多次吃亏的通用数据保护条例 (GDPR),同样也可以适用于迅速兴起的大模型人工智能公司。
在 ChatGPT 在意大利被禁止访问一周之后的 4 月 6 日凌晨,OpenAI 发布了一份博客文章 —— 在这篇文章中,OpenAI 虽然没有正面回应外界对于 ChatGPT 安全性的质疑,但几乎全篇都在阐述 OpenAI 如何确保用户数据被安全地使用,以及改进保障措施的努力。
但这并没能回避生成式人工智能原理上与使用用户数据的直接冲突:作为数据隐私保护的最前线,欧盟的行动很大程度上代表了监管机构对于生成式人工智能对于用户数据被滥用的担忧,而意大利的行动更像是一次对 OpenAI 的测试:意大利个人数据保护局给了 OpenAI 20 天的时间,要求在此期限内解决用户数据被滥用的问题。
因此 OpenAI 的这篇博客,很大程度上也是代表人工智能研发机构,在面向监管部门「喊话」:在数据保护层面上,技术发展与政府监管之间需要新的「边界」,来解决生成式人工智能在利用个人信息训练下一代产品时伴随而来诞生的隐私问题。
在 OpenAI 发布的公告中:关于法规的看法,其中有这样一句话:
(ChatGPT)在现实中越来越多地运用,不仅促使着法规逐渐完善,同时也仍然需要允许技术带来许多有益用途。
用户隐私数据在伴随技术发展的这一过程中,注定要经历很长一段时间的互相博弈,才能获得逐渐完善的法规。但对于 ChatGPT 来讲,如今已经驶过最受瞩目的发展阶段,伴随而来的各种现实问题,对于后来者来讲,或许也会成为各种转折的契机。