(资料图片仅供参考)
ChatGPT在经历了最初的一波火爆之后,如今正在面临一个新的麻烦,就是引发了全球性的担忧与危机感,这种全球性的担忧与危机感可能会让ChatGPT的前景不妙,很有可能会走入克隆技术的结局。
马斯克此前发起的暂停训练比GPT-4更强大的AI系统的公开信响应人数仍在不断增加,截至发稿,已有超1.8万人签名。一周之内,意大利、德国、法国、爱尔兰等8国相继“出手”监管。
意大利个人数据保护局早已经宣布禁止使用ChatGPT。
意大利已经要禁了,德国也要跟,不久前,德国联邦政府数据保护专员乌尔里希·凯尔伯表示,德国可能跟随意大利的脚步,因数据安全问题“封杀”ChatGPT。在英国,1000多名人工智能专家和行业高管联名发布公开信,呼吁暂停开发最先进的人工智能系统,以便制定安全政策。
而联合国教科文组织也号召各国立即执行其《人工智能伦理问题建议书》。这一规范性全球框架由教科文组织193个成员国一致通过,旨在“提供所有必要保障”。
据媒体最新报道,拜登政府已开始研究是否需要对ChatGPT等人工智能工具进行审查。
目前飞象网创始人项立刚也表示,美国自己最终也有可能禁掉ChatGPT。
对于ChatGPT,马斯克曾经也发表过很多观点。在一开始,马斯克也对ChatGPT颇为推崇,但后来,马斯克表示它好得有点可怕了。我们距离危险的强人工智能不远了。于是,他马上行动做出应对,取消了 OpenAI 对推特数据库的访问。
目前来看,虽然ChatGPT这样的生成式AI对提高工作效率很有帮助,但它的负面效应正在大于它的正面效应,引发了很多国家、行业的担忧与警惕。
从饭碗、隐私到版权,ChatGPT引发越来越多的危机感
从原理来看,ChatGPT的本质是深度学习,这种生成式AI的模型进化是需要依赖大数据来训练,通过感应器采集数据,进行信息存储、加工,通过算力进行计算,最后形成决策机制,进行反馈。
在这种模式下,它能产生多种负面效应,它一方面会采集用户数据进行训练,这将导致大规模的隐私数据泄露,无论是对于个人的隐私还是商业公司的机密与数据、文件隐私,甚至一个国家政府层面的数据隐私都有可能被ChatGPT采集到,从而被大规模的扩散,这种隐私安全的威胁,从个人到公司到国家,都不想看到它出现的。
事实上,三星已经验证了这种威胁。早在不久前,三星引入ChatGPT之后就出事了。据《economist》报道,三星DS部门的A职员,在执行半导体设备测量资料库(DB)下载程序的源代码时出现了错误,便复制出有问题的原始代码到ChatGPT,并询问了解决方法。另外,三星DS部门的C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,要求其制作会议纪录。
最终三星半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中。这些是非常关键的机密数据资料。目前,三星也已经禁用了ChatGPT。
因此,如果大型企业接入ChatGPT之后,一方面可以为公司员工办公的效率带来帮助,但很可能公司内部的很多机密资料被输入到ChatGPT数据库,导致商业机密与产品专利、技术等方面的机密资料外泄。因为员工会通过ChatGPT咨询什么问题,公司可能并不知情,也很难追踪。
另一方面ChatGPT会输出价值观、文化、思想,这就不能被各国政府所能接受。因为对于一个国家来说,有着其固有的共同的文化与价值观,这是一个国家文化共同体的重要文化组成部分,从这个角度来看,ChatGPT有文化渗透的风险。
其三是,剽窃。如前所述,它需要采集大量的用户数据进行训练,这导致很多版权内容、包括文章、新闻与文献、论文资料全部被它所用,它免费的帮助用户去剽窃整个互联网的版权内容。美国语言学家诺姆·乔姆斯基认为,ChatGPT是一个高科技剽窃系统,从海量数据中发现规律,并依照规则将数据串连在一起,形成像人写的文章和内容。在教育界,已经引发了“ChatGPT让剽窃变得更加容易”的担忧。
其四:如果全球都对它开放数据库,那么ChatGPT有庞大的数据来训练,可以快速进化,那么它真的可能砸掉很多人的饭碗。随着它的进化与升级,无论是技术人才还是企业高管、律师、作家、画家、程序员、设计师、工程师等等,都有可能被ChatGPT取代。
ChatGPT来了,我会失业吗?这是自这个AI发布后,全球很多人都在问的问题。
有人说,一个新技术总会有好的和不好的方面,不能说因为有不好的地方就把它禁掉。但这其实要看负面效应大还是正面意义大,风险是可控的还是不可控的。
如果它给人类本身带来了更多的难题与危机,负面效应大于正面效应,可能就会被考虑禁用。事实上,克隆技术就是如此,事实上,从克隆技术的走向来看,似乎预示了ChatGPT的结局。
ChatGPT会不会走向克隆技术的结局?
在国内,科技向善曾经是一个很流行的词,这可能是科技创新与技术创新的最终目的,如果科技创新与技术创新违背了“向善”这个方向,而是走向相反的方向,那么它可能会遭遇全球性的禁用,结局可能就不会太好。
其实在科技界一个典型的例子是克隆技术。现在克隆技术没有多少人提了。
但在过去,克隆技术曾经被全球所关注。提到克隆生物,我们首先想到的是克隆羊多莉。但其实克隆羊多莉并不是唯一被克隆的动物,科学家们利用克隆技术还克隆出了老鼠,牛,猪等23中哺乳动物。后来我国科学家还克隆出了难度非常高的灵长类动物猴。
赛马Aiken Cura是赢得过5次马球比赛的冠军,为了延续它的基因,美国Crestview Genetics公司提取了它的体细胞,并提取出体细胞的细胞核,将其放入到去掉细胞核的卵母细胞中,然后克隆出了8匹优秀的赛马。
既然克隆生物看起来是很强大的科技与技术,那为什么各国要禁止克隆技术的使用呢?
这有多方面原因,首先是克隆技术并不完善,其次是它是逆大自然的产物,用来克隆的生物并没有想象中健康与完美,克隆羊多莉4、5年后患上了老年病,在出生后6年就因肺部感染而死亡,克隆技术带来的还有生物资源的抢夺与繁衍的混乱。
而如果克隆人技术作用于人,会给人带来恐慌,克隆人对人的取代其实就类似于ChatGPT的能力对人的取代,人们为什么要制造一个人来取代自己?这会带来很多不安定的混乱因素以及个人生物识别的难题。
克隆技术如果是应用到动物身上,克隆出无限多的个体,但是这些个体的基因与原来的没有任何变化,反而会抢占其他动物的生存空间,导致物种基因多样性减少,从而引发灭绝危机。
如果应用到人身上,那更加不得了,每个人都可以克隆多个个体,毫无疑问会引发伦理危机,你怎么证明你是你,如果有多个你存在,无疑给社会以及个人的人身安全、治安、社会稳定带来严重的隐患与危害。因此,克隆技术并没有做到“科技向善”,而是走向了相反的方向,它没有给人类以及动物界的生存繁衍带来好处,甚至给人的生存带来了更大的危险与制造了更多的混乱。
因此,克隆技术被禁用,因为它没有做到科技向善。
从目前ChatGPT来看,其实有类似的一面,我们需要一项技术为己作用,是可以自己掌控的,如果人类无法掌控他的风险走向,那么它就是危险的。
本质上,如果开放数据库给它,相当于打开潘多拉魔盒,正如马斯克所说的:“当你参加派对时,我研究了 ChatGPT。当你为了追求虚荣而在健身房浪费时间训练时,我正在训练机器学习模型。现在全世界都要完犊子了,AGI 都到眼跟前了,你好意思来找我帮忙了?”
这种生成式AI有它积极性的一面,就是提高你的工作效率,但是比产生意识更可怕的是,AI模型自己不停地学习,而这个过程又在人类的监控之外,因为AI的终极目标是实现AGI(通用人工智能),让AI模型表现得像人一样,那么这很有可能给人类本身带来危机,也会危及到一个国家层面的数据与机密安全。
因此,从这个角度来看,就看ChatGPT未来如何优化与改善,弥补它的短板,但从目前来看,各国正在考虑出台制度与采取行动来禁用它,它进化的越快,被禁用的概率越大,按照目前的走势,ChatGPT要么可能会在特定的企业与圈子范围内被小范围使用与研究,要么有可能被更多国家在政策上限制,束之高阁被禁用,逐渐走向克隆技术的结局。(本文首发钛媒体APP)