(资料图)
ChatGPT热度不减,但人们逐渐开始关注到了安全性的问题。4月10日,中国支付清算协会发布了《关于支付行业从业人员谨慎使用ChatGPT等工具的倡议》(以下简称《倡议》)。
《倡议》表示,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,中国支付清算协会向行业发出三条倡议。
具体看:一是提高思想认识,依法依规使用;二是不上传关键敏感信息;会员单位加强内部管理和引导。
《倡议》表示,支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
此外,《倡议》还要求会员单位进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。
值得一提的是,ChatGPT是基于巨大的数据集训练出来的,这意味着它在回答问题可能存在偏见和错误;ChatGPT 以及其他类似的模型可能被用于恶劣的,例如传播虚假信息和滥用个人信息。
虎符智库研究员李建平告诉21世纪经济报道记者,如同其他人工智能模型一样,ChatGPT是把双刃剑,既可以是提升效率的工具,同时也可能被绕过安全机制,用于实施有害的活动。对于如何规避ChatGPT所带来的安全问题,他认为,从安全防护的角度来看,ChatGPT的运营机构需采取针对性的应对措施。对ChatGPT等类似模型进行培训,标记恶意的活动和恶意代码,避免其向恶意人员提供;同时对ChatGPT设置难以绕过护栏,提升恶意人员利用其生成恶意内容、开展恶意活动的门槛。