作者:路世明编辑:大风
来源:锌财经
图片来源:由无界AI工具生成
科技突破不止会带来变革,往往也会带来一些潜在的风险。
自ChatGPT发布后,无数的用户和企业仿佛看到了“未来”,投入到了狂热的拥抱。然而在硬币的另一面,ChatGPT也在经历一场“围剿”。
在国家层面,继意大利宣布禁用ChatGPT后,多国政府和企业开始调查或采取措施限制使用该软件。在领域层面,包括乔治华盛顿大学、巴黎学院在内的全球多所高校,都已宣布禁止学生在其学校的设备和网络上使用ChatGPT,以预防学生作弊的行为。
相比国家和某一领域,全球范围内的不少大型企业,对于ChatGPT表现的更为“敏感”。
科技企业里,三星、软银、松下、LG、台积电、SK海力士等均已宣布对员工使用ChatGPT的限制。金融企业里,摩根大通已禁止其员工使用ChatGPT。电商领域里,亚马逊也曾禁止团队成员将机密客户数据输入ChatGPT......
知情人士:朝鲜黑客入侵IT管理公司JumpCloud以窃取加密货币:7月20日消息,据知情人士透露,朝鲜政府支持的黑客组织于6月下旬侵入了一家美国IT管理公司JumpCloud,并利用对该公司系统的访问权限来瞄准其加密货币公司客户,并将其作为跳板,针对数量不详的加密货币公司发起攻击。[2023/7/20 11:06:55]
多家企业之所以对ChatGPT保持非常谨慎的态度,甚至是限用,并非不明白生成式AI所意味着的时代机遇,而是在意ChatGPT对企业“隐私安全”造成的威胁。
企业越大,数据安全和隐私枷锁余也会越重越牢固,自然也会更加谨慎地去对待类似ChatGPT的工具。
大厂“禁用”ChatGPT
不久之前,三星推出了一项新政策,要求员工不得在工作场所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。
目前,三星员工被禁止在公司设备上使用人工智能工具,包括电脑、平板电脑、手机等。但员工仍可以在个人设备上使用人工智能工具,不过仅限于与工作无关的事情。备忘录中还强调,要求员工认真遵守安全准则,若违规并导致公司信息或数据泄露的话,员工将得到纪律处分,情节严重者将被解雇。
Matrixport研究主管:香港拥有丰富的大亨和资本充足的家办,可以为进入的加密公司提供资金:金色财经报道,Matrixport研究主管Markus Thielen认为,在政府和金融监管机构的批准下,香港有可能重新获得其作为亚洲领先加密中心的地位。Thielen表示,香港是世界上最方便、最无忧的城市,位于亚洲的中心。现在国际加密货币公司掀起了淘金热,为积极参与认股权证和其他衍生品合约等高波动性产品的香港散户投资者提供服务。这座城市拥有近100名亿万富翁,拥有丰富的大亨和资本充足的家族办公室,可以为进入这座城市的加密公司提供资金。
区块链投资公司Fineqia分析师Matteo Greco表示,香港的监管方式似乎为加密业务营造了更加合作和支持的环境,后者对比特币交易有限制。[2023/5/27 9:45:37]
图:三星总部大楼
事实上,在三星这项“严厉”的新政策之前,全球范围内,不少企业便陆续发布了“限制”自家员工使用ChatGPT的公告。
Twitter加密钱包想法或由Elon Musk弟弟Kimbal Musk提出:金色财经报道,Elon Musk 最近已正式完成对社交网络巨头 Twitter 的收购,但由于此前牵涉到许多法律问题,因此许多内部信息和聊天记录在法庭流程中被披露,根据流出信息显示,Twitter加密钱包想法或由Elon Musk弟弟Kimbal Musk提出,他告诉Elon Musk:“Twitter 会让用户支付与服务相关的代币吗?你(Elon Musk)必须将代币放在钱包中才能可以实现这个功能,随着规模的扩大,钱包会成为一项纯粹为了用户利益的巨大业务。”[2022/11/1 12:05:11]
首先对ChatGPT发出“不友好”声音的企业,来自金融行业。
ChatGPT掀起热潮不久后,今年2月,JP摩根大通、美国银行、花旗、富国银行等华尔街巨头陆续表示将禁止或限制使用ChatGPT。据了解,摩根大通不准员工在办公室使用ChatGPT,其表示,有关禁令并非源自任何特定事件,而是基于公司对第三方软件的正常管控。
美国银行例行提醒员工切勿使用未经授权软件时,也特别点名提到ChatGPT。德意志银行更是表明,严禁员工在公司内用ChatGPT,并从内部阻断连接OpenAI网站。而尽管高盛鼓励编程人员采用AI来辅助编程,但禁止旗下交易员使用ChatGPT。
日本JCBA和JVCEA共同发布2023财年税改要求,提出对加密货币单独征税:8月4日消息,日本加密资产商业协会(JCBA)和日本加密资产交易协会(JVCEA)发布了2023年的税改要求,提出对加密货币单独征税,税率为20%。
《2023财年税改要求》谈到了几个问题,这两个组织都认为这些问题阻碍了加密行业的发展。这些问题包括促进税务申报的需要,系统内缺乏一致性,与海外加密资产税收系统的比较,以及加密资产在日本Web3战略中的重要性。(BeInCrypto)[2022/8/4 12:02:06]
日本方面,软银、日立、富士通、日本瑞穗金融集团等企业也开始限制ChatGPT等交互式人工智能服务在商业运作中的使用。
相比金融行业,科技行业的动作丝毫不慢。
今年3月初,台积电发布了一系列内部公告,提醒员工谨慎使用网络工具如ChatGPT或BingAIChat等。除三星外,同属韩国企业的全球第二大存储芯片巨头SK海力士亦称“除必要时刻外”,禁止公司内网使用ChatGPT。
不可否认,ChatGPT这样的生成式AI对提高工作效率很有帮助,但对于这样一个还不足够成熟的AI工具来说,它所展现出的负面效应,并不小于它的正面效应。就如同一把双刃剑,在没有“剑鞘”作为一种保护机制出现之前,对于ChatGPT的“围剿”绝对不会停止。
Convex Finance将于北京时间9点解锁2700万个CVX代币:金色财经报道,?Convex Finance将于北京时间今日9点解锁 2700 万个CVX 代币(价值约1亿美元)。?业内人士表示,随着解锁代币上市,Convex的价格可能会下滑。下滑的程度将反映投资者的情绪,甚至可能表明加密市场是否最终接近最低点。?在修复漏洞后,Convex在3月份第二次启动了其智能合约。大量投资者立即将他们的CVX代币锁定在新合约中,为期16周,而约占总供应量的 30%将于美国东部时间周三晚上 8 点解锁。?
对冲基金Ouroboros Capital在Twitter 上表示,如果解锁的2700万个CVX中只有25万个被售出,价格可能会下跌 10%。
此外,另外1500万个代币将在7月和8月解锁。陷入困境的DeFi 项目Wonderland和Terra的代币将于 8月4日解锁。?[2022/6/30 1:40:46]
能够预料的是,禁用ChatGPT的企业,仍然会持续增加。
数据安全是核心原因
ChatGPT的火爆,实际上是“深度学习”大模型的成功。
生成式AI工具,离不开大数据的帮助。它的进化,需要海量的数据来训练,通过感应器采集数据,进行信息存储、加工,通过算力进行计算,最后形成决策机制,进行反馈。庞大的数据训练,造就了ChatGPT强大功能,但这也意味着,ChatGPT实际上在不断地接触各种对话,其中可能包含相关的敏感信息。
无论是个人、企业,还是国家层面,机密数据、文件隐私,都有可能在使用过程中被ChatGPT采集到,从而被大规模地扩散。这些数据的泄露,也很有可能会对个人、企业,甚至是国家造成重大的损失。
三星无疑是一个典型的“受害者”。
据了解,今年3月三星的半导体事业暨装置解决方案事业部部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件。
其中,员工A用ChatGPT帮自己查一段代码的bug;员工B想用ChatGPT帮自己优化一段代码;员工C想先用AI语音助手NaverClova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要。
前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中,这让三星很是担忧其数据将通过人工智能平台最终落入其他用户手中。
不止三星,数据安全服务Cyberhaven曾检测到并阻止了其客户公司160万名员工中,4.2%的人将数据输入ChatGPT的请求,因为存在泄露机密信息、客户数据、源代码或监管信息的风险。
Cyberhaven还发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。一天之内,每10万名员工就平均给ChatGPT发送了5267次次企业数据。
来源:Cyberhaven
Cyberhaven数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。
和三星一样,所有“限用”ChatGPT的企业,无论处于什么领域,基本都是出于数据保护的考量,都非常担忧第三方软件访问敏感信息带来的风险。毕竟ChatGPT所处理的数据通常具有多样性和复杂性,其数据的收集、存储、传输、处理等各个环节,都存在“合法性”问题。
随着ChatGPT在自然语言处理领域的广泛应用,人们面临数据安全和隐私保护的挑战,正变得越来越巨大。
机遇与风险并存
技术发展史,也是人类的一部恐惧史。
15世纪的德国学者面对刚刚发明的古腾堡印刷机非常担忧,认为这会让他们有永远也无法读完的文献,而他们的作品也不再稀缺,而且会导致大量抄写员失业。
再到工业革命时期的“卢德运动”,工人们拆除编织机的关键零件,袭击仓库,并威胁采取更多的暴力行动。实际上这些操作机器的工人非常清楚设备的生产效率,他们采取行动并非针对机器,而是针对厂方降低工资、裁撤岗位和忽视生产安全的做法。
新技术问世后总会有一段过渡期,这也是社会对它关注最密切的时期。ChatGPT展现出的能力很强大,让很多企业开始积极拥抱,也让很多企业感到“害怕”。
数据安全问题的确是不得不提防的一点。越是大公司,或者越是有着数据安全和隐私枷锁的公司,越会谨慎地去对待类似的工具。三星的做法算是“稳妥”的,毕竟大型企业除了内部数据,更重要的是掌握着很多客户数据,一旦发生了数据泄露事件,后果不堪设想。
只是,有时候提防和运用并不冲突。
如何才能既能拥抱机遇,又能化解风险?对于这些大企业们来说,目前似乎只有一条路可选,即研发出自己ChatGPT。这样不仅解决了风险,还能提高企业员工的工作效率。以三星来说,虽然“限用”ChatGPT,但并没有完全禁止使用。
为了避免内部信息泄露,三星计划开发自己的内部AI工具,供员工完成软件开发和翻译等工作。此外,三星还向旗下所有的手机以及平板电脑产品推送了微软BingAI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软BingAI。
图:三星手机内嵌微软BingAI
除了企业的主动防范,ChatGPT无疑也需要加强对用户隐私的保护,包括匿名化处理、数据去标识化、隐私保护算法等。特别是在数据共享和开放研究方面,ChatGPT需要遵循相关法律法规和伦理准则,采取有效的隐私保护措施,保障用户的隐私权益。
此外,ChatGPT需要积极参与到数据安全和隐私保护的标准制定和监管政策建设中。通过制定统一的数据安全和隐私保护标准,加强监管和法律保障,促进数据共享和合作,从而更好地保护用户的隐私和数据安全。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。