研究人员提出了“道德上正确的人工智能”,以锁定大规模射击者_BAN:lbank交易平台可靠么

纽约伦斯勒理工学院的三位计算机科学家最近发表了一项研究,详细阐述了潜在的AI干预谋杀手段:一种道德禁闭。

这里的主要想法是通过开发可以识别意图,判断其是否出于道德用途的AI来停止大规模支和其他在道德上不正确使用支的行为,并最终在用户试图为不当射击准备使用时使支呈惰性。

这听起来像是一个崇高的目标,实际上研究人员自己将其称为“蓝天”构想,但使之成为现实的技术已经存在。

根据团队的研究:

可以预见的是,有些人会反对如下:“您介绍的概念很有吸引力。但是不幸的是,这不过是一个梦而已。实际上,这不过是白日梦。这种AI在科学和工程方面真的可行吗?”我们肯定地回答。

Wintermute研究人员:Jane Street钱包可能与UST depeg相关联:金色财经报道,Wintermute 研究人员Igor Igamberdiev在社交媒体上表示,与去年Terra depeg 相关的钱包可能属于贸易公司Jane Street。根据交易分析,2022年5月3日,Clearpool宣布Jane Street使用他们的许可贷款池从BlockTower借了2500万USDC。1.在Terra崩盘的两周内,这个地址收到1500万美元,并与另外的1000万美元一起偿还给贷款人,没有任何用途;2.在tonicdex投资了15万美金;3.再次借了2500万美元,并将其存入一个非常有趣的Coinbase钱包中。

在收到Jane Street的2500万美元之前,这个Coinbase钱包在互换之后,从UST depegger那里收到了8450万USDC。这个钱包除了上述两笔存款外,没有任何其他互动。因此,它们极有可能属于同一个实体。[2023/2/28 12:34:41]

这项研究继续解释了涉及长期研究的最新突破如何导致了各种由AI驱动的推理系统的发展,这些系统可以用来简化和实施相当简单的支道德判断系统。

动态 | 研究人员提出BTC挖矿新提案,以降低能源消耗和成本:据Beincrypto消息,非营利组织PoWx联合创始人Michael Dubrovsky、哥伦比亚大学Marshall Ball以及法国巴黎萨克莱大学Bogdan Penkovsky三名研究人员提出了一种全新的比特币挖矿提案。该提案的重点是光子芯片、光学计算机以及对现有加密协议的修订,以抵消比特币目前对电力的依赖。就目前来看,比特币的哈希算力取决于电力成本较低国家的挖矿设施。这自然产生了单点故障。另一种方法是这些研究人员所说的“光学工作证明”(OPoW)。该系统中的挖矿成本主要取决于所使用的硬件,而不是电力,对现有证明的更改将是最小的。[2019/11/27]

本文并没有描述智能本身的创造,而是描述了可以为支用户做出相同决策的AI系统的潜在功效,例如,可以在驾驶员无法通过时将其锁定的汽车呼吸分析仪。

美国国家标准和技术研究所的研究人员宣布 密码学中随机数的方面出现突破:美国国家标准和技术研究所的研究人员最近宣布,在密码学最重要的一个“随机数的产生”方面取得了突破。这种实验性的新技术可能会对网络安全产生巨大影响。在以电子方式运行现代世界的“1”和“0”的数字面纱后面,随机数字每天都要在加密过程中进行数千亿次的排序,这些过程通过不断扩大的互联网为全球提供数据。[2018/4/19]

通过这种方式,将对AI进行训练以识别动作背后的人类意图。研究人员描述了最近在埃尔帕索沃尔玛发生的大规模击事件,并对可能发生的事情提供了不同的看法:

射手驾着车辆驶向沃尔玛,一支突击步和大量弹药。我们设想的AI知道该武器已经存在,并且只能在非常特定的环境中用于非常特定的目的。

在沃尔玛本身,在停车场,行凶者企图使用其武器,或者甚至以任何方式摆放武器,都将被AI锁定。在眼前的特殊情况下,AI知道用杀死任何人是不道德的。由于AI排除了自卫,因此支变得无用并被锁定。

这描绘了一幅美妙的图画。很难想象对完美运行的系统有任何异议。除非有危险,否则没有人需要在沃尔玛停车场装载,搁置或射击支。如果以这样的方式开发AI,即仅允许用户在符合道德要求的情况下开,例如自卫,则在开火范围内或在指定的合法狩猎区域开,每年可以挽救数千条生命。

当然,研究人员当然可以预测到各种各样的反对意见。毕竟,他们专注于在美国环境中前进。在大多数文明国家,支管制是常识。

该团队预计人们会指出,犯罪分子只会使用没有嵌入AI看门狗的支:

作为回应,我们注意到,我们的蓝天概念绝不限于这样的想法,即守卫AI仅在所涉及的武器中。

显然,这里的贡献不是开发智能支,而是创建符合道德规范的AI。如果罪犯不会将AI放在上,或者他们继续使用哑武器,则将AI安装在其他传感器上后仍然可以发挥作用。假设,一旦确定暴力意图,它就可以执行任何功能。

它可能会锁门,停下电梯,警告当局,更改交通信号灯模式,基于文本位置的警告以及许多其他反作用措施,包括解锁执法人员和安全人员的防御武器。

研究人员还认为,人们可能会入侵武器的想法会引起反对。这个问题很容易被驳回:支比机器人更容易固定,我们已经在其中使用了AI。

虽然没有全面的安全保障,但美军用AI来填充舰船,飞机和导弹,我们设法弄清楚了如何防止敌人对它们进行攻击。我们应该能够保持警务人员的服务武器安全。

实际上,假设可以做出道德上的认可,以理解诸如家庭入侵和家庭暴力之类的情况之间的差异,这需要信念的飞跃,但是基础已经存在。

如果您看着无人驾驶汽车,我们知道人们已经死亡,因为他们依靠AI来保护它们。但是,我们也知道,面对迄今为止相对较少的意外死亡人数,挽救成千上万人生命的潜力实在太大了。

就像特斯拉的AI一样,支控制AI可能会导致意外和不必要的死亡。但是在美国,每年约有24,000人死于支自杀,1,500名儿童因支暴力而丧生,近14,000名成年人被杀。理所当然的是,人工智能干预可以大大减少这些数字。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

[0:15ms0-4:54ms