我们的日常生活是通过算法运行的。无论我们是在线购物,决定看什么,预定航班还是只是试图穿越市区,都涉及到人工智能。可以肯定地说我们依赖算法,但是我们真的信任它们吗?
预先:是的。我们的确是。佐治亚大学的三位研究人员最近进行了一项研究,以确定人类是否更可能相信他们认为是由算法产生的答案或来自人类的众包答案。
研究:区块链行业自2013年已完成价值约27亿美元并购交易:金色财经报道,根据The Block的研究,自2013年以来,区块链领域共进行了134项并购交易,总价值约为27亿美元。其中,加密货币交易所的并购交易数量领先。[2020/7/4]
结果表明,当问题变得复杂而使人们难以相信自己的答案时,人们更有可能相信算法。
声音 | BitMEX研究:今天早上比特币出现了一个孤块,这是自2017年10月来首次出现:BitMEX Research在推特表示:“今天早上比特币出现了一个孤块(orphan block) ,这是我们的节点自2017年10月以来第一次检测到这一情况。”[2019/5/28]
背景:我们都知道,某种程度上,我们对算法有所了解。我们倾向于相信Spotify和Netflix知道如何娱乐我们。因此,人们选择基于被标记为计算机生成的唯一区别的答案就不足为奇了。
声音 | 剑桥大学研究:对比特币死亡的猜测被“极度夸大”:据bitcoinist报道,根据2018年前三季度加密用户数量翻倍的消息,剑桥大学的这项研究也得出另一结论,比特币因价格下降85%而死亡,被媒体过度“夸大”[2018/12/16]
但是有趣的部分不是我们信任机器,而是当我们可能不信任机器时我们信任它们。
工作原理:研究人员吸引了1,500名参与者参加研究。要求参与者查看一系列图像并确定每个图像中有多少人。随着图像中人数的增加,人们对答案的信心越来越小,他们可以将其答案与成千上万人群的众包答案相匹配,或者被告知答案是由某人产生的。算法。
根据研究:
在三个预先注册的在线实验中,我们发现随着任务变得越来越困难,人们越来越依赖与社会影响力相关的算法建议。这三个实验都专注于具有正确答案的智力任务,并且发现随着难度的增加,受试者更多地依赖算法建议。即使在控制了建议的质量,对象的计算能力和准确性以及对象是否只接触了一个建议源或两个源之后,这种效果仍然持续存在。
这里的问题是AI并不是非常适合完成一项任务,例如计算图像中的人数。听起来这似乎是针对计算机构建的问题,毕竟这是基于数学的,但是事实是,AI常常难以识别图像中的对象,尤其是当相同对象之间没有清晰的分隔线时类型。
快速入门:研究表明,公众可能对AI的功能有些困惑。算法变得越来越强大,人工智能已经成为我们日常生活的重要方面,但是当普通人似乎仅仅因为认为某个给定的答案是由算法产生而就认为给定的答案更好时,这绝不是一个好兆头。
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。