如何保护你的数据产权:刷脸的时代,你真的准备好了吗?-ODAILY_人工智能:MEDICAL CANNABIS COIN

巨数据和隐私计算与个人数字/数据主权是一种相互相生的关系。这里的“巨数据”,是指在我们当前高度自动化世界里生产出来的高度隐私的数据,比如:

1.接近人的传感器,比如物联网产生的数据;

2.接近人类行为和互动的数据;

3.“巨数据”是高度隐私的数据—比如医疗和健康、行为;你可能不介意你的“海淘”、“剁手”数据被亚马逊和淘宝收集变现,但是你一定会介意、甚至恐惧你的医疗和健康数据被收割。

“巨数据”里这种高度隐私的数据我们也称之为“重隐私”的数据。“重隐私”数据的一个特点就是和我们的生物特征有很高耦合度的绑定,这也是来自于技术进步—因为在过去,由于技术的限制,隐私数据和生物特征的耦合度比较低—所以那个时代的隐私保护并没有今天这么迫切。这种和我们生物特征耦合度比较低的隐私数据,可以称之为“轻隐私”数据,比如你在亚马逊上的“海淘”记录,你的互联网浏览记录等。

和生物特征高度耦合的“重隐私”数据的一个典型例子,就是我们的“人脸”

“人脸”这种和生物特征高度耦合的“重隐私”数据,一直具有“两重性”—一方面是我们的“重隐私”,另一方面又是我们人类成为社交性生物的一个重要“工具”—人脸是我们表达情感的最主要的工具,人脸的丰富表情可以传达更多、更丰富的信息,这是人类智能进化的一个重要体现。

人脸肌肉比地球上任何其他动物都要多:每半边脸上有22条“表情”肌肉。

我们人类进化出的这个不同凡响的“社交智能”,让我们的“脸”成为一个社交工具—和我们另外一个社交工具—声音/语言一样,脸成为一种“表达”的载体。

最近国内大热的ZAO换脸APP,就是来源于这个技术的一个开源软件“Deepfake”

这个技术“突破”点在哪里呢?主要就是Deepfake突破了所谓的“恐怖谷”是一個關於人類對機器人和非人類物體的感覺的假設。它在1970年由日本机器人专家森政弘提出,但「恐怖谷」一詞由恩斯特·詹池於1906年的論文《恐怖谷心理學》中提出,而他的觀點被佛洛伊德在1919年的論文《恐怖谷》中闡述,因而成為著名理論。

(UncannyValleygraph-wiki)

森政弘的假設指出,由於機器人與人類在外表、動作上相似,所以人類亦會對機器人產生正面的情感;直到一個特定程度,他們的反應便會突然變得極為負面。哪怕機器人與人類只有一點點的差别,都會顯得非常顯眼刺眼,整個機器人顯得非常僵硬恐怖,使人有面對殭屍的感覺。可是,當機器人和人類的相似度繼續上升,相當於普通人之間的相似度的時候,人類對他們的情感反應會再度回到正面,產生人類與人類之間的移情作用。

「恐怖谷」一詞用以形容人類對跟他們相似到特定程度之機器人的排斥反應。而「谷」就是指在研究裡「好感度對相似度」的關係圖中,在相似度臨近100%前,好感度突然墜至反感水平,回升至好感前的那段範圍。

(UncannyValleyexample-Left-AngelinaJolieinBeowulf)

在“恐怖谷中”(UncannyValleyexample-Right-Avatar)

2009年的大片“Avatar《阿凡达》“是第一次越过了“恐怖谷”的影片,就是因为在动作捕捉中用了更多的采样点。

现在的人工智能技术”Deepfake“是通过对巨量的数据进行“训练”得到的算法,已经可以很轻松地突破“恐怖谷”了。这也说明人工智能已经突破以前只有人类才能涉及的认知领域,我们生活的时代,真的要很不一样了

ZAO换脸APP在开始病传播的前几天成了一个刷屏的爆款软件,因为它实在是太震撼、太好玩了,你可以用你的脸替换任何影视场景里的明星脸,过足过去只有明星才有的“看片”快感。但是ZAO热了没几天,很多人缓过劲来,才突然觉得“细思恐极”—能帮我换“明星脸”,难道不能用我的脸银行的人脸识别验证,然后卷走我的钱吗?!

这时我们才意识到,技术的进步真的是一把“双刃剑”—让我们“越来越爽”的技术,也会更加深入地侵犯到我们的隐私。特别是和我们的生物特征深度耦合的重隐私巨数据。

目前对类似ZAO这种A.I.“换脸”技术带来的隐私安全问题的常见回答是:这个技术目前还不足以过银行等地方使用的人脸识别软件。确实,目前拿着打印着你的照片的彩色激光打印纸在银行人脸识别前晃动可能还不行,而且比如苹果手机的刷脸解锁除了采集你的人脸图像数据以外,还会采集脸部的深度数据以及皮肤浅层的毛细血管数据,不是那么容易攻破的。

That’sit?

这种答案显然不能让我们安心。你知道类似于“Deepfake”这类换脸软件的算法是怎么得来的吗?Deepfake是基于目前叫做“深度学习”的人工神经网络智能算法,特别是一类叫做“生成对抗网络”的算法,是这位斯坦福大学的学霸小哥提出的:IanGoodFellow

这是一个脑洞大开的算法:创造一个进化的虚拟环境,让机器生成两个互相对抗的算法进行博弈,一个模拟,一个判别:

你说这个图像是真的还是我造假的?你太挫了,一点都不像!你输了!这个呢?不像!再来这个呢?嗯,有点像吧。。。哈哈,你错了!我这个还是假的,你输了!

这样游戏两方就在对抗中进化,直到造出“真实”得你不敢相信的图像。很明显,如果我们把上述进化博弈游戏的一方换成人类,当人类的认知达到极限的时候,另一方的人工智能程序是否会超越人类?很有可能啊。在这种“道高一尺,魔高一丈,人工智能一丈五”的游戏里,人类可以坚守到何时?很快,人类会发现,最好的算法就是把人类认知排除的算法,让人工智能对付人工智能。然后我们会发现,这是一场人工智能的军备竞赛,谁有资源研发出来更强的人工智能算法,谁就可以暂时胜出。在我们这个资源绑定的经济体和社会里,最后只有拥有最多资源的垄断者可以有玩这个人工智能军备竞赛游戏的能力,那些没有资源的人,即大多数人,都会成为失败者。

但是,如果有一天,不再参与竞赛的人类也许会被“人工智能”觉得多余,那一天将是一个可怕的日子。

所以,我们目前的资源绑定的经济体,根本不适应这个人工智能已经到来的时代。

回到“换脸”对隐私保护的挑战的问题,我们需要做的,是换一个思路。

回到问题的另外一端:如果我们不想通过赢得对人工智能的进化对抗赛来解决问题的话,也许可以用我们进化人类自己的经济社会的方式来做尝试?

“重隐私”的巨数据的一个特点是和我们的生物特征深度耦合。我们可以尝试进行“解耦合”的方向。

比如一个方向是把我们传统的单一“身份”和生物特征进行“解耦合”。我们应该反思单一身份在我们社会和经济体里的作用。互联网开始的信息革命把我们带入到一个无限可扩展的虚拟现实里,我们的现实世界早已经大大扩展了,我们的将来是一个包含人类思维空间的世界,里面可以创造出无数的虚拟空间,在这些空间里人类将真正主宰自己的命运,并且和人工智能并存,人工智能将成为这个无限世界里和思维的人类平等的成员,没有谁能够奴役谁,因为这个世界足够大。在每一个我们创造的空间里我们可以有无数的“分身”,我们不再需要单一的“身份”,也就不存在对与“生物特征”深度耦合的“单一身份”的需要。

另一个“解耦合”的方向是数据”脱敏“,既然人工智能的新算法已经可以”以假乱真“,为什么我们不可以加以利用”以真乱假“呢?”以真乱假“就是我们把带有我们生物特征的数据进行”脱敏“的方法,我们只是反过来使用人工智能算法而已。目前我们可以对“轻隐私”的数据进行简单的“脱敏”,但是“重隐私”数据的脱敏需要我们和数据的应用形式一起设计才可以。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金宝趣谈

[0:0ms0-3:280ms