Facebook秘密文件泄露:赚钱(和背锅)是AI的使命
作者 :夏乙 李杉
来源:量子位
相关专题:扎克伯格出席听证会 应答FB数据泄露事件
国会听证大戏刚刚落幕,一份机密文件的曝光,又把Facebook推到了聚光灯下:
这家公司利用AI赚钱,有很特别的方式。当然,美国民众听闻之后,又是一阵紧脏。
赚钱利器
美国媒体The Intercept最新获取了一份Facebook机密文件,其中透露了Facebook提供给广告主的一项贴心服务:忠诚度预测。
这是一项基于人工智能的服务。
所谓忠诚度预测,简单来说就是一句话:预测用户的未来行为,作为广告投放的依据。
在别的平台,广告主能根据用户现状来精准投放广告,而在Facebook,广告主依据的,可能是用户还没做出的决定。
通过预测自己的20亿用户接下来面临什么选择,Facebook做到了“比你更懂你”,帮广告主“提升了营销效率”。
比如说,有了忠诚度预测服务,Facebook完全可以说:亲爱的苹果,亲爱的三星LG华为,我们的AI能预测出几百万iOS用户有心转投Android,你们要不要精准投放一下?
你接下来做出什么决定,就在平台和广告主一念之间。
相比之下,购物车里放个高达就再送上一大波手办的淘宝,根据搜索词来分发广告的Google百度,都太简陋了。
因为Facebook所掌握的数据,详细周全到任何一家同行都望尘莫及。
从文件中可以看出,Facebook“忠诚度预测”依靠的数据有:用户位置、设备信息、所连接Wi-Fi网络的情况、看了什么视频、亲朋好友的各种细节……
甚至你和朋友聊天的内容,也是广告投放的指路明灯。参议员Bill Nelson就遇到了:“昨天我在Facebook上跟朋友聊天时,提到喜欢某种吃巧克力,接着突然我开始收到各种巧克力的广告。”
这位参议员遇到的,只是Facebook广告服务的冰山一小角。
这就好像,你的一切,早已经被Facebook的AI看光光。
这就是上面提到的,AI比你更懂你。
这个技能,如果被“泛化”……应用在其他方面,或者被其他人所利用的话,想想还真是有点怕怕。这也难怪美国人民又有点炸锅。
Facebook说,为保护用户隐私,所有数据都聚合的、匿名的。当然,Facebook也不卖数据,他们出售,或者说出租的,是通过自己分析数据而实现的“预测”能力。
剑桥分析获取的那点三手数据,都能用来实现千人千面推送政治广告,手握20亿用户全方位信息的Facebook,要决定你下一部手机来自谁家只会更容易。
面对质疑,Facebook想扯上同行们。这家公司在回应中表示:
和很多其他广告平台一样,Facebook用机器学习技术,来向正确的人展示正确的广告。我们并不宣称知道人们所思所感,也不会将用户个人信息分享给广告主。
挡箭牌&背锅侠
你以为AI只能用来赚钱?拿衣服。
Facebook最近还为AI开辟了又一大新功能:背锅。
国会山10小时,人工智能戏份不少。小扎反复提起,似乎十分依赖,甚至寄予厚望。但深究起来,它一直是个挡箭牌和背锅侠。
减少仇恨言论?AI能搞定。
恐怖主义招募信息?AI能搞定。
虚假帐号?还是AI。
俄罗斯干涉大选?AI。
种族歧视广告?AI。
安全问题?AI。
那这个问题怎么解决?靠AI吧。
问题为什么还没解决?AI还不够好。
在内容审查问题上,Facebook的AI就一直在尝试,从未被认可。
小扎在听证会上反复提到,Facebook的检测系统在没有任何人添加标签的情况下就自动删除了99%的“恐怖主义内容”。2017年,Facebook宣布“尝试”用人工智能来探测“可能支持恐怖主义”的言论。
99%的“恐怖主义内容”,很可能是以图片和视频形式为主。经过训练的机器学习算法,现在识别图像的准确率在特定的数据集上甚至早已超越人类,各家公司也都投入了大规模的使用。
但是,更多的内容是以文字形态出现的。
但是,AI理解自然语言的能力甚至还达不到幼儿园水平。人类语言的一些细微差别,人工智能识别起来表现堪忧,让它来分辨真假新闻也是强AI所难。
小扎自己也承认,Facebook用来识别仇恨言论的AI,现在错误率实在是太高了。想要依靠AI审核内容,可能“还需要5-10年”。
到今年年底,Facebook打算雇2万人来做安全和内容审查。
这种反复用“人工智能”做辩护的行为,也遭到了媒体的批评。
人工智能这个词太宽泛了,想要确切地定义它,写进教材就是整整一章。它包含各种自动化、机器学习等等。The Verge发表的一篇文章说,“人工智能”这个词,让小扎在一群外行人面前找到了一种托词,毕竟他们没有能力展开深入提问。
欺负我们不懂技术?有一位议员做出了反击。
加里·彼得斯(Gary Peters)追问了一个关于人工智能透明度的问题:“你知道,人工智能并非没有风险,你必须对这种算法的构建方式保持极高的透明度。”
是的,你的挡箭牌:人工智能,它本身就很有问题。
扎克伯格承认这个问题非常重要,他还表示,Facebook有一整个人工智能伦理团队来解决这个问题。
只不过,就算不说人工智能,Facebook以及它的同行们,对“透明度”的理解也只是基本等同于“模糊地写在用户协议里”。这似乎并不能解决什么问题。
至于Facebook这一轮道歉的核心——数据泄露并被Cambridge Analytica滥用的问题,人工智能也帮不上什么忙。
而在真的需要人工智能的时候,它虽然有着巨大潜力,却也会因为使用了有问题的数据集而带上偏见。倾向于将黑人认作罪犯、认为女性和科学工作不搭等等问题,在人工智能的应用中层出不穷。
For Good
扎克伯格在听证会上说:
Across the board, we have a responsibility to not just build tools, but to make sure those tools are used for good。”
打造工具,并确保这些工具用来做好事了。但愿小扎和他的同行们真的相信这句话,还能记住它。
最后发个彩蛋,小扎这次的国会听证,不少美国人看完之后,说扎克伯格是机器人……然后就有人出来恶搞了不少视频。
这是其中一段。
说着说着短路了……
修吧修吧,修好了……
发表评论