您的位置:首页?人工智能?正文

2018我们可能要忍受的人工智能阴暗面

我们在一片对18岁照片的花样赞美中, 迎来了又一个新年。

按说新年应该是开心的时候, 但是刚刚跨年结束, 抬头一看居然要上班了…不由得悲从心来…所以今天我们打算说点不那么开心的事。

最近几天, 各种对2018年的科技预测层出不穷, 其中对AI的畅想占了大头,

内容差不多是一片喜庆祥和。

但事有两来, 当我们开始从AI中收获价值的时候, 技术升级后带来的潜在风险也在升温。 这就像汽车当然好过牛车, 但汽车也会带来各种各样的交通事故。 我们当然不能因此禁止汽车上路, 但是也不能对交通问题视而不见。

今天我们来预测几个, 很可能在2018年进入我们眼帘的“人工智能负能量”。

毕竟做好准备, 是解决问题的前提条件。

一、人工智能伦理问题开始出现个案

2017年1月, 在加利福尼亚州阿西洛马举行的Beneficial Al会议上, 近千名人工智能相关领域的专家, 联合签署了着名的《阿西洛马人工智能23条原则》。

随后, 各种关于人工智能伦理道德的讨论、会议, 以及相关协会和科技组织开始出现在公众视野里。

《23条原则》的主要内容, 就是呼吁人工智能不能损害人类的利益和安全, 同时人工智能必须可以被人类控制,

同时人类要尽量尊重人工智能和机器人的安全。

听起来颇有点科幻的味道, 但是在各行各业开始部署AI, 尤其开始利用AI进行自动化决策的时候, 人工智能的伦理与道德问题或许真的会浮出水面。

比如说, 自动驾驶车辆在马上要发生事故时, 是优先保护路人还是乘客?假如AI诊断系统, 给出的建议是安乐死, 那么它算是杀人吗?为了避免更大损失, AI系统是否能打破规则, 自行其是?

这其中最着名的, 大概就是去年谷歌批评上海交大某团队进行的“看脸定罪犯”研究。 引发了媒体对于AI价值观的大量讨论。

在各个产业场景开始使用AI技术时, 随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。

人类还从未真正讨论过这些。 假如2018年人工智能的落地化足够快, 伦理问题的苗头或许会临近。

二、难以根治的的算法歧视

记得2016年, 微软推出过聊天机器人Tay, 却因为用户教给它大量种族歧视和脏话, 一天内就被暂时下线。 这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己, 那么假如它吸收的信息含有大量“不那么纯良”的东西呢?

2017年, 算法歧视问题非但没有被解决, 各种各样新的问题还应运而生。 比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签, 显然有悖于女权主义精神;而把黑人识别为大猩猩, 则点燃了AI种族歧视的话题关注度。

所谓的算法歧视, 对于普通消费者来说, 最有可能在内容推荐和电商推荐两个地方感觉到。 比如说消费者刚看过宽大的衣服, 电商就推荐减肥药, 很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候, 大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,

然后再一刷新。 好嘛, 蜂拥而至的类似内容啊, 你本来想看的兴趣内容和专业内容瞬时间化为乌有。 甚至你怎么点我不关心不喜欢, 平台还是给你推荐。 这就是因为算法的归类方式给你贴上了标签。 这种歧视感也蛮严重的, 好像背后有个人奸笑着对你说:“承认吧, 你就是这么低俗…”

这类问题的根源, 是机器学习技术进行个性推荐, 今天还必须建立在两个逻辑的基础上:以过去算将来, 以群体算个体。 算法会吸收以前有过的经验来给你特定的某些东西, 但很有可能歧视信息就包含在机器吸收的经验里。

在个性推荐系统越来越多场景应用可能的今天, 我们恐怕短期内还难以根治算法的歧视。

三、私人数据与机器

学习的矛盾日益凸显

人工智能和个人隐私, 似乎从来都是一对天敌。

因为人工智能技术假如想要提供个性化、完全符合个人习惯的服务,

那么就必然要学习和理解用户本身。 而这其中, 就涉及对用户私人数据的学习。

但出于隐私的考虑, 以及对网络安全的不信任, 大部分用户显然是不希望透露自己数据给机器的。

从而“鸡生蛋蛋生鸡”的矛盾就产生了。

近两年, 用AI来读取用户个人数据这件事一直处在被压抑和不能提的状态。 更早一点的时候, 苹果和谷歌等大公司都推出过让AI读懂用户的产品, 但很快就被舆论抨击给关停了。 即使这样, 谷歌去年推出的家用AI相机还是饱受诟病。

在2017年后半段, 我们看到了AI芯片拉开了风云际会的争夺序幕。 但是搭载AI芯片的硬件一定要有的放矢, 有任务可以完成。 于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务, 势必会重新回到公共视野里。

其实从大趋势上看, 把个人数据交给机器似乎是人类不可避免的归宿。 无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。

在2018年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。

究竟怎么处理这个矛盾,也是挺让人头疼的。

四、真假越来越难分

就目前来看,希望AI能像人一样对话和理解,显然还是为时过早的一件事。但是让AI来造假,似乎已经问题不大了。

此前我们讨论过视频和直播换脸的可能,其实从整个技术进度来看,基于GAN的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI都已经能够得心应手的处理。

但这肯定不会是什么好事。在着名的Face2Face软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?

而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,大概我们可以很肯定的说:2018年用AI来伪造视频音频将更加天衣无缝。

这是AI对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:当我们看到的视频都可以完全造假的时候,这个世界还有什么可以相信呢?

假作真时真亦假,只能期望反AI造假的AI系统也尽快出现吧。

五、黑客攻击有更多花样

2017年年末,谷歌TensorFlow被惊人的爆出框架漏洞,虽然是被白帽子找到,没有造成危险,但这还是点醒了我们一点:AI并不安全。

至此,我们已经见识过了各种黑客攻击和AI技术结合的可能性:用AI来伪造文件信息实施攻击和诈骗;利用AI技术来提升黑客攻击效率;以AI系统为目标的攻击。随着AI和物联网体系的结合,未来物联网攻击中很可能也会加入AI的身影。

AI技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然AI同样给我们提供了各种保护互联网安全的方式。但无论如何,AI带给了黑客更多可能性是毫无疑问的。

2017年的网络安全世界并不平稳,各种各样的病毒和黑客肆虐不绝于耳。进入2018,我们很可能会在这个战场看到更激烈的搏杀。

结束语

就像任何一种技术革新一样,AI也同样在带来价值的同时创造了危险。而且凭借着识别和学习能力的特征,AI带来的负面影响说不定会比过往更大。

但是无论如何,技术就是这么一步步推进的。更好的风景总是伴随着更难走的路途。认识风险,并探索解决方案,或许才是人类与AI相处时更舒服的方式。

无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。

在2018年,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。

究竟怎么处理这个矛盾,也是挺让人头疼的。

四、真假越来越难分

就目前来看,希望AI能像人一样对话和理解,显然还是为时过早的一件事。但是让AI来造假,似乎已经问题不大了。

此前我们讨论过视频和直播换脸的可能,其实从整个技术进度来看,基于GAN的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI都已经能够得心应手的处理。

但这肯定不会是什么好事。在着名的Face2Face软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?

而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,大概我们可以很肯定的说:2018年用AI来伪造视频音频将更加天衣无缝。

这是AI对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:当我们看到的视频都可以完全造假的时候,这个世界还有什么可以相信呢?

假作真时真亦假,只能期望反AI造假的AI系统也尽快出现吧。

五、黑客攻击有更多花样

2017年年末,谷歌TensorFlow被惊人的爆出框架漏洞,虽然是被白帽子找到,没有造成危险,但这还是点醒了我们一点:AI并不安全。

至此,我们已经见识过了各种黑客攻击和AI技术结合的可能性:用AI来伪造文件信息实施攻击和诈骗;利用AI技术来提升黑客攻击效率;以AI系统为目标的攻击。随着AI和物联网体系的结合,未来物联网攻击中很可能也会加入AI的身影。

AI技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然AI同样给我们提供了各种保护互联网安全的方式。但无论如何,AI带给了黑客更多可能性是毫无疑问的。

2017年的网络安全世界并不平稳,各种各样的病毒和黑客肆虐不绝于耳。进入2018,我们很可能会在这个战场看到更激烈的搏杀。

结束语

就像任何一种技术革新一样,AI也同样在带来价值的同时创造了危险。而且凭借着识别和学习能力的特征,AI带来的负面影响说不定会比过往更大。

但是无论如何,技术就是这么一步步推进的。更好的风景总是伴随着更难走的路途。认识风险,并探索解决方案,或许才是人类与AI相处时更舒服的方式。