谷歌新论文发现:对抗样本也会骗人

品牌
腾讯数码
2018年06月26日 23:27

  雷锋网按:雷锋字幕组出品系列短视频《 2 分钟论文 》,带大家用碎片时间阅览前沿技术,了解 AI 领域的最新研究成果。

  翻译 | 于泽平 字幕 | 凡江 整理 | 吴璇

  本期论文:对抗样本同时骗过人类和计算机视觉

  Adversarial Examples that Fool both Human and Computer Vision

  ? ?每周一篇2分钟论文视频解读

  我们都知道,机器学习模型容易受到对抗样本的影响。

  比如,稍稍修改一点图像,就会导致计算机视觉模型出现错误,像是把校车认成鸵鸟。

  然而,人类是否容易出现类相似的错误呢?

  图片加入干扰能让猫看起来像狗

  在这里,谷歌大脑的研究人员通过利用最近的技术创造了第一个欺骗人类的对抗样本,这些技术将具有已知参数和体系结构的计算机视觉模型的对抗样本,转换为其他具有未知参数和体系结构的模型,并且通过修改模型更加有效地匹配初始处理的人类视觉系统。

  不同扰动方式对图片进行处理

  研究发现,在人类观察时间有限的情况下,这些在计算机视觉模型之间进行重度迁移的对抗样本,已经干扰了人类对图像的分类。

  论文原址 https://arxiv.org/abs/1802.08195

  雷锋字幕组正在招募中

  扫描下方二维码

  备注“雷锋字幕组+姓名”加入我们吧

  雷锋网雷锋网

家电之家©部分网站内容来自网络,如有侵权请联系我们,立即删除!
样本 模型
你该读读这些:一周精选导览
更多内容...

TOP

More