昨天吃着炸鸡喝着喜茶在电脑前等315晚会,本以为近期事故频发的特斯拉应该会与今年的315晚会撞个满怀,没想到这一次特斯拉躲过了雷神之捶,被人脸识别截了胡。
整个晚会,宛如“隐私专场”,人脸识别滥用、简历流入黑市,我一个激灵,炸鸡不香了。
特斯拉我买不起,人脸我有的是!
据报道,只要安装了具有人脸识别功能的摄像头,消费者只要进了其中一家店,在不知情的情况下,就会被摄像头抓取脸部信息并自动生成编号,以后顾客进入去过哪家分店,去过几次,商家都可以快速得知。
让我康康,是哪些商户安装了人脸识别系统。
宝马汽车 4S 店、Max Mara 专卖店、科勒卫浴,江苏大剧院、喜茶、老百姓大药房、良品铺子、水星家纺、九芝堂、晨光玩具……
此次披露的摄像头公司包括苏州万店掌、悠络客电子科技、广州雅量智能、深圳瑞为信息。
看得小编直呼好家伙,躲过了房子、宝马的高奢消费,没躲过喜茶、药房等日常场景。
百年老品牌科勒卫浴倒是乖巧,麻利地公告道歉,连夜拆除摄像头,无法连夜拆除摄像头做断电下线处理,一系列动作行云流水,算是稍稍平息了公众的怒火。
各门店纷纷表示,对于该设备的使用,仅作到店人数统计;对该设备所采集的信息不做保存、分析及转移。
被曝光的企业陆续发表声明致歉。但是不少网友并不买账。
还有什么场景是没有人脸识别的?我们只能被“裸奔”吗?
看着手里的喜茶,我坐不住了,难道我只能戴头盔,穿脸基尼吗?
大家还记得去年一男子戴着头盔看楼盘的照片吧。
看来为了信息不被泄露,上到各界大佬,下至群众百姓都使出了浑身解数。
大佬怎么玩?
不少艺术家和时装设计师发挥特长,试图与人脸识别技术一较高下。
艺术家亚当·哈维(Adam Harvey)开发了CV Dazzle 反人脸识别妆容,使用戏剧性的化妆和动态发型来打断脸部识别的算法。
计算机视觉炫目:CV Dazzle
甚至,在伦敦,艺术家组织了炫目俱乐部成员,酷炫着装,按计划游行。
有理由怀疑他们只是想开爬梯。
后来,连字符实验室与亚当•哈维又突发奇想,不如给AI很多人脸呢?
于是就有了超脸HyperFace,与炫目妆容相反,他们在服装上展示许多虚假的人脸,以此迷惑算法。
很可惜,艺术家的奇思妙想甚至连iPhone都骗不过。
因为很多面部识别技术使用红外(不可见)光识别,它们通过突出红外点映射网格,这些算法创建一个人脸的3D模型,像一个雷达地形图。
它不在乎你用什么颜色的化妆品,或是穿着印有2D人脸的衣服。
莫斯科国立大学和华为莫斯科研究院的科学家们提出“脑门贴纸”。
他们研发出一种具有特殊纹路的纸符,在纸片上生成了一种对抗攻击图像,让其不再是一张平面的纸了,而是三维立体,能直接干扰和欺骗AI的纸。
人们将该纸贴在脑门上,迷惑AI。
理论上可行,只是感觉贴上会变成不太聪明的亚子。
中国一股曾消失的组织表示so easy,直接上造型。
这场“文艺复兴”最终只停留在字面上,毕竟这不符合我们都市丽人的风格,如此花容月貌怎能不见天日。
我觉得不行,有必找到到一个靠谱的、体面的反人脸识别方法。
物理遮挡无效,能否用红外对抗红外呢?
脑海里突然想起《甄嬛传》中安陵容的经典台词:“是皇后杀了皇后。”
对,用AI来对付AI,用魔法对抗魔法!
由香港中文大学、复旦大学、印第安纳大学组成的一个研究小组想到了这一点。
他们研发出一款能发出红外线的球帽,采用了“对抗模式”的反人脸识
别设计。据悉,这款球帽曾在阿里出售。
有不少学者从眼镜上做文章。
2015年,日本国立情报学研究所发明出高科技眼镜Privacy Visor,利用红外发射技术,通过在眼镜框架上安装11个近红外发光二极管,使摄像头无法检测到人的面部特征。
摄像头通过检测眼睛和鼻子部位的光线对比判断面部,面部的明暗对比特征消失,摄像头也就无法识别到人脸了。
据悉,该款眼镜当初拟定售价为240美元,约合1490元人民币。
emmmmmm,效果嘛,大家看图理解,反正我是不会买这款售价不菲的眼镜。
2016年,美国卡耐基梅隆大学和北卡罗来纳大学的研究人员也开发出一款反人脸识别眼镜。
该种眼镜可以让摄像头前的人显示成为另一个人,在对商用级别面不是软件的测试中,其误认人脸的成功率为100%。
左边男性在佩戴后被识别成了女演员米拉 · 乔沃维奇,右边的女性被识别成一个中东男人。
研究人员Mahmood Sharif曾表示,不少面部识别软件的神经网络是基于对人脸像素颜色的分析来猜测一个人的身份的,被测者脸上任何轻微的变化都会影响到整个识别系统。
他们通过优化算法找到了可以躲过系统识别的眼镜颜色,并且保证颜色可以平滑过渡(类似于自然图像)。这些图案会扰乱面部识别系统的感知,影响AI读取它们的准确性。
但是,不法分子或许能通过眼镜轻而易举地逃过安全监控或者以别人的身份进入某些区域。考虑到这一点,开发者将研究结果提交给本国的运输安全管理局(TSA)。
此外,你还可以试试Reflectacles的强力反光眼镜/墨镜:IRpair和Phantom。
它们的原理十分简单,在太阳眼镜的镜框上贴上高反光率的材料。这种材料能反射大部分可见光和摄像头发射出的红外线,从而“亮瞎”摄像头。
另外,这款售价95美元的眼镜还会有意向不到的效果。
由于光线反射,能够提高夜晚的可见度,用户在夜晚戴着它,能够最大程度的降低被过路车辆误撞的几率,提升安全性。
与此同时,你需要接受的是,摄像头里的你会拥有《X-Men》的镭射眼,自带圣光,目光炯炯。
眼镜之外,更多的人还是在算法上下功夫,他们多采用“对抗训练”的方法,给人脸施加“隐私滤镜”。
2018年,多伦多大学研究人员设计新算法,动态地破坏人脸识别系统。他们的解决方案利用了一种叫做对抗训练(adversarial training)的深度学习技术,这种技术让两种人工智能算法相互对抗。
简单来说,该算法通过改变一些人眼几乎不可识别的微小像素来改变识别器的检测结果。
尽管算法对于像素的修改十分微小,但对于检测器来说却是致命的。
结果表明,他们的系统可以将原本可检测到的人脸比例从接近 100% 降低到 0.5% 。
据悉,这个反人脸识别系统具有神经网络自主学习能力,可以随着人脸识别系统的进化而不断改变自己。
2019年,来自挪威科技大学的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇论文中称用新的更有挑战表示的方法欺骗了人脸识别系统。
在不改变原来的数据分布的前提下把人脸匿名化,更通俗来讲,就是输出一张逼真的人脸,但是不改变原图人的姿态和背景。
在这种技术的加持下,人脸识别系统依旧能够正常运行,但是完全无法识别出原来的人脸身份。
根据作者们的测试,经过他们匿名化的人脸仍然保持了接近于原图的人脸可识别性,普通的人脸识别对于匿名化后的图像,识别出人脸的平均准确率只下降了 0.7% 。而人脸含有的自然信息自然是 100% 不重合的。
但这项技术同样存在风险,比如伪造者冒充他人自由出入具有人脸识别系统的设施。
同年,Facebook 的人工智能实验室 Facebook AI Research(FAIR)开发出一种“去识别”系统,该系统可以欺骗面部识别系统,例如,让面部识别系统将你识别为一位女明星。
该技术使用机器学习实时地改变视频中人物的关键面部特征,诱使面部识别系统错误地识别对象。
据称,该技术将一个对抗自编码器与一个训练过的面部分类器配对,以使人的面部稍微扭曲,从而在迷惑面部识别系统的同时,又能维持一个人们可以认出来的自然样貌,它可以用在视频,甚至是实时视频中。
Facebook表示,为了控制人脸识别技术的滥用,才推出了对视频进行去识别的方法,考虑到这项研究可能会对未来的个人隐私保护工具产生影响,Facebook 并不打算在任何商业产品中使用这个反人脸识别技术。
2020年,芝加哥大学Sand Lab团队创建了“福克斯” Fawkes技术。与上述技术原理相似,主要通过AI技术,神不知鬼不觉地修改你的照片,以欺骗面部识别系统。
福克斯的运行原理比较复杂,简单来讲,它通过代码对像素进行一些微调,普通人很难看出两者的区别,但对于人脸识别系统来说,这就是天壤之别。
具体来说,Fawkes将A改造成B,尽管A图和B图的差别非常细微,但是当前厂商的人脸识别系统,会认为A图和B图不是同一个人,这样就可以保护用户隐私。
而且,Fwkes的处理速度很快,单个图像仅需要几分钟。经过Fawks快速处理的图像,可以在不改变原貌的基础上,随意分享在各大社交媒体平台,而不用担心照片被相关公司随意抓取或用于非法途径。
不难发现,技术上,大家的途径不谋而合,即利用AI系统的神经网络漏洞,设计算法与之对抗,或进行攻击,从而起到干扰、误导和欺骗识别系统的效果。
人脸识别,从移动支付到手机解锁,从交通出行到旅游检票,从门禁打卡到关卡安防,从银行办理到政务协助,人们从好奇,到不以为然,到接受,到习以为常。
它给人们带来了便捷、安全和智能,也会带来隐私、安全和不安。
但人脸识别技术本身,不是原罪。
“人脸识别技术是无罪的,钢铁可以被用来制造枪支,也可以被用于制造婴儿保育箱。”
对于人脸识别技术落地所遭遇的困境,亚马逊 CTO Werner Vogels如是说。
刀可以伤人,也可以做出温馨的晚餐。有人用人脸识别技术牟利犯罪,也有上述人士为技术的安全使用殚精竭虑。
决定技术发展的走向,取决于监管部门的选择。
过去一段时间,以人脸识别为代表的AI技术在部分地区的发展的确遭遇了一些挑战,但我们也绝不能因此去否定它所有的光环。
毕竟技术的正向革新往往都是伴随着阵痛匍匐前行的。