随着AI人工智慧越来越新进,伦敦警方表示未来两三年内将开始利用图像辨识技术来侦测虐儿事件。不过就目前来看,这项技术的实用性尚未明朗,因为系统连裸体和沙漠 (如下图) 之间的差异都还分不出来:
伦敦市警电子办案部门组长Mark Stokes表示:「有时它 (系统) 会把一张无伤大雅的沙漠照片判定为猥亵影像。」
「基于某些原因,有许多人会用沙漠照片当萤幕保护装置,结果就这样被系统判定为肤色。」
冰冷的系统也缺乏情理法、法理情的概念,例如去年脸书的自动辨识系统就强制移除了下图这张赢得普立兹奖的越战照片,只因照片包含一名裸身女孩,就被自动演算法判定为「猥亵」。经多人抗议后,脸书官方终于解除了该图的封锁,并承认这不是一张儿童色情照片。
AI行车辨识技术:
参考资料:9GAG
布编:脸书别再打压人了…QQ
(往下還有更多精彩文章!)