警察只用「人工智慧辨识图像」打击网路色情,但AI坚持把沙漠「看成裸女」警方超崩溃

随着AI人工智慧越来越新进,伦敦警方表示未来两三年内将开始利用图像辨识技术来侦测虐儿事件。不过就目前来看,这项技术的实用性尚未明朗,因为系统连裸体和沙漠 (如下图) 之间的差异都还分不出来: 廣告1   伦敦市警电子办案部门组长Mark Stokes表示:「有时它 (

December 20, 2017
選擇語言:
TEEPR原創
採訪報導
綜合報導
編譯
特稿

随着AI人工智慧越来越新进,伦敦警方表示未来两三年内将开始利用图像辨识技术来侦测虐儿事件。不过就目前来看,这项技术的实用性尚未明朗,因为系统连裸体和沙漠 (如下图) 之间的差异都还分不出来:

廣告1

 

伦敦市警电子办案部门组长Mark Stokes表示:「有时它 (系统) 会把一张无伤大雅的沙漠照片判定为猥亵影像。」

廣告2

 

廣告3

「基于某些原因,有许多人会用沙漠照片当萤幕保护装置,结果就这样被系统判定为肤色。」

 

冰冷的系统也缺乏情理法、法理情的概念,例如去年脸书的自动辨识系统就强制移除了下图这张赢得普立兹奖的越战照片,只因照片包含一名裸身女孩,就被自动演算法判定为「猥亵」。经多人抗议后,脸书官方终于解除了该图的封锁,并承认这不是一张儿童色情照片。

 

AI行车辨识技术:

参考资料:9GAG

布编:脸书别再打压人了…QQ

TEEPR 亮新聞著作權聲明:非法抄襲TEEPR 亮新聞網站請注意,本站所有內容皆由自家TEEPR 亮新聞 編輯撰寫,並非如非法內容農場複製貼上。本網站之文字敘述、圖片、影像視聽及其他資訊等,非經授權,不得轉載。如侵權將立刻請臉書封鎖專頁。微改標題、圖片、前段,仍然抓得到!
分類:台湾, 世界, 科技
加入粉絲團! 警察只用「人工智慧辨识图像」打击网路色情,但AI坚持把沙漠「看成裸女」警方超崩溃留言按此 好友人數分享! 好友人數加入好友
廣告
廣告