苹果本月早些时候宣布了一项受争议的决定:它将扫描美国用户 iPhone 手机上的已知儿童色情照片,利用来自 National Center for Missing and Exploited Children (NCMEC)的 CSAM(Child Sexual Abuse Material)图像哈希值去匹配用户手机上的图像哈希,如果发现至少 30 次匹配成功它将会在审核之后报告给相关机构。但苹果使用的算法模型被发现容易制造哈希碰撞(这被称为原像攻击)。开发者演示制作两个不同图像但它们在 iPhone 上却有着相同的哈希值。这意味着如果攻击者根据已知 CSAM 图像哈希制作一个相同哈希的图像,然后发送给一名无辜用户(要重复 30 次),如果无辜用户启用了 iCloud 同步,那么苹果的系统将会标记这些图像,然后派人去进行审核,而审核者可能会困惑不已。 https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1作者: 卖哥 时间: 2021-8-19 12:46