Board logo

标题: 苹果放弃了扫描手机上儿童色情的 CSAM 计划 [打印本页]

作者: charon0622    时间: 2022-12-8 15:26     标题: 苹果放弃了扫描手机上儿童色情的 CSAM 计划

posted by wap, platform: iPhone
去年八月,苹果宣布了一项受争议的决定:它将扫描美国用户 iPhone 手机上的已知儿童色情照片,利用来自 National Center for Missing and Exploited Children (NCMEC)的 CSAM(Child Sexual Abuse Material)图像哈希值去匹配用户手机上的图像哈希,如果发现至少 30 次匹配成功它将会在审核之后报告给相关机构。在引发广泛批评和反对之后,苹果暂停了该计划。现在它放弃了扫描手机上儿童色情的计划,改为加强“Communication Safety”功能,允许父母和看护者通过家庭 iCloud 账号选择加入保护功能,以确保儿童的通信安全,在儿童试图发送或接收含有裸体的照片时发出警告,阻止和减少新 CSAM 的产生。

https://www.wired.com/story/apple-photo-scanning-csam-communication-safety-messages/
作者: ydy135    时间: 2022-12-8 16:25

一个企业一旦把价值观强加在用户身上,就是悲剧的开始
作者: charon0622    时间: 2022-12-8 16:41

posted by wap, platform: iPhone
引用:
原帖由 @ydy135  于 2022-12-8 16:25 发表
一个企业一旦把价值观强加在用户身上,就是悲剧的开始
而且苹果在欧美和中国的政策明显是相反的,婊子还想立牌坊,虚伪至极。
作者: 幻飞一线天    时间: 2022-12-8 16:59

posted by wap, platform: Android
泥潭的果粉不用担心。反正存在云上贵州的数据每天不知道被扫描多少遍了,早就底裤都被人看过了。
作者: trashman    时间: 2022-12-8 17:22

posted by wap, platform: iPhone
引用:
原帖由 @ydy135  于 2022-12-8 16:25 发表
一个企业一旦把价值观强加在用户身上,就是悲剧的开始
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022-12-8 17:23 通过手机版编辑
作者: sharonsl    时间: 2022-12-8 18:04

posted by wap, platform: VIVO
引用:
原帖由 @trashman  于 2022-12-8 17:22 发表
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022128 17:23 通过手机版编辑
那也不能以牺牲公民的隐私权为代价
作者: 你才是受    时间: 2022-12-8 18:11

posted by wap, platform: Android
引用:
原帖由 @trashman  于 2022-12-8 17:22 发表
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022128 17:23 通过手机版编辑
你怎么判定练不练?我家的娃一两岁的视频,很多就是小jj到处露出的
作者: shinsuke    时间: 2022-12-9 01:42

posted by wap, platform: iPhone
引用:
原帖由 @trashman  于 2022-12-8 17:22 发表
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022128 17:23 通过手机版编辑
所有重罪都应该重罚 但不应该假定所有人都是罪犯开始排查
作者: 御迦    时间: 2022-12-9 02:10

posted by wap, platform: 小米NOTE
引用:
原帖由 @幻飞一线天  于 2022-12-8 16:59 发表
泥潭的果粉不用担心。反正存在云上贵州的数据每天不知道被扫描多少遍了,早就底裤都被人看过了。
https://m.weibo.cn/detail/4844423932284795
以后可能有点难度
作者: charon0622    时间: 2022-12-9 02:21

posted by wap, platform: iPhone
引用:
原帖由 @御迦  于 2022-12-9 02:10 发表
https://m.weibo.cn/detail/4844423932284795
以后可能有点难度
苹果在土朝乖得很
作者: trashman    时间: 2022-12-9 07:07

posted by wap, platform: iPhone
我想说的只是针对公司价值强加于个人这句话。有些价值观就应该是普世的。

我也不喜欢强制扫描用户文件,尽管苹果只是扫描哈希值,而没有搞更为过分的ai分析。所以苹果现在下放权限给用户自己选择当然是更好的解决方案。
作者: ffcactus    时间: 2022-12-9 08:24

posted by wap, platform: iPhone
引用:
原帖由 @幻飞一线天  于 2022-12-8 16:59 发表
泥潭的果粉不用担心。反正存在云上贵州的数据每天不知道被扫描多少遍了,早就底裤都被人看过了。
是华为去扫描的吗?
作者: maidofhonor    时间: 2022-12-9 11:09

posted by wap, platform: iPad
谷歌一经发现立刻向字母局告发,立刻跨国抓人。

谷歌没事儿。
作者: ffcactus    时间: 2022-12-9 13:01

posted by wap, platform: iPhone
引用:
原帖由 @charon0622  于 2022-12-8 16:41 发表
而且苹果在欧美和中国的政策明显是相反的,婊子还想立牌坊,虚伪至极。
苹果做事依照每个国家的法律。
美国没有赋予联邦调查局这个权利,苹果就不给看口子。
你国法律要求能调查,那自然要按你国法律来,留个口子。

抱歉,不得不说你国,因为你太LOW了,LOW得连敌我都分不清。
作者: yangjuniori    时间: 2022-12-11 03:04

posted by wap, platform: Chrome
哈希值看一下 这张图只有一个人有那么就算了  许多人有  就挨个查
作者: 一只纯猪头    时间: 2022-12-11 10:33

posted by wap, platform: iPhone
引用:
原帖由 @你才是受  于 2022-12-8 18:11 发表
你怎么判定练不练?我家的娃一两岁的视频,很多就是小jj到处露出的
苹果这个不是AI识别到儿童裸露就上报

而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报


但是这个行为有两个关键点
第一这个扫描是不是侵犯隐私,目前肯定是侵犯了,这种隐私并不是每个人都愿意度让的,而且打击儿童色情,是不是必须如此,是有争议的

第二所有系统都不是100%不出错,出错之后就涉及了人类审核,而如何保证在人类审核这个环节,依然具有良好健全的隐私保护以及统一的道德底线,就很难。最简单的例子国内各种弱智审核导致很多正常内容也不能以正常的形式播放。此外苹果也曝光过siri的语音口令在没有经过用户知晓的情况下转给人工处理(虽然其他厂家都这么做),照片包含的信息量更大也更隐私,然后有可能随机会发给别人审核,这种时候恐怕就绝大多数人都不愿意

说到底这个行为与苹果一贯宣传的注重隐私背道而驰

本帖最后由 一只纯猪头 于 2022-12-11 10:36 通过手机版编辑
作者: ydy135    时间: 2022-12-11 10:40

引用:
原帖由 trashman 于 2022-12-8 17:22 发表
posted by wap, platform: iPhone
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022-12-8 17:23 通过手机版编辑  
重罚是政府该做的事,不是企业该做的事
作者: ydy135    时间: 2022-12-11 10:40

引用:
原帖由 一只纯猪头 于 2022-12-11 10:33 发表
posted by wap, platform: iPhone
苹果这个不是AI识别到儿童裸露就上报

而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报


但是这个行为有两个关键点
第 ...
说到关键处了,本质上就是放弃保护用户隐私
作者: ffcactus    时间: 2022-12-12 19:26

posted by wap, platform: iPhone
引用:
原帖由 @ydy135  于 2022-12-11 10:40 发表
重罚是政府该做的事,不是企业该做的事
难道苹果罚你钱吗?
不要太文化……




欢迎光临 TGFC Lifestyle (http://club.tgfcer.com/) Powered by Discuz! 6.0.0