» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

苹果放弃了扫描手机上儿童色情的 CSAM 计划

一个企业一旦把价值观强加在用户身上,就是悲剧的开始


TOP

引用:
原帖由 trashman 于 2022-12-8 17:22 发表
posted by wap, platform: iPhone
其他价值观不说,炼铜就应该强制重罚。

本帖最后由 trashman 于 2022-12-8 17:23 通过手机版编辑  
重罚是政府该做的事,不是企业该做的事



TOP

引用:
原帖由 一只纯猪头 于 2022-12-11 10:33 发表
posted by wap, platform: iPhone
苹果这个不是AI识别到儿童裸露就上报

而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报


但是这个行为有两个关键点
第 ...
说到关键处了,本质上就是放弃保护用户隐私


TOP

发新话题
     
官方公众号及微博