公众号
关注微信公众号
移动端
创头条企服版APP

阻击儿童色情,苹果公布了三项新功能

5521
动点科技 2021-08-06 08:38 抢发第一评

为了加强对儿童的保护,苹果公布了三项新举措:Messages 中的敏感图像筛查、iCloud 中儿童性虐待内容检测,以及 Siri 和搜索功能的相关内容帮助支持。

在苹果的信息应用 Messages 中,如果家庭用户中的儿童收到或尝试发送色情照片时,他们将看到一条警告信息。当孩子收到色情图片时,图片会变得模糊,Messages 应用会显示警告,称该图片「可能很敏感」。如果孩子点击查看照片,那么他们将会看到一条弹出消息,告知他们为什么该图像被判定为敏感。如果孩子决定查看图像,其设备关联的父母端将收到通知,弹窗将包含一个带有帮助信息的链接。

此外,如果孩子试图发送色情图片,他们会看到类似的警告。如果孩子选择发送照片,父母能收到一条消息。此功能适用于 13 岁以下的孩子。

苹果解释称,该功能是可选的。Messages 运用设备上的机器学习来分析图像,并判定照片是否含有色情内容。

第二个是儿童性虐待内容(CSAM)检测。苹果会扫描存储在 iCloud 云端中的这类图像,并向美国国家儿童失踪与受虐儿童援助中心(NCMEC)报告实例。该公司会将 NCMEC 的数据库转换为一组不可读的哈希函数,之后进行对比。一旦匹配程度达到某一阈值,苹果将手动审查确认匹配,然后禁用帐户,并向 NCMEC 报告。

最后,Siri 和搜索功能方面,苹果还通过提供额外资源帮助儿童和父母确保网上安全,如果在不安全的时候可通过 Siri 和搜索获取帮助指导。例如可询问 Siri 如何报告儿童性虐待内容,这些功能将告知用户在哪可以汇报给有关部门。

上述功能将首先在美国推出,今年晚些时候为 iOS 15、iPadOS 15 和 macOS Monterey 的 iCloud 家庭账户开放。

声明:该文章版权归原作者所有,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系。
您阅读这篇文章花了0
转发这篇文章只需要1秒钟
喜欢这篇 2
评论一下 0
相关文章
评论
试试以这些内容开始评论吧
登录后发表评论
阿里云创新中心
×
#热门搜索#
精选双创服务
历史搜索 清空

Tel:18514777506

关注微信公众号

创头条企服版APP