您的位置首页>资讯>

前沿消息:苹果狙击儿童色情推出这些措施覆盖iPhone/平板等

导读 目前关于到苹果狙击儿童色情推出这些措施覆盖iPhone 平板等这一类的信息是很多小伙伴们都非常关心的,很多人也是经常在搜索关于苹果狙击儿

目前关于到苹果狙击儿童色情推出这些措施覆盖iPhone/平板等这一类的信息是很多小伙伴们都非常关心的,很多人也是经常在搜索关于苹果狙击儿童色情推出这些措施覆盖iPhone/平板等方面的信息,那么既然现在大家都想要知道此类的信息,小编就收集了一些相关的信息分享给大家。

  【手机中国新闻】8月6日,手机中国了解到,苹果宣布了一项新的措施,将开始扫描iPhone中是否存在虐待儿童的图像。

  “苹果检测已知CSAM(儿童性虐待材料)的方法在设计时考虑了用户隐私,”苹果表示。“该系统不是在云端扫描图像,而是使用NCMEC(国家失踪和受虐儿童中心)和其他儿童安全组织提供的已知CSAM图像哈希数据库执行设备上匹配。苹果进一步将该数据库转换为不可读的一组安全存储在用户设备上的哈希值。”

苹果分析图片的技术原理(图源新浪科技)苹果分析图片的技术原理(图源新浪科技)

  苹果在技术摘要中提供了有关CSAM检测系统的更多详细信息,并表示其系统使用阈值“设置为提供极高的准确度,并确保每年错误标记给定帐户的几率低于万亿分之一”。

  苹果表示,这些变化将在“今年晚些时候在iOS 15、iPadOS 15、watchOS 8和macOS Monterey的更新中推出”。苹果还将部署可以分析Messages应用程序中图像的软件,以开辟一个新系统,该系统将“在接收或发送色情照片时警告儿童及其父母”。

敏感图像将是模糊的,并且家庭组中父母的产品上会有通知(图源新浪科技)敏感图像将是含糊的,并且家庭组中父母的产品上会有通知(图源新浪科技)

  “消息使用设备上的机器学习来分析图像附件并确定照片是否具有色情内容。该功能旨在使苹果无法访问消息,”苹果表示。

  当Messages中的图像被标记时,“照片会变得含糊,孩子会收到警告,提供实用的资源,并保证他们不想查看这张照片也没关系。”如果孩子确实查看了被标记的照片,系统将让父母收到一条消息,并且“如果孩子试图发送色情照片,则可以使用类似的保护措施。在发送照片之前,孩子将收到警告,并且父母可以收到一条消息如果孩子选择发送它,”苹果称。

SIri增加类似“我该怎么办”功能(图源新浪科技)SIri增加类似“我该怎么办”功能(图源新浪科技)

  苹果表示,它还将更新Siri和搜索,以“为父母和孩子提供更多信息,并在遇到不安全情况时提供帮助”。Siri和搜索系统将“在用户搜索与CSAM相关的查询时进行干预”,并“向用户解释对该主题感兴趣是有害和有问题的,并提供合作伙伴的资源以猎取有关此问题的帮助”。

文章来源:CNMO

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。