苹果禁止搞黄色,iOS 17 自动屏蔽裸照

苹果禁止搞黄色,iOS 17 自动屏蔽裸照

温馨提示:

最近来了很多新同学,

蓝字」,

右上角「···」,

将奇果酱「设为星标」,

以免错过重要消息哦~

众所周知,由于 iOS 独特的封闭式系统,iPhone 在安全性和隐私性方面,受到用户的一致好评。

不过大家也都知道,近两年 iPhone 也没少沾染「桃色」新闻。

比如上个月,就有用户反映收到很多莫名其妙的短信,内容为涉黄或者涉赌。

再往前,还有女子在地铁上收到了陌生人的「隔空投送」,内容为不雅图片,已经涉嫌性骚扰。

而 App Store 中,也经常会出现伪装套壳的涩情 App,曾遭到大量网友的吐槽。

看来一向主打封闭和安全的 iOS,也并非「滴水不漏」,因为只要是系统,总会存在漏洞。

不过苹果并没有「袖手旁观」,也给出了解决办法。

像针对不法分子利用 AirDrop 性骚扰的行为,苹果已经在 iOS 16.2 正式版中关闭了「所有人」选项, 仅提供为所有人开启十分钟的权限。

开启该功能十分钟后,隔空投送会自动切回「仅限联系人」模式。

6 月 6 日,苹果发布了全新的 iOS 17 系统,带来了包括横屏待机、个性来电、NameDrop 等一系列新特性。

除此之外,苹果还新增了一项「自动屏蔽敏感信息」功能。

用户可以选择开启该功能,以避免不小心收到辣眼睛的图片。

换句话说,以前有 FBI warning ,现在 iPhone 上也有「Apple warning」了。

开启后,如果用户收到了敏感照片,系统就会自动对其进行模糊处理。

如果用户想要查看的话,需要再次手动点击右下角的「显示」,才可查看完整图片。

多了一道保险,就能防止在公共场合突然社死,毕竟不小心打开涩图还有挽回的余地。

这项功能,其实和 Twitter 的审核机制差不多,在 Twitter 上浏览到大尺度图片时,系统也会做出类似的处理。

不过两者还是有所区别的,一个是在设备端处理,一个是在服务器端处理。

苹果表示,这项功能所用到的所有检测是在设备上完成的,苹果公司无法查看用户之间分享的内容。

如此一来,苹果这边则显得更为安全。

据悉,iOS 17 上的这项功能,是苹果公司去年为儿童推出的通信安全功能的一项扩展。

早在 2021 年,苹果就曾发布了一份新的「儿童保护扩展」白皮书。

其中有一项功能,就是系统会扫描 13 岁以下儿童手机中的照片,然后将检测到的儿童敏感内容发送给执法部门。

与此同时,未成年人账户的 iMessage,也会被受到重点监测。

一方面,该功能可以阻止未成年人账户收到裸照之类的敏感照片,保护未成年人的身心健康。

另一方面,如果未成年人试图通过 iMessage 发送露骨照片,也会被系统警告。

如今,这项功能的适用场景以及针对人群,迎来了更大范围的测试。

截至目前,这项功能已适用于信息、AirDrop、电话应用的联系人海报(Contact Poster)、FaceTime 信息和第三方应用。

说到这里,上面适用场景里的「第三方应用」,就有点耐人寻味了。

难不成,以后用户自己私下用 iPhone 观看「学习资料」,也要被「Apple warning」了 ?

总感觉有点怪怪的,你认为呢?

戳这里,不迷路

??????

猛戳这里选购你喜欢的苹果配件返回搜狐,查看更多

责任编辑:

发布于:上海徐汇徐汇区