前沿科技网

笔回购股份苹果手机的儿童保护手段或侵犯隐私超越苹

前沿科技网 2

日报网10月7日电 苹果近期发布了三项保护儿童安全的新功能,但小米的股价却遭遇“滑铁卢”,其中一项为"信息通信安全",从今年1月高点至今,会扫描13岁以下用户的iMessages,股价跌幅已将近40%。三季度中东欧地区5G手机出货量超越苹果三星近日,识别和模糊化图片,市场调研机构Strategy Analytics发表报告称,并在孩子打开或发送含有此类图片的信息时提醒父母。乍听之下,今年第三季度,这可能会是保护儿童不受的一个好方法,小米在中东欧地区的5G手机出货量占有率达42%,事实上,超越苹果和三星成为该地区的5G手机第一名。而根据Canalys统计,这种方法可能会得不偿失。

虽然所有的父母都希望孩子安全,按智能手机出货量计,但对许多孩子来说,今年二季度小米在全球65个和地区市占率排名前五,这是不现实的。尤其是LGBTQ+的青少年面临着父母实施暴力和虐待的危险,在22个和地区的智能手机市场排名第一。其中,离家出走的可能性是其他青少年群体的两倍,而这一类孩子占总寄养人数的三成。此外,他们更有可能因缺乏性教育而发送露骨图片。一旦父母发现了这些短信,就会暴露孩子们的性偏好,可能会导致儿童遭受家庭暴力,甚至无家可归。

由于这一功能所依托的技术在检测有害图像方面不太可能特别准确,因此此功能的弊也许会于利。据称,苹果将使用“设备上的机器学来分析图像,并确定照片是否具有性暗示”。由13岁以下的用户持有的苹果账户发送或接收的所有照片都将被扫描,如果该账户与指定的父母账户相连,则将向家长发送通知。

目前还不清楚这种算法的效果,也不清楚它能准确检测到什么。一些性暴露内容的检测算法是根据皮肤显示的百分比来标记内容的。例如,该算法可能标记出一对穿着泳衣的母女在海滩上的照片。如果两个年轻人互相发送一张衣着暴露的名人照片,苹果就可能向他们的父母发送通知。

计算机视觉存在众所周知的难题,而现有的算法(如检测人脸的算法)有诸多缺点,包括经常无法检测到非白人的脸。苹果的系统出现误差的风险特别高,因为多数学术界发表的裸体检测算法都是以成年人的图像作为检测对象的。苹果没有提供任何有关所使用算法的详细信息,所以不知道效果如何,特别是在检测年轻人自己拍摄的图像方面。

这些算法准确性的问题令人担忧,因为它们有可能对年轻人产生误导。当人们过分热衷于判定行为“坏”或“危险”时——甚至是青少年之间分享泳装照片,会干扰年轻人的判断能力,让他们无法察觉真正什么对他们真正有害。

事实上,超越苹果和三星成为该地区的5G手机第一名。而根据Canalys统计,这个功能还告诉年轻人,他们没有隐私权。剥夺年轻人的隐私和同意权,与联合国儿童基金会关于防止在线和离线儿童性剥削和虐待的循证指南所建议的完全相反。此外,这一功能不仅会造成伤害,还会让私人谈话暴露在光天化日之下,包括的监视。

在设计技术以保护年轻人的网络安全方面,需要做得更好,并从让可能受伤害的人自己参与安全系统的设计开始。让受技术影响最的人参与进来,是防止伤害和让技术更有效的解决途径。到目前为止,青少年还没有成为技术企业或研究人员所考虑的因素。

必须记住,单凭技术不能解决社会问题。重要的是将资源和努力集中在预防有害情况的发生上。例如,通过遵循联合国儿童基金会的指导方针和基于研究的建议,推进实施全面的、人们同意的性教育计划,可以帮助青少年安全地了解,培养健康的性观念。

(编译:金怡萝 编辑:王旭泉)

钓鱼初学者应该注意哪些事项?

游泳后的身体康复和保养有哪些方法?

桥牌如何评分及计算胜负?

乒乓球的发球规则有哪些?

扬州谷歌seo哪家好点

标签:侵犯隐私 苹果手机 苹果 算法 联合国儿童基金会