Meta平台计划使用人工智能评估隐私和社会风险。多年来,该公司已雇用人类评估人员来研究与新产品和功能相关的风险,但是随着这一新更新的情况将改变。
根据内部对话和文件,Meta计划将其所有风险评估的90%自动化。这意味着,有关公司算法,安全功能的关键更新以及如何在Meta平台上共享内容的各个方面将大多由人工智能支持的系统批准。这也意味着,这些变化将不再受到负责讨论平台上的变化如何产生不可预见的效果或滥用的工作人员的审查。
根据Meta内部的消息来源,该开发被视为产品开发人员的胜利,因为它为他们提供了足够的时间来发布其应用程序更新和功能。但是,公司内部仍然担心这种情况有多棘手,并指出该公司将允许AI对Meta应用程序做出棘手的确定可能导致现实世界中的伤害。前任和现任员工都分享了偏见。
一位前Meta高管说:“就此过程而言,在功能上意味着更多的东西发起速度,而对审查和反对不太严格,这意味着您会造成更高的风险。” “产品变化的负面外部性在开始引起世界问题之前就不太可能被阻止。”
在最近的一份声明中,梅塔提到它已经注入了数十亿美元以支持用户隐私。自2012年以来,该公司还一直在联邦贸易委员会的监督下,该机构就其如何处理用户的个人信息达成了协议。结果,根据以前和当前的META员工,一直需要对产品进行隐私审查。
该公司在其声明中补充说,产品风险审查的变化将有助于简化决策,并指出它仍然在新颖和复杂的问题中采用人类专业知识。 Meta还指出,目前仅自动化低风险的决策,但是NPR表明,Meta一直在研究敏感方面的评论,包括AI安全,青年风险和另一种被称为正直的类别,这是负责错误信息和暴力内容的原因。
在先前的系统下,产品和功能更新首先被送到风险评估者,然后再向公众推出。但是,根据幻灯片展示新过程的工作原理,产品团队在完成有关该项目的问卷后将立即做出决定。 AI驱动的决定我会dent一些可能解决这些问题的风险领域和要求。在启动此类项目之前,产品团队还将验证是否满足了要求。
新系统的重点是,工程师建造的元产品将需要对风险做出判断。根据幻灯片的说法,在某些情况下,包括新的风险或产品团队需要其他反馈的地方,将对项目进行手动审查,该项目由人类进行。
但是,Zvika Krieger曾是前META创新总监,直到2022年,他提到产品经理和工程师不是隐私专家。他说:“大多数产品经理和工程师不是隐私专家,这不是他们工作的重点。这不是他们主要对其进行评估,也不是他们激励优先级的。”他还补充说,其中一些自我评估已成为错过一些重要风险的练习。
您的加密新闻值得关注 -关键差异使您进入250多个顶级网站