Meta平臺計劃使用人工智能評估隱私和社會風險。多年來,該公司已僱用人類評估人員來研究與新產品和功能相關的風險,但是隨着這一新更新的情況將改變。
根據內部對話和文件,Meta計劃將其所有風險評估的90%自動化。這意味着,有關公司算法,安全功能的關鍵更新以及如何在Meta平臺上共享內容的各個方面將大多由人工智能支持的系統批准。這也意味着,這些變化將不再受到負責討論平臺上的變化如何產生不可預見的效果或濫用的工作人員的審查。
根據Meta內部的消息來源,該開發被視爲產品開發人員的勝利,因爲它爲他們提供了足夠的時間來發布其應用程序更新和功能。但是,公司內部仍然擔心這種情況有多棘手,並指出該公司將允許AI對Meta應用程序做出棘手的確定可能導致現實世界中的傷害。前任和現任員工都分享了偏見。
一位前Meta高管說:“就此過程而言,在功能上意味着更多的東西發起速度,而對審查和反對不太嚴格,這意味着您會造成更高的風險。” “產品變化的負面外部性在開始引起世界問題之前就不太可能被阻止。”
在最近的一份聲明中,梅塔提到它已經注入了數十億美元以支持用戶隱私。自2012年以來,該公司還一直在聯邦貿易委員會的監督下,該機構就其如何處理用戶的個人信息達成了協議。結果,根據以前和當前的META員工,一直需要對產品進行隱私審查。
該公司在其聲明中補充說,產品風險審查的變化將有助於簡化決策,並指出它仍然在新穎和複雜的問題中採用人類專業知識。 Meta還指出,目前僅自動化低風險的決策,但是NPR表明,Meta一直在研究敏感方面的評論,包括AI安全,青年風險和另一種被稱爲正直的類別,這是負責錯誤信息和暴力內容的原因。
在先前的系統下,產品和功能更新首先被送到風險評估者,然後再向公衆推出。但是,根據幻燈片展示新過程的工作原理,產品團隊在完成有關該項目的問卷後將立即做出決定。 AI驅動的決定我會dent一些可能解決這些問題的風險領域和要求。在啓動此類項目之前,產品團隊還將驗證是否滿足了要求。
新系統的重點是,工程師建造的元產品將需要對風險做出判斷。根據幻燈片的說法,在某些情況下,包括新的風險或產品團隊需要其他反饋的地方,將對項目進行手動審查,該項目由人類進行。
但是,Zvika Krieger曾是前META創新總監,直到2022年,他提到產品經理和工程師不是隱私專家。他說:“大多數產品經理和工程師不是隱私專家,這不是他們工作的重點。這不是他們主要對其進行評估,也不是他們激勵優先級的。”他還補充說,其中一些自我評估已成爲錯過一些重要風險的練習。
您的加密新聞值得關注 -關鍵差異使您進入250多個頂級網站