Meta 90%的應用風險評估工作將交由 AI 完成?

多年來,每當 Meta 為 Instagram、WhatsApp 和 Facebook 推出新功能時,審核團隊都會評估可能存在的風險:它會侵犯用戶隱私嗎?它會對未成年人造成傷害嗎?它會加劇誤導性或有害內(nèi)容的傳播嗎?直到最近,Meta 內(nèi)部所謂的隱私和完整性審查幾乎完全由人工評估員進行。但現(xiàn)在,根據(jù) NPR 獲得的公司內(nèi)部文件,高達 90% 的風險評估將很快實現(xiàn)自動化。
實際上,這意味著 Meta 算法的關(guān)鍵更新、新的安全功能以及公司平臺上內(nèi)容共享方式的改變等內(nèi)容將主要由人工智能系統(tǒng)批準——不再受到負責討論平臺變化如何產(chǎn)生不可預見的后果或被濫用的工作人員的審查。
在 Meta 內(nèi)部,這一變化被視為產(chǎn)品開發(fā)者的一大優(yōu)勢,他們現(xiàn)在可以更快地發(fā)布應用更新和功能。但 Meta 的現(xiàn)任和前任員工擔心,新的自動化舉措的代價是允許人工智能做出一些棘手的判斷,判斷 Meta 的應用可能在現(xiàn)實世界中造成哪些危害。
“從功能上來說,這種流程意味著更多產(chǎn)品可以更快地發(fā)布,審查和反對力度也更小,但也意味著風險更高,”一位因擔心遭到公司報復而要求匿名的前 Meta 高管表示。“產(chǎn)品變更帶來的負面外部效應不太可能在它們開始給世界帶來問題之前就被阻止。”
Meta 在一份聲明中表示,已投入數(shù)十億美元來支持用戶隱私。
自2012年起,Meta就一直受到美國聯(lián)邦貿(mào)易委員會(FTC)的監(jiān)管,此前該機構(gòu)與Meta就如何處理用戶個人信息達成了協(xié)議。據(jù)Meta現(xiàn)任和前任員工稱,因此Meta的產(chǎn)品必須經(jīng)過隱私審查。
Meta 在聲明中表示,產(chǎn)品風險審查的變化旨在簡化決策過程,并補充說,“人類專業(yè)知識”仍然用于“新穎而復雜的問題”,并且只有“低風險決策”才會實現(xiàn)自動化。
但 NPR 審查的內(nèi)部文件顯示,Meta 正在考慮對敏感領(lǐng)域進行自動化審查,包括人工智能安全、青少年風險以及涵蓋暴力內(nèi)容和傳播虛假信息等內(nèi)容的誠信類別。
一張描述新流程的幻燈片顯示,產(chǎn)品團隊現(xiàn)在在大多數(shù)情況下完成項目問卷后都會收到“即時決策”。這項由人工智能驅(qū)動的決策將識別風險領(lǐng)域以及解決這些風險的要求。在產(chǎn)品上線之前,產(chǎn)品團隊必須驗證其是否滿足這些要求。
在之前的系統(tǒng)下,產(chǎn)品和功能更新必須獲得風險評估人員的批準才能發(fā)送給數(shù)十億用戶。現(xiàn)在,開發(fā) Meta 產(chǎn)品的工程師可以自行判斷風險。
幻燈片中提到,在某些情況下,包括涉及新風險的項目,或者產(chǎn)品團隊需要更多反饋的項目,將由人工進行審核,但不會像以前那樣默認進行。現(xiàn)在,產(chǎn)品開發(fā)團隊將做出最終決定。
“大多數(shù)產(chǎn)品經(jīng)理和工程師并非隱私專家,這也不是他們工作的重點。這并非他們評估的主要依據(jù),也不是他們被激勵優(yōu)先考慮的因素,”曾擔任 Meta 負責任創(chuàng)新總監(jiān)(直至 2022 年)的 Zvika Krieger 表示。Meta 的產(chǎn)品團隊評估標準包括產(chǎn)品發(fā)布速度等指標。
他補充道:“過去,一些此類自我評估已經(jīng)變成了例行檢查,忽略了重大風險。”
克里格表示,雖然通過自動化來簡化 Meta 的審核還有改進的空間,但“如果過度推進,審核的質(zhì)量和結(jié)果必然會受到影響。”
Meta 淡化了人們對新系統(tǒng)會給世界帶來問題的擔憂,并指出它正在審核自動化系統(tǒng)為未經(jīng)人類評估的項目做出的決策。
Meta 的文件表明,其歐盟用戶可能在一定程度上不受這些變化的影響。一份內(nèi)部公告稱,歐盟產(chǎn)品和用戶數(shù)據(jù)的決策和監(jiān)督仍將由 Meta 位于愛爾蘭的歐洲總部負責。歐盟有管理網(wǎng)絡平臺的法規(guī),包括《數(shù)字服務法》,該法案要求包括 Meta 在內(nèi)的公司更嚴格地監(jiān)管其平臺,保護用戶免受有害內(nèi)容的侵害。
科技新聞網(wǎng)站 The Information率先報道了產(chǎn)品審核流程的一些變化。NPR 看到的內(nèi)部文件顯示,在公司終止事實核查程序并放松仇恨言論政策后不久,員工就收到了有關(guān)此次改革的通知。
總的來說,這些變化反映出 Meta 的新重點,即更加注重言論自由和更快速地更新其應用程序——這打破了該公司多年來為遏制平臺濫用而制定的各種防護措施。在 Meta 做出這些重大調(diào)整之前,首席執(zhí)行官馬克·扎克伯格也一直在努力討好特朗普總統(tǒng),扎克伯格稱特朗普的勝選是“文化轉(zhuǎn)折點”。
推動產(chǎn)品評論變革的另一個因素是,在來自 TikTok、OpenAI、Snap 和其他科技公司日益激烈的競爭中,該公司多年來一直在更廣泛地推動利用人工智能來幫助公司更快地發(fā)展。
Meta 本周早些時候表示,它將更多地依賴人工智能來幫助執(zhí)行其內(nèi)容審核政策。
該公司在其最新的季度誠信報告中寫道:“我們開始看到(大型語言模型)在某些政策領(lǐng)域的運行速度超越了人類的表現(xiàn)。”該公司表示,他們還在使用這些人工智能模型來篩選一些公司“高度確信”沒有違反其規(guī)則的帖子。
Meta 表示:“這為我們的審核人員釋放了能力,使他們能夠優(yōu)先處理更有可能違規(guī)的內(nèi)容。”
凱蒂·哈巴斯 (Katie Harbath) 是科技政策公司 Anchor Change 的創(chuàng)始人兼首席執(zhí)行官,曾在 Facebook 從事公共政策工作十年,她表示,使用自動化系統(tǒng)標記潛在風險可以幫助減少重復工作。
她說:“如果想要快速行動并保持高質(zhì)量,就需要融入更多人工智能,因為人類在一段時間內(nèi)能做的事情是有限的。”但她補充說,這些系統(tǒng)也需要受到人類的制衡。
另一位前 Meta 員工也因擔心遭到公司的報復而要求匿名,他質(zhì)疑加快風險評估對 Meta 來說是否是一個好策略。
“這幾乎看起來是弄巧成拙。每次他們推出一款新產(chǎn)品,都會受到如此多的審查——而這些審查經(jīng)常會發(fā)現(xiàn)公司應該更認真對待的問題,”這位前員工說。
Meta 產(chǎn)品首席隱私官米歇爾·普羅蒂 (Michel Protti) 3 月份在其內(nèi)部通訊工具 Workplace 上發(fā)表的一篇文章中表示,該公司正在“授權(quán)產(chǎn)品團隊”,目的是“改進 Meta 的風險管理流程”。
一位熟悉產(chǎn)品風險評估的 Meta 現(xiàn)任員工表示,自動化推廣工作已在 4 月和 5 月逐步展開,但該員工無權(quán)公開談論內(nèi)部運營情況。
普羅蒂表示,在90%的情況下,自動化風險評估并賦予產(chǎn)品團隊更多關(guān)于產(chǎn)品更新帶來的潛在風險的發(fā)言權(quán),旨在“簡化決策”。但一些業(yè)內(nèi)人士表示,將人工從風險評估流程中移除的這種過于樂觀的總結(jié),大大低估了這些變化可能帶來的問題。
“考慮到我們存在的初衷,我認為這相當不負責任,”一位了解風險審查流程的 Meta 員工表示。“我們只是從人性的角度來看待事情可能出錯的地方。”



