更新 - 人民學:Apple CSAM系統的潛在弱點

Jama

更新:研究人員已經測試了Apple將用作第二種驗證敏感圖像以限制誤報並取得成功的方法。本文末尾的更多詳細信息。

蘋果尚未完成為iCloud辯護其新的兒童色情圖像檢測系統。開發商Asuhariet Ygvar以前進行的新發現不會安排加利福尼亞巨人的事務。的確,Man分析了Apple CSAM檢測所基於的SO稱為“ Neuralhash”編碼算法,並在iOS 14.3中發現了編碼。他甚至能夠用Python編程語言重新創建自己的系統版本。

他強調說,兩個非常遙遠的圖像可以獲得相同的神經性標識符。這讓您擔心蘋果的兒童色情圖像可能會產生的誤報。

這並沒有反應蘋果立即澄清的,,在圖像檢測的GitHub上看到的版本並不是Apple用於其CSAM系統的版本。蘋果工程師將設法設置這個更成功,更確定的工具的版本。

此外,正如加利福尼亞公司在其中的一家中所指定的文檔技術,必須超過檢測閾值,以使iCloud帳戶報告為共享兒童色情內容。閾值是30張圖像。知道除此之外,在對系統進行了報告之後,Apple員工將直接進行驗證,以消除任何誤報的風險。這一點暴露在幾週前由庫比蒂諾協會出版的常見問題解答

我們認為,在系統的開發過程中確實採取了所有預防措施,以避免尊重用戶的機密性,以限制誤報。希望這足夠了。

回想一下,這種發現兒童色情內容的發現將在2021年底之前發布下一個主要骨頭,iOS 15和Macos Monterey之後起作用。

2021年8月20日的更新

新主板文章,蘋果宣布使用其他分析技術將圖像驗證為敏感的兒童色情內容。此驗證將在當地在用戶機器上進行的第一次檢測後,但是在最後一個驗證階段之前,該驗證將在當地的第一個檢測之後進行,但在最後一個驗證階段之前,該驗證是由Apple Teams直接手動進行的。

因此,第二個控件可以取消假陽性,這對Asuhariet YGVAR最初制定的發現可以放心,並表明Apple CSAM系統的基本算法可以在為兩張相同照片的同一標識符創建相同的標識符時導致。

這就是Roboflow公司的人工智能專家Brad Dwyer所證明的。後者已顯示人工智能如何在他的研究中剪輯,如何設法區分兩個帶有相同神經的圖像。通過這樣的系統,將消除許多誤報,這將限制加利福尼亞公司在發出警報之前執行最後驗證的工作。

另請閱讀:

i -nfo.fr- iphon.fr官方應用

平等:Ag Tescience

編輯 - iphon.fr的主持人。皮埃爾(Pierre)就是印第安納·瓊斯(Indiana Jones),正在尋找丟失的iOS小費。 Apple設備也很長,也沒有秘密。聯繫人:Pierre [a] iphon.fr。