Apple News

Apple říká, že NeuralHash Tech ovlivněná 'Hash Collisions' není verze používaná pro detekci CSAM

Středa 18. srpna 2021 14:13 PDT od Juli Clover

Vývojář Asuhariet Yvgar dnes ráno řekl, že provedl reverzní inženýrství algoritmu NeuralHash, který Apple používá k detekci materiálů pro sexuální zneužívání dětí (CSAM) v Fotografie na iCloudu , zveřejňování důkazů na GitHubu a podrobnosti na Redditu .





Dětská pojistka Modrá
Yvgar řekl, že provedl reverzní inženýrství algoritmu NeuralHash z iOS 14.3, kde byl kód skrytý, a přestavěl jej v Pythonu. Poté, co nahrál svá zjištění, mohl další uživatel vytvořit kolizi , problém, kdy dva neshodné obrázky sdílejí stejný hash. Bezpečnostní výzkumníci před touto možností varovali, protože potenciál kolizí by mohl umožnit zneužití systému CSAM.

V prohlášení k Základní deska Apple uvedl, že verze NeuralHash, kterou Yvgar reverzně zkonstruoval, není stejná jako konečná implementace, která bude použita se systémem CSAM. Apple také uvedl, že algoritmus veřejně zpřístupnil bezpečnostním výzkumníkům k ověření, ale existuje druhý soukromý algoritmus na straně serveru, který ověřuje shodu CSAM po překročení prahové hodnoty spolu s ověřením člověkem.



Apple však Motherboard v e-mailu sdělil, že tato verze analyzovaná uživateli na GitHubu je generická verze, a nikoli konečná verze, která bude použita pro detekci CSAM na iCloud Photos. Apple uvedl, že algoritmus také zveřejnil.

„Algoritmus NeuralHash [... je] součástí kódu podepsaného operačního systému [a] bezpečnostní výzkumníci mohou ověřit, že se chová tak, jak je popsáno,“ píše se v jedné z dokumentů společnosti Apple. Apple také uvedl, že poté, co uživatel překročí hranici 30 shod, zkontroluje výsledky druhý neveřejný algoritmus, který běží na serverech společnosti Apple.

Matthew Green, který vyučuje kryptografii na Johns Hopkins University a který byl hlasitým kritikem systému CSAM společnosti Apple, řekl Základní deska že pokud kolize „existují pro tuto funkci“, pak očekává, že „budou existovat v systému, který Apple nakonec aktivuje“.

'Samozřejmě je možné, že před nasazením znovu roztočí hashovací funkci,' řekl. „Ale jako důkaz konceptu to rozhodně platí,“ řekl o informacích sdílených na GitHubu.

Ale kvůli lidskému prvku, řekl další výzkumník Nicholas Weaver Základní deska Vše, co lidé mohou dělat s manipulací hashů, které nejsou CSAM, do CSAM, je „obtěžovat tým odpovědí společnosti Apple odpadkovými obrázky, dokud neimplementují filtr“, aby se zbavili falešných poplachů. Ve skutečnosti by oklamání systému Apple také vyžadovalo přístup k hashům poskytovaným NCMEC a vyžadovalo by to produkci více než 30 kolidujících obrázků, přičemž konečný výsledek neoklame lidský dohled.

Apple používá svůj systém NeuralHash k přiřazování databáze hash obrázků poskytovaných agenturami, jako je Národní centrum pro pohřešované děti (NCMEC), k obrázkům na uživatelských zařízeních k vyhledávání CSAM. Systém je navržen tak, aby produkoval přesné shody a Apple říká, že existuje šance jedna ku bilionu, že účet na iCloudu může být náhodně označen.

Apple plánuje implementaci systému NeuralHash CSAM v iOS a iPad 15 jako součást sady bezpečnostních prvků pro děti a bylo to velmi kontroverzní rozhodnutí, protože Apple obdržel kritiku od zákazníků a obhájců soukromí. Apple se snaží ujistit zákazníky a bezpečnostní výzkumníky o implementaci systému s další dokumentace a manažerské rozhovory .