Apple News

Univerzitní výzkumníci, kteří vytvořili systém skenování CSAM, vyzývají Apple, aby nepoužíval „nebezpečnou“ technologii

Pátek 20. srpna 2021 6:48 PDT od Sami Fathi

Respektovaní univerzitní výzkumníci bijí na poplach kvůli technologii, která stojí za plány společnosti Apple na skenování iPhone uživatelské knihovny fotografií pro CSAM nebo materiály týkající se sexuálního zneužívání dětí, což tuto technologii nazývá „nebezpečnou“.





Apple soukromí
Jonanath Mayer, odborný asistent informatiky a veřejných záležitostí na Princetonské univerzitě, stejně jako Anunay Kulshrestha, výzkumník Centra pro politiku informačních technologií Princetonské univerzity, oba napsal op-ed pro The Washington Post , popisující své zkušenosti s technologií detekce obrazu budov.

Výzkumníci před dvěma lety zahájili projekt na identifikaci CSAM v end-to-end šifrovaných online službách. Výzkumníci poznamenávají, že vzhledem ke svému oboru „znají hodnotu end-to-end šifrování, které chrání data před přístupem třetích stran“. Říká se, že tato obava je děsí kvůli CSAM, která se „šíří na šifrovaných platformách“.



kolik bude stát apple car

Mayer a Kulshrestha uvedli, že chtějí najít střední cestu pro situaci: vybudovat systém, který by online platformy mohly použít k nalezení CSAM a ochraně end-to-end šifrování. Výzkumníci poznamenávají, že odborníci v oboru pochybovali o perspektivě takového systému, ale podařilo se jim ho postavit a v tomto procesu zaznamenali významný problém.

Snažili jsme se prozkoumat možnou střední cestu, kde by online služby mohly identifikovat škodlivý obsah a zároveň zachovat end-to-end šifrování. Koncept byl přímočarý: Pokud někdo sdílí materiál, který odpovídá databázi známého škodlivého obsahu, služba bude upozorněna. Pokud by někdo sdílel nevinný obsah, služba by se nic nedozvěděla. Lidé nemohli číst databázi nebo zjistit, zda se obsah shoduje, protože tyto informace by mohly odhalit metody vymáhání práva a pomoci zločincům vyhnout se odhalení.

Zkušení pozorovatelé tvrdili, že systém jako ten náš není ani zdaleka proveditelný. Po mnoha chybných začátcích jsme postavili funkční prototyp. Ale narazili jsme na do očí bijící problém.

Od chvíle, kdy Apple tuto funkci oznámil, byla společnost bombardována s obavami že systém stojící za detekcí CSAM by mohl být použit k detekci jiných forem fotografií na žádost represivních vlád. Apple se proti takové možnosti důrazně odrazil s tím, že jakoukoli takovou žádost vlád odmítne.

Nicméně obavy z budoucích důsledků technologie používané pro detekci CSAM jsou rozšířené. Mayer a Kulshrestha uvedli, že jejich obavy z toho, jak by vlády mohly využít systém k detekci jiného obsahu než CSAM, je „vyrušily“.

jak odstranit aplikace na Apple Watch z iphone

Zahraniční vláda by si například mohla vynutit službu lidem, kteří sdílejí nepříznivé politické projevy. To není hypotetické: WeChat, populární čínská aplikace pro zasílání zpráv, již používá shodu obsahu k identifikaci disidentského materiálu. Indie letos uzákonila pravidla, která by mohla vyžadovat předběžné prověření obsahu kritického vůči vládní politice. Rusko nedávno pokutovalo společnosti Google, Facebook a Twitter za to, že neodstranily prodemokratické protestní materiály.

Zjistili jsme další nedostatky. Proces porovnávání obsahu by mohl mít falešná pozitiva a uživatelé se zlými úmysly by mohli hrát se systémem a podrobit nevinné uživatele kontrole.

Byli jsme tak znepokojeni, že jsme udělali krok, který jsme dosud v literatuře o počítačové vědě neviděli: Varovali jsme před vlastním návrhem systému a naléhali na další výzkum, jak zmírnit vážné nevýhody....

Apple nadále řeší obavy uživatelů ohledně svých plánů, zveřejnění dalších dokumentů a stránku s často kladenými dotazy . Apple nadále věří, že jeho systém detekce CSAM, který se objeví na zařízení uživatele, je v souladu s jeho dlouhodobými hodnotami ochrany soukromí.

Tagy: Apple privacy , WashingtonPost.com , Apple funkce pro bezpečnost dětí