Apple News

Společnost Apple zveřejnila časté dotazy, které řeší obavy týkající se detekce CSAM a skenování zpráv

Pondělí 9. srpna 2021 2:50 PDT od Tima Hardwicka

Společnost Apple zveřejnila často kladené otázky s názvem „Rozšířená ochrana pro děti“, jejímž cílem je rozptýlit obavy uživatelů o ochranu soukromí v souvislosti s novou detekcí CSAM v Fotografie na iCloudu a bezpečnost komunikace pro funkce zpráv, které společnost oznámil minulý týden .





Apple soukromí
„Od té doby, co jsme oznámili tyto funkce, mnoho zúčastněných stran, včetně organizací na ochranu soukromí a organizací pro bezpečnost dětí, vyjádřilo podporu tomuto novému řešení a někteří se na nás obrátili s dotazy,“ uvádí FAQ. 'Tento dokument slouží k vyřešení těchto otázek a poskytuje větší jasnost a transparentnost procesu.'

Některé diskuze rozmazaly rozdíl mezi těmito dvěma funkcemi a Apple si s tím dává velké starosti dokument abychom je odlišili a vysvětlili, že bezpečnost komunikace ve Zprávách „funguje pouze na obrázcích odeslaných nebo přijatých v aplikaci Zprávy pro dětské účty nastavené ve Rodinném sdílení“, zatímco detekce CSAM ve ‌iCloud Photos‌ 'dopadá pouze na uživatele, kteří se rozhodli používat ‌iCloud Photos‌ ukládat jejich fotografie… Nemá to žádný vliv na žádná další data v zařízení.“



Z FAQ:

nejlepší místa pro nákup macbooků profesionálů

Tyto dvě funkce nejsou stejné a nepoužívají stejnou technologii.

Bezpečnost komunikace ve Zprávách je navržena tak, aby rodičům a dětem poskytla další nástroje, které pomohou chránit jejich děti před odesíláním a přijímáním sexuálně explicitních obrázků v aplikaci Zprávy. Funguje pouze na obrázcích odeslaných nebo přijatých v aplikaci Zprávy pro dětské účty nastavené ve Rodinném sdílení. Analyzuje obrázky na zařízení, a tak nemění ujištění o ochraně soukromí zpráv. Když dětský účet odešle nebo přijme sexuálně explicitní obrázky, fotografie bude rozmazaná a dítě bude upozorněno, budou mu poskytnuty užitečné zdroje a bude mu ujištěno, že je v pořádku, pokud si fotografii nepřeje zobrazit nebo odeslat. Jako další preventivní opatření lze malým dětem také říci, že jejich rodiče dostanou zprávu, aby se ujistili, že jsou v bezpečí, pokud si ji prohlédnou.

Druhá funkce, detekce CSAM ve Fotkách na iCloudu, je navržena tak, aby zamezila zobrazování CSAM ve Fotkách na iCloudu, aniž by společnosti Apple poskytovala informace o jiných fotkách, než které odpovídají známým obrázkům CSAM. Ve většině zemí, včetně Spojených států, je držení obrázků CSAM nezákonné. Tato funkce se týká pouze uživatelů, kteří se rozhodli pro ukládání svých fotografií používat Fotky na iCloudu. Nemá vliv na uživatele, kteří se nerozhodli používat Fotky na iCloudu. Nemá žádný vliv na žádná další data v zařízení. Tato funkce se nevztahuje na Zprávy.

Zbytek dokumentu je rozdělen do tří sekcí (níže tučně) s odpověďmi na následující často kladené otázky:

jak nastavit hudební časovač na iphone

co je v nové aktualizaci ios
    Bezpečnost komunikace ve zprávách
  • Kdo může používat zabezpečení komunikace ve Zprávách?
  • Znamená to, že aplikace Messages bude sdílet informace s Applem nebo orgány činnými v trestním řízení?
  • Naruší to šifrování typu end-to-end ve Zprávách?
  • Brání tato funkce dětem v násilných domovech, aby vyhledaly pomoc?
  • Budou rodiče informováni, aniž by děti byly varovány a měly na výběr?
  • Detekce CSAM
  • Znamená to, že Apple bude skenovat všechny fotografie uložené v mém iPhone ?
  • Stáhne se obrázky CSAM do mého ‌iPhonu‌ porovnat s mými fotografiemi?
  • Proč to teď Apple dělá?
  • Zabezpečení detekce CSAM pro Fotky na iCloudu
  • Může systém detekce CSAM v ‌iCloud Photos‌ použít k detekci jiných věcí než CSAM?
  • Mohly by vlády donutit Apple, aby do seznamu hash přidal obrázky, které nejsou sexuálním zneužíváním?
  • Lze do systému „vložit“ obrázky, které nejsou určeny k sexuálnímu zneužívání, a označit tak účty pro jiné věci než CSAM?
  • Bude detekce CSAM ve ‌iCloud Photos‌ falešně nahlásit nevinné lidi orgánům činným v trestním řízení?

Zainteresovaní čtenáři by si měli v dokumentu přečíst úplné odpovědi společnosti Apple na tyto otázky. Je však třeba poznamenat, že u těch otázek, na které lze odpovědět binárním ano/ne, Apple všechny začíná 'Ne' s výjimkou následujících tří otázek ze sekce nazvané 'Zabezpečení pro detekci CSAM pro ‌ Fotky iCloud‌:'

Lze systém detekce CSAM ve Fotkách na iCloudu použít k detekci jiných věcí než CSAM?
Náš proces je navržen tak, aby tomu zabránil. Detekce CSAM pro iCloud Photos je postavena tak, že systém pracuje pouze s hashemi obrázků CSAM poskytovanými NCMEC a dalšími organizacemi pro bezpečnost dětí. Tato sada hodnot hash obrázků je založena na obrázcích získaných a ověřených organizacemi pro bezpečnost dětí jako CSAM. Neexistuje žádné automatické hlášení orgánům činným v trestním řízení a společnost Apple před podáním hlášení NCMEC provádí lidskou kontrolu. Výsledkem je, že systém je navržen tak, aby na iCloud Photos hlásil pouze fotografie, které jsou známé jako CSAM. Ve většině zemí, včetně Spojených států, je pouhé držení těchto obrázků trestným činem a společnost Apple je povinna nahlásit všechny případy, o kterých se dozvíme, příslušným úřadům.

Mohly by vlády donutit Apple, aby do seznamu hash přidal obrázky, které nejsou sexuálním zneužíváním?
Apple jakékoli takové požadavky odmítne. Schopnost detekce CSAM společnosti Apple je vytvořena výhradně pro detekci známých obrázků CSAM uložených v iCloud Photos, které byly identifikovány odborníky z NCMEC a dalšími skupinami pro bezpečnost dětí. Již dříve jsme čelili požadavkům na vytvoření a nasazení vládou nařízených změn, které zhoršují soukromí uživatelů, a vytrvale jsme tyto požadavky odmítali. V budoucnu je budeme nadále odmítat. Ujasněme si, že tato technologie je omezena na zjišťování CSAM uložených v iCloudu a nepřistoupíme na žádný vládní požadavek na její rozšíření. Kromě toho společnost Apple před odesláním zprávy NCMEC provádí kontrolu člověkem. V případě, že systém označí fotografie, které se neshodují se známými obrázky CSAM, nebude účet deaktivován a NCMEC nebude podána žádná zpráva.

Lze do systému „vložit“ obrázky, které nejsou určeny k sexuálnímu zneužívání, a označit tak účty pro jiné věci než CSAM?
Náš proces je navržen tak, aby tomu zabránil. Sada hash obrázků používaných pro párování pochází ze známých existujících obrázků CSAM, které byly získány a ověřeny organizacemi pro bezpečnost dětí. Apple nepřidává do sady známých hash obrázků CSAM. Stejná sada hashů je uložena v operačním systému každého uživatele iPhonu a iPadu, takže cílené útoky pouze proti konkrétním jedincům nejsou podle našeho návrhu možné. A konečně, neexistuje žádné automatické hlášení orgánům činným v trestním řízení a společnost Apple před podáním hlášení NCMEC provádí lidskou kontrolu. V nepravděpodobném případě, že by systém označil obrázky, které se neshodují se známými obrázky CSAM, nebude účet deaktivován a NCMEC nebude podána žádná zpráva.

Apple čelil značné kritice od obhájců soukromí, bezpečnostních výzkumníků, odborníků na kryptografii, akademiků a dalších za své rozhodnutí nasadit technologii s vydáním iOS 15 a iPad 15 , očekává se v září.

To vedlo k otevřený dopis kritizující plán společnosti Apple skenovat iPhony na CSAM ve ‌iCloud Photos‌ a explicitní obrázky v dětských zprávách, které získaly více než 5 500 podpisů při psaní. Apple také obdržel kritiku od Facebooku vlastněného WhatsApp, jehož šéf Will Cathcart nazval to 'nesprávný přístup a překážka pro soukromí lidí na celém světě.' Také CEO Epic Games Tim Sweeney napadl rozhodnutí, prohlašoval, že se „usilovně snažil“ vidět tento krok z pohledu Applu, ale dospěl k závěru, že „nevyhnutelně jde o vládní spyware instalovaný Applem na základě presumpce viny“.

'Bez ohledu na to, jak dobře to bylo míněno, Apple tímto zavádí hromadné sledování do celého světa,' řekl prominentní informátor Edward Snowden a dodal, že „když mohou hledat dětské porno dnes, mohou zítra hledat cokoli“. Nezisková Electronic Frontier Foundation také kritizován Plány společnosti Apple, v nichž se uvádí, že „i důkladně zdokumentovaná, pečlivě promyšlená a úzce vymezená zadní vrátka jsou stále zadní vrátka“.

Program výměny fotoaparátu isight pro iphone 6 plus
Štítky: Apple soukromí , Apple funkce pro bezpečnost dětí