Apple News

Apple představuje nové funkce pro bezpečnost dětí, včetně skenování knihoven fotografií uživatelů, zda neobsahují známý materiál se sexuálním zneužíváním

Čtvrtek 5. srpna 2021 13:00 PDT od Joe Rossignola

Apple dnes si prohlédli nové funkce dětské bezpečnosti která na své platformy přijde se softwarovými aktualizacemi koncem tohoto roku. Společnost uvedla, že funkce budou dostupné v USA pouze při uvedení na trh a postupem času budou rozšířeny do dalších regionů.





bezpečnostní funkce komunikace iphone

Bezpečnost komunikace

Za prvé, aplikace Zprávy na iPhonu, iPadu a Macu získá novou funkci Bezpečnost komunikace, která varuje děti a jejich rodiče při přijímání nebo odesílání sexuálně explicitních fotografií. Apple uvedl, že aplikace Zprávy bude používat strojové učení na zařízení k analýze obrazových příloh, a pokud se zjistí, že fotografie je sexuálně explicitní, fotografie bude automaticky rozmazána a dítě bude upozorněno.



jak zjistit, zda máte applecare

Když se dítě pokusí zobrazit fotografii označenou jako citlivá v aplikaci Zprávy, bude upozorněno, že fotografie může obsahovat soukromé části těla a že může být zraňující. V závislosti na věku dítěte bude také pro rodiče k dispozici možnost obdržet upozornění, pokud jejich dítě přistoupí k prohlížení citlivé fotografie nebo pokud se po upozornění rozhodne poslat sexuálně explicitní fotografii jinému kontaktu.

Apple uvedl, že nová funkce Communication Safety bude k dispozici v aktualizacích pro iOS 15, iPadOS 15 a macOS Monterey koncem tohoto roku pro účty nastavené jako rodiny na iCloudu. Apple zajistil, že konverzace iMessage zůstanou chráněny end-to-end šifrováním, takže soukromá komunikace bude pro Apple nečitelná.

Skenování fotografií pro materiál týkající se sexuálního zneužívání dětí (CSAM)

Zadruhé, počínaje letošním rokem s iOS 15 a iPadOS 15 bude Apple schopen detekovat známé obrázky materiálů pro sexuální zneužívání dětí (CSAM) uložené ve Fotkách na iCloudu, což společnosti Apple umožní nahlásit tyto případy Národnímu centru pro pohřešované a zneužívané děti (NCMEC). , nezisková organizace, která spolupracuje s americkými donucovacími orgány.

Apple uvedl, že jeho metoda detekce známých CSAM je navržena s ohledem na soukromí uživatelů. Namísto skenování obrázků v cloudu Apple uvedl, že systém bude provádět porovnávání na zařízení s databází známých hash obrázků CSAM poskytovaných NCMEC a dalšími organizacemi pro bezpečnost dětí. Apple uvedl, že bude dále transformovat tuto databázi na nečitelný soubor hash, který je bezpečně uložen na zařízeních uživatelů.

Hashovací technologie nazvaná NeuralHash analyzuje obrázek a převádí jej na jedinečné číslo specifické pro tento obrázek, uvádí Apple.

„Hlavním účelem hashe je zajistit, aby identické a vizuálně podobné obrázky vedly ke stejnému hashe, zatímco obrázky, které se navzájem liší, vedou k různým hashům,“ uvedl Apple v nové bílé knize „Expanded Protections for Children“. 'Například obrázek, který byl mírně oříznut, změněna velikost nebo převeden z barevného na černobílý, je zpracován stejně jako jeho originál a má stejný hash.'

vývojový diagram apple csam
Před uložením obrázku do iCloud Photos Apple uvedl, že se pro tento obrázek provede proces porovnávání na zařízení s nečitelným souborem známých hashů CSAM. Pokud existuje shoda, zařízení vytvoří kryptografický bezpečnostní poukaz. Tento poukaz je nahrán do iCloud Photos spolu s obrázkem, a jakmile je překročena nezveřejněná hranice shod, Apple je schopen interpretovat obsah poukazů pro zápasy CSAM. Apple poté ručně zkontroluje každou zprávu, aby potvrdil, že existuje shoda, zakáže uživateli iCloud účet a odešle zprávu do NCMEC. Apple nesděluje, jaká je jeho přesná hranice, ale zajišťuje „extrémně vysokou úroveň přesnosti“, aby účty nebyly nesprávně označeny.

Apple uvedl, že jeho metoda detekce známého CSAM poskytuje „významné výhody ochrany soukromí“ oproti stávajícím technikám:

• Tento systém je efektivním způsobem, jak identifikovat známé materiály CSAM uložené v účtech iCloud Photos a zároveň chránit soukromí uživatelů.
• V rámci tohoto procesu se uživatelé také nemohou dozvědět nic o sadě známých obrázků CSAM, které se používají pro párování. To chrání obsah databáze před zneužitím.
• Systém je velmi přesný, s extrémně nízkou chybovostí menší než jeden ku bilionu účtů za rok.
• Systém výrazně více zachovává soukromí než skenování založené na cloudu, protože hlásí pouze uživatele, kteří mají ve Fotkách na iCloudu uloženou sbírku známých materiálů CSAM.

Základní technologie za systémem společnosti Apple je poměrně složitá a společnost zveřejnila a technické shrnutí s více podrobnostmi.

„Rozšířená ochrana od společnosti Apple pro děti mění hru. Vzhledem k tomu, že produkty Apple používá tolik lidí, mají tato nová bezpečnostní opatření potenciál k záchraně života dětí, které jsou lákány online a jejichž děsivé obrázky kolují v materiálech týkajících se sexuálního zneužívání dětí,“ řekl John Clark, prezident a generální ředitel Národního centra pro pohřešované. & zneužívané děti. „V Národním centru pro pohřešované a zneužívané děti víme, že proti tomuto zločinu lze bojovat pouze tehdy, pokud budeme vytrvalí ve svém odhodlání chránit děti. Můžeme to udělat jen proto, že technologičtí partneři, jako je Apple, vystupují a dávají najevo své odhodlání. Realita je taková, že soukromí a ochrana dětí mohou existovat vedle sebe. Tleskáme Applu a těšíme se na společnou práci, abychom tento svět učinili bezpečnějším místem pro děti.“

Rozšířené navádění CSAM v Siri a vyhledávání

iphone csam siri
Za třetí, Apple uvedl, že rozšíří pokyny pro Siri a Spotlight Search napříč zařízeními tím, že poskytne další zdroje, které pomohou dětem a rodičům zůstat v bezpečí online a získat pomoc v nebezpečných situacích. Například uživatelé, kteří se zeptají Siri, jak mohou nahlásit CSAM nebo zneužívání dětí, budou odkázáni na zdroje, kde a jak podat oznámení.

Aktualizace Siri a Search přijdou později v tomto roce v aktualizaci na iOS 15, iPadOS 15, watchOS 8 a macOS Monterey, podle Apple.

Poznámka: Vzhledem k politické nebo společenské povaze diskuse na toto téma se diskusní vlákno nachází v našem Politické zprávy Fórum. Všichni členové fóra a návštěvníci webu jsou vítáni ke čtení a sledování vlákna, ale zasílání příspěvků je omezeno na členy fóra s alespoň 100 příspěvky.

Štítky: Apple soukromí , Apple bezpečnostní prvky pro děti