Apple News

Zaměstnanci společnosti Apple interně vyvolávají obavy z plánů detekce CSAM

Pátek 13. srpna 2021 0:43 PDT od Sami Fathi

Zaměstnanci společnosti Apple se nyní připojují ke sboru jednotlivců, kteří upozorňují na plány společnosti Apple na skenování iPhone uživatelské knihovny fotografií pro materiály CSAM nebo sexuální zneužívání dětí, které údajně interně hovoří o tom, jak by tato technologie mohla být použita ke skenování fotografií uživatelů pro jiné typy obsahu, podle zprávy od Reuters .





Apple park drone červen 2018 2
Podle Reuters blíže nespecifikovaný počet zaměstnanců společnosti Apple přešel na interní kanály Slack, aby vyjádřili obavy ohledně detekce CSAM. Zaměstnanci se konkrétně obávají, že by vlády mohly donutit Apple, aby používal technologii k cenzuře tím, že by našel jiný obsah než CSAM. Někteří zaměstnanci se obávají, že Apple poškozuje jeho pověst v oblasti ochrany soukromí, která je na špičce v oboru.

Zaměstnanci společnosti Apple zaplavili interní kanál Slack společnosti Apple více než 800 zprávami o plánu oznámeném před týdnem, řekli agentuře Reuters pracovníci, kteří si nepřáli být identifikováni. Mnozí vyjádřili obavy, že by tuto funkci mohly zneužít represivní vlády, které chtějí najít jiný materiál pro cenzuru nebo zatčení, podle pracovníků, kteří viděli celé dny dlouhé vlákno.



Minulé bezpečnostní změny v Applu také vyvolaly obavy mezi zaměstnanci, ale objem a trvání nové debaty jsou překvapivé, uvedli pracovníci. Některé plakáty se obávají, že Apple poškozuje svou přední pověst v oblasti ochrany soukromí.

Zaměstnanci společnosti Apple v rolích týkajících se bezpečnosti uživatelů se podle zprávy nepovažují za součást interního protestu.

Od té doby oznámení minulý týden Apple byl bombardován kritikou za své plány detekce CSAM, u kterých se stále očekává, že budou spuštěny s iOS 15 a iPadOS 15 letos na podzim. Obavy se točí hlavně kolem toho, jak by tato technologie mohla představovat kluzký svah pro budoucí implementace ze strany represivních vlád a režimů.

jak resetovat iphone 8

Apple se pevně postavil proti myšlence, že technologie na zařízení používaná pro detekci materiálu CSAM by mohla být použita pro jakýkoli jiný účel. V zveřejněný dokument FAQ Společnost tvrdí, že jakýkoli takový požadavek vlád vehementně odmítne.

Mohly by vlády donutit Apple, aby do seznamu hash přidal obrázky, které nejsou sexuálním zneužíváním?
Apple jakékoli takové požadavky odmítne. Schopnost detekce CSAM společnosti Apple je vytvořena výhradně pro detekci známých obrázků CSAM uložených v iCloud Photos, které byly identifikovány odborníky z NCMEC a dalšími skupinami pro bezpečnost dětí. Již dříve jsme čelili požadavkům na vytvoření a nasazení vládou nařízených změn, které zhoršují soukromí uživatelů, a vytrvale jsme tyto požadavky odmítali. V budoucnu je budeme nadále odmítat. Ujasněme si, že tato technologie je omezena na zjišťování CSAM uložených v iCloudu a nepřistoupíme na žádný vládní požadavek na její rozšíření. Kromě toho společnost Apple před odesláním zprávy NCMEC provádí kontrolu člověkem. V případě, že systém označí fotografie, které se neshodují se známými obrázky CSAM, nebude účet deaktivován a NCMEC nebude podána žádná zpráva.

An otevřený dopis kritika společnosti Apple a výzva společnosti, aby okamžitě zastavila svůj plán nasadit detekci CSAM, získala v době psaní více než 7 000 podpisů. Šéf WhatsApp má také zavážilo do debaty .

Štítky: Apple soukromí , Apple bezpečnostní prvky pro děti