Weboldalán közzétett dokumentumban is reagált az Apple a jelenleg tesztüzemben lévő, pedofiltartalmakat kereső technológiájával kapcsolatos aggodalmakra. Nemrég írtunk róla: a cupertinói cég egy olyan rendszert élesítene (CSAM detection), ami automatikusan kiszűrné, ha valaki az iCloud fiókjában, illetve az iPhone-ján problémás felvételeket tárol. Ez azonban több szakértőt is aggaszt, mivel visszaélésekre ad lehetőséget, például arra, hogy a kormány nyomására az Apple betekintést adhasson bizonyos személyek mobiljának tartalmába, vagy kémkedjen. Ez pedig szembe megy a cupertinóiak azon narratívájával, miszerint számukra a privátszféra és a felhasználók biztonsága az elsődleges szempont.
Az Apple pénteken részletezte a rendszer működését: a bűnüldöző szervek adatbázist tartanak fenn azon képekről, melyeket a hatóságok tudomása szerint gyermekek elleni szexuális visszaélés keretében készítettek, és ezeket a képeket úgynevezett numerikus kódokká alakítják, melyek képesek képazonosításra, de nem képesek annak rekonstruálására.
A cég hangsúlyozza, hogy nem fog engedni kormányzati nyomásnak. A fejlesztéssel kapcsolatos legfontosabb tudnivalókat azóta az Expanded Protections for Children című dokumentum leggyakrabban feltett kérdései közt is részletezik. Elmondásuk szerint a fejlesztés bejelentését számos befektető és gyermekvédelmi szervezet üdvözölte, támogatásukat fejezték ki iránta. Hangsúlyozzák: az üzenetek biztonsága és az iCloud Photoson keresztül zajló problémás képkeresés nem ugyanaz. A képeket az eszközön vizsgálják át, és a problémás fotókon felül más információkat nem továbbít az Apple felé. A kormányzati kéréseket el fogják utasítani.
Az Apple döntésével kapcsolatban Greg Nojeim, a Center for Democracy and Technology nevű, adatvédelemmel foglalkozó szervezet biztonsági és megfigyelési projektjének társigazgatója azt mondta: az Apple „az ipari szabványú, titkosított üzenetküldő rendszerét megfigyelési és cenzúra-infrastruktúrával váltja fel, ami kiszolgáltatott lesz a lehetséges visszaélésekkel szemben, nemcsak az Egyesült Államokban, hanem szerte a világban”.
Az Apple választa szerint az eszköz nem fogja „leolvasni” a felhasználó fényképeit, és a gyermekekről készült ártalmatlan képek nem fognak egyezést mutatni az adatbázisban találhatókkal.