Pentru dispozitivele din SUA, noile versiuni de iOS și iPadOS lansate în această toamnă au „noi aplicații de criptografie pentru a ajuta la limitarea răspândirii CSAM (material care înfățișează abuzuri sexual asupra copiilor) online, în timp ce protejează confidențialitatea utilizatorilor”.

Cea mai invazivă și potențial controversată implementare este cea prin care se efectuează scanarea pe dispozitiv a fotografiilor înainte să fie urcate pe iCloud. Din descriere, scanarea nu are loc până când se face backup pentru un fișier în iCloud, iar Apple primește date despre acea imagine doar dacă acesta îndeplinește anumite cerințe.

De ani de zile, Apple a folosit sisteme pentru a căuta imagini de abuz asupra copiilor trimise prin e-mail, în conformitate cu sisteme similare din Gmail și cu cele ale altor furnizori de e-mail cloud. Programul anunțat astăzi va aplica aceleași scanări și pentru fotografiile stocate în iCloud Photos, chiar dacă imaginile nu sunt trimise niciodată unui alt utilizator sau nu sunt partajate în alt mod.

Apple a ținut să precizeze că nu poate accesa metadate și că riscul ca sistemul să semnaleze incorect un cont este extrem de redus.

Alături de noile măsuri din iCloud Photos, Apple a adăugat două sisteme suplimentare pentru a proteja tinerii proprietari de iPhone. Aplicația Messsages efectuează deja scanarea pe dispozitiv a atașamentelor de imagine pentru conturile copiilor pentru a detecta conținut potențial explicit sexual. Odată detectat, conținutul este estompat și apare un avertisment. 

Apple actualizează, de asemenea, modul în care Siri și aplicația Search răspund la întrebările despre imagini de abuz asupra copiilor. În cadrul noului sistem, aplicațiile „vor explica utilizatorilor că interesul pentru acest subiect este dăunător și problematic și vor oferi resurse de la parteneri pentru a obține ajutor referitor la această problemă”.

__________________________________________________________________________________________________

Urmăriți emisiunile preferate pe protvplus.ro: