Sākumlapa » Pārskati » Kā Apple plāno uzraudzīt lietotājus

Kā Apple plāno uzraudzīt lietotājus

Apple plāno izmantot savu jauno CSAM Detection sistēmu, lai uzraudzītu lietotājus un identificētu tos no viņiem, kuri savās ierīcēs glabā bērnu pornogrāfijas materiālus.

Apple 2021. gada augusta sākumā iepazīstināja ar savu jauno sistēmu, kas ļauj identificēt fotogrāfijas, kurās attēlota bērnu izmantošana. Lai gan Apple mērķi nešaubīgi ir cildeni — cīņa ar bērnu pornogrāfijas materiālu izplatīšanu, šis paziņojums nekavējoties saņēma asu kritiku.

Uzņēmums Apple ilgi ir veidojis priekšstatu par sevi kā ierīču ražotāju, kuram rūp lietotāju privātums. Jaunās funkcijas, kas paredzētas operētājsistēmās iOS 15 un iPadOS 15, jau ir devušas nopietnu triecienu šai reputācijai, taču uzņēmums nedomā piekāpties. Lūk, kas ir noticis un kā tas ietekmēs parastos iPhone un iPad lietotājus.

Kas ir CSAM Detection

Apple plāni ir izklāstīti uzņēmuma interneta vietnē. Uzņēmums ir izstrādājis sistēmu CSAM Detection, kas lietotāju ierīcēs meklē “bērnu seksuālās izmantošanas materiālus” (angļu valodā “child sexual abuse material” jeb CSAM).

Lai gan “bērnu pornogrāfijas materiāli” ir CSAM sinonīms, ASV Nacionālais pazudušo un izmantoto bērnu centrs (National Center for Missing and Exploited Children — NCMEC), kas palīdz atrast un izglābt pazudušus un izmantotus bērnus, uzskata, ka CSAM ir piemērotāks termins. NCMEC sniedz Apple un citiem tehnoloģiju uzņēmumiem informāciju par zināmajiem CSAM attēliem.

Apple ir izziņojis CSAM Detection kopā ar vairākām citām funkcijām, kas paplašina vecāku kontroli Apple mobilajās ierīcēs. Piemēram, vecāki saņems paziņojumu, ja kāds lietotnē Apple Messages nosūtīs viņu bērnam seksuāla rakstura fotoattēlu.

Vienlaicīga vairāku tehnoloģiju prezentēšana ir izraisījusi zināmu neskaidrību, un daudziem cilvēkiem ir radusies sajūta, ka Apple tagad visu laiku uzraudzīs katru lietotāju. Tā tas nav.

CSAM Detection izlaides grafiks

CSAM Detection būs iebūvēta iOS 15 un iPadOS 15 mobilajās operētājsistēmās, kas šoruden kļūs pieejamas visu moderno iPhone un iPad (iPhone 6S, piektās paaudzes iPad un jaunāku) lietotājiem. Lai gan teorētiski šī funkcija būs pieejama Apple mobilajās ierīcēs visā pasaulē, pagaidām sistēma pilnībā darbosies tikai ASV.

Kā darbosies CSAM Detection

CSAM Detection darbojas tikai kopā ar iCloud Photos, kas ir daļa no pakalpojuma iCloud, kur Apple serveros tiek augšupielādēti fotoattēli no viedtālruņa vai planšetdatora. Tas arī padara tos pieejamus citās tā paša lietotāja ierīcēs.

Ja lietotājs iestatījumos atspējo fotoattēlu sinhronizāciju savās ierīcēs, CSAM Detection pārstāj darboties. Vai tas nozīmē, ka fotoattēlus salīdzina ar kriminālo datu bāzēs esošajiem attēliem tikai mākonī? Ne gluži. Sistēma ir tīšuprāt sarežģīta, jo Apple cenšas garantēt nepieciešamo privātuma līmeni.

paskaidro Apple, CSAM Detection darbojas, skenējot ierīcē esošos fotoattēlus, lai noteiktu, vai tie atbilst NCMEC vai citu līdzīgu organizāciju datu bāzēs esošajiem fotoattēliem.

Vienkāršota CSAM Detection darbības shēma. Avots.

Noteikšanas metode izmanto NeuralHash tehnoloģiju, kas, īsi sakot, fotoattēliem piešķir digitālus identifikatorus jeb kontrolsummas, pamatojoties uz attēla saturu. Ja kontrolsumma atbilst kādam zināmo bērnu izmantošanas attēlu datu bāzē esošam attēlam, tad šis attēls un tā kontrolsumma tiek augšupielādēta Apple serveros. Pirms oficiālas attēla reģistrēšanas Apple veic vēl vienu pārbaudi.

Vēl viena šīs sistēmas sastāvdaļa, kriptogrāfijas tehnoloģija, ko sauc par private set intersection, šifrē CSAM Detection skenējuma rezultātus tā, lai Apple varētu tos atšifrēt tikai tad, ja ir izpildīta virkne kritēriju. Teorētiski tam vajadzētu novērst ļaunprātīgu sistēmas izmantošanu.

Apple vecākais viceprezidents programmatūras inženierijas jautājumos Kreigs Federigi 13. augusta intervijā laikrakstam Wall Street Journal izklāstīja private set intersection protokola galveno drošības kritēriju: lai izraisītu brīdinājumu uzņēmumam Apple, 30 fotoattēliem ierīcē ir jāatbilst attēliem NCMEC datu bāzē. Kā redzams zemāk diagrammā, private set intersection sistēma neļauj atšifrēt datu kopu — informāciju par CSAM Detection darbību un fotoattēlus — pirms šī sliekšņa sasniegšanas. Saskaņā ar Apple teikto, tā kā slieksnis ir tik augsts, aplamas nostrādes iespēja ir ļoti maz ticama — “viena no triljona”.

Svarīga CSAM Detection sistēmas iezīme: lai atšifrētu datus, ir jāsakrīt daudziem fotoattēliem. Avots.

Kas notiek, kad sistēma saņem brīdinājumu? Apple darbinieks manuāli pārbauda datus, apstiprina bērnu pornogrāfijas materiālu klātbūtni un paziņo par to varas iestādēm. Pagaidām sistēma pilnībā darbosies tikai ASV, tāpēc paziņojums tiks nosūtīts NCMEC, kuru sponsorē ASV Tieslietu departaments.

CSAM Detection problēmas

Potenciālo Apple rīcības kritiku var iedalīt divās kategorijās: uzņēmuma pieejas apšaubīšana un protokola ievainojamību izpēte. Pašlaik ir maz konkrētu pierādījumu tam, ka Apple būtu pieļāvis tehnisku kļūdu (jautājums, kuru sīkāk apspriedīsim tālāk), lai gan netrūkst vispārīgu sūdzību.

Piemēram, šos jautājumus ir ļoti detalizēti aprakstījusi organizācija Electronic Frontier Foundation. Saskaņā ar EFF teikto, pievienojot attēlu skenēšanas funkciju lietotāja ierīcē, Apple tur būtībā iebūvē lūku. EFF kritizēja šo koncepciju jau 2019. gadā.

Kāda ir argumentācija? Iedomājieties ierīci, kurā dati ir pilnībā šifrēti (kā apgalvo Apple) un kura pēkšņi sāk ziņot trešajai pusei par savu saturu. Pašlaik tā ziņos par bērnu pornogrāfijas materiāliem, tāpēc vispārīga atruna skan: “Ja jūs nedarāt neko sliktu, jums nav par ko uztraukties.” Bet, kamēr pastāv šāds mehānisms, nav zināms, vai vienā jaukā brīdī nesāksies ziņošana arī par citu saturu.

Galu galā šī kritika ir vairāk politiska, nekā tehniska. Problēma ir tāda sociālā līguma neesamībā, kas līdzsvarotu drošību un privātumu. Visi, gan birokrāti, ierīču ražotāji un programmatūras izstrādātāji, gan cilvēktiesību aktīvisti un parastie lietotāji, pašlaik cenšas atrast šādu līdzsvaru.

Tiesībaizsardzības iestādes sūdzas, ka plaši izplatīta šifrēšana apgrūtina pierādījumu vākšanu un noziedznieku notveršanu, un tas ir saprotami. Bažas par masveida digitālo novērošanu arī ir skaidras. Tikmēr atzinumu, tostarp viedokļu par Apple ieviestajiem noteikumiem un rīcību, ir bez sava gala.

Iespējamās problēmas ar CSAM Detection ieviešanu

Pēc ētikas apsvērumiem mēs nonākam pie tehniskās puses. Jebkurš programmatūras kods rada jaunas ievainojamības. Pieņemsim, ka mūs neuztrauc, ko varētu darīt valdība — bet kā būtu, ja kādu CSAM Detection ievainojamību ļaunprātīgi izmantotu kibernoziedznieki? Kad runājam par datu šifrēšanu, tādas bažas ir dabiskas un pamatotas: ja jūs vājināt informācijas aizsardzību (pat tikai ar labiem nodomiem), kāds var izmantot šo vājināšanu arī citiem mērķiem.

CSAM Detection koda neatkarīgs audits tikai nupat ir sācies, un šim darbam var būt nepieciešams ļoti daudz laika. Tomēr dažas lietas jau ir zināmas.

Kā ir noskaidrojies, kods, kas ļauj salīdzināt fotoattēlus ar “paraugu”, jau ir operētājsistēmā iOS (un macOS) kopš versijas 14.3. Pilnīgi iespējams, ka šis kods būs daļa no CSAM Detection. Utilītas, kas ļauj eksperimentēt ar meklēšanas algoritmu, lai veiktu attēlu salīdzināšanu, jau ir atradušas dažas neatbilstības. Piemēram, Apple NeuralHash algoritms apgalvo, ka abiem zemāk redzamajiem attēliem ir vienāda kontrolsumma.

Apple NeuralHash algoritms uzskata, šie abi fotoattēli sakrīt. Avots.

Ja kādam izdosies iegūt nelikumīgu fotoattēlu kontrolsummu datu bāzi, tad ir iespējams izveidot “nevainīgus” attēlus, kas aktivizē brīdinājumu, un tas nozīmē, ka Apple varētu saņemt pietiekami daudz viltus brīdinājumu, lai tie traucētu CSAM Detection darbību. Visticamāk, ka tieši tāpēc Apple ir sadalījis noteikšanu, jo daļa algoritma darbojas tikai serverī.

Vēl ir arī Apple private set intersection protokola analīze. Pretenzijas būtībā ir par to, ka vēl pirms brīdinājuma sliekšņa sasniegšanas private set intersection sistēma pārsūta diezgan daudz informācijas uz Apple serveriem. Rakstā tiek pieļauts šāds scenārijs: visus datus par lietotāju Apple pusē pieprasa tiesībaizsardzības iestādes, un viņi jau var izdarīt secinājumus, pamatojoties uz pieejamo informāciju. Tiek dots mājiens, ka pat nepatiesi rezultāti teorētiski varētu novest pie policijas apmeklējuma.

Tomēr tie joprojām ir tikai pirmie mēģinājumi veikt neatkarīgu CSAM Detection novērtējumu. Tas, cik sekmīgi tie būs, principā lielā mērā ir atkarīgs no paša Apple — vai uzņēmums būs gatavs nodrošināt pietiekamu sistēmas caurredzamību līdz pat pirmkoda atvēršanai.

Ko CSAM Detection nozīmē parastajam lietotājam

Mūsdienu ierīces ir tik sarežģītas, ka nav viegli noteikt, cik tās patiesībā ir drošas, tas ir, cik lielā mērā to drošība atbilst ražotāja solījumiem. Tomēr ir svarīgi atcerēties vienu galveno lietu: CSAM Detection darbojas tikai tad, ja lietotājs augšupielādē fotoattēlus pakalpojumā iCloud. Apple lēmums bija apzināts un paredzēja iebildumus pret šo tehnoloģiju. Ja jūs neveiksiet fotoattēlu augšupielādi mākonī, tad nekas nekur netiks nosūtīts.

Varbūt atceraties bēdīgi slaveno Apple un FIB konfliktu 2016. gadā, kad FIB lūdza Apple palīdzību, lai atbloķētu iPhone 5C, kas piederēja kādam masu slepkavam San Bernardino, Kalifornijā. FIB vēlējās, lai Apple uzraksta programmu, kura ļautu FIB apiet tālruņa aizsardzību ar paroli.

Uzņēmums atteicās to darīt un paziņoja, ka šāda programma varētu atbloķēt ne tikai slepkavas, bet arī jebkura cita lietotāja tālruni. FIB piekāpās un galu galā uzlauza ierīci ar palīdzību no ārpuses, izmantojot programmatūras ievainojamības, bet Apple saglabāja savu reputāciju kā uzņēmums, kas cīnās par klientu tiesībām.

Tomēr šis stāsts nav tik vienkāršs. Apple tomēr nodeva datu kopiju no iCloud. Būtībā uzņēmums var piekļūt praktiski visiem lietotāja datiem, kas augšupielādēti mākonī. Daži dati, piemēram, Keychain paroles un maksājumu informācija, tiek saglabāti, izmantojot pilnīgu šifrēšanu, taču lielākā daļa informācijas tiek šifrēta tikai aizsardzībai pret nesankcionētu piekļuvi, tas ir, lai to pasargātu uzņēmuma serveru uzlaušanas gadījumā. Tas nozīmē, ka uzņēmums var atšifrēt šos datus.

Un tas, iespējams, ir negaidītākais sižeta pavērsiens stāstā par CSAM Detection. Uzņēmums varētu vienkārši skenēt visus fotoattēlus mākonī iCloud Photos, tāpat kā to dara Facebook, Google un daudzi citi mākoņpakalpojumu sniedzēji. Tomēr Apple nolēma izveidot elegantāku mehānismu, kas varētu palīdzēt atbrīvoties no pārmetumiem par lietotāju masveida uzraudzību, bet rezultātā ir izpelnījies vēl lielāku kritiku, jo tagad runa ir par lietotāju ierīču skenēšanu.

Galu galā šī jezga, kas, spriežot pēc reakcijas internetā, ir daudzos iesējusi šaubas, gandrīz neko nemaina parastajam lietotājam. Sekosim, vai tā būs arī nākotnē.

Izmantoti Kaspersky materiāli.

Birkas:
Iepriekšējais raksts
Nākošais raksts

Komentēt

Jūsu e-pasts netiks publicēts. Obligātie lauki ir iezīmēti *

*

29 + = 31

Uz augšu