Applen CSAM-järjestelmä huijattiin, mutta yhtiöllä on kaksi suojakeinoa

Päivitys: Apple mainitsi palvelimen toisen tarkastuksen, ja ammattimainen tietokonenäköyritys hahmotteli mahdollisuutta, mitä tämä voitaisiin kuvata alla olevassa "Kuinka toinen tarkastus voisi toimia" -osiossa.
Kun kehittäjät ovat käännelleet osia siitä, Applen CSAM-järjestelmän varhainen versio on huijattu tehokkaasti merkitsemään viatonta kuvaa.Apple kuitenkin ilmoitti, että sillä on lisäsuojakeinoja estääkseen tämän tapahtumisen tosielämässä.
Viimeisin kehitys tapahtui sen jälkeen, kun NeuralHash-algoritmi julkaistiin avoimen lähdekoodin kehittäjäsivustolla GitHub, kuka tahansa voi kokeilla sitä…
Kaikki CSAM-järjestelmät toimivat tuomalla tietokannan tunnetuista lasten seksuaalista hyväksikäyttöä koskevista materiaaleista sellaisista organisaatioista kuin National Center for Missing and Exploited Children (NCMEC).Tietokanta tarjotaan kuvien tiivisteiden tai digitaalisten sormenjälkien muodossa.
Vaikka useimmat teknologiajättiläiset skannaavat pilveen ladattuja valokuvia, Apple käyttää asiakkaan iPhonessa NeuralHash-algoritmia luodakseen tallennetulle valokuvalle hajautusarvon ja vertaa sitä sitten ladattuihin kopioon CSAM-hajautusarvosta.
Eilen kehittäjä väitti kääntäneensä Applen algoritmin ja julkaissut koodin GitHubille - Apple vahvisti tämän väitteen.
Muutaman tunnin sisällä GitHibin julkaisusta tutkijat onnistuivat luomaan algoritmia tahallisen väärän positiivisen tuloksen – kaksi täysin erilaista kuvaa, jotka tuottivat saman hash-arvon.Tätä kutsutaan törmäykseksi.
Tällaisissa järjestelmissä on aina olemassa törmäysvaara, koska hash on tietysti suuresti yksinkertaistettu esitys kuvasta, mutta on yllättävää, että joku voi luoda kuvan niin nopeasti.
Tarkoitettu törmäys tässä on vain todiste konseptista.Kehittäjillä ei ole pääsyä CSAM-hajautustietokantaan, mikä edellyttäisi väärien positiivisten tulosten luomista reaaliaikaiseen järjestelmään, mutta se osoittaa, että törmäyshyökkäykset ovat periaatteessa suhteellisen helppoja.
Apple vahvisti tehokkaasti, että algoritmi on sen oman järjestelmän perusta, mutta kertoi emolevylle, että tämä ei ole lopullinen versio.Yhtiö ilmoitti myös, ettei se koskaan aikonut pitää sitä luottamuksellisina.
Apple kertoi emolevylle sähköpostissa, että käyttäjän GitHubissa analysoima versio on yleinen versio, ei lopullinen versio, jota käytetään iCloud Photo CSAM -tunnistukseen.Apple kertoi myös paljastaneensa algoritmin.
"NeuralHash-algoritmi [...] on osa allekirjoitettua käyttöjärjestelmäkoodia [ja] tietoturvatutkijat voivat varmistaa, että sen käyttäytyminen on kuvauksen mukaista", kirjoitti Applen asiakirja.
Yhtiö jatkoi, että on kaksi muuta vaihetta: toissijaisen (salaisen) hakujärjestelmän käyttäminen omalla palvelimellaan ja manuaalinen tarkistus.
Apple ilmoitti myös, että kun käyttäjät ovat ylittäneet 30 ottelun kynnyksen, toinen Applen palvelimilla toimiva ei-julkinen algoritmi tarkistaa tulokset.
"Tämä itsenäinen tiiviste valittiin estämään mahdollisuus, että virheellinen NeuralHash vastaa laitteen salattua CSAM-tietokantaa muiden kuin CSAM-kuvien vastakkaisen häiriön vuoksi ja ylittää vastaavuuskynnyksen."
Roboflow'n Brad Dwyer löysi tavan helposti erottaa nämä kaksi kuvaa, jotka oli lähetetty todisteeksi törmäyshyökkäyksen ideasta.
Olen utelias, miltä nämä kuvat näyttävät samankaltaisen mutta erilaisen hermoominaisuuksien purkajan OpenAI:n CLIPissä.CLIP toimii samalla tavalla kuin NeuralHash;se ottaa kuvan ja käyttää hermoverkkoa luodakseen joukon piirrevektoreita, jotka kartoitetaan kuvan sisältöön.
Mutta OpenAI:n verkko on erilainen.Se on yleinen malli, joka voi yhdistää kuvan ja tekstin.Tämä tarkoittaa, että voimme käyttää sitä poimimaan ihmisen ymmärrettävää kuvainformaatiota.
Ajoin yllä olevat kaksi törmäyskuvaa CLIP:n kautta nähdäkseni, oliko se myös huijattu.Lyhyt vastaus on: ei.Tämä tarkoittaa, että Applen pitäisi pystyä käyttämään toista ominaisuuspoimintaverkkoa (kuten CLIP) havaittuihin CSAM-kuviin määrittääkseen, ovatko ne aitoja vai väärennettyjä.On paljon vaikeampaa luoda kuvia, jotka pettävät kahta verkkoa samanaikaisesti.
Lopuksi, kuten aiemmin mainittiin, kuvat tarkistetaan manuaalisesti sen varmistamiseksi, että ne ovat CSAM:ia.
Tietoturvatutkija sanoi, että ainoa todellinen riski on, että jokainen, joka haluaa ärsyttää Applea, voi antaa vääriä positiivisia arvioita ihmisille.
"Apple itse asiassa suunnitteli tämän järjestelmän, joten hash-toimintoa ei tarvitse pitää salassa, koska ainoa asia, jonka voit tehdä "ei-CSAM:lla CSAM:na" on ärsyttää Applen vastaustiimiä joillakin roskakuvilla, kunnes he ottavat käyttöön suodattimia analyysi Valmistelussa olevat roskat ovat vääriä positiivisia", Kalifornian yliopiston Berkeleyn kansainvälisen tietojenkäsittelytieteen instituutin vanhempi tutkija Nicholas Weaver kertoi Motherboardille online-chatissa.
Yksityisyys on kasvava huolenaihe nykymaailmassa.Seuraa kaikkia tietosuojaan, turvallisuuteen jne. liittyviä raportteja ohjeissamme.
Ben Lovejoy on brittiläinen tekninen kirjoittaja ja EU-toimittaja 9to5Macille.Hänet tunnetaan kolumneistaan ​​ja päiväkirjaartikkeleistaan, jotka tutkivat hänen kokemuksiaan Applen tuotteista ajan mittaan saadakseen kattavampia arvosteluja.Hän kirjoittaa myös romaaneja, siellä on kaksi teknistä trilleriä, muutama lyhyt science fiction -elokuva ja rom-com!


Postitusaika: 20.8.2021