Il Thread di @matthew_d_green su Apple e il suo “Private Cloud Compute” e il bilanciamento tra elaborazione in locale e nel Cloud.

@informatica

Quindi Apple ha introdotto un nuovo sistema chiamato “Private Cloud Compute” che consente al telefono di scaricare attività complesse (tipicamente AI) su dispositivi sicuri specializzati nel cloud. Sto ancora cercando di capire cosa ne penso. Quindi ecco un thread. 1/

Apple, a differenza della maggior parte degli altri operatori di telefonia mobile, tradizionalmente esegue molte elaborazioni sul dispositivo. Ad esempio, tutto il machine learning e il riconoscimento del testo OCR su Foto vengono eseguiti direttamente sul tuo dispositivo. 2/

Il problema è che, sebbene l’hardware “neurale” dei moderni telefoni stia migliorando, non sta migliorando abbastanza velocemente per sfruttare tutte le folli funzionalità che la Silicon Valley desidera dall’intelligenza artificiale moderna, inclusa l’intelligenza artificiale generativa e simili. Ciò richiede fondamentalmente server. 3/

Ma se invii le tue attività ai server nel “cloud” (dio che usa le virgolette mi fa sentire 80), ciò significa inviare dati incredibilmente privati ​​dal tuo telefono e su Internet. Ciò ti espone allo spionaggio, all’hacking e al modello di business affamato di dati della Silicon Valley. 4/

La soluzione che Apple ha trovato è provare a costruire hardware sicuro e affidabile nei propri data center. Il tuo telefono può quindi “esternalizzare” compiti pesanti a questo hardware. Sembra facile, vero? Bene: ecco il post sul blog. 5/

TL;DR: non è facile. Costruire computer affidabili è letteralmente il problema più difficile nella sicurezza informatica. Onestamente è quasi l’unico problema nella sicurezza informatica. Ma anche se rimane un problema impegnativo, abbiamo fatto molti progressi. Apple li utilizza quasi tutti. 6/

La prima cosa che Apple sta facendo è sfruttare tutti i progressi compiuti nella realizzazione di telefoni e PC sicuri nei suoi nuovi server. Ciò comporta l’utilizzo di Secure Boot e di un Secure Enclave Processor (SEP) per conservare le chiavi. Presumibilmente hanno attivato tutte le funzionalità di sicurezza del processore. 7/

Quindi lanciano tutti i tipi di processi sull’hardware del server per assicurarsi che l’hardware non venga manomesso. Non so dire se questo previene gli attacchi hardware, ma sembra un inizio. 8/

Usano anche una serie di protezioni per garantire che il software sia legittimo. Il primo è che il software è “senza stato” e presumibilmente non conserva le informazioni tra le richieste dell’utente. Per garantire ciò, ogni server/nodo si riavvia e reimposta le chiavi e cancella tutto lo spazio di archiviazione. 9/

Una seconda protezione è che il sistema operativo possa “attestare” l’immagine del software in esecuzione. Nello specifico, firma un hash del software e lo condivide con ogni telefono/cliente. Se ti fidi di questa infrastruttura, saprai che esegue un software specifico. 10/

Naturalmente, sapere che sul telefono è in esecuzione un software specifico non ti aiuta se non ti fidi del software. Pertanto Apple prevede di inserire ogni immagine binaria in un “registro di trasparenza” e di pubblicare il software.
Ma ecco un punto critico: non con il codice sorgente completo. 11/

I ricercatori della sicurezza riceveranno *del codice* e una VM che potranno utilizzare per eseguire il software. Dovranno quindi decodificare i binari per vedere se stanno facendo cose inaspettate. E’ un po’ subottimale. 12/

Quando il tuo telefono desidera esternalizzare un’attività, contatterà Apple e otterrà un elenco di server/nodi e le relative chiavi. Quindi crittograferà la sua richiesta su tutti i server e uno la elaborerà. Usano persino credenziali anonime fantasiose e un relè di terze parti per nascondere il tuo IP. 13/

Ok, probabilmente ci sono una mezza dozzina di dettagli tecnici in più nel post del blog. È un design molto premuroso. In effetti, se dessi a un team eccellente un’enorme quantità di denaro e gli dicessi di costruire il miglior cloud “privato” al mondo, probabilmente sarebbe simile a questo. 14/

Ma ora le domande difficili. È una buona idea? Ed è sicuro quanto quello che fa Apple oggi? E, soprattutto:

Gli utenti possono rinunciare completamente a questa funzione? 15/

>>> Breve intervallo: ho anche pubblicato questo thread su Twitter, e poi è successo proprio in questa parte. Era… scomodo. <<<

Torniamo alla questione principale. Ammetto che quando ho appreso di questa funzionalità, mi ha reso un po’ triste. Il pensiero che mi passava per la testa era: questa sarà una tentazione troppo grande. Una volta che puoi esternalizzare “in sicurezza” le attività sul cloud, perché preoccuparsi di svolgerle localmente? Esternalizzare tutto! 16/

Per quanto ne so, Apple non ha piani espliciti per annunciare quando i tuoi dati verranno trasferiti dal dispositivo al calcolo privato. Non opterai per questo, non ti verrà nemmeno necessariamente detto che sta accadendo. Succederà e basta. Magicamente.
Non amo quella parte. 17/

Infine, ci sono così tanti spigoli vivi invisibili che potrebbero esistere in un sistema come questo. Difetti hardware. Problemi con il framework di attenuazione crittografica. Exploit software intelligenti. Molti di questi saranno difficili da rilevare per i ricercatori di sicurezza. Anche questo mi preoccupa. 18/

Concludendo con una nota più positiva: vale la pena tenere presente che a volte la perfezione è nemica di ciò che è veramente buono.
In pratica l’alternativa al dispositivo on-device è: spedire i dati privati ​​a OpenAI o da qualche parte in Sketchier, dove chissà cosa potrebbe accadergli. 19/

E, naturalmente, tieni presente che le super spie non sono il tuo più grande avversario. Per molte persone il tuo più grande avversario è l’azienda che ti ha venduto il tuo dispositivo/software. Questo sistema PCC rappresenta un vero e proprio impegno da parte di Apple a non “sbirciare” i vostri dati. Questo è un grosso problema. 20/

In ogni caso, questo è il mondo verso cui ci stiamo muovendo. Potrebbe sembrare che il tuo telefono sia in tasca, ma una parte di esso vive in un data center a 2.000 miglia di distanza. Come addetti alla sicurezza probabilmente dobbiamo abituarci a questo fatto e fare del nostro meglio per assicurarci che tutte le parti siano sicure. //fine

Addendum su twitter: “attenuazione crittografica” dovrebbe essere letto “attestazione crittografica”, ma sono sicuro che la gente capirà il punto.

Il thread completo inizia qui

  • ailiphilia@feddit.it
    link
    fedilink
    arrow-up
    0
    ·
    5 months ago

    https://feddit.it/u/noce72 https://feddit.it/u/[email protected]

    Non appena i dati lasciano il tuo dispositivo, diventa molto più vulnerabile.

    Apple dice che si sta aprendo a recensioni indipendenti da parte dei ricercatori. Che suona bene. Ma cosa succede se questi ricercatori ti dicono cose che non vuoi sentire?

    Apple e molte altre aziende stanno scommettendo che “le persone normali” (chi sono queste persone? Tutti noi?) concederanno i loro modelli di IA per lo più libero accesso ai dati privati. Questo è conveniente per l’utente (basta chiedere a Siri di riprodurre quella canzone che il vostro partner ha trovato così grande di ritardo, cose del genere). Ma anche se crediamo per un momento che Apple sta agendo in buona fede e non memorizzare i dati, vulnerabilità del software sono tenuti a venire. Se il software raccoglie dati, le vulnerabilità sono destinate a comparire. Apple non lo cambierà.

    Lo amerò quando mi sbaglio, ma sono d’accordo: sarà un futuro triste.