Dal blog https://www.lafionda.org
10 Apr , 2026|Luka Petrilli
Il dibattito sull’intelligenza artificiale si è rapidamente popolato di immagini forti, diventate oggi parte integrante della mitologia moderna: macchine coscienti, algoritmi che manipolano persone ignare, deepfake indistinguibili dalla realtà, scenari di sostituzione totale del lavoro umano. Questi temi sono facilmente narrabili, quasi cinematografici, e attraggono facilmente senza richiedere troppa conoscenza pregressa.
Per quanto però possano essere importanti, rischiano di diventare delle vere e proprie distrazioni da quelli che sono problemi decisamente più rilevanti, seppur meno spettacolari da raccontare.
La vera criticità non è ciò che le macchine diventeranno, ma ciò che noi stiamo progressivamente cedendo: una quantità e una qualità di dati che non hanno precedenti nella storia umana.
Quando interagiamo con un modello di linguaggio (LLM) non stiamo semplicemente lasciando tracce di ciò che facciamo, ma ci stiamo potenzialmente rendendo trasparenti.
I social network hanno ormai da un pezzo normalizzato la raccolta massiva di dati, ma la natura di questi dati rimane, per molti versi, ancora superficiale. Lasciamo, a un’azienda come Meta, tracce dei nostri like, di ciò che condividiamo o commentiamo, delle persone con cui interagiamo di più, del tempo di permanenza su ciascun contenuto che consumiamo. Indicatori utili, certo, ma indiretti, rumorosi, spesso ambigui: i social network capiscono benissimo come catturare la nostra attenzione, spesso sono in grado di orientare comportamenti e funzionano benissimo come intermediari di marketing (per venderci di tutto, in parole povere), ma, per quanto problematico questo possa essere, esistono possibilità di profilazione ancora migliori.
L’intelligenza artificiale conversazionale ha infatti introdotto una raccolta di dati qualitativamente diversa. Qui il dato non è più un comportamento osservato dall’esterno, ma un contenuto esplicitato volontariamente dall’utente in linguaggio naturale. Quando interagiamo con uno di questi modelli lasciamo i nostri dubbi, le nostre intenzioni, i nostri obiettivi anche più segreti, insieme a una lista di incertezze, tentativi di prendere decisioni su famiglia, figli o lavoro, paure su stati di salute o sulla situazione internazionale, domande su cose che ci interessano, dalla più banale alla più preziosa a livello personale. Ecco, questo elenco fornisce un materiale infinitamente più denso rispetto a ciò che lasciavamo online fino a oggi.
In fin dei conti, quando chiediamo qualcosa a un LLM, lo facciamo dentro un’interfaccia che simula una conversazione privata. Non c’è un feed pubblico, non c’è esposizione sociale, non c’è la percezione di stare producendo un dato. E proprio questa apparente intimità abbassa le difese: l’utente parla come parlerebbe a sé stesso, o a un interlocutore neutrale, mentre dall’altra parte si accumula un dataset tecnicamente strutturato in modo tale da poter essere analizzato, qualora gli incentivi e le policy lo consentano.
La raccolta dati tramite LLM è abbastanza palese, tanto che possiamo recuperare noi stessi le nostre conversazioni passate, rileggerle o continuarle lì dove si erano interrotte e, per ammissione delle stesse aziende, sappiamo che le chat non sono crittografate end-to-end. Per chi mastica un minimo di dati e informatica la cosa diventa chiara: questo significa che le chat con i principali modelli di linguaggio sono archiviate e salvate in qualche server, in qualche data center proprietario.
Il punto qui non è immaginare un uso malevolo immediato, né sostenere che le aziende che sviluppano questi sistemi (o gli Stati che le finanziano, come USA e Cina) stiano oggi operando forme di controllo diretto. Questo non è dimostrabile e, allo stato attuale, probabilmente non è nemmeno l’incentivo principale. Aziende come OpenAI, Google o Meta operano in un contesto economico più articolato rispetto ai social della prima fase, dove la pubblicità era il motore quasi esclusivo, ma fermarsi qui sarebbe ingenuo.
Gli incentivi possono cambiare col tempo, mentre i dati, una volta raccolti, possono potenzialmente restare, soprattutto se ciò che si sta costruendo è una base informativa con capacità di interpretazione mai avute nella storia dell’essere umano. La combinazione tra modelli avanzati d’analisi, infrastruttura e dati conversazionali può produrre una forma nuova di potere, che non consiste semplicemente nel sapere cosa fanno le persone, ma nel poter inferire perché lo fanno e cosa probabilmente faranno.
Questo non implica scenari di controllo totale, ma qualcosa di più sottile e, per certi versi, più plausibile: un aumento progressivo dell’asimmetria cognitiva. Da una parte ci siamo noi: individui che interagiscono con sistemi percepiti come strumenti neutrali; dall’altra parte ci sono entità che dispongono di mezzi sempre più raffinati per classificare, prevedere e, se necessario, orientare comportamenti su base probabilistica.
Tutto ciò per dire che la traiettoria esiste, la direzione è plausibile, ma dipenderà da incentivi economici, regolamentazione e architettura tecnica, quindi non va caricata di inevitabilità, seppure un caso in particolare deve averci insegnato che nessun dato è veramente fermo e al sicuro.
Un esempio già operativo, ma in contesti specifici (governativi e grandi aziende), è rappresentato da Palantir. Il successo di questa azienda infatti sta proprio nell’aver saputo aggregare dati dei clienti (spesso grosse aziende o governi) in una maniera così capillare da poter rendere quasi attuabile il “Big Brother” di 1984. Palantir infatti è capace di aggregare, mettendo a disposizione in un’unica fonte, dati personali di identità, gusti e frequentazioni (presi dalle attività dei social network), attività in rete, informazioni sanitarie, segnalazioni eventuali da forze dell’ordine come multe, dati di intelligence, informazioni fiscali: in parole povere, se al servizio di un governo, può accentrare i dati personali sparsi un po’ ovunque in un unico luogo (fonte di controversie è stata, ad esempio, la partnership fra Palantir e l’ICE).
Questo modello non è direttamente sovrapponibile ai sistemi di consumo delle attuali IA generative, ma mostra cosa diventa possibile quando dati eterogenei vengono centralizzati e resi interrogabili. Non esistono oggi evidenze pubbliche di un uso sistematico di questi dati per profilazione individuale su larga scala. Tuttavia, la struttura tecnica rende questo scenario possibile. E quando una cosa è possibile, quanto ci vuole perché diventi probabile?
C’è poi un elemento ulteriore, spesso trascurato: l’intelligenza artificiale non si limita a raccogliere dati, ma tende a diventare un intermediario cognitivo. Viene consultata per chiarire idee, prendere decisioni, strutturare pensieri. Questo introduce una dipendenza funzionale che non era presente nei social, dove il rapporto è prevalentemente passivo. Qui il sistema entra nel processo decisionale, non solo nell’intrattenimento o nell’informazione, e il risultato non è una perdita immediata di autonomia, ma una sua trasformazione graduale. Quando una parte crescente delle decisioni viene mediata, suggerita o ottimizzata da sistemi centralizzati, l’autonomia non scompare, ma si ridefinisce all’interno di vincoli definiti a livello di sistema (es. design dell’interfaccia, priorità nei suggerimenti) e spesso non esplicitati all’utente.
Per questo il nodo oggi non è chiedersi se l’intelligenza artificiale diventerà cosciente, per quanto possa sembrare una domanda interessante, ma capire chi controlla i modelli, chi possiede i dati e quali forme di potere possano un domani emergere da questa combinazione. In altre parole, non è la macchina che si avvicina all’uomo il problema immediato, ma l’uomo che diventerà progressivamente più leggibile, e quindi prevedibile, per chi gestisce o gestirà la macchina.
La storia recente suggerisce cautela: con i social network, molte dinamiche sono diventate evidenti solo quando erano già consolidate. Non è detto che il percorso si ripeta in modo identico, né che gli esiti siano gli stessi, ma ignorare la differenza qualitativa dei dati che stiamo cedendo oggi sarebbe un errore speculare, questa volta non per eccesso di entusiasmo, ma per eccesso di distrazione.
Se c’è una forma di urgenza etica, questa non riguarda i deepfake o la coscienza delle macchine, ma la trasparenza dei rapporti di potere che stiamo costruendo intorno alla tecnologia. Bisognerebbe forse smetterla di parlare di fantascienza o di problemi marginali e concentrarsi sull’architettura dei sistemi e sui meccanismi di distribuzione dell’informazione, perché, ad oggi, la questione sta passando inosservata nel grande dibattito pubblico.
Di: Luka Petrilli