L’IA, evidentemente non è l’acronimo del prossimo obiettivo da sconfiggere in Mission Impossible, ma possiamo dire che è il nuovo “mostro” che tutti additano, anche se pochi lo conoscono veramente.
Un Gigante dai piedi d’Argilla che sta iniziando a mostrare delle crepe non indifferenti.
Tra gli esperti del settore si sta facendo largo una problematica allarmante: il “model collapse”.
Si tratta di un degrado delle prestazioni dei modelli di Intelligenza Artificiale generativa causato da un addestramento con contenuti prodotti da altre intelligenze artificiali.
Non è solo una questione per “nerd”; ha implicazioni profonde, persino filosofiche. Ma andiamo con ordine.

L’IA è Ovunque, Anche Dove Non la Vedi
Scommetto che hai interagito con l’IA più volte di quanto pensi. Quando chiedi a Siri di trovare un numero di telefono o la strada migliore, oppure quando la chat di un sito aziendale ti risponde in automatico: è tutto frutto dell’Intelligenza Artificiale. Negli ultimi dieci anni, i giganti della tecnologia hanno gareggiato per creare strumenti di IA generativa sempre più complessi.
Un esempio lampante è GPT-3 di OpenAI, introdotto nel 2020. Con i suoi 175 miliardi di parametri, è uno dei modelli più sofisticati mai realizzati, capace di generare testi simili a quelli umani, sostenere conversazioni, scrivere codici e tradurre lingue.
Ciò che rende questi modelli così affascinanti, o inquietanti, è la loro capacità di auto-apprendere. Il Deep Learning mira a replicare il processo di apprendimento umano, permettendo ai computer di “imparare” autonomamente, senza una programmazione esplicita. E a giudicare da un recente studio del MIT di Boston, ci stanno riuscendo fin troppo bene: sembra che il nostro cervello stia diventando pigro, affidandosi eccessivamente all’IA invece di pensare criticamente.
L’IA dovrebbe essere uno strumento per velocizzare e perfezionare processi complessi, come nel campo medico e scientifico. Pensiamo al Premio Nobel per la Chimica assegnato a Demis Hassabis e John M. Jumper di Google DeepMind per AlphaFold, uno strumento che risolve il ripiegamento proteico. Invece, troppo spesso, la usiamo come sostituto del nostro cervello. E questo, oltre a un potenziale “instupidimento” generale, ci porta dritti al paradosso del “model collapse”.

Di Cosa si Nutre il Gigante?
L’IA è un gigante affamato, ma di cosa si nutre? Dati, tantissimi dati. Miliardi di informazioni alimentano algoritmi capaci di compiere operazioni che fino a poco tempo fa sembravano fantascienza.
Inizialmente, questi dati provenivano da fonti eterogenee e “pulite”: libri, enciclopedie, report, materiale fotografico. Oggi, invece, gran parte delle informazioni viene estratta dal web, spesso in modo non trasparente.
Le modalità di raccolta dati sollevano gravi questioni etiche e legali. Molte aziende aggirano facilmente le poche restrizioni esistenti. Ad esempio, i nostri commenti e foto su Facebook o Instagram sono “benzina” per l’IA di Meta, a meno che non si invii un’opposizione specifica e motivata. Questo apre scenari preoccupanti di violazioni di copyright e privacy.
Sul sito del Garante per la Privacy trovate la pagina con tutti link ai moduli.
I dati sintetici, generati dalle stesse IA, complicano ulteriormente il quadro. Non permettono di risalire alle informazioni originali, e il loro trattamento comporta rischi sia nella fase di addestramento che nell’uso finale. Gli utenti dovrebbero essere pienamente informati, come stabilito dall’articolo 13 del GDPR, sulle modalità e finalità del trattamento dei loro dati personali per l’addestramento di modelli generativi. Anche lo European Data Protection Supervisor, il Garante Europeo per la protezione dei dati, ha richiamato l’attenzione sulla necessità di valutazioni preliminari sui rischi di re-identificazione.
Il Paradosso del cane che si morde la coda
L’IA è particolarmente “ghiotta” di dati “vergini”, ovvero contenuti non generati da altre IA, perché questi sono in esaurimento. Per addestrare nuovi modelli affidabili, servono dati originali. Altrimenti, si entra in un paradosso circolare: “copiare da chi copia”, un cane che si morde la coda.
Internet è ormai “inquinato” da dati apparentemente creati da umani, ma spesso indistinguibili da quelli reali. Questo significa che l’IA sta imparando non più dal pensiero umano, ma dalla sua stessa eco. E, come ben sappiamo, essere egoriferiti non funziona nemmeno in campo informatico.
Come ha ben scritto Vittorio Dublino in suo articolo: “Se il sistema interroga un ecosistema già popolato da copie, da sintesi, da derivati del derivato, allora anche la sua risposta sarà una rielaborazione sterile di qualcosa che nessuno ha mai veramente pensato.”
È un po’ come quando a scuola si copiava da chi copiava: alla fine i professori si accorgevano quasi sempre dell’inganno. Oggi, ci accorgiamo di questo livellamento verso il basso?
Oltre l’Etica: L’Impatto Economico
Il model collapse non è solo un problema etico o intellettuale, ma ha ripercussioni economiche profonde e multifattoriali:
- Perdita di Produttività e Innovazione:
- Riduzione dell’efficienza: Se i modelli IA in settori chiave (manifattura, logistica, finanza, sanità) producono risultati inaffidabili, l’efficienza generale diminuisce drasticamente.
- Frenata dell’innovazione: L’IA è un motore di ricerca e sviluppo. Se la qualità degli output diminuisce, il ritmo dell’innovazione rallenta, con conseguenze a lungo termine sulla crescita economica.
- Decisioni errate: Le aziende che si affidano all’IA per strategie di investimento, analisi di mercato o diagnosi mediche potrebbero subire perdite finanziarie significative o danni reputazionali a causa di decisioni basate su dati o analisi inaccurate.
Abbiamo disimparato a correre perché abbiamo comprato un’auto. Adesso l’auto sta finendo la benzina. Con i muscoli atrofizzati e senza conoscere da soli la strada, saremo in grado di tornare ad andare avanti sulle nostre gambe?

La Nuova Sfida: Tornare a Pensare
Questo scenario ci impone una riflessione cruciale: serve qualcuno che pensi davvero. E serve anche un sistema che evidenzi la differenza, etichettando i dati generati da IA per rendere più trasparente l’uso dei prodotti digitali.
“È un ritorno sorprendente, forse auspicabile: ciò che è autenticamente umano — pensiero critico, esperienza diretta, parola incarnata — torna ad avere valore. Ma solo se sapremo riconoscerlo, custodirlo, proteggerlo.”
L’allenamento al pensiero critico è la nuova, grande sfida. Nell‘era della disconnessione, dobbiamo tornare a orientarci, scrivere, ricordare a memoria, creare. E, più in generale, tornare a essere consapevoli delle nostre scelte, senza accettare passivamente quelle offerte “gratis” e “veloci”.
Quando scrivo un articolo su questo blog WordPress mi segnala frasi troppo lunghe o complesse, mi chiede di semplificare. Più è facile, più verrà letto e condiviso, aumentando il traffico.
Ma ho davvero espresso ciò che volevo, nel modo in cui volevo? Non si tratta solo di grammatica, ma della costruzione della frase, delle parole, del pensiero e, in definitiva, dello stile!
Il pensiero complesso e il pensiero critico sono ciò che renderà ancora una volta l’“homo sapiens sapiens” al centro del processo evolutivo.
Select from the World, Uncategorized