
Disponibile al grande pubblico dalla fine del 2022, ChatGPT è diventato uno dei siti più visitati al mondo. Che si tratti di scrivere un'e-mail professionale, porre una domanda pratica, tradurre un messaggio o riassumere un lungo testo, lo strumento dell'intelligenza artificiale generativa (IA) ha assunto un posto centrale nella vita di molte persone. Un utilizzo in crescita che solleva preoccupazioni: se non riconsideriamo i nostri utilizzi, l'intelligenza artificiale potrebbe mettere in pericolo il clima, le nostre società e noi stessi.
Amélie Cordier è fondatrice e direttrice di Graine d'IA , una società di consulenza e supporto per l'uso responsabile dell'intelligenza artificiale.

Dottoressa in intelligenza artificiale, è stata docente presso l'Università di Lione. Secondo lei è fondamentale capire cos'è l'intelligenza artificiale per poter utilizzare questo strumento in modo corretto, nel rispetto della società e dell'ambiente.
Abbastanza! Per alcune persone l'intelligenza artificiale è un concetto molto vago, difficile da visualizzare o comprendere bene. Quindi come si definisce l'intelligenza artificiale?
Amélie Cordier: Anche per alcune persone la matematica è un concetto molto vago: ci sono così tante cose che inseriamo nella matematica: si va dalle equazioni di secondo grado a Pitagora. Quindi è difficile immaginare cosa sia realmente. Lo stesso vale per l'intelligenza artificiale. L'intelligenza artificiale è una disciplina scientifica nell'ambito della quale nel corso degli anni sono stati sviluppati numerosi strumenti e tecnologie. Si parla di intelligenza artificiale dal 1956, ma si possono trovare esempi di IA anche prima di allora. Inoltre, quando parliamo di “intelligenza artificiale”, utilizziamo una parola di moda . Come tutte le parole d'ordine , ognuno ci mette dietro ciò che vuole. Ecco perché l'intelligenza artificiale è un concetto poco chiaro.
Cos'è questo? Si tratta di una disciplina scientifica il cui obiettivo è creare programmi in grado di risolvere problemi e portare a termine determinati compiti che richiedono una forma di apprendimento per essere risolti. Non ci interessa risolvere problemi semplici, come l'apertura di una porta quando una persona passa davanti a un sensore. Ma oggi, quando parliamo di intelligenza artificiale, pensiamo spesso – e erroneamente – all’IA generativa o, peggio, a ChatGPT. Questa è solo una parte di ciò che possiamo fare con l'intelligenza artificiale. È come se ti stessi parlando di utensili e tu pensassi solo a un cacciavite. Il cacciavite è solo uno dei tanti strumenti a disposizione.
Che posto ha l'intelligenza artificiale nelle nostre vite?
L'intelligenza artificiale è diventata quasi onnipresente. Sblocchi il tuo telefono con la testa: è visione artificiale, è una forma di intelligenza artificiale. Non sai cosa guardare sulla tua piattaforma di streaming preferita? Ti forniremo un feed di ciò che ti piacerà: si tratta di algoritmi di raccomandazione, ovvero di intelligenza artificiale. Devi andare in un posto che non conosci, usi Google Maps o Waze, quindi anche un algoritmo GPS è un'intelligenza artificiale. Lo stesso vale per il pulsante di assistenza al parcheggio della tua auto. E questi sono solo esempi tratti dalla vita privata.
Esistono esempi anche nel contesto aziendale. Possiamo avere un algoritmo in una fabbrica che decide come disporre le scatole sul pallet per ottimizzare il carico, una telecamera per controllare la qualità dei pancake su una linea di produzione o un programma che genera molecole candidate per produrre nuovi farmaci... Tutto questo è intelligenza artificiale. Potrei continuare così per ore. L'intelligenza artificiale è ovunque.
Esistono movimenti o organizzazioni che si oppongono all'uso dell'intelligenza artificiale. Ti è stato chiesto in particolare dei vantaggi di vietare ChatGPT agli studenti . Perché gli strumenti di intelligenza artificiale sono così preoccupanti?
Dobbiamo iniziare distinguendo tra i diversi strumenti di intelligenza artificiale e specificando di quale stiamo parlando. Quando Google Maps o Waze divennero un po' famosi, in pochi si fecero avanti per vietare il GPS. In genere non ci sentiamo minacciati dal fatto di avere uno strumento che ci aiuta in un compito molto specifico, come spostarci dal punto A al punto B.
D'altro canto, con l'intelligenza artificiale generativa stiamo entrando in una dimensione di problemi davvero diversa da quella che abbiamo conosciuto finora. Oggi le intelligenze artificiali generative sono in grado di affrontare problemi di ogni tipo, in qualsiasi ambito della vita quotidiana. Alla stessa IA si può chiedere consiglio su come andare a pescare le trote nel lago locale, o spiegazioni sulla differenza tra tumore X e tumore Y. Questa applicazione dell'IA dà l'illusione di poter rispondere a tutto e a tutti. Gli esseri umani lo percepiscono come una sorta di minaccia perché è la prima volta che riusciamo ad automatizzare compiti che fino ad ora erano compiti intellettuali e che pensavamo fossero prerogativa degli esseri umani coscienti.
Cosa pensi di questa richiesta di divieto?
Dietro la nozione di proibizionismo si celano due soggetti relativamente diversi. Il primo è quello di coloro che vogliono vietarlo perché ritengono che lo sviluppo dell'intelligenza artificiale stia procedendo troppo velocemente e che si rischi di perdere il controllo. Temono un'umanità in cui l'intelligenza artificiale prenderebbe il sopravvento e ci sfuggirebbe completamente. Ci troviamo in scenari in stile Terminator o Matrix .
Il secondo tema, che trovo più interessante dal punto di vista sociale, riguarda in particolare il divieto dell'intelligenza artificiale nelle scuole. Ci diciamo che abbiamo messo da parte uno strumento di potenza assolutamente formidabile, accessibile quasi a tutti, ma di cui non controlliamo ancora le conseguenze sociali, sull'apprendimento, sul rapporto con l'informazione. In questo contesto si sta valutando un divieto per avere il tempo di prepararsi a gestire queste conseguenze.
Personalmente, non credo che vietare sia la soluzione: se vietiamo qualcosa chiudendo la porta, quella cosa entrerà dalla finestra e sarà peggio.
Ma la domanda di fondo è molto interessante. La questione è se oggi su questo pianeta ci sia qualcuno che comprenda appieno l'impatto dello sviluppo massiccio dell'intelligenza artificiale generativa così come sta avvenendo. Secondo me, nessuno è capace di fare una cosa del genere. Che si tratti di me, dei più grandi pensatori, di filosofi come Yuval Noah Harari, o di Elon Musk e Donald Trump, abbiamo tutti interessi diversi, ma una cosa in comune: siamo incapaci di controllare la portata e tutte le conseguenze dello sviluppo massiccio dell'intelligenza artificiale. Le persone se ne approprieranno e ne creeranno usi che non possiamo prevedere. Quando Tim Berners-Lee creò il web, aveva una vaga idea utopica di cosa sarebbe potuto diventare, ma non aveva pensato a un quarto degli usi del web che ne facciamo oggi.
Perché hai creato Graine d’IA?
Penso che vietare non funzionerà. Legiferare è una cosa positiva, ma funzionerà solo in parte e in ogni caso sarà troppo tardi. L’unica barriera rimasta per limitare la stupidità umana è l’acculturazione. Per consentire alle persone di prendere decisioni che non siano troppo sbagliate riguardo all'intelligenza artificiale, l'ABC è capire di cosa si tratta e quali sono le sue conseguenze. Una volta compreso questo, le persone possono decidere di utilizzarla, senza necessariamente definirne le regole d'uso, ma almeno con una conoscenza generale di cosa sia l'intelligenza artificiale.
Oggi, per guidare un'auto, è necessario superare il codice della strada e prendere la patente. A cosa serve sostenere l'esame del codice della strada e quello di guida? Impariamo le regole di guida e diventiamo consapevoli dei rischi che comporta guidare un'auto nell'ambiente in cui viviamo. Con l'intelligenza artificiale dovrebbe essere lo stesso. Dovremmo approvare il codice della strada per l'intelligenza artificiale e avere una licenza per utilizzarla.
Quali sono i rischi derivanti dall'ignoranza dell'intelligenza artificiale?
Prendiamo l'esempio dei giovani che fanno i giochi di ruolo con IA generativa generando immagini a ogni fase del gioco. Non sono consapevoli che così facendo, il loro consumo di energia e acqua è peggiore rispetto a quello che avrebbero se avessero fatto tre voli Parigi-New York. Forse se lo sapessero, giocherebbero il loro gioco di ruolo in modo diverso.
Oppure prendiamo l'esempio di una segretaria aziendale che scopre ChatGPT e si accorge che è in grado di estrarre dati dai documenti PDF. Ogni giorno estrae dati da 150 carte d'identità, quindi ha pensato di inviare i dati di quelle carte a ChatGPT per risparmiare tempo. Non capiva che quando utilizziamo determinate intelligenze artificiali, valgono delle regole per l'uso dei dati. Sta diffondendo dati, anche se in modo del tutto involontario.
Prendiamo anche Junior, in terza elementare, che deve scrivere un tema su Victor Hugo e, a un certo punto, ChatGPT ha allucinazioni e scrive che, quando Victor Hugo era nella Resistenza nel 1939, salvò 100 persone. Se non ha letto nulla su Victor Hugo e non sa che le intelligenze artificiali possono avere allucinazioni, lo scriverà in tutta buona fede nel suo elaborato e non capirà perché ha preso un brutto voto.
Esistono rischi ambientali, rischi sociali, ma anche rischi umani molto forti di dipendenza da questa forma di intelligenza artificiale. Spiegando le cose in modo semplice, rafforziamo la capacità di pensiero critico delle persone e impediamo loro di cadere in questo tipo di trappola.
L'intelligenza artificiale non fluttua sopra di noi, ha impatti concreti sulle nostre società e sul nostro ambiente. Cosa sono?
L'impatto ambientale può essere spiegato in due fasi. Innanzitutto, la maggior parte dei modelli che utilizziamo oggi vengono eseguiti su server da qualche parte. Sono ospitati nei data center . Anche se dal nostro punto di vista è trasparente – inviamo una richiesta su Internet e riceviamo una risposta – in pratica riscaldiamo il processore per eseguire il calcolo che fornisce la risposta. Ci troviamo quindi nel bel mezzo del classico effetto rimbalzo: consumiamo potenza di calcolo per risolvere problemi che non avremmo dovuto risolvere se non esistesse l'intelligenza artificiale generativa.
L'effetto rimbalzo è il fatto che un utilizzo, sebbene a priori non molto energivoro, diventa una fonte di consumo energetico massivo perché l'utilizzo si distribuisce tra la popolazione. Prendiamo ad esempio LinkedIn. Oggigiorno il numero di post su questo social network è aumentato notevolmente rispetto a qualche anno fa. Da quando è diventato più semplice scrivere post su LinkedIn con ChatGPT, chiunque può pubblicare qualsiasi cosa in qualsiasi momento. Se dovessimo scriverli noi stessi, li pubblicheremmo molto meno spesso. L'impatto ambientale è dato da questa congiunzione: l'intelligenza artificiale è costosa in termini di energia, raffreddamento, semiconduttori, ecc. e lo usiamo molto perché è facile.
L'impatto sociale lo stiamo iniziando a vedere nel modo in cui le persone imparano e progrediscono. Ad esempio, cinque anni fa, quando uno sviluppatore junior arrivava in un'azienda, scriveva codici per due anni prima di diventare senior. Oggi, uno sviluppatore junior copia e incolla il codice generato dall'intelligenza artificiale generativa e, quando si presenta un problema, non sa come risolverlo. La domanda che sorge spontanea, e che può essere trasposta a molte professioni, è: come possiamo formare i senior in determinate professioni quando i junior non sono in grado di progredire?
Esistono strumenti di intelligenza artificiale più efficaci di altri?
Ciò che cerco di fare attraverso Graine d'IA è acculturare i diversi aspetti dell'intelligenza artificiale e consentire alle persone di scegliere gli strumenti di intelligenza artificiale in base al loro sistema di valori. Non posso dirti se ce ne sono di migliori, ma ci sono strumenti che hanno valori diversi. Ad esempio, potremmo esaminare il consumo energetico del sistema in questione per ottenere buone prestazioni. Potremmo anche esaminare con quali dati è stato addestrato il sistema e se la raccolta di questi dati è stata effettuata adottando una strategia legale. Questo non è il caso di ChatGPT, ad esempio, e ancora meno di Grok (lo strumento di intelligenza artificiale di X).
I modelli non vengono solo addestrati dai dati, ma vengono poi perfezionati attraverso interazioni uomo-macchina. Ci sono esseri umani, i click worker , che valutano le query. Questo ci permette di verificare se lavorano per un salario dignitoso oppure no, e se vengono pagati a cottimo. Quindi si può decidere di utilizzare questo o quel sistema perché ci si sente più in sintonia con il modo in cui è stato costruito e utilizzato.
Oggi, tra i modelli di AI, ci sono ovviamente modelli OpenAI come ChatGPT, ma anche altre aziende americane come Anthropic, un'azienda francese chiamata Mistral, la tedesca Aleph Alpha... Ci sono tante piccole start-up che propongono modelli open source sicuramente meno efficienti o meno pertinenti di ChatGPT, ma che in generale sono più che sufficienti per risolvere i problemi per cui vengono utilizzati.
Concretamente, come potremmo fare un uso responsabile dell'intelligenza artificiale?
Come possiamo pensare a un uso responsabile delle automobili? Oggettivamente, nell'epoca in cui viviamo, è molto difficile rifiutare di usare l'auto. Tuttavia, può essere utilizzato in modo responsabile, solo quando necessario e non quando desiderato. Potresti prendere in considerazione l'idea di cambiare auto con una più piccola, più adatta alle tue esigenze o che funzioni con un carburante diverso.
Per l'intelligenza artificiale è esattamente la stessa cosa. Oggi viviamo in una fase da Far West in cui tutti sono entusiasti delle incredibili prestazioni dell'intelligenza artificiale generativa che cambia la vita, fa risparmiare tempo, ci migliora... Ma abbiamo bisogno di usare l'intelligenza artificiale per scrivere la minima e-mail? L'unico consiglio che posso dare per adottare un uso più responsabile dell'intelligenza artificiale è chiedersi: "Ne ho davvero bisogno?" A volte la risposta è sì, sono numerose le situazioni in cui l'intelligenza artificiale può rivelarsi di grande aiuto. Non è assolutamente mio obiettivo dire che non dovrebbe essere utilizzata. Ma usatela meno spesso o per niente. È una forma di responsabilità.
Quale ruolo hanno le istituzioni e le aziende nel promuovere un'intelligenza artificiale più etica, ecologica e socialmente responsabile?
Per me, il governo, la politica, l'Europa, le comunità, hanno un ruolo da svolgere. Purtroppo, per mancanza di conoscenza (il più delle volte) o perché cedono alle pressioni, in particolare finanziarie, non svolgono questo ruolo (o lo svolgono male). Anche le aziende hanno un ruolo da svolgere. Forse la soluzione verrà da loro, perché sono in gioco la loro governance e la loro sovranità. Oggi, ad esempio, Carrefour o banche come Crédit Mutuel o Crédit Agricole hanno deciso di sviluppare e implementare la propria intelligenza artificiale generativa interna per garantire la riservatezza dei dati. Personalmente, non immaginerei che la mia banca si permettesse di affidare il mio estratto conto a ChatGPT con il pretesto di avvisarmi più rapidamente.
L'altra questione strategica importante è che è davvero cruciale far capire alle persone che esistono delle alternative. Anche se non sono più così buone, dobbiamo continuare a usarle. Altrimenti queste alternative scompariranno e ci troveremo in una situazione di monopolio in cui ci sarà un'IA che governerà tutte le altre e sarà l'unica utilizzata in tutte le aziende. Non dobbiamo dimenticare che questi modelli sono modelli statistici, con un livellamento al centro di tutto ciò che dobbiamo dire, sapere, pensare, sapere. Ciò che accadrà è che se non incoraggiamo lo sviluppo di alternative, finiremo tutti per pensare e parlare come ChatGPT.
(intervista di Emma Bougerol su "basta! Décrypter Résister Inventer" del 03/02/2025)