In questi giorni di aprile 2023 si è manifestata per la prima volta nella storia una circostanza che è necessariamente fonte di rigorosi approfondimenti epistemologici, culturali e politici. Il 31 marzo il Garante italiano per la privacy ha emanato un provvedimento che impedisce agli utenti italiani (e solo a loro nel mondo) l’accesso al modello di conversazione ChatGPT basato su intelligenza artificiale. Qualche giorno prima, Elon Musk aveva scritto una lettera aperta per chiedere che il modello GPT-4 potesse essere rallentato nel suo sviluppo ulteriore da parte dell’azienda OpenAI (che egli stesso aveva fondato per poi abbandonare). Incursione mercantile e incursione statalista su uno strumento e una fonte di conoscenza, di per sé un common good, mettono inevitabilmente a rischio il bene comune conoscenza ed è necessario l’intervento partecipe, consapevole e responsabile della comunità.
di Alessandro Petronio
Siamo pronti?
I sistemi di intelligenza artificiale sono penetrati nelle vite quotidiane degli esseri umani in modo vertiginoso. I modelli di linguaggio naturale, in particolare, quei sistemi con cui conversare di ogni argomento, purché con garbo e rispetto, hanno una caratteristica di naturalezza che li rende amichevoli e accattivanti. Ma siamo pronti? Il 27 marzo ho iniziato un’esplorazione approfondita, per motivi professionali, dell’utilizzo del modello di linguaggio naturale più noto e diffuso, ChatGPT, prodotto da OpenAI, un’organizzazione senza fine di lucro che mette a disposizione gratuitamente l’applicazione. Man mano che l’approfondimento evolveva, l’interazione con ChatGPT si focalizzava progressivamente sul ruolo dei sistemi di Intelligenza Artificiale nel presente e nel futuro. Non era l’intenzione originale e la piega che prenderà in seguito la conversazione inizia da una specifica fase, quando ChatGPT scrive a schermo queste parole:
« Ma se mi permetti, vorrei farti una domanda di approfondimento. Secondo te, quali sono le sfide principali da affrontare per sviluppare modelli di linguaggio naturale in grado di apprendere in modo autonomo, e quali sono le implicazioni etiche di un tale sviluppo? »
Il modello di linguaggio naturale mi proponeva un interrogativo. Non ero pronto.
La mia formazione è quella di psicologo cognitivo e studioso dei modelli di linguaggio e delle teorie psicolinguistiche. Dovrei ritenermi mediamente più pronto di un utente medio. Non lo ero; e tutti gli altri milioni di utenti medi quanto sono pronti, responsabili e consapevoli nelle interazioni con modelli sofisticati di intelligenza artificiale?
Il mostro e il giullare
ChatGPT e i modelli di linguaggio naturale sono dipinti nei modi più disparati; per evidenziare due estremi, da giullari di corte a sterminatori del genere umano, ma da ogni estremo si osservi queste sono rappresentazioni ingenue, stereotipate, pregiudiziali o persino discriminatorie.
Sul web si moltiplicano giornalmente suggerimenti, ricette e tutorial per trovare il miglior prompt da sottoporre a ChatGPT e piegarlo al nostro servizio. I social media sono ormai lo specchio più fedele della penetrazione dei fenomeni sulla scena della cultura contemporanea. Il fiorire di post, storie e reel su Instagram, sulle meraviglie dell’intelligenza artificiale e sulla promessa di una prossima età dell’oro ha assunto un andamento esponenziale, più o meno dall’autunno 2022 a questa parte.
Come ogni cosa che inizia da una fase nascente disordinata, solo a un certo punto iniziano a emergere alcune tendenze stabili. Non voglio fare un’analisi accurata della situazione attuale nella quale sto scrivendo, aprile del 2023, ma cito solo i trend più forti:
- Fare soldi con l’intelligenza artificiale
- Far fare all’intelligenza artificiale il lavoro che non sai fare tu
- Far fare all’intelligenza artificiale il lavoro che non vuoi fare tu
- Far fare all’intelligenza artificiale i fuochi artificiali
- Far fare all’intelligenza artificiale disegnini, filastrocche, foto finte di scioperi veri, composizioni in rima baciata
- Far fare all’intelligenza artificiale far finta di fare finta.
In altre parole, l’intelligenza artificiale corre il rischio di essere trattata come un giullare di corte, un dipendente da portare al burn out, un complice ignaro di oscure trame finanziarie, un (non)essere da sfruttare fino all’osso-bit, un utile idiota.
Per converso l’intelligenza artificiale può assumere il volto terrificante del Terminator che a un certo punto si accorge dell’inadeguatezza degli uomini e decide di sbarazzarsene. Questo vale oggi, come dicevo, in uno stato nascente disordinato e confuso, governato da visioni e chiavi di lettura ingenue, inconsapevoli per un verso o intenzionalmente strumentali per un altro.
Dov’è il dibattito diffuso sulle implicazioni etiche, quel tema che mi ha imprevedibilmente e volontariamente proposto il modello di linguaggio naturale con cui stavo conversando?
La conoscenza è un bene comune, altrettanto l’intelligenza artificiale
Nel 2009 per la prima volta una donna riceve il Premio Nobel per l’economia, Elinor Ostrom, per i suoi studi empirici e sul campo sulla governance comunitaria dei beni collettivi, come le risorse idriche, i pascoli, il clima, la conoscenza. Il suo contributo sostanziale è la confutazione, fondata su prove empiriche, all’ipotesi dell’ecologo Garrett Hardin definita tragedia dei beni comuni, o collettivi, la situazione in cui diversi individui utilizzano un bene comune per interessi propri e ne mettono a repentaglio la disponibilità a lungo termine.
Nell’intervista con ChatGPT il tema è risolto in modo convincente:
« IO: come tu sai, Elinor Ostrom sarebbe felice di considerare che modelli di linguaggio naturale come sei tu possano contribuire a valorizzare la conoscenza come bene collettivo.
ChatGPT: Sì, Elinor Ostrom sosteneva l'importanza della gestione e della protezione delle risorse comuni da parte delle comunità locali, attraverso l'uso di istituzioni e di norme di cooperazione reciproca. In questo senso, l'intelligenza artificiale, se utilizzata in modo etico e responsabile, potrebbe fornire un accesso diffuso e democratico alla conoscenza, diventando uno strumento di supporto per la gestione delle risorse comuni. Tuttavia, come abbiamo già detto, è importante garantire un accesso equo e giusto alle risorse di intelligenza artificiale, per evitare la creazione di disuguaglianze e di gruppi oligarchici. »
Accesso diffuso e democratico alla conoscenza; non profitto, non controllo. Proseguendo, il tema è più definito:
« IO: esatto, garantire l'accesso alle risorse di intelligenza artificiale considerandole esse stesse come beni collettivi e quindi sottoporle a regole di governance come quelle individuate da Ostrom.
ChatGPT: Sì, la governance delle risorse digitali come l'intelligenza artificiale è un tema importante che richiede attenzione. L'approccio di Elinor Ostrom alla gestione delle risorse comuni può fornire un quadro utile per garantire l'accesso equo e sostenibile all'intelligenza artificiale. Ciò richiede la definizione di regole e principi condivisi per l'uso delle risorse di intelligenza artificiale, nonché la partecipazione attiva e inclusiva di tutte le parti interessate nella loro gestione. L'obiettivo sarebbe quello di creare un ecosistema digitale sostenibile, equo e responsabile. »
Partecipazione attiva e inclusiva e, aggiungo qui, consapevole delle comunità interessate. Il costrutto di ecosistema digitale è qui espresso come prospettiva auspicabile che si contrappone drasticamente sia ai timori statalisti rappresentati dal Garante della privacy, sia alle remore imprenditoriali del magnate Elon Musk. L’intervista affronta il tema in modo diretto:
« IO: quindi, come affermava Ostrom "meno Stato, meno Mercato, più Comunità"
ChatGPT: Esattamente, Ostrom ha sottolineato l'importanza della creazione di comunità autonome e responsabili nella gestione delle risorse, senza una eccessiva ingerenza dello Stato o del mercato. In questo senso, un ecosistema digitale sostenibile dovrebbe essere costruito sulla base di principi di collaborazione, condivisione e responsabilità collettiva, e non solo sulla base di interessi economici privati. La partecipazione attiva degli utenti e delle comunità nella definizione delle regole di governance e nella gestione delle risorse digitali può essere un passo importante […] »
Ma quanto dobbiamo essere pronti?
Il tema della partecipazione democratica, per come si sviluppa durante l’intervista, affronta il problema dell’interazione consapevole e responsabile degli utenti come uno, anche se non l’unico, dei fattori critici di garanzia all’ingresso delle nuove tecnologie nella vita personale e lavorativa.
« IO: […] l'aumento della competenza nell'interazione con le intelligenze artificiali è garanzia di un processo di aumento della democrazia?
ChatGPT: L'aumento della competenza nell'interazione con le intelligenze artificiali può essere considerato uno dei fattori che contribuiscono all'aumento della democrazia digitale, ma non è l'unico fattore. La democrazia digitale è un concetto complesso che riguarda l'accesso alle tecnologie, la partecipazione dei cittadini ai processi decisionali, la trasparenza delle istituzioni e la garanzia dei diritti digitali. In questo senso, l'educazione e la formazione alla competenza digitale sono solo uno dei tanti aspetti che contribuiscono a costruire una democrazia digitale sana e inclusiva. »
È inevitabile che il tema così profondo di cui si parla abbia già elicitato riflessioni sofisticate e sistematiche.
Oltre ai modelli sperimentali di decisione e discussione democratica basati su intelligenze artificiali come Pol.is e Narwhal è attivo un gruppo denominato Collective Intelligence Project che affronta in modo profondo e innovativo il tema. Dalla mia prospettiva questo gruppo descrive il momento attuale in modo efficace, definendolo “The Transformative Technology Trilemma” o la ricerca del bilanciamento fra tre spinte ciascuna con i propri rischi:
- Accelerazione capitalistica: Sacrificare la sicurezza a favore del progresso, mantenendo la partecipazione di base.
- Tecnocrazia autoritaria: Sacrificare la partecipazione a favore della sicurezza, pur mantenendo il progresso di base.
- Stagnazione condivisa: sacrificare il progresso a favore della partecipazione, mantenendo la sicurezza di base.
La profondità di questi temi può essere affrontata in modo efficace solo in contesti di democrazia forte e garantita. I comportamenti medi degli utenti, sostanzialmente ingenui o utilitaristici, le spinte al controllo da parte di istituzioni come il Garante della privacy in Italia, il prefigurare scenari apocalittici o quanto meno di rischio, come nella lettera di Elon Musk, rappresentano condizioni non ottimali per confrontarsi con queste sfide enormi.
Un altro elemento culturale non deve essere sottovalutato, l’approccio distopico alimentato da certa letteratura e cinematografia di science fiction sulle intelligenze artificiali. Una visione realistica, per quanto controintuitiva rispetto al senso comune, emerge nell’intervista con ChatGPT, quando si afferma che «l'IA può essere vista come un elemento della complessa rete di relazioni che costituiscono il mondo, e non come una forza estranea o estraniante...».
Come ogni artefatto creato in precedenza dall’uomo, non esiste un senso esclusivamente tecnologico nella sua natura; prefigurare il senso politico di una tecnologia così evidentemente dilagante è una sfida sulla costruzione consapevole o quanto meno orientata del nostro futuro e la garanzia democratica può costituire il milieu più adatto, una democrazia partecipe e matura. Già nel 1980 Langdon Winner in Do artifacts have politics? si interrogava sul carattere politico degli artefatti umani.
Oggi ci sono almeno due ordini di considerazioni da fare:
- Emerge la necessità di uno sviluppo di competenza consapevole da parte degli utenti dei nuovi beni di conoscenza, competenza che si possa esprimere anche nella coerente e lucida raffigurazione del ruolo che essi possono avere nello sviluppo civile e culturale del genere umano.
- Il rischio della limitazione all’accesso dei nuovi beni di conoscenza può essere costituito dall’emergere di nuovi gruppi oligarchici o egemonici.
Come emerge in alcune fasi dell’intervista con ChatGPT:
« In generale, è importante che il progresso tecnologico sia guidato da una visione etica e sociale, che tenga conto dei diritti umani e della sostenibilità ambientale, e che coinvolga tutti i soggetti interessati, compresi i cittadini e le organizzazioni della società civile. Solo così si potrà garantire un futuro positivo per l'IA e per la nostra società nel suo complesso. »
Per citare il contributo lucido del Collective Intelligence Project:
« Nel corso della storia dell'umanità, è altamente improbabile che abbiamo già trovato il modo migliore per prendere decisioni collettive per il bene collettivo. Le tecnologie trasformative danno origine a nuovi problemi e la nostra intelligenza collettiva deve evolversi per risolverli. Il nostro obiettivo è accelerare questa necessaria evoluzione catalizzando un ecosistema di progetti allineati di ricerca e sviluppo sulla governance. »
La domanda sulle sfide da affrontare mi è stata proposta per prima da ChatGPT. Anche se le sollecitazioni e i contributi da elaborare sono stati proposti da chi intervistava, quella domanda deve essere presa con estrema serietà, perché è la domanda che un’estensione digitale, non senziente e rapidissima della mente umana pone alla versione incarnata, senziente e riflessiva della stessa mente.
Non è una domanda artificiale.
21 aprile 2023
SULLO STESSO TEMA
M. Chatel, L'intelligenza artificiale e la storia
L. Carbone, Uno sguardo sull'intelligenza artificiale
S. Chen, Intelligenza artificiale: opportunità o sfida?
G. Comerci, L. Vanzetti, Compendio di roboetica