Il significato dell'intelligenza è diventato di nuovo un problema. Rispetto ai vecchi paradigmi, il Web ci offre strumenti più idonei a pensarne la dinamicità e la plasticità. Ma il "potere" della rete ci restituisce l'"essere" dell'intelligenza? Un Festival di filosofia dal titolo "Esseri intelligenti" rimette al centro questa e altre domande.
Che cos’è un “essere intelligente”? La domanda è tornata alla ribalta quando, alla fine del 2022, OpenAI ha rilasciato il prototipo di ChatGPT e ha fatto “scoppiare” una nuova estate dell’intelligenza artificiale, chiudendo definitivamente il lungo inverno che aveva attraversato dagli anni Ottanta ai primi Duemila. Abbiamo improvvisamente cominciato ad interfacciarci con un “essere” in grado di comunicare e ragionare in modo apparentemente umano, costringendoci a rimettere in questione noi stessi e ciò che sembrava rappresentare la nostra differenza specifica: l’intelligenza, appunto.
Gettando uno sguardo indietro nel tempo, però, ci si accorge che questo concetto aveva costituito un problema ben prima della disciplina dell’IA, nata negli USA a metà degli anni Cinquanta. La nozione “moderna“ o “scientifica” di intelligenza – quella sottesa al modo in cui comunemente ne parliamo oggi – è stata elaborata alla fine dell’Ottocento, con il positivismo inglese e francese, e ha costituito il tentativo di mettere a punto metodi per misurare qualcosa che appariva difficilmente quantificabile o anche solo determinabile. È quel che hanno provato a fare Hyppolite Taine, in De l’intelligence (1870), l’inventore dell’eugenetica Francis Galton, che cercò di stabilire in che modo potesse individuarsi e trasmettersi il “genio”, e successivamente Alfred Binet, Theodor Simon e Charles E. Spearmann, le cui celeberrime scale individuavano specifiche abilità cognitive in base a cui valutare il quoziente intellettivo di un soggetto. La stessa psicometria nasce dalla volontà – e dalla difficoltà – di “materializzare” l’intelligenza, di farne una “cosa” che si possa “pesare” analogamente ad altre entità fisiche.
Oggi sappiamo che questi tentativi sono insufficienti e potenzialmente discriminatori: lo ha per esempio mostrato ampiamente Stephen Jay Gould in Intelligenza e pregiudizio (1981). E tuttavia permane, quasi come una traccia nascosta, l’aspirazione ad afferrare una realtà che per sua natura è qualcosa di dinamico, che sfugge alla presa delle categorie meramente psicologiche e non è identificabile univocamente a una o a una somma di facoltà. La stessa intelligenza artificiale sembra, sin dai suoi esordi, presupporre che si possa “costruire” l’intelligenza dotando le macchine di una serie di abilità cognitive che noi svolgiamo particolarmente bene: memorizzare, riconoscere le immagini, individuare relazioni, formulare frasi di senso compiuto, categorizzare, svolgere deduzioni etc. L’ipotesi di base è che quando un agente artificiale possiederà tutte queste capacità e sarà in grado di svolgere tutti questi compiti con un grado sufficiente di accuratezza, allora esso sarà veramente intelligente.
Il problema è che, sin dall’inizio, l’intelligenza si è difficilmente lasciata ridurre o scomporre a una serie di caratteristiche, proprio perché essa sembra poter attraversare “tutto”: e infatti spesso si parla al plurale di intelligenze, per includervi emotività, creatività, cinestesia, moralità, etc., cioè aspetti che a prima vista sembrerebbero costituire qualcosa di diverso, di irrazionale o arazionale, ma che poi si capisce giocano un ruolo fondamentale proprio per l’esercizio della nostra ragione.
Ogniqualvolta riusciamo a definirne e riprodurne artificialmente un tratto, si ha subito l’impressione che l’intelligenza possa riguardare aspetti prima non considerati, e che il suo raggio di azione sia virtualmente infinito (un fenomeno che John McCarthy ha chiamato “AI Effect”). Non si capisce mai dove inizi e dove finisca la serie delle cose possibili per una intelligenza, e se addizionare ulteriori elementi ci porterà mai da qualche parte. Diventa perciò molto problematico capire esattamente “quante” cosa dovrà saper fare l’intelligenza artificiale prima di poter essere considerata una intelligenza generale.
Lo stesso Aristotele del resto dichiarava che l’intelletto «è in potenza tutte le cose»; e che quindi è uno strano genere di “essere”, come nel medioevo commenterà Averroè: più che una cosa, sembra una pura disposizione, un puro poter-essere. Non una entità rigidamente sostanziale, data una volta per tutte, ma una dynamis. Nel XX secolo Henri Bergson, proprio in polemica con Taine e Binet, insisterà sulla differenza essenziale che in questo senso distingue l’intelligenza degli psicologi, che procede di step in step, e l’intelligenza come pensiero o intuizione: quella apertura originaria della nostra mente a sé e al mondo che segue un andamento fluido ed è in qualche modo accordata al ritmo stesso della vita.
C’è un modo in cui la storia della filosofia, delle scienze e della tecnologia ha fatto fronte a questa impasse per provare a pensare – ma anche sfruttare – tale elasticità o duttilità dell’intelligenza: ed è l’idea della rete. L’intelligenza non va concepita soltanto come una dotazione, un pacchetto di skill, ma è la risultante di un intreccio in costante ridefinizione e assestamento, di cui noi partecipiamo assieme a tutte le altre cose. La stessa dialettica platonica funziona in questo modo: l’intelligenza del dialettico tenta di cogliere i nessi che sussistono tra le forme che costituiscono la realtà. Allo stesso modo, come emerge nel Sofista e nel Politico, l’arte del governare è come quella del tessere, perché segue le suture tra concetti, riadattandosi a seconda delle sinapsi tra le cose e vagliando di volta in volta le direttrici che da un nodo della rete possono condurre agli altri. La parola "cibernetica" deriva non a caso da kubernao – dirigere, governare.
L’ontologia stessa, come disciplina filosofica affermatasi tra il XVI e il XVII secolo, si è sviluppata come una scienza delle reti di concetti primi e generalissimi sotto cui può cadere qualsiasi oggetto pensabile: una impresa che da Suárez arriva fino alle odierne ontologie informatiche passando per la filosofia trascendentale e per Hegel, che nella Scienza della Logica paragonava il pensiero universale a un Netz, una rete di determinazioni concettuali.
Quando tra gli anni Ottanta e Novanta Tim Berners-Lee inventò il Web, quello della “ragnatela” era ai suoi occhi il paradigma in grado di spiegare tanto il funzionamento del nostro cervello quanto quello della rete globale. La realtà è un ipertesto in continua evoluzione, in cui le categorie si adattano plasticamente alle nuove esigenze, ed emergono collettivamente dalle interazioni tra gli utenti. L’intelligenza stessa allora va intesa come una plasticità assoluta, un concetto su cui ha particolarmente insistito la filosofa francese Catherine Malabou in Metamorfosi dell’intelligenza (2017).
L’isomorfismo tra la rete rappresentata dal nostro cervello e la rete collettiva dell’intelligenza ha prodotto alcuni tra i modelli teorici di maggior successo, tanto nelle neuroscienze quanto nei risultati applicativi dell’intelligenza artificiale. Stanislas Dehaene e Jean-Pierre Changeux hanno proposto una immagine della mente come network neuronale globale per cui la coscienza sarebbe il risultato della complessa attività di rimodellamento delle nostre reti di neuroni in seguito alle sollecitazioni ambientali. Le stesse reti neurali artificiali, che permettono oggi ai computer di riconoscere testi e immagini, si ispirano alla struttura e al funzionamento del cervello. Ma più che dalla rete biologica, l’IA ha tratto giovamento dalla rete sociale e tecnologica: non è infatti un caso che, dopo tanti fallimenti, l’IA abbia iniziato a conseguire successi incredibili abbandonando la pretesa di replicare in silico la mente umana, e iniziando invece a sfruttare le connessioni che si generano e si aggiornano senza sosta in Internet: con questa “scorciatoia”, come l’ha definita Nello Cristianini, abbiamo iniziato a “estrarre” l’intelligenza direttamente dalla collettività delle vite e dei dati intrecciati nel world wide web.
Per quanto la straordinaria immagine della rete abbia permesso di ripensare proficuamente lo statuto dell’intelligenza, non concependola più come una realtà bell’e fatta ma come un processo, una struttura in continuo divenire, essa presenta un groviglio di problemi che chiedono di essere pensati. Chi accede alla rete, come si accede alla rete, e perché la rete si struttura o ristruttura secondo certe disposizioni? Chi o cosa è l’essere di questo poter-essere in cui consiste la rete? Se non ci si chiede questo, l’assoluta potenzialità dell’intelligenza, quella del nostro network mentale o del web, rischia di non dire poi molto: un poter essere che non si attua mai rimane un non essere. E invece il problema è proprio quello dell’essere dell’intelligenza, che è sempre qualcosa che si attua. L’intelligenza è un essere che non è mai mera presenza o rigida schematicità, ma non può nemmeno annullarsi in una virtualità assoluta.
Noi accediamo alla rete, siamo nella rete, ma la rete stessa è stata messa in piedi da una intelligenza che aveva l’esigenza di creare una cartografia della realtà, di intrecciarne la trama e l’ordito per poter orientarsi. E tuttavia per far questo una minima disponibilità dell’essere all’intelligenza e dell’intelligenza all’essere deve essere già in atto: senza questa coappartenenza iniziale, questo rapporto originario, si potrebbe iniziare a connettere qualcosa, si potrebbe iniziare a tessere? Anche in Platone questo sembra essere un problema latente: l’arte tessile della dialettica gira a vuoto se la nostra intelligenza non ha già una qualche intuizione del reale, dell’essere stesso.
E allora forse il problema di che cosa significhi “essere intelligenti” può diventare anche il problema del rapporto di essere e intelligenza, che è come dire: non solo il problema dell’essere dell’intelligenza, ma anche quello dell’intelligenza dell’essere.
Il 27 e 28 luglio 2024 si terrà a Leuca (in Salento) il “Piccolo Festival di Filosofia” dedicato al tema: “Esseri intelligenti”. Le due serate (inizio h 19:30) sono state ideate e verranno condotte da Costantino Esposito, Professore ordinario di Storia della Filosofia presso l’Università di Bari, con la partecipazione di dieci “filosofi” impegnati a riguadagnare il senso dell’intelligenza umana in un confronto con altre intelligenze, da quelle angeliche a quelle animali e vegetali, da quelle artificiali a quelle collettive e post-umane. Nella prima serata interverranno Marienza Benedetto (Università di Bari); Andrea Le Moli (Università di Palermo); Igor Agostini (Università del Salento); Maria Cristina Fornari (Università del Salento) e Giusi Strummiello (Università di Bari). Nella seconda serata Francesco Marrone (Università di Bari); Mario Carparelli (Università del Salento); Antonio Lombardi (Università di Bari); Antonio Carnevale (Università di Bari); Mons. Vito Angiuli (Vescovo di Ugento – Santa Maria di Leuca).
24 luglio 2024
DELLO STESSO AUTORE
Larkin, il lugubre scriba che spiava dalle "finestre alte" dell'ordinario
Alice in Borderland: cosa faresti per salvarti la vita?
A 250 anni, Hegel ci sfugge ancora
Per una storia della realtà oggettiva
SULLO STESSO TEMA
R. Sasso, Efficienza o coscienza: quale futuro per l'Intelligenza Artificiale?
E. Pivato, Intelligenza artificiale: quali limiti?
M. Chatel, L'intelligenza artificiale e la storia