Le sfide poste all'intelligenza artificiale non saranno così difficili da risolvere come si immaginava in passato e sarebbe troppo tardi rifletterci solo dopo che lo sviluppo dell'intelligenza artificiale si sia reso incontrollabile.
Ci si immagini all’inizio del XX secolo: se qualcuno dicesse che una macchina potrebbe battere un uomo, campione di scacchi, probabilmente lo deriderebbero tutti, come se avesse pronunciato una insensata fantasticheria, un sogno ingenuo che poterebbe essere raccolto nei racconti di Jules Verne. Però, il 10 febbraio 1996, la sconfitta nella prima partita in una sfida di Kasparov, che era stato il più giovane campione al mondo negli scacchi, da parte di un computer, Deep Blue, ha segnato una tappa fondamentale dello sviluppo dell’intelligenza artificiale. Oggigiorno, la maggior parte delle applicazioni del nostro computer o dello smartphone sono capaci di eseguire un ordine dello stesso livello di Deep Blue.
Ci sono tanti esempi in più che mostrano il successo recente dell’intelligenza artificiale in vari ambiti. Nel febbraio 2011, Watson, un sistema computerizzato, ha sconfitto i suoi avversari umani in un quiz show televisivo americano rispondendo a domande poste nel linguaggio naturale. Se la vittoria di Deep Blue aveva mostrato la sua capacità superiore sugli uomini riguardo a un solo ambito di calcolo, Watson invece è dotato della capacità di apprendere e ragionare automaticamente e anche di raggiungere un obiettivo, le quali vengono considerate come le caratteristiche essenziali dei viventi superiori.
Pertanto si può dire che quell'intelligenza artificiale sia paragonabile a una mente umana? La risposta del filosofo americano John Searle è negativa. Egli infatti sostiene che, nonostante tutte le capacità complicate di cui è dotato, Watson non possa essere considerato come una mente umana che è in grado di pensare. D’altra parte, lo stesso filosofo, che ha coniato l' espressione intelligenza artificiale forte, ha lasciato ampio spazio all'idea secondo cui «il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente» (J. Searle, Minds, Brains and Programs. The Behavioral and Brain Sciences). Ovvero, in linea di principio, le macchine potranno avere coscienza di sé e perfino stati cognitivi avanzati.
Da una parte alcuni scienziati cognitivi sostengono che la natura della mente umana non sia altro che un meccanismo e che la differenza tra la mente umana e le altre macchine stia nel fatto che il nostro cervello sia composto di materiali organici. Prima o poi riusciremo a creare macchine analoghe ai nostri cervelli che siano coscienti di se stesse e abbiano emozioni. Dall’altra parte, però, dei biologi rifiutano questa idea asserendo che solo gli organismi viventi possano essere dotati di queste facoltà. Ovviamente non è facile distinguere le macchine dagli esseri umani dai punti di vista dei comportamenti o degli effetti esterni dei comportamenti. Ma è altresì vero che nessuna macchina ha mai superato il test di Turing o il test della stanza cinese: due criteri progettati appositamente per determinare se una macchina sia in grado di pensare.
In prospettiva, quindi, questi problemi non saranno così difficili da risolvere come si immaginava prima e sarebbe troppo tardi rifletterci solo dopo che lo sviluppo dell'intelligenza artificiale si sia reso incontrollabile. Stephen Hawking, il noto astrofisico britannico, ammonisce:
« L'intelligenza artificiale finirà per svilupparsi da sola e crescere a un ritmo sempre maggiore [...] Gli esseri umani, limitati dalla lentezza dell'evoluzione biologica, non potranno competere con le macchine e un giorno verranno soppiantati. I computer raddoppiano velocità e memoria ogni 18 mesi. Il rischio è che prendano il potere. »
Nell’affrontare i rischi potenziali, dobbiamo quindi renderci conto che non avrà senso sviluppare la tecnologia senza farne buon uso.
30 gennaio 2018