Padre Paolo Benanti al Festival dell’Economia di Trento nel panel “L’intelligenza artificiale e l’uomo”, insieme con il prorettore del Politecnico di Milano Giuliano Noci e l’economista Massimo Lapucci, moderati da Barbara Carfagna
Non solo un confronto tra esperti: è stato uno specchio rivolto al futuro; un tentativo di comprendere se davvero possiamo ancora chiamarci padroni del nostro destino nell’era degli algoritmi. Al Festival dell’Economia di Trento, al panel «L’intelligenza artificiale e l’uomo» non si è parlato di chip e Cpu, ma di coscienza, potere e, soprattutto, responsabilità.
«Non stiamo parlando di un dibattito alla Galileo, se il telescopio sia buono o cattivo, ma ci troviamo in una situazione analoga alla rivoluzione industriale. La domanda è: how much is too much?», ha esordito dal palco del Teatro Sociale Padre Paolo Benanti, presidente del Comitato per l’intelligenza artificiale del Dipartimento per l’informazione e l’editoria della presidenza del Consiglio dei ministri.
«Occorre riconoscere – ha aggiunto – che l’unica vera piattaforma abilitante per l’innovazione tecnologica nell’intelligenza artificiale è l’essere umano. Se l’uomo non viene educato e formato, la produttività non aumenta e si generano tensione sociale e squilibrio». Di certo, puntualizza Benanti, ci troviamo «in un tempo fantastico, possiamo interrogarci tra di noi», tornando «a domande che pensavamo di aver lasciato a una stagione precedente».
È in fondo un paradosso moderno, in un gioco di specchi antico quanto la filosofia: più le macchine sembrano (sono) intelligenti, più ci costringono a interrogarci su cosa significhi davvero tutto questo per l’uomo. Non è solo una questione tecnica, né solo etica. È una «giuntura d’epoca», per dirla alla maniera di un Padre Benanti (introdotto dalla moderatrice Barbara Carfagna) che ha ricordato come oggi il dibattito non sia più se le macchine «sappiano ragionare», ma se potranno raggiungere un livello di intelligenza pari – o superiore – a quella umana.
«Riguardo alla cosiddetta intelligenza artificiale generale, c’è chi dice che sia una stupidaggine e che non ci sarà mai un momento in cui le macchine sapranno svolgere tutti i compiti che svolge l’essere umano. Tuttavia – chiosa la giornalista Rai – ci sono dei test scientifici che ci dimostrano anche un po’ il contrario».
A ogni modo quando un investimento in Ai costa fino a mille miliardi, non si tratta più solo di etica ma anche di scelte industriali, politiche e culturali. E non a caso Giuliano Noci, prorettore del Politecnico di Milano, ha invitato a superare il falso dilemma tra uomo e macchina: «Non esiste una reale dicotomia. L’intelligenza artificiale deve essere un copilota al servizio dell’uomo». Noci ha parlato di «transizione digitale» come fenomeno che può mettere in crisi l’identità culturale occidentale nella misura in cui si tratta di un passaggio che, in altre regioni del mondo, viene affrontato con meno resistenza: «In Asia, ad esempio, prevale un modello culturale che esalta la connessione e non mette l’individuo al centro, ma la sua proiezione sociale».
Cosa può accadere dunque e con quali rischi? Massimo Lapucci, co-autore insieme a Stefano Lucchini del libro «Ritrovare l’umano» ha affrontato il tema dal punto di vista della finanza, dove l’uso di intelligenze artificiali è già ampiamente diffuso. E in maniera tranchant: «Non possiamo nutrire una fiducia cieca negli algoritmi. L’Ai deve essere guidata e monitorata». E se «in ambiti come il credit scoring o la gestione dei portafogli l’AI è diventata centrale, i modelli devono essere comprensibili e monitorabili. Non si può delegare tutto alla macchina senza sapere come funziona».
Il filo logico porta così l’economista a richiamare l’attenzione sulla governance e sul rischio di bias sistemici: «L’intelligenza artificiale è uno strumento che può discriminare se non correttamente progettato. È fondamentale avere regole, come quelle proposte dall’Ai Act europeo». Una sottolineatura unita però anche a una proposta: affiancare ai valutatori delle Ai dei curatori, figure capaci di garantire che le macchine siano realmente al servizio dell’uomo.
Il quale resta al centro e deve essere consapevole, puntualizza Padre Benanti, di un rischio ad ora non derubricabile: «Nel Medioevo l’analfabetismo era non sapere leggere i manoscritti – racconta -. Oggi è non sapere interpretare l’informazione digitale. Le nuove generazioni rischiano un analfabetismo informativo se non vengono educate a distinguere il valore e la credibilità delle fonti. È un problema educativo, prima ancora che tecnologico».
In definitiva però, chiosa dal canto suo Noci, «non c’è da concentrarsi sul tema in termini di antinomia fra uomo e macchina. Il tema è trovare una sintesi hegeliana fra uomo e macchina. La tecnologia può anzi diventare una forma d’ordine se opportunamente progettata e governata». E chissà quanto quest’ultima cosa riuscirà a farla l’Ai Act, su cui il Prorettore del Politecnico di Milano non è però tenero: «L’Ai Act definito dall’Europa è una forma di regolamento in cui chi regola non controlla il campo di gioco. Così le imprese europee entrano storpie. Altrove, nel mondo, entrano in campo con il doping».