L’intelligenza artificiale non può tutto, ci sono calcoli ‘impossibili’
Ha imparato ad analizzare dati medici e a leggere immagini astronomiche, vince con disinvoltura a poker e sa pilotare droni, ma guai ad attribuirle abilità superiori a quelle reali: a mettere in guarda dal fatto che l’intelligenza artificiale possa diventare una sorta di ‘superpotere’ è Luca Trevisan, professore ordinario di Informatica all’Università Bocconi e direttore del master in Intelligenza artificiale.
“Stiamo assistendo a un progresso continuo nello sviluppo di algoritmi che fanno sempre più cose e, in prospettiva, nei prossimi anni si vedano sempre più applicazioni, a partire dalla medicina con lo sviluppo di nuove terapie, diagnosi più precoci e cure personalizzate, ma questo progresso può darci l’impressione che non ci siano limiti a ciò che è possibile fare con gli algoritmi”, ha detto all’Ansa Trevisan, che a inizio settembre a Milano ha tenuto la lettura inaugurale della Cattedra Fondazione Invernizzi in Computer Science, della quale è titolare. Hanno partecipato all’incontro Salil Vadhan, dell’Univesità di Harvard, il presidente della Fondazione ‘Romeo ed Enrica Invernizzi’. Giuseppe Bertoni, Francesco Billari e Andrea Sironi, rispettivamente rettore e presidente dell’Università Bocconi.
“In realtà – ha rilevato Trevisan – ci sono cose che gli algoritmi non potranno fare, calcoli per i quali non si potranno sviluppare algoritmi efficienti”. Questo vale, per esempio, per le operazioni di home banking o le transazioni finanziarie, la cui sicurezza “passa attraverso app basate su calcoli che, se fosse possibile fare efficientemente, potrebbero lasciare campo libero a operazioni non autorizzate. Per esempio, potrebbe essere possibile infiltrarsi in un sistema sicuro, impersonare l’utente di un servizio di online banking che richieda di identificarsi. È vero che esistono problemi di calcolo che potrebbero permettere questo, ma non esistono algoritmi che riescano a permetterli in un tempo ragionevole: ci vorrebbero miliardi di anni”, ha osservato il ricercatore, rientrato in Italia nel 2019, dopo molti anni trascorsi negli Stati Uniti, fra le università Columbia di New York e quelle californiane di Berkeley e Stanford. “È una questione di complessità: ci sono calcoli – ha aggiunto – che richiederebbero miliardi di operazioni, per le quali non c’è nessuna scorciatoia” e che nemmeno un sistema di Intelligenza artificiale potrebbe eseguire. “Per certi servizi – ha detto ancora – le scorciatoie non esistono: la complessità è tale che non è possibile aggirare la sicurezza in nessun tempo ragionevole. Sarebbero necessari miliardi di anni”.
Secondo l’esperto è possibile che “in futuro esisteranno algoritmi con un’intelligenza simile alla nostra, ma più veloci. Non c’è ragione di dubitarne, ma anche un sistema di IA super-intelligente non potrà essere in grado di eseguire calcoli tali da violare la sicurezza”. Se normalmente si usa dire che se qualcosa è teoricamente possibile allora si può fare, “la matematica fa eccezione: fin dai tempi di Pitagora ci sono risultati che mostrano che alcune cose sono impossibili perché porterebbero a paradossi e contraddizioni. Per esempio – ha detto ancora l’esperto – sappiamo che il moto perpetuo è impossibile perché sono le leggi della fisica a descrivere quello che si può fare con una macchina”. In sostanza, «è probabile che futuri sistemi di intelligenza artificiale con capacità intellettive superiori alla nostra potranno sviluppare algoritmi più avanzati e portare a nuove scoperte, ma non potranno mai dimostrare che 2+2 fa 5″.