Intelligenza artificiale

  • L’intelligenza artificiale rende obsoleti 34mila lavoratori negli Usa

    Sostituendosi a circa 34mila lavoratori nel primo mese del 2024, l’intelligenza artificiale ripropone per l’ennesima volta il dibattito tra i luddisti, che contrastano lo sviluppo tecnologico in nome della tutela dei posti di lavoro, e chi invece pensa che dalla ruota in poi l’uomo si è liberato della fatica e ha potuto dedicarsi ad altri lavori proprio grazie allo sviluppo tecnologico.

    Fatto sta che secondo i dati di Layoffs.fyi, che tiene traccia dei licenziamenti nel settore, 138 aziende tecnologiche, tra cui Microsoft, Snap, eBay e PayPal, hanno licenziato personale perché superfluo vista la possibilità di far svolgere le stesse mansioni ad apparecchiature tecnologiche. Secondo gli analisti, l’ultima ondata di licenziamenti dimostra che le aziende stanno rimodulando le proprie risorse per investire in nuove aree come l’IA generativa, ovvero quel ramo dell’intelligenza artificiale che si prefigge di creare sistemi informatici in grado di generare autonomamente immagini, suoni e altro ancora, mostrando al contempo agli azionisti una continua attenzione alla disciplina dei costi.

    “Le perdite di quest’anno sono apparse più strategiche che stagionali: il 2022 e il 2023 hanno visto il “ridimensionamento” della forza lavoro dopo la pandemia, ma i tagli nel 2024 sono stati accompagnati da “assunzioni attive”, ha spiegato Daniel Keum, professore associato di management alla Columbia Business School, al Financial Times, specificando che le aziende stanno rivalutando le aree prioritarie di investimento e tagliando le posizioni nelle divisioni costose ma non essenziali, come la piattaforma di streaming video Twitch di Amazon, che quest’anno ha perso centinaia di posti di lavoro. “Chiunque lavori nel settore tecnologico o dei videogiochi in questo momento è in qualche modo preoccupato per i licenziamenti, per se stesso o per qualcuno che conosce”, ha dichiarato Autumn Mitchell, tester del controllo qualità presso la filiale di Microsoft ZeniMax. “Vedi un’azienda che annuncia dei licenziamenti e pensi: “Ecco, a chi toccherà la prossima settimana?””.

    Ma questo potrebbe essere solo l’inizio. Secondo Brent Thill, analista di Jefferies, le aziende tecnologiche stanno valutato la loro forza lavoro, alla ricerca di un’organizzazione più snella “I licenziamenti continueranno e potrebbero peggiorare. È diventato contagioso”. “Abbiamo bisogno di diventare più efficienti. Ciò significherà modificare le priorità finora esistenti, investendo allo stesso tempo in alcuni rami nuovi”, ha dichiarato questo mese Daniel Ek, amministratore delegato di Spotify. Meta –  che ha tagliato più di 20.000 posti di lavoro dalla fine del 2022  in seguito alle lamentele degli investitori sui miliardi di dollari destinati alla costruzione di un “metaverso” – ha dichiarato questo mese che le aggiunte nette di personale per l’anno in corso saranno “minime”, anche se effettuerà “investimenti significativi” nell’IA generativa.

    La società di software SAP ha invece presentato a gennaio una “trasformazione aziendale” che prevede la soppressione di circa 8.000 posti di lavoro, in quanto l’azienda si concentrerà maggiormente sull’IA. L’azienda ha dichiarato che alla fine del 2024 il personale sarà “simile ai livelli attuali”. Diverso il caso della società di photo-messaging Snap che, mentre lotta per riprendersi dal crollo della pubblicità digitale, ha annunciato di voler tagliare un decimo della sua forza lavoro globale. In quest’ultimo caso, ha detto Keum, si tratta della risposta a una “crisi esistenziale”, ovvero che riguarda la possibilità che la società esista ancora nei prossimi anni. “Si tratta di un tipo di licenziamenti molto diverso” ha concluso rispetto agli annunci di di Amazon, Meta, Google.

  • Per il Fondo Monetario Internazionale l’intelligenza artificiale impatterà sul 40% dei posti di lavoro

    Quasi il 40% delle occupazioni globali potrebbe essere influenzato dall’ascesa dell’intelligenza artificiale, con i Paesi a reddito elevato più esposti ai rischi rispetto ai mercati emergenti e alle nazioni a basso reddito. E’ l’allarme lanciato dal Fondo Monetario Internazionale (FMI), durante la 54esima edizione del World Economic Forum a Davos, e riportato da Wall Street Italia.

    Secondo Kristalina Georgieva, a capo del Fondo, una rivoluzione tecnologica potrebbe far ripartire la produttività, stimolare la crescita globale e aumentare i redditi in tutto il mondo ma, di contro, potrebbe portare alla sostituzione di posti di lavoro e accentuare le disuguaglianze. E a farne le spese sarebbero proprio i Paesi ad alto reddito dove, stando al rapporto dell’FMI, circa il 60% dei lavori potrebbe essere influenzato dall’intelligenza artificiale.

    L’esposizione all’AI è stata stimata al 40% nei mercati emergenti e al 26% nei Paesi a basso reddito. Con questi dati si deduce che i Paesi emergenti e a basso reddito potrebbero affrontare minori turbolenze legate all’intelligenza artificiale nel breve termine. Secondo il Fondo chi potrà beneficiare dei progressi dell’AI potrebbe vedere aumentare la produttività e retribuzione, mentre chi non potrà farlo rischierebbe di restare indietro.

  • Asse Roma-Berlino-Parigi per l’intelligenza artificiale

    Mentre il mondo si affretta a regolamentare l’intelligenza artificiale e si levano voci per u nuovo ente internazionale che la regoli, Francia, Germania e Italia stanno cercando di posizionarsi in prima fila nella governance dell’Ia all’interno dell’Unione Europea

    In una riunione a Roma lo scorso autunno, ministri delle 2 nazioni hanno sottolineato l’importanza strategica dell’Ia nella politica industriale dell’Ue e l’impatto dell’Ia su forza industriale, produttività e competitività. I tre Paesi hanno concordato che per sfruttare l’intelligenza artificiale sia opportuno ridurre le tasse e semplificare le procedure così da favorire le imprese che ricorrono ad essa nonché favorire un ecosistema dinamico per le startup e le piccole e medie imprese. Hanno anche convenuto sull’utilità di collegare i centri di eccellenza nazionali attraverso un consorzio europeo dedicato all’Ia e fornire un contesto normativo che non crei ostacoli.

    A livello europeo, peraltro le sfide poste dall’intelligenza artificiale sempre lo scorso autunno sono state discusse a Londra, pervenendo a una generica dichiarazione di buoni intenti, senza valore vincolante, che prendendo spunto da Bletchey, il luogo dove Alan Turing sviluppò il primo calcolatore elettronico e dove si è svolto il summit, ha preso il nome di Dichiarazione di Bletechey. Ulteriori riflessioni sul tema a livello europeo saranno svolte in un ulteriore vertice quest’anno, a Parigi.

  • Musk avvia una raccolta fondi per sviluppare l’intelligenza artificiale

    Lo scorso luglio Elon Musk ha conquistato anche il terreno dell’intelligenza artificiale con il lancio della sua società, xAI, il cui debutto ufficiale, riservato a un gruppo selezionato, è stato annunciato dallo stesso Musk a inizio novembre tramite un post su X.

    La startup xAI, salita sul ring dell’intelligenza artificiale con il chatbot Grok tra aziende come OpenAI, Google e Anthropic, ora entra nel vivo della competizione con la prima ricerca di finanziamenti da investitori azionari. Nel dettaglio, il patron di Tesla sta cercando di raccogliere 1 miliardo di dollari.

    Musk ha già raccolto quasi 135 milioni di dollari, secondo un documento depositato martedì presso la Sec, che non include però i nomi degli investitori. La creazione di xAI da parte di Musk risale però all’inizio dell’anno, con l’obiettivo proprio di competere con altre aziende di IA generativa, tra cui OpenAI di cui Musk è stato co-fondatore. Il primo prodotto che ha inaugurato l’azienda, il chatbot chiamato Grok, viene costantemente addestrato sui dati del social network X di cui Musk è anche proprietario. Secondo il sito web dell’azienda, sarebbe “progettato per rispondere alle domande con un po’ di arguzia e con una vena ribelle”.

    A novembre, Musk aveva dichiarato che gli investitori azionari di X (precedentemente chiamata Twitter) possiedono il 25% di xAI. Aveva anche annunciato che gli utenti del social network che si iscrivono a Premium+, un abbonamento mensile a partire da 16 dollari negli Stati Uniti, hanno accesso a Grok. Musk non si è poi risparmiato dalle critiche verso i competitor, rivolgendosi apertamente ad OpenAI e definendola “effettivamente controllata da Microsoft“, dopo aver lasciato il consiglio di amministrazione nel 2018.

    Nonostante il suo coinvolgimento nell’intelligenza artificiale, in passato Musk ha sempre manifestato profonde riserve sulla tecnologia. È stato uno dei ricercatori e leader del settore che hanno chiesto la sospensione dell’addestramento di potenti modelli di IA a marzo, esprimendo preoccupazione per il potenziale di “distruzione della civiltà”. Tanto che, in un evento su Twitter Spaces dell’estate scorsa, Musk aveva esposto il suo piano per costruire una intelligenza artificiale più sicura. Di recente, ha inoltre espresso di voler conoscere il motivo dell’estromissione e reintegrazione dell’amministratore delegato di OpenAI, Sam Altman, dichiarando il suo interesse se ci fosse stata qualche rivelazione pericolosa sull’IA da parte del consiglio di amministrazione.

    Piuttosto che programmare esplicitamente la moralità nella sua intelligenza artificiale, xAI cercherà di creare una IA “massimamente curiosa”, ha detto.

  • Arrivano le norme europee per disciplinare l’intelligenza artificiale

    I grandi provider di intelligenza artificiale come Google, Meta o Microsoft dovranno garantire e certificare qualità e trasparenza di algoritmi e dati, altrimenti non potranno operare nella Ue. L’Unione europea ha infatti adottato l’AI Act, la prima legge al mondo che prova a indirizzare lo sviluppo dell’intelligenza artificiale regolamentandone l’uso all’interno della stessa nell’Ue attraverso poteri di applicazione a livello europeo oltre ad estendere obblighi e divieti.

    Il testo sul quale la Commissione di Ursula von der Leyen ha ottenuto il sì di Parlamento e Consiglio nella notte tra l’8 e il 9 dicembre, dopo un intenso negoziato durato 36 ore ha dovuto fare i conti con due spinte opposte: gli europarlamentari volevano ottenere regole più restrittive, i governi del Consiglio chiedevano maggiori margini di manovra, sia nel campo della sicurezza che nell’ambito propriamente industriale ed economico. L’accordo provvisorio chiarisce che il nuovo regolamento non si applica ad aree al di fuori del campo di applicazione del diritto dell’Unione.

    Il semaforo verde è arrivato dopo che sono stati risolti gli ultimi due problemi, ovvero le normative sull’uso delle tecnologie di identificazione biometrica e i limiti ai sistemi di intelligenza artificiale come ChatGPT. L’identificazione biometrica sarà consentita solo in circostanze specifiche, mentre i “foundation models”, le potenti infrastrutture alla base dei prodotti di intelligenza artificiale generativa, dovranno rispettare criteri di trasparenza per essere introdotti sul mercato. Verranno imposte regole a tutti per garantire la qualità dei dati utilizzati nello sviluppo degli algoritmi e per verificare che non violino la legislazione sul copyright. Gli sviluppatori dovranno inoltre garantire che i suoni, le immagini e i testi prodotti siano chiaramente identificati come artificiali attraverso la cosiddetta filigrana digitale (watermarking), la stringa che avverte sui contenuti creati dall’AI. L’immagine del Papa con il piumino, per citare una celebre immagine fake, potrà arrivare sui nostri device solo con la barra che ci avvisa che si tratta di un’invenzione dell’AI.

    Il riconoscimento facciale attraverso telecamere biometriche sarà dunque consentito solo in tre casi: evidente minaccia di terrorismo, ricerca di vittime, indagini per omicidio e stupro. L’identificazione biometrica post-remoto, come spiegato in una nota del Parlamento europeo, sarà utilizzata esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. I sistemi di identificazione biometrica in tempo reale, come indicato nella nota, devono conformarsi a condizioni rigorose e il loro utilizzo deve essere limitato nel tempo e nello spazio per: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di minacce terroristiche specifiche e attuali, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro). La lista delle proibizioni include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l’intelligenza artificiale utilizzata per sfruttare le vulnerabilità delle persone.
    Alle società big tech in particolare sarà richiesta una certificazione sugli algoritmi che dovranno essere ripuliti dai pregiudizi e sui dati che dovranno avere una conformità ambientale e di sicurezza.

    E, ancora, nell’accordo viene garantita una migliore protezione dei diritti attraverso l’obbligo per chi impiega sistemi di intelligenza artificiale ad alto rischio di condurre una valutazione d’impatto. In questa categoria rientrano anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e di ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che influenzano i loro diritti.

    Un punto chiave riguarda i limiti imposti ai sistemi di intelligenza artificiale generale e, in particolare, a quelli ad alto impatto con rischio sistemico, per i quali sono previsti obblighi più rigorosi, dalla valutazione del modello alla valutazione e mitigazione dei rischi sistemici, fino alla protezione della sicurezza informatica.
    A questo proposito è stato istituito un AI Office a Bruxelles, con un proprio budget e con il compito di raccordo e supervisione. Ma anche i singoli Paesi sono chiamati a dar vita a un’Authority indipendente oppure ad affidare la vigilanza sull’artificial intelligence (AI) a un’autorità già esistente.

    Il testo include anche misure a sostegno dell’innovazione e delle PMI e un regime di sanzioni, con multe che variano da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

    Il voto finale sul testo di legge è atteso a inizio febbraio 2024. Da quel momento sono previste le fasi sperimentali che prevedono anche l’adesione volontaria delle imprese alle nuove regole che entreranno in vigore in tempi scaglionati per essere completamente a regime nel 2025.

    Il commissario europeo al Mercato Interno, Thierry Breton, ha commentato: “Storico! L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’IA. L’AI Act è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”, ha scritto Breton in un post su X, aggiungendo: “Il meglio deve ancora venire!”. “Accogliamo positivamente i progressi compiuti in molti campi, ma restiamo preoccupati da un approccio a due livelli che provocherà significativa incertezza giuridica. Siamo inoltre delusi dal divieto di categorizzazione biometrica, che ostacolerà molti usi commerciali dell’intelligenza artificiale, vantaggiosi e a basso rischio”, ha ribattuto Marco Leto Barone, dell’Information Technology Industry Council.

    Dubbi sono però emersi anche dal versante opposto. Critica è stata la European Consumers Organization: “I sistemi di intelligenza artificiale in grado di identificare e analizzare i sentimenti dei consumatori saranno ancora consentiti, il che è molto preoccupante visto quanto sono invasivi e imprecisi. Inoltre, i modelli alla base di sistemi come Chat-GPT, che possono essere integrati in un’ampia gamma di servizi, non saranno sufficientemente regolamentati”.

  • Arriva la concorrenza anche nell’intelligenza artificiale: Grok sfida ChatGPT

    L’intelligenza artificiale ormai non è un mondo, ma un enorme ring, in cui i chatbot sembrano dover competere ogni giorno per dimostrare di essere il migliore sul mercato. Tutto ciò non fa altro che stimolare una competizione serrata, quasi estrema, a cui sempre più aziende e tycoon vogliono parteciparvi. Come il patron di Tesla, Elon Musk, che ha voluto sfidare apertamente uno dei più importanti chatbot ad oggi disponibili, ChatGPT. O meglio, sarà Grok a sfidarlo. Primo prodotto della società xAI, al momento è in fase di test, ma lo stesso Musk sostiene che sia già ampiamente superiore alla recente versione 3.5 di GPT.

    In effetti Grok sembra davvero promettente, e questo dà prova delle grandi potenzialità delle intelligenze artificiali. Forse troppo grandi per l’umanità. Infatti di recente si è tenuto un summit nel Regno Unito dedicato alle AI, e lo stesso Musk, assieme ad altri specialisti del settore, ha voluto precisare quello che pensava sul loro futuro, e sui rischi che possono creare per la nostra società.

    Grok ha solo due mesi di sviluppo, come precisa l’annuncio di xAI, la nuova società di Elon Musk. Ma per il patron di Tesla sembra che Grok abbia tutte le carte per rivaleggiare contro chatbot ormai affermati nel panorama AI internazionale, come ChatGPT. Non sarà una lotta facile, anche perché GPT è praticamente un’intelligenza artificiale doppia: oltre alla versione base 3.5, disponibile per tutti gli utenti, c’è anche la versione 4, a pagamento ma decisamente più potente ed efficiente della versione base.

    Lo stesso Grok dovrebbe infatti uscire come versione a pagamento, per gli utenti di X. Bisognerà infatti abbonarsi al servizio Premium Plus, per un costo di circa 16 dollari al mese. Al momento però, come riporta Bloomberg, dovrà completare una serie di test prima dell’effettiva commercializzazione di Grok. E il tempo stringe, soprattutto con aziende rivali come Meta e Google che stanno letteralmente correndo per sviluppare soluzioni AI sempre più sofisticate ed eccellenti. A titolo d’esempio, la sola Meta ha annunciato il lancio di quasi 30 chatbot IA sulle sue app Instagram, Facebook e WhatsApp, con tanto di assistente virtuale per rispondere alle domande degli utenti. E così anche Microsoft, che renderà disponibile a breve l’assistente AI Copilot nell’ultima versione di Windows 11.

    Non a caso, gli ingegneri che lavorano per xAI provengono da Microsoft e Google DeepMind, la sezione di Google dedicata alle intelligenze artificiali. Per Musk diventa quasi vitale l’introduzione di queste tecnologie sul suo social, anche per via della necessità di dover aumentare le vendite pubblicitarie su X. Come precisa Bloomberg, dal suo acquisto di Twitter nel 2022 ha perso non poche entrate, dopo che molti inserzionisti hanno ridotto le spese per le preoccupazioni sul suo allentamento della moderazione dei contenuti.

    Per quanto si tratti ancora di un prototipo, Musk riserva molte speranze su Grok, e sulle sue potenzialità rispetto a ChatGPT 3.5. Anche se sviluppato in pochissimi mesi, il patron di Tesla sostiene che il prototipo sia già superiore a ChatGPT 3.5 in diversi benchmark. Se ad esempio la versione 3.5 è ferma a settembre 2021 in fatto di dati (solo la versione 4 è aggiornata), non si può dire lo stesso per Grok. E questo perché “[…] è stato sviluppato con i dati di X, ex Twitter, ed è quindi meglio informato sugli ultimi sviluppi rispetto ai bot alternativi con set di dati statici“, come riporta il sito web dell’azienda.

    Oltre a questo, Grok si presenta come versione ironica di GPT. È infatti progettato per rispondere “[…] con un po’ di spirito e con una vena ribelle”, come riporta Bloomberg. O addirittura in maniera aggressiva. Al Financial Times Reid Blackman, consulente etico dell’IA presso Virtue Consultants, parla di un Musk che vuole rendere questo chatbot “[…] meno politicamente corretto, ovvero più scortese e inappropriato“. Ma anche più potente del rivale LLaMA 2, il modello AI di Meta, oltre che di Inflection, la start-up AI guidata dall’ex co-fondatore di DeepMind Mustafa Suleyman.

    A livello di capacità logico-matematiche, Grok è simile al GPT-3.5, ma non alla versione 4. La differenza sostanziale tra i due modelli rimane sempre nei dati disponibili. Per quanto più aggiornati, la base di Grok è più contenuta rispetto alla quantità di dati di addestramento disponibile per GPT 4, senza contate anche le

    risorse di calcolo. Malgrado tutto, il fatto di riuscire a competere contro GPT 3.5 con soli 2 mesi di sviluppo fa ben sperare nell’evoluzione di questa tecnologia. Meno però nel suo controllo.

    È ormai evidente che l’intelligenza artificiale diventerà il nuovo Internet, nonché uno dei pilastri fondamentali della nostra civiltà. Ma il fatto che stia diventando così potente in così poco tempo fa riflettere, se non preoccupare. Lo stesso Musk, sebbene titolare di ben due startup AI (xAI e OpenAI, quest’ultima fino al 2018), nutre comunque delle perplessità sulla governabilità di questa tecnologia.

    Lui stesso è stato tra i firmatari di una petizione che chiedeva una pausa nell’avanzamento dei modelli di intelligenza artificiale al fine di consentire lo sviluppo di protocolli di sicurezza condivisi. Una petizione che potrebbe aver contribuito al varo di un ordine esecutivo da parte del presidente Joe Biden per stabilire degli standard per la protezione della sicurezza e della privacy.

    Lo stesso Reid Blackman è del timore che Grok “[…] presenti rischi maggiori di quello che noi ho visto finora”. Da tempo molti esperti avvisano del rischio potenziale dei chatbot di mostrare pregiudizi o diffondere materiale dannoso o informazioni false. E anche all’AI Safety Summit del Regno Unito la scorsa settimana leader tecnologici e accademici hanno discusso i rischi della tecnologia. Tra di questi, si segnala la voce del senatore Mike Gallagher. A capo di una commissione sulla Cina, teme che l’AI possa diventare uno strumento o un’arma per perfezionare sistemi di sorveglianza totalitari, come quello in Cina.

  • L’intelligenza artificiale prosciugherà le risorse di acqua

    Un’operazione elementare come l’invio di una e-mail comporta la produzione di anidride carbonica in misura variabile tra i 4 e i 50 grammi, a seconda della presenza di allegati, e l’arrivo dell’intelligenza artificiale lascia intravedere un forte incremento dell’inquinamento dovuto ad emissioni di apparecchiature tecnologiche.

    Qualcuno ha già pronosticato che nel 2040 le emissioni prodotte dall’utilizzo di tecnologie  saranno il 14% del totale, però intanto si registra che nel solo mese di gennaio del 2023 OpenAI, la società di ChatGpt, ha utilizzato un’energia equivalente al consumo di un intero anno di oltre 170.000 famiglie danesi, mentre l’addestramento del Gpt3, il modello su cui si basa ChatGPT, avrebbe generato circa 500 tonnellate di carbonio (l’equivalente di un viaggio in auto fino alla luna e ritorno) e consumato 700.000 litri di acqua dolce, un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla.

    Lo scambio di conversazioni di un utente medio con ChatGpt equivale al consumo di una bottiglia di acqua e i ricercatori si aspettano che i consumi idrici aumenteranno ulteriormente con i modelli più recenti, come Gpt-4, che si basano su un insieme e una elaborazione più ampia di dati rispetto ai software predecessori.
    Nel frattempo i data center di Google negli Stati Uniti hanno bevuto 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile.

  • L’intelligenza artificiale non può tutto, ci sono calcoli ‘impossibili’

    Ha imparato ad analizzare dati medici e a leggere immagini astronomiche, vince con disinvoltura a poker e sa pilotare droni, ma guai ad attribuirle abilità superiori a quelle reali: a mettere in guarda dal fatto che l’intelligenza artificiale possa diventare una sorta di ‘superpotere’ è Luca Trevisan, professore ordinario di Informatica all’Università Bocconi e direttore del master in Intelligenza artificiale.

    “Stiamo assistendo a un progresso continuo nello sviluppo di algoritmi che fanno sempre più cose e, in prospettiva, nei prossimi anni si vedano sempre più applicazioni, a partire dalla medicina con lo sviluppo di nuove terapie, diagnosi più precoci e cure personalizzate, ma questo progresso può darci l’impressione che non ci siano limiti a ciò che è possibile fare con gli algoritmi”, ha detto all’Ansa Trevisan, che a inizio settembre a Milano ha tenuto la lettura inaugurale della Cattedra Fondazione Invernizzi in Computer Science, della quale è titolare. Hanno partecipato all’incontro Salil Vadhan, dell’Univesità di Harvard, il presidente della Fondazione ‘Romeo ed Enrica Invernizzi’. Giuseppe Bertoni, Francesco Billari e Andrea Sironi, rispettivamente rettore e presidente dell’Università Bocconi.

    “In realtà – ha rilevato Trevisan – ci sono cose che gli algoritmi non potranno fare, calcoli per i quali non si potranno sviluppare algoritmi efficienti”. Questo vale, per esempio, per le operazioni di home banking o le transazioni finanziarie, la cui sicurezza “passa attraverso app basate su calcoli che, se fosse possibile fare efficientemente, potrebbero lasciare campo libero a operazioni non autorizzate. Per esempio, potrebbe essere possibile infiltrarsi in un sistema sicuro, impersonare l’utente di un servizio di online banking che richieda di identificarsi. È vero che esistono problemi di calcolo che potrebbero permettere questo, ma non esistono algoritmi che riescano a permetterli in un tempo ragionevole: ci vorrebbero miliardi di anni”, ha osservato il ricercatore, rientrato in Italia nel 2019, dopo molti anni trascorsi negli Stati Uniti, fra le università Columbia di New York e quelle californiane di Berkeley e Stanford. “È una questione di complessità: ci sono calcoli – ha aggiunto – che richiederebbero miliardi di operazioni, per le quali non c’è nessuna scorciatoia” e che nemmeno un sistema di Intelligenza artificiale potrebbe eseguire. “Per certi servizi – ha detto ancora – le scorciatoie non esistono: la complessità è tale che non è possibile aggirare la sicurezza in nessun tempo ragionevole. Sarebbero necessari miliardi di anni”.

    Secondo l’esperto è possibile che “in futuro esisteranno algoritmi con un’intelligenza simile alla nostra, ma più veloci. Non c’è ragione di dubitarne, ma anche un sistema di IA super-intelligente non potrà essere in grado di eseguire calcoli tali da violare la sicurezza”. Se normalmente si usa dire che se qualcosa è teoricamente possibile allora si può fare, “la matematica fa eccezione: fin dai tempi di Pitagora ci sono risultati che mostrano che alcune cose sono impossibili perché porterebbero a paradossi e contraddizioni. Per esempio – ha detto ancora l’esperto – sappiamo che il moto perpetuo è impossibile perché sono le leggi della fisica a descrivere quello che si può fare con una macchina”. In sostanza, «è probabile che futuri sistemi di intelligenza artificiale con capacità intellettive superiori alla nostra potranno sviluppare algoritmi più avanzati e portare a nuove scoperte, ma non potranno mai dimostrare che 2+2 fa 5″.

  • Banche in allerta contro le truffe dell’intelligenza artificiale

    L’intelligenza artificiale è in grado di imitare la voce delle persone, attraverso voice deepfake realizzati grazie a software che utilizzano algoritmi di deep learning. Ed è giù scattato l’allarme.

    Wall Street Italia riferisce che un esperto di Pindrop, azienda che monitora che esamina i sistemi automatici di verifica vocale per otto delle maggiori banche americane, ha dichiarato al New York Times di aver riscontrato quest’anno un’impennata nella sua diffusione e nella sofisticazione dei tentativi di frode vocale dei truffatori. Imitazioni di voci reali hanno comunicato intenzioni che il titolare della voce non ha mai avuto.

    Il ceo il ceo Vijay Balasubramaniyan ha spiegato: “Tutti i call center ricevono chiamate dai truffatori, in genere da 1.000 a 10.000 all’anno. È normale che ogni settimana arrivino 20 chiamate da parte di truffatori. Finora, le voci false create da programmi informatici rappresentano solo una manciata di queste chiamate. Queste truffe hanno iniziato a verificarsi solo nell’ultimo anno”.

    La maggior parte degli attacchi con voci false che Pindrop ha riscontrato sono avvenuti nei call center dei servizi di carte di credito. Un altro grande fornitore di autenticazione vocale, Nuance, ha riscontrato un attacco deepfake a un suo cliente attivo nei servizi finanziari alla fine del 2022.

    Gli attacchi più rudimentali utilizzano la tecnologia type-to-text, per cui il truffatore digita le parole in un programma, che poi le legge con un parlato sintetico.

    Ma vi sono anche sistemi di intelligenza artificiale generativa, come VALL-E di Microsoft, in grado di creare una finta voce che dice tutto ciò che l’utente desidera, utilizzando solo 3 secondi di audio campionato.

    Tutti gli attacchi sono accomunati dalla rilevazione delle informazioni personali dei clienti delle banche. Secondo la Federal Trade Commission, tra il 2020 e il 2022 i dati personali di oltre 300 milioni di persone sono finiti nelle mani degli hacker, causando perdite per 8,8 miliardi di dollari. Non sono i ladri a usare direttamente le informazioni, ma le mettono in vendita. Sono poi altri ad associarle a persone reali.

  • Tra Star Wars e X-Men, la guerra futura per la Nato

    L’umanità è sull’orlo di un’ennesima rivoluzione industriale, con tecnologie oggi impensabili, quasi fantascientifiche, presto (forse) a portata di mano: capire che effetti potranno avere sull’arte della guerra, da sempre permeabile alle sperimentazioni pur di ottenere vantaggi sul nemico, è dunque fondamentale. La Nato ci prova con uno studio poderoso, che analizza da qui al 2043 le possibili applicazioni pratiche più dirompenti del panorama scientifico. Con scenari inquietanti. Dai ‘super-soldati’ interconnessi tra loro “grazie al 6G” agli “sciami di microrobot killer”, guidati da comandanti assistiti dall’intelligenza artificiale. “Comprendere se queste tecnologie emergenti (o Edt) rappresentino un problema o un’opportunità, come si manifesteranno e cosa significheranno per l’Alleanza, è un ottimo primo passo e contribuirà a garantire che la Nato rimanga tecnologicamente preparata e operativamente rilevante”, si legge nel report. L’attenzione è rivolta a dieci aree precise: AI, robotica e sistemi autonomi, biotecnologia e bioingegneria, big data, elettronica ed elettromagnetica, energia e propulsione, ipersonica, nuovi materiali e manifattura d’avanguardia, tecnologie quantistiche e tecnologie spaziali. Nonché alle interazioni fra loro, poiché proprio la contaminazione genererà le soluzioni più spiazzanti. Lo studio prova allora a immaginare quali possano essere le conseguenze per l’Alleanza (la sezione Blue) ma anche per il nemico (è la casella Red, in sostanza Russia e Cina).

    Il lettore viene aiutato da ipotesi concrete, settore per settore. In futuro la AI potrà dunque “creare o individuare» notizie false, da distribuire sui social, oppure “falsi video (deep fake)” per “distruggere la fiducia del nemico”. Un altro scenario, ricorrente poiché multi-dominio, è quello dei “collegamenti neurologici diretti integrati per consentire l’interazione, la collaborazione e la simbiosi naturale tra uomo e l’intelligenza artificiale”. Con tutte le implicazioni etiche annesse e connesse. La Nato sul punto s’interroga con una nota di reale preoccupazione: “Vi saranno implicazioni sul campo di battaglia se il nemico dovesse avere un vantaggio significativo in termini di prestazioni e se non fosse vincolato dalle stesse considerazioni etiche”. La bioingegneria è proprio il campo dove si prevedono le conseguenze più distopiche, dato che “le tecnologie di potenziamento umano dovrebbero essere disponibili nei prossimi 20 anni e cambieranno la nozione stessa di soldato, marinaio o aviatore”.

    Ecco allora la possibilità di “potenziare i sensi umani e le capacità cognitive a livelli sovrumani per aumentare la velocità di apprendimento e comprensione, riducendo i tempi di reazione” oppure “l’autocura” di ferite, lesioni o malattie «utilizzando soluzioni di ristrutturazione del Dna o di biologia sintetica”. Insomma, quasi degli X-Men. Gli avanzamenti nei nuovi materiali porteranno poi ad “armature smart”, leggere come abiti ma “resistenti ai proiettili”, oppure ai “kit da uomo ragno”, che permetteranno alle forze speciali di arrampicarsi su pareti vetrate o comunque verticali come tanti Peter Parker (ma anche, più banalmente al carro armato elettrico o tutt’al più ibrido).

    L’ipersonica – e qui la Nato riconosce alla Russia di essere avanti – potrebbe portare invece allo sviluppo di missili poderosi, in grado di distruggere “un’intera portaerei con la sola forza cinetica, impedendo il loro avvicinamento ai teatri di guerra”. Oppure lo sviluppo di “raggi di energia difensiva, tipo laser”. Lo spazio, ovviamente, sarà pure territorio di conquista, con “satelliti alla Star Wars” capaci di “colpire in modo chirurgico obiettivi di 10 centimetri di diametro sulla Terra” (ma anche, più subdolamente, usare “la spazzatura spaziale come arma” e colpire il nemico senza lasciare tracce dirette). Fantasie? Chissà. Intanto il dipartimento scientifico della Nato spiega che, per stilare il rapporto, ha appositamente creato un programma a base di AI per “collezionare e processare le informazioni” e che sarà “presto potenziato”. Insomma, senza un po’ di futuro non c’è più futuro.

Pulsante per tornare all'inizio