Intelligenza artificiale

  • Musk avvia una raccolta fondi per sviluppare l’intelligenza artificiale

    Lo scorso luglio Elon Musk ha conquistato anche il terreno dell’intelligenza artificiale con il lancio della sua società, xAI, il cui debutto ufficiale, riservato a un gruppo selezionato, è stato annunciato dallo stesso Musk a inizio novembre tramite un post su X.

    La startup xAI, salita sul ring dell’intelligenza artificiale con il chatbot Grok tra aziende come OpenAI, Google e Anthropic, ora entra nel vivo della competizione con la prima ricerca di finanziamenti da investitori azionari. Nel dettaglio, il patron di Tesla sta cercando di raccogliere 1 miliardo di dollari.

    Musk ha già raccolto quasi 135 milioni di dollari, secondo un documento depositato martedì presso la Sec, che non include però i nomi degli investitori. La creazione di xAI da parte di Musk risale però all’inizio dell’anno, con l’obiettivo proprio di competere con altre aziende di IA generativa, tra cui OpenAI di cui Musk è stato co-fondatore. Il primo prodotto che ha inaugurato l’azienda, il chatbot chiamato Grok, viene costantemente addestrato sui dati del social network X di cui Musk è anche proprietario. Secondo il sito web dell’azienda, sarebbe “progettato per rispondere alle domande con un po’ di arguzia e con una vena ribelle”.

    A novembre, Musk aveva dichiarato che gli investitori azionari di X (precedentemente chiamata Twitter) possiedono il 25% di xAI. Aveva anche annunciato che gli utenti del social network che si iscrivono a Premium+, un abbonamento mensile a partire da 16 dollari negli Stati Uniti, hanno accesso a Grok. Musk non si è poi risparmiato dalle critiche verso i competitor, rivolgendosi apertamente ad OpenAI e definendola “effettivamente controllata da Microsoft“, dopo aver lasciato il consiglio di amministrazione nel 2018.

    Nonostante il suo coinvolgimento nell’intelligenza artificiale, in passato Musk ha sempre manifestato profonde riserve sulla tecnologia. È stato uno dei ricercatori e leader del settore che hanno chiesto la sospensione dell’addestramento di potenti modelli di IA a marzo, esprimendo preoccupazione per il potenziale di “distruzione della civiltà”. Tanto che, in un evento su Twitter Spaces dell’estate scorsa, Musk aveva esposto il suo piano per costruire una intelligenza artificiale più sicura. Di recente, ha inoltre espresso di voler conoscere il motivo dell’estromissione e reintegrazione dell’amministratore delegato di OpenAI, Sam Altman, dichiarando il suo interesse se ci fosse stata qualche rivelazione pericolosa sull’IA da parte del consiglio di amministrazione.

    Piuttosto che programmare esplicitamente la moralità nella sua intelligenza artificiale, xAI cercherà di creare una IA “massimamente curiosa”, ha detto.

  • Arrivano le norme europee per disciplinare l’intelligenza artificiale

    I grandi provider di intelligenza artificiale come Google, Meta o Microsoft dovranno garantire e certificare qualità e trasparenza di algoritmi e dati, altrimenti non potranno operare nella Ue. L’Unione europea ha infatti adottato l’AI Act, la prima legge al mondo che prova a indirizzare lo sviluppo dell’intelligenza artificiale regolamentandone l’uso all’interno della stessa nell’Ue attraverso poteri di applicazione a livello europeo oltre ad estendere obblighi e divieti.

    Il testo sul quale la Commissione di Ursula von der Leyen ha ottenuto il sì di Parlamento e Consiglio nella notte tra l’8 e il 9 dicembre, dopo un intenso negoziato durato 36 ore ha dovuto fare i conti con due spinte opposte: gli europarlamentari volevano ottenere regole più restrittive, i governi del Consiglio chiedevano maggiori margini di manovra, sia nel campo della sicurezza che nell’ambito propriamente industriale ed economico. L’accordo provvisorio chiarisce che il nuovo regolamento non si applica ad aree al di fuori del campo di applicazione del diritto dell’Unione.

    Il semaforo verde è arrivato dopo che sono stati risolti gli ultimi due problemi, ovvero le normative sull’uso delle tecnologie di identificazione biometrica e i limiti ai sistemi di intelligenza artificiale come ChatGPT. L’identificazione biometrica sarà consentita solo in circostanze specifiche, mentre i “foundation models”, le potenti infrastrutture alla base dei prodotti di intelligenza artificiale generativa, dovranno rispettare criteri di trasparenza per essere introdotti sul mercato. Verranno imposte regole a tutti per garantire la qualità dei dati utilizzati nello sviluppo degli algoritmi e per verificare che non violino la legislazione sul copyright. Gli sviluppatori dovranno inoltre garantire che i suoni, le immagini e i testi prodotti siano chiaramente identificati come artificiali attraverso la cosiddetta filigrana digitale (watermarking), la stringa che avverte sui contenuti creati dall’AI. L’immagine del Papa con il piumino, per citare una celebre immagine fake, potrà arrivare sui nostri device solo con la barra che ci avvisa che si tratta di un’invenzione dell’AI.

    Il riconoscimento facciale attraverso telecamere biometriche sarà dunque consentito solo in tre casi: evidente minaccia di terrorismo, ricerca di vittime, indagini per omicidio e stupro. L’identificazione biometrica post-remoto, come spiegato in una nota del Parlamento europeo, sarà utilizzata esclusivamente per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. I sistemi di identificazione biometrica in tempo reale, come indicato nella nota, devono conformarsi a condizioni rigorose e il loro utilizzo deve essere limitato nel tempo e nello spazio per: ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale), prevenzione di minacce terroristiche specifiche e attuali, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (tra cui terrorismo, traffico di esseri umani, omicidio, stupro). La lista delle proibizioni include i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole; il social scoring; le tecniche manipolative; l’intelligenza artificiale utilizzata per sfruttare le vulnerabilità delle persone.
    Alle società big tech in particolare sarà richiesta una certificazione sugli algoritmi che dovranno essere ripuliti dai pregiudizi e sui dati che dovranno avere una conformità ambientale e di sicurezza.

    E, ancora, nell’accordo viene garantita una migliore protezione dei diritti attraverso l’obbligo per chi impiega sistemi di intelligenza artificiale ad alto rischio di condurre una valutazione d’impatto. In questa categoria rientrano anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e di ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che influenzano i loro diritti.

    Un punto chiave riguarda i limiti imposti ai sistemi di intelligenza artificiale generale e, in particolare, a quelli ad alto impatto con rischio sistemico, per i quali sono previsti obblighi più rigorosi, dalla valutazione del modello alla valutazione e mitigazione dei rischi sistemici, fino alla protezione della sicurezza informatica.
    A questo proposito è stato istituito un AI Office a Bruxelles, con un proprio budget e con il compito di raccordo e supervisione. Ma anche i singoli Paesi sono chiamati a dar vita a un’Authority indipendente oppure ad affidare la vigilanza sull’artificial intelligence (AI) a un’autorità già esistente.

    Il testo include anche misure a sostegno dell’innovazione e delle PMI e un regime di sanzioni, con multe che variano da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

    Il voto finale sul testo di legge è atteso a inizio febbraio 2024. Da quel momento sono previste le fasi sperimentali che prevedono anche l’adesione volontaria delle imprese alle nuove regole che entreranno in vigore in tempi scaglionati per essere completamente a regime nel 2025.

    Il commissario europeo al Mercato Interno, Thierry Breton, ha commentato: “Storico! L’UE diventa il primo continente a stabilire regole chiare per l’uso dell’IA. L’AI Act è molto più di un regolamento: è un trampolino di lancio per startup e ricercatori dell’UE per guidare la corsa globale all’intelligenza artificiale”, ha scritto Breton in un post su X, aggiungendo: “Il meglio deve ancora venire!”. “Accogliamo positivamente i progressi compiuti in molti campi, ma restiamo preoccupati da un approccio a due livelli che provocherà significativa incertezza giuridica. Siamo inoltre delusi dal divieto di categorizzazione biometrica, che ostacolerà molti usi commerciali dell’intelligenza artificiale, vantaggiosi e a basso rischio”, ha ribattuto Marco Leto Barone, dell’Information Technology Industry Council.

    Dubbi sono però emersi anche dal versante opposto. Critica è stata la European Consumers Organization: “I sistemi di intelligenza artificiale in grado di identificare e analizzare i sentimenti dei consumatori saranno ancora consentiti, il che è molto preoccupante visto quanto sono invasivi e imprecisi. Inoltre, i modelli alla base di sistemi come Chat-GPT, che possono essere integrati in un’ampia gamma di servizi, non saranno sufficientemente regolamentati”.

  • Arriva la concorrenza anche nell’intelligenza artificiale: Grok sfida ChatGPT

    L’intelligenza artificiale ormai non è un mondo, ma un enorme ring, in cui i chatbot sembrano dover competere ogni giorno per dimostrare di essere il migliore sul mercato. Tutto ciò non fa altro che stimolare una competizione serrata, quasi estrema, a cui sempre più aziende e tycoon vogliono parteciparvi. Come il patron di Tesla, Elon Musk, che ha voluto sfidare apertamente uno dei più importanti chatbot ad oggi disponibili, ChatGPT. O meglio, sarà Grok a sfidarlo. Primo prodotto della società xAI, al momento è in fase di test, ma lo stesso Musk sostiene che sia già ampiamente superiore alla recente versione 3.5 di GPT.

    In effetti Grok sembra davvero promettente, e questo dà prova delle grandi potenzialità delle intelligenze artificiali. Forse troppo grandi per l’umanità. Infatti di recente si è tenuto un summit nel Regno Unito dedicato alle AI, e lo stesso Musk, assieme ad altri specialisti del settore, ha voluto precisare quello che pensava sul loro futuro, e sui rischi che possono creare per la nostra società.

    Grok ha solo due mesi di sviluppo, come precisa l’annuncio di xAI, la nuova società di Elon Musk. Ma per il patron di Tesla sembra che Grok abbia tutte le carte per rivaleggiare contro chatbot ormai affermati nel panorama AI internazionale, come ChatGPT. Non sarà una lotta facile, anche perché GPT è praticamente un’intelligenza artificiale doppia: oltre alla versione base 3.5, disponibile per tutti gli utenti, c’è anche la versione 4, a pagamento ma decisamente più potente ed efficiente della versione base.

    Lo stesso Grok dovrebbe infatti uscire come versione a pagamento, per gli utenti di X. Bisognerà infatti abbonarsi al servizio Premium Plus, per un costo di circa 16 dollari al mese. Al momento però, come riporta Bloomberg, dovrà completare una serie di test prima dell’effettiva commercializzazione di Grok. E il tempo stringe, soprattutto con aziende rivali come Meta e Google che stanno letteralmente correndo per sviluppare soluzioni AI sempre più sofisticate ed eccellenti. A titolo d’esempio, la sola Meta ha annunciato il lancio di quasi 30 chatbot IA sulle sue app Instagram, Facebook e WhatsApp, con tanto di assistente virtuale per rispondere alle domande degli utenti. E così anche Microsoft, che renderà disponibile a breve l’assistente AI Copilot nell’ultima versione di Windows 11.

    Non a caso, gli ingegneri che lavorano per xAI provengono da Microsoft e Google DeepMind, la sezione di Google dedicata alle intelligenze artificiali. Per Musk diventa quasi vitale l’introduzione di queste tecnologie sul suo social, anche per via della necessità di dover aumentare le vendite pubblicitarie su X. Come precisa Bloomberg, dal suo acquisto di Twitter nel 2022 ha perso non poche entrate, dopo che molti inserzionisti hanno ridotto le spese per le preoccupazioni sul suo allentamento della moderazione dei contenuti.

    Per quanto si tratti ancora di un prototipo, Musk riserva molte speranze su Grok, e sulle sue potenzialità rispetto a ChatGPT 3.5. Anche se sviluppato in pochissimi mesi, il patron di Tesla sostiene che il prototipo sia già superiore a ChatGPT 3.5 in diversi benchmark. Se ad esempio la versione 3.5 è ferma a settembre 2021 in fatto di dati (solo la versione 4 è aggiornata), non si può dire lo stesso per Grok. E questo perché “[…] è stato sviluppato con i dati di X, ex Twitter, ed è quindi meglio informato sugli ultimi sviluppi rispetto ai bot alternativi con set di dati statici“, come riporta il sito web dell’azienda.

    Oltre a questo, Grok si presenta come versione ironica di GPT. È infatti progettato per rispondere “[…] con un po’ di spirito e con una vena ribelle”, come riporta Bloomberg. O addirittura in maniera aggressiva. Al Financial Times Reid Blackman, consulente etico dell’IA presso Virtue Consultants, parla di un Musk che vuole rendere questo chatbot “[…] meno politicamente corretto, ovvero più scortese e inappropriato“. Ma anche più potente del rivale LLaMA 2, il modello AI di Meta, oltre che di Inflection, la start-up AI guidata dall’ex co-fondatore di DeepMind Mustafa Suleyman.

    A livello di capacità logico-matematiche, Grok è simile al GPT-3.5, ma non alla versione 4. La differenza sostanziale tra i due modelli rimane sempre nei dati disponibili. Per quanto più aggiornati, la base di Grok è più contenuta rispetto alla quantità di dati di addestramento disponibile per GPT 4, senza contate anche le

    risorse di calcolo. Malgrado tutto, il fatto di riuscire a competere contro GPT 3.5 con soli 2 mesi di sviluppo fa ben sperare nell’evoluzione di questa tecnologia. Meno però nel suo controllo.

    È ormai evidente che l’intelligenza artificiale diventerà il nuovo Internet, nonché uno dei pilastri fondamentali della nostra civiltà. Ma il fatto che stia diventando così potente in così poco tempo fa riflettere, se non preoccupare. Lo stesso Musk, sebbene titolare di ben due startup AI (xAI e OpenAI, quest’ultima fino al 2018), nutre comunque delle perplessità sulla governabilità di questa tecnologia.

    Lui stesso è stato tra i firmatari di una petizione che chiedeva una pausa nell’avanzamento dei modelli di intelligenza artificiale al fine di consentire lo sviluppo di protocolli di sicurezza condivisi. Una petizione che potrebbe aver contribuito al varo di un ordine esecutivo da parte del presidente Joe Biden per stabilire degli standard per la protezione della sicurezza e della privacy.

    Lo stesso Reid Blackman è del timore che Grok “[…] presenti rischi maggiori di quello che noi ho visto finora”. Da tempo molti esperti avvisano del rischio potenziale dei chatbot di mostrare pregiudizi o diffondere materiale dannoso o informazioni false. E anche all’AI Safety Summit del Regno Unito la scorsa settimana leader tecnologici e accademici hanno discusso i rischi della tecnologia. Tra di questi, si segnala la voce del senatore Mike Gallagher. A capo di una commissione sulla Cina, teme che l’AI possa diventare uno strumento o un’arma per perfezionare sistemi di sorveglianza totalitari, come quello in Cina.

  • L’intelligenza artificiale prosciugherà le risorse di acqua

    Un’operazione elementare come l’invio di una e-mail comporta la produzione di anidride carbonica in misura variabile tra i 4 e i 50 grammi, a seconda della presenza di allegati, e l’arrivo dell’intelligenza artificiale lascia intravedere un forte incremento dell’inquinamento dovuto ad emissioni di apparecchiature tecnologiche.

    Qualcuno ha già pronosticato che nel 2040 le emissioni prodotte dall’utilizzo di tecnologie  saranno il 14% del totale, però intanto si registra che nel solo mese di gennaio del 2023 OpenAI, la società di ChatGpt, ha utilizzato un’energia equivalente al consumo di un intero anno di oltre 170.000 famiglie danesi, mentre l’addestramento del Gpt3, il modello su cui si basa ChatGPT, avrebbe generato circa 500 tonnellate di carbonio (l’equivalente di un viaggio in auto fino alla luna e ritorno) e consumato 700.000 litri di acqua dolce, un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla.

    Lo scambio di conversazioni di un utente medio con ChatGpt equivale al consumo di una bottiglia di acqua e i ricercatori si aspettano che i consumi idrici aumenteranno ulteriormente con i modelli più recenti, come Gpt-4, che si basano su un insieme e una elaborazione più ampia di dati rispetto ai software predecessori.
    Nel frattempo i data center di Google negli Stati Uniti hanno bevuto 12,7 miliardi di litri di acqua dolce nel 2021, di cui circa il 90% potabile.

  • L’intelligenza artificiale non può tutto, ci sono calcoli ‘impossibili’

    Ha imparato ad analizzare dati medici e a leggere immagini astronomiche, vince con disinvoltura a poker e sa pilotare droni, ma guai ad attribuirle abilità superiori a quelle reali: a mettere in guarda dal fatto che l’intelligenza artificiale possa diventare una sorta di ‘superpotere’ è Luca Trevisan, professore ordinario di Informatica all’Università Bocconi e direttore del master in Intelligenza artificiale.

    “Stiamo assistendo a un progresso continuo nello sviluppo di algoritmi che fanno sempre più cose e, in prospettiva, nei prossimi anni si vedano sempre più applicazioni, a partire dalla medicina con lo sviluppo di nuove terapie, diagnosi più precoci e cure personalizzate, ma questo progresso può darci l’impressione che non ci siano limiti a ciò che è possibile fare con gli algoritmi”, ha detto all’Ansa Trevisan, che a inizio settembre a Milano ha tenuto la lettura inaugurale della Cattedra Fondazione Invernizzi in Computer Science, della quale è titolare. Hanno partecipato all’incontro Salil Vadhan, dell’Univesità di Harvard, il presidente della Fondazione ‘Romeo ed Enrica Invernizzi’. Giuseppe Bertoni, Francesco Billari e Andrea Sironi, rispettivamente rettore e presidente dell’Università Bocconi.

    “In realtà – ha rilevato Trevisan – ci sono cose che gli algoritmi non potranno fare, calcoli per i quali non si potranno sviluppare algoritmi efficienti”. Questo vale, per esempio, per le operazioni di home banking o le transazioni finanziarie, la cui sicurezza “passa attraverso app basate su calcoli che, se fosse possibile fare efficientemente, potrebbero lasciare campo libero a operazioni non autorizzate. Per esempio, potrebbe essere possibile infiltrarsi in un sistema sicuro, impersonare l’utente di un servizio di online banking che richieda di identificarsi. È vero che esistono problemi di calcolo che potrebbero permettere questo, ma non esistono algoritmi che riescano a permetterli in un tempo ragionevole: ci vorrebbero miliardi di anni”, ha osservato il ricercatore, rientrato in Italia nel 2019, dopo molti anni trascorsi negli Stati Uniti, fra le università Columbia di New York e quelle californiane di Berkeley e Stanford. “È una questione di complessità: ci sono calcoli – ha aggiunto – che richiederebbero miliardi di operazioni, per le quali non c’è nessuna scorciatoia” e che nemmeno un sistema di Intelligenza artificiale potrebbe eseguire. “Per certi servizi – ha detto ancora – le scorciatoie non esistono: la complessità è tale che non è possibile aggirare la sicurezza in nessun tempo ragionevole. Sarebbero necessari miliardi di anni”.

    Secondo l’esperto è possibile che “in futuro esisteranno algoritmi con un’intelligenza simile alla nostra, ma più veloci. Non c’è ragione di dubitarne, ma anche un sistema di IA super-intelligente non potrà essere in grado di eseguire calcoli tali da violare la sicurezza”. Se normalmente si usa dire che se qualcosa è teoricamente possibile allora si può fare, “la matematica fa eccezione: fin dai tempi di Pitagora ci sono risultati che mostrano che alcune cose sono impossibili perché porterebbero a paradossi e contraddizioni. Per esempio – ha detto ancora l’esperto – sappiamo che il moto perpetuo è impossibile perché sono le leggi della fisica a descrivere quello che si può fare con una macchina”. In sostanza, «è probabile che futuri sistemi di intelligenza artificiale con capacità intellettive superiori alla nostra potranno sviluppare algoritmi più avanzati e portare a nuove scoperte, ma non potranno mai dimostrare che 2+2 fa 5″.

  • Banche in allerta contro le truffe dell’intelligenza artificiale

    L’intelligenza artificiale è in grado di imitare la voce delle persone, attraverso voice deepfake realizzati grazie a software che utilizzano algoritmi di deep learning. Ed è giù scattato l’allarme.

    Wall Street Italia riferisce che un esperto di Pindrop, azienda che monitora che esamina i sistemi automatici di verifica vocale per otto delle maggiori banche americane, ha dichiarato al New York Times di aver riscontrato quest’anno un’impennata nella sua diffusione e nella sofisticazione dei tentativi di frode vocale dei truffatori. Imitazioni di voci reali hanno comunicato intenzioni che il titolare della voce non ha mai avuto.

    Il ceo il ceo Vijay Balasubramaniyan ha spiegato: “Tutti i call center ricevono chiamate dai truffatori, in genere da 1.000 a 10.000 all’anno. È normale che ogni settimana arrivino 20 chiamate da parte di truffatori. Finora, le voci false create da programmi informatici rappresentano solo una manciata di queste chiamate. Queste truffe hanno iniziato a verificarsi solo nell’ultimo anno”.

    La maggior parte degli attacchi con voci false che Pindrop ha riscontrato sono avvenuti nei call center dei servizi di carte di credito. Un altro grande fornitore di autenticazione vocale, Nuance, ha riscontrato un attacco deepfake a un suo cliente attivo nei servizi finanziari alla fine del 2022.

    Gli attacchi più rudimentali utilizzano la tecnologia type-to-text, per cui il truffatore digita le parole in un programma, che poi le legge con un parlato sintetico.

    Ma vi sono anche sistemi di intelligenza artificiale generativa, come VALL-E di Microsoft, in grado di creare una finta voce che dice tutto ciò che l’utente desidera, utilizzando solo 3 secondi di audio campionato.

    Tutti gli attacchi sono accomunati dalla rilevazione delle informazioni personali dei clienti delle banche. Secondo la Federal Trade Commission, tra il 2020 e il 2022 i dati personali di oltre 300 milioni di persone sono finiti nelle mani degli hacker, causando perdite per 8,8 miliardi di dollari. Non sono i ladri a usare direttamente le informazioni, ma le mettono in vendita. Sono poi altri ad associarle a persone reali.

  • Tra Star Wars e X-Men, la guerra futura per la Nato

    L’umanità è sull’orlo di un’ennesima rivoluzione industriale, con tecnologie oggi impensabili, quasi fantascientifiche, presto (forse) a portata di mano: capire che effetti potranno avere sull’arte della guerra, da sempre permeabile alle sperimentazioni pur di ottenere vantaggi sul nemico, è dunque fondamentale. La Nato ci prova con uno studio poderoso, che analizza da qui al 2043 le possibili applicazioni pratiche più dirompenti del panorama scientifico. Con scenari inquietanti. Dai ‘super-soldati’ interconnessi tra loro “grazie al 6G” agli “sciami di microrobot killer”, guidati da comandanti assistiti dall’intelligenza artificiale. “Comprendere se queste tecnologie emergenti (o Edt) rappresentino un problema o un’opportunità, come si manifesteranno e cosa significheranno per l’Alleanza, è un ottimo primo passo e contribuirà a garantire che la Nato rimanga tecnologicamente preparata e operativamente rilevante”, si legge nel report. L’attenzione è rivolta a dieci aree precise: AI, robotica e sistemi autonomi, biotecnologia e bioingegneria, big data, elettronica ed elettromagnetica, energia e propulsione, ipersonica, nuovi materiali e manifattura d’avanguardia, tecnologie quantistiche e tecnologie spaziali. Nonché alle interazioni fra loro, poiché proprio la contaminazione genererà le soluzioni più spiazzanti. Lo studio prova allora a immaginare quali possano essere le conseguenze per l’Alleanza (la sezione Blue) ma anche per il nemico (è la casella Red, in sostanza Russia e Cina).

    Il lettore viene aiutato da ipotesi concrete, settore per settore. In futuro la AI potrà dunque “creare o individuare» notizie false, da distribuire sui social, oppure “falsi video (deep fake)” per “distruggere la fiducia del nemico”. Un altro scenario, ricorrente poiché multi-dominio, è quello dei “collegamenti neurologici diretti integrati per consentire l’interazione, la collaborazione e la simbiosi naturale tra uomo e l’intelligenza artificiale”. Con tutte le implicazioni etiche annesse e connesse. La Nato sul punto s’interroga con una nota di reale preoccupazione: “Vi saranno implicazioni sul campo di battaglia se il nemico dovesse avere un vantaggio significativo in termini di prestazioni e se non fosse vincolato dalle stesse considerazioni etiche”. La bioingegneria è proprio il campo dove si prevedono le conseguenze più distopiche, dato che “le tecnologie di potenziamento umano dovrebbero essere disponibili nei prossimi 20 anni e cambieranno la nozione stessa di soldato, marinaio o aviatore”.

    Ecco allora la possibilità di “potenziare i sensi umani e le capacità cognitive a livelli sovrumani per aumentare la velocità di apprendimento e comprensione, riducendo i tempi di reazione” oppure “l’autocura” di ferite, lesioni o malattie «utilizzando soluzioni di ristrutturazione del Dna o di biologia sintetica”. Insomma, quasi degli X-Men. Gli avanzamenti nei nuovi materiali porteranno poi ad “armature smart”, leggere come abiti ma “resistenti ai proiettili”, oppure ai “kit da uomo ragno”, che permetteranno alle forze speciali di arrampicarsi su pareti vetrate o comunque verticali come tanti Peter Parker (ma anche, più banalmente al carro armato elettrico o tutt’al più ibrido).

    L’ipersonica – e qui la Nato riconosce alla Russia di essere avanti – potrebbe portare invece allo sviluppo di missili poderosi, in grado di distruggere “un’intera portaerei con la sola forza cinetica, impedendo il loro avvicinamento ai teatri di guerra”. Oppure lo sviluppo di “raggi di energia difensiva, tipo laser”. Lo spazio, ovviamente, sarà pure territorio di conquista, con “satelliti alla Star Wars” capaci di “colpire in modo chirurgico obiettivi di 10 centimetri di diametro sulla Terra” (ma anche, più subdolamente, usare “la spazzatura spaziale come arma” e colpire il nemico senza lasciare tracce dirette). Fantasie? Chissà. Intanto il dipartimento scientifico della Nato spiega che, per stilare il rapporto, ha appositamente creato un programma a base di AI per “collezionare e processare le informazioni” e che sarà “presto potenziato”. Insomma, senza un po’ di futuro non c’è più futuro.

  • Boom sul mercato italiano dell’Intelligenza artificiale

    Il 2022 anno record per l’Intelligenza artificiale in Italia (AI): il mercato ha raggiunto il valore di 500 milioni di euro segnando un +32% sul 2021. Oltre sei grandi imprese su 10 hanno già avviato almeno un progetto con questa tecnologia, mentre il 93% degli italiani la conosce e il 73% ha timori per l’impatto sul lavoro. I dati arrivano da una ricerca dell’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano, proprio nei giorni in cui il dibattito sull’AI si è riacceso per la crescente popolarità di ChatGpt un software ‘conversazionale’ che sta catalizzando l’attenzione di big della tecnologia come Microsoft, Google, Apple e la cinese Baidu.

    “Con ChatGpt che ha raggiunto un milione di utenti si è sancita la definitiva affermazione dell’AI Generativa – afferma Giovanni Miragliotta, Direttore dell’Osservatorio – Di pari passo è nata l’esigenza delle Istituzioni di tutelare i cittadini dalle possibili implicazioni negative. Sono nate linee guida in tutto il mondo e il Consiglio Europeo ha approvato l’AI Act. Un percorso che avrà come risultato finale un apparato regolatorio comune tra tutti gli stati dell’Unione”.

    Secondo la ricerca, la quota più significativa del mercato dell’Intelligenza artificiale italiano (34%) è legata a soluzioni per analizzare informazioni dai dati e realizzare previsioni, ad esempio, nella pianificazione aziendale e gestione degli investimenti.

    Segue l’area di interpretazione del linguaggio, la cosiddetta Language AI (28%) a cui afferiscono i chatbot – che simulano ed elaborano conversazioni umane – come appunto ChatGpt che elabora in automatico informazioni da documenti, mail, social network, web. Al 19% l’analisi segnala poi l’area degli algoritmi che suggeriscono ai clienti contenuti in linea con le singole preferenze. Infine, il 10% del mercato va alle iniziative di computer vision, che analizzano il contenuto di un’immagine in contesti come la sorveglianza in luoghi pubblici o il monitoraggio di una linea di produzione, e il 9% alle soluzioni con cui l’AI automatizza alcune attività di un progetto e ne governa le varie fasi.

    A dimostrazione dell’ormai ampia diffusione di questa tecnologia, oggi il 61% delle grandi imprese italiane ha già avviato almeno un progetto di AI, 10 punti percentuali in più rispetto a cinque anni fa. E tra queste, il 42% ne ha più di uno operativo. Tra le Pmi, invece, il 15% ha almeno un progetto avviato (nel 2021 era il 6%). L’esperienza quotidiana degli italiani si concentra invece sugli assistenti virtuali. In particolare, proprio i chatbot – già utilizzati dall’81% – sono ormai diffusi quasi come gli assistenti vocali (83%).

  • Come imparare a non farsi rubare i dati personali da Chat GPT

    Il Garante della Privacy ha imposto il blocco temporaneo di Chat GPT in Italia perché agevolerebbe i truffatori nell’ideazione di frodi sempre più verosimili, come emerge dall’ultimo rapporto di Europol. I dati sono confermati anche dallo studio di Darktrace Research, società di cybersicurezza specializzata in intelligenza artificiale, secondo la quale a gennaio e febbraio 2023, in corrispondenza con l’adozione diffusa di Chat GPT, a livello globale si è registrato un aumento del 135% di nuovi attacchi di social engineering.

    “Uno degli esempi più evidenti di utilizzo errato dell’intelligenza artificiale è quello delle email di phishing: grazie a questa tecnologia, infatti, i testi delle e-mail fraudolente possono diventare impeccabili e professionali grazie alla rimozione automatica di errori ortografici o grammaticali”, afferma Kyle Ferdolage, Online Security Expert e Lead Trust & Safety Analyst della banca online N26, come riporta Wall Street Italia. Kyle fornisce anche delle regole per poter imparare a riconoscere le truffe. Innanzitutto mostrare cautela con i messaggi inattesi: prima di rispondere a un messaggio inatteso o di cliccare su un link, è importante verificarne l’autenticità passando attraverso un punto di accesso noto (ad esempio, un’app o un sito web). Verificare sempre la fonte: controllare attentamente l’indirizzo e-mail del mittente, il nome del dominio del sito web e le informazioni di contatto dell’azienda per assicurarvi che siano legittime. Fare attenzione alle informazioni personali: mai fornire informazioni personali, come password o informazioni sulla carta di credito, tramite e-mail, SMS o telefonate. I soggetti legittimati a farlo, come ad esempio la nostra banca, non utilizzerebbero mai questi strumenti. Informarsi sulle truffe generate dall’intelligenza artificiale: sapere cosa cercare può aiutare a evitare di cadere vittima di una truffa.

  • A Bologna l’Università dell’Onu per studiare clima

    Il dipartimento dell’Università delle Nazioni Unite che attraverso i big data e l’intelligenza artificiale studierà il cambiamento climatico e il riscaldamento globale, nascerà a Bologna. A fine 2022 il consiglio dell’Università delle Nazioni Unite ha infatti accettato la proposta arrivata da Regione Emilia-Romagna e Ministero degli Esteri per istituire a Bologna il dipartimento Ibahc dell’ateneo internazionale: si tratta del 12esimo aperto nel mondo, il primo nell’area Mediterranea.

    La Regione Emilia-Romagna, come ha annunciato il presidente della Regione Stefano Bonaccini, ha già stanziato 5 milioni nel triennio necessari a garantire l’avvio dell’istituto e mettergli a disposizione una sede che sarà nel tecnopolo di Bologna, dove già ci sono il centro di calcolo con il supercomputer Leonardo (il quarto più potente del mondo) e il Centro meteo dell’Unione Europea. Le tre realtà del tecnopolo agiranno in sinergia, come pure con l’Università di Bologna che sarà un partner tecnico, ma metterà a disposizione anche la sua rete. Bonaccini ne ha già parlato con il Ministro degli Esteri Antonio Tajani, visto che la Farnesina dovrà impegnarsi per altri 40 milioni, per dare continuità al progetto realizzato con il precedente governo.

    Quella che sorgerà a Bologna sarà un’Università vera e propria, con corsi di laurea specifici, docenti e ricercatori che verranno selezionati per approfondire le questioni del cambiamento dell’habitat umano grazie alle tecnologie che si trovano al tecnopolo. Il rettore dell’ateneo delle nazioni unite David M. Malone ha inviato una lettera non solo per approvare, ma anche per elogiare il progetto che si occuperà, appunto, di indagare i cambiamenti climatici attraverso i big data e l’intelligenza artificiale. Il prossimo passaggio formale sarà un accordo bilaterale fra l’Onu e le autorità italiane nel quale si formalizzerà l’accordo e si darà il via operativo alla nascita dell’Ibahc (acronimo dell’istituto che sta per Big Data e Intelligenza artificiale per la gestione del cambiamento dell’habitat umano).

    «A Bologna e in Italia – ha detto Bonaccini – arriveranno ricercatori, esperti e conoscenze davvero uniche, che si aggiungeranno a infrastrutture già oggi di portata internazionale assoluta come il supercomputer Leonardo e il Data Center del Centro Meteo europeo. Un risultato di squadra, raggiunto grazie all’approfondito lavoro svolto con le tante istituzioni coinvolte e con il fondamentale supporto dell’United Nations University, e che conferma ancora una volta l’Emilia-Romagna come centro d’eccellenza a livello internazionale per le attività di ricerca, scienza, intelligenza artificiale e big data. E con la nostra regione il Paese».

Pulsante per tornare all'inizio