Chi è Cristiano De Nobili?
Sono un fisico teorico con un PhD in Quantum Information Theory alla SISSA di Trieste. Con oltre otto anni di esperienza in Deep Learning e AI. Oggi sono Lead AI Scientist presso Pi School e Tech Lead di due grant ESA, lavorando principalmente sull’AI applicata alle sfide ambientali e climatiche. Sono docente di Deep Learning presso il Master in High-performance Computing (ICTP/SISSA, Trieste) e di Quantum Machine Learning presso la Scuola Superiore Ca’ Foscari. Ho da sempre cercato di rivolgere la mia attenzione alle tecnologie emergenti, dall’IA e alle tecnologie quantistiche, con collaborazioni che vanno dalla European Space Agency fino al SIOS Remote Sensing Centre delle Isole Svalbard.
Oggi si parla quasi solo di Generative AI ma ne esistono tanti tipi diversi, esistono modelli AI più promettenti di queste?
Il grande merito dell’AI Generativa è quello di aver permesso un’interazione uomo-macchina più semplice che in passato, l’interazione oggi è alla portata di tutti perché l’unico requisito richiesto è saper usare il linguaggio naturale. Tuttavia l’AI Generativa non è l’unica cosa esistente. Anzi, la gran parte delle applicazioni degli algoritmi di Machine Learning non sono generative. Alcuni esempi sono gli algoritmi dietro molti processi di ottimizzazione industriale, gli algoritmi che muovono i motori di ricerca o che si nascondono dietro l’e-commerce o le predizioni finanziarie. Ci sono modelli AI che assistono i medici nelle diagnosi o algoritmi di Deep Learning che permettono di analizzare i dati satellitari.
L’AI in generale in che direzione si sta muovendo: aiuto delle capacità umane o sostituzione?
L’AI di per sé non si sta muovendo in nessuna direzione in maniera autonoma ma è chiaro che si muove nel perimetro normativo che glielo consente. In altre parole la scelta politica deve indirizzare lo sviluppo nella direzione che ritiene più opportuna, per esempio allineata con i principi umani. Nei prossimi cinque anni molti lavori potranno essere sostituiti, non solo quelli noiosi o ripetitivi, ma anche quelli creativi. Sta alla politica e a noi decidere chi mettere al centro, a chi tutelare dei diritti.
Gli USA, secondo le maggiori agenzie, stanno lavorando ad una legge che impedisca la cessione dei propri LLM a competitor esteri che possano rappresentare un rischio per la sicurezza nazionale. Questa è una scelta che può avere un senso per contenere eventuali utilizzi malevoli?
Sicuramente nell’ottica di mantenere la superiorità tecnologica per gli USA ha senso questo tipo di strategia. Occorre ricordare però che questi algoritmi sono stati creati anche da collaborazioni tra università, quindi sarebbe giusto che questa tecnologia fosse disponibile a tutti.
Dopo aver assistito al rapido sviluppo di testi, video e audio generati dall’AI, che cosa possiamo aspettarci nel futuro prossimo?
In realtà questo è l’aspetto che sorprende tutti perché lo vediamo tutti i giorni ma gli LLM non sono gli unici. Oggi esistono i Multimodal Foundational Model che sono in grado di ricevere ed elaborare tanti tipi di input. Ma i modelli più interessanti sono quelli come i Genomic Language Model, che potenzialmente potrebbero essere in grado di creare sequenze di DNA. Oppure ci sono modelli che stanno cercando di studiare il linguaggio animale e quindi che possano permettere un’interazione mai vista tra uomo e altre specie.
Il mondo del futuro avrà spazio solo per figure tecniche o ci sarà lavoro anche per altri tipi di figure?
Nei prossimi anni senz’altro i tecnici saranno essenziali perché l’evoluzione dell’AI sarà importante e strategica. Quindi sarà richiesta grande competenza in settori chiave. A lungo termine invece è probabile che i modelli di AI saranno talmente evoluti da abbassare le “barriere d’ingresso” nel mondo più tecnico. Avranno sempre più importanza competenze ibride, anche con uno spiccato lato umanistico. Altrettanto importanti saranno quei lavori in grado di riportare l’uomo ad avere una forte connessione con la Natura, in un mondo sempre più frenetico e tecnologico.
L’AI arriverà mai ad essere in grado di programmare la propria evoluzione da sola?
Ci sono già dei modelli che tentano di fare questo ma non sono assolutamente efficienti, la tecnologia è ancora troppo primordiale per pensare ad un’evoluzione del genere. Il rischio di trovarci in un film di fantascienza al momento è bassissimo. Molto più preoccupante è l’utilizzo che l’uomo stesso fa di queste tecnologie.
Cosa stiamo facendo per costruire gli “anticorpi” per proteggerci da utilizzi malevoli dell’AI?
L’Europa con l’IA Act ha cercato di creare una regolamentazione normativa per prevenire situazioni potenzialmente rischiose. Chiaro che a margine di un’azione normativa è necessario che le persone fruiscano di contenuti in modo più attivo domandandosi se il contenuto che stanno visualizzando sia generato da AI oppure sia generato da umani.