Francesco Guerrieri e l'Intelligenza Artificiale tra opportunità e rischi

Una breve chiacchierata tra amici con Francesco Guerrieri, esperto di Information Technology

8 Aprile 2025 - 13:37
3 Maggio 2025 - 06:52
Francesco Guerrieri e l'Intelligenza Artificiale tra opportunità e rischi
Francesco Guerrieri, CEO della Omniasoft di Roseto degli Abruzzi

In una calda mattinata primaverile, ho incontrato Francesco Guerrieri, esperto di Information Technology e imprenditore nel settore da oltre 25 anni.
Con Francesco ci conosciamo dai tempi del liceo e già allora parlava con entusiasmo di tecnologie che a molti sembravano pura fantascienza.
L'amicizia di lunga data ci ha permesso di sederci davanti a un caffè e di affrontare, con la schiettezza che solo i vecchi amici possono permettersi, un tema tanto complesso quanto attuale: l'intelligenza artificiale e il suo impatto sulla nostra società e sul mondo del lavoro.

Come hai vissuto, negli ultimi 25 anni, l'evoluzione dell'intelligenza artificiale?

Francesco sorseggia il suo caffè e sorride, come suo solito. "L'ho vissuta in prima linea, applicandola in maniera sempre più concreta. Sono ormai 25 anni che gestisco la mia azienda informatica e, dal punto di vista imprenditoriale, ho visto l'IA evolversi da tecnologia di nicchia ad elemento imprescindibile. Dal punto di vista personale, è una passione che risale al 1994, quando mi iscrissi alla facoltà di ingegneria con l’obiettivo di studiare le tecnologie emergenti. All'epoca, parlare di intelligenza artificiale sembrava quasi fantascienza, ma io ero già convinto che quella sarebbe stata la direzione." Francesco si illumina ricordando quei primi anni: "Rimasi affascinato perché l’intelligenza artificiale è stata modellata sull'intelligenza umana. Le prime macchine cominciavano a replicare il funzionamento dei nostri neuroni. Quella, per me, era la vera sfida. Fino a qualche anno fa, l’IA era pressoché sconosciuta alla maggior parte degli utenti. Eppure, molte delle cose che usiamo quotidianamente, come i social media e i motori di ricerca, avevano già dei meccanismi di intelligenza artificiale integrati, seppur a un livello meno visibile. L’evoluzione che ho visto, soprattutto negli ultimi tre anni, è stata davvero incredibile. L’hardware è migliorato a tal punto che ora possiamo fare cose che una volta sembravano impensabili."

Quali sono, oggi, i problemi principali legati all'intelligenza artificiale?

"Uno dei problemi più urgenti," dice Francesco abbassando la voce come se stesse svelando un segreto, "è il consumo di energia. L'IA richiede una quantità di energia che a molti esperti sembra insostenibile. Le macchine che alimentano i server per i sistemi di IA sono enormi e consumano davvero tanto. Ad esempio, una sola interazione con un’intelligenza artificiale come ChatGPT potrebbe consumare più energia di quella che utilizziamo normalmente durante un’intera giornata lavorativa." Francesco si anima, tracciando delle linee immaginarie sul tavolo con le dita. "Ti faccio un esempio concreto. Immagina una 'server farm', un’enorme sala piena di computer che lavorano insieme per processare le informazioni. Per poter elaborare calcoli simultanei, ogni singola macchina è dotata di più GPU (schede grafiche) particolarmente potenti e il consumo di energia è enorme. Anche se una singola GPU consuma solo 5 watt, ne abbiamo migliaia che funzionano contemporaneamente e stiamo parlando di una quantità di energia che mette a dura prova anche le fonti rinnovabili. Ma non è tutto", continua con aria preoccupata. "Queste macchine non possono funzionare senza un sistema di raffreddamento adeguato. Per evitare che si surriscaldino, devi tenerle a temperature molto basse, il che significa che oltre alla corrente per farle funzionare, devi anche spendere tanto per mantenerle fredde. Ecco perché, per ridurre il rischio di surriscaldamento, si sta pensando di collocare i server sott’acqua o all’interno di ambienti subacquei." 

È per questo che servizi come ChatGPT sono a pagamento?

"Sì, e non solo per questo", risponde Francesco. "Quando le grandi aziende dell'IT hanno deciso di rendere disponibili al pubblico strumenti come ChatGPT, la loro scelta iniziale è stata quella di non far pagare gli utenti. A mio parere, è stata una mossa sbagliata, perché i costi per mantenere attivi questi servizi sono altissimi. Far funzionare questi algoritmi e alimentare milioni di richieste al secondo è qualcosa che va ben oltre la semplice capacità economica di un’azienda. Per questo hanno introdotto un modello a pagamento. Se consideri quanto costa fornire un servizio come ChatGPT, ti rendi conto che 20 euro al mese non ripagano completamente il consumo energetico associato a ogni singolo utente", continua Francesco. "Anzi, quello che paghiamo è più un modo per limitare l'accesso ed evitare che tutti lo usino senza controllo saturando i sistemi. In fondo, nessuno può permettersi di offrire un servizio che consuma così tanta energia senza un minimo ritorno economico. Eppure, c’è ancora molta gente che si aspetta che tutto questo sia gratuito, senza comprendere le implicazioni energetiche e infrastrutturali."

Quali sono i rischi dell'intelligenza artificiale nella società?

"Il rischio più grande," riflette Francesco guardandomi intensamente, "è che l'intelligenza artificiale faccia credere a noi umani che siamo onnipotenti, che possiamo fare tutto, che possiamo delegare qualsiasi cosa a una macchina. Questo è un errore grave e pericoloso, perché l’IA, nonostante tutta la sua potenza di calcolo, non è infallibile. Ricordo quando, agli albori di Internet, ci eravamo illusi che Google avesse tutte le risposte alle nostre domande. 'Ah, posso cercare e trovare tutto!', pensavamo. Ma oggi sappiamo che non è così. Le informazioni che troviamo online non sono sempre affidabili, e spesso sono influenzate da chi le scrive. La stessa cosa vale per l'IA, dietro ogni algoritmo c'è sempre un essere umano che decide quali dati inserire, come addestrarlo e quali obiettivi stabilire. E qui nascono i pericoli. L’intelligenza artificiale può ripetere errori umani e, se usata male, può essere manipolata per obiettivi politici, economici o sociali. Un altro problema", continua con tono più grave, "è che le persone tendono a dare troppa fiducia a ciò che un sistema automatizzato elabora e mostra. Dobbiamo sempre ricordare che dietro ogni risposta e ogni suggerimento c'è un processo umano, spesso imperfetto o interessato. Quindi, è fondamentale mantenere uno spirito critico, anche quando ci sembra di interagire con una macchina perfetta e infallibile."

Come viene "addestrata" l'intelligenza artificiale?

"L'addestramento delle macchine è un'altra questione cruciale," dice Francesco, ora con un'espressione più riflessiva. "Immagina di addestrare un cane per un compito specifico. Se vuoi che impari a cacciare, lo addestri a rispondere a determinati stimoli. Ma con l'IA è molto più complesso: chi decide cosa insegnare alla macchina? Soprattutto, quali dati vengono utilizzati per 'istruirla'? Pensiamo, ad esempio, all’IA utilizzata nelle elezioni politiche o nella manipolazione di opinioni pubbliche. Se i dati utilizzati per addestrare una macchina sono distorti, l'intelligenza artificiale rifletterà quei pregiudizi. E ciò può avere conseguenze enormi, influenzando scelte politiche, economiche e sociali senza che possiamo rendercene conto. È un aspetto molto delicato che richiede una regolamentazione seria e consapevole."

Cosa possiamo fare per difenderci da questi rischi?

"La prima cosa da fare è usare l'intelligenza artificiale come strumento, non come sostituto del pensiero umano. Il rischio maggiore è che diventiamo troppo dipendenti da queste macchine, che ci facciamo sopraffare dalla loro capacità e dimentichiamo di mantenere (e allenare) la nostra creatività e il nostro spirito critico."
Francesco si ferma un attimo, riflettendo sul futuro. "Già, la tecnologia deve essere un alleato, non un sostituto. Solo con un pensiero critico e con la capacità di innovare continuamente saremo in grado di affrontare le sfide che l’IA ci porterà. E questo, al di là della tecnologia, è ciò che farà davvero la differenza."

Ho letto che, per la prima volta, l'intelligenza artificiale ha superato il "Test di Touring". Come vedi questa evoluzione?

"Si, ho visto come l’intelligenza artificiale sia riuscita a ingannare scienziati esperti che pensavano di interagire con un essere umano. È una dimostrazione impressionante dei progressi fatti nel campo dell’IA. Alla fine, però, resta pur sempre un inganno. Le macchine, anche se sembrano avere una conversazione perfetta, non sono consapevoli di sé stesse. Non c'è coscienza dietro le loro risposte. Turing parlava di una macchina capace di imitare l'intelligenza umana in modo talmente convincente che non sarebbe stato possibile distinguerla da una persona reale. Bene, in alcuni casi, oggi ci siamo davvero vicini. Per me, comunque, la vera questione non è tanto l'intelligenza, quanto l’anima. Se crediamo che l'anima esista, allora le macchine non saranno mai davvero 'umane' (per quanto possano simulare). Ma se, come penso anche io, l’anima non è altro che un concetto filosofico e non una realtà tangibile, allora dobbiamo prepararci al fatto che l’intelligenza artificiale, se continuerà a evolversi, potrebbe superare l’essere umano in molteplici aspetti."

E riguardo ai robot umanoidi? Come li vedi integrarsi nel mondo del lavoro?

La domanda sembra accendere una scintilla in Francesco. "I robot umanoidi rappresentano una frontiera affascinante", dice con entusiasmo. "Immagina macchine in grado di eseguire compiti fisici complessi, interagendo in ambienti dinamici. Entro il 2050, potremmo vedere milioni di questi robot negli Stati Uniti  che influenzeranno significativamente il mercato del lavoro. Si stima che l'adozione di robot umanoidi potrebbe generare un impatto economico di 3.000 miliardi di dollari, influenzando il 74% delle professioni e il 40% dei lavoratori. Ma non è solo una questione di numeri", continua Francesco, "è una rivoluzione culturale. I robot umanoidi potrebbero affiancare l'uomo in vari settori, dall'assistenza sanitaria alla logistica, migliorando l'efficienza e riducendo i rischi per i lavoratori. Tuttavia, sarà fondamentale affrontare le inevitabili sfide etiche e sociali che ne deriveranno."

Quali pensi siano i principali rischi associati all'intelligenza artificiale e ai robot umanoidi nel contesto lavorativo?

"Uno dei rischi più evidenti è la sostituzione delle persone sui posti di lavoro", riflette Francesco, il tono più serio. "Mentre l'automazione può aumentare la produttività, può anche eliminare lavori a basso valore aggiunto. Ad esempio, nella produzione industriale, l'introduzione di robot ha portato a un aumento della produttività, ma ha anche ridotto la necessità di manodopera tradizionale. Ma c'è anche un aspetto positivo", aggiunge. "I robot possono svolgere compiti ripetitivi e pericolosi, liberando gli esseri umani per attività più creative e strategiche. Ciò potrebbe portare a una riallocazione delle attività, con la creazione di nuovi ruoli che richiedono competenze più elevate."

Come possiamo prepararci a questi cambiamenti?

"La formazione è la chiave", afferma con convinzione. "Dobbiamo investire nell'educazione e nella riqualificazione della forza lavoro, assicurandoci che le persone acquisiscano competenze complementari alle capacità dei robot. Solo così possiamo garantire che l'IA e i robot umanoidi siano alleati dell'umanità, piuttosto che una minaccia."

Mi alzo, prendo l'ultimo sorso di caffè e, guardando Francesco, gli dico: "Sai, tutto questo discorso sull'intelligenza artificiale mi ha fatto pensare a Isaac Asimov. Dopo aver letto tutte le sue opere, non ho ancora ben capito se sia stato un viaggiatore del tempo che aveva davvero visto il futuro o se la ricerca scientifica si sia semplicemente ispirata ai suoi romanzi di fantascienza.

Francesco sorride, come se il mio dubbio gli avesse suscitato una riflessione profonda. "È vero, Asimov ha anticipato molte delle questioni etico-scientifiche che affrontiamo oggi. In un certo senso, siamo già nel suo futuro."

Saluto Francesco e mi allontano pensieroso.
Improvvisamente, risuonano nella mia testa le "tre leggi delle robotica" di Asimov...

  1. Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  3. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.


*Per visitare il Profilo Facebook di Francesco Guerrieri clicca sul pulsante "Approfondimento"

Lorenzo Mazzocchetti Ideatore e fondatore di Roseto24.it, unisce un grande desiderio di conoscenza a una buona dose di sana ironia. Sa raccontare le vicende locali con uno stile originale e coinvolgente, trasformando il sito in un punto di riferimento per chi vuole scoprire e vivere la città in tutte le sue sfumature.