Il Professore Ordinario di Economia Matematica della Mediterranea di Reggio Calabria analizza l’impatto dell’IA sui processi decisionali, tra opportunità per gli studenti e nuove minacce come attacchi vettoriali e disinformazione
Tutti gli articoli di Interviste
PHOTO
In un confronto a tu per tu, Massimiliano Ferrara, Professore Ordinario di Economia Matematica presso l’Università Mediterranea di Reggio Calabria, descrive una fase storica in cui la formazione e la società stanno vivendo un “profondo cambiamento” imposto dall’intelligenza artificiale. Un’evoluzione che, secondo il docente, riguarda non solo il futuro, ma soprattutto il presente degli studenti che scelgono percorsi economici legati ai nuovi strumenti digitali.
Ferrara spiega che nei corsi di economia l’IA è stata introdotta non con un taglio puramente informatico, ma come chiave per comprendere i nuovi meccanismi del decision making: «Abbiamo inteso introdurre questa materia non in chiave squisitamente informatica, ma per cercare di introdurre i nostri studenti al mondo dei processi decisionali, alla luce dell’avvento di questi grandi strumenti».
L’obiettivo, continua, non è immaginare un futuro in cui la macchina sostituisce l’uomo, bensì costruire una relazione collaborativa: «La cosa più interessante è occuparsi di come queste macchine possono interagire con l’uomo, implementando le capacità decisionali dell’uomo, non sostituendolo. Questa è la parte più bella e più sfidante: creare una combinazione orizzontale tra uomo, decisore, e piattaforme decisionali». Ferrara richiama persino il concetto di “macchina” introdotto da Turing nel 1950, ricordando come già allora si parlasse di intelligenza artificiale.
Ma accanto alle opportunità, i rischi non mancano. Il professore richiama l’attenzione sul pericolo delle fake news e sugli attacchi informatici basati su vettori matematici: «Gli hacker, quando fanno un attacco vettoriale, cercano di insufflare nella macchina in posizione di apprendimento una percentuale di dati avvelenati». Un rischio subdolo, perché altera alla radice la qualità delle informazioni utilizzate dall’IA. «La macchina può funzionare normalmente, ma la ‘benzina’ inserita è una benzina che porta vettori di disinformazione. E questo può essere molto pericoloso, perché non c’è alcuna responsabilità da parte della macchina, ma da parte di chi ha ordito l’attacco».
Tra possibilità e minacce, l’intelligenza artificiale appare dunque come un terreno decisivo non solo per l’economia, ma per la formazione delle nuove generazioni. E la sfida, conclude Ferrara, è preparare studenti e professionisti a maneggiare strumenti potenti, capaci di amplificare le decisioni, ma anche di renderle vulnerabili.

