I dati sugli investimenti realizzati nella ricerca legata all’intelligenza artificiale rendono conto di una vera e propria rivoluzione cha sta cambiando il nostro mondo. Una delle domande che più frequentemente vengono poste è perché questa rivoluzione accade proprio adesso e come le aziende possono fronteggiare questi mutamenti epocali.
Per rispondere a questa domanda è utile ricordare innanzitutto che l’intelligenza artificiale ha una storia di vari decenni e, contrariamente a quello che molti pensano, la maggior parte delle tecniche che oggi si usano in IA nei loro principi di base hanno una storia alle spalle. Negli ultimi anni c’è stata una concomitanza di tre fattori che hanno innescato dei meccanismi di rinforzo positivo e creato una sorta di circolo virtuoso per l’efficacia delle applicazioni IA che ha portato all’esplosione, anche mediatica, di questi temi.
Il primo fattore importante di cui tener conto è legato ovviamente alla ricerca scientifica e agli sviluppi di alcuni settori, primo fra tutti il machine learning: passare da un modello algoritmico tradizionale, nel quale il programmatore “dice” esattamente alla macchina tutto quello che deve fare, a modelli di calcolo sub-simbolico, nei quali la macchina è in grado di apprendere dall’analisi di opportuni insiemi di dati di training, ha permesso di affrontare con successo problemi che con le tecniche tradizionali risultavano difficilmente trattabili, quali ad esempio quelli legati alla visione artificiale.
Un secondo aspetto essenziale riguarda la disponibilità che si ha oggi di hardware specializzati con potenze di calcolo che qualche anno fa o non esistevano o non avevano prezzi accessibili. Un esempio banale ma suggestivo: la potenza di calcolo di tutta la NASA nel 1969, quando spedì il primo uomo sulla luna, era inferiore a quella installata sul telefono che usiamo quotidianamente. L’aumento sin qui esponenziale della potenza di calcolo per unità di costo ha reso possibili alcune applicazioni di IA che fino a pochissimi anni fa erano considerate proibitive per il loro costo computazionale.
Infine un terzo fattore rilevante è legato alla quantità di dati oggi disponibile: la quantità di dati prodotta dall’umanità in tutta la sua storia fino all’anno 2015 è inferiore a quella prodotta nel solo 2016. Entro meno di dieci anni si avranno 150 miliardi di dispositivi IoT connessi in rete che trasmetteranno dati. Questa enorme mole di dati rende possibile da un lato l’estrazione di nuove forme di conoscenza mediante opportune tecniche di analisi, dall’altro la definizione di insiemi di dati di training molto estesi, permettendo così di “insegnare” alle macchine meccanismi computazionali molto sofisticati.
I tre fattori descritti hanno dunque posto le basi della cosiddetta rivoluzione 4.0 che impone un ripensamento profondo delle dinamiche produttive e organizzative delle imprese. Anche le imprese di settori tradizionali, dal food alla meccanica, devono oggi monitorare costantemente le novità tecnologiche del mondo dell’intelligenza artificiale. Ad esempio, l’industria manifatturiera può utilizzare sensoristica IoT e tecniche di machine learning per il monitoraggio remoto degli impianti e la loro manutenzione preventiva, con notevoli risparmi di costi e maggiore efficienza produttiva.
Ormai in molti casi l’adozione di queste nuove tecnologie non è più un ausilio allo sviluppo ma uno strumento essenziale per una competizione efficace e dunque una scelta obbligata per la sopravvivenza dell’azienda. Non a caso i dati mostrano come i grandi gruppi internazionali, nei settori più disparati, stiano investendo pesantemente in tecnologie IA. Per le aziende una possibilità concreta di miglioramento è nel reclutamento di personale con competenze specifiche.Per concludere, vi sono molti aspetti positivi, ma anche molte ombre, che rendono difficile capire cosa accadrà nel nostro futuro grazie all’intelligenza artificiale. Certamente però possiamo essere d’accordo con il grande scienziato Stephen Hawking: “la creazione di forme ancora più potenti di IA sarà o la migliore o la peggiore cosa che sia mai successa all’umanità nella sua storia”.
Questo tema va affrontato con una rinnovata visione del futuro e con le necessarie competenze manageriali per gestire le opportunità di business legate all’Intelligenza Artificiale e al Machine Learning che hanno rivoluzionato le dinamiche produttive e organizzative delle imprese. Il Master in Digital Technology Management di Bologna Business School è pensato per giovani neolaureati di diversa provenienza accademica che aspirano a diventare manager dell’innovazione tecnologica.
Autore: Maurizio Gabbrielli
Direttore Scientifico del Master in Digital Technology Management