“L’intelligenza Artificiale non è un settore economico, ma un modo diverso di fare le cose, quindi implementarla all’interno dei processi produttivi o delle relazioni sociali esistenti significa modificarne profondamente dinamiche e potenzialità”.
Ospite del quarto Innovation Talks di Bologna Business School lo scorso 2 dicembre, Andrea Renda, Professore di Digital Innovation presso il Collegio d’Europa e Senior Research Fellow presso il CEPS, think tank di studi politici fondato a Bruxelles nel 1983. Al centro dello speech, le potenzialità dell’Intelligenza Artificiale con tutti i rischi annessi a livello etico, sociale e ambientale.
L’AI è infatti l’esempio più tangibile di come l’innovazione tecnologica stia rivoluzionando tanto la ricerca scientifica quanto la società in cui viviamo: l’AI può facilmente trasformarsi in quello che Andrea Renda definisce un puledro impazzito che dobbiamo imparare a domare”.
Il suo intervento in Aula Magna inizia con una carrellata di case history nelle quali l’uomo è stato sostituito dalle macchine: dal celebre Ritratto del Conte di Bellamy interamente realizzato da un algoritmo e venduto all’asta per 432.000 dollari come annunciato da Christie’s, al primo negozio di Amazon senza casse, dove il pagamento avviene grazie al monitoraggio dei singoli acquirenti, attraverso computer controllati da remoto. “Il paradosso dell’uomo che insegna alla macchina come fare un lavoro che un giorno li rimpiazzerà” - sottolinea Renda, che apre così un’ampia parentesi sulle implicazioni etiche dall’AI. “Intelligenza deriva da Intus + Legere, ovvero ‘leggere dentro le cose’, ma non c’è nulla di intelligente in questi esempi, è solo una macchina che elabora dati, con tutti i rischi annessi del caso”.
Macchine che eseguono compiti definiti, ottimizzando le loro funzioni, ma “l’AI è un mezzo, non un fine”, ricorda Renda, che riporta alla Community i celebri casi di Tay Tweets, il chatboy lanciato da Microsoft su Twitter per interagire con i Millennials ( liquidato dopo soli 20 minuti per messaggi inappropriati come “I’m a nice person, i just hate everybody”); o i Trump-Bot che le elezioni del 2016 amplificavano ogni messaggio fino a far esplodere al 61% i contenuti classificati come spam.
Come scongiurare l’effetto Black Mirror? Come dominare la perfetta imperfezione di una macchina che procede per algoritmi? Andrea Renda non ha dubbi sull’urgenza di un’assunzione di responsabilità etica nel rapporto uomo-macchina. “L’AI viene classificata come uno dei grandi rischi esistenziali: e nel processo di adattamento dell’innovazione digitale, sta allo human factor accompagnare l’AI nel suo potenziale senza lasciarsi sopraffare”.