Giovedì 3 marzo 2022, in presenza e contemporaneamente online, ha avuto inizio una nuova serie di incontri organizzati da Bologna Business School.
Ad aprire il format BBS Leadership Lecture Series è Alon Wolf, Vicepresidente del Technion Israel Institute of Technology e Professore ordinario di ingegneria meccanica e biomedicale.
Discussant dell’evento, Maurizio Gabbrielli, Professore ordinario di Informatica, Direttore del Dipartimento Informatica – Scienza e Ingegneria dell’Università di Bologna e Associate Dean for AI and Digital Soul nella nostra Scuola.
Topic: etica e intelligenza artificiale.
Come ricorda il Professor Gabrielli, un dibattito etico è fondamentale, soprattutto in questi giorni, segnati da un conflitto nel cuore dell’Europa.
Alon Wolf, cresciuto professionalmente lavorando sulla robotica applicata alla chirurgia della spina dorsale al Technion di Israele, giovane Università fortemente liberale e open-mind, con Campus anche in Cina e a NY, pochi mesi dopo l’11 settembre, a Pittsburg, ha potuto gestire lo sviluppo del progetto dei robot-snake, usati per le ricerche sotto le macerie del World Trade Center e, successivamente, per la chirurgia di precisione.
«Dobbiamo fermarci un momento dal fare ricerca per pensare alle conseguenze del lavoro fatto». Il tema della serata è complesso, lo sviluppo tecnologico ne è il punto di partenza: «abbiamo assistito alla quarta rivoluzione industriale». Se la prima, nata con l’uso del vapore nell’Inghilterra del XVIII secolo, ha cambiato l’idea stessa di industria nel mondo; la seconda, a cavallo tra fine ‘800 e inizio del’900, ha imposto, col modello fordista americano, una nuova idea di fabbrica e di produzione. La terza, culminata nella corsa allo Spazio, si è spostata in America, Giappone, URSS e Cina: basata sui sistemi autonomi, ha segnato la nascita della robotica. La quarta, quella appena vissuta, si fonda sulla commistione fra Intelligenza Artificiale e rete: cloud, deep learning, wifi, IoT sono i termini ormai comuni anche ai non addetti ai lavori e materia di un rapidissimo sviluppo tecnologico.
Ma, la quarta rivoluzione industriale è stata travolta e accelerata dalla pandemia: oggi, stiamo entrando nella quinta era industriale, quella della connessione globale, dei cyborg intelligenti, sempre collegati alla rete e in grado di comunicare; dell’Intelligenza Artificiale che sviluppa propri sistemi cognitivi. Non viviamo più in palazzi, ma in smart buildings, non guidiamo più automobili, ma smart cars.
La caratteristica principale di questa nuova rivoluzione? La velocità. Ci sono voluti 75 anni perché il telefono arrivasse a 100 milioni di utilizzatori. 7 anni per il web, per ottenere lo stesso numero di utenti. 4 per Facebook, 2 per Instagram. Un mese, per l’app Pokemon Go. È una rivoluzione esponenziale. I dati sono il nuovo petrolio: i dati non generano solo denaro, fanno andare avanti il mondo.
Quindi, cosa possiamo dire, riguardo la nuova era industriale di cui siamo spettatori (o protagonisti), che abbia a che fare con l’etica? Partiamo da due temi molto “di moda”: ecologia e privacy.
Stiamo vivendo una rivoluzione pulita? No. Sembra che il mondo asettico, le linee limpide della Apple, il regno del virtuale degli operatori tecnologici, non abbia impatto inquinante sul Pianeta. Ma non è così: anche solo l’invio di una singola email, calcolati l’uso di energia dei computer coinvolti, genera 4 grammi di CO2e. La credenza che tutto ciò che ha a che fare con le nuove tecnologie sia green è, appunto, solo una credenza, pensata e diffusa dalle aziende che ci vogliono consumatori coscienziosi ma felici. Stessa cosa per quanto riguarda la privacy, poco più di un mito nell’era della connessione globale: i dati sono i nuovi diamanti, la protezione dei dati è una delle nostre preoccupazioni principali, eppure, possiamo proteggerci da intrusioni, frodi e furti solo disconnettendoci. Se non paghi un prodotto, tu sei il prodotto. «Io non ho Facebook», chiosa Wolf, «potete controllare.».
Ma, allora, qual è lo spazio per un ragionamento etico sulla contemporaneità? L’etica non è una scienza esatta e la crisi morale si pone non appena iniziamo a parlare di cambiamento: abbiamo modo di fermare le nostre ricerche per pensare alle conseguenze di ciò su cui stiamo lavorando? E, ancora più nello specifico: in che termini possiamo parlare di etica applicata alla robotica?
I robot esistono da molto tempo, la parola deriva dal ceco robota, che significa lavoro pesante. Fu inventata da Josef Čapek, che la suggerì al fratello drammaturgo Karel per il suo R.U.R., Rossumovi univerzáini roboti, opera in tre atti del 1920. Il robot era l’operaio non umano di un ipotetico futuro. Nemmeno il concetto di Intelligenza Artificiale è, come molti credono, figlio dei nostri giorni: fu introdotto negli anni ’50 dallo psicologo Franck Rosenblatt (1928-1971), padre del Deep Learning, l’apprendimento attraverso algoritmi alla base della computer vision.
Ma perché, oggi, la robotica è così importante? La risposta ci viene dalla statistica: negli anni ‘50, il rapporto fra lavoratori e pensionati era di 5.8 a 1. Per ogni pensionato, nel mondo sei persone lavoravano attivamente e questo permetteva lo stato sociale del boom economico occidentale. Nel 2000, questo dato si era ridotto a 3.9:1. Nel 2025 sarà di 2.1:1. La piramide si sta per rovesciare: presto la vecchiaia non sarà più sostenibile secondo i paradigmi, le strutture, le operatività messe in campo fino a oggi. I robot saranno una parte della risposta. Robot lavoratori, robot per assistere la persona, robot che guideranno i mezzi di trasporto. La robotica e l’intelligenza artificiale saranno enormemente invasive nell’arco di una, due decadi.
Quindi, come insegnare ai robot, alle intelligenze artificiali, il concetto di scelta morale? E, perché è necessario farlo?
Pensiamo a un semplice esperimento mentale di filosofia etica, noto come dilemma del carrello: un autista conduce un veicolo su rotaia che può solo cambiare binario, ma non frenare. Sul binario percorso, si trovano cinque persone incapaci di muoversi. Tra il veicolo e le persone, c’è un secondo binario sul quale si trova un’altra persona incapace di muoversi. Chi guida ha due opzioni: investire e uccidere le cinque persone sul binario che sta percorrendo, o deviare e ucciderne una sola. Qual è la scelta eticamente corretta? Prendendo a modello l’utilitarismo di Bentham, la risposta sarebbe chiara: ucciderne una per salvarne cinque. Ma se foste voi al posto di guida e se quell’unica persona sullo scambio fosse vostro fratello, uccidereste vostro fratello per salvare cinque sconosciuti?
L’etica umana entra spessissimo in impasse. Come pensare di istruire dei computer? Eppure, non possiamo permetterci di non farlo: prendiamo le automobili a guida automatica e mettiamole al posto del carrello dell’esperimento di sopra. L’automobile si trova di fronte cinque persone. Deve scegliere se travolgerle e rischiare di ucciderle o sterzare e rischiare di uccidere il proprio guidatore. Quale sarebbe la scelta etica corretta? Sterzare, ovviamente. Rischiare di perdere una vita per salvarne cinque. Ma, chi comprerebbe quest’automobile?
Il mercato, oltre ai consumatori e agli scienziati è soggetto della questione. Il mercato non ha regole morali imprescindibili e, soprattutto, non ha tempo: le novità arrivano, si impongono e allora diventano motivo di discussione. Il dilemma etico è pervasivo in tutto ciò che sarà il nostro prossimo futuro. Questo è il momento per porre nuove domande, anche se non abbiamo il tempo per elaborarne le risposte. La tecnologia e, soprattutto, la richiesta tecnologica che viene dal mercato non ci permettono di rallentare per pensare alle conseguenze di quello che stiamo facendo. È un pensiero quasi disarmante, ma forse, tutto questo fa parte dell’evoluzione: come diceva Darwin, non è la specie più forte a sopravvivere, ma quella che meglio risponde al cambiamento.
Con le parole del Professor Wolf, «dobbiamo evolverci con la tecnologia. Se vuoi predire il futuro, crealo.».