Terzo appuntamento con le Leadership Lectures, la serie di incontri tematici dedicati agli aspetti chiave del business contemporaneo e rivolti alla Community BBS.
Ultima gradita ospite in Villa Guastavillani è stata Lihi Zelnik-Manor, Professor of Electrical and Computer Engineering presso il Technion Israel Institute of Technology. Ad introdurla, il collega e docente di BBS, Alon Wolf che del Technion è vicepresidente per le relazioni esterne e lo sviluppo delle risorse dal 2019.
Lihi Zelnik-Manor è un’esperta di robotica, la cui carriera sulle intelligenze artificiali inizia negli anni Novanta quando, da ingegnere meccanico, si ritrova a constatare che “Ok, i robot sono belli, ma non si tratta solo di ingegneria meccanica. Devono avere un cervello” e a voler scoprire “come funziona questo cervello robotico”. Per farlo ha conseguito un PhD in Computer Vision al Weizmann Institute e da quel momento ha seguito il percorso accademico lavorando principalmente in questo settore. La Computer Vision, è un ambito di ricerca interdisciplinare che mira a sviluppare algoritmi e tecniche in grado di consentire ai computer di riprodurre funzioni e processi visivi propri dell’occhio umano. L’obiettivo non è solo quello di arrivare ad avere la capacità di riconoscere oggetti, persone o animali all’interno di un’immagine singola o in una sequenza di immagini (come un video), bensì di estrarre informazioni utili per l’elaborazione di tali elementi, raggiungendo progressivamente livelli di astrazione e comprensione sempre più elevati. In altre parole, si tratta della capacità di ricostruire un contesto attorno all’immagine e di conferirle un autentico significato. Per poter operare in modo preciso, i sistemi di Visione Artificiale necessitano di essere addestrati con una massiccia quantità di immagini che, opportunamente etichettate, andranno a formare il dataset essenziale per consentire all’algoritmo di apprendere in modo intelligente. L’ambito di studi è dunque quello più ampio dell‘intelligenza artificiale e del cosiddetto “machine learning”.
Ma questo per Zelnik-Manor è stato solo il punto di partenza. Come accademica infatti, ritiene che gli studi in questo ambito debbano precedere le applicazioni industriali e guardare sempre avanti, proiettando sul lungo termine i temi più importanti di oggi e immaginandone gli sviluppi anche a 20 o 70 anni. Ed è stato proprio questo desiderio di guardare avanti che l’ha portata a occuparsi di aptica, cioè dell’argomento che dà il titolo alla Leadership Lecture: digitizing touch, ossia la digitalizzazione del tatto. Per affrontare questo argomento va fatta un’introduzione che permetta di collocare lo studio della percezione tattile da parte delle macchine nel più ampio contesto di studi sulle I.A. che hanno inizio negli anni Cinquanta. Mentre sugli altri sensi siamo più avanti, come dimostra la Computer Vision, spiega Zelnik-Manor, sull’aptica abbiamo più domande che risposte. Ma per poterle comprendere è necessario partire dalla definizione del quinto senso: “Pensate di poter toccare con le mani tutto ciò che potete immaginare di toccare. Questa è l’aptica. Quando parliamo di digitalizzazione del tatto, l’esempio che mi piace di più è quello del bicchiere d’acqua. Se voglio prendere un bicchiere d’acqua, ci sono due meccanismi anatomici coinvolti e che funzionano separatamente, anche se sono in qualche modo sincronizzati. Un meccanismo è quello cinestesico, dato dai muscoli e dalle articolazioni, mentre l’altro è nella pelle. Quando muovo il braccio, posso sentire il movimento, posso chiudere gli occhi e sentire il braccio che si dirige verso il bicchiere e le dita che si chiudono. Ma per prendere questo bicchiere, devo toccarlo e la pelle chiude il cerchio. Le dita toccano il vetro e ci sono dei sensori nella nostra pelle che danno al cervello il feedback attraverso dei segnali elettrici”. Nella nostra pelle ci sono recettori meccanici sensibili a tre tipi di forze: le vibrazioni statiche della pressione, le vibrazioni ad alte e basse frequenze e la frizione. Questi sono i tre tipi di forze che possiamo percepire con la nostra pelle. Possiamo anche sentire il calore e il dolore. I recettori meccanici della pelle sono distribuiti in tutto il corpo, ma non con la stessa densità: dove ci sono meno sensori, sarà più difficile reperire le informazioni.
Ma come mai è importante digitalizzare questo processo? “Il punto di partenza è che oggi possiamo vedere e sentire in digitale” ha spiegato Zelnik-Manor “Posso infilare un paio di occhiali VR e vedere e sentire oggetti digitali, posso fare un video e avere una versione digitale di quanto ripreso, ma non posso toccarlo”. Le applicazioni di una simile possibilità sarebbero senza dubbio interessanti. Il primo ambito ipotizzato dalla scienziata israeliana è quello medico, con diverse applicazioni: “Prima di tutto, la medicina a distanza. Immaginiamo, anche se ci vorranno moltissimi anni, di poter curare qualcuno ad esempio affetto da Covid, senza un contatto fisico reale. Possiamo immaginare anche di poter formare medici su larga scala permettendo loro di allenarsi, ad esempio, in cardiochirurgia avendo la possibilità di toccare un cuore virtuale. Per medicina a distanza, poi, possiamo anche pensare non solo ad avvenimenti in due luoghi diversi, ma anche a strumenti già utilizzati oggi, come la laparoscopia, che potrebbero arricchirsi della dimensione tattile amplificando il proprio potenziale: gli strumenti, infatti, oggi non forniscono un feedback aptico e questo è un limite per il chirurgo”. Ma le applicazioni in ambito medico non finiscono qui e basta pensare al mondo della riabilitazione per immaginare uno scenario in cui persone che soffrono di deficit sensoriali possano contare su un processo digitalizzato per riabilitare e recuperare le proprie percezioni. Ovviamente non si tratta solo di applicazioni in ambito medico, ma anche in contesti decisamente più divertenti, tra i quali Zelnik-Manor cita il lavoro artistico di pittori e scultori, che potrebbero realizzare opere digitali toccandole e plasmandole, ma anche la possibilità di accarezzare i propri cari o un animale domestico quando non si può essere vicini fisicamente.
Lo stato dell’arte, se guardiamo ai dispositivi attualmente presenti, non sembra offrire prospettive particolarmente affascinanti: si tratta di oggetti presenti nell’industria, ma su scala molto piccola, come guanti per interagire nel mondo virtuale o strumenti per la meccanica pesante, che però forniscono solo un feedback cinestesico. Questo significa che, anche se posso percepire la forza contro l’oggetto, non posso “chiudere il cerchio” con la pelle e non c’è ancora modo di impedirci di passare attraverso gli oggetti virtuali. “Alcune aziende come Canvas e Immersion” ha spiegato Zelnik-Manor, “stanno sviluppando tecnologie che, quando si tocca uno schermo, creano un attrito. Si può sentire che si sta toccando qualcosa e che è difficile muoversi, il che è ottimo per i cursori. Ad esempio, immaginate di essere alla guida di un’auto e di voler aumentare il volume della radio: muovendo il dito sullo schermo avrete la sensazione di muovere qualcosa e non ci sarà quindi bisogno di distogliere lo sguardo dalla strada per verificarlo attraverso la vista. Ancora più interessante è quella di Ultra Lip: una tavoletta con molti altoparlanti a ultrasuoni, tutti allineati in modo tale che le onde a ultrasuoni che creano sono tutte dirette verso lo stesso punto, così che quando si mette la mano sopra questa tavoletta questa è come forzata e si ha la sensazione di percepire oggetti a mezz’aria. È davvero fantascientifico, ma è ancora molto grossolano”. Ci sono poi strumenti che proiettano immediatamente in un futuro davvero fantastico, come Tesla Suit (ma questa volta Elon Musk non c’entra): una tuta che permette di ricevere un feedback su tutto il corpo. Costosissima e ancora work in progress, è però un prodotto interessantissimo. Meta, dal canto suo, sta lavorando con un’altra azienda chiamata Haptics per andare oltre la sola cinestesia e dare alla pelle una sensazione di consistenza, ma anche in questo caso la tecnologia è ancora lontana dall’essere pronta. E nei laboratori di ricerca? Si studiano tecnologie che sono molto interessanti, ma che hanno una logica ancora distante dall’applicazione su prodotti. Ad esempio, si studiano sistemi che sono come una miriade di spilli che mantengono la forma sulla quale vengono appoggiati che possono toccare la pelle e percepirne la consistenza. Si parte da tecnologie esistenti e si studiano evoluzioni e applicazioni innovative ed è l’approccio più utile per ottenere risultati utili su larga scala.
Zelnik-Manor ha condiviso con la Community BBS il tipo di ricerca che si sta portando avanti al Technion. Sorprende e affascina pensare come, a partire da un approccio reverse engineering e da materiali relativamente semplici ed economici, sia stato possibile progettare una vera e propria esperienza virtuale in grado di coinvolgere anche il tatto. Frizione, vibrazione e pressione sono state simulate nel mondo virtuale grazie a uno strumento meccanico con una modalità di utilizzo molto simile a quella del mouse di un computer, che ha permesso alle dita di provare tutte e tre le sensazioni attraverso gli elementi integrati al suo interno. “Ogni approccio ha i suoi vantaggi” ha spiegato Zelnik-Manor, “Abbiamo deciso di optare per una soluzione economica e sapevamo che non sarebbe stato un buon dispositivo: non si può iniziare e ottenere una buona soluzione la prima volta che si fa qualcosa, è impossibile. Quindi siamo partiti da una soluzione semplice, che funziona e ora vogliamo capire meglio come percepiscono le persone. Non conosciamo bene il senso del tatto. Non sappiamo molto su di esso, sulla nostra percezione e su cosa potrebbe funzionare, ma stiamo imparando e stiamo già lavorando alla prossima generazione”. Ecco allora che il compito dell’accademia diventa complementare e parallelo a quello dell’industria, che punta sempre e necessariamente a un’applicazione su prodotto: “costruire, sperimentare, imparare. E poi ricostruire, sperimentare e così via, fino a quando non convergeremo in un buon dispositivo, qualcosa che funzioni”.
Questo è dunque lo stato dell’arte. Ma tante sono le sfide ancora aperte e per risolverle occorre integrare questo tipo di studi a quelli sull’intelligenza artificiale e sul machine learning citati all’inizio. Qual è il prossimo passo? Zelnik-Manor lo spiega in poche parole, salvo poi spiegare in modo dettagliato e con esempi che sembrano ispirati a un film di fantascienza le possibili applicazioni. “Un dispositivo migliore, algoritmi migliori. Ma occorre parlare anche di come attiviamo il dispositivo stesso. Supponiamo di avere il migliore in circolazione, in grado di creare qualsiasi texture desiderata e di fornire un feedback preciso. Come lo attiviamo? Quindi c’è un’altra parte, ed è qui che dovrebbe entrare in gioco la mia esperienza nell’I.A.”. Quello che serve per arrivare a questo è ciò che chiamiamo, non a caso, il “nuovo petrolio”, cioè i dati. Ma se è possibile scattare una foto e chiedere alle I.A. di rilevarne le caratteristiche visive che determinano la natura degli oggetti, non è ancora possibile avere macchine fotografiche in grado di rilevare le proprietà tattili degli oggetti. Ecco allora che raccogliere dati con un sistema come quello della Computer Vision è tanto importante quanto complesso: “Milioni di persone hanno contribuito con le immagini caricate online a creare il database al quale attingere, contribuendo così a educare le I.A., ma come fare raccolta di dati aptici su larga scala? Non è ancora possibile. Certo è un’opportunità e ci sono già studi in questo senso: stiamo lavorando alle soluzioni, ma non ci siamo ancora” ha detto Zelnik-Manor “ma c’è un intero mondo di nuove sfide che stanno arrivando con questa tecnologia”. Sfide anche di tipo etico e sociale, che Zelnik-Manor ritiene vadano previste e affrontate in anticipo, senza però perdere l’opportunità di migliorare la vita delle persone: “Penso che possiamo fare alcune cose interessanti già nell’arco di cinque anni. Sicuramente. È una grande area di ricerca, di esplorazione e di riflessione” ha concluso la studiosa, immediatamente raggiunta dalle molte domande del pubblico, che ha seguito con interesse e passione una Lecture dedicata a un tema tanto complesso quanto affascinante.