Mobilità 3.0: l'interfaccia neurale per guidare col pensiero

31.5.2018
Mobilità 3.0: l'interfaccia neurale per guidare col pensiero

La tecnologia al servizio delle persone, per un futuro migliore: grazie all'interfaccia neurale, anche chi non è attualmente in grado di guidare potrà farlo, utilizzando veicoli a guida autonoma.

Cornelia è di fronte a uno schermo in una stanza buia e indossa delle cuffie futuristiche. I suoi occhi fissano il display, dove un puntino corre da una parte all'altra. All'improvviso si accende la musica senza che nessuno abbia toccato niente. Non è un trucco: Cornelia l'ha accesa con la sola forza del pensiero. Come ci è riuscita? Facciamo un passo indietro. Tutto è iniziato alcuni anni fa, quando a suo cugino Markus è stata diagnosticata la sclerosi multipla che lo ha paralizzato dalla testa in giù. Ciononostante, Markus gestisce la propria officina e si occupa anche dell'amministrazione grazie a software speciali e al monitoraggio oculare.

I comandi attraverso la mente

"Markus farebbe qualsiasi cosa per poter guidare ed essere indipendente – spiega Cornelia – e mi sono sempre chiesta se sarebbe stato possibile condurre un'auto con un sistema combinato di monitoraggio oculare e interfaccia neurale. Su questo argomento si è basata la mia tesi di laurea in Design Interior Interface, che ho svolto con il supporto dei ricercatori Audi”. L'interfaccia neurale permette alle persone con capacità motorie e cognitive compromesse di comunicare con l'ambiente circostante tramite i comandi mentali. I sensori del dispositivo EEG registrano l'attività elettrica dei neuroni, dopodiché un computer traduce questi segnali in comandi e li invia a un qualsiasi dispositivo: una sedia a rotelle, un telecomando per la domotica e persino un'automobile.

Audi Aicon

Nella concept car a guida autonoma Audi Aicon presentata al Salone di Francoforte del 2017, il passeggero può usare l'interfaccia grafica con un sistema di monitoraggio oculare, oltre che con il controllo vocale e con i comandi touch. Una serie di sensori a infrarossi capisce quale zona del display sta guardando il passeggero e la ingrandisce. A quel punto basta solo un leggero tocco del dito, ma Markus non potrebbe farlo: la soluzione è nell'interfaccia neurale.

Graphic User Interface

Questa è la teoria – la pratica si è rivelata molto più complessa. Non è semplice, infatti, calibrare l'interfaccia neurale: possono servire anche due settimane per imparare un comando, che deve essere pensato in modo preciso e costante. Per farlo, Cornelia ha prima meditato, per rendere omogenea l'attività cerebrale, e si è poi concentrata su un singolo concetto che corrisponde a un comando. Il tutto va poi integrato in una Graphic User Interface. Per la sua tesi di laurea, Cornelia ha sviluppato 7 comandi, processandoli concettualmente e graficamente: sinistra, destra, su, giù, ruotare in senso orario, ruotare senso antiorario e selezionare. Controllare un comando e poi un altro richiede massima concentrazione, ma dopo un po' di pratica viene naturale. Un po’ come andare in bicicletta.

{

Un futuro di indipendenza

Una volta appreso il metodo di utilizzo, l'interfaccia neurale ha un elevato livello di sicurezza operativa. Se è collegata al monitoraggio oculare, non è necessario attendere che l'area specifica del pannello di controllo venga evidenziata, ma si può selezionare direttamente aumentando la rapidità di esecuzione. In un futuro non troppo remoto, Markus potrebbe chiamare un'Audi con il suo smartphone, guidare la sedia a rotelle fino all'auto, accomodarsi all'interno e gestire tutte le funzioni, inclusi infotainment e aria condizionata. Ovviamente è una visione ancora lontana dalla realtà, ma la strada è spianata.

FonteAudi Blog