Toyota

Toyota Motor Corporation ha annunciato oggi i più recenti sviluppi in fatto di mobilità autonoma e altri progetti portati avanti dal Toyota Research Institute (TRI).

Gill Pratt, CEO del TRI: “Gli ultimi mesi hanno visto un’incredibile accelerazione da parte nostra in fatto di guida autonoma, in particolare relativamente alla salvaguardia delle vite umane, a una migliore accessibilità alla mobilità e alla realizzazione di vetture confortevoli e divertenti da guidare. I nostri team di ricerca hanno puntato inoltre alla progettazione di sistemi robotici sempre più intelligenti al servizio delle persone.”

Per questo Toyota ha deciso di pubblicare una lista completa dei progetti relativi alla mobilità autonoma: un White Paper che spiega la filosofia del brand per quanto riguarda l’approccio alla tecnologia, i programmi di ricerca e i piani a breve termine mirati a sviluppare tecnologie in grado di ridurre drasticamente gli incidenti stradali e allo stesso tempo incrementare le soluzioni di mobilità per le popolazioni di tutto il mondo. Con la diffusione del White Paper, Toyota punta a convincere altri soggetti economici ad abbracciare i valori in essa contenuti, portando così ad una crescita esponenziale delle infrastrutture necessarie.

Il White Paper riassume i concetti delle applicazioni ‘Guardian’ e Chauffeur’, e cioè quelle alla base della ricerca Toyota sulla guida autonoma e del ‘Mobility Teammate Concept’: le interazioni tra vettura e conducente sono da considerarsi alla stregua di quelle tra due amici intimi, che si prendono cura l’uno dell’altro e che non esitano ad aiutarsi reciprocamente in caso di necessità.

Il White Paper è consultabile all’indirizzo www.automatedtoyota.com.

Kiyotaka Ise, Chief Safety Technology Officer e Senior Managing Officer della Toyota Motor Corporation: “La guida autonoma porterà molteplici benefici alla società, ma non dimentichiamo che per noi la priorità è realizzare una mobilità basata sulla sicurezza. Disporre di tecnologie capaci di prevedere il susseguirsi degli eventi nel traffico e di interagire con gli esseri umani: solo così sarà possibile prevenire e ridurre le collisioni a diverse velocità di marcia.

Oltre a questo, il TRI ha deciso di condividere i progressi ottenuti nelle seguenti tecnologie:

GUIDA AUTONOMA

Dopo aver presentato la ricerca Platform 2.0 nel marzo 2017, il TRI ha rapidamente aggiornato lo studio con quella che è stata definita Platform 2.1. Parallelamente alla creazione di questa innovativa piattaforma, il TRI ha registrato diversi progressi nel campo della Computer Perception, progressi che hanno consentito ai sistemi di guida autonoma di rilevare nei minimi dettagli l’ambiente attorno alla vettura, individuando oggetti e carreggiate al fine di assicurare una guida in tutta sicurezza. Queste nuove architetture risultano più veloci, efficienti e precise: oltre al rilevamento degli oggetti possono infatti fornire anche dati relativi ad altri elementi, come la segnaletica orizzontale e verticale, supportando inoltre lo sviluppo delle mappe, fattore questo chiave per un funzionamento ottimale della guida autonoma.

La Platform 2.1 va inoltre ad ampliare il portafoglio di fornitori del TRI, che include oggi la Luminar con il suo innovativo sistema LIDAR, che assicura un raggio di rilevamento più ampio, un Point Cloud più capillare per determinare la presenza di oggetti tridimensionali, e un campo visivo configurabile in maniera dinamica. Questo significa che i punti di misurazione possono essere concentrati nelle aree in cui la rilevazione risulti di maggiore importanza. Il nuovo LIDAR va a coniugarsi all’attuale sistema di rilevamento per la copertura a 360°. Il TRI auspica l’ingresso di nuovi fornitori non appena questa tecnologia all’avanguardia sarà lanciata sul mercato.

Per quanto concerne la Platform 2.1, il TRI ha progettato una seconda plancia di controllo per il passeggero con sterzo ‘Drive-by-wire’ e pedaliera assolutamente funzionanti. Questo setup consente al team di ricerca di esplorare diversi metodi per il trasferimento del controllo dalla guida umana a quella autonoma in condizioni di guida differenti. Il sistema è inoltre utile per lo sviluppo di algoritmi di apprendimento automatico derivanti dalle competenze di piloti esperti.

Il TRI ha pianificato inoltre un approccio per dimostrare i diversi livelli di guida autonoma all’interno di un veicolo mediante l’utilizzo estensivo di interfacce utente attraverso display, luci colorate e linguaggio tonale utilizzati dalle applicazioni ‘Guardian’ e ‘Chauffeur’. L’istituto sta inoltre provando ad incrementare la consapevolezza situazionale dei conducenti attraverso la visualizzazione sul display multimediale di un Point Cloud relativo a tutto ciò che la vettura incontra nell’ambiente circostante.

Grazie agli enormi progressi in fatto di hardware e software, la Platform 2.1 diventa oggi uno strumento da applicare al collaudo simultaneo delle due applicazioni di guida autonoma ‘Guardian’ e Chauffeur’ ideate dal TRI. ‘Guardian’ è l'elettronica a supporto del conducente, un sistema che controlla costantemente l’ambiente di guida sia interno che esterno ed è pronto ad avvisare l’automobilista relativamente a potenziali pericoli, per poi eventualmente prendere il comando della vettura. ‘Chauffeur’ è un sistema completamente autonomo che secondo le prescrizioni della SAE è sviluppato per il livello 4/5 di guida autonoma. Le due applicazioni adottano lo stesso numero di sensori e telecamere.

La piattaforma include la capacità del ‘Guardian’ di rilevare i livelli di distrazione e sonnolenza del conducente, reagendo autonomamente nel caso in cui il guidatore non dovesse agire sullo sterzo in presenza di una curva. In una situazione del genere il sistema in prima istanza avverte il conducente per poi intervenire sullo sterzo e sul sistema frenante per seguire la curvatura della carreggiata. I test sull’applicazione ‘Chauffeur’ indicano invece come la vettura riesca a guidare autonomamente sulle carreggiate più anguste in diverse condizioni di guida, aggirando oggetti presenti sulla strada e cambiando corsia in presenza di un ostacolo nonostante il sopraggiungere di una vettura nella direzione opposta.

Oltre ai test effettuati sul campo, il TRI sta anche utilizzando la simulazione per nuove e sempre più accurate sfide ingegneristiche.

ROBOTICA E INTELLIGENZA ARTIFICIALE

Il TRI sta anche facendo passi da gigante nel campo della robotica e dell’intelligenza artificiale.

Come parte della ricerca sull’assistenza domestica robotizzata, per mansioni quali il recupero di oggetti caduti in terra, il TRI ha sviluppato nuovi strumenti che consentano ai robot una maggiore destrezza nella manipolazione degli oggetti di uso comune. Il TRI sta applicando inoltre alla robotica i concetti di Intelligenza Artificiale e di Computer Vision, nell’intento di offrire ai robot la capacità di rilevare la presenza di oggetti e di esseri umani, la capacità di collocarli nello spazio e di recuperarli (nel caso di oggetti). I robot potranno quindi comprendere lo spostamento di un oggetto, aggiornandone la posizione, e addirittura riconoscere i volti degli esseri umani registrati nel database.

I progressi nel campo della robotica sono stati resi possibili dalla straordinaria capacità del TRI di ottenere la massima precisione nelle simulazioni per i test fisici. Dopo aver riscontrato l’impossibilità di testare la completezza delle situazioni che un robot potrebbe incontrare nel mondo reale, l’istituto ha deciso di adottare ambienti simulati adattandoli costantemente ai dati raccolti nel mondo reale per offire ai test un’incredibile molteplicità di situazioni.

Il TRI sta inoltre dedicandosi a nuove idee per l’applicazione dell’intelligenza artificiale all’interno di una vettura, per offrire agli occupanti la massima sicurezza, soddisfazione e il massimo del comfort. L’istituto ha progettato un simulatore dotato di Intelligenza Artificiale a bordo della vettura capace di rilevare la postura, la testa, lo sguardo e lo stato emotivo del guidatore per anticiparne le esigenze o i potenziali problemi alla guida. Per esempio, quando il sistema rileva il conducente nell’atto di bere qualcosa oppure un’espressione del volto che possa suggerire un malessere, l’IA Agent potrebbe ipotizzare un’eccessiva calura nell’abitacolo e regolare immediatamente il climatizzatore oppure agire sugli alzacristalli. Se il sistema rileva invece sonnolenza potrebbe suggerire al guidatore una sosta per il caffè e visualizzare le informazioni di navigazione verso la caffetteria più vicina.