I veicoli autonomi devono essere in grado di identificare in modo rapido e preciso gli oggetti che incontrano, come i camion delle consegne parcheggiati dietro gli angoli o i ciclisti che si avvicinano agli incroci. Per raggiungere questo obiettivo, le auto autonome potrebbero utilizzare un potente modello di visione artificiale per classificare ogni pixel nelle immagini di scene ad alta risoluzione, garantendo che non trascurino oggetti che potrebbero essere oscurati in immagini di bassa qualità. Tuttavia, questo compito, noto come segmentazione semantica, è molto complesso e richiede calcoli estesi, soprattutto con immagini ad alta risoluzione.

Secondo quanto riportato dai media internazionali, i ricercatori del Massachusetts Institute of Technology (MIT), del MIT-IBM Watson AI Lab e di altre istituzioni hanno collaborato per sviluppare un modello di visione artificiale più efficiente, riducendo significativamente la complessità computazionale del compito sopra menzionato. Questo modello può eseguire una segmentazione semantica accurata e in tempo reale su dispositivi con risorse hardware limitate, come i computer di bordo del veicolo, consentendo alle auto autonome di prendere decisioni istantanee.
Gli attuali modelli di segmentazione semantica all'avanguardia possono apprendere direttamente le interazioni tra ogni coppia di pixel in un'immagine, il che significa che il loro calcolo cresce quadraticamente all'aumentare della risoluzione dell'immagine. Sebbene tali modelli siano molto accurati, la loro velocità di elaborazione è troppo lenta per gestire immagini ad alta risoluzione in tempo reale su dispositivi edge come sensori o smartphone.

I ricercatori del MIT hanno progettato un nuovo componente per il modello di segmentazione semantica, che vanta capacità equivalenti ai modelli più avanzati del suo genere ma raggiunge solo una complessità computazionale lineare e facilita operazioni hardware efficienti.
Il risultato del lavoro dei ricercatori è una nuova serie di modelli per la visione artificiale ad alta risoluzione. Se implementati su dispositivi mobili, questi modelli funzionano 9 volte più velocemente dei loro predecessori. È importante sottolineare che, rispetto a soluzioni alternative, questo nuovo modello raggiunge una precisione simile, se non migliore.
Questa tecnologia non solo può aiutare le auto autonome a prendere decisioni in tempo reale, ma può anche migliorare l’efficienza di altre attività di visione artificiale ad alta risoluzione, come la segmentazione delle immagini mediche.





