Tratto dall’intervento di Armando Cartenì | Osservatorio Sunrise
Join the Data Revolution
Ma preparati a conoscerne benefici e rischi
Per decenni i sistemi di trasporto sono stati studiati con indagini statiche che producevano poco più di fotografie parziali della domanda, a distanze temporali molto ampie. Oggi, invece, la disponibilità di flussi continui di dati in tempo reale segna un cambio radicale: dalla pianificazione tradizionale si passa a una pianificazione adattiva, capace di monitorare, prevedere e correggere i servizi in maniera dinamica. Ma quali rischi porta con sé questa vera e propria rivoluzione? Ce ne ha parlato il professor Cartenì, riflettendo sui benefici e sulle sfide della rivoluzione dei big data nel campo della pianificazione della mobilità.
Join the Data Revolution
Se si pensa alla velocità e alla “prepotenza” con cui si stanno sovvertendo le regole nel campo dell’analisi dei dati di mobilità, non è esagerato parlare a tutti gli effetti di una vera e propria rivoluzione. Per decenni la mobilità si è studiata e pianificata sulla base di indagini ripetute ad anni di distanza, a volte anche decenni, eventualmente raffinate con interviste o conteggi di traffico una tantum. Quello che si otteneva era poco più di una fotografia statica delle abitudini di mobilità. Non era nemmeno pensabile parlare di stagionalità, orari di morbida, o sottocategorie di utenti diverse da quelle tipiche di lavoratori e studenti.
Oggi la situazione è radicalmente cambiata: grazie alla sempre più consistente disponibilità di dati si è passati dal campionamento episodico a piattaforme di monitoraggio, ovvero sistemi che raccolgono dati in maniera continua. I big data, con le due “V” che li caratterizzano (Volume e Velocità) permettono di monitorare i sistemi di mobilità e il loro funzionamento in tempo reale, aprendo le porte ad una pianificazione adattiva che fino a pochi anni fa non si poteva neanche immaginare. Ad esempio, è possibile pianificare un’offerta che soddisfi la domanda reale e che si corregga sulla base di valutazioni ex-post, anziché su considerazioni quantitative basate su pochi dati.

Ma non solo: oggi si può iniziare a gestire l’early warning, ovvero sistemi di allerta precoce che integrano i componenti di analisi e monitoraggio con modelli di preannuncio e sistemi di supporto alle decisioni, di comando e controllo, impossibili da gestire fino a qualche anno fa con gli strumenti a disposizione.
«Oggi siamo sommersi da una quantità di dati senza precedenti: le fonti dati a cui possiamo attingere per leggere la mobilità e sviluppare sistemi di supporto alle decisioni è senza precedenti. Noi analisti siamo inebriati dalla quantità di dati a disposizione»
Ma come tutte le cose inebrianti, non è un processo esente da rischi. Siamo di fronte a quello che il prof. Cartenì definisce un vero e proprio diluvio di dati, ed è molto importante non venirne travolti, sviluppando strumenti per gestirlo. In che modo?
«Da un lato si può continuare a fare il lavoro di pianificatori e di analisti come lo facevamo in passato, ma con strumenti differenti. Oppure si può “aggredire” questo diluvio e cambiare strutturalmente il modo con cui catturiamo, organizziamo, analizziamo e validiamo questi dati, per accrescere il loro valore».
Big data, Big opportunities
Come ci spiega Cartenì, si può distinguere tra due generazioni di dati:
- Big Data di “prima generazione”: raccolti per altri scopi (es. dati provenienti da celle telefoniche, tornelli del TPL, caselli autostradali) e poi riutilizzati per analisi di mobilità
- Big Data di “seconda generazione”: a differenza dei primi, sono pensati fin dall’inizio per supportare decisioni di mobilità.
È su questi ultimi che occorre investire, con il supporto dell’intelligenza artificiale, che consente di pulire, validare e analizzare pattern complessi, fino a sviluppare previsioni dinamiche.
Tra gli strumenti emergenti abilitati dai big data spiccano i digital twin, ovvero repliche digitali dinamiche dei sistemi reali. “Abbeverandosi” continuamente con i dati del mondo fisico, sono in grado di aggiornarsi continuamente in tempo reale, permettendo di fare delle valutazioni ex-ante molto più performanti del passato, o ancora simulare scenari, anticipare criticità e gestire in modo adattivo l’evoluzione del sistema, ad esempio attivando sistemi di allerta precoce (early warning) in caso di incidenti o fenomeni stagionali ed eccezionali. Un salto in avanti rispetto ai modelli di simulazione statici del passato, che colgono solo un istante:
«Anche se lo riproducono nel migliore dei modi, i modelli tradizionali parlano di un’istante passato che non è più così rappresentativo. Con i digital twin, alimentati da AI e big data, è possibile sviluppare dei sistemi di supporto alle decisioni molto più evoluti»
Molti player, quasi sempre privati, stanno lavorando molto per sviluppare i digital twin: siamo nel pieno exploit di questa rivoluzione.
Ma possiamo fidarci di questi dati?
Questa rivoluzione apre anche a sfide cruciali che minano le potenzialità del nuovo paradigma: la necessità di validare la qualità dei dati, affrontare il tema dei costi di gestione delle piattaforme, dei “deserti digitali” che lasciano fuori intere fasce di popolazione e il rischio di creare silos informativi inaccessibili.
La qualità dei dati è forse il tema più delicato:
«La velocità e la quantità di dati è tale che spesso non permette di validarne la qualità in maniera accurata: questo può portare spesso a letture del fenomeno palesemente errate. Dati troppi troppo veloci devono essere accuratamente validati da competenze tecniche adeguate, e soprattutto gli algoritmi predittivi devono essere governati da analisti dei sistemi di trasporto»
Di grande importanza è anche il rischio di creare silos digitali. La sovranità di questa tipologia di dati, in assenza di una buona governance, può limitarne l’accesso, creando i cosiddetti silos: luoghi dove i dati sono raccolti, puliti e validati in modo eccellente ma dove rimangono accessibili solo a un numero limitato di persone.
Poi c’è il tema dei costi: l’elaborazione, pulitura e conservazione di questa enorme mole di dati genera costi importanti, sia in termini di ore/uomo che di consumo di elettricità, spazi cloud, risorse per far girare le macchine.
Un altro problema sono i cosiddetti deserti digitali, ovvero “sacche” di popolazione e/o porzioni di territori che non sono monitorabili dai big data, e da cui può derivare una lettura incompleta e scorretta del fenomeno osservato. Ad esempio, l’utenza debole (bambini o anziani che non guidano auto dotate di black box o non posseggono un telefono cellulare), o aree rurali prive o scarsamente dotate di sensori che permettano di leggere il fenomeno, e che possono essere più soggette per questo motivo alle cosiddette allucinazioni provocate da una lettura scorretta dei dati.
Ancora, una sfida è rappresentata dal gap critico sulle skills: va evitato che chi si occupa di analisi di trasporti si trovi a fare data science, o viceversa che chi raccoglie i dati e li gestisce a livello informatico si dedichi anche a interpretazioni trasportistiche. Secondo Cartenì, il team e l’approccio multidisciplinare rappresentano l’unica vera ricetta vincente.

Di conseguenza, rimane strettamente necessaria una formazione continua. L’AI evolve a ritmi serrati: una delle principali regole per la gestione dell’AI è quella di “non di dare per scontato di trovare domani l’intelligenza artificiale come l’abbiamo lasciata oggi”. L’evoluzione è talmente veloce che la formazione continua è un elemento essenziale per sfruttarne appieno le opportunità.
Nuove frontiere: Explainability & Accountability
Ma l’affidabilità non riguarda solo la parte tecnica. Un aspetto che è sempre stato disatteso nel campo dei dati di pianificazione è la capacità di rendere chiaro e comprensibile a tutti gli stakeholder non solo la potenzialità degli strumenti, ma anche i risultati stessi.
«La grande quantità di dati può aiutare moltissimo nella comunicabilità delle performance, delle funzioni e delle opportunità, e ci consente di avere una validazione da parte di stakeholder, decisori e in generale persone coinvolte nel processo, al di là dei soli analisti».
Questo aspetto è molto importante, perché non va ripetuto l’errore, tipico in ambito ingegneristico, di elaborare strumenti e risultati importanti ma incomprensibili ai più. Questo è il momento in cui dati e metodi possono essere veicolati per far capire le potenzialità dei dati a stakeholder terzi, elevando appieno la loro potenzialità.

Il ruolo degli Osservatori della mobilità
Il professore ha ricordato infine l’importanza di ecosistemi collaborativi dove possano convergere tutte le competenze e gli attori coinvolti in questo processo: gli Osservatori sulla mobilità. Luoghi fisici dove soggetti e interessi differenti possano trarre il meglio dalle opportunità offerte dai dati a disposizione e raccogliere, validare, normalizzare questi dati, grazie a competenze avanzate in campo statistico e informatico per l’interpretazione e la pulizia degli stessi. In questo ambito, è possibile sviluppare in modo consapevole sistemi di previsione e supporto alle decisioni nel campo della pianificazione. Un luogo dove si conservano dati grezzi e dove si predispone un data warehouse per le fasi di pulitura, analisi e validazione.
«Per questo mi immagino un team forte e multidisciplinare, con competenze che vanno dagli ingegneri analisti dei sistemi di teletrasporto fino ai data scientists, ma anche giuristi che si occupino dei temi di copyright e privacy»
Cartenì porta due esempi nel territorio italiani:
- L’Osservatorio sulle tendenze di mobilità dei passeggeri, promosso dalla Struttura Tecnica di Missione del MIT e coordinata dal prof. Cartenì stesso, ha la finalità di monitorare l’evoluzione della domanda di mobilità del paese. Si nutre di dati forniti da player della mobilità (centri studi, direzioni generali del MIT ecc.), che forniscono al datalake del Ministero i dati di domanda di mobilità. Il data warehouse, ancora in via di perfezionamento, pulisce, valida e individua dati anomali, e successivamente fornisce previsioni e rappresentazioni pubblicate in un report trimestrale.
- L’Osservatorio SUNRISE – parte del Centro Nazionale della Mobilità Sostenibile (MOST) e promosso da università e grandi attori della mobilità come Vodafone, Generali e GO-Mobility – è più recente e punta a creare un ecosistema collaborativo per integrare diverse fonti dati e competenze, arricchendosi con database proprietari esclusivi, al fine di condurre studi più specificamente rivolti alla decarbonizzazione dei trasporti.

In conclusione: i big data e l’AI hanno un potenziale enorme, ma se non sono governati da competenze solide rischiano di produrre risultati fuorvianti e cedere alle sfide che ne minacciano le potenzialità. La sfida non è solo tecnica: è culturale e politica, e riguarda la capacità di usare i dati non come un fine, ma come uno strumento di conoscenza e di decisione condivisa. Per questo serve un approccio multidisciplinare e una formazione continua per governare strumenti che evolvono a ritmi rapidissimi.
Iscriviti alla newsletter per seguire le nostre attività e accedere a contenuti speciali
©2025 GO-Mobility s.r.l. | Partita IVA 11257581006
