mercoledì, Aprile 22, 2026

Gestione ambientale urbana: abbiamo conversato con il CEO di Latitudo 40, Gaetano Volpe

Ultime News

PER COMPRENDERE LA VISIONE, LE TECNOLOGIE E LE AMBIZIONI CHE GUIDANO LATITUDO 40, ABBIAMO INTERVISTATO GAETANO VOLPE, INGEGNERE E CEO DELL’AZIENDA. DALLE ORIGINI DEL PROGETTO FINO ALLE SFIDE FUTURE LEGATE AI DIGITAL TWIN E ALLA RESILIENZA URBANA, EMERGE IL RACCONTO DI UNIONE TRA INNOVAZIONE TECNOLOGICA E IMPATTO TERRITORIALE

Ingegner Volpe, come e perché nasce Latitudo 40?

Latitudo 40 nasce da una convinzione semplice ma radicale. I dati satellitari, fino a pochi anni fa patrimonio esclusivo di agenzie spaziali e grandi istituti di ricerca, devono diventare strumenti operativi per chi governa le città. (Leggi l’articolo)

Oltre che per chi gestisce il territorio, prende decisioni che impattano la vita delle persone. Il nome non è casuale. La latitudine 40° Nord attraversa Napoli, ma anche Madrid, Ankara, Pechino.

È la fascia del Mediterraneo allargata, quella più esposta alle trasformazioni climatiche in corso, quella dove il bisogno di capire e anticipare è più urgente.

L’obiettivo e la fondazione dell’azienda

Partendo dalle esperienze professionali in aziende multinazionali (Mauro Manente e Gaetano Volpe) e nell’ambito della ricerca (Donato Amitrano), abbiamo fondato l’azienda. Questo con l’idea che l’osservazione della Terra non fosse solo una questione scientifica, ma una questione civile.

Oggi, con i satelliti che ci restituiscono un’immagine coerente e continua del pianeta — temperatura superficiale, qualità dell’aria, copertura vegetale, espansione urbana — abbiamo la possibilità di costruire una memoria storica del territorio.

Una memoria che va fino a dieci anni nel passato, e da quella memoria costruire trend, individuare anomalie, capire dove una città sta diventando più vulnerabile. La nostra sfida è stata tradurre questa complessità in strumenti che un sindaco, un assessore, un urban planner possa usare senza essere un fisico dell’atmosfera.

Far progredire il territorio

Abbiamo inoltre voluto abbracciare una sfida ancora più grande. Una sfida che va oltre la tecnologia, dimostrare che con progetti solidi è possibile fare azienda anche a Napoli e in tutto il Sud Italia.

Il nostro obiettivo non è solo crescere come azienda, ma far progredire il nostro territorio con la possibilità di creare ecosistemi tecnologici che si contaminano e posso collaborare in progetti più grandi e di più ampio respiro. Oggi quasi la metà del team non è di Napoli, abbiamo attratto talenti da tutta Italia e dall’estero.

Come, i digital twin di Latitudo 40, combinano dati satellitari, sensori IoT e indicatori urbani per simulare scenari futuri. Quali sono le principali sfide per ottenere simulazioni affidabili a livello di quartiere?

Il digital twin urbano che abbiamo costruito è, nella sua essenza, uno strato di intelligenza sovrapposto alla città reale. Combina tre famiglie di dati. L’osservazione satellitare continuativa — Copernicus in primo luogo, con le missioni Sentinel — che ci dà la visione dall’alto su isole di calore, qualità dell’aria, impermeabilizzazione del suolo, stato della vegetazione.

I sensori IoT distribuiti sul territorio, che ci restituiscono la dimensione puntuale e in tempo reale, dove presenti ci aiutano a migliorare la capacità di comprensione e di analisi dei nostri modelli. E gli indicatori urbanistici e demografici, che ci dicono chi abita dove, con quale vulnerabilità, in quale tessuto edilizio.

Dal monitoraggio alla simulazione proattiva

Ma un twin che si limita a fotografare il presente è ancora un approccio osservativo. La vera svolta è il passaggio a un approccio proattivo: non solo capire com’è la città oggi, ma simulare come sarà dopo un intervento.

Se un’amministrazione decide di rinaturalizzare un’area impermeabilizzata, di piantare un corridoio alberato in un asse stradale, di installare superfici riflettenti su un quartiere industriale il nostro sistema consente di valutare l’impatto di quelle scelte prima di realizzarle, e di confrontare scenari alternativi in modo quantitativo.

La sfida chiave: gestire l’incertezza

La sfida più difficile nella scala al quartiere è la propagazione dell’incertezza. I modelli climatici globali lavorano su celle di decine di chilometri. Noi abbiamo abbracciato l’obiettivo di arrivare a celle di 10, con tecniche di downscaling che combinano fisica dell’atmosfera, machine learning e validazione su dati locali.

A Napoli, dove la morfologia urbana è straordinariamente complessa — colline, mare, canyon stradali, tessuto denso e storico — questo lavoro di calibrazione è stato intenso. Inoltre, ci ha insegnato molto su come rendere le simulazioni affidabili, non solo plausibili. Da Napoli siamo partiti per offrire i nostri servizi in oltre venti città europee e a piantare la nostra prima bandierina in Middle East con il governo di Abu Dhabi.

Quali strategie adotterete per adattare le soluzioni sviluppate a Napoli ai diversi contesti delle città pilota e follower in Europa?

Napoli è stato il nostro laboratorio per eccellenza. Una città che concentra quasi ogni sfida urbana possibile: densità, vulnerabilità sociale, rischio sismico e vulcanico, isole di calore, qualità dell’aria, fragilità idrogeologica. Averla come banco di prova ci ha obbligati a costruire soluzioni robuste, non soluzioni che funzionano solo in condizioni favorevoli.

Modularità della piattaforma

La strategia di trasferimento verso le città europee, ma anche globali, si articola su tre piani. Il primo è la modularità dell’architettura. I layer di analisi — rischio climatico, qualità dell’aria, stress termico, resilienza della vegetazione urbana — sono componibili, e ogni città può attivare quelli rilevanti per il proprio contesto senza dover adottare l’intera piattaforma.

Lo vediamo concretamente nei progetti che stiamo portando avanti in parallelo. A Milano abbiamo applicato la nostra capacità di analisi satellitare alla pianificazione della mobilità sostenibile. Il tutto valutando l’adeguatezza e la continuità della rete di piste ciclabili esistenti attraverso dati di osservazione della Terra integrati con indicatori di uso del suolo — un caso d’uso lontanissimo dall’isola di calore, ma costruito sugli stessi layer fondamentali.

A Grenoble (Francia) stiamo lavorando sul comfort termico outdoor a scala di quartiere, producendo mappe ad altissima risoluzione di PET e UTCI — gli indici che misurano la percezione termica delle persone nello spazio pubblico — per supportare le scelte di progettazione degli spazi aperti.

Una città nordica non ha un problema di isola di calore estiva paragonabile a quello di una città mediterranea ma ha sfide di benessere termico in stagioni diverse che il nostro sistema sa affrontare con gli stessi strumenti, calibrati diversamente.

Calibrazione sui dati locali

Il secondo piano è la calibrazione locale. Ogni deployment richiede un lavoro di ingestion dei dati territoriali specifici — piani urbanistici, catasto energetico degli edifici, rete verde esistente — e di validazione dei modelli su stazioni di misura locali.

Helsinki è un esempio emblematico di questa logica. Lì stiamo contribuendo a una piattaforma integrata di gestione ambientale urbana che combina dati satellitari con sensori distribuiti sulla rete cittadina, in un contesto climatico, normativo e infrastrutturale radicalmente diverso da quello mediterraneo. Il risultato non è una versione adattata della piattaforma napoletana.

Ma è una piattaforma calibrata su Helsinki, che condivide l’architettura e i metodi ma parla il linguaggio di quella città. Questo non è un costo, è un investimento che rende la piattaforma progressivamente più precisa e la conoscenza accumulata trasferibile al deployment successivo.

Trasferimento di conoscenza ai decisori

Il terzo piano è il trasferimento di conoscenza verso le amministrazioni. Abbiamo imparato che il digital twin più sofisticato vale zero se chi deve usarlo non ne comprende i limiti e le potenzialità. Per questo abbiamo investito molto nell’interfaccia decisionale — quella che chiamiamo la “vista del decisore” — che trasforma output tecnici complessi in indicatori comprensibili, confrontabili, direttamente collegati alle voci di budget disponibili.

Il progetto che stiamo sviluppando con Torino sul navigatore urbano green è forse l’esempio più diretto di questa filosofia: uno strumento che guida cittadini e amministratori nell’identificare i percorsi e gli spazi urbani più resilienti dal punto di vista ambientale, rendendo visibile e navigabile una conoscenza che fino a ieri era sepolta in report tecnici. Dalla modellazione fisica alla UX: è questo il percorso che vogliamo consolidare su ogni città in cui operiamo.

Quali nuovi sviluppi tecnologici o dataset Latitudo 40 prevede di integrare per rendere le simulazioni più predittive e utili alla resilienza urbana?

La frontiera su cui stiamo lavorando con maggiore intensità è l’integrazione degli scenari climatici IPCC. I grandi framework di proiezione elaborati dall’Intergovernmental Panel on Climate Change, lo stesso organismo che fornisce la base scientifica agli accordi di Parigi. Gli scenari IPCC ci dicono, con diversi gradi di certezza, come cambierà il clima del pianeta nei prossimi decenni a seconda delle traiettorie di emissione che sceglieremo collettivamente.

Integrarli nella nostra piattaforma significa offrire a un’amministrazione comunale la possibilità di guardare la propria città al 2050 o al 2070, sotto scenari di riscaldamento diversi. E capire dove oggi conviene investire in resilienza per non dover spendere dieci volte di più in emergenza domani.

Dalla reazione alla previsione

Questo è il salto concettuale che vogliamo rendere accessibile. Uscire dalla logica del “abbiamo avuto un’ondata di calore l’estate scorsa” per entrare nella logica del “tra vent’anni questa sarà la norma, e dobbiamo attrezzarci ora”.

Lo strumento di simulazione che abbiamo sviluppato consente di valutare l’efficacia di una strategia di mitigazione — una foresta urbana, un piano di rinaturalizzazione, un programma di retrofit energetico degli edifici — non solo nell’immediato, ma lungo un orizzonte temporale che supera qualsiasi mandato politico.

Il risultato non è un output accademico, ma un indicatore di ritorno sociale: quante giornate di caldo estremo evitate, quante persone protette, quale risparmio in termini di costi sanitari e di intervento di emergenza.

Nuovi dati e AI generativa

Sul piano dei dati, stiamo integrando nuove generazioni di prodotti di osservazione della Terra ad altissima risoluzione. Ma anche nuovi modelli di qualità dell’aria che scendono alla scala del singolo isolato. E, inoltre, stiamo esplorando l’uso dell’AI generativa per la produzione di scenari controfattuali — ovvero per rispondere alla domanda “cosa sarebbe successo se questa parte della città fosse stata progettata diversamente”. Non per riscrivere la storia, ma per imparare da essa e progettare meglio il futuro.

Numero verde ONA

spot_img
spot_img
spot_img

Consulenza gratuita

    Articoli simili