In una roadmap verso Hack@EO L’Aquila 2021 abbiamo deciso di intervistare Marcello Maranesi, CEO di GMatics, partner dell’hackathon.
Hack@EO L’Aquila 2021 è la risposta data-driven alle domande sul post terremoto per verificare se i dati, la loro analisi e racconto, possono aiutarci a prendere scelte migliori in futuro. Le Challenge verranno strutturate dal team di esperti in ambito Dati, organizzato da Open Search Network in collaborazione con i team di Territori Aperti, centro di documentazione, formazione e ricerca per la ricostruzione e la ripresa dei territori colpiti da calamità naturali, insieme a GMatics e all’Associazione Italiana per l’Intelligenza Artificiale

Buongiorno Marcello, grazie al contributo di GMatics è nato Hack@EO L’Aquila 2021. Qual è la vostra mission aziendale e perché avete creduto così fermamente nel progetto HackAt?

La nostra mission aziendale è quella di sviluppare applicazioni innovative e servizi basati sull’utilizzo dei dati di Osservazione della Terra, altri dati geospaziali e tecniche di Intelligenza Artificiale. Tramite questa combinazione intendiamo realizzare dei servizi altamente automatizzati e a basso costo per gli utilizzatori, in modo da trasformare l’enorme quantità di dati oggi disponibile dai satelliti di osservazione della Terra in informazioni utilizzabili da parte di tutti, sia dell’Industria nell’ambito dell’industria 4.0, sia delle Pubbliche Amministrazioni nell’ambito dell’e-government. 

Abbiamo creduto in questa iniziativa perché riteniamo importante che una startup sia aperta al mondo che la circonda, favorendo il confronto e le iniziative volte a creare nuovi spunti e nuove idee. In questo contesto abbiamo anche colto l’opportunità di poter conoscere nuovi e appassionati studenti universitari o laureati che si cimentano su queste tematiche.

Ci puoi raccontare il mondo dell’Earth Observation? 

Dopo una prima fase molto più tecnologica e scientifica, da ormai 20 anni il settore si è arricchito di satelliti commerciali, nati con lo scopo di sviluppare business sui dati. Nel corso degli anni il numero dei satelliti è aumentato moltissimo, tanto che oggi ne abbiamo circa 150 operativi tra grandi e piccoli. 

Ci sono i grandi satelliti che costano dai 5 e 600 milioni di euro, che sono molto performanti e con grandissime capacità e poi ci sono i piccoli satelliti, come Planet, grandi come una scatola di scarpe ma che consentono di fare delle riprese della terra ugualmente interessati. È previsto che nei prossimi 5 anni verranno lanciati più di 600 satelliti.

Il panorama di oggi è costituito da grandi satelliti, come il programma Copernicus, offerti gratuitamente con una licenza open a tutto il mondo, e altri satelliti, senza un’elevata risoluzione spaziale, ma impegnati a monitorare tutto il globo, che permettono di fotografare ogni tot giorni l’intera Terra. Questo secondo tipo di satelliti è molto utile per scopi di tipo ambientale, di climate change e per avere il controllo su diversi parametri, come gli oceani, le foreste, i ghiacciai e i poli. 

Un’altra tipologia di satelliti è quella dei grandi satelliti commerciali, i quali sviluppano soluzioni nell’ordine dei 30/40 cm e sono considerate alla stregua di una Ferrari. Ultimamente stanno emergendo anche le costellazioni di mini satelliti che, grazie al loro basso costo, non solo consentono di utilizzarne più unità, aumentando l’affidabilità delle osservazioni senza grandi rischi economici in casi di malfunzionamento, ma forniscono anche dati di tipo commerciale ad un prezzo minore rispetto ai grandi satelliti. 

Una novità del settore è che le tecniche di elaborazione dei dati stanno migliorando moltissimo: non è più possibile lavorare questi dati con i software, ma con i fotointerpreti, cioè con delle persone che interpretano il contenuto informativo di questi dati. Questo fenomeno ci aiuta a spiegare il diffondersi così pervasivo di tecnologie di AI, in grado di poter lavorare molti dati in poco tempo. Ecco la motivazioni che ci hanno portato a costruire GMatics. 

Come è cambiato nel corso degli anni l’utilizzo di tecniche di Machine Learning nell’Osservazione della terra?

Tendenzialmente fino a quest’anno la comunità del Machine Learning e della Earth Observation sono rimaste ampiamente separate per diversi motivi. 

Il settore del Machine Learning in passato guardava con tecniche di Computer Vision le immagini satellitari, non tenendo quindi conto del contenuto informativo multi-spettrale e non riuscendo a tirare fuori lo stesso quantitativo di informazioni di un esperto applicativo. 

Il mondo dell’Osservazione della Terra ha invece guardato con un po’ di diffidenza l’Intelligenza Artificiale perché i risultati conseguiti erano scarsi e perché non era noto quello che accadeva dentro la black box, dove i risultati non erano in qualche modo verificabili o apprezzabili. 

Questi due mondi sono due culture diverse che ora si stanno incrociando grazie alla forte spinta data sia dall’Unione Europea che dall’European Space Agency ESA,che proprio al fine di sfruttare la sua elevata mole di dati proveniente dall’analisi quotidiana della Terra, spinge queste due comunità ad interagire. 

Come sponsor di Hack@EO, il progetto contribuisce alla realizzazione dell’undicesimo goal dell’ONU sulle città e comunità sostenibili. Quale apporto ritieni che possa dare l’Hackathon alla Città dell’Aquila?

La struttura di questo hackathon è basata su fasi diverse. 

La prima fase è quella di una valutazione della qualità dell’aria, un parametro importante in termini di salute delle persone, di vivibilità della città e anche di qualità ambientale in senso lato, verso le piante e gli animali. 

La seconda è basata sul concetto di walkability, quindi quanto è piacevole una passeggiata o fare il percorso per andare a scuola o al lavoro: in questo contesto entrano in gioco altri fattori come il dislivello altimetrico, il rumore delle strade, il traffico, le barriere architettoniche e tra i tanti fattori troviamo anche il parametro della qualità dell’aria, che da risultato del primo hackathon entra come input nel secondo hackathon. 

La terza gara è basata sull’accessibilità ai servizi pubblici, dove anche in questo caso il parametro precedente, quello della walkability, diventa un input per l’accessibilità ai servizi. Come questi servizi sono accessibili in termini di distanza, in termini di walkability? Se vado dalla scuola verso casa devo necessariamente allungare il tragitto per fare un percorso sicuro? 

L’ultimo step è quello di creare una dashboard per le Istituzioni che presenti tutti i parametri. L’obiettivo dell’ultima challenge è quella di fornire informazioni sia ai cittadini che alle Pubbliche Autorità per la pianificazione di iniziative e interventi.

Cosa rende una città veramente sostenibile? Su quali indicatori si dovrebbe basare l’amministrazione pubblica?

Questo è un tema molto variegato e molto dibattuto perché è ovvio che la qualità della vita e la sostenibilità non sono concetti riconducibili a metriche precise: una località situata in un luogo di montagna o marittimo, oppure una grande metropoli, hanno necessità ed esigenze diverse e quindi parametri. Ci sono quindi vari indicatori che possono essere utilizzati, ma la soggettività è molto alta. Quello che possiamo affermare con certezza è che ci sono sicuramente parametri utili ad entrambi per comprendere le varie situazioni: ad esempio,  i km di verde per abitante, la qualità dell’aria, le isole di calore, l’accessibilità ai servizi. Ogni città può tirare fuori i suoi parametri più importanti partendo da una lista proveniente dal mondo tecnico scientifico e poi riadattata in base alla specificità e soggettività dei suoi cittadini.

Facciamo un esempio pratico: in una città di mare la linea di costa, la sua protezione e la salinità dell’aria, molto dannosa nei confronti della case e delle strutture pubbliche, sono alcuni indicatori molto importanti, ma non sono gli unici. Tra i tanti fattori che possono rendere una città marittima sostenibile troviamo i porti, i quali possono essere fonte di rumore e di inquinamento, così come la qualità dell’acqua. 

Per quanto riguarda una città di montagna, ad esempio, troveremo meno problemi di inquinamento a livello di macroscala, ma potremmo osservare un problema di inquinamento molto localizzato all’interno del piccolo paese. 

Parliamo invece del generico inquinamento che cambia in base alla sua fonte scatenate: l’inquinamento atmosferico della città di Roma ha una sua origine legata al traffico e al riscaldamento delle case, mentre L’Aquila, che vive il problema della ricostruzione dopo il terremoto, potrebbe avere problemi con le polveri generate dai lavori, che si vanno a depositare e che rendono l’aria meno salubre. 

Queste sono le diversità che ci devono spingere a fare delle valutazioni specifiche per ogni caso: la qualità dell’aria infatti può essere inquinata per ulteriori motivi oltre a quelli sopracitati e uno di questi è quello delle deiezioni animali negli allevamenti di maiali e bovini, che ricoprono un grosso problema in regioni come Emilia Romagna, Veneto e Lombardia e non per altre come l’Abruzzo che ha una gestione e un quantitativo di animali non tale da generare problemi.