--- license: other license_name: ogl-c license_link: https://ouvert.canada.ca/fr/licence-du-gouvernement-ouvert-canada language: - en pipeline_tag: image-feature-extraction tags: - change-detection - hls - sentinel-2 - foundation - earth-observation - geo-spatial - canadian base_model: - ibm-nasa-geospatial/Prithvi-EO-1.0-100M --- # PLANAURA - Modèles de fondation géospatiaux canadiens # C'est quoi Planaura ? Planaura est une collection de modèles de fondation géospatiaux canadiens produits au Centre canadien de cartographie et d’observation de la Terre chez Ressources naturelles Canada.. Planaura est entraîné principalement avec des images satellites provenant de deux sources : - de harmonized landsat and sentinel (HLS) (https://hls.gsfc.nasa.gov/) - et de sentinel-2 (S2) (https://www.esa.int/Applications/Observing_the_Earth/Copernicus/Sentinel-2). Les données d’entraînement ont été sélectionnées pour fournir une couverture nationale du vaste paysage canadien sur une période de 10 ans (2015–2024). Les images ont été principalement acquises entre juin et septembre de chaque année, ce qui rend Planaura plus performant au printemps/été pour la majorité du Canada. Deux versions de Planaura sont actuellement disponibles publiquement sur HuggingFace : - Planaura_HLS qui est mieux optimisé pour les images HLS en résolution spatiale de 30 m - Planaura_S2 qui est mieux optimisé pour les images S2 en résolution spatiale de 10–20 m Bien que Planaura_HLS généralise bien aux deux types (S2 ou HLS), Planaura_S2 a été finement tuné avec des données haute résolution et, donc, montre de meilleures performances pour détecter des changements plus fins qui sont visibles en résolution de 10 m. HuggingFace Répertoire : https://huggingface.co/NRCan/Planaura-1.0 Les entrées du modèle: - En mode bi-temporel (num_frames = 2) : deux images satellites d’un même endroit, prises à deux dates (epochs) différentes. - En mode statique (num_frames = 1) : une seule image satellite.. - Source des images : Sentinel-2 ou Harmonized Landsat and Sentinel. - Les bandes spectrales sont attendues dans l’ordre suivant pour chaque image: - bande 0: blue - B02 - bande 1: vert - B03 - bande 2: rouge - B04 - bande 3: NIR (865 nm) - B8A - bande 4: SWIR (1610 nm) - B11 - bande 5: SWIR (2190 nm) - B12 Planaura contient un encodeur bi‑temporel permettant : 1. Encoder des images sous forme des cartes de caractéristiques (Embeddings / Features) qui peuvent être utilisées pour d’autres tâches (classification, regroupement, etc.). 2. Calculer l’intensité des changements entre deux images, en tenant compte du contexte spatial plutôt que d’une simple différence spectrale.. ![planaura_scheme_fr.png](assets/planaura_scheme_fr.png) # Utilisation Nous fournissons les codes sources, les scripts d'inférence à partir des modèles Planaura, des exemples et des instructions détaillées à l'adresse suivante : [RNCan/planaura](https://github.com/NRCan/planaura/) # Citation Si vous utilisez Planaura dans vos recherches, veuillez citer ce répertoire  : @misc{Planaura_Code_2025, author = {Shahbazi, Mozhdeh and Sokolov, Mikhail}, title = {Planaura - Canadian Geospatial Foundation Models}, year = {2025}, publisher = {GitHub}, url = {https://github.com/NRCan/planaura} } @misc{Planaura_Model_2025, author = {Natural Resources Canada}, title = {Planaura - Canadian Geospatial Foundation Models}, year = {2025}, publisher = {GitHub}, url = {https://huggingface.co/NRCan/Planaura-1.0} } # References Voir [CONTRIBUTORS.md](./CONTRIBUTORS.md) pour une liste complète des auteurs et des contributeurs. Le modèle Prithvi‑100M a été utilisé comme point de départ pour créer et entraîner Planaura, afin de l’adapter au paysage canadien et de le rendre approprié à la détection de changements multi‑échelles et bi‑époques. @article{Prithvi-100M-preprint, author = {Jakubik, Johannes and Roy, Sujit and Phillips, C. E. and Fraccaro, Paolo and Godwin, Denys and Zadrozny, Bianca and Szwarcman, Daniela and Gomes, Carlos and Nyirjesy, Gabby and Edwards, Blair and Kimura, Daiki and Simumba, Naomi and Chu, Linsong and Mukkavilli, S. Karthik and Lambhate, Devyani and Das, Kamal and Bangalore, Ranjini and Oliveira, Dario and Muszynski, Michal and Ankur, Kumar and Ramasubramanian, Muthukumaran and Gurung, Iksha and Khallaghi, Sam and Li, Hanxi (Steve) and Cecil, Michael and Ahmadi, Maryam and Kordi, Fatemeh and Alemohammad, Hamed and Maskey, Manil and Ganti, Raghu and Weldemariam, Kommy and Ramachandran, Rahul}, month = oct, title = {{Foundation Models for Generalist Geospatial Artificial Intelligence}}, journal = {Preprint Available on arxiv:2310.18660}, year = {2023} } @misc{Prithvi-100M, author = {Jakubik, Johannes and Chu, Linsong and Fraccaro, Paolo and Gomes, Carlos and Nyirjesy, Gabby and Bangalore, Ranjini and Lambhate, Devyani and Das, Kamal and Oliveira Borges, Dario and Kimura, Daiki and Simumba, Naomi and Szwarcman, Daniela and Muszynski, Michal and Weldemariam, Kommy and Zadrozny, Bianca and Ganti, Raghu and Costa, Carlos and Edwards, Blair & Watson, Campbell and Mukkavilli, Karthik and Schmude, Johannes & Hamann, Hendrik and Robert, Parkin and Roy, Sujit and Phillips, Christopher and Ankur, Kumar and Ramasubramanian, Muthukumaran and Gurung, Iksha and Leong, Wei Ji and Avery, Ryan and Ramachandran, Rahul and Maskey, Manil and Olofossen, Pontus and Fancher, Elizabeth and Lee, Tsengdar and Murphy, Kevin and Duffy, Dan and Little, Mike and Alemohammad, Hamed and Cecil, Michael and Li, Steve and Khallaghi, Sam and Godwin, Denys and Ahmadi, Maryam and Kordi, Fatemeh and Saux, Bertrand and Pastick, Neal and Doucette, Peter and Fleckenstein, Rylie and Luanga, Dalton and Corvin, Alex and Granger, Erwan}, doi = {10.57967/hf/0952}, month = aug, title = {{Prithvi-100M}}, repository-code = {https://github.com/NASA-IMPACT/hls-foundation-os}, year = {2023} } @misc{ibm_nasa_geospatial_2023, author = { {IBM NASA Geospatial} }, title = { Prithvi-100M (Revision 489bb56) }, year = 2023, url = { https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M }, doi = { 10.57967/hf/0952 }, publisher = { Hugging Face } } L’idée d’utiliser la distance cosinus entre des auto‑embeddings pour la détection de changements provient de la publication suivante : @article{ruuvzivcka2022ravaen, title={RaVEn: unsupervised change detection of extreme events using ML on-board satellites}, author={R{\uu}{\v{z}}i{\v{c}}ka, V{\'\i}t and Vaughan, Anna and De Martini, Daniele and Fulton, James and Salvatelli, Valentina and Bridges, Chris and Mateo-Garcia, Gonzalo and Zantedeschi, Valentina}, journal={Scientific reports}, volume={12}, number={1}, pages={16939}, year={2022}, publisher={Nature Publishing Group UK London} } Sources d’images utilisées pour l’entraînement de Planaura : HLSL30 (Landsat 8 OLI) v2.0: HLS Operational Land Imager Vegetation Indices Daily Global 30m v2.0., distributed by NASA EOSDIS Land Processes Distributed Active Archive Center HLSS30 (Sentinel-2 MSI) v2.0: HLS Sentinel-2 Multi-spectral Instrument Vegetation Indices Daily Global 30m v2.0., distributed by NASA EOSDIS Land Processes Distributed Active Archive Center Copernicus Sentinel-2 data Data retrieved from the Sentinel Hub