File size: 8,060 Bytes
3bfe1e7 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 | ---
license: other
license_name: ogl-c
license_link: https://ouvert.canada.ca/fr/licence-du-gouvernement-ouvert-canada
language:
- en
pipeline_tag: image-feature-extraction
tags:
- change-detection
- hls
- sentinel-2
- foundation
- earth-observation
- geo-spatial
- canadian
base_model:
- ibm-nasa-geospatial/Prithvi-EO-1.0-100M
---
# PLANAURA - Modèles de fondation géospatiaux canadiens
# C'est quoi Planaura ?
Planaura est une collection de modèles de fondation géospatiaux canadiens produits au Centre canadien de cartographie et d’observation de la Terre chez Ressources naturelles Canada..
Planaura est entraîné principalement avec des images satellites provenant de deux sources :
- de harmonized landsat and sentinel (HLS) (https://hls.gsfc.nasa.gov/)
- et de sentinel-2 (S2) (https://www.esa.int/Applications/Observing_the_Earth/Copernicus/Sentinel-2).
Les données d’entraînement ont été sélectionnées pour fournir une couverture nationale du vaste paysage canadien sur une période de 10 ans (2015–2024).
Les images ont été principalement acquises entre juin et septembre de chaque année, ce qui rend Planaura plus performant au printemps/été pour la majorité du Canada.
Deux versions de Planaura sont actuellement disponibles publiquement sur HuggingFace :
- Planaura_HLS qui est mieux optimisé pour les images HLS en résolution spatiale de 30 m
- Planaura_S2 qui est mieux optimisé pour les images S2 en résolution spatiale de 10–20 m
Bien que Planaura_HLS généralise bien aux deux types (S2 ou HLS),
Planaura_S2 a été finement tuné avec des données haute résolution et, donc, montre de meilleures
performances pour détecter des changements plus fins qui sont visibles en résolution de 10 m.
HuggingFace Répertoire : https://huggingface.co/NRCan/Planaura-1.0
Les entrées du modèle:
- En mode bi-temporel (num_frames = 2) : deux images satellites d’un même endroit, prises à deux dates (epochs) différentes.
- En mode statique (num_frames = 1) : une seule image satellite..
- Source des images : Sentinel-2 ou Harmonized Landsat and Sentinel.
- Les bandes spectrales sont attendues dans l’ordre suivant pour chaque image:
- bande 0: blue - B02
- bande 1: vert - B03
- bande 2: rouge - B04
- bande 3: NIR (865 nm) - B8A
- bande 4: SWIR (1610 nm) - B11
- bande 5: SWIR (2190 nm) - B12
Planaura contient un encodeur bi‑temporel permettant :
1. Encoder des images sous forme des cartes de caractéristiques (Embeddings / Features) qui peuvent être utilisées pour d’autres tâches (classification, regroupement, etc.).
2. Calculer l’intensité des changements entre deux images, en tenant compte du contexte spatial plutôt que d’une simple différence spectrale..

# Utilisation
Nous fournissons les codes sources, les scripts d'inférence à partir des modèles Planaura, des exemples et des instructions détaillées à l'adresse suivante : [RNCan/planaura](https://github.com/NRCan/planaura/)
# Citation
Si vous utilisez Planaura dans vos recherches, veuillez citer ce répertoire :
@misc{Planaura_Code_2025,
author = {Shahbazi, Mozhdeh and Sokolov, Mikhail},
title = {Planaura - Canadian Geospatial Foundation Models},
year = {2025},
publisher = {GitHub},
url = {https://github.com/NRCan/planaura}
}
@misc{Planaura_Model_2025,
author = {Natural Resources Canada},
title = {Planaura - Canadian Geospatial Foundation Models},
year = {2025},
publisher = {GitHub},
url = {https://huggingface.co/NRCan/Planaura-1.0}
}
# References
Voir [CONTRIBUTORS.md](./CONTRIBUTORS.md) pour une liste complète des auteurs et des contributeurs.
Le modèle Prithvi‑100M a été utilisé comme point de départ pour créer et entraîner Planaura,
afin de l’adapter au paysage canadien et de le rendre approprié à la détection de changements multi‑échelles et bi‑époques.
@article{Prithvi-100M-preprint,
author = {Jakubik, Johannes and Roy, Sujit and Phillips, C. E. and Fraccaro, Paolo and Godwin, Denys and Zadrozny, Bianca and Szwarcman, Daniela and Gomes, Carlos and Nyirjesy, Gabby and Edwards, Blair and Kimura, Daiki and Simumba, Naomi and Chu, Linsong and Mukkavilli, S. Karthik and Lambhate, Devyani and Das, Kamal and Bangalore, Ranjini and Oliveira, Dario and Muszynski, Michal and Ankur, Kumar and Ramasubramanian, Muthukumaran and Gurung, Iksha and Khallaghi, Sam and Li, Hanxi (Steve) and Cecil, Michael and Ahmadi, Maryam and Kordi, Fatemeh and Alemohammad, Hamed and Maskey, Manil and Ganti, Raghu and Weldemariam, Kommy and Ramachandran, Rahul},
month = oct,
title = {{Foundation Models for Generalist Geospatial Artificial Intelligence}},
journal = {Preprint Available on arxiv:2310.18660},
year = {2023}
}
@misc{Prithvi-100M,
author = {Jakubik, Johannes and Chu, Linsong and Fraccaro, Paolo and Gomes, Carlos and Nyirjesy, Gabby and Bangalore, Ranjini and Lambhate, Devyani and Das, Kamal and Oliveira Borges, Dario and Kimura, Daiki and Simumba, Naomi and Szwarcman, Daniela and Muszynski, Michal and Weldemariam, Kommy and Zadrozny, Bianca and Ganti, Raghu and Costa, Carlos and Edwards, Blair & Watson, Campbell and Mukkavilli, Karthik and Schmude, Johannes & Hamann, Hendrik and Robert, Parkin and Roy, Sujit and Phillips, Christopher and Ankur, Kumar and Ramasubramanian, Muthukumaran and Gurung, Iksha and Leong, Wei Ji and Avery, Ryan and Ramachandran, Rahul and Maskey, Manil and Olofossen, Pontus and Fancher, Elizabeth and Lee, Tsengdar and Murphy, Kevin and Duffy, Dan and Little, Mike and Alemohammad, Hamed and Cecil, Michael and Li, Steve and Khallaghi, Sam and Godwin, Denys and Ahmadi, Maryam and Kordi, Fatemeh and Saux, Bertrand and Pastick, Neal and Doucette, Peter and Fleckenstein, Rylie and Luanga, Dalton and Corvin, Alex and Granger, Erwan},
doi = {10.57967/hf/0952},
month = aug,
title = {{Prithvi-100M}},
repository-code = {https://github.com/NASA-IMPACT/hls-foundation-os},
year = {2023}
}
@misc{ibm_nasa_geospatial_2023,
author = { {IBM NASA Geospatial} },
title = { Prithvi-100M (Revision 489bb56) },
year = 2023,
url = { https://huggingface.co/ibm-nasa-geospatial/Prithvi-100M },
doi = { 10.57967/hf/0952 },
publisher = { Hugging Face }
}
L’idée d’utiliser la distance cosinus entre des auto‑embeddings pour la détection de changements provient de la publication suivante :
@article{ruuvzivcka2022ravaen,
title={RaVEn: unsupervised change detection of extreme events using ML on-board satellites},
author={R{\uu}{\v{z}}i{\v{c}}ka, V{\'\i}t and Vaughan, Anna and De Martini, Daniele and Fulton, James and Salvatelli, Valentina and Bridges, Chris and Mateo-Garcia, Gonzalo and Zantedeschi, Valentina},
journal={Scientific reports},
volume={12},
number={1},
pages={16939},
year={2022},
publisher={Nature Publishing Group UK London}
}
Sources d’images utilisées pour l’entraînement de Planaura :
HLSL30 (Landsat 8 OLI) v2.0:
HLS Operational Land Imager Vegetation Indices Daily Global 30m v2.0.,
distributed by NASA EOSDIS Land Processes Distributed Active Archive Center
HLSS30 (Sentinel-2 MSI) v2.0:
HLS Sentinel-2 Multi-spectral Instrument Vegetation Indices Daily Global 30m v2.0.,
distributed by NASA EOSDIS Land Processes Distributed Active Archive Center
Copernicus Sentinel-2 data
Data retrieved from the Sentinel Hub |