Tout d’abord, rendons à César ce qui appartient à César! J’ai découvert cette technique grâce au blog de Franz dont je vous invite, si vous parlez l’espagnol, à parcourir ses nombreuses richesses.
Pour traiter les images Sentinel 2 nous utiliserons deux produits:
- Google Collab, et
- IA S2DR3
Google Colab
Google Colab (ou Google Colaboratory) est un service gratuit proposé par Google qui permet d’écrire et d’exécuter du code Python directement dans le navigateur, sans rien installer sur votre ordinateur.
Voici les points essentiels :
Ce que c’est
C’est un environnement Jupyter Notebook hébergé dans le cloud.
Autrement dit, c’est une interface où vous pouvez :
- écrire du texte (comme des explications ou des consignes) ;
- exécuter du code Python cellule par cellule ;
- afficher des graphiques, des tableaux ou des images ;
- et tout cela dans un simple navigateur web.
Ce qu’il permet de faire
- Tester du code Python facilement (sans configuration locale).
- Faire du calcul scientifique ou du traitement de données (avec NumPy, Pandas, Matplotlib, etc.).
- Exécuter du machine learning (TensorFlow, PyTorch, Scikit-learn…).
- Utiliser un GPU ou TPU gratuit pour accélérer les calculs (utile pour l’IA et le deep learning).
- Collaborer en ligne, un peu comme avec Google Docs : plusieurs personnes peuvent travailler sur le même notebook.
Exemple d’utilisation
Ouvrez une nouvelle page Colab :
https://colab.research.google.com
Et vous pouvez y taper, par exemple :
import numpy as np
import matplotlib.pyplot as plt
x = np.linspace(0, 10, 100)
y = np.sin(x)
plt.plot(x, y)
plt.title("Courbe du sinus")
plt.show()
Le graphique s’affichera directement sous le code.

Sauvegarde
- Vos notebooks sont automatiquement sauvegardés dans votre Google Drive.
- Vous poiuvez aussi importer/exporter des fichiers
.ipynbou.py.
S2DR3 (Sentinel-2 Deep Resolution 3.0)
Vue d’ensemble



- S2DR3 est un modèle de super-résolution par intelligence artificielle appliqué aux images du satellite Sentinel‑2 (mission du programme Copernicus). (Medium)
- Son ambition : prendre les bandes multispectrales de Sentinel-2 (résolutions natives 10 m, 20 m et parfois 60 m) et les « améliorer » jusqu’à ≈ 1 m/pixel pour toutes les bandes. (LinkedIn)
- Cela permet d’accéder à des détails spatiaux beaucoup plus fins (routes, bâtiments, petits objets, hétérogénéités dans les cultures…) que ce que la résolution standard de Sentinel-2 permet. (MalaGIS)
Pourquoi c’est intéressant
Quelques points forts :
- Meilleure résolution spatiale : passer de 10 m → 1 m, c’est un saut dans le détail visible. Cela ouvre des usages qui auparavant exigeaient des données commerciales très coûteuses. (data jungle adventures)
- Couverture multispectrale complète : contrairement à certains modèles qui ne s’intéressent qu’à quelques bandes (ex. RGB), S2DR3 traite toutes les bandes de Sentinel-2, ce qui conserve la richesse spectrale (utile pour agriculture, végétation, eau, etc.). (Medium)
- Applications variées : agriculture de précision, cartographie urbaine fine, suivi environnemental, infrastructures. Par exemple une étude montre que les indices de végétation dérivés de S2DR3 ont de meilleures corrélations avec le rendement des cultures que ceux de la version standard 10 m. (MDPI)
Fonctionnement simplifié
- On part d’une scène Sentinel-2 (niveau L1C ou L2A) qui contient les bandes à 10 m, 20 m, 60 m de résolution. (MDPI)
- Le modèle (réseau de neurones profonds) apprend à « super-résoudre » chaque bande : c’est-à-dire à prédire une version plus fine de l’image à partir de l’originale, tout en essayant de conserver les signatures spectrales correctes. (data jungle adventures)
- Le résultat : une image multispectrale géoréférencée à ~1 m/pixel, toutes bandes comprises.
- Le script ci-dessous utilise ce modèle via un paquet Python
s2dr3.inferutils, pour automatiser l’appel, la récupération de la scène, le traitement, l’export dans Google Drive, etc.
Usages pratiques dans un script
Voyons comment le code s’inscrit dans ce cadre :
# Lien vers le dossier Drive
!ln -s /content/drive/MyDrive/Sentinel2_1m /content/output
# Installation du paquet S2DR3
!pip -q install https://storage.googleapis.com/.../s2dr3-20250905.1-cp312-cp312-linux_x86_64.whl
import s2dr3.inferutils
# Coordonnées (Loja, Équateur)
lonlat = (-79.203, -4.008)
# Date de l’image
date = '2024-08-23'
# Traitement
s2dr3.inferutils.test(lonlat, date)
- Vous indiquez une zone d’intérêt (longitude/latitude) : cela déclenche la récupération de la scène Sentinel-2 la plus proche de la date, couvrant cette zone.
- Le modèle génère alors la version 1 m du jeu de bandes à partir de l’image originale.
- Le résultat est enregistré dans
/content/output(qui est lié à votre Google Drive) pour accès/sauvegarde.

Limites & points de vigilance
Important de connaître aussi les contraintes :
- Qualité variable selon zone/date : Le modèle suppose que l’image contient peu de nuages, peu d’obscurcissements, et que les surfaces sont bien représentées. Dans certaines conditions (trop d’ombre, nuages, zones très particulières) la super-résolution peut produire des artefacts.
- Données générées, pas « vraies » 1 m commerciales : Même si la résolution est ~1 m, cela reste une estimation par un modèle, pas une acquisition native à 1 m. Il faut donc être prudent avec des usages très critiques (ex. légaux ou d’ingénierie).
- Ressources de calcul : Le traitement peut être gourmand (GPU, mémoire). Les notebooks gratuits (ex. Colab) ont des limites.(voir dans l’article suivant comment configurer le traitement avec GPU T4)
- Validations nécessaires : Comme toute IA, les résultats doivent être validés selon l’application. Une étude montre que pour certaines cultures, l’avantage est réel mais pas automatique. (MDPI)
- Coût / licence possible : Certaines versions commerciales ou à grande échelle peuvent impliquer un coût ou des conditions d’usage. (data jungle adventures)
Recommandations d’usage
Voici quelques conseils pour tirer le meilleur parti de S2DR3 dans vos scripts :
- Vérifiez que la date choisie a une belle couverture (peu de nuages) pour la zone d’intérêt.
- Après traitement, vérifiez visuellement le rendu (par ex dans QGIS ou un notebook) pour déceler d’éventuels artefacts.
- Comparez (si possible) avec la version d’origine à résolution standard de Sentinel-2 pour voir ce que le modèle apporte.
- Si vous faites de l’analyse (par ex de végétation, classification), réalisez des tests sur un petit lot avant de traiter de grandes zones.
- Documentez bien la provenance : « image super-résolue via S2DR3 le XX/XX/XXXX » pour transparence.
- Pour des usages de production ou commercialisation, vérifiez les conditions de licence d’usage du modèle ou des produits générés.
Dans le prochain article, TUTORIEL : Utiliser S2DR3 dans Google Colab pour l’étude des coraux à Maurice, nous verrons un cas concret d’utilisation de cette procédure.