Loading
Notes d'étude
Study Reminders
Support
Text Version

Base de la représentation de l'image de télédétection

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Vidéo 1 nous allons avoir sur la base de l'interprétation de l'image de télédétection ou de la représentation d'image que nous allons discuter dans celui-ci de ce que nous allons voir comment une image est créée notre représentation, que nous voyons à l'écran ou peut-être sur l'imprimé, ce qui est très, très important. Parce qu'en fin de compte, après tout ce qui passe par le rayonnement électromagnétique et différentes longueurs d'onde, différents capteurs et gouvernonsdifférentes lois. En fin de compte, ce que nous obtenons à travers les satellites de télédétection et l'image, et comment cette image est représentée dans un espace bidimensionnel, et c'est tout aussi important. Donc, c'est ce que nous allons discuter. Et cette image fondamentalement une image numérique dont je parle est une représentation bidimensionnelle des objets, qui sont présents dans le monde réel. Et cette représentation est que nous voyons comme des images de télédétection, c'est une partie de la surface de la terre vue de l'espace. En raison de la distance et du dépendant de la résolution, nous ne voyons pas toute la terre en un seul go. Quoi qu'il en soit, quel que soit le modèle que nous avons le maximum, nous pouvons voir la moitié de laet, mais dans une résolution spatiale plus élevée, des données ou relativement dans des données de résolution grossier ou spatiale. Les parties de la terre ou d'une partie de la terre ne sont visibles que ici, ni l'ensemble de ce qui est vu. Ainsi, l'image et en général quand elle est transmise par le satellite est elle numérique, mais l'image peut aussi être analogique après affichage à l'écran ou peut-être dans la forme d'impression, de sorte que les images peuvent être analogiques ou numériques. Mais dans ce cours, la plupart du temps nous ne discuterons que des images numériques et des photos aériennes plus tôt, alors que nous n'avions pas la technologie de télédétection actuelle, alors les photographies aériennes sont des exemples d'images analogiques. Bien qu'il s'agit de photographies, ce sont des instantanés, mais en cas d'images, il s'agit d'une ligne de scan par ligne et enregistrée. Ainsi, par exemple, si vous prenez une photo de quelqu'un utilisant votre appareil photo numérique, alors en un seul clic, une scène entière est attrapée. C'est ce que nous voyons un instantané. Mais supposons que si vous mettez un document sur un scanner ou sur une photocopieuse, alors, quand un scanner se déplace de voir la gaucheet la fin de droite et qu'il analyse l'image. De la même façon, des capteurs satellites fonctionnent également. Ainsi, à mesure que le satellite se déplace, le capteur déplaceet balaie la partie de la terre et crée une image. Donc, c'est une différence majeure entre une photo et une image. Photograph is in a snapshot, where an image is created line by line. Ainsi, les images satellites acquises à l'aide de capteurs électroniques, sensibles aux ondes électromagnétiques, sont toutes à l'origine sous forme numérique. Ici, je prends un exemple et une partie zoomée ainsi que des numéros numériques ou nous les appelons nombre de pixels. Donc, pixel ici est une abréviation qui est de l'élément photo. Donc, voici une image panchromatique noir et blancce que nous voyons ici et même si vous voyez une ligne ici et dans chaque ligne il ya des cellules ou des pixels sont ici, mais généralement dans l'image vous ne verrez pas ces lignes sauf les pixels sont alignées comme ceci dans une matrice à 2 dimensions.Comme ces lignes sont montrées ici juste pour notre meilleure compréhension, mais vraiment dans le système ou dans la mémoire de l'ordinateur, ces lignes ne sont pas là du tout, juste pour notre compréhension que nous utilisons ces lignes. Maintenant, puisque c'est gris, donc les différents ensembles de gris sont utilisés pour représenter une partie de la terre montrée ici. En conséquence, les numéros numériques y sont également. Donc, ce que vous pouvez remarquer que le numéro numérique 0 a complètement la couleur noire correspondante. Et alors que le numéro numérique comme 255 est de couleur blanche et que le reste de notre ensemble blanc de gris et de reste des pixels ont les nuances entre 2 tons extrêmes ou une couleur extrême, l'un est le noir, un autre est le blanc et le reste entre entre. Voici un exemple d'image de 8 bits et voici un exemple d'image en noir et blanc. Donc, une image numérique maintenant nous pouvons définir qu'une image numérique est une matrice de 2 dimensions ou une zone de pixels. Ce qui est important ici, c'est aussi une chose importante que vous pouvez remarquer que la forme de cette cellule ou pixel est un carré en forme. Cependant, la forme globale d'une image n'a pas besoin d'être carrée, elle peut aussi être rectangulaire comme celle-ci aussi, mais toujours par définition, ce serait une matrice à 2 dimensions, ce que jedireest le nombre de lignes et le nombre de colonnes doivent être # sauvegardées, elles peuvent être différentes, et si elles sont différentes, alors la forme globale d'une image va être rectangulaire. Mais si le nombre de lignes et de colonnes est le même, alors l'image globale va être carré u dire que l'unité d'une image est toujours de forme carrée comme nous voyons ici, et tout au long de cette image la même taille de ces carrés sont là. Ces carrés représentent uneaérienne moyenne du sol. Donc, si l'on suppose que ce carré est égal à 10 mètres de 10 mètres. Ainsi, 10 mètres de surface de 10 mètres sont représentés par une valeur de pixel unique. Maintenant, si je dis que c'est un canal visible qui signifie, quelle que soit la réflexion dans 10 mètres de 10 mètres sur le sol et la moyenne aréale a été prise et que le capteur a enregistré cette valeur. Donc le capteur lui-même fait cette partie qu'il prend une réflexion moyenne s'il s'agit d'un canal visible, de réflexion moyenne et enregistré sous forme de carré ou de nombres, mais nous voyons des nombres mais quand on fait une image ou quand l'image est faite, alors l'unité toujours sur un carré. Donc, je vais répéter cette partie. Cette forme globale d'une image peut être carrée ou rectangulaire, ce qui signifie qu'il n'est pas nécessaire de voir le nombre de lignes et de colonnes, si elles sont différentes, alors la forme globale d'une image va être rectangulaire, mais le nombre de lignes et de colonnes est identique, puis la forme globale d'une image sera carrée. Cependant, l'unité d'une image qui est le pixelsera toujours squared, c'est ainsi que nous représentons toutes les images satellites ou toutes les photos numériques aussi dans les jours modernes, tous représentent une surface carrée du sol ou de la scène. Donc, c'est là et ces lignes qui sont là pour notre compréhension, ces lignes dans les données elles-mêmes sur une image, ces lignes n'existent pas, il y aura un continu que vous connaissez les zones matricielles de pixels. Donc, chaque pixel a une valeur d'intensité, ça dépend si je vois une image infrarouge thermique, alors c'est la valeur de l'emitance. Si je vois un canal visible, il s'agit alors d'une valeurde réflexion. Et le mot d'intensité est venu ici, qui décide si c'est un canal 8 bits et l'intensité est très pauvre ou dire que la réflexion est très pauvre, alors je peux obtenir une valeur près de 0 ou peut-être 0, mais si la réflexion est très élevée, peut-être comme des zones de couverture de Francis, alors ma valeur de réflexion ou la valeur de pixel peut être 255. Donc l'intensité que c'est ce que l'intensité signifie ici, que chaque pixel a une valeur d'intensité. Et, en cas d'émitance, la même chose que si la haute énergie est là, alors je peux me trouver dans un infrarouge thermique noir et blanc, je peux obtenir même une valeur de 255 dans un scénario de 8 bits. Ainsi, chaque pixel a une valeur d'intensité représentée par un numéro de pixel numérique, un numéro numérique ou un numéro de pixel et parfois aussi appelé DN en abrégé, n'importe quelle adresse de localisation référencée par des lignes et des colonnes. Par conséquent, l'adresse de l'emplacement que si je dois traiter cette valeur 0 dans cette image, il s'agit de la lignenuméro 1 et de la colonne 6. Si je dois traiter ce 255 ici, alors il s'agit de la ligne numéro 5 et de la colonne 6. Par conséquent, c'estcomment c'est la raison pour laquelle il s'agit de lignes de référence et de numéros de colonnes. Donc, chaque pixel a son emplacement et son image qui est référencée et chaque pixel représente une valeur d'intensité et pixel est une unité d'une image. Maintenant, que chaque fois que nous utilisons ce mot unité, cela signifie aussi qu'il est indivisible. Cela signifie maintenant que je ne peux pas diviser. Certains prétendent qu'ils peuvent voir à l'intérieur d'un pixel ou qu'ils appellent un sous-pixel, mais ce n'est pas vraiment possible. Donc, ce que je dis ici, qu'une fois qu'une image a été acquise par un satellite ou un capteur, alors la résolution spatiale de cette image ne peut pas être modifiée. Ainsi, une fois qu'une image est acquise, la résolution spatiale est gelée. C'est une déclaration très appropriée mais importante. Une fois qu'une image est acquise, la résolution spatiale d'une image est gelée. Cela signifie, si je prends l'exemple de cette image particulière qui est affichée si le pixel représente 10 par 10 qui signifie une surface de 100 mètres carrés. Maintenant, une fois que j'ai l'image, je peuxchanger pour un mètre 1 mètre de résolution spatiale ou de taille de cellule ou de taille de pixel sur les ordinateurs que je change, mais cela n'améliorera pas la qualité de l'image, pas de façon qu'il va s'améliorer, quel que soit le mode d'interpolationou le réseau neuronal ou la logique floue ce que je fais. Cela ne va pas améliorer la qualité de l'image, si cela aurait été possible, si cela aurait été possible, alors il y a des capteurs tels que NOAA AVHRR qui fournit des données à 1km de résolution qui signifie résolution de 1000 mètres. Donc, nous acquissons une image à 1000 mètres de résolution et en utilisant des ordinateurs et ces techniques d'interpolation ou d'autres techniques, nous pouvons créer une résolution de 1 mètre ce qui n'est pas possible. Donc, je répète cette phrase qu'une fois qu'une image est acquise, la résolution spatiale ne peut pas être modifiée,qui signifie le même que par certaines techniques de traitement d'images, vous pouvez améliorer la qualité des ennemis en améliorant l'image, mais je parle de la résolution spatiale qui signifie, une fois qu'elle est prise alors 10 par 10 pixels, 1 pixel de valeur est enregistré par le capteur.  
Vidéo 2
Maintenant, nous continuons sur ce pixel parce que le pixel est l'unité d'une image et dans les pixels de télédétection compte beaucoup. Donc, c'est pourquoi nous continuons cette discussion que le pixel est une unité d'une image que nous venons de mentionner. Et donc, il est indivisible et l'image numérique comprend une surface de 2 dimensions ou une matrice de 2 dimensions d'éléments d'image individuels ou en bref pixel disposés en colonnes et rangées, que nous voyons ici. Ici la première couleur jaune est ce que 1 pixel unique est là, de nouveau des lignes qui sont juste pour notre compréhension dans les lignes d'images réelles ne seront pas là, ces lignes verticales et horizontales. Donc, chaque pixel représente une zone sur la surface de la terre si ce sont les images satellites, alors c'est vrai que chaque pixel représente une zone de la surface de la terre et que la valeur du pixel représentera l'intensité à une longueur d'onde particulière. Donc, si nous parlons visible alors, la réflexion s'il s'agit d'un infrarouge thermique parlant, puis de l'héritage. Donc, cela représente l'intensité, donc pixel a une valeur d'intensité, et une adresse d'emplacement qui est le nombre de lignes et de colonnes dans une image en 2 dimensions, et donc aucun détail supplémentaire ne peut êtrevisualisé à l'intérieur du pixel parce que c'est une unité et que l'unité est indivisible, et je ne peux pas voir à l'intérieur d'un pixel. C'est un fait dont il faut vraiment se souvenir. Donc, une image est une matrice à 2 dimensions. Et donc, ne peut avoir que 2 formes carrées ou rectangulaires. Cela signifie que le nombre de lignes et de colonnes est identique à la place, la même image, et si les lignes et les colonnes ont une forme différente de la forme rectangulaire, et aussi une instruction importante, ce pixel d'une image est toujours de forme carrée. Donc, l'unité est toujours un carré. La valeur d'intensité représente donc la quantité physique majeure, peut-être la réflexion ou le rayonnement solaire dans une bande de longueur d'onde donnée réfléchie par le sol.Donc peut-être reflété quand nous parlons de visible ou d'infrarouge, peut-être émis lorsque nous parlons de l'intensité du radar infrarouge ou du radar rétrodiffusé si nous parlons de micro-ondes ou de micro-ondes passives de spectre EM. Donc, nous avons des capteurs satellites dans la partie réfléchie, nous avons des capteurs satellites dans l'infrarouge thermique et bien sûr, nous avons aussi la longueur d'onde radar. Donc, tous les types de capteurs sont disponibles ce qu'ils sont en ce qui concerne l'intensité d'un pixel. Maintenant la valeur de pixel est normalement une valeur moyenne ou je dis la valeur moyenne de la zone pour l'ensemble de la zone couverte par pixel et qui doit être une valeur unique et cette valeur doit aussi être un nombre entier Il faut se rappeler, dans les images numériques, les images satellitaires Je parle en particulier la valeur de la cellule ou la valeur de pixel est toujours une valeur entière qui est un nombre entier que nous ne pouvons pas avoir dans les décimales. Des images satellitaires que je suis en train de parler dans une matrice normale 2 dimensions qui peuvent aussi être un nombre réel qui est vrai dans le cas des modèles numériques d'altitude. Mais dans une image numérique par satellite, la valeur de pixel sera toujours un entier ou un nombre entier. Donc l'intensité d'un pixel est numérisée par le capteur à bord ou les satellites enregistrés comme un nombre numérique ou une valeur de pixel aussi nous avons appelé valeur de DN ou de pixel. Et en raison de la capacité de stockage finie, nous n'avons pas le stockage fini. Donc chaque capteur à bord des satellites aura un stockage fini, un numéro numérique est stocké avec un nombre fini de bits et dans un binaire si l'enregistrement est fait à 8 bits, peut-être 10 bits, 11 bits. Pour l'exemple, la plupart de ces capteurs enregistrent des données à 8 bits, mais parfois ils sont aussi plus bas comme un pan IRS-1 C 1 D, bande panchromatique, on appelle "pan PN" utilisé pour enregistrer à 6 bits, alors que normalement les images sont généralement enregistrées en 8 bits, ce qui signifie que les pixels peuvent varier entre 0 et 255. Mais s'il s'agit d'un 6 bits, les valeurs de pixel peuvent varier entre 0 et 63, le nombre total 64 et la NOAA AVHRR qui enregistre en 11 bits. Ainsi, les valeurs des pixels peuvent varier dans une très longue plage. Donc, c'est une décision prise quand les capteurs sont conçus et qu'ils sont en enregistrement. Donc, le nombre de bits pour déterminer la résolution radiométrique est important ici. La résolution radio métrique d'une image plus élevée ce nombre, plus grand nombre de bits, plus haute la résolution radiométrique, parce que des détails plus fins ou un léger changement de réflexion ou d'emitance peuvent être enregistrés si nous enregistrons en 11 bit au lieu de 8 bit par rapport à 8 bit. Donc, si nous allons pour 6 bits, 6 imagesbits ne peuvent pas enregistrer de légers changements dans la réflexion sur l'héritage. Mais pour la même zone, si nous enregistrons en 11 bits, il est certain que des changements de réflexion ou d'emitance peuvent être enregistrés à l'adresse suivante:Donc, ceci fournit une meilleure résolution radiométrique. Plus le nombre de bits est élevé, plus la résolution radiométrique est élevée, plus le nombre de bits est faible, plus la résolution spatiale est basse. Le nombre de bits détermine la résolution radiométrique d'une image. Par exemple, un nombre numérique de 8 bits va de 0 à 255 et 0 est également compté. C'est pourquoi 2 puissance 8 -1 nombre total de 256. Donc si je montre en noir et blanc ou en écailles grises, alors géo sera mon unique couleur extrême qui est noire.Et 255 serait ma couleur blanche et le reste des valeurs se situe entre 0 et 255. Alors qu'un nombre de 11 bits va de 0 à 2047, la même va s'appliquer à -1 mais parce que 0 est compté, donc, 0 est également une valeur ici. Donc, cela signifie que 2048 nombres totaux de variations peuvent se produire dans une image de 11 bits. Alors qu'en cas d'image 8 bits, le nombre total de variations peut être de 225 256, et non 255, 256. Et si c'est l'image 6 bits, alors le nombre total de variations peut être de 64 entre 0 et 63, 0 est compté. Ainsi, cette valeur d'intensité détectée, c'est-à-dire la valeur de pixel, doit être mise à l'échelle et quantifier pour s'adapter à cette plage de valeurs. Donc, cette quantification est ce qui est la résolution radiométrique et dans un capteur, c'est une image étalonnée par radiométrie et la valeur réelle de l'intensité peut être dérivée du nombre numérique de pixels et c'est ce qu'on fait quand on va pour la télédétection quantitative, c'est ce qu'on fait. Ainsi, l'adresse d'un emplacement de pixel est indiquée par ses lignes et ses numéros de colonnes en 2 dimensions. Mais lorsque nous nous référons à la géoréférencement, c'est-à-dire apporter les coordonnées géographiques et l'image, nous pouvons également aborder les coordonnées géographiques. Mais tant que l'image n'est pas géo référence, mais généralement on fait référence en termes de lignes et de colonnes un emplacement d'un pixel est décidé en fonction des lignes et des colonnes. Et il y a un à une correspondance entre l'adresse de ligne de la colonne d'un pixel et les coordonnées géographiques et c'est la latitude, la longitude d'un emplacement d'image et afin d'être utile l'emplacement géographique exact de chaque pixel sur le sol doit être dérivé de sa ligne et de la colonne c'est et c'est ce qu'il est fait dans le référencement géographique. Par conséquent, compte tenu de la géométrie de l'imageet des paramètres orbitaux par satellite. Un type de géoréférencement de niveau 1 peut aussi être fait à l'aide de paramètres orbitaux d'un capteur d'un satellite à l'aide de ce que je peux dire que le niveau de la courbe de référencement peut être fait, mais si nous voulons avoir un géoréférencement plus précis ou des coordonnées géographiques pour traiter des pixels individuels, alors un géoréférencement très précis est requis. Donc, ça dépendra de la résolution spatiale d'une image et de nos exigences aussi, mais des techniques sont disponibles. Cela signifie que les techniques de géoréférencement sont disponibles pour transférer nos images du domaine géométriquevers le domaine géographique.
Vidéo 3
  Maintenant, lorsque nous allons pour des images multicouleurs, jusqu'à présent ce dont nous avons discuté est l'image unique et pas d'autres images non colorées. Mais en général, nous utilisons aussi des images colorées. Et par vous savez que lorsque des images colorées sont créées, nous avons besoin d'au moins 3 couleurs primaires et des bandes ou canaux respectifs d'un capteur pour créer une image de couleur. Ainsi, plusieurs types de mesures peuvent être effectuées à partir de la surface couverte par un pixel unique. Cela signifie que plusieurs types ici signifient en différentes longueurs d'onde de la même zone et chaque type de mesure forme une image porteuse d'informations spécifiques sur la zone. Très bientôt nous allons voir un exemple de véritable dommage réel de couleur réelle. Donc, en empilant ces différentes bandes ou ces images de la même zone, prises en même temps, par un capteur, par un scanner multispectral ou par capteur, des images multi-couches peuvent être formées ou des images colorées comme je dois le dire, et chaque image de composant est une couche est une image multicouche. Donc, ici des images multi-couches peuvent aussi être formées en combinant des images provenant de différents capteurs et d'autres données secondaires, c'est une chose différente. Cela signifie que vous pouvez avoir un de la même zone et l'image par le même capteur ont 2 dates différentes ou vous avez peut avoir la même zone couverte par 2 capteurs différents que vous pouvez combiner. Donc, parce que ce sont des métriques numériques, 2 mesures dimensionnelles toutes sortes d'opérations sont possibles. Par exemple, une image multi-couches peut être constituée de 3 couches, l'une d'une image multispectrale sport, peut-être une autre pour le radar d'ouverture synthétique ER, c'est-à-dire l'image radar ici est le canal visible et peut-être une couche consistant en une carte numérique d'altitude un DM ce n'est pas directement on ne peut pas voir comme une image qui est une grille ou un autre type de liste. Donc, c'est aussi possible. Ainsi, l'image multispectrale consiste en quelques couches d'images, chaque couche représente une image acquise à une bande de longueur d'onde particulière. Donc, il y a 2 choses maintenant, l'une est multi-couches, des images multicouches, je vous ai dit qu'elle peut pour différentes couches individuelles nous pouvons avoir des données individuelles ou des images de différents capteurs ou peut-être à partir de capteurs mais avoir des données différentes, mais quand nous allons pour des images multispectrales. Alors ce que nous parlons le capteur est de la même sensorielle, les longueurs d'onde sont différentes et ensuite nous créons les composites de couleur. Donc, par exemple, le capteur SPOT HRV SPOT est un satellite HRV est un capteur fonctionnant en mode multispectral détecte un rayon en 3 longueurs d'onde et qui sont la bande verte de visible le rouge et le proche infrarouge. Tous les 3 nous pouvons utiliser et créer beaucoup de composite également. Ainsi, une seule scène multispectrale SPOT consiste en 3 images d'intensité en 3 bandes de longueur d'onde. Et dans ce cas, chaque pixel de la scène, ou une image a 3 valeurs d'intensité correspondant à 3 bandes, et nous leur attribuons différentes couleurs. Ces RGB de ces 3 couleurs, 2 bandes différentes aussi. Alors qu'une image d'icône multispectrale se compose de 4 bandes bleu, vert, rouge et proche infrarouge alors qu'une image multispectrale Landsat se compose de 7 bandes. Mais nous pouvons utiliser à la fois seulement 3 pour créer un composite de couleur. Et les capteurs satellites les plus récents sont capables d'acquérir des images à de nombreuses longueurs d'onde, mais cela veut dire quand nous avons commencé en 1972, le premier Landsat-1 et il avait le capteur MSL, il n'a que 4 canaux. Plus tard, série oflandsat Landsat-8, série à 8, elle a maintenant 8 canaux. Donc, les choses ont changé là, par exemple, les capteurs MODIS à bord du satellite de données de la NASA sont constitués de 36 bandes spectrales.Et tandis que NOAA AVHRR fournit aussi pour les canaux thermiques, la résolution 1 kilomètre n'a que 5 canaux. Donc, ça dépend de la façon dont les canaux sont situés, de la portée qu'ils sont et du capteur de cours au capteur. Et donc, nous parlons d'images super spectrales lorsque nous avons des choix de plusieurs canaux plutôt que 4 comme au début. Ainsi, les bandes ont une largeur de bande plus étroite dans les super-canaux sont super respectueuses.Et puis enfin les caractéristiques spectrales de la cible à capturer par le capteur. Donc, nous avons commencé avec des images multicouches, nous avons commencé des images multispectrales, nous avons maintenant des images super respectueuses et bien sûr, puis hyperspectral. C'est le dernier de la série. Des images hyperspectrales pour même pour la même largeur de bande, nous pourrions avoir 100 canaux. Comme il est montré que si je tracé la longueur d'onde par rapport à la valeur d'intensité, et non la valeur de pixel pour une zone de végétation, montré ici dans ce schéma, alors je vais obtenir ce genre de courbe. Ainsi, les données hyperspectrales d'image sont généralement constituées de plus de 100 événements spectraux contigus, quelque part quelques banques de 256 canaux dans une image hyperspectrale à spectre élevé formant une dimension 3 dimensions ou 2 dimensionset 1 cube d'image de dimension spatiale. Dans le cas où je donne l'exemple de Landsat MSS 0.4 à 0.5, cela signifie que la largeur de bande d'un canal est0.1 micromètre et alors que dans le cas de l'hyperspectral, la largeur d'un canal peut être de 0,5 nanomètre. Donc, ce genre de bande passante, nous parlons de bandes très étroites et de couverture spectrale continue, pas d'écart entre les deux. Donc, chaque pixel est associé à l'ensemble du spectre de la zone d'image comme je viens de le montrer que 1 pixel. Et si vous allez au même endroit pixel dans toutes les bandes, disons 256 bandes, alors vous pouvez obtenir exactement la courbe et pour les ces images parce que ces images hyperspectrales sont très bonnes pour créer ces courbes de réponse de la courbe spectrale pour différents minéraux, roches et différents types d'objets différents types de végétation, différents types d'eau, les conditions des corps et ainsi de suite, parce que continuellement vous avez 1 bande ou une autre. Mais dans le cas de MSS, Landsat, ETM, OLI Series tout ils auront des fossés entre les deux. C'est donc le plus grand avantage avec les images hyperspectrales. Et les images hyperspectrales sont généralement d'une résolution relativement élevée mais pas de très haute résolution. Ainsi, la résolution spectrale la plus élevée des images hyperspectrales permet une meilleure identification des couvertures terrestres, mais une bande peut avoir presque les caractéristiques similaires dede la bande suivante. Mais si vous laissez un vide, comme ici, alors vous obtenez soudainement une affliction plus élevée, ils sont aussi. Les images hyperspectrales, ce qu'elles enregistrent les informations spectrales précises qui contiennent une image hyperspectrale qui nous permet de mieux caractériser et identifier les cibles et les images hyperspectrales ont un potentiel dans ces domaines que nous avons besoin de précision avec les images. Donc, que nous pouvons utiliser pour surveiller comme dans le cas de l'agriculture de précision, nous pouvons surveiller le type de santé et d'humidité et la maturité des cultures. Parce que, vous savez que les cultures changent là quand elles sont en croissance, puis qu'elles rient et àdifférents statuts d'humidité et que la réflexion dans les changements dans l'infrarouge varie de successivement. Donc, si nous sommes des images hyperspectrales de cette zone, on peut voir que, bien sûr, les types de végétation, la santé de la végétation, la qualité de l'humidité et bien sûr la majorité des cultures.Il n'est possible que lorsque vous avez des bandes étroites et continues et des bandes étroites dont je parle d'épaisseur de nanomètre plutôt que d'épaisseur de micromètres. C'est donc très important pour de nombreuses applications dans l'exploration minérale, dans l'exploration pétrolière, dans l'évaluation de la qualité de l'eau, dans de nombreux domaines. Les images hyperspectrales sont très, très utiles. De même, dans la gestion côtière, comment, par exemple, la surveillance du phytoplancton, des polluants ou de la pollution et des changements de bathymétrie, il est possible de détecter facilement avec des images hyperspectrales. Le problème avec les images hyperspectrales est trop de données à traiter et donc les gens de 256 canaux, ils réduiront à peu de canaux en impliquant des mathématiques ou d'autres techniques. C'est donc le gros problème avec les images hyperspectrales. Deuxièmement, et cela pourrait être le cas à l'avenir, mais actuellement le problème est qu'une bande très étroite est enregistrée,peut être un rayon de 5 kilomètres de large par des capteurs aéropor­teurs. Et ce genre de chose, parce que vous avez besoin de vous dire d'échanger, si vous allez pour des images à très haute résolution, des images de résolution spatiale, alors la bande ou la bande qui est recouverte de la surface de la terre devient très étroite. Et quand vous allez pour des images de résolution relativement plus grossier, vous pouvez couvrir une grande partie de la terre. Par exemple, si je vais pour l'exemple de NOAA AVHRR, alors il a une résolution spatiale de 1 kilomètre et il couvre environ 2800 kilomètres de swath.Donc, dans une image qui couvre environ 2800 kilomètres de la surface de la terre. Alors que si j'ai un AVHRR de NOAA ayant une résolution spatiale de 1 kilomètre et que je passe de 1000 mètres de résolutions spatiales à 1 mètre comme ikono, alors la bande ou la bande de la terre qui est couverte par le capteur ikono se trouve juste au large de 11 kilomètres de large. Donc, si vous avez amélioré la résolution spatiale de 1000 à 1 mètre. Mais en même temps vous avez réduit la couverture au lieu de 2800 kilomètres, vous avez réduit à 11 kilomètres. Donc, ces images hyperspectrales ont aussi des compromis en termes de couverture ou d'encombrement, de chemins ou de largeur de la bande. Ainsi, la largeur de la bande est généralement très petite quand les images hyperspectrales. Donc, si votre domaine d'études est assez grand, vous devez avoir plusieurs images de l'orbite deet étudier l'ensemble de cette zone. Mais s'il s'agit d'une résolution spatiale est un peu plus faible qui est généralement d'environ 5 ou 6 mètres en cas d'hyperspectral est encore la bande est très étroit. Ainsi, les images ou les images hyperspectrales ne sont pas disponibles commercialement à partir des satellites. C'est l'histoire actuelle, la plupart des recherches hyperspectrales ou des travaux ou des exemples que vous voyez sont toutes des images hyperspectrales aériennes et il y a des capteurs satellites expérimentaux qui acquièrent des images hyperspectrales, mais ils vont à bord de différents satellites comme Hyperion sens à bord du satellite EO-1 et capteur CHRIS à bord du satellite PRABO de l'ESA. Mais il se peut que les données ne soient pas disponibles très facilement Maintenant, cela couvre en quelque sorte en résumé presque ce que nous avons discuté, c'est l'exemple de l'image monochrome. C'est l'exemple d'une image multispectrale ou d'une image en couleur RVB. RGB signifie image de combinaison verte et bleue. C'est un exemple de spectroscopie et cela signifie que le spectromètre à base terrestre utilise le spectromètre à base de sol et que vous pouvez avoir la courbe de réponse spectrale. Vous allez pour des images multispectrales qui sont très courantes la télédétection même aujourd'hui aussi vous allez pour hyperspectral comme vous pouvez voir ici le point que j'ai mentionné plus tôt, qu'entre un groupe et un autre ici, vous voyez un trou qui signifie une bande dans un seul capteur, une autre bande, peut-être qu'il y a peut-être un trou, mais ici vous ne voyez pas d'écart, par exemple une couverture spectrale continue par des images hyperspectrales. Maintenant, quand nous voulons étudier une certaine partie, disons ici l'exemple est ici, peut-être le plan d'eau, alors c'est comme ça, quand nous allons dans différents canaux dans une partie bleue, nous voyons ce genre de réflexion dans une partie verte, nous voyons ce genre de réflexion et en partie rouge nous voyons ce genre de cette information vient de différents canaux afin d'avoir une courbe de ça. Alors que dans le cas d'une couverture spectrale non continue comme la couverture multispectrale que vous voyez ici, alors vous aurez une réponse quelque chose comme ça pour le bleu, puis il y a un écart pour le vert, puis il y a un écart entre le vert et le rouge, pas une continuité comme ça ici. Donc, l'hyperspectral a certainement l'avantage du point de vue de la couverture du spectre, mais du point de vue de la couverture du sol encore et il ya une limitation, mais j'espère qu'à l'avenir et ces limitations ne seront pas là et peut-être d'avoir très, vous savez, de très grandes images couvrant une large bande de la terre dans une bande de spectre continu. Donc, cela amène à la fin de cette discussion. Merci beaucoup.