Loading
Notes d'étude
Study Reminders
Support
Text Version

Caractéristiques et résolution de l'image

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Vidéo 1 Nous allons discuter des caractéristiques de l'image, en particulier nous parlons d'images numériques que nous utiliserons, de la télédétection ou d'images satellitaires et de différentes résolutions dans le domaine de la télédétection. Au cours de la discussion précédente, nous avons parfois abordé des résolutions, mais pas toutes et pas comme vous le savez en détail ou dans les définitions. Donc, aujourd'hui, nous allons examiner les définitions de différentes résolutions, il y en a 4 dans la télédétection. Donc, tout cela, nous en discuterons. Alors, commençons comme vous le savez, c'est une expression très célèbre que si l'image dit 1000 mots. Et j'ai ajouté une ligne de plus dans celle-ci et cela signifie que l'image satellite en dit 10 000 mots, parce que, comme dans la partie précédente de ce cours, nous avons discuté que les images de télédétection sont numériques et spatiales, génériques et génériques ici, ce qui signifie qu'elles peuvent être mises en file d'attente à diverses fins. Certaines personnes pourraient utiliser pour les prévisions météorologiques, certaines personnes pourraient utiliser pour couvrir la végétation ou l'indice de la végétation. Peut-être que certaines personnes qui utilisent pour la cartographie de la couverture nivale, certaines personnes utilisent pour le génie civil, le géologue pourrait utiliser pour trouver des ressources en eau ou un certain temps, ou des ressources minérales. Ainsi, les différentes utilisations sont différentes, il y a plusieurs applications une seule image peut être utilisée 10 fois ou plus de 10 types d'applications. Alors, c'est pourquoi une image dit 1000 mots, alors qu'une image satellite en dit 10 000 mots. Nous apprenons également, au cours de ce cours, que nous pouvons exploiter les capacités des images satellitaires pour nos propres avantages et applications. Donc, quelle est exactement une image. Ainsi, une image est essentiellement une représentation picturale d'un objet ou d'une scène et il y a différentes formes d'images, comme vous le savez, les images analogiques sont une forme très commune utilisée pour l'être. Nous avons maintenant une forme numérique, ce que nous obtenons des images satellitaires. De nos jours aussi des appareils photo numériques, peut-être une caméra SLR ou peut-être une caméra à l'intérieur d'un mobile. Donc, ce sont aussi des images numériques, mais elles sont des instantanés informels, de sorte que nous allons aussi discuter de la différence entre une image prise par un capteur de satellite et une image prise par votre appareil mobile ou numérique. L'image analogique est essentiellement produite par des capteurs photographiques sur support papier ou sur un support transparent. Donc, on appelle ça des images analogiques. Plus tôt, lorsque nous n'avions pas ces caméras numériques, nous avions l'habitude de connaître les expositions d'une scène sur un film et habituellement elle était négative, puis une impression positive utilisée pour être imprimée de ce négatif. Donc, ce sont les images analogiques, des photographies aériennes qui sont aussi utilisées dans de nombreux pays parce que beaucoup de problèmes de sécurité en Inde maintenant nous n'avons pas besoin de photos aériennes les plus récentes. Mais toutes les photographies aériennes peuvent être formées de l'Inde, elles sont toutes des images analogiques qu'elles ont été prises par un capteur photographique ou une caméra à l'aide d'un film et c'est ainsi que ces images analogiques sont générées. Il y a des variations dans les caractéristiques des scènes qui sont représentées comme des variations dans l'essentiel de la luminosité et généralement la photographie aérienne que nous avons utilisée là-bas dans le noir et blanc ou dans des tons de gris. Donc, c'est aussi une chose très courante, mais plus tard sur des photos aériennes colorées étaient également disponibles, mais tous ceux qui ont été pris par la caméra photographique sur le film lui-même. Et la base ici est la même que dans le cas des images satellite, que les objets réfléchis plus d'énergie apparaissent plus lumineux sur l'image ou sur une photo, et les objets réfléchis moins d'énergie apparaissent plus sombres et les objets qui ne reflètent aucune énergie ils apparaissent presque noir sur une image grise ou une photo grise. Quelle photo numérique exactement produite par des capteurs électro-optiques. Donc, qu'il s'agisse d'un appareil à bord d'un satellite, ou d'un appareil portatif, peut-être mobile ou numérique, ces appareils sont produits par des capteurs électro-optiques également dans la partie suivante ou lors de la prochaine discussion, nous allons voir comment ces images sont créées par des capteurs embarqués à bord des satellites. C'est pourquoi nous discuterons également de cette partie. Maintenant, si nous allons plus de détails à ce sujet qu'une image numérique produite par des capteurs électro-optiques, qui est composée de minuscules éléments d'image carrés de taille égale, nous appelons aussi des pixels qui sont disposés dans une matrice à 2 dimensions. C'est ce que dans le tableau à 2 dimensions est utilisé dans un appareil photo numérique typique et chaque pixel est associé à un nombre connu comme un nombre numérique ou un DN ou une valeur de pixel ou une valeur de luminosité ou lorsque nous parlons en termes d'échelles de gris puis de valeur grise, ce qui est un enregistrement de la variation de l'énergie rayonnante sous forme discrète. Donc, ce qu'ils sont des capteurs électriques opto sont en train de faire des capteurs optiques ils sont en train d'enregistrer cette brillance ou réflexion qui arrive ou peut-être l'énergie rayonnante peut-être la thermique qui est également enregistrée par les capteurs. Et encore une fois la même chose comme dans le cas d'une photo analogique 1 qu'un objet reflétant plus d'énergie enregistre le plus grand nombre pour lui-même sur l'image numérique et vice versa est également vrai. Cela signifie qu'un objet qui reflète beaucoup moins d'énergie sera enregistré avec la dernière valeur. Donc, si je parle en termes de dire si je prends un exemple d'image de 8 bits et que aussi, vous savez juste 8 bitimage et les valeurs peuvent varier entre 0 et 255. Ainsi, les objets qui ne reflètent pas d'énergie ou presque très peu d'énergie peuvent avoir la valeur de pixel près de 0 et, par exemple, peut-être un canal infrarouge un plan d'eau, un corps d'eau pur être absorbé complètement absorbé l'énergie infrarouge. Et donc, il n'y aura pas de réflexion et donc, les plans d'eau peuvent apparaître complètement sombres ou les valeurs de pixels de ces plans d'eau pourraient être proches de 0 ou peut-être même 0, le même jour avec le pixel qui enregistrent une valeur de pixel d'image élevée pourrait venir d'une surface de neige fraîche qui aura un albédo très élevé et qui pourrait enregistrer une valeur de pixel près de 255. Ainsi, c'est ainsi que ces images numériques sont créées. Bien sûr, lorsque nous combinons 3 images, nous atteindrons la couleur dont nous discuterons plus tard à ce sujet. Donc, une image est en fait une donnée matricielle qui est une matrice à 2 dimensions en domaine mathématique et l'unité de cette matrice est un pixel et qui est de forme carrée, quelle que soit la forme globale d'une donnée raster ou d'une matrice de 2 dimensions peut être un carré ou rectangulaire, mais l'unité aura toujours un carré en forme qui est dans notre cas dans l'image numérique qui est l'unité est pixel et ce que j'ai déjà mentionné que l'image globale peut être soit un carré, soit rectangulaire en forme. Mais l'unité doit toujours être en carré, c'est la limitation ou vous pouvez voir les avantages avec le raster que chaque unité aura la même taille et la même forme et la forme est carrée en forme. Quand l'exemple est ici que si nous souffrons de cette image grise ici, ce que nous voyons dire si nous souffrons de cette image, alors ce que c'est ce que nous voyons à l'exception de ces lignes noires qui montrent des pixels individuels, cette grille n'est pas vraiment là qu'ils viennent de montrer cette chose. Donc, en gros, c'est un exemple d'image de 8 bits et donc vous pouvez voir qu'il y a des valeurs qui ont des valeurs de pixels qui sont 0. Et cela signifie qu'aucune réflexion ne vient du tout s'il s'agit d'un visible ou d'un infra-rouge et il y a des valeurs de pixels qui montrent aussi 255. Donc, le reste est entre les deux, c'est un exemple typique d'une image numérique de 8 bits. Maintenant, lorsque nous discutons de tout cela, nous utilisons également certains termes que j'expliquerai ici. Donc, on dit le nombre de lignes et le nombre de colonnes, ce sont les lignes qui vont dans la direction horizontale. Et ce sont les colonnes qui s'exécutent dans la direction verticale. En général, lorsque l'image dans le domaine géométrique l'origine est toujours considérée à partir de la partie supérieure gauche, mais lorsque l'image ayant les coordonnées géographiques, dont nous discuterons sous un nouveau sujet, qui est géoréférencement ou images satellites, une fois une image est une géoréférencement qui signifie qu'elle a maintenant des coordonnées géographiques, alors l'origine serait déplacée vers le bas de gauche. Alors, normalement quand l'image est acquise par satellite, l'origine est toujours référencéà partir de la partie supérieure gauche. Comme par exemple, si je dois faire référence à ce pixel, alors je dirais la deuxième ligne de la colonne 2 aussi, de même, je vais m'en occuper, mais ceux que j'ai les coordonnées géographiques, alors l'origine serait du bas à gauche. Maintenant la valeur de pixel, la valeur de pixel que l'on est le pixel qui est l'emplacement ensuite, c'est la valeur. Donc, la valeur de pixel qui est la grandeur de l'énergie électromagnétique saisie dans une image numérique qui est représentée par le nombre positif, le nombre numérique et ce sont des valeurs entières positives. Vous pouvez voir aussi dans cet exemple que toutes les valeurs sont des valeurs entières positives, il n'y a pas de décimales, il n'y a pas de points flottants de nombres réels, et il n'y a pas de signes positifs ou négatifs. Donc, quand il n'y a aucun signe que nous considérons comme positif, il s'agit de valeurs entières. Donc, le nombre entier, donc toutes les images que vous voyez si prises par un capteur de satellite ou par une caméra numérique, ou peut-être votre appareil photo mobile si vous commencez à voir à l'aide de certains logiciels, les valeurs de pixels que vous constateriez qu'elles sont toujours un nombre entier positif de valeur entière. Ainsi, ces nombres sont en forme de chiffres binaires ou binaires et peuvent varier entre 0 et 0 et une puissance sélectionnée de 2. Donc, si c'est 8 bit alors 2 puissance 8 et si c'est un 7 bit alors 2 puissance 7 de même sont capturés par les différents capteurs.   Vidéo 2 Chaque bit enregistre un exposant de puissance 2, par exemple, 1 bit est 2 puissance 1 = 2, cela signifie que l'image binaire et les valeurs de pixels peuvent varier entre 0 et 1 variations totales serait 2, le nombre maximum de luminosité de niveau 7 dépend du nombre de bits utilisés pour représenter l'énergie enregistrée. Si je prends l'exemple de 8 bits ou un vous connaissez une image de morsure d'image 8 bits image qui signifie 2 puissance 8 que nous allons avoir le nombre total de variations ou le nombre total de valeurs que nous pouvons avoir et des valeurs diverses qui est au total 256 entre 0 et 255. Donc 0 est aussi compté ici, c'est pourquoi le total est 256 et c'est l'image 8 bits est l'image la plus courante. De plus, la plupart des logiciels de traitement d'image numérique ou d'édition de photos sont très capables de traiter les images 8 bits très facilement. Si vous combinez 3 banques créez une image colorée, alors elle devient 24 bits, toujours ces logiciels peuvent gérer. Donc, cette combinaison de 8 bits est la mieux adaptée pour. Et de nombreux capteurs satellites acquièrent aussi ces images. Donc, c'est une sorte de résumé que, comme je l'ai mentionné, si c'est une image de 1 bit qui est une image binaire, les variations totales que vous pouvez avoir 2 et les niveaux de couleurs soit il peut être la valeur de pixel peut être 0 ou 1. Si je prends l'exemple de 7 bits alors 2 puissance 7, le nombre total de variations est de 128 valeurs entre 0 et 1à 7. De même si je vais pour l'image 16 bit 2 puissance 16 dit ceci est 65536. Donc, beaucoup de variations seraient disponibles, mais il faut toujours garder à l'esprit, il ya les exigences de stockage plus haut le bit d'une image qui signifie que la profondeur d'un pixel peut avoir plus d'espace qu'il faudrait et c'est une sorte d'espace requis est exponentiel. Donc, que vous pouvez imaginer que si je prends l'image de 24 bits, alors c'est 1,67 million de couleurs ou de variantes de pixels que je peux avoir parce que maintenant 3 bandes de 8 bit chacune ont été jointes ici. Donc, un espace requis serait plus de 3 fois. Permettez-moi de prendre un exemple de cela, bien sûr, vous savez, général pas fondamentalement acquis par le satellite comme c'est le cas. Mais ces éléments se sont détériorés juste pour vous démontrer. Donc c'est une image originale est une image 8 bits puis elle a été détériorés à 4 bits plus à 2 bits et puis binaire et comme vous pouvez le voir, que dans l'image binaire dans l'exemple de gauche, que vous n'avez que 2 valeurs soit noir ou blanc, aucune autre valeur n'y est. Alors que dans le cas de l'image 2 bits, comme vous pouvez le voir ici, que vous avez des variations maximales, vous pouvez avoir 4 et donc peu de valeurs grises sont également possibles. C'est ce que vous voyez, donc vous voyez des gris noir très foncé, gris clair et blanc. Donc, les variations sont comme ça seulement, quand on va pour 8 bits de cours, le nombre total de variations dans l'image peut avoir en termes de valeurs de pixels 256 et donc, l'apparence de cette image par rapport à 1 bit, 2 bit et 4 bit est beaucoup mieux. Donc, plus haut le bit est plus élevé les variations et l'image peut avoir même si elle est noire et blanche, elle apparaîtra beaucoup mieux. Mais ici, gardez à l'esprit qu'il n'y a pas de changement dans cette résolution spatiale, la résolution spatiale reste la même dans les 4 exemples seulement cette quantification ou résolution radiométrique dont nous discuterons plus tard a aussi changé. Donc, l'image de 8 bits juste pour la démonstration a été détériorés à 4 bits, 2 bits et 1 bit et vous savez que ce qui arrive à la qualité. Donc, ce sont les avantages, mais 8 bit est le plus courant. Puis nous allons pour des images colorées. Ensuite vous utilisez cet espace de couleur et un schéma de couleur additive il y a 3 couleurs primaires bleu, vert et rouge BGR ou RGB, quelle que soit la façon que vous aimeriez ici, c'est l'exemple, cette partie visible du spectre EM 1 image de la partie verte, puis la partie rouge et proche infrarouge partie près de la partie infrarouge car cette cible d'image ici crée un composite de couleur faux. Donc, je peux distinguer la végétation beaucoup voir. Et comme vous le savez, lorsque nous avons été une courbe spectrale, nous avons vu que la végétation ayant une réflectance en hauteur dans la partie infrarouge du spectre EM. Donc, ce canal a également été utilisé une couleur rouge affectée, il y a un canal rouge de partie visible du spectre EM a été assigné de couleur verte et le premier que le vert a été assigné de couleur bleue. Maintenant, lorsque nous combinons à l'aide de ce schéma de couleur additif, alors ce que nous obtenons un faux composite de couleur pourquoi la couleur fausse. Ce que j'ai également mentionné précédemment, mais aussi aujourd'hui je vous expliquerai cette fausse couleur parce que la végétation n'apparaît pas comme verte. C'est ce que nous attendons normalement, mais pourquoi il n'apparaît pas vert, il vient de vous expliquer que le canal infrarouge qui a une forte réflectance dans une partie infrarouge du spectre EM a été attribué de couleur rouge. Maintenant, on peut se demander pourquoi nous attribuons des couleurs rouges à la couleur rouge et les canaux verts auraient dû être attribués, puis nous finissons avec le bleu, et on peut créer cette combinaison, mais il y a des normes qui ont été établies, lorsque nous avons commencé à utiliser la télédétection depuis 1972. Lorsque nous disons un composite de couleur faux standard, cela signifie toujours que le canal infrarouge a été affecté de couleur rouge. Et donc nous utilisons ce genre de combinaison pour créer un composite de couleur fausse. Et tout le monde comprend une fois que je dis un faux composite de couleur qui signifie que le canal infrarouge a été affecté de couleur rouge. Le but ici est de discriminer des objets pour représenter différents objets identifiant différents objets très facilement à l'aide de cette combinaison de couleurs. Mais c'est chaque image ici est 8 bits. Quand nous combinons alors ce composite de couleur faux serait 24 beats qui est de 1,67 million de couleurs. Il peut avoir des variations dans les couleurs qu'il peut avoir parce que maintenant 3 couleurs ont été combinées. Donc, celui-ci doit se rappeler. Maintenant, comme vous le savez, normalement une seule donnée de canal n'utilise que la caméra panchromatique, que de nombreux satellites ont comme a commencé notre propre caméra panchromatique indienne, nous avons commencé avec l'IRS-1A 1 B et IRS-1C et 1D et ainsi de suite, nous avons commencé, puis Cartosat et Ressourcesat, tous ces appareils ont une caméra panchromatique non pas dans un IRS-1A 1B, même avec l'appareil photo a aussi commencé avec cette partie aussi. Donc, nous avons aussi eu des images multispectrales. Donc, les caméras à poêle nous sont aussi utilisées et les détecteurs multispectraux de temps qui signifient que des données sont collectées pour différentes parties du spectre, voici l'exemple bande 1, bande 2, bande 3 et quand 4 représentent différentes parties du spectre EM et c'est un exemple de notre propre IRS-1B ce 2 était le capteur IRS-1B était le nom du satellite. Et ça fait partie de vous, les collines de l'Himalaya ou d'une partie de l'Himalaya aussi là, le côté PAONTA. Donc, ce que nous voyons la bande 1 est de 0,45 à 0,52 et de la même façon, la prochaine bande est de 52 à 59 puis 62 il y a un trou, puis ça. Donc, nous pouvons utiliser ces canaux comme vous pouvez voir que cette infrarouge la bande 4 montre des caractéristiques complètement différentes de la végétation, alors que dans ces 1 2 3 la végétation apparaît. Donc si je combine en attribuant la couleur rouge à la bande 4 et ensuite bleue et verte à ces 3 bandes, alors j'obtiens une image composite de couleur fausse. Donc, c'est ainsi qu'une image composite de couleur fausse peut être faite en choisissant 3 bandes, qui présentent une variation maximale à l'intérieur d'elles. Bien sûr, l'infrarouge dans un canal infrarouge composite de couleur fausse est toujours attribué de couleur rouge.   Vidéo 3 Maintenant, les résolutions, il y a 4 types de résolutions dont nous discutons en télédétection, qui sont utilisées dans la télédétection. Donc, d'abord nous prenons comme une résolution spatiale, résolution spatiale qui est la capacité de distinguer les objets d'espace clos sur une image, ça peut être que si vous recherchez le net ou peut-être quelques livres, vous trouverez peu plus compliqué et des définitions de résolution. Mais c'est la capacité de définition la plus courte et la plus appropriée pour distinguer les objets affichant une image. Donc, le but ici est que comment ou à d'autres termes on dit qualité de l'image, quand on a une image de mauvaise qualité, alors il devient difficile de distinguer différents objets présents dans l'image. Mais si je dis que j'ai une qualité qui signifie chacun de mes objets, je suis capable de distinguer très facilement, particulièrement, ce qui est très espace. Donc 2 objets adjacents s'ils ont des caractéristiques différentes, une réflexion ou une ambition caractéristique, je devrais être en mesure de faire la distinction aussi facilement que possible. Et si je vois si je trouve cette situation, alors je dis que la résolution spatiale est élevée, mais la résolution spatiale est également définie en termes de la zone qu'elle est recouverte d'un pixel. Ainsi, par exemple, un capteur s'il couvre 10 mètres par 10 mètres de surface par rapport à un capteur qui couvre 1 mètre par 1 mètre de surface pour effacer 1 pixel dans une image, puis 1 mètre a une résolution spatiale plus élevée. Et chaque fois que nous disons une résolution spatiale plus élevée, un espace plus faible et une résolution spatiale grossier, il est toujours relatif. Si vous vous souvenez de la brève discussion, nous avons eu une donnée NOAA AVHRR lorsque ce capteur AVHRR a été développé, et c'est une forme complète est un radiomètre à très haute résolution. Et maintenant 1,1 kilomètre dans la référence d'aujourd'hui ne peut pas être un radiomètre à très haute résolution, mais à ce moment dans les années 60, c'était vraiment très haute résolution. Donc la haute résolution de quelques années que nous avons utilisée pour dire 20 mètres ou 10 mètres n'est pas plus élevée. Maintenant on parle en centimètres. Donc c'est toujours la haute résolution spatiale est toujours en haut en termes de termes relatifs 1 et aussi vous pouvez comparer avec la taille du pixel qui représente le sol. Ainsi, si un pixel représente 10 par 10 100 mètres carrés et qu'un autre pixel d'un autre capteur représente une surface de 1 mètre carré ce qui signifie que la zone de 1 mètre carré a une haute résolution spatiale. Parce qu'il va très bien dans cette définition. Dans une image de résolution de 1 mètre, je serai en mesure de distinguer les objets spatiaux de fermeture très facilement par rapport à 10 mètres. Maintenant, il y a une autre résolution qui est appelée résolution spectrale et une résolution spectrale qui est essentiellement l'emplacement, la largeur et la sensibilité de cette bande de longueur d'onde choisie. Fondamentalement, la largeur d'une bande, étroite la bande, plus haut la résolution spectrale. Broader la bande, abaisser cette résolution de spectre, par exemple, les bandes panchromatiques en général, les capteurs panchromatiques couvrent une grande partie du spectre EM par rapport aux bandes comme l'infrarouge ou le proche infrarouge ou d'autres parties. Donc, nous disons que dans ce sens que la résolution spectrale du capteur panchromatique est relativement grossière ou faible et parce que la largeur est beaucoup plus en cas de télédétection hyperspectrale ou d'images hyperspectrales, la résolution spectrale est très élevée parce que la largeur de bande des bandes individuelles peut être de 1 nanomètre ou 0,01 nanomètre ou 0,01 micromètre ou ce genre de chose. Donc, des bandes très, très étroites quand vous manipulez dans la même partie du spectre EM, alors nous disons hyperspectral mais généralement ce que nous manipulons des images sont dans cet exemple, qu'ils aiment Landsat que nous avions 0,4 à 0,5, 0,5 à 0,6 et ainsi de suite. Donc, on a eu la différence de 0,1 micromètre. Donc, la bande passante était comme si, plus tard sur ceux qui avaient été déplacés, donc, l'emplacement a été changé et la sensibilité aussi dans la bande aussi. Maintenant, la troisième résolution que nous parlons est la résolution temporelle qui est la couverture répétée, à quelle fréquence le satellite couvre la même zone. Maintenant, c'est le ou et nous pouvons dire la différence de temps entre les observations. Il existe une relation avec une résolution spatiale plus élevée et une résolution temporelle. Par exemple, un capteur ayant une haute résolution spatiale peut avoir une répétabilité ou une résolution temporelle très faible. Parce que les images de résolution spatiale les plus hautes auront une bande très étroite et cela signifie, afin de revisiter la même zone, elle peut vous nécessiter dans 28 jours ou plus. Alors qu'un capteur de résolution plus proche comme NOAA AVHRR, qui a une résolution spatiale de 1,1 kilomètre, a une très large bande d'environ 20100 kilomètres et donc, la revisite est 2 fois en un jour de jour et 2 fois dans le temps de la nuit. Donc, 4 fois par jour, il peut revisiter presque la même zone. Plus grande cette résolution spatiale, plus basse la résolution temporelle et vice versa est également vraie, la 4ème et dernière résolution dont nous discutons en télédétection est la résolution radiométrique, que nous avons peu touchée plus tôt au fond le nombre de bits qui sont utilisés pour stocker les informations sur une image ou une banque. Donc, si c'est 2 bits ou 6 bits image it chacun et c'est une image 8 bits définitivement 8 bit l'image a une résolution radiométrique plus meilleure qu'un 6 bit. Donc, ici plus le nombre de bits qui sont utilisés pour stocker une valeur de pixel plus élevée que la résolution radiométrique. Et c'est essentiellement vous pouvez dire la précision de l'observation, pas la précision, l'exactitude et la précision sont deux termes différents. Il faut donc se rappeler que l'exactitude est un terme statistique. Il y a une précision basée sur les instruments qui sont utilisés ou dans cette précision de cas ici cela signifie que précisément vous enregistrez les valeurs de pixels, 6 bits par rapport à 8 bit certainement 8 bit a une plus grande précision et une résolution radiométrique plus élevée. Donc, c'est ainsi que mes 4 résolutions sont en discussion dans la télédétection et les discussions de jour à jour également dans les futures conférences aussi, je mentionnerais ces résolutions à différentes occasions Vidéo 4 Maintenant, nous venons à cette résolution spatiale aussi et nous pouvons aussi dire comme une puissance de résolution, résoudre le pouvoir de certains objets à l'intérieur d'un pixel, comme vous le savez, représente une moyenne arienne de, si je parle en termes de réflexion, alors quelle que soit la réflexion ou les variations, que nous sommes présentes dans un pixel de terrain équivalent à la base tous ont été en moyenne en bas et 1 valeur de pixel unique a été assignée à un Pixel d'une image. Donc, en télédétection la résolution ou la résolution spatiale signifie ici la puissance de résolution, qui est la capacité d'identifier la présence de 2 objets. Maintenant, parfois 2 objets, l'image peut être une image de résolution plus grossier, mais 2 objets adjacents ont des caractéristiques très contrastées encore elles peuvent être identifiées. Donc, il faut aussi prendre cette direction et je vous donnerai l'exemple. Lorsque nous avons commencé à utiliser les données Landsat MSS à l'effet que la résolution spatiale était d'environ 80 mètres, mais nous avons toujours été en mesure de distinguer une voie ferrée unique et comme vous le savez que la voie ferrée simple n'est pas une largeur de 80 mètres, elle n'est pas de 2 ou 3 mètres au total, le total est à peine 2 ou 3 mètres, 2 mètres de large. Et parce que non seulement la distance entre deux rails, mais aussi dans les environs, c'est la raison pour laquelle nous avons pu distinguer une ligne de chemin de fer parce qu'une ligne de chemin de fer avait des caractéristiques contrastées que celle qui l'entourait et que c'était le linéaire. Donc, si les objets sont comme ça bien que peut-être plus petits que la résolution spatiale, mais s'ils ont un environnement contrasté, ces objets de plus petite taille peuvent être identifiés. Donc, 2 objets adjacents s'ils ont un environnement contrasté, ils peuvent être identifiés même une image de résolution relativement plus proche, les capacités pour identifier les propriétés de 2 objets, les propriétés ici l'émission de réflexion et d'autres choses. Et puis nous pouvons essayer d'autres paramètres à partir de ces valeurs sont essentiellement des valeurs de luminosité. Ainsi, une image qui montre des détails plus fins est définie comme une résolution plus fine par rapport à l'image qui montre les détails du cours. Donc quand on dit que j'ai une grande qualité d'image, ça veut dire que je parle de résolution fine, la taille des pixels est très petite représentant une très petite partie de la terre 1 mètre par rapport à 100 mètres, 100 mètres est toujours un cours en termes relatifs, puis comparé à 1 mètre. Des échantillons de carrosse sont ici, comme une image de résolution de 1 mètre, une résolution de 2 mètres, 4 mètres et 8 mètres, comme vous pouvez réaliser, encore une fois, ce sont les, générés pour la démonstration. La qualité de l'image s'est donc détériorés. Donc, que nous pouvons réaliser que si un capteur acquiert une image de la même zone à 8 mètres de résolution, c'est comme ça qu'il va regarder et quand il est le même capteur est en train d'acquérir ce 1 mètre ceci comme vous pouvez voir cette image de 1 mètre. Et l'image de résolution montre beaucoup plus de détails par rapport à 8 mètres, en image de 8 mètres dans cet exemple, à peine vous pouvez distinguer n'importe quoi, même sur une résolution de 4 mètres vous ne pouvez pas, mais sur 2 mètres oui, vous commencez à distinguer les choses très facilement et en 1 mètre de course, beaucoup plus facile. De même, ici il y a une résolution de 10 mètres de pixels, ce 30 mètres et ceci est de 80 mètres, comme vous pouvez voir le 10 mètres parce que c'est une résolution finale, la qualité de l'image est meilleure. Et donc, je peux identifier les différents objets beaucoup plus facile. L'exemple le plus haut est en noir et blanc ou en gris et l'exemple du bas est en faux composite de couleur. Donc, vous pouvez identifier très facilement. Ainsi, une plus grande résolution spatiale est toujours meilleure pour certains types d'application, pas tous les types d'applications, parce que l'avantage de base de la télédétection était qu'elle fournit la vue synoptique, c'est-à-dire qu'elle couvre une image unique, couvre une très grande surface. Et une très grande région peut être évaluée et interprétée en une seule fois. Mais quand on va pour des images haute résolution spatiale, alors ce point de vue synoptique est réduit et on est plus étroit et plus étroit en cas d'image hyperspectrale est peut-être une bande de 5 kilomètres est en cours d'évaluation. Donc, vous ne pouvez pas voir une vue synoptique. Donc, une résolution spatiale élevée est en quelque sorte dirigée contre la philosophie d'origine de la télédétection qui est une vue synoptique. Cependant, il existe différentes exigences à différentes fins pour différentes applications, des images de résolution spatiale et spectrale plus élevées et plus élevées sont utilisées ou sont en cours d'acquisition. Donc, ils disent en outre sur cette résolution spatiale que la taille des plus petits diamants sur la surface de la terre sur laquelle une mesure indépendante peut être faite par le capteur, cela indique aussi à propos de leur résolution spatiale. Et cette taille est du pixel qui est équivalente à la taille du sol en mètres contrôlée par un champ instantané de vision qui est IFOV. Donc, ici IFOV c'est que si c'est un étroit, c'est très étroit cet angle solide, alors votre pixel sera plus haute résolution spatiale, mais si cet IFVO est grand, alors vous allez avoir une résolution plus grossier. Donc, l'exemple est donné ici, cet angle que cette IFOV dans ce cas est plus petit et je reçois une image haute résolution spatiale ici, alors que, dans ce cas, IFOV est plus grand et j'ai une résolution plus grossière.Ici, il est également démontré, quand vous allez pour les images de résolution de coarser de la relativité, puis l'autre, le capteur regarde directement vers le bas, il a acquis une représentation de zone parfaitement acquise en pixels alors que dans le cas de la direction ovale ou lorsque vous avez IFOV seulement à cause de la courbure de la terre comme vous pouvez le voir ici, alors c'est que l'enregistrement est dans le carré disons à pixel, mais La zone du sol qui est couverte n'est pas vraiment carrée ou rectangulaire, mais dit qu'il s'agit d'une sorte de situation. Donc, j'ai également IFOV tout aussi important comme une résolution spatiale, mais tous deux sont liés ensemble. Ainsi, IFOV est le cône angulaire de la visibilité du sens qu'il y a un angle solide qui détermine la surface vue à partir d'une altitude donnée chaque fois, comme ici, et la zone due à l'IFOV à l'altitude aussi et aussi connue sous le nom d'IFOV au sol est aussi appelé cellule de résolution au sol GRC ou élément GI. Donc, tout ceci est là car vous pouvez voir que vous avez cette zone B aussi vous avez la zone C et A est le capteur ici. Donc, de même, c'est maintenant une résolution spatiale à nouveau, c'est un lien avec plus grand que l'IFOV plus proche de la résolution spatiale que vous avez une figure très populaire dans de nombreux livres de télédétection ou de la littérature, qui illustre le champ de la reconstruction instantanée géométrique de la vue par projection à partir d'un pixel ou d'un plan d'image comme vous pouvez le voir ici. O, c'est mais souvenez-vous que l'IFOV est un angle solide. Maintenant, enfin, on peut enfin savoir mettre un bon mot sur l'espace qui est la résolution spectrale. C'est la résolution spectrale d'un capteur fait référence au nombre ou à l'emplacement des bandes spectrales et le capteur collecte des données dans et à quel point ces bandes sont, plus étroites, plus étroites la bande plus haute la résolution spectrale et plus large le groupe plus large, plus la bande est large, plus faible la résolution spectrale.