Loading

Module 1: Filtrage et classification des images

Notes d'étude
Study Reminders
Support
Text Version

Filtrage spatial des images

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Vidéo 1

Ainsi, les techniques de rationnement des bandes et d'analyse des composantes principales sont des données multispectrales, alors que cette technique de filtrage spatial peut être réalisée en bande simple ou en composite de couleur. Mais le rationnement de la bande, bien sûr, nécessite un minimum de 2 bandes et pour l'analyse du composant principal, vous avez besoin d'au moins 4 bandes pour réaliser celle-ci. Donc nous allons d'abord commencer par la technique de filtrage spatial et ceux-ci sont aussi appelés des opérations locales essentiellement le but principal de cette chose après l'amélioration si vous voulez voir plus de netteté dans l'image ou plus de lissage dans l'image, alors nous allons pour ces techniques spatiales filteringtechniques. C'est aussi ce qu'on appelle les techniques de convolution ou la technique de filtrage de convolution. 2 catégories principales de filtres sont des filtres spatiaux sont connus dans le traitement d'images numériques du traitement à distance des données de télédétection. Il peut y avoir d'autres filtres et le concept de ces techniques de filtrage est venu à travers l'ingénierie électrique ou électronique que vous connaissez ahh pour filtrer les différentes façons ou hydratures ici, ce sont des filtres spatiaux autres qu'un filtre linéaire ou un filtre à fente. Donc nous parlons de ce filtre spatial pas le filtre qui est généralement utilisé pour une clairance du bruit des vagues et d'autres choses. 2 principaux types sont les filtres de faible passe qui mettent l'accent sur les tendances spatiales régionales rendent votre image plus lisse et démet la variabilité locale. Donc, chaque fois que vous avez besoin que vous voulez voir les choses régionales plutôt que les choses locales, alors le filtre de faible passe est employé et quand nous voulons que vous sachiez les choses locales doit être souligné, alors nous allons pour un filtre de passe élevé. Donc, ce sont les 2 choses majeures sont là de différents types de filtres dans la catégorie de grand passage et on peut mettre en valeur de bord de sorte qui combine essentiellement les deux filtres, mais un accent principalement est sur les bords de vos principales fonctionnalités. Supposons qu'il y ait une route que vous voulez souligner que la route sur une image ou une caractéristique linéaire sur une image satellite peut être des caractéristiques géologiques ou une autre fonction alors à cette fin nous utilisons l'annonce de bord. Donc localement les caractéristiques que vous voulez mettre en valeur ou améliorées et les choses régionales ne sont pas annoncées ici. Donc, comme je viens de mentionner que si je prends cette seule vague sur la figure supérieure A. C'est la combinaison de 3 ondulées de différentes amplitudes et fréquence sont là, donc si on applique le filtrage sur une figure supérieure de différentes fréquences, c'est ce que nous allons obtenir. Ainsi, la partie inférieure montre essentiellement la combinaison de 3 vagues dans un formulaire total d'onde. Donc l'autre vous savez quand vous allez pour un type de fente ou un filtre linéaire, mais le filtre que nous parlons est essentiellement le filtre spatial. Comment ces filtres se présentent et comment ils sont exécutés sur une image dont nous discuterons maintenant en gros, il s'agit de la matrice de convolution et l'exemple que j'ai pris maintenant est le filtre de faible passe. Donc ce que nous allons voir ici, c'est un exemple de filtre à matrice de convolution faible. Un filtre est essentiellement une matrice de 2 dimensions qui peut être 3 / 3 pixels ou peut-être 5/5 pixels ou 7 ou ithas pour être un nombre impair la raison est parce que pour le pixel du centre, il calculera la valeur de l'image qui est soumise pour le filtrage dans ce cas le filtrage de faible passe.
Donc si je prends un exemple plus simple de la seconde qui a une cellule de filtre spatial filtrant nous avons une valeur et toutes ces valeurs de cellule supposent que ceci dit ici les valeurs de cellule correspondantes se multiplieront avec n'importe quelle valeur de cellule dans le filtre. Ici, dans notre cas toutes les valeurs de cellules sont de 1 donc 24 multipliez par 1, 26 multipliez par 1 et de même et ensuite ils sont totaux divisés par 9. Donc ce qui va se passer, va créer une valeur moyenne en utilisant les pixels environnants au centre pixel qui est dans cet exemple il est de la valeur avoir 30. Donc par lequel il fumera l'image et comme résultat que vous pouvez voir en bas de sorte que c'est l'image d'entrée que vous voyez ici qui a été soumise à un filtrage de faible passe et plus de lissage s'est produite dans cette image après ce filtrage qui est donné là-bas. Donc le seul problème dans le filtrage spatial est ce qui se passe sur les bords parce que si je veux calculer la nouvelle valeur de pixel par filtrage pour ce pixel du coin ou le pixel qui sont sur les bords, alors je ne peux pas mettre ma matrice d'aviron sur 26 parce que j'arrive à l'extérieur d'une image. Ainsi, l'image de sortie aura une colonne 1 ligne 1 comme celle-ci sur toutes les limites d'épaisseur de 1 pixel sans aucune valeur. Donc il ne va pas calculer et qui sera stocké dans l'image aussi bien que c'est la seule limitation que nous avons pour un filtrage de passe faible ou un filtre de passage élevé que les bords épaisseur d'un pixel d'épaisseur s'il s'agit d'un filtre spatial de 3 /3 pixels. Si ce filtre est 5 / 5, les lignes d'épaisseur de 2 pixels en bas et en haut de même à gauche et à droite ne seront pas considérées ou filtrées dans l'espace. Et si je vais pour 7 / 7, alors ce sera 3 aussi seulement dans les bords que nous avons un problème. Donc ce genre de commerce extérieur à l'objectif ici était de fumer l'image pour que je puisse voir les caractéristiques plus régionales plutôt que je me distrait à cause des variations locales ou des caractéristiques locales. A cet effet, la matrice de convolution du filtre de faible passe peut être appliquée l'exemple ici aussi donné pour le pixel du centre comme celui-ci et tous ces pixels ont été pris en compte lors du calcul des valeurs et c'est ainsi que le filtre de faible passe va fonctionner. Il peut y avoir beaucoup d'autres filtres qui sont les exemples de filtres haut de passe ici l'objectif ici pour mettre l'accent sur les caractéristiques locales et de mettre en évidence les caractéristiques régionales donc dans tous ces exemples qui sont présentés ici A, B, C, D jusqu'à F tous sont des valeurs certaines valeurs de cellules de ce filtre sont en négatif parce que le but principal est que nous voulons mettre l'accent sur les caractéristiques locales un. Donc, sur les bords de ces filtres bien que nous ayons pris l'exemple le plus simple qui est 3 /3 filtres aucun les moins les valeurs sont toujours en négatif un. Et les valeurs de centre comme ici 5, 5, 9, ce sont des valeurs plus élevées pour que ce qui se passerait quand ces filtres iront sur un pixel de cellule d'image pour le calcul de la nouvelle valeur de pixel pixel après pixel à travers cette image, alors ce qui se passera à cause de cette valeur élevée dans le centre qui sera utilisé pour mettre en valeur les caractéristiques locales et en même temps, il mettra en valeur les caractéristiques régionales.
Alors qu'en cas de filtre de faible passe et pas de traitement spatial pour le pixel central et donc comme ne pas donner 8 valeurs ou 6 valeurs ici, chaque valeur est la même parce que le but ici est de dévaloriser les caractéristiques locales qui est juste en face du filtre de passage élevé et de mettre l'accent sur les caractéristiques régionales.
Donc, chaque fois que vous voyez un tel type de matrice de filtre et cette matrice de convolution lorsque vous voyez si vous voyez une valeur négative 1 et que la valeur centrale est élevée, vous pouvez deviner immédiatement qu'il s'agit d'un filtre de passe élevé. Si nous allons à la déduction des bords, alors nous devons savoir que pour quelle direction nous voulons mettre l'accent sur les caractéristiques qui sont les raisons pour lesquelles il y a des cas comme si je prends ces exemples seulement 2 valeurs ont moins le repos ont des valeurs positives. Ce que vous avez essentiellement pour objectif ici, c'est de concevoir des métriques basées sur les algorithmes les plus complexes qui sont l'exemple de B et C. Ainsi, les mesures d'amélioration de l'arête ont pour résultat d'ajouter la déduction d'arête de l'image d'origine par exemple d, e, n et f. Donc de nous savons ces choses alors nous pouvons souligner que je veux améliorer les seules arêtes qui ne sont pas toutes des fonctionnalités locales à travers un filtre de passage élevé, donc il s'agit de l'outil. Maintenant, voyons l'exemple ici c'est l'exemple de filtre de passage élevé dans lequel la matrice de convolution de 11 / 11 pixels pas 3 / 3 pas 5 / 5 pas 7/7 et 11 par plus grande la matrice de convolution serait plus grande la taille du filtre serait qu'elle englorait de grandes valeurs de pixels pour calculer la valeur de pixel pour le pixel du centre et donc puisqu'il s'agit du filtre de passage élevé. Donc ce qui l'a fait a mis l'accent sur toutes les caractéristiques régionales parce qu'il s'agit d'un filtre de taille 2 relativement grand 11 / 11. Par conséquent, il met l'accent sur les caractéristiques régionales et met fortement l'accent sur les caractéristiques locales et c'est ce que vous voyez ces bords de toutes ces fonctionnalités que nous sommes plus ou moins terne dans l'image originale ont été mis en évidence comme tout ce que vous pouvez voir très bien toutes les caractéristiques linéaires ou les bords de toutes les fonctionnalités ont été très clairement mis en évidence. Donc, c'est l'avantage du filtre de passage élevé mais plus grande la matrice de convolution pour le filtrage spécial est de savoir s'il s'agit d'un passage inférieur ou élevé plus le temps qu'il faudrait pour le traitement. Donc si vous avez une très grande image, alors le dans la pratique ce que vous devriez faire, vous devriez prendre un sous-ensemble de l'image et essayer de réaliser le filtrage en utilisant le même concept que vous pouvez utiliser 5 /5 ou 7/7 et une fois que vous êtes sûr que maintenant je veux ce filtrage pour l'image entière puis s'exécuter parce que si c'est un objectif plus ou moins objectif ou nécessite une itération jusqu'à ce que vous trouvez-vous que la sortie est adaptée à votre projet jusqu'à ce que vous continuez à essayer Différentes options. Donc la meilleure chose est de créer un sous-ensemble de l'image essayer tous les types de filtrage et une fois que vous avez été aresatisé, prenez l'image entière et exécutez ce filtre qui vous convient le mieux et de cette façon vous économiserais beaucoup de temps. Sinon, pour une grande image, la matrice de convolution 11/11 prendra beaucoup de temps pour le traitement. De même, le filtrage directionnel est également possible comme la mise en valeur de l'arête, où que les arêtes à travers le filtrage de passe élevé soient mises en évidence. Mais je veux en particulier si je sais qu'il y a des caractéristiques qui disent qu'elles s'exécutent dans l'axe est ouest ou dans la direction nord sud. Je tiens donc à mettre l'accent sur les fonctionnalités linéaires et pour que je vais utiliser le filtrage directionnel 2 exemples sont ici 1aa est l'exemple pour la direction nord de l'axe qui signifie que les caractéristiques sont dans le nord vous connaissez la direction nord sud. Maintenant si vous voyez attentivement cette matrice de convolution de 3/3, vous voyez qu'ici j'ajoute plus de valeurs à mon centre pixel dans la direction nord et alors que dans la direction sud, j'ai des valeurs négatives. Et la même dans la direction sud-ouest et la même dans la direction sud-est bien que la valeur soit -1 -1 dans ces deux coins, mais le côté sud, j'en ai 2, c'est pourquoi il produira une image qui aura plus d'importance dans la direction nord. Et alors que si je veux une direction sud, c'est la direction sud-ouest en cas de b alors je vais placer les valeurs négatives ici dans les coins opposés, puis ces valeurs qui signifie les caractéristiques qui ont une orientation nord sud elles seront accentuent le nord-est sud-ouest.
Donc ici le nord désolé des caractéristiques de direction sud-ouest sera souligné. Donc je regarde même une matrice de convolution de filtre vous pouvez comprendre que quel effet elle sera sur l'image une fois qu'elle sera utilisée pour le filtrage. De même et pas seulement le filtre de faible passe non seulement le filtre de passage élevé, vous pouvez utiliser l'amélioration de l'arête pour que vous allez parfois pour une très grande matrice de convolution comme dans l'exemple précédent 11/11 ou aussi vous pouvez utiliser le filtrage directionnel. Voyons maintenant un exemple ici qu'il s'agit de l'image d'entrée sur le côté gauche et sur le côté droit, vous avez le filtrage de l'image filtrée.
Ainsi, le filtrage directionnel a été fait et ce que vous voyez que les caractéristiques qui se trouvent dans les directions du nord-est du sud-ouest comme celle-ci ont été mises en évidence de manière très significative et qu'il n'est pas très facile pour qui que ce soit de récupérer ces caractéristiques très facilement dans l'image non traitée ou brute. Donc, ce que les différentes directions ont pour but d'améliorer ou de divulguer des caractéristiques linéaires parce que notre but est de trouver des caractéristiques linéaires présentes dans l'image dans de nombreux travaux liés aux sciences dans l'explosion d'eau souterraine explosion d'eau souterraine ces caractéristiques linéaires jouent un rôle très important ou peut-être dans de nombreux projets de génie civil aussi. Donc ils sont nécessaires pour que vous devez insister dans une direction et dans une matrice de convolution qui doit être dans la direction opposée. Donc préférentiellement près de la perpendiculaire à cette direction transversale et ce que vous voyez que ce filtrage a été déplacé sur toute l'image, à l'exception d'une épaisseur de 1 pixel sur toutes les faces.

Vidéo 2

Jusqu'à présent, ce que nous avons vu les exemples et en discutant sur une seule bande, vous pouvez aussi faire le filtrage spatial sur des images multispectrales ou des images colorées ou composite de couleurs pas du tout un problème. Mais il s'agit maintenant aussi d'un filtrage spécial sous forme de statistiques d'images à variables unidimensionnelles ou d'analyse d'images. Nous allons maintenant discuter de l'analyse d'images multivariées ou des statistiques d'images pour 2 choses le rationnement et les principales composantes.
Donc, comme vous le savez, dans la télédétection, nous sommes préoccupés par la mesure de la quantité de rayonnement réfléchie ou émise par un objet sur plus de 1 bande et parce que nous avons à présent plus de 1 bande. Il est donc utile de calculer des statistiques multivariées qui sont des mesures comme covariance ou corrélation entre plusieurs bandes. Parce que vous savez que si vous voyez le groupe après la bande dans une passion continue, vous pouvez trouver qu'ils sont parfois fortement corrélés. Et nous voulons utiliser ces bandes dans notre peut être des composites de couleur ou dans une analyse multispectrale d'analyse où les bandes de l'utilisateur final sont moins corrélées. Et à cette fin, nous pouvons réaliser des statistiques d'images multivariées. Donc, le ratio de bande est l'un des principaux composants de la technique ou, en bref, nous avons aussi appelé PCA peut être des classifications de sélection de fonctions et l'évaluation de la précision toutes ces données seront effectuées dans le cadre de cette statistique multivariée. D'abord nous irons pour un rationnement de bande impliquait 2 bandes fondamentalement et comme si vous voyez dans la figure et certaines valeurs sont également données ici que le rayonnement solaire vient ici et tout ce qui est de différentes surfaces une surface est un exemple est montré calcaire un autre exemple est le lit rouge et ensuite vous pouvez avoir du sol sur un côté ce plus brillant parce que le soleil est sur ce côté droit alors que sur le côté gauche il est dans l'ombre.
Donc les valeurs que vous voyez sont des valeurs différentes que vous veniez après la réflexion de différentes surfaces que vous voyez ici. Il est donc possible que ces valeurs de grossier donneront une réflexion différente mais s'il y a 3 scénarios de bandes sont là rouge, vert et bleu. Si je prends cet exemple que de cette surface, c'est jaune marqué ici tous donnent presque la même réflexion, mais quand on va à la bande rouge que dans la bande rouge ou le canal rouge a de la valeur 46. Alors que d'autres vert et bleu dans cette bande leur réflexion n'est que 23 si je vais dans le côté de l'ombre, alors les valeurs ici au lieu de 46 toutes les valeurs sont 23 mais la bande rouge a à nouveau le maximum que 23 et le repos ont 11 et 12 parce que c'est dans le côté de l'ombre. Maintenant, s'il y a un effet de diffusion et d'autres choses, ces valeurs seront encore réduites et nous pourrions obtenir des valeurs seulement jusqu'à ce 5, 14, 32. Donc, si nous réalisons le rationnement de la bande, nous pouvons exploiter ces différences qui se produisent dans différentes bandes et peuvent créer de nouvelles sorties et des images très utiles à recevoir. Voyons l'exemple ici sur le côté gauche que vous connaissez la bande, qui est le rayonnement bleu comme nous, qui montre que leur peine je peux différencier les différentes unités de roches qui sont présentes ici ou les couvertures de terre qui sont là. Mais quand je crée un rapport de bande entre la bande 3 et la bande 2, c'est l'exemple de la terre assise TM. Ensuite, j'ai clairement une unité claire qui sort dans l'image du rapport de bande qui n'est pas possible dans la bande 1 en raison de la topographie ne nous permet pas de voir les unités bien différentes en (()) (22:06) unités. Alors que sur la droite image quand je crée une bande un rapport de bande 3 et 2 qui élimine l'effet de l'illumination de la topographie ou de l'illumination différentielle et donnera les différences dans le type de roche et c'est ce que l'exemple est. Bien que la sortie soit en noir et blanc 2 images grises de la bande 3 et la bande 2 dans cet exemple, j'ai été prise une sortie est à l'échelle grise. La bande 1 ne permet pas de différencier 2 unités majeures (()) (22:42) de sorte que c'est l'un des meilleurs exemples. Maintenant si j'ai trop de bandes avec nous pas seulement 4 peut-être 7 peut-être 10 ou 20 en cas d'hyperspectral aussi. Ensuite, je peux créer de nombreux rapports de bandes de différentes combinaisons et ensuite peut créer un composite de couleur de rapport de bande comme ici, c'est l'exemple que ces 2 autres ratio est 5 bande parce que c'est un ensemble de terres 7. Nous avons donc un capteur TM ou TM plus capteur. Donc nous avons 7 bandes de sorte que le rapport 5/2 est celui-ci d'abord l'extrême gauche alors ce centre un est le ratio de la bande 7/4. Et puis je peux créer un ratio de plus a été créé qui est 3/2 comme indiqué plus haut 3 /2 de sorte que tous ces rapports 3 ont été pris n'importe quel ratio de bande composite a été créé donnant cette image 2RGB so 3/2 de rapport de bande a été assigné couleur rouge 5/2 ont été assignés la couleur verte et 7/4 a été assigné par la couleur bleue. Et si on le fait, on voit que non seulement maintenant 2 unités de roche mais différentes unités de roches sortent très clairement. Sinon, vous voyez si vous comparez avec ce premier groupe d'images 1 que vous pouvez interpréter que tout est presque le même que les roches sont là ou que la couverture terrestre est là. Mais quand on voit ici maintenant on dit qu'il y a beaucoup d'au moins 5, 6 unités de roc sont clairement visibles dans le rationnement de la bande.
Donc c'est l'avantage et nous devons donc en comprendre un tout en créant ces combinaisons de rapports de bandes qui montrent comment différentes roches, différentes végétation ou différentes unités terrestres répondrait par ces cartes spectrales dans différentes bandes. Donc les bandes 7, par exemple, sont bonnes pour montrer les hydroxyles communs dans les roches hydrothermiquement altéées, c'est plus spécifique à la géologie des sciences. Mais dans d'autres cas aussi une fois que nous comprenons les courbes de réponse spectrale pour différentes bandes alors de différentes fonctionnalités, alors je peux créer les rapports de bandes de bandes de bandes et ensuite créer finalement il est une image composite qui est une image composite de ratio de bande. Ainsi, dans une image composite fausse couleur normale ne vous donnera jamais de tels résultats un seul ratio de 2 bandes créera toujours une image en noir et blanc. Ici, en utilisant des rapports de 3 bandes et en donnant à RGB un schéma de couleur additive de couleur 1 peut créer une belle sortie pour discriminer différents objets, différentes caractéristiques, différentes roches, différents minéraux très clairs de façon très convaincante. C'est donc l'avantage du rappel lorsque nous avons discuté de cet espace de couleur et de la fausse couleur composite et d'autres choses. Maintenant, ce concept dont nous avons discuté est utilisé directement ici, c'est pourquoi ces choses là où elles sont aussi importantes. Maintenant, une autre technique de ratio de bande, mais peu simple comme 5/2 ou 4/7, ce n'est pas un peu plus de calcul, et c'est un indice très standard, il y a de nombreux indices relatifs à la végétation ou à la couverture de neige et à d'autres caractéristiques de surface d'identification de surface, mais celle que je vais discuter dans l'indice de la végétation de différence normalisée. Ce qui se passe dans cet indice, ce que nous faisons, c'est le canal infrarouge moins le canal rouge. Donc le rouge vert bleu, puis l'infrarouge dans cette séquence, nous obtenons le groupe donc d'abord je suis en train de mettre le canal infrarouge en sachant que le canal infrarouge la végétation aura une végétation saine aura la réflectance plus élevée. Donc, en utilisant ce canal moins le canal rouge, il s'agit de quantités positives définitivement divisées par infrarouge plus rouge à nouveau, ce serait un plus grand nombre que le plus haut.
Donc ce qui se passerait pour que vous créez un index et que cela puisse être utilisé de grossier il y aura un facteur de multiplication et de sorte que nous redimensions les valeurs entre 0 et 255 si le scénario 8 bit donc nous multiplions par 255 aussi. Et finalement nous obtenons la sortie qui est l'indice NDVI ou l'image NDVI qui va montrer la santé de la végétation parce que nous avons utilisé le canal infrarouge 2 fois différemment. Donc, où les augmentations de la source rouge parce qu'il y a un bleu et donc si la végétation n'est pas en bonne santé, alors la réflexion que vous connaissez cette réponse les courbes de réponse spectrale de la végétation se décaleront vers le rouge plutôt que le maximum restant dans l'infrarouge. Donc si le rouge est une augmentation qui montrera que la végétation a du stress pas de très bonne teneur en chlorophylle et donc VNIR près de très proche de l'infrarouge montrera des valeurs plus élevées. Donc, en utilisant cet indice, nous pouvons évaluer même la qualité ou la santé de la végétation par exemple ici 2 exemples sont ici l'un est le côté gauche, vous avez une végétation saine dans le côté droit, vous avez de la végétation sous stress ou peut être dans le cas d'arbres à feuilles caduques, ce sont des arbres ou des feuilles sont sur le point de tomber si c'est le scénario et si nous créons un index de végétation ce qui se passerait. Dans le canal infrarouge 50% ceci est schématique si 50% de réflexion revient au capteur dans le canal infrarouge dans le cas d'une végétation saine et alors que dans le visible qui est la partie rouge du canal visible il n'est que 8% ce qui se passe. Si vous le comparez avec la végétation sous stress ou en mourant la végétation seulement 40% dans l'infrarouge se passe alors que dans le rouge visible il va 30%. Donc ces valeurs ont été calculées en bas comme NDVI so 0.5-0.08 et le pourcentage a été pris ici donc vous 0,72 ici. Si nous redimensions en 255, nous multiplions cette valeur et nous obtenons une valeur de pixel aussi. Mais pour le temps, nous devons prendre 0,72 dans le cas d'une végétation saine de ce ratio, essentiellement c'est aussi le rapport. Et dans le cas d'une végétation sous contrainte, il suffit de 0,14 pour que vous compreniez où facilement qu'une végétation qui est en bonne santé ayant une teneur élevée en chlorophylle aura une valeur de NDVI élevée et que la végétation qui est sous contrainte pour le séchage aura un très moins relativement moins d'importance que dans cet exemple la teneur en chlorophylle et de faible valeur NDVI de façon à ce que c'est l'avantage. Aussi simple au lieu d'un simple ratio de bande si nous employons le NDVI et normalisent la différence parce que la normalisation que nous normalisent en multipliant par un facteur ou dans un scénario de 8 bit peut être 255 et donc quand nous la normisons nous obtenons un index et cela nous dit la santé de la végétation. Si nous voyons sous forme d'images, c'est le scénario qui est la première image sur le côté gauche est juin 2003 de certaines parties de l'Europe et elle couvre complètement le Royaume uni et l'Irlande du Nord d'Irlande aussi. Et voir le dans cette partie du monde le mois de juin les valeurs NDVI sont très élevées alors que dans le mois d'octobre quand l'hiver approche dans cette partie du monde les valeurs NDVI sont très inférieures comme vous pouvez le voir parce que la couleur verte le NDVI 1 signifie le NDVI le plus élevé ici.
Donc tôt, il y a peu d'endroits où vous obtenez le vert sinon le repos est en valeur très faible, donc ces valeurs changent de saison en saison et elles nous disent et si elles ne sont pas vues mais si dans un couvert forestier si certaines zones comme présentant moins de valeur NDVI il y a peut-être à cause de la végétation sont peut-être à cause de certains éléments peuvent être certains éléments d'attaque de certaines bactéries ou de n'importe quoi et qui peuvent détruire la végétation ou peut être le manque d'eau. Parfois, dans un terrain vallonné, si une pente se déplace très lentement, la végétation devient également sèche et peut aussi être ramassonnée par l'analyse NDVI de l'analyse et nous pouvons la démonter la zone aussi après la vérification sur le terrain.


Vidéo 3

La dernière partie ici est l'analyse de principe qui est très intéressante et très utile. Le scénario que les chiffres que vous voyez en gros montre l'exemple de 2 bandes seulement et la gauche n'est rien d'autre qu'un nuage de points. Donc, ce qui est le groupe 1 par rapport à la bande 2 et de voir qu'ils sont très corrélés la bande quand même ici l'origine de ce nuage de points est ici dans le coin inférieur gauche. Maintenant, afin de calculer le principe de l'analyse de composant d'abord je vais expliquer par des graphiques, alors l'origine est fondamentalement décalée au lieu de dans le coin inférieur gauche il est décalée vers le centre de ce cluster de pixels corrélés entre 2 bandes différentes comme ici il est montré. Et celui où la corrélation maximale est là, c'est-à-dire qu'on attribue un composant de principe à un maximum de variations Désolé les variations maximales qui sont là le principe de l'attribution du composant un et celui qui a relativement moins de variations par rapport au principe perpendiculaire au PC1 est d'assigner PC2. Maintenant si je suis en 3D dans un nuage de points en 3 dimensions, je peux avoir un autre composant de principe. Et mais c'est basé sur les graphiques mais pensez de vous savez si j'ai 7 bandes et je veux calculer le principe de l'analyse des composantes par programmation ou par les mathématiques est possible mais en graphiques seulement 3 dimensions peuvent être montrés quand même ce qui est à cause des corrélations de bandes comme j'ai mentionné un voir que le groupe 1 n'est pas tellement différent de ce que la bande à voir et c'est ce que l'exemple est. Ainsi, selon l'algèbre linéaire, nous faisons des vecteurs Eigen où les valeurs de Eigen contiennent la contribution de chaque bande à la composante de principe, de sorte que c'est ainsi que le calcul est fait. Maintenant il ya 7 bandes scénario est pris en cas de terrain sat TM et vous êtes ce que vous voyez 6 composants. Maintenant, on voit que celui-ci ayant les variations maximales présentes parmi les valeurs de pixel vont en principe du composant 1 à cause de la forte corrélation entre les banques également. Ainsi, par l'analyse des composants de principe, le PC1 transportera toujours les variations maximales. Donc PC1 ici la partie supérieure gauche montre les variations maximales. Et les composants de principe 6 vont généralement porter les bruits de façon à ce que l'on puisse aussi utiliser cette technique pour enlever les bruits de ces bandes comme celle-ci. Maintenant vous avez un composant de principe 1 qui a la variation maximale présente parmi les pixels sont stockés dans le PC1, puis le deuxième est le PC2 qui est ici en haut à droite et ensuite PC3. Comme dans NDVI, nous avons créé un composite de couleur en utilisant la combinaison de rapports de 3 bandes de la même façon ici aussi ceci possible pour créer un composite de couleur à l'aide des principes 1 PC1, PC2 et PC3. Et en 4 comme vous pouvez le voir sont aussi des variations, mais le bruit ou les effets de stripping est visible ici cinquième et sixième a le maximum de bruit. C'est ainsi que vous savez que vous obtiendrez la matrice de corrélation et des vecteurs de corrélation d'Eigen grossiers si vous obtiendrez ou si la bande 1, bande 2, bande 3, 4, 5, 6 bandes ont été utilisées ici. Et encore une bande PC1, PC2, PC3 et aussi et toutes ces analyses statistiques seront réalisées et vous pouvez réaliser vous pouvez créer un composite de couleur de principe 1 PC1, PC2, PC3 donnant un schéma RGB vous finira avec la belle image et belle. En ce sens qu'il vous donnera une meilleure interprétation de la discrimination parmi les objets parce qu'une combinaison de couleurs 6 bandes ne peut pas être possible par l'analyse de composant de principe pas seulement vous supprimez les erreurs des données, mais vous rassemblez toutes les variations qui sont présentes en 7 ou 6 bandes en seulement 3 composants, puis en créant un composite de couleur. Maintenant peu de variation dans le composant de principe et que plus vous connaissez la corrélation, plus de variations peuvent être créées en employant une technique appelée extension de-corrélation qui ne peut être faite qu'après l'analyse du composant de principe. Voici l'exemple du même exemple de bande 1 et les bandes de bande 2 fortement corrélées sont là et dans le cas de la bande 3 bande 5 moins corrélation sont là lorsque nous allons pour la bande 7 et la bande 4 terrains sat TM nous voyons qu'il y a moins de corrélation. Donc ce qui est en décorrélation ce qui est fait en gros je vais expliquer ici que ces étirements sont faits dans les deux composants ici pas de étirements sont faits dans ces images de sortie linéaires étirements. Et nous pouvons linéairement étirer ces composants et peut faire le étirement de la corrélation qui est la raison pour laquelle nous sommes de-corrélées ces bandes sont les bandes corrélées et si je crée le composant de principe 1 qui serait dans cette direction de l'origine grossier serait ici au centre de ce cluster donc je vais linéairement les étirer. Et si je les étine linéairement, ça veut dire que je les dégénère et je suis par ça que je fais plus de variations entre les bandes. En 3 dimensions il ya vous savez tous ces plans et au centre toutes ces bandes sont montrées et ceci est respectivement sont très fortement corrélées après l'étirement DCS de l'étirement dans l'espace de couleur RGB, c'est ce que vous voyez. Et après le DC ceci est en jaune et violet et d'autres espaces de couleur dans différentes combinaisons que vous voyez celle-ci et ensuite vous pouvez avoir après DCS, HSY qui est aussi IHS d'intensité Hue et saturation. Ici la saturation d'intensité en couleur jaune, mais le point principal important est ici que cette parcelle originale peut ressembler à ceci, mais quand vous faites le étirement de la corrélation, cela signifie que vous avez de-corrélé chaque corrélation entre les bandes et qu'il y aura une variation maximale. Exemple c'est une simple image RGB ayant des bandes grossier 3 ici maintenant, voici l'exemple de terrain sat TM. Maintenant il y a 6 bandes ont été prises pour l'analyse 3 composants ont été créés ces 3 composants ont été de nouveau corrélés le composant de principe 1, 2, 3 et après qu'un composite de couleur a été créé et c'est ce qui est de l'image de décorrélation. Maintenant, voyez que vous connaissez le type de variation qu'il a créé entre les valeurs de pixels pour une meilleure interprétation et la distinction des différents objets très facilement comme vous pouvez le voir dans le juste vous pouvez voir les grandes différences entre simple RGB fausse couleur composite et l'image de décorrélation. Un schéma de couleurs grossiers va certainement changer l'un d'entre eux doit s'en soucier tout en faisant les interprétations, mais il apporte beaucoup de fonctionnalités très clairement qui n'est autrement pas possible dans une image RGB simple ou une image composite de couleur fausse. Cela amène à la fin de cette discussion et nous avons commencé avec juste pour récapituler tout ou résumer. Nous avons commencé avec ce que vous connaissez ce ratio de bande et avant ce temps de filtrage spatial 2, 3 types de filtrage haute passe, filtre de faible passe, amélioration de l'arête et filtrage directionnel. Et puis l'amélioration de l'arête et le passage élevé sont les mêmes, mais dans l'amélioration de l'arête, vous prenez généralement une grande matrice de convolution, puis nous avons discuté des rapports de bandes, des rapports de bandes composites aussi et ensuite nous avons discuté du NDVI comment évaluer la santé de la végétation à l'aide de données de télédétection, c'est une chose très standard à