Loading

Alison's New App is now available on iOS and Android! Download Now

Module 1: Filtrage et classification des images

Study Reminders
Support
Text Version

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Vidéo 1

Dans celle-ci, nous allons discuter de trois ou trois techniques que nous avons déjà abordées lors de nos discussions ou de nos conférences. L'un est le filtrage de convolution. Je montrerai comment vous pouvez éditer les filtres disponibles dans un logiciel donné. Et puis l'analyse des composantes de principe et une autre technique, c'est l'étirement de la décoration. Donc d'abord je vais à cette démonstration. Dans ce logiciel comme nous avons utilisé cette image, je continuerai à utiliser cette image spot de Moscou et ensuite et ce que nous allons vérifier cette technique de filtrage et dans celle-ci nous allons ici pour une maison, puis multispectrale et cette option de filtrage ici. Nous allons donc passer aux options de filtrage et ici nous allons pour le filtrage de la convolution de la conversion. Beaucoup de filtres déjà fabriqués sont là et chaque fois que je choisis l'un de ces filtres sur ce côté droit sur l'image elle-même et que les effets sont pris et que l'aperçu est affiché en gros. Donc si j'accepte tout cela, c'est ce que j'obtiens que je vais obtenir des résultats comme ça. Donc je peux choisir n'importe lequel mais je veux montrer que l'on peut aussi faire comme ça. Supposez que si je passe à l'amélioration de bord et à l'aide d'un filtre 7/7, c'est ainsi que le 7 ce filtre semble. Donc, parce qu'on dit qu'il s'agit d'un grand filtre et que la valeur centrale est de grossier +97 parce qu'il s'agit d'un filtre de passe élevé. Ainsi, la variation locale est mise en évidence et les variations régionales sont réduites, de sorte que toutes les autres valeurs de cellule de ce filtre de convolution sont négatives ou -1. Et donc, si je veux changer la taille ici, je peux concevoir mon propre filtre. Donc je peux changer ma taille comme de 7 automatiquement il ira à 9 et désolé 9 et puis 11 je peux choisir 11/11. Et puis je dois fournir les valeurs pour toutes ces choses. Et une fois que c'est là je peux exécuter le filtrage de convolution. Beaucoup d'options existent déjà dans le logiciel. Donc différents softwares de grossier vont fournir un autre type de filtres et l'on peut aussi concevoir et si je vois l'exemple de filtre de faible passe que trop de 11/11 comme vous pouvez voir ici ce sont 11 lignes et 11 colonnes sont là 11 colonnes sont là et dans le depuis qu'il est faible filtre de passe donc toutes les valeurs sont 1.Donc beaucoup de moyenne sera fait et ensuite vous obtiendrez des résultats en conséquence. Mais si vous voulez voir un rapide examen de ce que vous allez avoir sur la bonne fenêtre automatiquement, il arrive très rapidement ici. C'est ainsi qu'il y a d'autres filtres bien établis comme Sobel 1 2 et 7 par 7 5/5 et des filtres directionnels de toutes sortes de filtres possibles que l'on peut penser sont déjà en construction. Mais un système encore nécessaire selon ses exigences peut également ajouter la conception de son propre filtre, puis exécuter les choses en conséquence. Maintenant nous serons sur la même image que nous allons voir cette analyse de votre composant principal. Donc, lorsque nous allons à l'analyse des composantes principales, nous trouvons ici que c'est l'option qui est disponible par les boutons spectraux. Et ici nous pouvons choisir si je peux jouer sur l'image entière ou sur une petite image et ensuite je peux de gros que je dois fournir et l'endroit où je vais continuer. Donc je suis en garde ici et ensuite je peux dire que le coordinateur de bilk d'où ils viendront pour que ces détails puissent aussi être fournis. Je vais dire que si vous savez dans le journal de session et aussi écrire ces valeurs de matrice et de valeurs propres comme celle-ci, ces valeurs peuvent aussi être écrites dans un endroit que je vais fournir. Donc l'emplacement que je donne est temporaire ici et même ici, je fournit le dossier temporaire de localisation et le C Drive ok. Et une fois que vous y allez, vous pouvez aussi ouvrir le journal plus tard et voir aussi la matrice. Donc je vais le faire si c'est un gros fichier une fois peut aller en mode batch ou on aimerait effectuer sur plusieurs et il y a d'autres options sont aussi là. Donc, pour le moment, je ne suis pas de grossier combien de composants sont souhaités puisqu'il s'agit d'un composite de couleur trois bandes. Donc les trois composants sont souhaités à partir de ceci. Le traitement peut prendre un certain temps et il continuera de nous montrer le statut. Et une fois que c'est fait, vous pouvez aussi voir des composants individuels. Comme vous le savez, le composant principal à la variabilité maximale se trouve dans le composant 1 et dans le composant 3, vous pourriez avoir la variabilité minimale ou un élément de bruit juste. Si nous aurions dit 6 bandes scénario comme à Landsat là-bas TM, puis nous pouvons savoir pas inclure les bandes thermiques bande. Donc je dis 6 sinon il y a 7 bandes. Donc si je prends ce scénario de 6 bandes, alors le dernier groupe que je peux aller pour 6 composants et le dernier composant aura complètement du bruit là-bas. De même, je peux obtenir ces valeurs, mais très facilement. Maintenant, je vais aller vérifier que là où il a gardé le gros et que ces fichiers seraient là, mais laissez-moi partir pour ça, ce sont les deux fichiers qu'il a créés. Et si j'ouvre ces fichiers, je trouverai peut-être un bloc-notes que je peux ouvrir et ensuite je trouverai ces deux vecteurs propres et la matrice d'eigen aussi. On peut donc obtenir des informations statistiques sur les principales composantes. Et en second lieu, je vais obtenir l'image ici et donc aussi avoir une image. Donc j'ouvre ça pour ça et c'est l'image qui a été créée ici. Et c'est le et ces composants sont là et je peux de grossier obtenir différentes images et il y en a donc je peux avoir juste la seule couche bien qu'elle soit assignée de couleur rouge n'a pas d'importance. Je peux changer mon multi-spectral, j'ai toutes les couches juste en un seul et c'est un composant qui a la variabilité maximale. Si je vais pour le composant trois, alors je vais comme ça et il aura une variabilité minimale par rapport au composant un. De même vous obtenez non seulement la matrice des vecteurs propres, mais aussi vous obtenez trois composants principaux vous pouvez toujours faire des composites de couleur aussi et comme je vais faire ici et vous obtenez de tels résultats qui sont de grossier la partie d'interprétation d'un composite de composant principal composite est différent, mais il fournira beaucoup de variations dans les valeurs de pixels et on peut même aller pour la classification de ces composites ou peut utiliser pour d'autres interprétations ou des discriminations d'objets différents. De même, l'analyse des composants de principe peut être fait si l'image est plus grande il peut prendre beaucoup de temps, mais si les images est cette image n'était pas de très grande taille, il n'a fallu qu'une minute et ça sera de l'information très rapidement. Je vais maintenant aller pour une autre technique dont nous avons également discuté. Encore une fois, je vais aller à la liste spectrale puis à l'étirement de la décoration. Donc, dans l'étirement de la décoration, je vais à nouveau l'image ici que la même image spot de Moscou que je prends et où je vais mettre cette image qui doit être fournie, alors je suis en train de mettre dans ce temp et juste ok. Donc maintenant j'ai décidé ma sortie et si vous voulez que vous pouvez aussi créer une sortie en virgule flottante ou autre, mais pour le temps, je choisis comme la valeur par défaut et je demande qu'elle soit étirée aussi. Donc, j'ai une chose à faire sur le système de coordonnées de là où ils viendront. Alors, qu'il continue à partir de ce qu'ils sont là parce que c'est déjà votre référence, donc je n'ai pas besoin de faire de changements ici et ensuite je vais à nouveau pour la décoration s'étirer et il faudra du temps est en cours d'initialisation et ensuite il créera encore beaucoup de variabilité parce que le rappel en principe de l'analyse de composant quand on voit dans l'analyse du composant principal ce qui est fait essentiellement deux étapes est là. L'origine est déplacée vers le cluster où vous êtes alors aligné l'axe est aligné selon la variabilité maximale présente dans un cluster et qui devient votre principal composant un et perpendiculaire à cet alignement que l'axe PC1. Il y aura un autre composant qui est le composant de principe PC2 2 et perpendiculaire à ces deux composants il y en aura un autre qui est le composant principal trois également. Ce que nous faisons dans l'étirement de la décoration nous permet d'étendre davantage ces composants de principe de compo et d'essayer que les images les valeurs de pixels pour occuper l'espace maximum disponible dans cet espace tridimensionnel ou dans une gamme dynamique complète. De même, nous allons pour plus de variabilité et de présent dans les images à l'intérieur de cette image. Donc nous allons maintenant ajouter cette image et ceci est l'image de l'étirement de la décoration comme vous pouvez le voir ici je vais basculer de celui-ci et prendre celui-ci ici et de grossier je change ces couleurs et c'est ce que vous obtenez ici et vous pouvez choisir les différents schémas ici ok. Et oui maintenant, juste comparez ici, c'était notre image d'origine et c'est l'image de l'étirement de la décoration. On peut donc faire beaucoup de discrimination entre les objets par rapport à un simple composite de couleur. Peu importe que l'image que vous rehausez ne parvienne pas à cette étape comme vous pouvez le faire par l'étirement de la décoration. Ainsi, l'étirement de la décoration va créer beaucoup de couleurs beaucoup de variabilité parce que l'accès au composant principal est étiré. Et plus ils vont à leur place, ils occupent l'espace maximal disponible pour chaque bande ou pour chaque composant compris entre 0 et 255. Ceci est de grossier un scénario de 24 bits qui signifie pour 8 chacun 8 chaque bande que nous avons 8 bandes et 8 bits (()) (15:28) pour chaque pixel. Donc au total 3 3 chaque composant sont là ou 3 bandes sont là et donc vous avez 24. Mais la sortie comme vous pouvez voir que je vais à nouveau vous montrer et c'est votre image d'origine à peine vous voyez la discrimination et une fois que vous amenez ce étirement de décoration qui peut être fait très rapidement et vous obtenez de beaux résultats. Ces images sont ensuite destinées à la classification ou à l'interprétation simple de l'image et, de cette façon, la fiabilité de votre interprétation et de votre classification peut augmenter de façon très significative.

Vidéo 2

Et maintenant, nous allons pour une autre démonstration et c'est sur cette utilisation de ce logiciel de domaine public qui est DIPS car ici nous pouvons développer une meilleure compréhension des choses et ensuite pour le vrai traitement, vous pouvez aller pour les logiciels commerciaux. Donc aujourd'hui dans cette démonstration particulière de l'utilisation de ce stimulateur de traitement d'image numérique, je vais d'abord vous montrer le tranchage de densité dont nous avons déjà discuté quand nous discutons de la classification non supervisée et du tranchage de densité et comme même une conférence séparée. Maintenant, comme vous le savez, le but principal de la classification ou de la découplage de densité qu'il peut y avoir beaucoup de pixels de variabilité ayant une grande portée ou dans une image continue, nous voulons discrétiser et créer peu de classes et de même nous pouvons le faire, et ceci ici dans cette démonstration à travers ce logiciel nous pouvons voir deux soit nous pouvons voir la vue des données comme s'afficher ou nous pouvons voir la vue d'image. Alors, gardons la vue des données et parce que nous voulons comprendre que cela se passe et ensuite nous essaierons d'ajouter différentes classes ici. Donc si je scanne rapidement et ensuite ce que je trouve que dans cette image, les valeurs sont les valeurs les plus basses sont ici 10 et la valeur la plus élevée est I thing 68. Nous allons donc découpons cette image en quelques tranches. Donc ce que la première tranche que nous allons choisir est entre 10 et entre 10 et ce entre 10 et nous aurons une trentaine ici et ensuite ajouter des valeurs ici. Ensuite, nous allons pour une autre tranche qui dit 31 à 20 intervalle ici. Donc, 50 et ensuite nous irons pour une autre tranche qui est un 51 à nous disons 70 et de même, j'ai terminé tous les trois. Et puis quand nous sélectionnons celui-ci, nous disons que ok tranche cette image. Maintenant vous voyez que cette image maintenant nous pouvons voir la vue d'image et aussi une vue découpé. Nous avons juste pour la simplicité nous n'avons créé que 3 tranches. On peut créer plus de tranches ou plus de classes si des informations préalables sont là, comme vous pouvez voir que l'image entière qui a beaucoup de valeurs de pixels de plage commençant de 10 à 68 être découpé en trois classes seulement. C'est ainsi qu'il s'agit d'une tranchage de densité sur une image réelle. C'est un stimulateur juste pour la démonstration, mais il apporte clairement le concept de tranches de densité ici que vous pouvez voir. Maintenant, la prochaine chose que nous allons voir est le discriminant et ici ce que nous allons faire, nous allons créer ces ensembles de formation ou la signature en choisissant différents. Alors j'ai mis le curseur sur cette image ou ces valeurs que je connais. Donc je dis que ça va être mon seul ensemble de formation et ensuite je dis si une valeur qui est plus proche de ça, je peux aussi inclure dans ma formation comme celle-ci de grossier. Et si je veux inclure 9 alors 10 est là aussi, je vais juste à deux endroits comme je mentionnais quand nous discutaient dans la discussion théorique sur la classification supervisée que j'ai dit à chaque image il est toujours préférable de choisir au moins deux signatures ou deux ensembles de formation. Donc, un des ensembles de formation que j'ai choisis, puis je dirai une valeur ici et dit qu'il s'agit d'un tout droit. Et alors maintenant, j'ai notre maximum minimum que je sais parce que seulement trois pixels étaient là les statistiques de moyenne et de déviation standard aussi disponibles puis je choisis un autre ensemble une autre formation que vous savez cliquer ici créer un nouveau jeu de formation et je dis que cette zone noire que je veux être comme un plan d'eau. Donc, une formation a été établie ici et ces valeurs sont également assez fermées, mais je choisis cela comme un ensemble de formations, puis je dis des signatures de sauvegarde ici et ensuite de sauver le corps de l'eau. Encore une fois, je retire les statistiques de mes ensembles de formation et de mon plan d'eau. Encore une fois, je vais créer une autre classe ici ou encore un autre ensemble de formations en utilisant ces valeurs grises qui se sont arranges entre 66 68 et de même. Et un autre ensemble de formation qui n'utilise pas celui-ci peut être bien celui-ci et celui-ci. Donc, deux ensembles d'entraînement pour cette classe particulière que j'ai choisie. Et selon mes informations préalables, je dis qu'il pourrait s'agir d'une terre agricole, et ensuite j'en ai une. Maintenant, plus d'un ensemble de formations, je choisis d'utiliser ces valeurs et la valeur ici les valeurs grises légères ici qui ont une valeur par exemple 91 80 93 89 un ensemble de formation que j'ai choisi. Un autre pourrait être dans cette 89 et celle-ci va très loin. Donc peut-être 70 et ces deux, puis économis. Donc ça pourrait être ma forêt de sauvegarde. Maintenant, quatre ensembles de formation ont été choisis maintenant, je dis que ok stop recueille et classifié. Deux méthodes sont prises en charge ici dans ce logiciel de démonstration, l'une est le MDM qui représente la distance minimale avec moi, que nous avons déjà discutée lors de la discussion précédente sur et cette classification supervisée et la seconde est parallélépipède. Et donc en théorie, nous avons discuté de deux types de parallélépipède standard ou de parallélépipède précis. Ici, une seule option est disponible, donc je vais au minimum à la moyenne et quand je vais à la classification, c'est ainsi que j'obtiens mes résultats de classement. Toutes les valeurs que j'ai attribuées montrent des classes différentes également. Donc je choisis ici et je sais que ces calculs sont effectués qu'on peut aussi vérifier des classes individuelles et voir à quel point les statistiques sont en cours. Je pense que quelque chose s'est mal passé, non. Donc maintenant, je peux continuer à vérifier mes résultats de classification très facilement en utilisant ces méthodes. Deux méthodes sont disponibles, je peux aller pour une autre méthode encore une fois classer et dire ok le nombre de déviation standard je dis simplement en garder un et c'est ainsi que le comme a discuté dans la classe de la théorie que pour la même formation donne la même image d'entrée de l'image mais 2 algorithme différent dans la classification supervisée deux résultats différents. Il faut donc être très prudent ici de nombreux pixels n'ont pas été classés parce que j'ai lancé cette démonstration, je n'ai pas collectant exhaustivement tous les ensembles de formation. J'aurais dû aller 7 8 au moins des ensembles de formation, alors probablement l'image entière aurait classé dans différentes classes. Mais néanmoins dans le vrai logiciel, vous pouvez ajouter peu d'autres ensembles de formation, puis revenir en arrière et apporter des corrections, puis passer à la classification jusqu'à ce que vous satisfasse soit avec d'autres résultats, soit en faisant l'évaluation de la précision. Donc ces choses peuvent être faites assez facilement. Nous pouvons donc compléter cette démonstration sur la classification et le tranchage de densité.

Vidéo 3

La dernière chose qui est très importante dans le cas de la classification, c'est l'évaluation de la précision. Donc cette évaluation de la précision est une première comme une première image la plus haute que vous voyez est essentiellement l'image classifiée et qui a cinq classes d'eau, urbaine, arbuste, forêt et terres stériles.
Et ces classes sont là maintenant nous allons pour une évaluation précise de la précision de ces classes ont été classées sur la même image que celle que nous avons utilisée. Maintenant, vous voulez que vous sachiez que le pourcentage de références doit être pris si 50% de ce total de référence au sol ou des informations préalables que nous avons ou que nous avons 10%. Donc, si je choisis de dire que je ne veux que 10% de sélection parce que je vais y aller bien que je puisse obtenir des résultats différents, mais ça prend plus de temps. Amway donc je vais pour 10%, puis choisir ok puis identifier les pixels simples. Donc il y a maintenant 77 pixels aléatoires sur l'image classifiée ont été identifiés avec une référence correspondant à l'image au sol que vous voyez ici. Et puis finalement créer une matrice d'erreurs. Donc ici nous obtenons la matrice d'erreurs qui nécessite peu d'interprétation ici et c'est une table à deux dimensions fondamentalement. Donc ici encore, vous dites que l'eau est une forêt toutes ces classes sont là 5 classes comme c'était ici et là encore ces 5 classes sont là et ce que vous voyez le total de la colonne ou de la ligne ou de l'axe diagonal est tous 5 et la précision totale qu'il dit 71.43 est ici. Donc ce genre d'évaluation rapide peut aussi être fait en professionnel ou dans un logiciel commercial aussi. A la place de cette matrice d'erreurs, je peux également aller pour le coefficient kappa et peut aller à nouveau pour les calculs. Donc je n'ai que cette grande partie de et que je vais savoir continuer à traverser ça et j'ai les valeurs contre cette ligne qui est une colonne totale et puis maintenant une rangée. Ainsi, pour chaque cellule de cette table bidimensionnelle, le calcul est effectué comme vous pouvez le voir et c'est ce qui sera le bienvenu.
Je dis donc que le calcul est terminé. Donc en écart-type le résumé de la matrice qui dit que tout ce qu'ils ont dit c'est et la diagonale désolé la somme diagonale est 16 que nous obtenons et le grand total de tous ces calculs de coefficient kappa est 49. Et là encore, c'est aussi la façon dont ce calcul est fait, c'est que les résultats observés moins attendus. Le résultat attendu est de et ces 10% de sélection que nous avons choisi à un stade très précoce. Si nous allons pour 50%, je m'attends à ce que notre exactitude s'améliore encore parce qu'il y a moins de chances d'obtenir plus d'erreurs si le nombre de points aléatoires ou de pixels aléatoires est sélectionné pour comparer avec l'image classifiée. Donc c'est cette image de référence au sol ou peut-être au sol après une truc au sol ou peut-être à travers une autre carte. Donc ici une autre carte a été choisie et ce coefficient clé kappa se monte à environ 0,576 ce qui peut ne pas être très bon. Mais dans cette démonstration, nous l'avons fait.
Essayons encore la même chose avec 50% et voyons ce qui arrive avec celui-ci. Et 50% nous allons au lieu de 10% d'échantillonnage, puis d'identifier les pixels. Donc, tous ces 32 points aléatoires qui signifie que celui-ci a un total de 64 pixels dans cet exemple d'image. Ainsi, 30 à 50% des points ont été sélectionnés à peu près la moitié au hasard, ils ont été créés. Nous allons maintenant pour cette matrice, mais ce que je disais c'est que ce n'est pas exactement comme si cette précision s'est réduite là, nous obtenons ce pourcentage total de précision était quelque part à environ un 71 maintenant nous obtenons 62,5. Il n'est donc pas toujours nécessaire et vous obtenez des résultats très précis. Et de grossier de la même façon que vous allez pour le calcul kappa et aussi de garder le clipping pour toutes les cellules et ensuite vous obtenez ce genre de valeurs sont là. Il s'agit là d'un point tel que la valeur est et que la partie de l'exactitude a définitivement diminué. Par conséquent, dans ce cas, il est parfois possible d'obtenir de meilleurs résultats. Par conséquent, chaque fois que la classification est effectuée soit sous supervision, soit dans une classification non supervisée, une évaluation de la précision doit être effectuée et, dans votre rapport, une déclaration devrait également indiquer que la précision de la classification est de 0,625, ce qui n'est pas une très bonne classification qui a été réalisée, mais que c'est la façon dont on doit faire rapport. Pour que les vraies images sortent après la classification. Quand une image qui a beaucoup d'hétérogénéité dans les valeurs des pixels, votre précision va être réduite ou très réduite. Cependant, si une image qui est très homogène je vous donne l'exemple suppose que vous travaillez dans une zone de dessert ou dans une zone forestière dense ou dans une zone couverte de neige, la plupart des pixels peuvent avoir des valeurs très proches les mêmes valeurs des valeurs proches. Et votre classification va atteindre une très grande précision. Mais si vous travaillez dans une zone où beaucoup d'hétérogénéités sont là et disent que peut-être dans les terres agricoles et les petites parcelles agricoles ont des cultures différentes et que leur caractéristique spectrale va être complètement différente. Par conséquent, lorsque vous accédez à la partie de précision, vous ne réaliserez pas une très bonne précision. Donc, des images correctes homogènes qui ont des caractéristiques homogènes ou des valeurs de pixels sont fermées d'ici là vous pouvez obtenir une très bonne précision.
Dans une image hétérogène, vous ne pouvez pas obtenir une très bonne précision. Donc, et cela amène à la fin de ceci et cette discussion sur cette démonstration. Donc d'abord ce que nous avons à travers ce logiciel commercial et nous avons fait la démonstration de ce filtrage de convolution comment modifier comment concevoir votre propre. Ensuite, une analyse de composant de principe et la façon de voir le matt que vous savez accéder à la matrice et aux composants individuels que vous pouvez voir ensemble composite aussi vous pouvez avoir. Et puis la décoration s'étend par rapport à l'image d'origine et enfin, enfin et à travers ce logiciel DIPS, nous avons vu la démonstration de la tranchage de densité. Comme vous pouvez le faire sur des logiciels commerciaux. Deuxièmement, il s'agit d'un classificateur et d'un troisième au sujet de l'évaluation de la précision. À temps plein tout le temps que je n'utilise pas de logiciels commerciaux parce que l'objectif ici n'est pas de promouvoir n'importe quel logiciel un et je suis que je préférerais utiliser DIPS là où c'est possible parce qu'il est tout d'abord pas un logiciel commercial qu'il a été développé dans un institut universitaire. Il est mieux de comprendre tout d'abord ce qui se cache dans chaque traitement dans un logiciel commercial et cela ne peut être compris que par le biais de tels logiciels comme DIPS que j'ai utilisé. Ce qui amène à la fin de cette démonstration vous remercie beaucoup.