Loading

Module 1: Filtrage et classification des images

Notes d'étude
Study Reminders
Support
Text Version

Classification d'image non supervisée

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

VIDÉO 1

Bonjour tout le monde et bienvenue à une nouvelle discussion et nous discuterons aujourd'hui des techniques de classification non supervisée des images et de découpage de la densité. Vous savez que la classification des images de classification et dont le but principal est de réduire le nombre de variations entre les valeurs de pixels à seulement peu. Ainsi, nous pouvons utiliser ces images une fois qu'elles sont classées directement à diverses fins comme le terrain géologique, l'exploration minérale, la cartographie de l'altération, l'utilisation des terres et la couverture de terres qui est ou la cartographie de la végétation ou bien d'autres choses, et nous pouvons l'utiliser pour qu'il s'agit d'une liste non exhaustive. La classification de l'image de classification est généralement de deux types: l'une est une classification supervisée et une autre est la classification non supervisée. Dans la classification non supervisée, ce que nous faisons nous soumet l'image au logiciel qui a quelques algorithmes inconstruits. Et en se basant sur le fait qu'elle classifient les images et qu'il existe différentes techniques pour les techniques de classification non supervisées. Donc on peut choisir que je veux classer mon image à l'aide de cet algorithme et une fois que je choisis, l'image est classée. Les interventions humaines ou l'intelligence humaine sont donc utilisées de manière très limitée. Toutefois, en cas de contrôle de la classification à travers le processus de classification, l'intervention humaine joue un rôle très important. Et parfois, vous obtenez une meilleure sortie en vous servant de la classification supervisée en termes d'exactitude, puis de classification non supervisée. Ainsi, la classification non supervisée exploite essentiellement la variabilité spectrale qui se trouve dans les pixels d'un composite de couleur et qui utilise un algorithme particulier que vous classifient. La classification d'images est donc une science essentiellement de vous savez convertir vos données ou images de télédétection en catégories significatives représentant des conditions de surface ou des classes. Une image est essentiellement une donnée continue et si je parle d'un scénario à bande unique et de scénario 8 bits, alors les valeurs d'une image peuvent varier entre 0 et 255. C'est le meilleur scénario possible qui valait. Cependant, comme vous l'avez vu à travers divers exemples qui sont généralement des histogrammes de l'image brute, notre image d'entrée n'occupe pas la gamme dynamique complète. Donc dans cette classification d'image ce que nous classons au lieu d'avoir une plage dynamique de 2 à peu près vous pouvez dire en une seule image de bande que vous avez peut avoir 255 classes. Donc vous réduisons ces nombres à seulement 5, 6, 7 catégories de terres qui utilisent peut-être des terres recouvrir peut-être de la lithologie ou bien d'autres choses que nous utilisons dans différentes applications. C'est pourquoi nous appelons des catégories significatives représentant les conditions de surface ou en quelque sorte nous appelons les classes.
Et d'une façon ou d'une autre, nous pouvons aussi appeler en tant qu'extraction de fonctionnalité parce qu'après tout ce sont des fonctionnalités peut-être une fonctionnalité de la forêt, peut-être un trait de trait construit, peut-être un bord d'eau, peut-être une rivière, une montagne et ainsi de suite. Le but ultime est la classification d'images supervisée ou non surveillée, c'est d'extraire des fonctionnalités et parfois nous disons aussi des extractions d'objet. Il s'agit donc d'une reconnaissance de modèle essentiellement spectrale qui produit le classement d'un pixel d'une image basée sur son modèle de mesures de rayonnement après que toute une image ait cette mesure radiante peut être en termes de réflexion ou d'émission.
En général, nous effectuons la classification des images sur les images qui représentent des valeurs réfléches. Et c'est la chose la plus courante. Cependant, nous pouvons aussi avoir une reconnaissance spatiale de motifs et qui classe un pixel en fonction de sa relation avec le pixel environnant. Donc dans cette reconnaissance de modèle spatial et les pixels du voisinage qui sont dans le voisinage sont aussi considérés comme ce genre de reconnaissance de modèle parce que la classification d'images est aussi une sorte de reconnaissance de modèle. Ainsi, ce type de reconnaissance spatiale plutôt que la reconnaissance spectrale spectrale est relativement complexe et difficile à mettre en œuvre et, par conséquent, nous ne voyons pas cette partie de la compréhension a été implémentée dans les logiciels normaux. Et si quelqu'un souhaite le faire, alors il faut vraiment chercher les meilleures options possibles ou sinon, il doit créer un programme. Donc la reconnaissance des motifs spectraux ou vous savez qui est basée sur un pixel sur son motif ou des mesures radiantes est facile et a été implémentée par un grand nombre de logiciels. Et comme vous le savez, nous avons discuté qu'après la création d'un Landsat 1 en 1972 lot de données ou d'archives sont disponibles de tous ceux d'environ 47, 48 ans de données est là et les données sont disponibles sans frais. Donc les gens aimeraient aussi avoir commencé à utiliser cette archive orces archives de différents capteurs ou ces données de télédétection dans le temps pour reconnaître comment les choses changent? Actuellement, le lot d'utilisation majeure des données de télédétection et surtout de ces données d'archives est en analyse des tendances. Les études de détection de chaîne qui se traduit par une reconnaissance temporelle. Donc ce genre de reconnaissance de ce genre de travail est en particulier parce que beaucoup de changements ont lieu déjà en raison du changement climatique ou du réchauffement de la planète. Par conséquent, cette vieille donnée de 1972 sur les données de télédétection est devenue un très bon actif et aussi, comme vous le savez, les images de télédétection enregistrent les choses de manière non-biaisée parce qu'après tout il y a un instrumental ou un capteur qui scanne et enregistre les choses. Il n'y a pas d'interventions ou d'influences humaines dans les images lorsqu'elles sont en train d'être enregistrées. Ce sont donc les véritables enregistrements non biaisées de l'enregistrement des événements, l'enregistrement non biaisé des fonctionnalités, ou vous connaissez les classes ou l'état de surface de cette époque. Si elles avaient été enregistrées en 1972, c'était la situation en 1970. Donc, si je veux comparer entre 1972 et 2019, je peux utiliser ces 2 images et voir les changements de motifs temporels ou de détection de changement que je peux faire. C'est donc une autre application importante des données de télédétection archivées dans le changement temporel. Cette partie que je viens de mentionner est la classification non supervisée et la classification supervisée deux techniques sont là. Ici, ce que nous faisons dans une classification non supervisée dont nous discuterons plus avant dans cette discussion particulière qui se regroupent en groupements spectraux naturels ou en groupes ou catégories parce que après tout l'image est comme je l'ai mentionné est un continu. Les valeurs de pixel en continu se trouvent dans une matrice à 2 dimensions et dans la classification que nous essayons de faire? Nous plaçons ces pixels dans des catégories ou des clusters différents. Et dans celui-ci, parce que ce n'est pas supervisé complètement en se basant sur l'algorithme par un logiciel sur ordinateur. Il n'y a donc pas de connaissance de la classe thématique de couverture terrestre à ce stade uniquement lorsque nous allons et que nous faisons une classification non supervisée par-dessus et disons fausse couleur composite. Ce que nous disons que je veux classer dans 7 classes et je veux utiliser cet algorithme dont nous discuterons. Donc une fois que vous avez choisi ces 2 choses, l'ordinateur ou un logiciel sera classé. Mais il n'y a pas de connaissances ou de renseignements sur les interventions humaines qui sont à la hauteur de ces deux étapes. Le nombre de classes que vous déclarez et l'algorithme de la méthode que vous souhaitez utiliser. Lorsque, comme dans le cas de la classification supervisée qui est basée sur le plus, ce groupe de pixels est probablement tombé dans cette catégorie. Par conséquent, par le biais d'interventions humaines, en sélectionnant les ensembles de formation et les domaines de formation, vous et vous avez mis certains intrants de votre propre chef en fonction de votre interprétation et de votre intelligence, et ensuite le reste est fait par l'ordinateur. Et quand nous allons à la classification supervisée bien qu'elle prend beaucoup de temps et qu'elle nécessite une connaissance préalable de cette zone dont l'image est classée. Une fois que l'information est là, on peut créer une très bonne production par une classification supervisée plutôt que par une classification supervisée. Donc, ce que nous disons que la précision fait partie du cours serait beaucoup mieux avec la classification supervisée en raison de l'intelligence humaine sera utilisée. Ici, dans les pixels de classification supervisés, les faisceaux de catégorisation supervisés, c'est pourquoi on l'appelle la classification supervisée par des interventions humaines. Alors que dans le cas d'une classification non supervisée, tout est fait à l'aide d'ordinateurs. Maintenant, lorsque nous voyons les étapes fondamentales de la classification supervisée que je viens de mentionner, le choix des ensembles de formation. Donc ici un exemple est donné que c'est mon image d'entrée et j'ai sélectionné un ensemble de formation et dit que ce nombre de ce pixel appartient au plan d'eau, c'est bien sûr le schéma qui appartient au sable, cette forêt, c'est urbain, c'est du maïs, c'est du foin. Donc, une fois que c'est la formation que j'ai donnée maintenant, la formation à l'ordinateur pour reconnaître les différentes fonctionnalités de l'image et une fois que c'est fait, comparer chaque pixel inconnu à la configuration spatiale que j'ai fourni l'entrée. Ensuite, trouvez les caractéristiques similaires des pixels de l'image entière et attribuez différentes catégories comme ici, cela a été fait. Donc F est bien sûr une forêt ici et peut-être C pour la couverture de maïs ou le champ de maïs et W pour l'eau et ainsi de suite. Donc l'étape de sortie qui est présente ici qui montre le nombre de classes qui sont ici le nombre de classes que nous avons choisi le total 6 et votre sortie sera également 6, mais les interventions humaines y sont. Ainsi, à l'étape de la formation, nous déterminons le succès de la classification, c'est-à-dire une meilleure qualification de la formation que nous fournissons à l'ordinateur pour reconnaître un pixel similaire en fonction de leurs caractéristiques respectives plus haut la précision que nous réaliserons. Et c'est une plus grande formation est essentiellement difficile de superviser la classification. Dans un moment où j'ai discuté de l'histogramme à ce moment-là, je suis aussi les courbes spectrales J'ai dit que ce sont les fondamentaux du traitement de l'image numérique à distance. Et ces choses sont revisites pour des discussions différentes. Ici c'est un histogramme d'image et tout en regardant bien sûr cela est schématique, mais en regardant ces images nous pouvons identifier différents vous connaissez différentes fonctionnalités qui sont présentes dans une image dans une bande particulière. En général, l'eau aura moins de réflexion, de sorte que nous sommes en train de voir et de faire des terres ouvertes sans que vous sachiez qu'une partie terrestre nous avons une valeur de pixel plus élevée et que la végétation différente peut avoir un sol différent peut avoir d'autres choses. Mais le même histogramme nous pouvons également tracer dans une dimension 2 ou que de cette façon nous appelons comme un nuage de points. Et quand on fait cette chose parce que dans un histogramme d'image unique où le chevauchement est là comme dans cette partie, alors il est difficile de débrancher ou de choisir l'avant des caractéristiques qui sont présentes dans l'image. Mais quand on utilise les 2 bandes maintenant du scénario à bande unique à multispectral quand on va pour multi spectrale notre discrimination de différents objets devient beaucoup plus facile. Et donc lorsque ces caractéristiques sont tracées sont de couleur jaune, et le bleu est dans le sol, le rouge est la végétation et ces strangles que vous voyez à la partie terrestre. Il est maintenant plus facile à l'exception du chevauchement entre la végétation et le sol. A part cela, il est plus facile de discriminer entre ça et l'urbain à travers un histogramme de 2 dimensions, mais si on y va pour un histogramme de dimension qui s'appelle l'espace de fonctionnalité. Ce que nous voyons ici que la discrimination maintenant 3 bandes sont dans une bande x bande y et bande z. Donc quand ces trois sont utilisés, alors la discrimination discréditée entre différents objets devient beaucoup plus facile et le chevauchement que nous avons vu dans la végétation et le sol dans un histogramme bidimensionnel ou un nuage de points n'est plus là. Et nous pouvons distinguer différents objets. Ainsi, un scénario de bande unique très difficile à identifier un objet différent qui est présent dans l'image caractéristiques différentes. Mais lorsque nous allons pour 2 dimensions qui est éparpillée, certains objets peuvent être discriminés peut être isolé très facilement. Alors qu'il y a encore un certain chevauchement. Mais quand on va pour trois dimensions, alors les choses deviennent parce que trois bandes au lieu de 1 bande, 2 bande. Maintenant, 3 bandes sont utilisées, puis la discrimination et l'espace de fonctionnalité deviennent beaucoup plus faciles.


VIDÉO 2

Maintenant, dans la classification non supervisée, c'est ce qui est fait comme vous pouvez voir l'histogramme de 3 dimensions est montré ici ou vous savez l'espace de fonctionnalité est montré bande 4, bande 5, et la bande 6 de Landsat TM a été tracée différentes fonctionnalités qui est une classe 1, classe 2, classe 3, la classe 4 tous sont là. Et facile à discriminer et une fois que nous avons déclaré au système que je veux classer cette image une image de couleur avec 3 images de bande en 7 classes et je veux utiliser cette méthode de classification, alors la classification devient beaucoup plus facile. Bien qu'il soit non supervisé peut ne pas être aussi précis que supervisé, mais pour la classification supervisée la connaissance préalable est très nécessaire de cette zone de celle dans laquelle l'image appartient à ce que celui-ci doit se rappeler. Donc ici non en cas de classification non supervisée aucune connaissance préalable n'est requise et l'ordinateur catégorise ou regroupe tous les pixels en fonction de leurs relations spectrales et recherche le groupement naturel comme vous l'avez vu dans cet espace caractéristique ou un histogramme tridimensionnel. Et suppose à travers ce regroupement que différentes classes de couverture terrestre ne seront pas membres du même groupement. Une fois l'analyste créé, l'utilisateur évalue son utilitaire et peut ajuster les paramètres de classification. Et nous montrons aussi un exemple à travers une image classée soumise à une classification non supervisée. Donc après avoir comparé l'image reclassée en fonction des classes spectrales parce que c'est ce qu'on fait ici en données de référence sans supervision si vous avez l'utilisateur peut déterminer quel type de couverture terrestre les classes spectrales correspondent ou à travers notre propre expérience de l'interprétation de l'image si j'ai classé une image dans 4, 5 classes et en voyant un composite de couleur faux Je peux identifier qu'il y a un plan d'eau, il y a une forêt, il y a une terre construite, il y a une terre agricole et il y a un sol nu. Et comme sage, je vais identifier et regrouper et mettre leurs noms aussi. C'est donc l'avantage que cela a sur la classification supervisée que parce que le discriminant identifie les classes spectrales distinctes, de sorte que le biais que l'homme peut avoir n'est pas ne l'emportera pas en cas de classification non supervisée. Un grand nombre d'entre eux n'auraient pas pu se voir dans la classification supervisée et, s'ils étaient de nombreuses classes, il aurait été difficile de les former tous. Bien sûr, de meilleurs résultats lorsque nous obtenons quand nous avons beaucoup de groupements et pas beaucoup de classes présentes dans une image. Mais s'il y a beaucoup d'hétérogénéité présente dans une image, alors si vous allez pour une classification supervisée ou non supervisée, la précision diminuera de façon significative. Donc, si elle doit être exécutée, elle doit être exécutée. Et ici aussi l'algorithme de groupement disponible peut être le K signifie et l'analyse de texture en cas de classification non supervisée. Ainsi, une image a été soumise à une classification non supervisée avant la classification, il a été déclaré que le cluster que vous connaissez crée 15 classes. Maintenant, je peux regrouper ces classes et créer une meilleure image plutôt que d'avoir 15 classes. C'est ainsi que je peux créer une carte beaucoup plus efficace. Maintenant, je ne devrais pas appeler comme une image maintenant une carte qui peut être une carte d'utilisation des terres à l'aide de l'image satellite. Donc, ce nombre de classes ou de classes peut être réduit au lieu de 15 peut être réduit à 7, 8 par regroupement impliquant ou vous savez appliquer certaines interventions humaines comme la classe qui montre le plan d'eau une classe adjacente qui montre l'eau peu profonde. Donc, si je ne veux pas dans ma carte de l'eau peu profonde et de l'eau profonde ensemble séparément, alors ce que je ferai, je vais fusionner ces deux classes en un comme un plan d'eau. Et pourquoi je réduirais le nombre de classeset ma carte qui est une sortie par une classification non supervisée devient beaucoup plus utilisable pour de nombreuses applications. Nous en venons maintenant à une autre discussion qui est aussi une façon non supervisée de classer l'image par le tranchage de la densité ou, dans certains documents, on peut trouver qu'ils disent le tranchage d'images. Donc, le tranchage de l'image en tranches de densité et bien que le voici, c'est généralement fait sur une seule bande. Ainsi, lorsque vous avez des pixels qui sont distribués le long de l'axe x sur un histogramme principal. Ils sont divisés en séries d'intervalles ou de tranches spécifiés par l'utilisateur. Donc vous avez un histogramme vous pouvez découpiller l'histogramme en différentes tranches comme dans un pain de pain vous pouvez créer les tranches. Les tranches peuvent être de taille égale ou de tranches de tailles différentes selon vos besoins. Donc toutes ces valeurs de pixels tombant dans un intervalle donné sont affichées en une seule couleur ou une seule valeur dans l'image de sortie et pourquoi ce que vous faites par le biais de la découplage de densité aussi que la variabilité qui était présente dans l'image est réduite à seulement quelques tranches ou peu de classes par lesquelles vous pouvez convertir facilement une image en 2 tranches différentes et différentes classes. Donc ce processus se convertit en tonalité continue et grise. Lorsque le tonus est gris lorsqu'il est mentionné, il signifie le scénario et l'image de la bande unique dans une série d'intervalles de densité ou de tranches et chaque tranche représente une plage numérique spécifique. Par exemple, ici nous voyons une image d'entrée est ici et on a classifié que les pixels qui ont une valeur comprise entre 0 et 15 se voient attribuer une couleur rouge. Un nom de catégorie sera également attribué dans une région que les valeurs de 0 à 15 peuvent être des masses d'eau. Maintenant, les valeurs de pixels que 116 à 132 sont vertes peut être votre végétation et ainsi de suite. Donc là, le tranchage est fait comme ça. Ici, ce qui est essentiellement fait dans cet exemple est une sorte de tranchage d'un vous savez presque de même épaisseur. Parfois, il n'est pas nécessaire de découpiller une image en une même épaisseur comme une micelle de pain comme je l'ai dit. Toutes les tranches ne doivent pas être d'une épaisseur identique à celle que vous pouvez modifier et créer une sortie directe à partir d'une mappe de niveau gris. Il y a maintenant d'autres techniques de classification dont je vais discuter très brièvement et c'est un pixel basé sur lequel nous avons discuté jusqu'à présent par rapport à la classification orientée objet parce que ces classificateurs sont aussi devenus populaires et que les discriminants orientés objet deviennent populaires et qu'ils ont également été implémenté dans différents logiciels. Donc dans la plupart de ces classificateurs d'image une classification qui était basée sur le traitement de la scène entière pixel par pixel. Dans une base de pixels et ceci est commun que nous disons par pixel ou par pixel de classification. Cependant il est maintenant possible de le faire avec une classification orientée objet qui permet à l'utilisateur de décomposer essentiellement le segment de l'image dans de nombreux objets d'image relativement homogènes. Les pixels qui ont presque les mêmes valeurs sont considérés comme un seul objet désigné comme étant des correctifs ou des segments à l'aide d'un processus de segmentation par image de résolution mutli. Donc ici au lieu de multispectral, vous pouvez aussi avoir une segmentation d'image à plusieurs résolutions. Ainsi, diverses caractéristiques statistiques de ces objets d'image homogènes sur la scène sont ensuite soumises à une classification statistique traditionnelle statistique ou logique floue. L'avantage parce que nous allons passer de la classification basée en pixels à la classification orientée objet parce que pour la même zone, il se peut que vous avez des images de résolution différente. Et si je veux que vous sachiez utiliser ces images multirésolution de la même zone pour une meilleure classification, alors c'est l'approche qui va pour le discriminant orienté objet. Bien que la compréhension relativement sage dans le point de codage du point de vue du codage, c'est peu difficile. Cependant, cette classification orientée objectif qui est basée sur la segmentation ou la décomposition d'images est souvent utilisée pour l'analyse des images de haute résolution spectrale. Ainsi, la classification non supervisée est généralement bonne pour les images modérées ou les images de la résolution de cours. Mais comme une résolution spatiale s'améliore jour après jour de tous les capteurs sur différents satellites. De nouvelles techniques de classification doivent donc être développées et cette classification orientée objet est l'une d'entre elles. Par exemple, ici une imagerie spatiale de 1 par 1 mètre qui est un IKONOS ici est le nom du satellite sur lequel des données panchromatiques d'une résolution de compteur sont devenues possibles ou étaient disponibles. Ensuite, nous avons eu un satellite rapide par le monde numérique et ceci est une résolution de 61 centimètres de 0,61 mètre. Alors que nous nous dirigeons vers des résolutions plus élevées et plus élevées, il n'est pas possible d'appliquer des résolutions spatiales aux techniques de classification conventionnelles. Il faut donc passer à la classification orientée objet. Cela met fin à cette discussion, en particulier sur trois points dont nous avons discuté ici. Et on parle de votre classification non supervisée et de ce qui est aussi la limitation et quels sont les avantages.
Et la seconde est la masse volumique d'une technique très commune pour réduire le nombre de plages dans les pixels à en quatre groupes de catégories. Et troisièmement, pour la classification à haute résolution spatiale des images satellites orientées objet classification. Nous l'avons fait de manière très brève. Mais cela ne fait que comparer que les choses évoluent et quelles sont les nouvelles évolutions. Ce qui amène à la fin de cette discussion, merci beaucoup.