Loading

Alison's New App is now available on iOS and Android! Download Now

Study Reminders
Support
Text Version

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Dernière conférence, nous avons parlé des extracteurs de fonctionnalités et des descripteurs de fonctionnalités. En particulier, nous avons parlé du vol et de sa variance. Avant d'aller à d'autres types de fonctionnalités, nous allons prendre un léger détour et parler d'une autre tâche importante dans le traitement des images, c'est-à-dire la segmentation d'image. La vision humaine a fait l'objet d'une étude approfondie de plusieurs points de vue. Et l'une des perspectives de la perception humaine a été basée sur ce que l'on appelle le, juste commencer la tiering, qui est apparue il y a presque cent ans, qui avait ce principe fondamental que le tout est plus grand que la somme de ses parties. Et l'une des pierres angulaires de cette théorie était l'idée de regroupement pour comprendre la mission humaine. Donc, c'est une illusion d'optique très populaire. Il est connu comme si Mueller liar, généralement, qui demande à l'utilisateur de savoir lequel de ces lignes horizontales est plus long. Et en raison de la perception de l'être humain à l'égard de l'observation des choses comme un groupe. Et pas la compétence individuelle. L'illusion se présente en fait ici et fait qu'une lumière est plus longue que l'autre, alors que les lignes horizontales sont exactement les mêmes terres dans les deux. C'est juste, juste commencer la théorie, propose divers facteurs dans les images qui peuvent entraîner le regroupement. D'une part, vous pourriez avoir la proximité d'une raison quand il y a des objets ou des artefacts dans l'image, qui sont tout simplement proches l'un de l'autre. Et ces groupes se trouvent dans différentes parties de l'image qui pourraient résulter en une sorte de groupement, ou il pourrait simplement s'agir de la similitude des objets eux-mêmes. Certains objets sont des cercles creux, certains sont des cercles. Et juste parce que ces objets sont différents. Ils ont un bon groupe différemment. Lorsque nous percevons cette dimension, d'autres facteurs pourraient être le parallélisme. Il existe des groupes de lignes qui ont des propriétés et des dubs de paternalisme similaires. Nous finissons par les regrouper, ou une autre option pourrait aussi être symétrique. Le simple fait de voir des artefacts dans le sens symétrique fait de nous les regrouper en une, une manière particulière. En outre, vous pouvez également avoir des similitudes ou des types différents. Vous pourriez avoir un destin commun en ce qui a été de ces flèches vous indiquant où se passent ces boonquais. Donc dans le deuxième exemple ici, tous ces points, notre modèle est en ligne droite, mais les flèches nous permettent de les regrouper différemment. Donc, dans un sens où ils vont suivre la direction des flèches, Donne le système visuel humain, un indice de la façon dont ils devraient être regroupés, ou il pourrait être purement à cause d'une région commune qui était déjà marquée comme un cercle. Cela pourrait être dû à la mise en place continue d'artefacts en bonne vidéo pour la fermeture d'artefacts. Comme vous pouvez le constater, de nombreux facteurs donnent lieu à la perception de l'être humain, ce qui permet de considérer les choses comme des groupes. Et tout juste de commencer l'audition c'est assez descriptif. Il établit diverses règles et principes différents qui pourraient conduire à un regroupement. Quand les humains perçoivent les images. Qu'en est-il de ces règles en elles-mêmes suffisamment clairement définies pour devenir des algorithmes. Donc vous ne pouvez vraiment pas prendre la règle directement et implémenter le pseudo code pour cet outil qui pourrait vous aider à trouver, disons les groupes dans une image. Donc, pour le reste de cette conférence, nous allons parler de cette segmentation d'image de coeur de tâche, où nous essayons de regrouper des pixels similaires en différents groupes. Vous pouvez appeler cela semblable à la mise en cluster où vous grourez les différents pixels dans leur propre, uh, les clusters. Une partie importante de cette conférence est tirée des robinets de David, de ce livre et de la vente de livres de skis. Et nous partagerions ces influences à la fin. L'une des méthodes les plus anciennes pour la segmentation des images est la segmentation des bassins hydrographiques. Cette méthode a été développée en 1979. Uh, une segmentation d'image se souvient est la tâche de regroupement des pixels dans une image. C'est donc la tâche que vous cherchez. La méthode de segmentation du bassin versant. Segments et images dans ce que l'on appelle les régions de base de captage. Ça va avec le nom. C'est pourquoi il s'agit de la segmentation des bassins versants. Ça sera, devenu assez guéri dans la diapositive suivante. Vous pouvez donc afficher n'importe quelle image de l'échelle de gris comme surface topologique 3d. Par exemple, si vous avez cette image à l'échelle grise, Très similaire à la façon dont nous avons vu une image comme une façon de revenir dans l'une des conférences précédentes. Vous pouvez donc voir une image comme une surface topologique 3d, où les pics blancs à ces endroits, um, Beverly uh, les endroits et la blancheur se subventiinons dans d'autres endroits. Et les zones sombres sont là où vous avez des pixels noirs dans l'image originale. Ce que l'eau devrait seger, c'est de segmer le segment de la région de l'image en régions avec une idée de concept de l'eau de pluie qui coule, qui s'écoule dans le lac SIM du sel. Donc vous allez créer une méthodologie. Nous allons zoomer sur le degré d'eau de crue de votre image et partout où vous avez des bassins versants dans l'image. Imaginez cette représentation topographique 3D de l'image originale. Où que vous avez de l'eau stagnante, ces groupes de pixels forment des segments. Voyons ceci en un peu plus de détails. Donc vous identiez différents minima locaux dans votre image. Rappelez-vous que le minimum local est simplement des valeurs. Où sont les emplacements de pixels où la valeur de l'intensité de votre image est faible. Rappelez-vous encore que l'intensité de l'image peut être comprise entre zéro et deux 55. Ou zéro et un, si vous normalisent les valeurs dans l'image, alors vous choisissez votre, prenez certains quartiers dire, euh, ce que peut être un minimum de cinq par cinq, et en utilisant le processus, vous trouvez au minimum local la lumière au travers de l'image. Et vous inonder le paysage de minima locaux et de la fusion pro prouvée de l'eau à partir de minimums différents. Donc, ce qui signifie que vous commencerez par le minimum local et que vous continuez à développer lentement, ce qui est égal à l'inondation ici jusqu'à ce que vous allez à un point qui est accessible dans le même nombre de pixels de sous le minimum local. C'est donc là que mentirait le jour de la bombe entre ces deux régions. Donc, les résultats, les simples résultats du processus. Il n'y a rien de très fantaisie à ce sujet autre que ce que je viens de mentionner. Ce processus se traduit donc par le partitionnement, l'image dans le bassin versant, les bassins et les lignes du bassin versant. Rappelez-vous que cette méthode a été proposée à la fin des années 70 et qu'elle a été utilisée pendant de nombreuses années pour segmoriser des images en différentes parties. Il était généralement appliqué sur des gradients d'images plutôt que sur l'image elle-même. Juste pour vous donner un exemple visuel. Donc l'image originale est celle-ci. Nous voulons idéalement groupions les pixels. Donc, vous devez d'abord mettre une grille en correspondance. Maintenant, vous savez comment prendre un dégradé pour correspondre sans une arête libérée sur le, sur l'image d'origine. Donc maintenant les bassins versants de votre argument d'image de dégradé dans votre image inférieure gauche. Et vous avez enfin défini et obtenu votre sortie de segmentation et le remettre sur l'image d'origine et le dernier, c'est une méthode simple, mais fonctionne plutôt efficacement. Cependant, il a des limites s'il y a beaucoup de bruit et, par exemple, disons que vous avez une image fortement texturée, donc vous pouvez imaginer beaucoup de ondulations là-bas, uh, dans la, dans la texture de l'image. Il y a beaucoup de bruit dans la démence. Vous finissez par quelque chose comme ça parce qu'ils vont être de nombreux bassins. Donc, essayer d'inonder ces régions vous mènera à de nombreuses lignes de bassins hydrographiques qui séparent de nombreuses régions différentes. Je pense à ce qu'on appelle la segmentation. Donc, en gardant cela à l'esprit, ce que je devrais segdire est typiquement utilisé. Dans le cadre d'un système interactif où un utilisateur pointe ou quelques centres différents dans l'image, et ensuite l'algorithme des crues de ces centres comme seuls, ne se soucier pas des autres centres comme ça pourrait être dans l'image. Cette idée peut aider à surmonter la limitation de la segmentation. Si vous voulez en savoir plus, vous pouvez lire le chapitre 5.2 0.1 dans Solinski son livre. C'est l'une des premières méthodes. Depuis lors, il y a eu de nombreuses méthodes que les gens ont développées et on pourrait classer les méthodes en deux types: le fractionnement des régions et la fusion des régions dans les méthodes de partage des régions. Comme son nom l'indique, l'idée est de commencer par l'image. Et ensuite, continuez à se diviser en régions plus fines et plus fines. Nous verrons un exemple de cette méthode, un peu plus tard dans cette conférence, l'autre genre, qui est un peu plus populaire sont ce que l'on appelle les méthodes de gestion de la région, où vous commencez avec le pixel comme une région et continuez à fusionner des pixels similaires et à former des régions. Et vous pouvez continuer à avancer jusqu'à l'image complète. Voici un exemple de. Uh, une image qui a été marquée pour les groupes de pixels, les groupes de pixels sont aussi parfois appelés super pixels. Et ceci est parfois généralement utilisé comme une étape de prétraitement pour une segmentation plus élevée des autres. L'une des méthodes les plus populaires pour la segmentation de l'image était la segmentation par graphes, qui a été proposée au début de deux milliers par. C'est à Schwab quand ils ont proposé l'algorithme de segmentation basé sur le graphe, qui a utilisé des similarités de similarités entre les régions pour trouver quelles régions de mars dans une itération donnée. Donc si vous considérez une image comme un graphe G avec des sommets V et il mange juste, alors vous avez un ensemble de témoins et un ensemble d'images et les pixels sont nouveaux, qu'est-ce que c'est au début? Je, juste, euh, définissez entre, donc nous définissons un pixel à pixel la métrique. Par exemple, cela peut être basé sur les valeurs d'intensité de ces deux pixels. Vous pouvez également définir cette définition. Vous utilisez des mécanismes plus sophistiqués en prenant probablement un quartier et en prenant des gradients orientés, et ainsi de suite. Mais qu'en est-il de cette mesure? Vous avez un pixel à pixel la métrique de similarité, qui est définie comme w de E, qui est le poids de cette arête. Joindre ces deux pixels sur lesquels nous définissons ce qui est de la similitude, où il est juste donné peut-être quand nous le faisons, quand nous le voulons. Et nous ajoutons deux pixels, par exemple, cette similitude, la métrique pourrait être les différences d'intensité entre les, les voisins. Désactivé, ces deux pixels. Quand ils disent des voisins innés, vous prenez les trois voisins trois et à l'exclusion du pixel central, vous aurez huit voisins différents. Vous appelez ça comme n'importe quel voisin. Donc vous prenez deux pixels différents, prenez ça, n'importe quel voisin et trouvez cet inten.Les différences de sity. Ça pourrait être une façon de calculer avec. Une fois la valeur E définie, la méthode définit une grandeur ou une différence intolérante pour chaque région C initialement le membre, la Régence ne serait qu'un pixel, mais dans les itérations futures, la région pourrait être une collection de pixels. La différence interne est définie comme le taux d'arête le plus important dans les régions au minimum de l'arbre, ce qui signifie que si vous avez un tas de pixels différents, vous trouvez l'arbre couvrant minimal de la bande de pixels que vous avez. Maintenant, vous creusez le plus gros taux de bord dans l'arbre couvrant au minimum. Vous allez définir le régime comme une différence interne. Dans une certaine mesure, ce taux sera le plus important dans cette région. C'est juste une façon simplifiée de dire que c'est un point que si vous allez définir une autre quantité, si vous allez définir est pour une différence interne minimale, une différence interne minimum est donnée par si vous aviez deux régions, C1 et C2. La différence interne minimale entre ces deux régions est donnée par un minimum de la différence interne de C1. De plus, il y a une pénalité imposée manuellement. Donc, euh, j'expliquerai ça dans un instant. Et puis la deuxième quantité est la différence interne de C2 et bien juste être, voir le nombre de pixels que vous avez dans la région, peut-être normaliser en fonction de ça, etc., que nous avons une quantité et vous prenez le minimum de ce que c'est. Nous avons une région, dont vous définiez la différence en dollars. Plus une région de pénalité C2 qui est une différence intelligente, et c'est une sorte de frai plus efficace. Je prends le minimum de ces étudiants. Une fois que vous avez cela pour n'importe quel autre, juste dans les régions, qui sont au moins un bord de connexion de n'importe lequel d'entre eux. Qu'est-ce que cela fait, nous avons défini une quantité appelée diff de C1, C2, qui est donnée par le bord de poids minimum, reliant ces deux régions. Par exemple, vous considérez tout simplement qu'il n'en est qu'un. Nous faisons de sorte que nous voulons venir de Régence un. Et nous venons aussi d'une agence. Donc tous les âges entre ces deux régions et vous prenez le poids minimum des bords qui relient ces deux plages avec cette quantité est défini. La méthode définit un prédicat D pour deux régions, C1 et C2. Si le diff C une et la suite est supérieur à la différence interne minimale entre C1 et C2, alors vous dites que c'est vrai. Sinon, vous dites que c'est faux. Cette illustration devrait vous aider à mieux comprendre ce problème. Diff est le taux d'avance minimal entre les bons agents, mais nous avons une différence intolérante minimale. Il s'agit d'une différence intelligente minimale à l'intérieur de chacune de ces valeurs, entre C1 et C2, selon le minimum. Donc, si la différence entre les deux régions est supérieure à la différence interne minimale, vous ne voulez rien faire. Si c'est l'inverse, les régions marcheraient. Cette prédiction s'avère être fausse. Vous savez, cette diff est égale ou inférieure à la différence intérimaire minimale, ce qui signifie que C2 est aussi proche de C1 que les pixels séparés les plus éloignés de C1. Donc vous pouvez aussi, Mudge C1, Pensacola. C'est l'idée principale avec cette mesure particulière. Donc, pour résumer cet algorithme fusionne les deux régions. La différence entre les deux régions est inférieure à la différence minimale en dollars. C'est un exemple de la façon dont cela fonctionne à l'aide du voisinage de huit pixels. Vous voyez donc que les résultats sont assez bons. Les différents acteurs se séparent, raisonnablement bien. Les parties du corps sont séparées raisonnablement. Si vous avez plus que distinct cet aspect au chapitre 5.2 0.4, à la place du livre de skis, la prochaine méthode que nous allons examiner c'est une autre méthode populaire ou agrégation probabiliste, qui a été proposée par Alport en 2007. Cette méthode est à nouveau, un algorithme de correspondance de région, et c'est une approche probabiliste. Comme le dit le nom, j'utilise ce genre de valeurs d'intensité QS pour les valeurs de niveau de niveau. En plus de quelques contenus de texture de non, une région spécifique dans l'image. Au départ, la méthode considère chaque pixel comme une région, puis vous affectez une probabilité de fusion B IJ. Donc pour tous les deux pixels, je et J il y a une probabilité de cochon, ce qui est très probablement ces deux pixels trop. Et comment assigner ce sac en fonction de cette intention, de son intensité et de sa texture. Beaucoup de ces éléments, vous n'allez pas entrer dans chacun de ces détails. Je vous renvoie à la référence. Si vous êtes intéressé à savoir comment exactement il est mis en œuvre, vous pouvez consulter le document pour ces détails, mais il est largement basé sur l'intensité. Vous savez, comment l'intensité du calcul, vous n'avez pas la texture de l'ordinateur. Nous en avons parlé la dernière fois. Le cochon est donc basé sur les similitudes d'intensité et de texture. Les deux pixels. Maintenant, vu un graphe dans une itération particulière, disons que c'est un X moins un. Titration alors se retire est donné par un ensemble de ce que c'est? V S moins un et E comme le mien. Donc le golf de la prochaine itération, GS, quand vous voulez Mudge quelques régions est, c'est une morsure. Vous considérez un sous-ensemble de noeuds de départ, C. De V S moins un. Et vous remarquez beaucoup ou les régions, si elles sont fortement couplées aux régions dans, voir, voir ce que nous faisons ici, c'est que vous envisagiez ces pixels. Donc ça veut dire que vous direz que si vous avez pris un sous-ensemble de noeuds dans vs moins un Richard autres notes, non? Nous préférerions idéalement d'autres notes, qui sont en V S. Minus un moins C. Il s'agit des autres pixels du S moins un. Vous considérez ces pixels. Et pour tous les pixels que vous avez V a S la sommation de VIG, Jacob appartenant à C divisé par sommation J appartenant à V S moins un moins CPAG. Lorsqu'il y a un problème plus grand que le seuil, vous savez, qu'il y a certains pixels. C'est tout à fait probable que les graines de la région en soient les pixels. Ce ratio est donc excellent. Et puis le seuil, que le papier recommande de définir 2.2, alors vous fusionnez ces légions. Une fois que vous avez fusionné ces régions, vous pouvez propager ces affectations. Mais les enfants de niveau final, qui seraient la propriété de toute région regardant, je les appellerai. Et vous faites ce processus. Ouais. Il y a un exemple de la façon dont l'agrégation probabiliste fonctionne dans la pratique. Voici une image tirée de Selinsky son livre. Donc vous pouvez voir ici que l'image a est la grille de pixels de niveau scolaire. Donc c'est une image de cinq par cinq. Donc vous pouvez voir l'ensemble des couplages de pixels dans l'image B. Donc un bord épais signifie un couplage plus fort, un mince bord signifie que nous pouvons coupler. Vous pouvez donc voir que les pixels qui sont blancs sont fortement couplés les uns aux autres à cause de la similarité de l'intensité. Ils ne vous ont pas vu réaliser une limite, bien sûr, assis là où vous combinez des bords qui sont proches l'un de l'autre. Et juste que vous prussiez un pixel particulier et que vous commencez ça, ce qui serait C. Alors vous prussiez tous les autres V moins un, moins C uh, de tous les autres pixels de V S moins un, moins un, moins C. Et puis vous essayez de savoir lequel d'entre eux a une probabilité plus élevée de marge en fonction de l'intensité, de la similarité et de la similarité de texture à nouveau, et ensuite vous continuez à répéter ce processus. Vous pouvez voir qu'après deux niveaux, bien sûr, vous obtenez une assez bonne estimation des différentes régions de l'image. Eh bien, nous allons à une autre méthode populaire connue sous le nom de segmentation moyenne par postes. Cette approche est différente et elle utilise une technique de recherche plus basée sur une estimation de la densité non paramétrique. L'estimation de la densité non paramétrique est donc une norme à zipper que les gens utilisent pour estimer la densité d'un ensemble donné d'observations. Ainsi, les vecteurs de fonctionnalité de chaque pixel dans l'image du zoom sont des échantillons provenant d'une distribution de probabilité inconnue. Et nous allons estimer la fonction de densité de probabilité hors de l'image et la trouver plus, dans un certain sens, les frontières seraient comme ce que nous cachons pour la segmentation du bassin versant. Bien que dans ce cas, nous avons fait un minimum. Maintenant, nous allons parler d'un maximum. Et puis l'image est finalement segmentée. Une fois que vous avez identifié les pupilles dans l'image, l'image est segmentée en pixels Weiss en considérant chaque ensemble de pixels, qui grimpent pour ne pas paraître plus comme un segment cohérent. Vous pouvez le décrire pour les prochaines diapositives. Alors, considérons un exemple d'image comme vous pouvez le voir ici. C'est donc une image du monde assez réelle à droite. Vous voyez la présentation du match. Nous avons donc parlé des espaces de couleur au cours de la première semaine. Donc l'un des espaces de couleur qui est populairement discuté est connu comme l'étoile de départ que nous commençons, ou l'espace de couleur lub. Il s'agit donc simplement de la simplicité de l'intrigue de la seule étude. Vous démarrez les fonctions de cette image simplement pour la simplicité de traçage. Donc dans cet espace caractéristique, nous voulons idéalement savoir quels sont les modes de la distribution globale des intensités en fin de compte, en commençant par l'espace stellaire. Alors, comment trouver les modes d'une telle distribution? Oui. Euh, l'appel, vos études et l'apprentissage automatique. Vous vous souvenez que l'une des approches de téléchargement populaires pour estimer la fonction ou les modes de la densité de la propriété? Je serais à la mitrailleur. C'est l'estimation. Donc ils vont utiliser la même méthode ici pour être en mesure d'estimer ce qui est le PDF et quels sont les modes de distribution des intensités dans un espace particulier. Pourquoi nous avons pris l'exemple en tant qu'espace utilisateur final, vous pourriez faire une telle découverte dans n'importe quel autre espace pour cette matière aussi, juste pour la simplicité, vous allez considérer un exemple unidimensionnel. Souvenez-vous, encore une fois, qu'il s'agit d'un signal unidimensionnel. Ce qui peut être extrapolé à l'image en tant que signal de service. Donc la façon dont nous évaluerions cette fonction, c'est que nous le converferions. Oh, les données laissent supposer que vous avez des observations données par ces impulsions. Vous pouvez voir ces lignes verticales, Louisa, vos observations, cet argument. Donc vous évaluez votre fonction de densité F qui est ce que nous voulons estimer en convertissant vos données, vos observations. Avec une sorte de trappe, supposons que vous avez une arme sur le gâteau. Donc vous pourriez le faire comme une fonction de chute où la haie est le wit et vous avez X moins X pour être, uh, votre fonction, votre fonction génétique que vous êtes en train de tomber ou si cambodgienne vos observations avec cette suiteEnt. Nous vous donnons une estimation. Quelle est votre fonction? C'est à cela que vos observations venaient. Que faisons-nous de cela? Pour trouver les modes, la segmentation par décalage utilise une méthode d'ascension de gradient avec plusieurs redémarrages. Pourquoi n'est-ce pas parce que nous voulons trouver le maximum de tous les modes de cette distribution de probabilité. Donc nous commençons avec quelques invités, pourquoi pas pour un maximum local. Ça pourrait être n'importe quel point. N'oubliez pas quand effectuer. L'ascension du Gradient, qui est une procédure itérative. Donc, vous commencez avec un point, puis chaque, chaque itération vous ajoutez des temps constants le dégradé à l'estimation précédente et vous mettez à jour votre estimation à nouveau et encore et encore. Donc vous avez une idée, pourquoi pas? Ce qui peut être n'importe quel point aléatoire a expiré. Nous calculons donc la densité ou le gradient de l'estimation de densité F de X. Nous venons de parler de la façon dont les effets sont calculés à l'aide de ce mitrailleur. Euh, comment choisiez-vous ce contenu? Nous en parlerons dans un instant. Donc vous avez le gradient de l'estimation de la densité F de X, pourquoi pas? Et nous prenons un pas en avant dans cette direction. Donc le gradient va être donné par quelque chose comme cette somme excite moins X, G de cette quantité, où G n'est rien d'autre que K prime, tout le dérivé du gâteau en entonnoir, des limiteurs simples. Donc le gradient de la fonction de densité peut en fait être écrit légèrement différemment. Vous pouvez réécrire le dégradé, voyons la lumière précédente. Donc c'était la grille que nous avons juste de type excitation est X dans le G de X moins les normes excite squared par la tête carrée. Lorsque G est le premier K moins le K prime ou le gradient de couleur. Nous devons donc montrer que cela peut être écrit légèrement différemment. Lorsque le gradient peut être à une estimation, G capital G de X moins excitable. La capitale G de X moins excite est simplement le même petit D que nous avons vu sur la diapositive précédente dans MX MX est comme une contribution pondérée des valeurs X que vous envisagez dans ce concours particulier. Donc exciter dans le G de X moins excitant. Divé par la somme de tous les G de X moins X. Pourquoi est-ce une façon correcte d'écrire à partir de la diapositive précédente? Tu veux te laisser pour tes devoirs? Ce n'est pas le chiffre pour le trouver, mais je le travaille par étape et vous obtiendrez la réponse. Donc ce vecteur X, qui correspond au gradient est aussi connu comme la moyenne décalé. C'est la différence entre X, désolé, si vous, euh, je ne vous ai pas pointé vers ce X moins, mais, euh, c'est le changement principal est la différence entre X et la moyenne pondérée du gradient des voisins autour de X, X est très heureux. Les yeux Frito et X moins X sont les valeurs de la gamme de ce filtre. Et vous regardez la solution très similaire à la façon dont nous résolvons la convolution plus tôt. Dans ce cas, nous ne parlons que d'une déconvolution pour la simplicité. Le vecteur MFX est donc le déplacement principal. La différence entre X et la moyenne pondérée par gradient des voisins. Et une fois que vous aurez votre poste principal, ce qui est aussi votre dégradé dans ce cas particulier, un sujet a été mis à l'échelle multiple. Ensuite, votre prochaine itération dans votre dégradé de dégradé, votre dénivelé. Vous allez dire pourquoi la clé plus une est égale à Y K plus M de YQ. Vous pouvez également la rencontrer dans la même. Nous aurions juste une Waikiki et un expert en cancer parce que c'est là que vous placez Waikiki à ce moment-là. Et vous ne serez laissé qu'avec Emma Viking comme la quantité, qui deviendra YK plus, ce qui deviendra le modèle YK plus modèle. Et vous continuez à faire ce processus de façon créative et vous atteindrez enfin la plus grande partie de la distribution. Et ensuite vous découvrirez tous les points voisins, qui en grimpaient à ce centre commercial formeront un segment, d'autres points, qui en prétendant atteindre d'autres modes. Ce que ces segments, de toute évidence cette méthode compte sur la sélection de nous convenable Cardinal wit en plus de ce qu'avec votre jus est aussi important et l'impact, le dessert final, et c'est choisi. Et en particulier dans la description, l'approche semblait fondée sur les couleurs. Nous l'avons prise dans l'espace U B. Vous pouvez également envisager d'autres types de caractéristiques d'autres types d'espaces futurs pour trouver les moules. Fantastique. Veuillez consulter le chapitre 5.3 0.2 de quelques skis. Un instant, qui n'est pas une méthode de mise en correspondance de la région, mais une méthode de partage de la région est normalisée pour la segmentation. Une fois encore, une méthode très populaire a été utilisée pendant de nombreuses années, une seconde, une méthode basée sur le graphe, mais une approche différente dans ce cas, un graphique représentant les pixels dans une image. Il est successivement divisé en parties. Il ne s'agit pas de marcher cette fois. C'est une question de division. Comment la découlez-vous? Marquer les taux de blessures entre les pixels en fonction de la similarité, le type de deux pixels est très similaire. Peut-être qu'ils ont des intensités similaires. Vous leur donnez un taux d'avance élevé. Et si deux pixels sont plus éloignés dans une similarité, vous leur donnez un poids faible. Voici un exemple de ce graphique qui est construit. Donc l'objectif de ce serait l'amende, la coupe principale. Vous n'êtes pas prêt à travailler sur l'ensemble du matériel. Si vous êtes investi, vous pouvez examiner les différences et en apprendre davantage à ce sujet. Mais vous essayez de trouver la coupe principale, qui va vous donner deux régions différentes comme indiqué ici. Et ces bords, quand vous supprimez vous obtenez les deux segments correspondants, ce qui est votre objectif ultime. La coupe principale est définie comme une partie de tous les poids étant à l'aise. Donc, vous considérez deux ensembles a et B deux ensembles de ce que c'est. Et pour tout ce que j'appartiais à un et J appartenant à B, vous additionnez ces taux de bord, où que vous obtiens pour lequel vous avez le choix de a et B, vous obtenez une valeur minimale de coupe. C'est la voiture que vous allez choisir de diviser le graphe en deux segments. Aussi clairement que vous pouvez observer ici, cette méthode ne divise que deux segments à la fois. Donc si vous voulez plus de segments, nous allons devoir le faire de plus en plus, ou probablement utiliser d'autres heuristiques. Si vous voulez les combiner plus tard en moins de signaux. Mais l'un des problèmes avec l'utilisation du mini-panier est qu'il peut aussi aboutir à des solutions précédentes. Pourquoi le savon, tu peux y penser? Pourquoi ce problème de carte principale commence-il par des solutions en hommage? Ok. La réponse est très simple lorsqu'elle consiste à dire un seul pixel. Et B consiste à dire une autre région de pixels, cette soumission, peut-être le plus strict à un ensemble plus petit et donc peut avoir une valeur plus petite quand vous additionnez tous les éléments, ce qui signifie quand pourrait favoriser des régions où il n'y a qu'un pixel sur un site, ce qui peut ne pas être, ce qui peut tout simplement être une valeur aberrantes et ne pas vraiment former une bonne segmentation pour l'image. Comment surmonter ce problème? Ce problème est surmonté par une méthode ou normalisé, ce qui améliore le problème de la carte principale. Et la normalisation est définie par carte d'AB par association d'AB plus coupe d'AB par association de DV. Nous verrons ce qu'ils sont. L'association est définie à nouveau, comme somme de tous les poids en a et B, où l'association d'AB est donnée par association d'AA plus association d'AB c'est la somme de tous les poids. Et maintenant ce que vous avez fait en faisant cette association d'AB et l'association de BB en est deux. Vérifiez que le dénominateur contient le nombre d'images. Donc, dans chacune de ces régions, dans chacune de ces régions, donc s'il n'y avait qu'un pixel dans une région, je me rappelle que l'une de ces quantités va devenir très élevée contre une autre région, qui sont beaucoup plus de pixels. Lorsque le dénominateur descend le menu. Cela garantit que vous n'avez pas trouvé de solutions telles que ce que vous avez vu en moi, mais que vous avez des solutions plus utiles dans la pratique. Donc le tube digestif réalisé est un problème complet de PM, mais les solutions approximatives pour résoudre ce problème un peu plus en temps de guerre. Euh, mais vous pouvez regarder les gens ou normaliser les segmentations d'émission. Si vous êtes intéressé par la façon dont la question est réellement mise en œuvre. Qu'il s'agissait de la formulation orale qu'il avait comme exemple de la façon dont les tasses normalisées fonctionnent. Donc c'est l'image d'entrée, et vous pouvez voir les différentes régions get qui sont segmentées à l'aide de guts normalisés ou les itérations du métal. Ok. Et beaucoup d'autres méthodes pour la segmentation med, par exemple simplement en utilisant k-signifie la mise en cluster qui ont aussi été des méthodes basées sur Mark, sur des champs aléatoires et des champs aléatoires conditionnels. Et bien d'autres encore. Si vous voulez avoir une compréhension détaillée, veuillez lire le chapitre cinq des skis d'argent qu'une clôture motorisé à la fin de cette conférence aussi. Mais la question que les gens se posent maintenant est de savoir. Avons-nous vraiment besoin de toutes ces méthodes de segmentation. Donc, l'ensemble du cours est basé sur l'apprentissage profond pour la vision par ordinateur. N'y a-t-il pas de méthodes d'apprentissage profondes qui peuvent segmer le ministère. Tu as vraiment besoin de tout ça. Il s'agit d'une question valable pour de nombreuses tâches aujourd'hui. Vous n'avez pas besoin de ces méthodes. L'objectif de ces rubriques est de vous donner un contexte de vision informatique dans la configuration de la planification 3D. Mais certaines de ces méthodes ont également été utilisées à l'ère de l'apprentissage profond. Pour ceux d'entre vous qui sont un peu plus au courant de ces domaines, les méthodes précédentes d'apprentissage profond qui ont été utilisées pour la détection d'objets, ce qui signifie donner une image, vous essayez de trouver un objet et de dessiner la boîte englobant où se trouve l'image, cet objet. C'est la tâche de la détection. Il peut y avoir plusieurs instances d'objets ou d'objets multiples dans une image pour les méthodes initiales d'apprentissage profond pour la détection d'objets. C'était, euh, ce genre de méthodes de segmentation qui ont réellement servi à générer ce que le Vermont a écrit des propositions, où les objets pourraient, comme je l'ai dit, l'un des premiers CNN, qui est une Régence et, et ce qui a été utilisé pour la détection des objets utilise la principale méthode de segmentation par carte connue sous le nom de CPMC contrainte, les coupes principales paramétriques pour générer des propositions écrites pour des signaux complets. Nous en parlerons en détail lorsque nous serons à cette section de l'école. Mais c'est la raison pour laquelle, euh, la segmentation d'image est utile pour vous de savoir à ce moment, la segmentation peut aussi aller au-delà des images en vidéos.