Loading

Module 1: Filtro e classificazione delle immagini

Note di Apprendimento
Study Reminders
Support
Text Version

Classificazione immagine non supervisata

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

VIDEO 1

Ciao a tutti e benvenuti a una nuova discussione e oggi discuteremo di tecniche di classificazione delle immagini non supervisionate e tecniche di slicing di densità. Sai che la classificazione delle immagini di classificazione e lo scopo principale è quello di sapere ridurre il numero di variazione tra i valori di pixel a pochi. Così che possiamo utilizzare queste immagini una volta classificate direttamente a vari scopi come il terreno geologico, l'esplorazione minerale, la mappatura di alterazione, l'uso del suolo e la copertura del suolo che è o la mappatura della vegetazione o molte altre cose e possiamo utilizzarlo così questo è un elenco non esaustivo. La classificazione delle immagini di classificazione è generalmente di 2 tipi uno è una classificazione supervisore e un'altra è la classificazione non supervisionata. Nella classificazione non supervisata ciò che facciamo presentiamo l'immagine al fondamentalmente al software che sta avendo alcuni algoritmi incostruiti. E in base a ciò classifica le immagini e ci sono tecniche diverse per tecniche di classificazione non supervisate. Così uno può scegliere che voglio classificare la mia immagine usando questo algoritmo e una volta scelto poi l'immagine è classificata. Quindi gli interventi umani o l'intelligenza umana vengono utilizzati in modo molto limitato. Tuttavia in caso di classificazione supervisionaria attraverso il processo di classificazione l'intervento umano gioca un ruolo molto importante. E qualche volta si ottiene un output migliore utilizzando andando per la classificazione supervisionaria in termini di accuratezza poi di classificazione non supervisionata. Così la classificazione non supervisore sta sostanzialmente sfruttando la variabilità spettrale che si trova nei pixel in un composito di colore e utilizzando un particolare algoritmo che si classifica. Quindi la classificazione delle immagini è una scienza fondamentalmente di saper convertendo i tuoi dati di telerilevamento o immagini in una categoria significativa che rappresenta le condizioni di superficie o le classi. Un'immagine è fondamentalmente un dato continuo e se parlo di uno scenario a banda singola e di 8 bit scenario allora i valori all'interno di un'immagine possono variare tra 0 a 255. Questo è il miglior scenario possibile che valori. Tuttavia come avete visto attraverso vari esempi che generalmente gli istogrammi di immagine grezza la nostra immagine in ingresso non occupa la gamma dinamica completa. Così in questa classificazione di immagine ciò che facciamo categorizzare invece di avere una gamma dinamica completa di 2 circa si può dire in un'unica immagine a banda che si ha ad avere 255 classi. Quindi si sta riducendo quel numero a solo forse 5, 6, 7 categorie di forse terra usa forse la copertura del suolo forse la litologia o molte altre cose che utilizziamo in diverse applicazioni. Ecco perché chiamiamo categorie significative che rappresentano le condizioni superficiali o in specie chiamiamo anche classi.
E in qualche modo possiamo anche chiamarci come estrazione di caratteristiche perché dopo tutte queste sono caratteristiche forse una caratteristica foresta, forse una funzione di linea costruita, magari una caratteristica di waterboarding, magari un fiume, una montagna e così via. Così fine ultimo è la classificazione delle immagini sia supervisore che non supervisore è quella di estrarre funzioni e o a volte diciamo anche le estrazioni di oggetti. Si tratta quindi di un riconoscimento di pattern fondamentalmente spettrale che produce classificare un pixel di un'immagine in base al suo modello di misurazioni della radiazione dopo che tutta un'immagine sta avendo questa misurazione radiante forse in termini di riflessione o emissione.
Così generalmente eseguiamo la classificazione delle immagini sulle immagini che rappresentano valori riflessi. E cioè le cose più comuni. Tuttavia possiamo anche avere un riconoscimento di pattern spaziale e che classifica un pixel in base al suo rapporto con il pixel circostante. Quindi in questo riconoscimento di pattern spaziale e i pixel di quartiere che si trovano nel quartiere sono considerati anche questo tipo di riconoscimento di pattern perché la classificazione delle immagini è anche una sorta di riconoscimento di pattern. Quindi questo tipo di riconoscimento di pattern spaziale piuttosto che di riconoscimento spettrale è relativamente complesso e difficile da implementare e quindi noi e non vediamo questa parte di comprensione è stato implementato in normali software. E se qualcuno vorrebbe farlo allora uno deve davvero cercare le migliori opzioni possibili o altrimenti da solo deve creare un programma. Quindi il riconoscimento dello schema spettrale o si sa che si basa su un pixel sul suo modello o sulle sue misurazioni radianti è facile ed è stato implementato da molti software. E dato che come sapete abbiamo discusso che poi dopo l'inizio di un Landsat 1 in 1972 molti dati o archivi sono disponibili di tutti quelli di circa 47, 48 anni di dati c'è e i dati sono tutti disponibili gratuitamente. Quindi la gente vorrebbe anche aver iniziato a usare questo archivio orquesti archivi di diversi sensori o questo telecomando da telerilevamento nel riconoscimento dello schema temporale come stanno cambiando le cose? Molto di oggi l'utilizzo maggiore dei dati di telerilevamento e soprattutto questo dato di archivio è in analisi di tendenza. Gli studi di rilevamento della catena che significa riconoscimento del modello temporale. Quindi quel tipo di riconoscimento che tipo di lavoro sta andando avanti soprattutto perché sono in corso molti cambiamenti a causa del cambiamento climatico o del riscaldamento globale. E quindi questo vecchio dato 1972 in poi di dati di telerilevamento è diventato un patrimonio davvero molto buono e che anche voi sapete che le immagini di telerilevamento registrano le cose senza pregiudizi perché dopo tutto c'è un strumentario o un sensore che scandisce e registra le cose. Non ci sono interventi umani o influenze nelle immagini quando queste stanno registrando. Ecco quindi le vere registrazioni non biased registrazione degli eventi, registrazione non distorta delle caratteristiche o conosci classi o condizioni superficiali di quel tempo. Se questi sono stati registrati nel 1972 questa è stata la situazione nel 1970. Quindi se voglio confrontare tra 1972 e 2019 posso utilizzare queste 2 immagini e vedere il modello temporale cambia o cambia il rilevamento che posso fare. Ecco quindi che un'altra grande applicazione di dati di telerilevamento archiviati è nello schema di modifica temporale. Questa parte che ho appena citato è la classificazione non supervisore e la classificazione vigilata due tecniche ci sono. Qui quello che facciamo in una classificazione non supervisionata di cui discuteremo ulteriormente qui in questa particolare discussione che aggrega in raggruppamento spettrale naturale o cluster o categorie perché dopo tutta l'immagine è come ho accennato un continuo. I valori di pixel recanti continui ci sono in una matrice dimensionale 2 e cosa nella classificazione che stiamo cercando di fare? Stiamo mettendo questi pixel in diverse categorie o cluster. E in questo perché questo è senza supervisione completamente fatto basato su algoritmo da un software su computer. Quindi non c'è alcuna conoscenza di una classe di copertura del suolo tematico in questa fase solo quando andiamo a fare una classifica non supervisata su e diciamo falsi colori compositi. Quello che diciamo che voglio classificare in 7 classi e voglio usare questo algoritmo di cui discuteremo. Così una volta che avrete scelto queste 2 cose il computer o un software classificherà. Ma lì senza avere alcuna conoscenza o intelligence gli interventi umani sono solo fino a queste 2 tappe. Il numero di classi che si dichiara e quale algoritmo che si intende utilizzare è. Dove come in caso di classificazione vigilata che si basa su sembra più che probabilmente questo gruppo di pixel è in calo in questa categoria. E quindi attraverso gli interventi umani attraverso la selezione dei set di allenamento e delle aree di allenamento o tu e tu metti determinati input dai tuoi stessi in base alla tua interpretazione e intelligenza e poi il resto viene fatto dal computer. E quando andiamo per la classificazione vigilata anche se è tempo di consumare e richiede una conoscenza preventiva di quella zona di cui l'immagine viene classificata. Una volta che l'informazione c'è la conoscenza preventiva c'è allora possiamo creare una produzione molto buona attraverso la classificazione supervisionata piuttosto che sulla classificazione supervisionaria. Così che quello che diciamo precisione parte ovviamente sarebbe molto meglio con la classificazione vigilata a causa dell'intelligenza umana. Così qui in classifica dei pixel di classificazione vigilata i fasci di categorizzazione vigilati che è il motivo per cui si chiama supervisionare la classificazione attraverso gli interventi umani. Mentre in caso di classificazione non supervisore tutto si fa attraverso i computer. Ora quando vediamo i passi fondamentali nella classificazione vigilata che ho appena citato la selezione dei set di formazione. Ecco qui un esempio dato che questa è la mia immagine di ingresso e ho selezionato un set di formazione e dicendo che questo numero di questo pixel appartiene al corpo idrico questo è ovviamente lo schematico questo appartiene alla sabbia, questa foresta, questa è urbana, questo è il mais, questo è fieno. Quindi una volta che il tutto questo è l'allenamento che ho dato ora ad allenarmi al computer per riconoscere le diverse caratteristiche nell'immagine e una volta che viene fatto poi confrontare ogni pixel sconosciuto allo schema spaziale che ho fornito l'input. E poi scopri le caratteristiche simili di pixel in tutta l'immagine e assegna diverse categorie come qui è stato fatto. Quindi F è naturalmente foresta qui e poi forse C per la copertura di mais o il campo di mais e W per l'acqua e così via. Quindi la fase di uscita che è presente qui che sta mostrando numero di classi che sono qui numero di classi siamo scelti quale totale 6 e la vostra produzione saranno anche 6 ma gli interventi umani ci sono. Così in fase di allenamento determiniamo il fondamentalmente il successo della classificazione meglio la formazione formativa che forniamo al computer per riconoscere un pixel simile in base alle rispettive caratteristiche più alta la precisione che raggiungeremo. E cioè una maggiore formazione è sostanzialmente dura da supervisionare la classificazione. Ora in un momento in cui ho discusso di istogramma in quel momento sono anche le curve spettrali che ho detto che questi sono i fondamentali dell'elaborazione digitale dell'immagine digitale. E quelle cose stanno rivisitando di nuovo per diverse discussioni. Ora qui questo è l'istogramma dell'immagine e mentre si guarda ovviamente questo è schematico ma osservando questi possiamo identificare diverse funzionalità diverse che sono presenti all'interno di un'immagine in una determinata fascia. Generalmente l'acqua avrà una minore riflessione così come stiamo vedendo e atterrare terreni aperti senza mezzi termini solo una parte di terra potremmo avere valori di pixel più alti e la vegetazione diversa potrebbe avere un terreno diverso potrebbe avere altre cose. Ma lo stesso istogramma possiamo anche tracciare in una dimensione 2 o che in quel modo chiamiamo come trama di dispersione. E quando facciamo questa cosa perché in un unico istogramma di immagine ovunque la sovrapposizione è lì come in questa parte allora siamo difficili da scollegare o scegliere la parte anteriore delle caratteristiche presenti in immagine. Ma quando usiamo le 2 band così ora da single band scenario a multispettrale quando si va per multi spettrale la nostra discriminazione di oggetti diversi diventa molto più semplice. E così quando queste caratteristiche sono tracciate sono uno in colore giallo, e il blu è nel terreno, il rosso è la vegetazione e questi strangoli che si vedono nella parte terra. Poi ora è più facile salvo sovrapposizioni tra la vegetazione e il suolo. A parte che parte questi è più facile discriminare tra questo e l'urbano attraverso un istogramma dimensionale 2. Ma se andiamo per un istogramma dimensionale che si chiama spazio della funzione. Quello che vediamo qui che le discriminazioni ora 3 band sono in una band x band y e band z. Così quando questi tre vengono utilizzati allora la discriminazione screditata tra oggetti diversi diventa molto più facile e la sovrapposizione che abbiamo visto nella vegetazione e nel suolo in un istogramma bidimensionale o una trama di dispersione non c'è più. E possiamo discriminare diversi oggetti variamente. Così single band scenario molto difficile da identificare oggetti diversi che sono presenti nell'immagine diverse funzioni. Ma quando andiamo per 2 dimensionali che è disperso trama alcuni oggetti possono essere discriminati possono essere isolati molto facilmente. Mentre ancora qualche sovrapposizione potrebbe esserci. Ma quando andiamo per tridimensionali poi le cose diventano perché tre band invece di 1 band, 2 band. Ora vengono usate 3 band e poi la discriminazione e lo spazio delle funzioni diventa molto più facile.


VIDEO 2

Ora nella classificazione non supervisionato praticamente questo è ciò che viene fatto come si può vedere l'istogramma dimensionale 3 qui o si conosce space space è mostrato banda 4, banda 5 e banda 6 di Landsat TM sono state tracciate diverse caratteristiche che è una classe 1, classe 2, classe 3, classe 4 tutte ci sono. E facile da discriminare e una volta che abbiamo dichiarato al sistema che voglio classificare questa immagine un'immagine colorata con immagine a 3 di banda in 7 classi e voglio usare questo metodo di classificazione allora la classificazione diventa molto più semplice. Anche se non è supervisionata può non essere altrettanto accurata come supervisionata ma per la classificazione vigilata la conoscenza preventiva è molto richiesta di quella zona di quella in cui l'immagine appartiene a questo deve ricordare. Quindi qui no in caso di classificazione non supervisore non viene richiesta alcuna conoscenza preventiva e il computer fondamentalmente categorizza o raggruppa tutti i pixel secondo le loro relazioni spettrali e cerca il clustering naturale come si sta vedendo in questo spazio di funzione o storiogramma dimensionale 3. E assume attraverso questo clustering che le diverse classi di copertura del territorio non saranno appartenenti allo stesso raggruppamento. E una volta creare l'analista per l'utente ne valuta l'utilità e può regolare i parametri di clustering. E mostriamo anche un esempio anche attraverso un'immagine classificata sottoposta a una classificazione non supervisata. Così dopo aver comparato l'immagine riclassificata in base alle classi spettrali perché questo è ciò che si sta facendo qui in non supervisore ai dati di riferimento del suolo se si sta avendo l'utente può determinare quale tipo di copertura del suolo corrisponde o attraverso la nostra esperienza di interpretazione delle immagini se ho classificato un'immagine in 4, 5 classi e vedendo un falso colore composito posso identificare che c'è un corpo idrico, c'è una foresta, c'è una terra edificata, c'è una terra agricola e c'è un terreno a terra. E come saggi mi identifico e gruppo e metto anche i loro nomi. Ecco allora che questo è il vantaggio che questo ha sulla classifica supervisore che perché il classificatore identifica le distinte classi spettrali. Così la bias che l'umano può avere non prevarrà in caso di una classificazione non supervisionata. Molti dei quali non avrebbero apparente nella classificazione vigilata e se fossero molte classi sarebbe stato difficile allenarli tutti. Ovviamente risultati migliori quando ci si ottiene quando ci sono tanti raggruppamenti e non molte classi presenti in un'immagine. Ma se c'è un sacco di eterogeneità presente in un'immagine allora se si va per una classificazione supervisore o non supervisata la precisione ridurrà in modo significativo. Quindi ma se deve essere eseguita allora deve essere eseguita. E qui anche l'algoritmo di clustering disponibile forse l'analisi dei mezzi K e la tessitura in caso di classificazione non supervisata. Così un'immagine è stata sottoposta a una classificazione non supervisata prima della classificazione è stato dichiarato che il cluster che conosci crea 15 classi. Ora posso riorganizzarmi queste classi e possono creare un'immagine migliore piuttosto che avere 15 classi. Così può essere così che posso creare una mappa molto migliore. Ora non dovrei chiamare come immagine ora una mappa che potrebbe essere una mappa di utilizzo del territorio usando l'immagine satellitare. Così questi numero di cluster o classi possono essere ridotti invece di 15 possono essere ridotti a 7, 8 per regrouping implantare o si sa applicando alcuni interventi umani come la classe che sta mostrando al corpo idrico una classe adiacente che sta mostrando l'acqua poco profonde. Quindi se non voglio nella mia mappa sciare acqua e acqua profonda insieme separatamente allora quello che farò, unire queste 2 classi in una come corpo idrico. E perché ridurrò il numero di classificazioni classiche e la mia mappa che è un output attraverso la classificazione non supervisore diventa molto più utile a molte applicazioni. Ora veniamo ad un'altra discussione che è anche un modo non supervisionabile di classificare l'immagine attraverso la sgozzatura della densità o in qualche letteratura si può trovare che si dica sgozzatura di immagini. Quindi la sgogliatura della densità di densità e anche se il qui è generalmente fatto su una singola fascia. Quindi quando si hanno pixel che vengono distribuiti lungo x asse su un istogramma principale. Sono divisi in serie di intervalli o fette specificate dall'utente. Così si sta avendo un istogramma che si può scorrere l'istogramma in diverse fette come in una pagnotta di pane si possono creare le fette. Le fette possono essere di pari dimensioni o le fette possono essere di dimensioni diverse a seconda dei vostri requisiti. Quindi tutti questi valori di pixel in calo all'interno di un determinato intervallo vengono visualizzati in un unico colore o in un unico valore nell'immagine in uscita e perché ciò che si sta facendo attraverso la sgozzatura della densità anche che la variabilità presente nell'immagine è ridotta a poche fette o poche classi con cui è possibile convertire un'immagine facilmente in 2 diverse fette e classi diverse. Quindi questo processo convergente di tono continuo e grigio. Quando il tono grigio quando viene menzionato significa lo scenario della banda singola e l'immagine in una serie di intervalli di densità o di fette e ognuna di questa fetta rappresenterà una gamma digitale specifica. Ad esempio qui stiamo vedendo un'immagine in ingresso è qui ed è stato classificato che i pixel che stanno avendo valore compreso tra 0 a 15 vengono assegnati colore rosso. Un nome di categoria verrà assegnato anche in una tua regione che valori che sono da 0 a 15 potrebbero essere corpi idrici. Ora valori pixel valori che da 116 a 132 sono verdi forse la tua vegetazione e così via. Così qui lo slicing è fatto così. Ora qui quello che in sostanza è fatto in questo esempio è una sorta di affettatura di un te che conosci quasi dello stesso spessore. A volte non è necessario scorrere un'immagine in uno stesso spessore come una pagnotta di pane come ho detto. Tutte le fette hanno bisogno di non essere dello stesso spessore possibile in quanto per i vostri requisiti è possibile modificare e può creare un output diretto da una mappa di livello grigio. Ora ci sono alcune altre tecniche di classificazione che discuterò molto brevemente e che è un pixel a base di cui siamo stati discutendo finora rispetto alla classificazione orientata all'oggetto perché questi classificatori sono anche diventati popolari e questi sono stati classificatori orientati all'oggetto e questi sono stati implementati anche in vari software. Così nella maggior parte di questi classificatori di immagini una classificazione che si basava sull'elaborazione dell'intera scena pixel per pixel. In una base di pixel e questo è comune diciamo per pixel o classificazione basata su pixel. Tuttavia è ora possibile farlo con una classificazione orientata agli oggetti che consente all'utente di decomporre sostanzialmente il segmento dell'immagine in molti oggetti di immagine relativamente omogenei. I pixel che stanno avendo quasi stessi valori sono considerati come un oggetto indicato come patch o segmenti che utilizzano un processo di segmentazione dell'immagine di risoluzione mutli. Quindi qui invece di multispettrale si può avere anche una segmentazione di immagini multi - risoluzione. Quindi varie caratteristiche statistiche di questi oggetti di immagine omogenei nella scena vengono poi sottoposti a classificazione logica statistica o fuzzy logica. Il vantaggio perché ci stiamo muovendo dalla classificazione basata su pixel alla classificazione orientata agli oggetti perché per la stessa area potreste avere immagini di diversa risoluzione. E Se voglio che tu sappia usare queste immagini multi - risoluzione della stessa area per una migliore classificazione allora questo è l'approccio che va per classificatore orientato agli oggetti. Pur essendo relativamente comprensissimo nel punto software del punto di vista codificante è poco difficile. Tuttavia questa classificazione orientata oggettiva che si basa sulla segmentazione di immagini o sulla decomposizione è spesso utilizzata per l'analisi di immagini ad alta risoluzione spettrale. Quindi la classificazione non supervisoria e generalmente è buona per le immagini di risoluzione del corso moderate o di sicuro. Ma dato che una risoluzione spaziale migliora giorno dopo giorno di tutti i sensori su diversi satelliti. Quindi le nuove tecniche di classificazione devono essere evolte e questa classificazione orientata agli oggetti è una di queste. Ad esempio qui un 1 di 1 metri di imaging spaziale che è un IKONOS qui è il nome del satellite su cui sono stati possibili o disponibili i dati pancromatici di una risoluzione di un metro. Poi abbiamo avuto una breve parola satellitare da parte del globo digitale e questa è una risoluzione di 61 centimetri di 0,61 metri. Così mentre ci spostiamo verso risoluzioni più alte e superiori una risoluzione spaziale le tecniche di classificazione convenzionali non possono essere applicate. E quindi uno deve muoversi verso la classificazione orientata agli oggetti. Così questo porta a termine questa discussione soprattutto su tre cose che qui abbiamo discusso. E uno riguarda la sua classificazione non supervisata e quali sono la limitazione anche e quali sono i vantaggi.
E la seconda è la densità di densità una tecnica molto comune per ridurre il numero di intervalli nei pixel a quattro gruppi di categorie. E terzo per immagini satellitari ad alta risoluzione spaziale orientata alla classificazione. Questa parte abbiamo fatto in modo brevissimo. Ma questo porta solo a confronto che come stanno procedendo le cose e quali sono i nuovi sviluppi. Così questo porta alla fine di questa discussione grazie mille.