Loading
Apuntes
Study Reminders
Support
Text Version

Base de representación de imagen de detección remota

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Video 1 vamos a tener sobre la base de la interpretación de imagen de teledetección o representación de imagen que estaremos discutiendo en esta que cómo se crea una imagen nuestra representada, que vemos en la pantalla o tal vez en la salida impresa, que es muy, muy importante. Porque en última instancia después de todo pasar por la radiación electromagnética y diferentes longitudes de onda, diferentes sensores y gobernardiferentes leyes. En última instancia, lo que obtenemos a través de los satélites de detección remota y la imagen y cómo esa imagen está representada en el espacio de 2 dimensiones, y eso es igualmente muy importante. Por lo tanto, esto es lo que vamos a discutir. Y esa imagen básicamente una imagen digital que estoy hablando es una representación bidimensional de objetos, que están presentes en el mundo real. Y esta representación es que vemos como imágenes de teledetección, es una parte de la superficie de la tierra como se ve desde el espacio. Debido a la distancia y el depender de la resolución, no vemos toda la tierra de una sola vez. De todos modos, por cualquier diseño que estemos teniendo el máximo podemos ver la mitadde la tierra y pero en mayor resolución espacial, datos o relativamente en datos de resolución tosca o espacial. Las partes de la tierra o parte de la tierra sólo se ve aquí ni la cosa entera que es vista. Por lo tanto, la imagen y generalmente cuando se transmite por el satélite es digital, pero la imagen puede ser también analógica después de la visualización en la pantalla o tal vez en la forma de impresión, de modo que las imágenes pueden ser analógicas o digitales. Pero en este curso, la mayor parte del tiempo vamos a discutir solo sobre las imágenes digitales y las fotografías aéreas antes, cuando no teníamos la tecnología de teledetección actual, entonces las fotografías aéreas son ejemplos de imágenes analógicas. Aunque son fotografías, fueron instantáneas pero en caso de imágenes, se trata de una línea de escaneo por línea y grabada. Así, por ejemplo, si usted toma una foto de alguien usando su cámara digitalentonces en un solo clic se agarrará escena entera. Esto es lo que vemos una instantánea. Pero supongamos que si pone un documento en un escáner o en una máquina de fotocopia, entonces cuando un escáner se mueve de la vista de la izquierday el extremo derecho y escanea la imagen. De la misma manera que los sensores de satélites también funcionan. Por lo tanto, a medida que el satélite se mueve, el sensor muevey escanea la parte de la tierra y crea una imagen. Por lo tanto, esa es la principal diferencia entre una fotografía y una imagen. La fotografía está en una instantánea, donde se crea una imagen línea por línea. Así que las imágenes de satélite adquiridas utilizando sensores electrónicos, que son sensibles a las ondas electromagnéticas y que son todas en la forma digital originalmente. Aquí estoy tomando un ejemplo y una parte de zoom y también números digitales o les llamamos número de pixel. Por lo tanto, pixel aquí es una abreviatura que es sinónimo de elemento de imagen. Así que, aquí esta es una imagen pancromática blanco y negrolo que vemos aquí y aunque usted está viendo una línea aquí y en cada línea hay células o píxeles están aquí, pero generalmente en la imagen no verá estas líneas, excepto los píxeles están alineados como este en una matriz de 2 dimensiones.De la misma manera estas líneas se muestran aquí sólo para nuestra mejor comprensión, pero realmente en el sistema o en la memoria de la computadora, estas líneas no están ahí en absoluto, sólo para nuestro entendimiento estamos usando estas líneas. Ahora, puesto que esto es gris, entonces los diversos conjuntos de grises están siendo usados para representar una parte de la tierra mostrada aquí. En consecuencia, los números digitales también están ahí. Por lo tanto, lo que se puede notar que el número digital 0 está teniendo completamente el color negro correspondiente. Y mientras que el número digital como 255 está teniendo el color blanco y el resto de nuestro conjunto blanco de gris y el resto de los píxeles están teniendo los tonos entre 2 tonos extremos o de color extremo, uno es el negro, otro es el blanco y el resto están en el medio. Por lo tanto, este es un ejemplo de imagen de 8 bits y aquí es un ejemplo de una imagen en blanco y negro. Por lo tanto, una imagen digital ahora podemos definir que una imagen digital es una matriz de 2 dimensiones o área de píxeles. Cosa importante aquí, también una cosa importante que usted puede notar que la forma de esta celda o pixel es un cuadrado en forma. Sin embargo, la forma general de una imagen no necesita ser cuadrada, también puede ser rectangular como esta, pero aún por definición, sería una matriz de 2 dimensiones, lo quesignifica es el número de filas y el número de columnas deben ser # guardados, pueden ser diferentes, y si son diferentes, entonces la forma general de una imagen va a ser rectangular. Pero si el número de filas y columnas es el mismo, entonces la imagen general va a ser cuadrado u decir sin embargo unidad de una imagen siempre es cuadrado en forma como estamos viendo aquí, y a lo largo de esa imagen el mismo tamaño de esas plazas están allí. Estas plazas están representando unaéreo promedio del suelo. Por lo tanto, si supongamos que este cuadrado es igual a 10 metros por 10 metros. Así que 10 metros de área de 10 metros de tierra está siendo representado por un único valor de píxel. Ahora bien, esto si digo esto es canal visible que significa, sea cual sea la reflexión dentro de 10 metros por área de 10 metros sobre el suelo y se ha tomado promedio de área y el sensor ha registrado ese valor. Así que el propio sensor hace esa parte que toma una reflexión media si es canal visible, reflejo medio y grabado en forma de cuadrado o números pero vemos números pero cuando hacemos una imagen o cuando se hace la imagen, entonces la unidad siempre en una plaza. Por lo tanto, voy a repetir esta parte. Esa forma general de una imagen puede ser cuadrada o rectangular que significa que el número de filas y columnas no necesita ser visto, si son diferentes entonces la forma general de una imagen va a ser rectangular, pero el número de filas y columnas son iguales, entonces la forma general de una imagen será cuadrado. Sin embargo, la unidad de una imagen que es el píxelsiempre será cuadrado, así es como representamos todas las imágenes de satélite o todas las fotografías digitales también en los días modernos, todos representan un área cuadrada del suelo o escena. Así que, esto está ahí y estas líneas que están ahí para nuestro entendimiento, estas líneas en los datos en sí mismos en una imagen, estas líneas no existen, habrá una continua que conoces las áreas de matriz de píxeles. Por lo tanto, cada píxel tiene un valor de intensidad, depende de si estoy viendo una imagen infrarroja térmica, entonces ese es el valor de la emitancia. Si estoy viendo un canal visible, entonces es un valorde reflexión. Y la palabra de intensidad ha venido aquí, que decide si es un canal de 8 bits y la intensidad es muy pobre o decir que la reflexión es muy pobre, entonces puedo obtener un valor cerca de 0 o tal vez 0, pero si la reflexión es muy alta, tal vez como las áreas de cobertura baja de Francis, entonces mi valor de reflexión o el valor de pixel puede ser 255. Tan intensidad que esto es lo que significa la intensidad aquí, que cada píxel tiene un valor de intensidad. Y, en caso de la emitance, lo mismo que si la alta emitancia está allí, entonces puedo conseguir en un infrarrojo térmico blanco y negro, puedo obtener incluso 255 valor en 8 bit de escenario. Por lo tanto, cada pixel tiene un valor de intensidad representado por un numero de pixel digital, numero digital o numero de pixel y a veces tambien se llama DN en corto, cualquier direccion de ubicacion a la que se hace referencia por filas y columnas. Por lo tanto, la dirección de ubicación que si tengo que abordar este valor 0 en esta imagen, entonces es la filanúmero 1 y la columna número 6. Si tengo que abordar este 255 aquí, entonces es este es el número de la fila 5 y la columna número 6. Por lo tanto, esto escómo es por eso que es una referencia de filas y números de columna. Por lo tanto, cada pixel tiene su ubicacion e imagen a la cual se hace referencia y cada pixel representa un valor de intensidad y un pixel es una unidad de una imagen. Ahora, que cada vez que utilizamos esta unidad de palabras, eso también significa que es indivisible. Eso significa ahora que no puedo dividir. Algunas personas afirman que pueden ver dentro de un píxel o llaman a un subpíxel, pero no es realmente posible. Entonces, lo que digo aquí, que una vez que una imagen ha sido adquirida por un satélite o un sensor, entonces la resolución espacial de esa imagen no puede ser cambiada. Por lo tanto, una vez que se adquiere una imagen, se congela la resolución espacial. Esta es una declaración muy apropiada pero grande. Una vez que se adquiere una imagen, se congela la resolución espacial de una imagen. Eso significa, si tomo el ejemplo de esta imagen en particular que se está mostrando si el píxel está representando 10 por 10 que significa 100 metros cuadrados de área. Ahora, una vez que tengo la imagen puedocambiar a 1 metro 1 metro de resolución espacial o tamaño de celda o tamaño de píxel hacer en los ordenadores que puedo cambiar, pero no mejorará la calidad de la imagen, de ninguna manera va a mejorar, no importa cómotécnicas de interpolación o red neuronal o lógica difusa lo que aplique. Eso no va a mejorar la calidad de imagen, si hubieran sido posibles, si eso hubiera sido posible entonces hay sensores como NOAA AVHRR que proporciona datos a 1 kilómetro de resolución que significa 1000 metros de resolución. Por lo tanto, adquirimos una imagen a 1000 metros de resolución y mediante el uso de ordenadores y estas técnicas de interpolación o algunas otras técnicas, podemos crear una resolución de 1 metro que no es posible. Por lo tanto, repito que la frase que una vez que una imagen es adquirida resolución espacial no puede ser cambiada,eso significa que aunque por algunas técnicas de procesamiento de imágenes, usted puede mejorar la calidad de los enemigos mediante la mejora de la imagen, pero estoy hablando de la resolución espacial que significa, una vez que se toma entonces 10 por 10 pixel, 1 pixel valor es registrado por el sensor.  
Vídeo 2
Ahora, seguimos en este píxel porque pixel es la unidad de una imagen y en el pixel de detección remota importa mucho. Por lo tanto, es por eso que continuamos esta discusión de que el píxel es una unidad de una imagen que acabamos de mencionar. Y por lo tanto, es indivisible y la imagen digital comprende de área 2 dimensional o matriz de 2 dimensiones de elementos de imagen individuales o en un pixel corto dispuesto en columnas y filas, que estamos viendo aquí. Aquí el este de color amarillo es lo que 1 pixel único está allí, de nuevo líneas que son sólo para nuestra comprensión en las líneas de imagen reales no estarán allí, estas líneas vertical y horizontal. Por lo tanto, cada píxel representa un área en la superficie de la tierra si estas son las imágenes de satélite, entonces esto es cierto que cada píxel representa un área de la superficie de la tierra y el valor del píxel representará la intensidad en una determinada longitud de onda. Por lo tanto, si estamos hablando visible entonces la reflexión si es un infrarrojo térmico hablando, entonces la emitencia. Así que eso representa la intensidad, por lo que pixel tiene un valor de intensidad, y una dirección de ubicación que es el número de filas y columnas en una imagen de 2 dimensiones, y por lo tanto no se pueden visualizar más detallesdentro del píxel porque es una unidad y la unidad es indivisible, y no puedo ver dentro de un píxel. Eso es lo que uno tiene que recordar realmente. Por lo tanto, una imagen es una matriz de 2 dimensiones. Y por lo tanto, puede tener sólo 2 formas cuadrado o rectangular. Eso significa que el número de filas y columnas es el mismo cuadrado, la misma imagen, y si las filas y columnas tienen una forma diferente a la rectangular, y también una declaración importante, ese píxel de una imagen es siempre cuadrado en forma. Por lo tanto, la unidad es siempre un cuadrado. Por lo tanto, el valor de intensidad representa la mayor cantidad física, tal vez el reflejo o radiancia solar en una banda de longitud de onda determinada reflejada desde el suelo.Así que tal vez reflejado cuando estamos hablando de visible o infrarrojo, tal vez emitido cuando estamos hablando de la intensidad de radar infrarrojo térmico o retrodisperso si estamos hablando de microondas o parte de microondas pasiva del espectro EM. Por lo tanto, estamos teniendo sensores de satélite en la parte reflejada, estamos teniendo sensor de satélite en el infrarrojo térmico y por supuesto, también estamos teniendo la longitud de onda del radar. Por lo tanto, todo tipo de sensores están disponibles lo que son con respecto a la intensidad de un píxel de. Ahora el valor de pixel es normalmente un valor promedio o digo valor promedio de área para toda el área de terreno cubierta por pixel y que tiene que ser un solo valor y este valor también tiene que ser número entero Este tiene que recordar, en imágenes digitales, imágenes de satélite estoy hablando particularmente el valor de celda o valor de pixel es siempre un valor entero que es número entero que no podemos tener en decimales. Imágenes de satélite Estoy hablando aunque en una matriz normal de la matriz de 2 métricas que también puede ser un número real que es cierto en el caso de los modelos de elevación digital. Pero en una imagen de satélite digital, el valor de píxel siempre será un entero o un número entero. Por lo que la intensidad de un pixel es digitalizada por el sensor a bordo o por satélites registrados como un número digital o valor de píxel también llamamos DN o valor de píxel. Y debido a la capacidad de almacenamiento finito, no tenemos el almacenamiento finito. Así que cada sensor a bordo de satélites tendrá un almacenamiento finito, un número digital se almacena con un número finito de bits y en un binario si la grabación se está haciendo a 8 bits, tal vez 10 bits, 11 bits. Para el ejemplo de, normalmente la mayoría de estos sensores están registrando datos a 8 bits, pero a veces también van más abajo como una bandeja de 1 D de IRS-1 C, una banda pancromática, llamamos pan PN que se usa para grabar a 6 bits. Mientras que normalmente las imágenes generalmente se registran en 8 bits que significa que los valores de píxel pueden variar entre 0 y 255. Pero si es un valor de 6 bits, los valores de píxel pueden variar entre 0 y 63, el número total 64 y NOAA AVHRR que registra en 11 bits. Por lo tanto, los valores de píxel pueden variar en un rango muy largo. Así que, esto es un por decidido cuando los sensores están diseñados y están grabando. Por lo tanto, el número de bits para determinar la resolución radiométrica es importante aquí. La resolución de la métrica de radio de una imagen más alta este número, mayor número de bits, mayor la resolución radiométrica, porque detalles más finos o ligero cambio en la reflexión o la emitance se puede registrar si estamos grabando en 11 bit en lugar de 8 bit en comparación con 8 bit. Así que si vamos por 6 bits, 6bits las imágenes pueden no registrar un ligero cambio en la reflexión sobre la emitancia. Pero para la misma área, si registramos en 11 bits, definitivamente incluso los cambios de minuto en la reflexión o la emitencia pueden ser registrados en.Así que esto proporciona una mejor resolución radiométrica. Entonces, qué más alto el número de bits, mayor la resolución radiométrica, bajar el número de bits, bajar la resolución espacial. Por lo tanto, el número de bits determina la resolución radiométrica de una imagen. Por ejemplo, un número digital de 8 bits oscila entre 0 y 255 y también se cuenta 0. Es por eso que 2 power 8 -1 total de 256. Así que si me display en blanco y negro o en escamas grises, entonces geo será mi un color extremo que es negro.Y 255 sería mi color blanco y el resto de los valores estarán en entre 0 y 255. Mientras que un número de 11 bits varía de 0 a 2047, el mismo aplicará -1 pero porque 0 se cuenta, por lo que, 0 también es un valor aquí. Por lo tanto, eso significa que 2048 el número total de variaciones puede suceder en una imagen de 11 bits. Mientras que en el caso de la imagen de 8 bits, el número total de variaciones puede ser de 225 256, no 255, 256. Y si es, imagen de 6 bits, entonces el número total de variaciones puede ser de 64 entre 0 a 63, se cuenta 0. Por lo tanto, este valor de intensidad detectado que es el valor de pixel debe ser escalado y quantizar para encajar dentro de ese rango de valor. Por lo tanto, esta cuantificación es lo que es resolución radiométrica y en un sensor, esto es imagen calibrada radiométricamente y el valor de intensidad real se puede derivar del número digital de píxeles y esto es lo que se hace cuando vamos para la detección remota cuantitativa, esto es lo que se hace. Por lo tanto, la dirección de una ubicación de píxel se denota por sus filas y números de columna en una imagen de 2 dimensiones. Pero cuando vamos para la georeferenciación que significa traer coordenadas geográficas y la imagen deentonces también podemos abordar con coordenadas geográficas. Pero mientras la imagen no sea geo reference, pero entonces generalmente nos referimos en términos de filas y columnas una ubicación de un píxel se decide en base a filas y columnas. Y hay una correspondencia entre la dirección de fila de columna de un píxel y las coordenadas geográficas y que es latitud, longitud de una ubicación de imagen y con el fin de ser útil ubicación geográfica exacta de cada píxel en el suelo debe ser derivado de su fila y columna esto es y esto es lo que se hace en la georreferenciación. Por lo tanto, dada la geometría de la imageny los parámetros orbitales satélites. Un tipo de georeferenciación de nivel 1 también se puede hacer usando parámetros orbitales de un sensor de un satélite usando que a es puedo decir que el nivel de la curva de georreferenciación se puede hacer, pero si queremos tener una georeferenciación más precisa o coordenadas geográficas para abordar píxeles individuales, entonces se requiere una georeferenciación muy precisa. Por lo tanto, dependerá de la resolución espacial de una imagen y de nuestros requisitos también, pero las técnicas están disponibles. Eso significa que las técnicas de georeferenciación están disponibles para transferir nuestras imágenes del dominio geométricoal dominio geográfico.
Vídeo 3
  Ahora, cuando vamos para imágenes de varias capas, hasta ahora lo que hemos estado discutiendo es la imagen única y no otras imágenes no coloreadas. Pero en general también utilizamos imágenes coloreadas. Y ya sabes que cuando se crean imágenes de color, necesitamos al menos 3 colores primarios y respectivas bandas o canales de un sensor para crear una imagen de color. Por lo tanto, se pueden hacer varios tipos de mediciones desde el área de tierra cubierta por un solo píxel. Esto significa que varios tipos aquí significan en diferentes longitudes de onda de la misma área y cada tipo de medición forma una imagen que lleva alguna información específica sobre el área. Muy pronto estaremos viendo un ejemplo de verdadero daño real también de color real. Por lo tanto, al apilar estas diferentes bandas o estas imágenes de la misma área juntas tomadas al mismo tiempo, por un sensor, por escáner multiespectral o sensor, se pueden formar imágenes de múltiples capas o colorear imágenes como debo decir, y cada imagen de componente es una capa es una imagen de capas múltiples. Por lo tanto, aquí las imágenes multicapa también se pueden formar combinando imágenes obtenidas de diferentes sensores y otros datos subsidiarios, eso es algo diferente. Eso significa, puedes tener una de la misma zona e imagen por el mismo sensor tienen 2 fechas diferentes o tienes que puedes tener la misma área cubierta por 2 sensores diferentes que a ti puedes combinar. Por lo tanto, debido a que se trata de métricas digitales, las métricas dimensionales de todo tipo de operaciones son posibles. Por ejemplo, una imagen de varias capas puede consistir de 3 capas, una de una imagen multiespectral deportiva, tal vez otra para el radar de apertura sintética ER, que es la imagen del radar aquí es el canal visible y tal vez una capa que consiste de la elevación digital mapa un DM esto no es directamente no podemos ver como una imagen que es una rejilla o un otro tipo de roster. Por lo tanto, eso también es posible. Por lo tanto, la imagen multiespectral consiste de unas pocas capas de imagen, cada capa representa una imagen adquirida en una banda de longitud de onda particular. Por lo tanto, hay 2 cosas ahora, una es multi capas, imágenes multicapa, te he dicho que puede para diferentes capas individuales podemos tener datos individuales o imágenes de diferentes sensores o tal vez de los mismos sensores pero tener datos diferentes, pero cuando vamos por imágenes multiespectrales. Entonces lo que estamos hablando el sensor es lo mismo sensorial, las longitudes de onda son diferentes y luego creamos los compuestos de color. Así, por ejemplo, el sensor SPOT HRV SPOT es un satélite HRV es un sensor que opera en un modo multiespectral que detecta radio en 3 longitudes de onda y que son la banda verde de visible el rojo y el infrarrojo cercano. Los 3 podemos usar y crear un montón de compuesto también. Por lo tanto, una sola escena multiespectral de SPOT consta de 3 imágenes de intensidad en 3 bandas de longitud de onda. Y en este caso, cada píxel de la escena, o una imagen tiene 3 valores de intensidad correspondientes a 3 bandas, y les asignamos diferentes colores. Estos RGB de estos 3 colores, 2 bandas diferentes también. Mientras que una imagen de icono multiespectral consta de 4 bandas azul, verde, rojo e infrarrojo cercano, mientras que una imagen multiespectral Landsat consta de 7 bandas. Pero podemos usar a la vez sólo 3 para crear un compuesto de color. Y los sensores de satélite más recientes son capaces de adquirir imágenes en muchas más bandas de longitud de onda, pero significa que cuando empezamos en 1972, el primer Landsat-1 y tenía el sensor MSL, tiene sólo 4 canales. Ahora más tarde serie oflandsat Landsat-8 OLI serie está teniendo ahora 8 canales. Por lo tanto, las cosas han cambiado allí por ejemplo, los sensores MODIS a bordo del satélite de datos de la NASA consisten en 36 bandas espectrales.Y mientras que NOAA AVHRR también proporciona los canales térmicos proporciona el espacio de la resolución 1 kilómetro está teniendo sólo 5 canales. Por lo tanto, depende de cómo se encuentran los canales, qué estrechos son y por supuesto de sensor a sensor. Y así, estamos hablando de imágenes súper espectrales cuando estamos teniendo opciones de muchos canales en lugar de sólo 4 como en el principio. Por lo tanto, las bandas tienen un ancho de banda más estrecho en los super canales son súper respetuosos.Y luego finalmente las características espectrales del objetivo a ser capturado por el sensor. Así, empezamos con imágenes multicapas, empezamos imágenes multiespectrales, ahora tenemos imágenes súper respetuosas y por supuesto, entonces hiperespectrales. Este es el último de la serie. Imágenes hiperespectrales para incluso para el mismo ancho de banda, podríamos estar teniendo 100 de canales. Como hre se muestra que si plot longitud de onda versus decir valor de intensidad, no el valor de pixel para un área vegetada, mostrado aquí en este esquema, entonces obtendré este tipo de curva. Por lo tanto, los datos de imágenes hiperespectrales generalmente consisten en más de 100 eventos espectrales contiguos, en algún lugar algunos bancos 256 canales en una imagen hiperespectral de alto espectro que forma una dimensión 3 o 2 dimensiones espacialesy 1 cubo de imagen de dimensión espacial muy delgada bandas. En caso de si doy ejemplo de Landsat MSS 0.4 a 0.5 que significa el ancho de banda de un canal es0.1 micrómetro y mientras que en caso de hiperespectral el ancho de un canal puede ser de 0.5 nanómetro. Así, ese tipo de ancho de banda estamos hablando de bandas muy, muy estrechas y de cobertura espectral continua, sin brecha de por medio. Por lo tanto, cada píxel está asociado con el espectro completo de área de imagen, ya que acabo de mostrar que 1 píxel. Y si usted va por el mismo pixel de ubicación en todas las bandas, digamos 256 bandas, entonces usted puede exactamente conseguir la curva y para el estos porque estas imágenes hiperespectrales son muy buenas para crear estas curvas de respuesta de curva espectral para diferentes minerales, rocas y diferentes tipos de objetos diferentes tipos de vegetación, diferentes tipos de agua, las condiciones de los cuerpos y así sucesivamente, porque continuamente se está teniendo 1 banda u otra. Pero en caso de como MSS, Landsat, ETM, OLI series todas ellas tendrán huecos en el medio. Por lo tanto, esa es la mayor ventaja con imágenes hiperespectrales. Y las imágenes hiperespectrales generalmente son de resolución relativamente alta pero no muy alta resolución. Por lo tanto, la resolución espectral más alta de imágenes hiperespectrales permite una mejor identificación de las cubiertas de tierra, pero 1 banda puede tener casi las características similares dede la siguiente banda. Pero si dejas alguna brecha, como aquí, entonces se obtiene de repente una aflicción más alta, también lo son. Imágenes hiperespectrales, lo que están registrando la información espectral precisa que contiene cualquier imagen hiperespectral que nos permita una mejor caracterización e identificación de objetivos e imágenes hiperespectrales tienen potencial en aquellos campos que requerimos muy precisión con las imágenes. Así, que podemos usar para monitorear como en caso de agricultura de precisión, podemos monitorear el tipo de estado de salud y humedad y la madurez de los cultivos. Porque, usted sabe que los cultivos cambian allí cuando están creciendo y luego ellos riping y endiferente estado de la humedad y la reflexión en los cambios de infrarrojos varían de sucesivamente. Por lo tanto, si somos imágenes hiperespectrales de esa área entonces podemos ver que por supuesto los tipos de vegetación, la salud de la vegetación, el estado de humedad y por supuesto la mayoría de los cultivos.Sólo es posible cuando usted está teniendo bandas continuas y estrechas y bandas estrechas estoy hablando de tener espesor de nanómetros en lugar de espesor de micrómetros. Así que es muy importante para muchas aplicaciones también en la exploración de minerales, en la exploración de petróleo, en la evaluación de la calidad del agua, en muchas áreas. las imágenes hiperespectrales son muy, muy útiles. También en la gestión costera cómo, por ejemplo, el seguimiento del fitoplancton, los contaminantes o la contaminación y los cambios de batimetría también, es posible detectar fácilmente con imágenes hiperespectrales. El problema con las imágenes hiperespectrales es demasiado datos para manejar y por lo tanto las personas entonces de 256 canales, que se reducirán a sólo pocos canales, implicando matemáticas o algunas otras técnicas de. Por lo tanto, ese es el gran problema con las imágenes hiperespectrales. En segundo lugar, y eso puede ser que podamos venir en el futuro, pero actualmente el problema es que se registra una franja muy estrecha,tal vez a 5 kilómetros de ancho por sensores aéreos. Y ese tipo de cosas, porque necesitas tener u decir el comercio, si vas por imágenes de muy alta resolución, imágenes de resolución espacial, entonces la franja o la franja que está cubierta de la superficie de la tierra se vuelve muy estrecha. Y cuando usted va para imágenes de resolución relativamente más coarser, usted puede cubrir una gran parte de la tierra. Por ejemplo, si voy por el ejemplo de NOAA AVHRR, entonces tiene una resolución espacial de 1 kilómetro y cubre alrededor de 2800 kilómetros de franjas. Por lo tanto, en una imagen que está cubriendo alrededor de 2800 kilómetros de ancho de la tierra. Mientras que, si tengo una NOAA AVHRR que tiene 1 kilómetro de resolución espacial y voy de 1000 metros resoluciones espaciales a 1 metro como ikono, entonces la franja o la franja de la tierra que está cubierta por el sensor de ikono está a sólo 11 kilómetros de ancho. Por lo tanto, aunque usted ha mejorado en la resolución espacial de 1000 a 1 metro. Pero al mismo tiempo que se ha reducido la cobertura en lugar de 2800 kilómetro, se ha reducido a 11 kilómetros. Por lo tanto, estas imágenes hiperespectrales también están teniendo un compromiso en términos de cobertura o huella o rutas o ancho de swath. Por lo tanto, el ancho de swath generalmente es muy pequeño cuando las imágenes hiperespectrales. Por lo tanto, si su área de estudio es bastante grande, entonces usted necesita tener varias imágenes de la órbita de lay estudiar toda esa área. Pero si es una resolución espacial es un poco más bajo que es generalmente es de alrededor de 5 o 6 metros en caso de hiperespectral es todavía la franja es muy estrecha. Por lo tanto, las imágenes o imágenes hiperespectrales actualmente no están disponibles comercialmente desde los satélites. Esta es la historia actual, la mayor parte de la investigación o trabajo hiperespectral o ejemplos que usted ve es todas las imágenes hiperespectrales aerotransportadas y hay sensores de satélite experimentales adquieren imágenes hiperespectrales, pero van a bordo de diferentes satélites como el sentido de Hyperion a bordo del satélite EO-1 y el sensor CHRIS a bordo del satélite ESA PRABO. Pero es posible que los datos no estén disponiblesfácilmente. Ahora, esto cubre una especie de resumen casi lo que hemos discutido, que este es el ejemplo de la imagen monocromática. Este es el ejemplo de una imagen multiespectral o una imagen de color RGB. RGB representa una imagen de combinación azul verde y azul. Esto es ejemplo de espectroscopia y eso significa espectrómetro basado en tierra usando espectrómetro basado en tierra y usted puede tener la curva de respuesta espectral. Vas por imágenes multiespectrales que es muy común teledetección incluso hoy también te vas por hiperespectral como puedes ver aquí el punto que estaba mencionando antes, que entre una banda y otra aquí, estás viendo algún hueco que significa una banda en un solo sensor, otra banda, tal vez pueda haber algún hueco, pero aquí no se ve ningún hueco, dicen continua cobertura espectral por imágenes hiperespectrales. Ahora, cuando queremos estudiar una cierta parte, digamos aquí el ejemplo está aquí, tal vez el cuerpo del agua, entonces es así como, cuando vamos en diferentes canales en una parte azul, vemos este tipo de reflexión en una parte verde, vemos este tipo de reflexión y en parte roja estamos viendo que este tipo de con esta información viene de diferentes canales para poder tener una curva de eso. Mientras que en el caso de la cobertura espectral no continua como la cobertura multiespectral que usted está viendo aquí. Entonces usted tendrá una respuesta algo así para el azul, entonces hay una brecha para el verde, entonces hay una brecha entre el verde y el rojo, no un continuo como este aquí. Por lo tanto, la hiperespectral definitivamente tiene ventaja de un punto de vista de cobertura del espectro, pero desde el punto de vista de la cobertura del suelo todavía y hay una limitación, pero espero que en el futuro y estas limitaciones no estarán allí y ser tal vez teniendo muy, usted sabe, imágenes muy grandes que cubren una amplia franja de la tierra en una banda de espectro continuo. Por lo tanto, esto lleva al final de esta discusión. Muchas gracias.