Loading

Alison's New App is now available on iOS and Android! Download Now

Study Reminders
Support
Text Version

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Pasando de la última conferencia, nos adentramos en la Escala de Espacio, Imagen, Pirámides y Filtros de Bancos en esta. Si se recuerda, una de las limitaciones del Detector de Corner de Harris que dijimos la última vez fue que no es invariante de escala. Es decir, lo que hubiera sido un rincón en una imagen podría haber sido un borde en otra imagen que se hace zoom. Tratemos de recordar rápidamente esto antes de que avancemos. Una vez más, una aplicación en la que querrías detectar puntos clave o esquinas es cuando tienes dos imágenes diferentes o incluso más número de imágenes. Digamos, si usted quiere unir estas imágenes juntas, esto se llama típicamente mosaicking de imagen o este edificio del panorama. Por lo tanto, digamos que tenemos estas dos imágenes aquí, que corresponden a la misma escena de dos lugares diferentes. Realmente no conocemos el movimiento de la cámara entre estas dos imágenes, pero queremos unir estas dos imágenes. ¿Cómo vamos al respecto? (1:28) Normalmente detectamos puntos clave en cada una de estas imágenes de forma independiente. ¿Cómo hacemos eso? Un ejemplo sería el Detector de Corner de Harris. Estamos en el Detector de Corner de Harris en la imagen uno, ejecutamos el Detector de Corner de Harris en la imagen dos, y luego coincidimos con qué punto clave o conjunto de puntos clave en la imagen uno coincide con el conjunto de puntos clave en la imagen dos. ¿Cómo hacemos la correspondencia? Hablaremos de ello un poco más tarde en este curso, pero nuestro enfoque ahora es encontrar esos puntos clave. (2:04) Y un método que hablamos para encontrar esos puntos clave es el Detector de Corner de Harris. Dijimos que en el Detector de Corner de Harris, construimos algo llamado matriz de autocorrelación y luego tomamos la descomposición de eigen de la matriz de autocorrelación. Y luego dijimos que cuando uno y, que son los dos eigenvalues de su matriz de autocorrelación a, son pequeños, 1 λ2 entonces significa que la región es plana, no hay cambio. Cuando uno de los eigenvalues es mucho mayor que el otro, decimos que es un borde y cuando ambos los eigenvalues son grandes, corresponde que ese parche en particular tiene un montón de cambios en múltiples direcciones y llamamos a tal punto un rincón. Y eso es lo que es nuestra metodología para llegar con el Detector de Corner de Harris. (2:59) Pero algunas observaciones que hicimos hacia el final es que el Detector de Corner de Harris es invariante de rotación. (3:09) Pero el Detector de Corner de Harris no es necesariamente invariable a escala. Lo que significa, lo que es un rincón en una imagen no necesita ser un rincón en otra imagen que se zoomed en donde podría parecer justo como un borde. (3:28) Así que, estamos idealmente buscando un entorno donde podamos analizar ambos artefactos de imagen en diferentes escalas y ser capaces de emparejarlos a la escala correcta y esa es la forma en que haríamos la escala de Harris Corner Detector invariante. (3:45) Antes de ir allí, intentemos preguntar cómo podemos seleccionar independientemente los puntos de interés en cada imagen, de modo que las detecciones sean repetibles a través de diferentes escalas. Por lo tanto, lo que significa, hay dos imágenes a diferentes escalas. Cuando decimos escamas, se hacen zoom de manera diferente, una de ellas se zoomica en mucho, una de ellas es decir zoom hacia fuera. Idealmente queremos ser capaces de detectar un punto clave en ambas imágenes. Recuerde que si usted toma el tamaño del parche para que sea el mismo en ambos casos, en una de esas imágenes en las que se hace zoom, un punto clave puede parecer un borde cuando se hace zoom en un montón. ¿Cómo contrarrestamos esto? Un simple enfoque podría ser que extraemos características en una variedad de escalas mediante el uso de la palabra, múltiples resoluciones en una pirámide y luego coincidimos con las características en el mismo nivel. Esa podría ser una de las cosas más simples que podemos hacer. (4:44) ¿Dónde cree usted que esto realmente funcionará? Si pensabas cuidadosamente, encontrarías que mientras corras características en el mismo nivel, las propiedades del Detector de Corner de Harris solo se compararán a la misma escala, pero para ser invariante a escala, lo ideal es que tengamos que comparar la medida de Harris Cornerness, recordemos la medida de Harris Cornerness. A una escala diferente en una imagen y la medida Harris Cornerness a una escala diferente en la siguiente imagen. Entonces, ¿cómo hacemos eso? (5:24) Por lo tanto, lo que tratamos de hacer ahora es extraer características que son estables tanto en la ubicación como en la escala y vamos a tratar de describir cómo vamos a hacer eso durante los próximos minutos. (5:39) Así que, si usted tiene dos imágenes, vuelva a notar que tenemos dos imágenes ahora, que definitivamente difieren en escala. En una de ellas, este artefacto interior son pinturas y uno de ellos este artefacto de visión es bastante pequeño y luego estamos haciendo zoom en ese artefacto en la imagen correcta. Lo ideal es que ahora queramos encontrar un rincón, que está indicado por la cruz amarilla allí. Queremos encontrar la misma esquina en ambas imágenes independientemente de las diferencias de escala. ¿Cómo seguir adelante y hacer eso? Por lo tanto, queremos encontrar una función f que le dé un máximo tanto en x como en sigma, el sigma se denota como la escala de la imagen en este contexto. (6:28) Y la forma en que vamos a hacer esto es que calculamos su firma de escala, en este caso, podría ser la medida de Harris Cornerness. En ese punto en particular para una escala en particular y digamos que el punto en particular tiene una medida particular de Harris Cornerness, que se representa en un gráfico. (6:50) Entonces cambiamos la escala. En nuestro caso, una forma sencilla de cambiar la escala es simplemente tomar un parche más grande para su ventana de autocorrelación. Por lo tanto, si usted toma un parche más grande para su ventana de autocorrelación y ahora toma su medida de Cornerness de Harris, usted va a obtener un valor ligeramente diferente para la medida de Cornerness de Harris. Por lo tanto, recuerda en el eje x, estamos midiendo la escala, por lo que hemos cambiado la escala, que es el tamaño de su ventana de autocorrelación y ahora tenemos una medida de Cornerness diferente. (7:23) Y usted hace esto para diferentes escalas. Por lo tanto, lo que significa que vuelve a tomar un tamaño de parche diferente, calcule la medida de Cornerness para ese tamaño de parche. Recuerde de nuevo, que a partir de una definición de nuestra medida de Cornerness de Harris, la matriz de autocorrelación cambiaría si el tamaño de su parche cambia. Recuerda de nuevo, que hicimos una suma con todos los píxeles y que cambiará ahora cuando cambie el tamaño de tu parche. (7:50) Así que, hacemos esto para más escalas, más escalas, y ves que obtendrás tal gráfico cuando hagas esto para múltiples escalas. Por lo tanto, la conclusión de este gráfico es que parece que estamos recibiendo la máxima medida de Cornerness o la máxima respuesta de Cornerness a una escala particular, que va a ser importante para nosotros. En esa escala particular es cuando la medida de Cornerness es la más alta para ese punto clave en particular en esa imagen dada. Entonces, ¿cómo podemos sacar esto adelante? (8:27) Ahora tomamos otra imagen. Así que, en este caso, como he dicho, ese es el máximo, eso es lo que estamos mostrando en esta diapositiva en particular. (8:34) Ahora, tomamos otra imagen, que es la que está a la derecha que se encuentra en la versión y tal vez hay una ligera rotación de la primera imagen. Y ahora de nuevo a la primera escala, calcular la medida de Cornerness. A la segunda escala, compute la medida de Cornerness y repetimos este proceso para todas las diferentes escalas que considerábamos para la primera imagen. (9:02) Y mientras seguimos haciendo esto, vamos a obtener otro gráfico para la segunda imagen donde el pico ahora está en una escala diferente. (9:15) El pico ahora está en una escala diferente que es denotada por ese valor en particular. Lo que significa ahora que hemos hecho algunos progresos. Hemos podido encontrar lo que sería la medida de Cornerness, la medida máxima de Cornerness para un punto en particular, tanto en ubicación como en escala. Por lo tanto, la ubicación sería la coordenada de ese centro de ese parche y escala sería la escala en la que obtuvimos la medida de máxima cornerness. Una pregunta que nos preguntamos ahora es, ¿hay una mejor manera de implementar esto? (9:51) La respuesta a esto es usar lo que se conoce como pirámides de imágenes. En lugar de cambiar el tamaño de su parche en cada una de sus imágenes, usted arregla su tamaño de parche a través de cualquier imagen que pueda encontrar, pero cambie su tamaño de imagen haciendo una pirámide de Gauss, recuerde nuestra discusión de las pirámides de Gauss cuando hablamos de interpolación y frecuencias. Recuerde que una pirámide de Gauss se construye tomando una imagen, Gaussiano suavizando la imagen, luego sub-muestreando la imagen y repitiendo este proceso una y otra vez. Por lo tanto, ahora hacemos lo mismo y mantenemos el tamaño del parche igual y construimos una pirámide gaussiana. Tenga en cuenta, que cuando usted construye su pirámide de Gaussiano, no siempre necesita ser reducido a la mitad cada vez, usted también puede reducir sus tamaños por ejemplo tres cuartas o por cualquier otra facción mediante el uso de métodos de interpolación. (10:54) Cuando consideramos una pirámide de imágenes, hay varios tipos de pirámides que se pueden construir y utilizar en la práctica. Por lo tanto, la pirámide gaussiana es lo que hemos visto antes, que es lo que muestra la parte superior de este diagrama, que consiste en tomar la imagen original, llamémosla G1. A continuación, alisamos la imagen y luego abajo la muestra y luego obtener un G2. A continuación, de nuevo suave G2, abajo de la muestra, obtener un G3 y seguir repitiendo este proceso. También hay otra forma de conseguir otro tipo de pirámide llamada pirámide de Laplacian, la cual es obtenida por, usted toma G1, que es su imagen original. Una vez que obtenga su G2, que es su imagen de muestra suavizada y baja otra vez arriba muestra G2 y otra vez suaviza. Ahora, cuando computas G1 menos G2, eso te da una cantidad llamada L1. La razón por la que llamamos a L1 una pirámide de Laplacian es porque Laplacian puede ser escrito como una diferencia de dos Gaussianos. ¿Por qué? Intentemos verlo un poco ilustrativamente en este momento. Así que, recordemos el filtro de Laplacian que discutimos en la última conferencia. Un filtro de Laplacian podría ser dibujado como algo así. Esta era una forma de dibujarlo. Recuerda, también podríamos haberlo dibujado a la otra manera, donde la tienes como algo así. Por lo tanto, ambas son pirámides de Laplacian dependiendo de si su valor central es negativo o positivo. Si ve puramente desde una perspectiva de gráfico, se trata de un Lapla 1Dcian. Si sólo se ve desde una perspectiva de gráfico. Tal Laplacian se puede escribir como la diferencia de un gaussiano, que es decir ancho, llamémosle que Laplacian algún cursivo g1 y decir otro gaussiano, que es estrecho, llamémoslo Gaussian G2. Cuando usted resta G2 de G1, en realidad obtendrá una forma, que es similar a la Laplacian. Claramente usted tendrá que elegir la varianza para G1 y G2 apropiadamente para obtener el tipo de Laplacian que usted está buscando. Y porque en este ejemplo particular, G1 menos la versión de muestra suavizada de G2 resulta ser una diferencia de Gaussianos, efectivamente se hizo para ser algún tipo de un Laplacian que es por lo que lo llamamos una pirámide de Laplacian. Y usted repite el Laplacian para cada representación de la resolución más baja sucesiva en su pirámide de Gaussiano y obtener múltiples L2s y L3s así sucesivamente y así sucesivamente, para obtener también una pirámide de Laplacian. Para diferentes aplicaciones, es posible que desee utilizar una pirámide de Gauss o una pirámide de Laplacian. (14:02) Pero, ¿dónde se utilizan las pirámides de imágenes en la práctica, en múltiples aplicaciones? Puede utilizarlo para la compresión porque es posible que sólo desee transmitir una versión de baja resolución de la imagen original y enviar alguna otra información a través de otros medios y poder reconstruir una resolución alta de la imagen de baja resolución. (14:21) Podría utilizar una pirámide de imágenes para la detección de objetos. ¿Cómo y por qué? Puede utilizarlo realizando una búsqueda a escala y, a continuación, realizando algunas características. Lo que queremos decir aquí es, se podría buscar un objeto en primer lugar en una parte baja de la resolución de la pirámide y una vez que se encuentra la región de la imagen, donde se obtiene el objeto, entonces se entra en la siguiente alta resolución, buscar en esa región un poco más cuidadosamente, encontrar dónde está el objeto y luego, se puede repetir esto en altas resoluciones. (14:55) También puede utilizar una pirámide de imágenes para puntos de interés estables, que es lo que hemos estado discutiendo hasta ahora. (15:02) Otra aplicación de las pirámides de imágenes podría ser el registro. En el registro, es el proceso de alinear puntos clave de dos imágenes diferentes. ¿Cómo utilizar las pirámides de imágenes en el registro? Usted puede hacer lo que se conoce como el registro de imagen gruesa para multar, donde usted comienza por construir una pirámide para cada imagen que usted tiene. Por lo tanto, tienes un nivel grueso, un nivel medio y un nivel fino. Y primero calcule esta pirámide de Gaussiano y luego alinee las características en el nivel de la pirámide gruesa, justo en este nivel para empezar. Una vez que lo haga, continuará alineándose sucesivamente con las pirámides finales sólo buscando rangos más pequeños para esa coincidencia final. (15:59) Pasando desde la pirámide de la imagen, iremos al tercer tema que estamos cubriendo en esta conferencia, que es la noción de las texturas, que está estrechamente conectada y construida sobre los otros conceptos que estamos cubriendo. ¿Qué son las texturas para empezar? Las texturas son patrones regulares o estocásticos que son causados por golpes, ranuras y/o marcas, la forma en que literalmente los llamamos texturas. (16:32) Así, estas texturas nos dan alguna información sobre la disposición espacial de colores o intensidades en una imagen. En el lado derecho, verás que las texturas te pueden dar una idea de materiales, las texturas te pueden dar una idea de la orientación. Las texturas también pueden darle una idea de la escala con la que se está tratando. Por lo tanto, las texturas contienen información significativa para poder tomar decisiones de mayor nivel o predicciones a partir de imágenes. (17:02) También es importante tener en cuenta que incluso si tuvieras una sola imagen. Digamos que ha obtenido una estadística de alto nivel, como el histograma de una imagen que contiene un 50 por ciento de píxeles blancos y un 50 por ciento de píxeles negros. En este escenario, podríamos tener imágenes de múltiples tipos, tres muestras de lo que ves en la diapositiva. Podrías tener la imagen para ser algo así. Podrías tener la imagen para ser algo así, o podrías tener la imagen para ser algo así. En todos estos tres casos, el histograma contiene 50 por ciento blanco y 50 por ciento negro, pero las texturas son muy diferentes. Por lo tanto, no sólo es importante obtener estadísticas globales, también es importante obtener información de textura local para poder entender lo que hay en las imágenes. (17:59) Entonces, ¿cómo representamos realmente las texturas? Déjenme que les deje pensar por un momento. Hasta ahora, hemos visto bordes, hemos visto rincones, hemos visto rincones a diferentes escalas. ¿Cómo representamos las texturas? La respuesta es que juntes lo que hayas visto hasta ahora. ¿Y cómo los ponemos juntos? (18:26) Nosotros calculamos respuestas de tetas y bordes en diferentes orientaciones y escalas y esa es una forma de obtener texturas. Por lo tanto, la forma en que procesamos una imagen es que registramos estadísticas simples, como la media y la desviación estándar de las respuestas de filtro absoluto de una imagen. Y entonces podríamos tomar los vectores de las respuestas filtradas en cada píxel y agrupacialos para poder representar tus texturas. Hay múltiples maneras de hacer esto, pero ese podría ser el proceso general de capturar las texturas y las imágenes. Veremos un par de ejemplos de cómo se puede capturar la textura en una imagen. (19:11) Una manera sencilla de hacerlo es por lo que se conoce como bancos de filtros. Los bancos de filtros son como dice la palabra, un banco de filtros. No vamos a utilizar solo un filtro de Sobel o un Detector de Corner de Harris o Laplacian para computar blobs, vamos a utilizar un conjunto de filtros diferentes, un banco de diferentes filtros. ¿Y qué hacen cada uno de estos filtros? Cada uno de estos filtros puede ser visto como lo que se conoce como filtros de paso de banda. Esto se remonta a nuestra discusión sobre la extracción de componentes de baja frecuencia y componentes de alta frecuencia en imágenes. Los filtros de paso de banda son filtros que permiten pasar una cierta banda de frecuencias y obtener como salida cuando se convolve un filtro con la imagen. Por lo tanto, recuerde que hemos visto ejemplos de filtros que extraen componentes de alta frecuencia, detección de bordes. También podemos ser opuestos para obtener componentes de baja frecuencia haciendo alisado gaussiano. En este punto, con filtros de paso de banda, estamos diciendo que queremos que solo pase un cierto conjunto de frecuencias, y vamos a utilizar un banco de tales filtros para poder separar la señal de entrada en múltiples componentes, cada uno llevando una cierta sub-banda de su imagen de señal original, y que se puede utilizar para representar la textura en su imagen. (20:40) Aquí hay una ilustración visual. Por lo tanto, se procesa una imagen con filtros diferentes. Así que, ves aquí ocho filtros diferentes con los que puedes llegar. Esta es su imagen de entrada. Por lo tanto, convolve cada filtro en la imagen con la imagen y estas son las respuestas que obtienes cuando convuelvas cada uno de esos filtros con la imagen de entrada. Como puedes ver, cada una de estas salidas captura diferentes aspectos de la textura o el contenido en esa mariposa, y todos juntos te dan una sensación de cuál es la textura en la imagen. (21:23) Hablaremos de un ejemplo más concreto, que se conoce como filtros Gabor. Los filtros de Gabor son un conjunto muy popular de filtros de paso de banda. En un cierto nivel, se sabe que imitan o imitan cómo funciona el sistema visual humano. Pero permiten una cierta banda de frecuencias y rechazan a los demás. (21:46) La forma en que los filtros de Gabor funcionan es intuitivamente, pueden ser vistos como una combinación de un filtro de Gauss y un filtro sinusoidal. Así, aquí está un ejemplo de un filtro sinusoidal para cierta orientación. Aquí hay un ejemplo de un filtro gaussiano. Si convolváis un filtro gaussiano y un filtro sinusoidal, obtendríamos algo así. Imagina superponer tu sinusoide en tu Gaussiano, conseguiría algo así. (22:20) Matemáticamente hablando, un filtro de Gabor 2D se puede escribir como usted tiene una x, y, usted tiene un λ, θ, s, σ y γ, vamos a hablar de cada uno de ellos en un momento. Y se da por g (x, y, λ, θ, ", σ, γ) = e-() 2 σ2 x + γ " 2 2 " 2 i (2π +) λ x ' Vamos a hablar de cada una de esas cantidades, no vamos a derivar esto en este curso en particular, que puede estar fuera del alcance. Pero en esta fórmula en particular, x ' = xcos (θ) + ysin (θ), hablaremos de lo que es theta. Θ es la orientación de lo normal a las rayas paralelas del Gabor. Vimos que el sinusoide podría estar orientado en una dirección particular y que es dado por theta. Así, x '= xcos (θ) + ysin (θ), y' = − xsin (θ) + ycos (θ) (23:24) λ es la longitud de onda de su componente sinusoidal. Recuerde que su sinusoide tiene una longitud de onda y una frecuencia. Por lo tanto, su longitud de onda λ, es el desplazamiento de la fase de su función sinusoidal. Una vez más, recordemos antes nuestra discusión sobre las frecuencias del Mitch. σ es la desviación estándar de su envoltura gaussiana. Y γ es una relación de aspecto espacial y especifica la electricidad del soporte de su función Gabor. Por lo tanto, si quieres alardearlo, todos ellos pueden ser controlados en este contexto en particular. En lugar de tener un Gaussiano circular, puede utilizar el parámetro gamma para poder controlar la naturaleza elíptica de su función de respuesta de Gabor. (24:15) Por lo tanto, se trata de un filtro de Gabor 2D. Como puedes ver, te da una idea de ciertas texturas. Por lo tanto, aquí hay un banco de filtros de filtros Gabor. Por lo tanto, esto tiene 16 filtros Gabor en una orientación de 11.25, lo que significa que, si su primer filtro tiene una orientación de 0, su próximo filtro será de 11.25, el siguiente filtro será 22,5, así sucesivamente. Y puedes ver el filtro de Gabor que se está rotando y ahora tienes todo un banco de filtros Gabor. (24:48) Ahora puede tomar una imagen y convolve cada uno de estos filtros con la imagen y obtendrá 16 respuestas diferentes de la imagen a estos 16 filtros diferentes. Como puedes ver aquí, cada una de estas respuestas captura un cierto aspecto de tu imagen original. En caso de un círculo, simplemente parecen resaltar una perspectiva diferente al círculo, pero cuando se tienen texturas más complejas, cada una de estas respuestas captura una cierta dimensión de esa textura. (25:24) Y poner estos juntos nos da una respuesta global de la imagen a diferentes conjuntos de orientaciones y frecuencias. También ha habido otro popular conjunto de bancos de filtros llamados Steerable Filter Banks. Los filtros dirigibles son una clase de filtros orientados que se pueden expresar como una combinación lineal de un conjunto de filtros de base. Por ejemplo, si tiene un filtro Gaussiano isotrópico, e, puede definir un valor de Stearable − (x + y) 2 2 filtro como tienes G cos (θ) G sin (θ), donde es el primer derivado de 1 θ 0 = G1 θ 0 + 1 θ 90 G1 θ 0 G en un determinado ángulo θ. Por ejemplo, si tiene una imagen original, ahora puede considerar G1 a lo largo del eje y para que sea el derivado en un ángulo determinado. Usted puede considerar G1 de 15 grados para ser el derivado en un ángulo diferente y así sucesivamente y así sucesivamente. Por lo tanto, ahora puede construir combinaciones de estas dos, de estas diferentes imágenes para construir una respuesta global que usted tiene. Por lo tanto, cada uno de ellos es un filtro Steerable donde se puede controlar el ángulo en el que se está obteniendo su respuesta. Así, esto es otro, los bancos de filtros de Gabor fueron un ejemplo que podría usarse para extraer texturas de las imágenes, los bancos de filtros Steerables son otro ejemplo que podría usarse para extraer texturas de las imágenes. (27:07) He aquí un ejemplo, otra ilustración de los bancos de filtros Steerables, donde se puede tomar un filtro de paso de banda, B0. Como se puede ver este filtro de paso de banda permite un cierto conjunto de frecuencias para pasar a través. Otro filtro de paso de banda B1, B2, etc. Usted puede tener un filtro de paso bajo, así sucesivamente y así sucesivamente. Ahora, puede combinar las respuestas de una imagen a todo este tipo de filtros y almacenar algunas estadísticas en cada píxel. Así que recuerda, vas a obtener un valor en cada píxel, puedes almacenar la media y la desviación estándar, puedes agrupar, puedes hacer varias cosas con esos valores que obtienes en cada píxel a través de los bancos de filtros, las respuestas a los bancos de filtros y poder obtener una representación para tu textura. (27:53) Eso concluye esta conferencia. Por favor, siga leyendo el Capítulo 2 en el libro de Szeliski. Algunas preguntas interesantes para que te quites ahora, que quizás no respondiste realmente, pero es algo para que lo penséis es; De las discusiones que hemos tenido en esta conferencia, ¿por qué es eficaz un atuendo de camuflaje? Piensa en ello. Obviamente, se conecta a nuestra conferencia, así que piensa cuidadosamente en lo que discutimos y cómo puedes extenderlo para entender cómo funciona un atuendo de camuflaje. Otra pregunta para preguntar aquí es, ¿cómo es diferente la textura de un ruido de sal y pimienta? Un ruido de sal y pimienta también podría parecer una textura. Entonces, ¿cómo es diferente una textura de un ruido de sal y pimienta? Algo para que usted piense y lea para entender. Y una última pregunta es, la escala de filtros invariantes ser eficaz en la comparación de imágenes, que contienen las muñecas de Matryoshka o creo que también tenemos la equivalencia en la India. Las muñecas de nidificación, pueden escalar los filtros invariantes ser capaz de igualar las fotos a través de estas muñecas? Piense en estas preguntas como su ejercicio para esta conferencia.