Loading

Module 1: Capa de transporte

Apuntes
Study Reminders
Support
Text Version

Capa de transporte: Fiabilidad

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Capa de transporte: fiabilidad
Bienvenido de nuevo al curso de Redes de informática y Protocolo Internet. Por lo tanto, en las últimas clasesha buscado varios servicios en la capa de transporte de la pila de protocolos, yhemos examinado en detalles el establecimiento de conexión y el procedimiento de terminación de conexión. Por lo tanto, hoy nos fijamos en los segundos servicios que son el control de flujo y la fiabilidad deen la capa de transporte.(Consulte el tiempo de la diapositiva: 00:40)Por lo tanto, el control de flujo y la fiabilidad aseguran que siempre que se ha establecido una cierta conexión de extremo a extremo deentre el dos host remoto, por lo que en la parte superior de esa conexión, ahoranecesita enviar una secuencia de datos.Por lo tanto, en la capa de transporte en tipo TCP de protocolo lo envía en forma de secuencia debytes. Por otro lado en cierta versión de los protocolos de transporte, los datos se transmitenen forma de secuencia de paquetes o secuencia de segmentos. Por lo tanto, en este extremo para finalizar la conexiónque se está estableciendo en los dos extremos de los dispositivos, los dos dispositivos finales,aquí nuestro objetivo es el primer objetivo es que el remitente no debe enviar más datoscompare con lo que el receptor puede recibir.Por lo tanto, esta metodología en particular o esta filosofía en particular, la llamamos como un algoritmo de control de flujo. Por lo tanto, el algoritmo de control de flujo asegura que el remitente siempre está al tanto dequé puede recibir un receptor o cuántos datos puede recibir el receptor. Y, en consecuencia,el remitente ajustó su tasa de transmisión, de tal manera que no exagera la tasa enque el receptor puede recibir. Al mismo tiempo, como hemos comentado anteriormente, la capa inferior dede la pila de protocolos es una especie de poco fiable.Por lo tanto, siempre que la capa de red reenvía paquetes o reenvía datos a un host remoto, la capa de red deno garantiza que haya una clase de garantía o garantía de que los datosse entregarán en el otro extremo. Por lo tanto, es mejor intentar entregar sus datos en función desu dirección de destino y averiguar el lúpulo intermedio a través del cual es necesario entregar el paquete. Pero, por otro lado, esta capa de red no molesta enque la cantidad de datos que deben ser empujados a la red o a la cantidad de datos que necesitan ser transferidos.Y como resultado lo que sucede en una red de conmutación de paquetes que describí en la última clase, que los búferes intermedios, en los dispositivos de red intermedios que en los routers de, pueden llenarse y usted puede experimentar un buffer sobre el flujo de esos routers intermedios de. Y debido a que cada vez que entrega datos a través de esta capa de red deutilizando el método de entrega de IP, siempre existe la posibilidad de que unnúmero considerable de marcos de datos o segmentos de datos, que se han eliminado delde la capa de red.Ahora, la tarea de la capa de transporte es considerar que para averiguar o para detectar siciertos datos se han transferido correctamente en el otro extremo o no y si no estransferido en el otro extremo correctamente, entonces aplique este mecanismo de confiabilidad para asegurar quecada mensaje que es enviado por la aplicación Por lo tanto, la idea amplia es que usted siente el canal, usted siente que los medios de comunicación para saber silos datos se transmiten correctamente o no, si los datos no se transmitencorrectamente, eso significa, el otro extremo no es capaz de recibir los datos. Si puede encontrar, vuelva a transmitir los datos para asegurarse de que el resto del receptor finallos datos.Ahora, en una capa de transporte típica, este control de flujo y fiabilidad se implementanjuntos. Por lo tanto, miramos en el mecanismo diferente a través del cual implementamos el control de flujoy los algoritmos de confiabilidad sobre la capa de transporte de una pila de protocolo TCP/IP.Así que, vamos a proceder con el mecanismo detallado de ese.(Consulte el tiempo de la diapositiva: 04:25)Por lo tanto, esta es la idea amplia de garantizar la fiabilidad. Por lo tanto, como he mencionado, la capa de red dele proporciona un canal no fiable. Por lo tanto, la capa de red nogarantiza que el paquete que está intentando entregar en el otro extremo será eventualmentetransmitido. Por lo tanto, siempre hay una posibilidad de desbordamiento de búfer de los routersintermedios debido a lo cual hay una posibilidad de pérdida de datos.Ahora, estamos teniendo alguna función hipotética o método hipotético que esa través de la cual estamos haciendo una interacción entre diferentes capas para quecomprenda todo el procedimiento. Ahora, si sólo piensa en la perspectivade la aplicación, la aplicación siempre desea o la aplicación siempre intenta tener una metodologíaa través de la cual podrá garantizar la fiabilidad.Por lo tanto, esto significa que la aplicación siempre desea que si un remitente es o un proceso de envío esenviando cierto mensaje o ciertos datos, los datos serán recibidos finalmente por el receptor. Por lo tanto, el receptor recibirá todos los mensajes. Por lo tanto, sólo puede pensar en una aplicacióncomo una transferencia de archivos. Por lo tanto, todo el archivo grande se divide en varios bloques yentonces el proceso emisor envía los bits de datos para ese archivo.Ahora, en el extremo del receptor es necesario asegurarse de que todos los datos que envía el remitenteque se recibe eventualmente de lo contrario no podrán reconstruir todo el archivo.Por lo tanto, por eso desde la perspectiva de la aplicación, la fiabilidad es más importante paramuchos de la aplicación. Pero como he mencionado anteriormente, existen un grupo de aplicaciones deen el que la fiabilidad no es tan importante; en lugar de entregarlos datos o entregar los mensajes más importantes dentro de un tiempo o una duración predefinidos.Y en ese caso utilizamos el tipo UDP de protocolos en los que la fiabilidad no es una preocupación o no se utiliza la fiabilidad de. Pero para la aplicación, para el conjunto de aplicaciones cuando la fiabilidades una preocupación, durante ese tiempo la aplicación siempre espera que los datos o el mensajeque se transfiere desde la aplicación, se reciban finalmente en el lado del receptor.Ahora, la aplicación aquí espera un canal fiable. Por lo tanto, la pregunta es que su capa de redno es fiable. Por lo tanto, en estos canales no fiables, cómo puede expresar ocómo puede escribir una metodología para garantizar la fiabilidad. Por lo tanto, la idea es que en la capa de transporte de, tenga este protocolo de transferencia de datos fiable en el lado del remitente y el receptor de.Por lo tanto, este proceso de envío de envío en la capa de red no es fiable enviar “ udt_send () ”,que expresan una forma no fiable de enviar los datos. Además de que está implementandoeste mecanismo de fiabilidad que garantiza que los datos fiables se envíen en la parte superior de la capa de transporte de.Por lo tanto, siempre que esté haciendo una interacción entre la capa de red en la capa de transporte, allí tiene este envío de datos no fiable y en la interfaz de la capa de transporte yla capa de aplicación, tiene la interfaz de envío de datos fiables.Ahora, en el otro extremo recibe los datos de forma fiable debido a este mecanismo de envío de datos fiableque está ahí y este protocolo de transferencia de datos fiable en el lado del receptor, eventualmente recibirá el mensaje y entregará los datos a la aplicaciónde la capa.Así que, de esa manera la capa de aplicación siempre esperará una entrega fiable de los mensajes.Y aquí veremos que en la capa de transporte, cómo puede implementar este mecanismo de dosen el lado del remitente, y en el lado del receptor que le ayudará a asegurar la fiabilidad deen el sistema.Así que, vamos a ver este proceso en detalles. Por lo tanto, como he comentado anteriormente durante el debate dede una capa diferente de la pila de protocolos TCP/IP, determinados servicios se implementanen varias capas de la pila de protocolos. Por lo tanto, este control de flujo y el control de errorson los dos mecanismos que se implementan tanto en la capa de transportecomo en la capa de enlace de datos. Por lo tanto, la pregunta es que, ¿por qué tenemos que implementar el control de flujoen la capa de transporte, así como la capa de enlace de datos.Así que, si usted sólo hace la pregunta de esta manera que nos deja suponer que tengo mi algoritmo de control de flujoen la capa de enlace de datos que se está implementando, ¿necesito tenerel algoritmo de control de flujo en la capa de transporte en sí?(Consulte el tiempo de la diapositiva: 09:05)Así que, veamos en un ejemplo donde usted tiene este algoritmo de control de flujo en la capa de enlace de datos. Por lo tanto, la capa de enlace de datos asegura este algoritmo de control de flujo de salto por salto. Por lo tanto, comoya hemos aprendido que el protocolo de capa de enlace de datos, garantiza el salto por medio de los principios de salto, el salto por transmisión de datos de salto donde como capa de transporte, asegura el final completo depara finalizar la entrega de los datos. Ahora cuando estamos diciendo que el algoritmo de control de flujose implementa en la capa de enlace de datos, es como que este salto por flujo de saltose implementa.Así que, si piensas en esto como los direccionadores intermedios R1, R2 y R3 y este es el origen dey este es el destino final. Por lo tanto, este algoritmo de control de flujo en la capa de enlace de datos, asegura que tiene un mecanismo de control de flujo entre S y R R1 entre R1y R2 entre R2 y R3 y entre R3 y el D.Ahora, este salto por algoritmos de control de flujo de saltos está allí. Ahora la pregunta viene sitengo este algoritmo de control de flujo hop by hop, ¿todavía necesito tener un algoritmode control de flujo en la capa de transporte? Ahora solo piensa en un escenario que bien este enlace de S aR1, es de 10 mbps; el enlace de R1 a R2, es de 5 mbps; los enlaces de R2 a R3, son 3 mbps dey el enlace de R3 a este D esto es 1 mbps.Ahora, lo que sucede aquí que cada vez que se está implementando este salto por control de flujo de saltoen la capa de enlace de datos, entonces de S a R1, el S se entera de que bien puedo enviar los datos dea una tasa de 10 mbps. Por lo tanto, envía los datos a una tasa de 10 mbps. Pero entonces R1 descubreque no será capaz de enviar los datos a R2 a una velocidad de 10 mbps, aunque está recibiendolos datos a una tasa de 10 mbps, pero requiere de 5 mbps de transmisión. Del mismo modo R2 encuentraque no será capaz de enviar datos a una velocidad de 5 mbps; más bien necesita enviar los datosa 3 mbps y finalmente, de R3 a D sólo puede enviar los datos a una velocidad de 1 mbps.Ahora, si S no sabe que todo esto, así que si se mira en la tasa efectiva de estetodo el final a fin de camino. Por lo tanto, esta tasa efectiva de toda esta vía de acceso final será igual a1 mbps. Ahora, si S no obtiene esta información, S intentará empujar los datos a una velocidad de 10 mbpslo que sucederá que R1 no será capaz de entregar los datos a R2 y así sucesivamente.Así que, de esa manera, los datos adicionales que vienen a R1; así, R1 está recibiendo los datos a una tasade 10 mbps, pero sólo es capaz de entregar los datos a una velocidad de 5 mbps. Por lo tanto, que como resultado deestos datos adicionales que está recibiendo, se conseguirá llenando el espacio de almacenamiento intermedioque está disponible en R1 y eventualmente lo que sucederá, que eventualmente vamos aexperimentar la pérdida de datos del almacenamiento intermedio debido al almacenamiento intermedio sobre el flujo.Por lo tanto, habrá una gran cantidad de pérdida de datos porque la fuente está transmitiendo datos a una tasade 10 mbps, pero el receptor el otro extremo, el receptor sólo es capaz de recibir datos a una tasade 1 mbps. Y como resultado, este 9 mbps de datos que se acumularán sobre las diferentes capasde almacenamientos intermedios en diferentes direccionadores intermedios; y después de algún tiempo experimentará una caída de datos dede esos almacenamientos intermedios intermedios, y esta es la razón por la que no somos capaces de implementar. Si implementamos este algoritmo de control de flujo sólo en la capa de enlace de datos parahop por control de flujo de saltos, no es suficiente. Tenemos que implementarlo en la capa de transporte.Ahora, vamos a mirar hacia el otro lado-como si usted tiene este algoritmo de control de flujo finaly en ese caso, aún así todavía requerimos que este algoritmo de control de flujo en la capa de enlace de datoso no. Ahora en la capa de transporte, ¿qué sucede que sólo garantiza el finalpara finalizar la entrega de datos o finalizar el algoritmo de control de flujo final?(Consulte la hora de la diapositiva: 13:03)Por lo tanto, tiene un direccionador con el que la fuente se está conectando. Luego tiene esta red intermedia de, luego otro router y luego su destino que está ahí. Ysólo garantiza el control de flujo entre estos dos host finales y sólo piensa en el ejemplo anterior dede que está enviando datos a una velocidad de 1 mbps.Ahora, sólo piensa en dos direccionadores intermedios aquí en la red. Ahora este direccionador tienevarios puertos de entrada. Por lo tanto, es como una red de carreteras que usted está recibiendo datos demúltiples partes todos juntos. Por lo tanto, está obteniendo datos de este enlace, está obteniendo datosde este enlace, está obteniendo datos de este enlace y así sucesivamente.Por lo tanto, de esa manera puede suceder que el enlace esté empujando los datos a una velocidad de 1 mbps, pero estos enlaces individuales depueden empujar los datos a una velocidad de 2 mbps y decir que este enlace está empujando los datos a una velocidadde 5 mbps. Pero este fuera de enlace solo tiene una velocidad de decir 3 mbps. En ese casoporque este enlace de entrada múltiple se está volviendo a converger en un direccionador intermedio, puede quesuceda que la velocidad de entrada total que está habiendo en varios otros enlaces deentrantes que está saliendo de la capacidad total de salida que tiene el direccionador. Y debido a queeste algoritmo de control de flujo final finaliza, es posible que se realice de forma deficiente en este tipo de escenario. Por lo tanto,es por eso que para hacer que el control tenga un control, se necesita el mecanismo de control de flujo de salto por saltoen la red. Pero aquí verá la aplicación de este algoritmo de control de salto de saltoen la red. Entonces, ¿cuál sería su tarea? Su tarea seríareducir la tasa de entrada en cada salto individual de modo que los direccionadores intermedios seanexperiencia menos congestión, menos cantidad de congestión.Por lo tanto, al hacer que esté mejorando de forma efectiva el rendimiento del sistema, perorecuerde que incluso después de implementar el salto por control de flujo de saltos, es posible que no sea posiblepara garantizar una completa fiabilidad que una eliminación completa de la pérdida de datos. Debido a que está recibiendo datos de varios saltos y cada uno de ellos, donde hay una especiede estimación que va en que lo que debe ser la tasa ideal a la que se asegura el envío de los datos deen el otro extremo, y esta es la estimación tarda algún tiempo. Por lo tanto, antes de que los sistemasse mueva a la convergencia siempre existe la posibilidad de tener una cantidad significativa de pérdida de datos de.Por lo tanto, no podrá eliminar completamente la pérdida de datos aplicando este salto mediante el mecanismo de control de flujo de saltos de, pero sin duda puede mejorar el rendimiento. Y eso esla razón por la que decimos que el mecanismo de control de flujo, el control de errores que vamos a discutir más adelante.
Capa de transporte: Fiabilidad-Parte 2
El control de flujo y este mecanismo de control de errores en la capa de transporte; sonesenciales mientras que el control de flujo y el mecanismo de control de errores y la capa de enlace de datosmejoran el rendimiento de su protocolo.Ahora, vamos a ver en diferentes tipos de algoritmos de control de flujo y antes de ir a eso,por qué necesitamos este tipo diferente de protocolos finales en la red. Por lo tanto, para esoles sugiero a todos que lean este documento en particular que fue publicadoSaltzer Reed y Clark. Por lo tanto, es un documento fundamental en las redes informáticas quehabla de eso, ¿por qué se requiere este tipo de fin de los protocolos finales en Internetcuando hay este salto por protocolos de salto ya existentes. Por lo tanto, le sugiero a todos que leaeste documento en particular para obtener más detalles sobre los principios que se han adoptado en la pila de protocolos TCP/IP depara implementar este tipo de protocolos finales a fin de Internet.(Consulte el tiempo de la diapositiva: 17:02)Ahora, veamos este algoritmo de control de flujo. Por lo tanto, el algoritmo de control de flujo más simpleque tenemos, lo llamamos como un algoritmo de control de flujo de parada y espera. Por lo tanto, el algoritmo de detención y espera de control de flujo deen un canal libre de error funciona de la siguiente manera. El protocolo es bastante simple: se envía un marco o se envía un paquete y, a continuación, se espera el acuse de recibo de.Por lo tanto, una vez que el receptor recibe este marco, devuelve un acuse de recibo y el remitente deespera el acuse de recibo antes de enviar el siguiente marco o el siguiente paquete de. Por lo tanto, una vez que reciba este acuse de recibo, sólo enviará el siguiente marco de. Por lo tanto, de esa manera cada marco tiene un reconocimiento asociado y sólocuando recibe el acuse de recibo que transmite el siguiente marco.Ahora, si es un canal libre de errores, siempre se garantiza que eventualmente el receptorrecibirá el marco y será capaz de devolverle el acuse de recibo y el remitente deeventualmente recibirá el acuse de recibo, porque es un canal libre de errory no hay pérdida. Por lo tanto, una vez que reciba el acuse de recibo, está seguro de queel receptor ha recibido este marco en particular y por lo tanto, puede transmitir el siguiente marco.Por lo tanto, esa es la idea amplia de este protocolo de detención y espera. Por lo tanto, se detiene después de enviar la transmisión de, iniciar el envío del siguiente marco, después de enviar un marco, esperar el reconocimiento de; uno que ha recibido la espera, entonces envía el siguiente marco.(Consulte la hora de la diapositiva: 18:21)Ahora, vamos a ver este algoritmo de control de flujo en un canal ruidoso, el mismo protocolo Stop yWait. Por lo tanto, aquí utilizamos el concepto de números de secuencia para identificar individualmentecada cuadro y el correspondiente reconocimiento. Por lo tanto, cada bastidor está asociado conun número de secuencia. Por lo tanto, si mira este ejemplo, este marco 0 está asociado a un número de secuencia de. Por lo tanto, este 0 es el número de secuencia para este marco y, a continuación, estamosobteniendo un acuse de recibo. Por lo tanto, este mecanismo de reconocimiento que está enviando el acuse de recibo de1; está enviando el acuse de recibo 1 significa que B ha recibido correctamenteel bastidor 0 y, a continuación, se espera para el bastidor 1.Por lo tanto, envíe el marco 1. Por lo tanto, una vez que tenga B tiene el marco 1, entonces envíaa reconocer 0; es decir, B ha recibido el marco 1 y está esperando el acuse de recibo de0. Por lo tanto, de esa manera en un canal ruidoso, la primera razón es el primer principioes que separas cada marco con el uso de un número de secuencia correspondienteque será exclusivamente identificar cada marco en el canal.Ahora, debido a que es un canal ruidoso, existe la posibilidad de tener una pérdida de trama porqueeste marco se está perdiendo de la red. Por lo tanto, si hay una pérdida de marco, por lo que no enviaremosningún reconocimiento. Por lo tanto, espera un valor de tiempo de espera. Por lo tanto, A esperará un valor de tiempo de espera dey una vez que caduque este tiempo de espera, A volverá con el marco.Ahora, una pregunta interesante aquí es que ¿cuál puede ser el tamaño máximo de la secuencia númeroen parada y espera? Por lo tanto, en detención y espera, puede ver que en una instancia de tiempo,sólo un bastidor puede estar pendiente en la red. Por lo tanto, siempre que tenga el marco de envío 0,a menos que obtenga el acuse de recibo de dicho marco; no enviará el siguiente marco de. Por lo tanto, es por eso que el número de secuencia de 2 bits será suficiente y debido a esta razónpuede ver desde este diagrama que, cada fotograma está asociado con un número de secuenciay los números de secuencia son 0 ’ s y 1 ’ s. Por lo tanto, repetidas 0 ’ s y 1 ’ s así; es decir,siempre que tenga el marco de envío 0, a menos que obtenga este reconocimiento con el marco 1 esperado de; no enviará el marco 1.Por lo tanto, siempre puede estar seguro de ver el acuse de recibo al que corresponde este reconocimiento Si obtiene un acuse de recibo 1;que significa que ha recibido correctamente el marco 0 y que espera de para el bastidor 1.Por lo tanto, esa es la razón por la que utilizamos el número de secuencia de 2 bits para un algoritmo de control de flujoque utiliza stop and wait y este tipo de algoritmo en el que estamos utilizando el concepto de número de secuencia dey aplicando el algoritmo de control de flujo en caso de un canal ruidoso, ypuede ver que aplicando este algoritmo de control de flujo en un canal ruidoso, también estamosgarantizando la fiabilidad en el sistema.Por lo tanto, también estamos asegurando que el receptor reciba todos los marcos correctamente. Por lo tanto, si haysi se produce un tiempo de espera excedido, volverá a transmitir ese marco. Así, que este marco 0 eventualmenterecibe por el receptor B. Por lo tanto, de esa manera también se está asegurando la fiabilidad en el sistemay este algoritmo de control de flujo y fiabilidad todos juntos, lo llamamos como una solicitud de repetición automática deo algoritmos ARQ.Así que, ahora en adelante miramos a estos algoritmos de ARQ en detalles, las diferentes versiones ola diferente varianza de los algoritmos de ARQ.(Consulte el tiempo de la diapositiva: 21:41)Bueno, así que este es un tipo de implementación del lado del remitente de este algoritmo de parada y espera de ARQen forma de un diagrama de transición de estado.Así que, aquí la cosa es que esto usted puede pensar en el estado inicial. Por lo tanto, las conversaciones iniciales del estadoacerca de que se espera la llamada 0 desde arriba; eso significa que están esperando el marco 0inicialmente. Por lo tanto, el evento que está ahí está en el lado del remitente. Por lo tanto, es de la capa de aplicaciónque está enviando una entrega de datos fiable. Ahora, una vez que esto sucede.Así que, en el lado de la capa de transporte, está haciendo una llamada a la entrega de datos fiable para enviar conestos datos.Ahora, ¿cómo garantiza la entrega de datos fiable? Por lo tanto, debe correlacionar este rdt con la llamada de udt correspondiente deporque si lo recuerda anteriormente, hemos visto que en la capa de red delas llamadas son llamadas no fiables como las llamadas de udt. Por lo tanto, para que lo que eshaciendo que esté añadiendo un número de secuencia con este paquete que está proporcionandolos datos y algunos cheques alguna suma de comprobación, discutiremos más adelante para asegurar el errortransmisión gratuita de los datos. A continuación, está enviando los datos a través de un canal no fiable yiniciando el temporizador.Ahora, siempre que esté esperando el acuse de recibo 0, se está moviendo al estadoque ha enviado el paquete 0. Por lo tanto, está esperando el acuse de recibo correspondiente de. Por lo tanto, aquí una vez que está recibiendo un paquete y si está descubriendoque el paquete está dañado y en ese caso, está en el mismo bucle, vuelve a esperar aun acuse de recibo. Si se produce un tiempo de espera excedido, entonces vuelve a enviar el paquete, retransmiteel paquete a través de este mecanismo de envío de udt. Retransmite el paquete e inicia el temporizadorde nuevo. Y luego una vez que recibe el acuse de recibo, entonces se mueve a este estado, que espera la llamada uno porque ha recibido ese acuse de recibo, ahoradesea enviar el siguiente marco que es el marco 1. Por lo tanto, en ese caso ha recibido el paquetede la capa superior y una vez que ha recibido ese paquete y ese paquete no es un paquete dañado dey es el reconocimiento corresponde al marco 0. Por lo tanto, usted estámoviéndose a este estado. Una vez que esté en este estado en ese caso, está esperando recibirel paquete de la capa superior. Por lo tanto, una vez que haya recibido el paquete de la capa superior de, realice esta llamada de envío con los datos con este marco 0 y se repita el mismo procesoque añada este número de secuencia; número de secuencia 1 junto con los datos dey la suma de comprobación correspondiente y, a continuación, envíe el paquete a través del canalno fiable. Y usted se mueve para esperar a ese reconocimiento correspondiente. Y el mismo procesose repite, que si está recibiendo los datos y el paquete está dañado,está en este bucle. Si se produce un tiempo de espera excedido, vuelve a transmitir el paquete e inicia el temporizador dede nuevo y, a continuación, siempre que recibe el acuse de recibo; esto significa queestá recibiendo un paquete no dañado y que ha recibido el acuse de recibocorresponde al marco 1; a continuación, detiene el temporizador y espera este marco 0.Así que, de esta forma, envía estos marcos uno después de otro bastidor 0 ’ s y el bastidor 1 ’ s, uno después deotro y se mueve a través de este diagrama de transición de estado para enviar los paquetes uno después deotro. Y asegúrese de que el control de flujo es correcto junto con la fiabilidad del sistema.(Consulte el tiempo de la diapositiva: 25:19)Bueno, veamos los problemas asociados con el tipo de parada y de espera del algoritmo de control de flujo o ARQ de. En la parada y el ARQ de espera, en primer lugar cada paquete necesitaesperar el acuse de recibo del paquete anterior. Por lo tanto, hasta que no reciba el acuse de recibo depara el paquete anterior, no podrá enviar el siguiente paquete.Ahora, si piensa en conexiones bidireccionales, para la conexión bidireccional,puede utilizar dos instancias de detención y espera. Una de las instancias de detención y espera asegurará que las instancias dede detención y espera garanticen la transferencia de datos de A a B y otras instancias dede detención y espera garantizarán la transferencia de datos de B a A, pero esto volverá a serel resultado de un desperdicio significativo de recursos de red que para ambos lados tiene que esperarpara el acuse de recibo.Por lo tanto, una posible solución para resolver este problema en particular es que puede piggyar los datosy el reconocimiento de ambas direcciones. Pero incluso si usted está piggybacking datosy el reconocimiento para las dos direcciones, así que piggybacking aquí significa quesiempre que está enviando un marco de datos, junto con el marco de datos, también añade el reconocimiento de.Así que, estos datos dicen que esto va para la secuencia uno y junto con los datos con la secuenciauno envía el acuse de recibo para el anterior que viene de B a A.Así que, es como que esto es B y esto es A. De B a A que está enviando un paquete de datos;para B a A cada vez que usted está enviando un paquete de datos dice que A ha enviado un paquete a B.Usted es El envío del acuse de recibo junto con cada vez que envía el paquete de datosa A.Así, aunque este mecanismo de piggybacking es más eficaz en comparación con, esto utiliza estas dos instancias de detención y espera, pero todavía está desperdiciando una gran cantidad de recursos deporque para todos los paquetes es necesario esperar el acuse de recibo.Por lo tanto, no podrá transmitir de forma paralela los paquetes de la red. Por lo tanto, para resolver este problema deutilizamos una clase de algoritmos de control de flujo que llamamos como el protocolode la ventana deslizante. Por lo tanto, los protocolos de ventana deslizante son un protocolo de línea de conducto en el que puede enviarmúltiples tramas o varios paquetes sin esperar el acuse de recibo correspondiente de. Por lo tanto, puede enviar varias tramas y todos los marcos pueden ir en unade.(Consulte el tiempo de la diapositiva: 27:49)Por lo tanto, una idea amplia de este protocolo de ventana deslizante es algo así. Si observael protocolo de detención y espera, por lo que el protocolo de detención y de espera está enviando sólo un paquete de datos. Por lo tanto, sólo un paquete de datos puede ser sobresaliente en la red.Por lo tanto, una vez que este paquete de datos sea recibido por este receptor, entonces estos receptores envían elACK y una vez que usted está recibiendo ese ACK en el remitente, entonces sólo usted será capaz deenviar el siguiente paquete de datos. En el caso de mi protocolo de interconexión o el protocolo de ventana deslizante, lo que hacemos es que podemos enviar una secuencia de paquetes y de forma paralela podemosrecibir la secuencia de reconocimiento.Por lo tanto, de esa manera podremos utilizar este concepto de interconexión a través de la red dondepodría ser capaz de enviar una secuencia de paquetes todos juntos y de forma paralela se puede recibir una secuenciade reconocimiento. Así que, de esta manera, usted será capaz de utilizar el recurso de redde manera más eficiente porque hoy en día, ahora con este enfoque particular del protocolo de ventanadeslizante, usted estará asegurando que más cantidad de paquetes pueden ser empujados a la redsi la red tiene esa gran cantidad de capacidad. Y paralelamente podremosrecibir el reconocimiento y usted será capaz de ajustar su velocidad de transmisiónen consecuencia para que pueda recibir los paquetes correctamente en el otro extremo.Por lo tanto, esta es la idea amplia del protocolo de ventana deslizante. Y en la siguiente clase vemos aen estos protocolos de ventanas deslizantes en detalles.Así que gracias a todos por asistir a la clase.