Loading

Module 1: Transmisión y programación

Apuntes
Study Reminders
Support
Text Version

Control de congestión TCP

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Control de congestión de TCP
Bienvenido de nuevo al curso en Red de sistemas y Protocolos de Internet. Por lo tanto, estamosmirando los Protocolos de Control de Transmisión en detalle. Por lo tanto, en la última clase, hemosalgoritmos de control de flujo en TCP.(Consulte el tiempo de la diapositiva: 00:28)Así que, en esta conferencia, examinamos los algoritmos de control de la congestión en TCP. En el contextode protocolos genéricos de capa de transporte, ha analizado que este control de congestiónlos algoritmos en una capa de transporte, utilizan un principio agradable para garantizar tanto la eficiencia comocomo la equidad.Así que, aquí vamos a ver en que TCP utiliza el concepto de capacidad y equidadjuntos en el algoritmo de control de la congestión, que incorporó.(Consulte el tiempo de la diapositiva: 01:03)Así que, aquí está el algoritmo básico de control de la congestión para TCP. Por lo tanto, el algoritmo básico de control de congestiónpara TCP se basa en la implementación de la disminución multiplicativa de aumento de aditivo, utilizando un mecanismo de control basado en ventanas, y TCP considera la pérdida de paquetes decomo una noción de congestión. Por lo tanto, antes hemos analizado estos principios de aumento del aditivomultiplicativo, donde hemos visto que bien AIMD proporciona una nociónde maximizar la capacidad, así como la equidad en la red.Por lo tanto, lo que hemos visto en que cada vez que hay varios flujos, que están consiguiendocongestionado en el cuello de botella de la red o que el eslabón de cuello de botella, ambos flujos están tratandode maximizar su capacidad. Y cuando ambos flujos intentan maximizar su capacidaddurante ese tiempo, necesitamos asegurar que cada flujo obtenga la capacidad requerida quemaximiza su equidad también. Por lo tanto, teniendo en cuenta la perspectiva de la red global, dondemúltiples flujos están contestando entre sí para obtener la información para obtener los datos,durante ese tiempo esta noción de congestión y la noción de equidad ya que la congestión esun aspecto importante.Y lo que hemos visto antes, que en el caso de una red distribuida que asegure una durala equidad es muy difícil. Y al mismo tiempo, la imparcialidad puede afectar a su capacidad, la capacidad disponible deo puede utilizar la capacidad de red disponible. Por lo tanto, para eliminarel bajo uso de la capacidad de red que en red; generalmente, utilizamos el principio de equidad máxima demin y el principio de máxima equidad mínima dice que bien, su objetivosería maximizar el fin de la capacidad final que se puede obtener para un flujo en particular. Enesa noción, hemos visto que AIMD proporciona esta máxima equidad mínima junto conmaximizando la utilización del ancho de banda del enlace que usted tiene en el cuello de botella de la reden contraste con el aditivo de aumento de aditivos principio de control de velocidad, yaumento multiplicativo de aumento de la noción de control de la velocidad.Así, TCP incorpora el mismo principio de aumento de aditivo aumento multiplicativo,donde aumenta la tasa de forma adicional, siempre que hay suficiente cantidad de ancho de bandadisponible en el final de la vía de acceso final. Y siempre que TCP detecta una congestión con la ayuda deuna pérdida de paquete, donde la pérdida de paquetes da una señal a la congestión, entonces baja la tasa de una manera multiplicativao siguiendo una noción multiplicativa. Por lo tanto, este principio de AIMD quediscutimos anteriormente se incorpora en TCP.Así que, para incorporar esta noción de AIMD para el control de la congestión, manteniendo la equidad de; TCP mantiene una ventana, que se llama una ventana de congestión. Por lo tanto, esta ventana de congestión dees el número de bytes que el remitente puede tener en la red encualquier instancia de tiempo. Ahora, si ese es el caso, su tasa de envío será igual a la ventana de congestión dedividida por RTT. Por lo tanto, RTT es el tiempo de ida y vuelta, el tiempo para propagarun mensaje de un nodo a otro nodo y luego recuperar la respuesta, este tiempo total de ida y vuelta de.Por lo tanto, si divide el tamaño de la ventana de congestión que significa, el número de bits o el númerode bytes que el sistema puede empujar a la red dividida por el RTT total, quele da una aproximación de la tasa de envío, cuando el remitente está enviando datos a una tasade congestión. Pero, como han visto antes, tenemos otra noción aquí, que es el tamaño de la ventana del receptora una tasa del receptor, que proviene del algoritmode control de flujo.Así que, lo ideal es lo que tenemos que hacer, tenemos que incorporar o tenemos que fusionar el principio de control de flujojunto con el principio de control de la congestión. Y lo que hemos visto anteriormenteque bien, el control de flujo mantiene su propio tamaño de ventana, que se basa en la retroalimentación dede la ventana del receptor anunciado. Por lo tanto, la ventana del receptor anunciado, el receptoranuncia que ese es el lugar disponible en el buffer disponible en el receptor. Por lo tanto, el remitente depuede enviar esa cantidad de datos, de modo que el desbordamiento del almacenamiento intermedio no se produzca desdeel lado del receptor. Y con eso, de este tamaño de ventana de retroalimentación del receptor, el remitente tambiéncontrola su tasa.Así que, lo ideal es que su tasa de envío sea el mínimo de la tasa de receptores, la tasa enque el receptor puede recibir el paquete. Y la velocidad a la que la red puede entregarel paquete al otro extremo. Por lo tanto, es por eso que su tasa de envío debe ser mínima de la tasa de receptor dey de la tasa soportada por la red. Ahora, este concepto de la velocidad desoportada por la red, viene del algoritmo de control de la congestión; y la tasa de receptor que esprocedente del algoritmo de control de flujo.Ahora, el receptor anunciado tamaño de ventana que le da la tasa posible a la que el receptorpuede recibir los datos. Y el tamaño de la ventana de congestión que está dando la tasa enque la red puede soportar la transmisión de datos sobre el final de los enlaces finales. De modo queel tamaño de la ventana del remitente debe ser el mínimo de la ventana de congestión y la ventana del receptor. Por lo tanto, esta ventana de congestión le proporciona la velocidad que soporta la red, y la ventana del receptor le está dando la velocidad que soporta el receptor. Por lo tanto, de esa maneray por lo tanto estamos obteniendo la ventana del remitente que le está dando la tasa de envío o la tasa de remitente de.Así que, esta es la noción de combinar control de congestión y control de flujo juntos en TCP.Y con este principio, TCP controla el tamaño de la ventana del remitente. Por lo tanto, inicialmente el tamaño de la ventana de congestión dese mantiene a un ritmo muy mínimo. A continuación, aumentamos el tamaño de la ventanade congestión gradualmente para averiguar qué es el cuello de botella o cuál es la capacidad deel enlace. Y si se detecta una congestión, entonces aplicamos el principio de AIMD para disminuirla tasa. Así que esa es la idea amplia del control de la congestión en TCP.(Consulte el tiempo de la diapositiva: 07:50)Ahora, veamos cómo se inventó todo este control de la congestión en TCP, y este control de la congestión deen TCP es un buen ejemplo de una red o un mejor para decirprotocolo de red descentralizado o distribuido. Por lo tanto, todo este concepto de congestiónvino en 1986 de un evento llamado colapso de la congestión. Así que, en 1986, esta creciente popularidad de Internet dellevó a la primera aparición de congestión en la red, por lo quelo llamamos como el colapso de la congestión. Por lo tanto, este colapso de la congestión fue un período prolongadodurante el cual las despedidas del sistema que cayeron significativamente más que un factorde 100.Así que, basado en esta noción de colapso de la congestión que la observación del colapso de la congestión;Van Jacobson fue la persona clave que realmente investigó este fenómeno de la congestión deen Internet. Y este algoritmo de control de congestión de TCP temprana que fuedesarrollado por Van Jacobson. Y la propuesta inicial surgió alrededor de 1988, que fueel sucesor del evento de colapso de la congestión que ocurrió en 1986.Pero, el desafío para Jacobson era implementar el algoritmo de control de la congestiónsin hacer muchos cambios en el protocolo, era necesario hacer el protocoloinstantáneamente desplegable en la red, porque durante ese tiempo, muchos de los sistemas fueronusando TCP para la transmisión de datos. Y la noción de internet ya estaba allí, la genteestaba accediendo a los datos a través de Internet. Por lo tanto, durante ese tiempo si usted diseña un protocolo completamente diferente de, lo que tiene que hacer, tiene que hacer el cambio a todas las máquinasen el sistema.Y durante ese tiempo, el tamaño de la red podría no ser tan grande como hoy otal vez algunos miles de factores menores que hoy, pero aún así fue significativo. Y el diseño deun nuevo protocolo completo puede llevar a un problema de compatibilidad con versiones anteriores. Así que fueel gran desafío para Jacobson diseñar un nuevo protocolo, que sería compatiblecon la implementación de TCP existente, y usted no requiere muchos cambios en el protocoloTCP.Así que, para resolver esto, Jacobson tuvo una observación agradable, y la observación fue que encontróque la pérdida de paquetes bien es una noción adecuada para la congestión. Ahora, aquí hay un fallo,recuerda que durante ese tiempo, cuando Jacobson inventó este algoritmo de control de la congestiónen TCP, la noción de red inalámbrica no era tan popular o era sóloen una etapa muy incipiente, por lo que la mayor parte de Internet estaba conectada por la red con cable. Yen una red con cable, en general no se obtiene una pérdida del canal, porque los medios de comunicación dese guían, es donde por lo que el protocolo de capa de enlace se encargará dela interferencia en el canal, y es por eso que no experimentará una pérdida del canal. Por lo tanto, sus canales son una especie de pérdida en el caso de una red con cable.Por lo tanto, si hay una pérdida de paquete, esa pérdida es ciertamente de los almacenamientos intermedios de red de los dispositivos de red intermedia de. Y debido a que si hay una pérdida de paquetes del almacenamiento intermedio de red de, puede inferir que el almacenamiento intermedio ha sobrevolado y porque el almacenamiento intermedio deha sobrevolado, está teniendo una congestión en la red por lo que debido a la congestión de, el almacenamiento intermedio sólo puede desbordarse. Por lo tanto, de esa manera Jacobson descubrió que la pérdida de paqueteses una señal adecuada para la congestión, por lo que puede utilizar el tiempo de espera para detectar una pérdida de paquetes.Y luego ajustar la ventana de congestión basada en la observación de la pérdida de paquetes.Así que, usted aumenta el valor de la ventana de congestión, en el momento en que observa una pérdida de paquetesque le da una indicación de que bien, hay una noción de congestión en la red ohay algunas ocurrencias de congestión en la red, debido a lo cual el paquete ha perdido, que usted ha detectado de un tiempo de espera. Y siempre que detecte una pérdida de paquetesde un tiempo de espera, aplique el principio de AIMD para reducir la tasa basándose en el principio de disminución multiplicativa de.(Consulte el tiempo de la diapositiva: 12:09)Bueno. Por lo tanto, aquí está la otra interesante observación de que cómo ajustar la ventana de congestión debasada en el principio de AIMD. Por lo tanto, una de las ideas más interesantes encontrol de congestión deTCP es el uso del reconocimiento para el bloqueo. Por lo tanto, aquí esta imagenrepresenta el hecho interesante que bien. Siempre que esté enviando el paquete, suponga quees el caso de ejemplo de red, tiene el remitente y un direccionador intermedio, yentonces el receptor, se conectan a través de dos enlaces, por lo que es una vía de acceso de dos saltos. Por lo tanto, este enlace esun enlace rápido. Por lo tanto, este es un enlace rápido, y el segundo enlace es un enlace lento. Por lo tanto, este segundo enlace esbásicamente su vínculo de cuello de botella. Por lo tanto, la congestión ocurrirá, cuando un montón de datos seránempujados a este enlace inferior o el enlace de cuello de botella.Ahora, siempre que esté enviando el paquete, por lo que está enviando el paquete desde el remitenteen forma de una ráfaga, que atraviesan el enlace más rápido, luego en el enlace más lento, porqueeste enlace es más lento, su paquete tardará más tiempo en propagarse al receptor. Ahora,cuando se mire en el reconocimiento la tasa del reconocimiento seráen realidad la tasa de envío del paquete en este enlace más lento; así que cualquiera sea la tasa de reconocimiento deen este enlace más lento, la misma tasa de reconocimiento también percibirá eneste enlace rápido. Por lo tanto, de esa manera siempre que el remitente obtenga los reconocimientos,que el reconocimiento en realidad indica la tasa del enlace más lento, que está ahí ensu final de la vía de acceso final o mejor para decir si tiene varias vías de acceso de salto, entonces la tasa del enlace más lento deen que la tasa, el acuse de recibo llegará al remitente.Ahora, si el remitente supervisa la tasa de reconocimiento que da una idea de que bien,posiblemente a esa tasa, los paquetes se transmiten al receptor. Por lo tanto, el acuse de recibo devuelve al centro en torno a la tasa, que los paquetes se pueden enviar a través deel enlace más lento de la vía de acceso. Por lo tanto, se desencadena la congestión en un ajuste basado en la tasa deen la que se recibe el acuse de recibo. Por lo tanto, aquí se utilizan estos reconocimientoscomo un reloj para desencadenar el control de la congestión en la red. Así que eso fue otra observación interesante depor Jacobson, mientras diseñaba el algoritmo de control de la congestión,tan bien, así que ese era el principio básico.(Consulte el tiempo de la diapositiva: 14:41)Ahora, cada vez que recibe un acuse de recibo, se activará oajustará el tamaño de la ventana de congestión, pero la pregunta es que a qué tarifaaplicará el aumento de aditivos en la red. Por lo tanto, inicialmente lo que puede hacer puede establecerla ventana de congestión en un paquete y, a continuación, aumentar gradualmente el tamaño de la ventana de congestión de, cuando recibirá un acuse de recibo.Ahora, veamos lo que sucede, si aplica un principio de aumento de aditivo. Por lo tanto, si usted enaplica un principio de aumento de aditivos, lo que dice el aumento de aditivos, que inicialmente envíaun paquete, cada vez que está haciendo un reconocimiento, entonces aumenta la ventana de congestión depor una, por lo que ahora la ventana de congestión es dos, por lo que envía dos paquetes. Por lo tanto, una vez que haya recibido correctamente dos paquetes, el acuse de recibopara esos dos paquetes, de nuevo aumentará la ventana de congestión en uno, por lo que ahorala ventana de congestión es de tres, por lo que puede transferir con éxito tres paquetes. Ustedespera el reconocimiento de esos tres paquetes, cada vez que recibe el acuse de recibo depara esos tres paquetes, de nuevo aumenta la ventana de congestión acuatro desde tres, y envía cuatro paquetes.Ahora, si está aplicando este aumento de aditivo de la ventana de congestión a través de la red.Así que esta regla de AIMD, tardará mucho tiempo en llegar a un buen punto operativo en las redes rápidas de, porque esta ventana de congestión se inició desde el pequeño tamaño. Por lo tanto, veamos un ejemplo de. Por lo tanto, suponga que tiene un enlace de 10 mbps que tiene un enlace de 10 mbps con 100milisegundos de tiempo de ida y vuelta, y en ese caso, su ventana de congestión adecuadadebe ser igual a BDP el producto de retardo de ancho de banda, que hemos visto antes. Por lo tanto,con un enlace de 10 mbps y un RTT de 100 milisegundos, el producto de retardo de ancho de banda viene a ser1 megabit.Ahora, suponga que tiene un paquete de 1250 bytes, tiene un medio de paquetes de 1250 bytes,tiene 1250 en 8, por lo que significa, 10000 bits paquete. Y si tiene un paquete de 10000 bits10000 bit así que si tiene un paquete de 10000 bits que significa, con 1 megabit BDP,puede transferir la necesidad de transferir al menos 100 paquetes para alcanzar el productode retardo de ancho de banda. Ahora, si asume que la ventana de congestión se inicia en 1 paquete, y el valorde la ventana de congestión se aumenta 1 paquete en cada RTT, porque este RTT se basaen la tasa a la que se está recibiendo el acuse de recibo. Por lo tanto, en cada RTT,aumenta 1 ventana de congestión.Por lo tanto, necesita 100 RTT y 100 RTT significa 100 milisegundos por RTT, esaproximadamente 10 segundos antes de que la conexión alcance una velocidad moderada o alcancehacia su capacidad máxima. Ahora, si piensa en la web, transfiera el protocolo HTTP, por lo que ninguno de los de la conexión HTTP tarda 10 segundos en llegar a ese punto deoperativo. Por lo tanto, para el momento, alcanzaremos a la máxima capacidad, probablemente cerraremosla conexión TCP, y empezaremos de nuevo una nueva conexión, que volverá a aumentar deun paquete por segundo. Ahora, para aumentar esta tasa, aplicamos un principio en TCP, que esllamado slow start.(Referir Slide Time: 18:08)Entonces, ¿cuál es el inicio lento, por lo que el inicio lento es algo así que inicialmente haces un aumento exponencial dede la tasa para evitar la lenta convergencia. Ahora, esta es la ironía enel nombre que el inicio lento no significa que su tasa no es-su tasa es lenta, es sólocomo eso, usted está empezando de una tasa de tasa más lenta y haciendo una convergencia más rápida a la tasa alta de.Así que, lo que hacemos en un inicio lento, aumentamos la ventana de congestión por dos que significa, la ventana de congestión dese duplica en cada RTT. Por lo tanto, en lugar de tener un aumento del aditivo, inicialmente hacemos un aumento multiplicativo al duplicar la ventana de congestiónen cada viaje de ida y vuelta.
TCP Congestion Control-Parte 2
Por lo tanto, esa es la noción de TCP slow start. Que cada segmento de reconocimiento permita enviardos segmentos más. Por lo tanto, para cada segmento que se reconoce antes de que el temporizador de retransmisión dese apague, el remitente añade un valor de segmento de bytes a la ventana de congestión de.Por lo tanto, lo que sucede aquí con este ejemplo, por lo que inicialmente la ventana de congestión era 1.Una vez que recibe el acuse de recibo, la ventana de congestión se convierte en dosque significa 2 en 1. Una vez que reciba los segundos reconocimientos, la ventana de congestión dese convierte en 4. A continuación, una vez que reciba todos estos cuatro reconocimientos de, la ventana de congestión se convierte en 8, por lo que de esa forma en cada RTT ytoda esta transmisión toma alrededor de un RTT.En el primer RTT, está reconociendo 1 paquete. En el 2do RTT, está reconociendo paquetes de2. En el 3er RTT, usted está reconociendo 4 paquetes. En el 4to RTT, su acuse de recibo dereconoce 4 paquetes. Y si la tubería está llena, entonces esel nivel en el que se está volviendo convergente, así que de esa manera en TCP de inicio bajo en cada ronda de tiempo de viaje de, duplicamos el tamaño de la ventana de congestión ok.(Consulte el tiempo de la diapositiva: 19:58)Ahora, si usted acaba de hacer un aumento multiplicativo de la ventana de congestión, entonces otra vezviola el principio de máxima equidad mínima que hemos visto antes. Por lo tanto, la disminución multiplicativa multiplicativa de MIMDno le lleva a un punto de operación óptimo de, donde se satisfacen las constantes de capacidad y de equidad. Así que espor qué lo que tenemos que hacer, tenemos que hacer un aumento de aditivos en algún momento. Entonces,hacemos aquí? Así que el inicio lento provoca el crecimiento exponencial, por lo que eventualmenteenviará demasiados paquetes a la red demasiado rápido.Ahora, para mantener el inicio lento bajo control, el remitente mantiene un umbral para la conexión, nosotros llamamos a este umbral como el umbral de inicio lento o ssthresh. Ahora, inicialmenteel umbral de inicio lento se establece en BDP o algún valor, que es arbitrariamente alto, el máximo deque un flujo puede llevar a la red. Y siempre que se detecta una pérdida de paquete por parte deun tiempo de espera de retransmisión, se dice que el umbral de inicio lento es la mitad de la ventana de congestión deactual. Así que esa es la idea.(Consulte el tiempo de la diapositiva: 21:10)(Consultar el tiempo de la diapositiva: 21:18)Así que, siempre que lo haga, déjenme tratar de explicarlo con un diagrama, así que inicialmente estas cosassuceden. Así que, en este eje, tengo el tiempo; y en este eje, estoy tramando decir la ventanade la congestión. Por lo tanto, usted comienza con un paquete, y inicialmente usted tiene un crecimiento exponencial. Ydice en este punto, se obtiene un tiempo de espera de pérdida o retransmisión, y siempre que se está teniendo un tiempo de retransmisión de, por lo que se establece. Por lo tanto, este era el valor inicial. Por lo tanto, se establece la mitad de esecomo el umbral de inicio lento.Así que, se descarta la velocidad y ahora el umbral de inicio lento está aquí. Por lo tanto, vuelve a empezar conuna ventana de congestión, por lo que va de forma exponencial hasta el umbral de inicio lento. Después de quehaya alcanzado el umbral de inicio lento, aumente a través de AIMD. Por lo tanto, aquí comienza su AIMD. Ahora, una vez más después de AIMD en este punto, si tiene una RTO, entonces hace la mitad deque en el umbral de inicio lento actualizado, descarte la velocidad, vuelva a hacer un aumento exponencialhasta el umbral de inicio lento, e inicie AIMD después de eso. Por lo tanto, su lento inicio es hasta el umbral de inicio lento dey después de eso, usted va con AIMD.Así que, después de un umbral de inicio lento, nos movemos al aumento de aditivos, por lo que en este aumento de aditivo, que llamamos como la evitación de la congestión. Por lo tanto, siempre que se cruce el umbral de inicio lento de, los conmutadores TCP de inicio lento a aumento de aditivo. Por lo tanto, normalmente esimplementado con un aumento parcial para cada segmento que se está reconociendo, más bienque un aumento de una parte del segmento RTT. Por lo tanto, esta parte del segmento RTT es la fase de inicio lenta de.Así que, para hacer eso, hacemos una aproximación común es aumentar la ventana de congestiónpara el aumento de aditivos basado en esta fórmula. Por lo tanto, la ventana de congestión se incrementa comoel valor actual de la ventana de congestión más el tamaño de segmento máximo entamaño máximo de segmento dividido por la ventana de congestión. Esto da una aproximacióndel aumento de aditivo que la cantidad de datos o cuánto nuevo byte se debe añadir ala ventana de congestión para seguir el o para aumentar el valor de la ventana de congestión basado enen el aumento de aditivos en cada viaje de ida y vuelta. Por lo tanto, en cada viaje de ida y vuelta,aproximamos el aumento de la ventana de congestión basada en esta fórmula. Por lo tanto, esta fórmulase aplica en cada viaje de ida y vuelta para que la ventana de congestión siga el principio de aumento del aditivo.Así que, para desencadenar una congestión, como hemos mencionado, normalmente desencadenamos una congestióncon la ayuda de un tiempo de espera de retransmisión, que indica una pérdida de paquetes, pero hayotra manera de desencadenar la congestión. Por lo tanto, en general, TCP sigue dos maneras diferentes dedesencadenar una congestión; una es el tiempo de espera de retransmisión, y la segunda es utilizando un acuse de recibo duplicado de. Por lo tanto, el reconocimiento de duplicados significa queestá recibiendo continuamente el reconocimiento del mismo paquete.Ahora, por qué utilizamos básicamente el reconocimiento duplicado para desencadenar un controlde congestión, porque si utiliza el tiempo de espera de retransmisión, debe esperar a que la duración del tiempo de esperadetecte una congestión. Mientras que, el reconocimiento duplicado le da una nocióntemprana de la congestión, y puede desencadenar el comportamiento de control de la congestión mucho antesen comparación con la espera de un periodo de tiempo de espera completo.Ahora, curiosamente este tiempo de espera de retransmisión RTO es una indicación segura de la congestión,pero es el tiempo de consumo. Mientras que, este reconocimiento duplicado, aquí como sabemosque el receptor envía un acuse de recibo duplicado, cuando recibe fuera del segmento, que es una forma suelta de indicar una congestión. Por lo tanto, TCP asume que siestá recibiendo tres confirmaciones duplicadas, implica que el paquete se ha perdidoy desencadena el mecanismo de control de la congestión. Ahora, esta suposición de tresde reconocimiento duplicado es algo arbitrario, no hay como tal ninguna lógica detrás de eso,por lo que Jacobson asumió que bien, usted puede tomar tres triple doble reconocimiento aindicar una congestión.Ahora, otra observación importante o interesante de este reconocimiento duplicadoes que (Tiempo de referencia: 26:47) porque TCP utiliza el reconocimiento acumulativo, mirandoen el reconocimiento duplicado, usted puede identificar el paquete perdido, que el paquetese ha perdido. Por lo tanto, el siguiente paquete de la secuencia que se ha perdido, por lo que es por lo queestá obteniendo este reconocimiento duplicado. Por lo tanto, lo que puede suceder, dicen que usted ha recibido1, 2, 3, entonces usted ha perdido el paquete 4, y usted está recibiendo 5, 6, 7. Siempre quereciba 5, 6, 7, recibirá un acuse de recibo de hasta 3. Por lo tanto, cada vez quereciba un ACK duplicado para ACK 3.Ahora, en este caso, puede inferir que el paquete 3 es realmente el paquete que se ha perdido.Por lo tanto, retransmite el paquete perdido y luego desencadena el algoritmo de control de congestión.Ahora, en TCP Reno, hay otra observación interesante de la implementación deTCP Reno. Por lo tanto, una vez que está detectando una congestión a través de 3 duplicadosde acuse de recibo, ¿realmente necesita TCP para establecer la ventana de congestión en 1 MSS? Ahora aquí,este reconocimiento duplicado; significa que algunos segmentos siguen fluyendo en la red, no es como que no pueda enviar ningún paquete. Por lo tanto, si tiene un tiempo de espera de retransmisión de.  Por lo tanto, lo que sucede en la recuperación rápida, que establece el umbral de inicio lento en la mitad de la ventana de congestión actual de, vuelva a transmitir el segmento que falta que es la primera retransmisión.A continuación, establezca el umbral de inicio lento en la corriente y, a continuación, establezca la ventana de congestiónen el umbral de inicio lento actual más 3. Por qué 3, porque ha recibido tresde reconocimiento duplicado que significa, el receptor ya ha recibido tres paquetesmás. Por lo tanto, esto significa que puede aumentar la ventana de congestión y enviar otros tres paquetesa la red, porque el receptor lo ha recibido, aunque fuera del orden de.Así que, si se compara con la variante de TCP Reno, no estamos haciendo la ventanade la congestión. Por lo tanto, TCP Reno, vuelve a la ventana de congestión a 1 MSS y, a continuación, aplica el umbral de inicio lento dehasta el inicio lento, hasta el umbral de inicio lento y, a continuación, aplica el aumento de aditivo de. Por lo tanto, aquí estamos aplicando un aumento de aditivos mucho más rápido, que le ayudará aa llegar al punto de operación que mucho más rápido en comparación con TCP Reno debido a la implicaciónde este algoritmo de recuperación rápida y evitar la fase de inicio lento, de nuevosiempre que esté detectando una congestión a través del triple reconocimiento duplicado.Pero, si está detectando una congestión por un tiempo de espera de retransmisión, entonces siempre establecela ventana de congestión a 1 MSS, y comienza con el umbral de inicio lento, porque unempieza con la fase de inicio lento, porque un tiempo de espera de retransmisión dará una indicaciónde que se ha producido una congestión grave. Y siempre que hay una congestión grave deen la red, siempre es mejor empezar con una tasa muy baja que significa,establecer el valor de la ventana de congestión en 1 MSS, por lo que es la diferencia más amplia.Por lo tanto, si está detectando la congestión por un tiempo de espera de retransmisión, establezca el valor de la ventana de congestión deen 1 MSS. Aplique el inicio lento, siempre que alcance el valor de inicio lento actual de, que es la mitad de la ventana de congestión que se ha detectadodurante la detección de congestión y, a continuación, aplicar el aumento de aditivo. Y si estádetectando una congestión a través de un acuse de recibo triple duplicado, no es necesario quevuelva a realizar la fase de inicio lento, porque algunos paquetes siguen fluyendo en la red,aplica directamente la recuperación rápida y, a continuación, se mueve con el aumento de aditivo. Por lo tanto, esta es la variantedel TCP Reno.Después de eso, muchas otras variantes de TCP entraron en existencia como el nuevo Reno TCP, entoncesTCP de reconocimiento selectivo o SACK, por lo que originalmente hay un protocolo TCP normal,utiliza el principio de retroceder N principios de control de flujo o retroceder N ARQ principio.Considerando que el TCP PACK la variante de reconocimiento selectivo de TCP, funciona conel principio de esta repetición selectiva ARQ, donde explícitamente enviamos el paquete SACK aindicar que se ha perdido el paquete. Y el remitente retransmite esos paquetes sin queenvíe todo el paquete de la ventana actual.Por lo tanto, hay muchas variantes de este tipo de TCP. Y después de eso, muchas de las variantes también llegaronpráctica. Por lo tanto, no voy a los detalles de todas esas variantes. Si usted está interesado,puede ir con eso. La noción básica de control de congestión de TCP es esta tres fases, el inicio lento deseguido por la evitación de la congestión, luego la rápida recuperación, y la rápida retransmisión de. Y después de eso, la gente ha incorporado otras pocas optimizaciones. Por lo tanto, siestá interesado, puede mirar a las RFC a (Tiempo de referencia: 36:26) conocerlas mejor.Por lo tanto, esto nos da una amplia visión general de los algoritmos de control de la congestión, que están allíen TCP. Y le hemos dado una descripción bastante detallada del protocolo de la capa de transportejunto con un enfoque en este TCP. Así que, como he mencionado que una cantidad enorme oincluso más del 90 por ciento del tráfico de Internet, en realidad utiliza un protocolo TCP. Y TCPes posiblemente el protocolo más ampliamente desplegado en Internet el protocolo de la capa de transporte enInternet, pero bueno hay ciertas aplicaciones en Internet que utilizan UDP, que nola fiabilidad, control de flujo, control de la congestión, como TCP.Así que, en la siguiente clase, vamos a ver en los detalles del protocolo UDP.Así que, gracias a todos por asistir a esta clase. Consulte de nuevo.