Loading

Module 1: Rendimiento y control

Apuntes
Study Reminders
Support
Text Version

Gestión de almacenamiento intermedio y control de congestión

Set your study reminders

We will email you at these times to remind you to study.
  • Monday

    -

    7am

    +

    Tuesday

    -

    7am

    +

    Wednesday

    -

    7am

    +

    Thursday

    -

    7am

    +

    Friday

    -

    7am

    +

    Saturday

    -

    7am

    +

    Sunday

    -

    7am

    +

Gestión de almacenamientos intermedios y control de congestión
Bienvenido de nuevo al curso en Redes de sistemas y Protocolos de Internet. Por lo tanto, estamosdiscutiendo sobre la capa de transporte y varios servicios bajo la capa de transporte.Por lo tanto, en la última clase hemos discutido sobre los módulos de rendimiento básicos en la capa de transportejunto con un protocolo de capa de transporte hipotético que cómo va a la interfazde la capa de transporte con la capa de aplicación. Así que, continuando desde ese punto, enesta conferencia, discutiremos sobre el mecanismo de gestión de almacenamiento intermedio en la capa de transportey luego examinaremos los detalles de los algoritmos de control de la congestión.Así que, llegando a la gestión de almacenamiento intermedio; por lo que, como se ha visto en la última clase que enel lado del remitente, así como en el lado del receptor, mantenemos un almacenamiento intermedio de la capa de transporte quees un almacenamiento intermedio de software mantener como una cola y en esa cola, en el lado del remitente, siempre queestá enviando algunos datos, usted pone los datos en esa cola y luego en base a su tasa de algoritmo de control de, el La capa de transporte captará los datos de la cola y los enviará a la capa IP no fiable dede la capa de red.Por otro lado, el receptor, tiene una cola en la que los datos de la capa de red dese colocan en la cola y, a continuación, la aplicación captará los datos de esa cola de. Ahora vamos a ver en este diagrama. Por lo tanto, aquí en la capa de red, este ip receive esotra vez una función hipotética que recibe los datos de la capa ip en la capa de red,y pone los datos en la cola y esta cola es el almacenamiento intermedio en la capa de transportecorresponde a una aplicación, y utilizamos el número de puerto para identificar que en qué almacenamiento intermedionecesita poner los datos.Así que, una vez que esta capa de red pone los datos en la capa de transporte, entonces la aplicación,de la aplicación, tiene que utilizar la llamada al sistema de lectura o hay otras llamadas del sistemacomo el sistema de escritura, la llamada al sistema de escritura a través de la cual usted recibirá los datos dela capa de transporte. Por lo tanto, esta llamada de sistema de lectura que es la parte de la programación de socketque vamos a discutir más adelante en detalles.Así que, la lectura que utiliza la llamada al sistema de lectura, recibirá los datos de la capa de transporte. Por lo tanto, si está utilizando esta llamada de grabación en el lado del remitente, puede utilizar la llamada de lecturaen el lado del receptor en la aplicación para leer los datos y con respecto a esta implementación de la capa de transporte, ya que hemos visto que toda esta parte de la implementación de la pila de protocolos deque se implementa dentro del kernel, si se considera un tipo Unix de sistema operativoo en general, puede decir que esta pila de protocolo es la parte del sistema operativodonde se escribe esta aplicación en el espacio de usuario.Por lo tanto, la frecuencia de la llamada de lectura que es realmente gestionada por la aplicación queestá escribiendo y la aplicación está utilizando esta programación de socket que vamos a discutirmás adelante en detalles; utilizará la programación de socket para leer los datos de este almacenamiento intermedio de capa dede transporte. Ahora puede suceder que la aplicación bien esté leyendo los datos, datos a una velocidad dedonde como la red, está recibiendo los datos a otra velocidad.Muchas de las veces, puede suceder que la red está enviando los datos a una velocidad más alta deen comparación con lo que la aplicación está leyendo, digamos que puede ser la red estárecibiendo datos a un ritmo de unos 1 Mbps y la aplicación está leyendo los datos a la tasa10 Kbps. Por lo tanto, la aplicación está leyendo los datos a una velocidad de 10 Kbps significa que a esa velocidad,está ejecutando la llamada al sistema de lectura. Por lo tanto, puede que esté llegando cada 1 segundo yestá haciendo una llamada al sistema de lectura con el tamaño de almacenamiento intermedio de 1 Kb-10 Kb. Por lo tanto,recibirá los datos a una velocidad de 10 kbps debido a esta diferencia, nos enfrentamos a ciertos problemasporque los datos que se almacenarán en el almacenamiento intermedio de este almacenamiento intermedio de transporte.Por lo tanto, debido a que está recibiendo datos a una tasa más alta de modo que los datos particulares obtendrán el almacenamiento intermediodentro de la capa de transporte, almacenamiento intermedio dentro de esta cola en particular y después de algún tiempo, puede quesuceda que la cola se llena. Si la cola se llena, será un problemaporque en ese caso, si los remitentes envían más datos a la red, entonces los datos deen particular vendrán aquí en la capa de transporte, pero debido a que este almacenamiento intermedio se ha llenado,experimentará una caída de paquete de este almacenamiento intermedio en concreto.Ahora, desea evitar eso. Ahora para evitar eso; ¿qué tienes que hacer? Tiene que ajustarel algoritmo de control de flujo. Por lo tanto, ¿cómo sintonizará el algoritmo de control de flujo? Tienepara tener algo que se llama una gestión de almacenamiento intermedio dinámica en la que este lado del almacenamiento intermedio de los receptores,está cambiando dinámicamente, está cambiando dinámicamente debido a esta diferencia de velocidadentre la capa de aplicación y la capa de transporte, a razón de la velocidad a la que estárecibiendo los datos de la capa de red, debido a esta diferencia de velocidad puede que se enfrente a un problema deque puede cambiar dinámicamente el tamaño del almacenamiento intermedio.Ahora, para manejar eso; lo que tiene que hacer, como que tiene que enviar esa información al lado del remitente depara que el remitente pueda detener el envío de datos, a menos que haya espacio suficiente en el almacenamiento intermedio de receptor de. Por lo tanto, este concepto en particular, lo llamamos como la gestión de almacenamiento intermedio dinámico enel lado del receptor. Por lo tanto, miremos a este concepto de gestión de almacenamiento intermedio dinámico en pocos detalles de.(Consulte el tiempo de la diapositiva: 05:53)Así que, en el caso de la gestión del almacenamiento intermedio dinámico para el control de flujo basado en ventanas para el control de flujo basado en la ventanadeslizante, lo que tiene que hacer esemisor y el receptor necesiten ajustar dinámicamente su asignación de almacenamiento intermedio.Por lo tanto, esto se basa en la diferencia de velocidad entre la entidad de transporte y la aplicación,el tamaño disponible del almacenamiento intermedio del receptor puede cambiar; por lo tanto, en este diagrama en concreto. Por lo tanto,son el conjunto de segmentos que la aplicación ya ha leído. Por lo tanto, esto ha sidodesde el almacenamiento intermedio de la aplicación. Ahora este es su tamaño completo de buffer. Bueno, por lo tanto, este es su tamaño de almacenamiento intermedio completo de. Ahora de eso hay 3 segmentos, que ya sondentro del buffer.Así que, estos segmentos están esperando dentro del buffer para que la aplicación los lea. Ahoraaquí el espacio libre que tiene en el almacenamiento intermedio receptor que es esta cantidad. Por lo tanto, necesitapara anunciar esta cantidad al remitente. Por lo tanto, el remitente no envía más datosen comparación con lo que el almacenamiento intermedio del receptor puede contener. Por lo tanto, el remitente no debe enviar más datos deen comparación con el espacio de almacenamiento intermedio del receptor. Por lo tanto, debe ajustar dinámicamente el tamaño de la ventana de; el tamaño de la ventana del remitente en función de la disponibilidad del espacio del almacenamiento intermedio del receptor.Por lo tanto, lo que hemos examinado en el algoritmo de control de flujo basado en ventanas que puedeajustar dinámicamente el tamaño de la ventana del remitente y el tamaño de la ventana del remitente básicamente representaque cuántos datos puede enviar al receptor sin esperar al acuse de recibo de. Ahora, si envía la información desde el lado receptor al remitenteque cuando el receptor tiene este espacio de almacenamiento intermedio disponible, el remitente puede establecer su tamaño de ventanacomo máximo. Por lo tanto, nunca enviará datos al receptor másque ese tamaño en particular.Ahora, una vez que el receptor recibirá esos datos, después de recibir los datos, el receptor puedeenviar de nuevo un acuse de recibo. Una vez que la aplicación ha leído estos datos ycuando envía el acuse de recibo con el acuse de recibo, puede anunciarel tamaño de almacenamiento intermedio disponible. Por lo tanto, veamos cómo funciona este procedimiento en particular.(Consulte el tiempo de la diapositiva: 07:55)Así que, aquí hay un ejemplo. Hay 2 nodos A y B. Se están comunicando con cada uno de los otros.Por lo tanto, el primer mensaje es que Una solicitud para los 8 almacenamientos intermedios. Por lo tanto, aquí estamos representando el almacenamiento intermedio deen el número de segmentos que desea transferir y estamos asumiendo quecada segmento es un tamaño de arreglo, aunque eso no es cierto para TCP, pero aquí esto es sólopara la simplificación, estamos haciendo una suposición de que cada segmento tiene el mismo tamaño yel receptor en el remitente, el remitente A. Por lo tanto, A es mi remitente que enviará los datos y B esmi receptor que recibirá los datos.Así que, la primera solicitud del remitente para 8 buffer. Por lo tanto, A quiere 8 espacio de almacenamiento intermedio de B, pero B encuentraque sólo 4 espacio de almacenamiento intermedio están disponibles espacio de almacenamiento intermedio para 4 segmentos. Por lo tanto,A devuelve un acuse de recibo con un número de acuse de recibo junto con este valor de espacio de almacenamiento intermedio de. Por lo tanto, el valor del espacio de almacenamiento intermedio se menciona como 4 que determina que Asólo otorgará 4 mensajes del mensaje 0 al mensaje 4 o para el segmento 0 al segmento 4.Ahora A envía 1 mensaje; por lo que, una vez que A envía este mensaje, estos datos con el número de secuencia0. Ahora en este momento, A ha enviado 1. Por lo tanto, A tiene 3 almacenamientos intermedios a la izquierda, A envía otro mensajeA m1. Ahora A tiene 2 buffers a la izquierda, entonces A ha enviado otro mensaje y asume que este mensajeha perdido.Ahora, este mensaje ha perdido. Por lo tanto, aunque en el lado del receptor, tiene 2 espacio de almacenamiento intermedioa la izquierda, pero A piensa que sólo queda un espacio de almacenamiento intermedio porque A ya ha enviado 3 segmentos. Por lo tanto, en esta etapa B reconoce 0 y 1. Por lo tanto, una vez B reconoce 0 y 1; Asend B envía un acuse de recibo 1. Por lo tanto, aquí este reconocimiento es un acuse de recibo acumulativo de. Por lo tanto, una vez que envíe el acuse de recibo 1; esto significa quereconoce reconocer tanto el mensaje 0 como el mensaje 1 junto con que esla publicidad de que el espacio de almacenamiento intermedio es 3.Por lo tanto, A obtener una actualización que bien este mensaje 0 y el mensaje 1 se ha recibido satisfactoriamentepor el receptor y tiene un espacio de almacenamiento intermedio disponible de 3. Por lo tanto, de nuevo envía el mensajem3 porque ya ha enviado el mensaje m2, ya ha enviado el mensaje m2. Por lo tanto,no sabe que si el mensaje se ha recibido o no, entonces vuelve a enviarm4 y finalmente, envía m2.Así que, después de enviar este 3 el espacio de almacenamiento intermedio anunciado era 3. Por lo tanto, ha enviado 3 mensajes. Por lo tanto,una vez que ha enviado 3 mensajes, durante ese tiempo, A no puede enviar más datos porque la ventana de envío dede A ’ se ha establecido en 3. Por lo tanto, ya ha transmitido 3 3 mensajes. Ahora en esta etapa de, este B, envía un acuse de recibo diciendo que el número de acuse de recibo es igual aa 4. Por lo tanto, cuando este número de acuse de recibo es igual a 4, en esta etapa A se descubre quebien, todos los 4 mensajes que empiezan desde m1, empezando por m2, m3 y m4, se hanreconocidos porque 4 es de nuevo un acuse de recibo acumulativo.Así que, en esta etapa, había un tiempo de espera para el mensaje m2 para el queno ha recibido el acuse de recibo y vuelve a transmitir ese mensaje. Por lo tanto, B ha recibidom2, m3 y m4. Por lo tanto, B ha enviado un acuse de recibo 4 con espacio de almacenamiento intermedio 0. Por lo tanto,con este espacio de almacenamiento intermedio 0, ¿qué reconoce A? El A está reconociendo que este mensaje en particular de, todo el mensaje ha sido recibido por B, pero no tiene ningún espacio de almacenamiento intermedio dedisponible; es decir, la aplicación no ha leído esos datos. Ahora una vez que la aplicaciónha leído esos datos, A envía otro acuse de recibo diciendo que el número de acuse de recibo dees el mismo número de acuse de recibo 4, pero que anuncia el espacio de almacenamiento intermedio decomo 1.Por lo tanto, en esta etapa, A pone a disposición un espacio de almacenamiento intermedio, B hace que 1 espacio de almacenamiento intermedio esté disponible paraA diciendo que puede enviar un mensaje más, un segmento más. Por lo tanto, aquí puede ver queuna vez que está anunciando el espacio de almacenamiento intermedio 0, después de eso, una vez que el espacio de almacenamiento intermedio pase a estardisponible, es necesario enviar otro acuse de recibo, de lo contrario, el remitente se bloquearáen esta etapa porque el remitente; una vez que obtenga que el espacio de almacenamiento intermedio es 0, no enviarámás datos.Por lo tanto, es que se bloqueará aquí. Así que, de esa manera las cosas siguen adelante continúa. Por lo tanto, aquíen este caso, A A envía los datos y se bloquea y luego obtiene un númerode acuse de recibo con el espacio de almacenamiento intermedio 0, aquí A sigue bloqueado, A A puede enviar obtener otro mensaje decon el espacio de almacenamiento intermedio disponible.Así que, aquí puede ver que bien, puede que en algún momento suceda que debido a queestá enviando este anuncio que no tiene suficiente espacio de almacenamiento intermedio de, hay un posible punto muerto posible en el lado del remitente, porque el remitentepuede averiguar o el remitente puede pensar en que no hay más espacio disponible en el lado del receptor. Ahora, para evitar esto en particular, ¿qué tiene que asegurar? Debe asegurarse de que los reconocimientos deestán fluyendo en la red de forma continua. Por lo tanto, en este ejemplo deen particular, si sucede que bien inicialmente, ha anunciado que el espacio de almacenamiento intermedio es 0,entonces B envía otro acuse de recibo diciendo que el espacio de almacenamiento intermedio está disponible, perode alguna manera este acuse de recibo se ha perdido.Por lo tanto, debido a que este reconocimiento se ha perdido, el sistema puede llevar a un punto muerto a menos que Benvíe otro acuse de recibo después de que obtenga un tiempo de espera excedido. Por lo tanto, es necesario indicar explícitamente a Aque ahora hay suficiente espacio de almacenamiento intermedio disponible. Por lo tanto, A podrá enviar más datos. Por lo tanto, enese caso en particular, debe asegurarse de que después de cada tiempo de espera, B debe si B no estárecibiendo más datos de A y la conexión sigue abierta. Por lo tanto, B debe enviar el acuse de recibo duplicado deanunciando que tiene suficiente espacio de almacenamiento intermedio para recibirdatos adicionales, de lo contrario, existe la posibilidad de tener un punto muerto en caso de que se pierda el acuse de recibo de.Ahora, veremos otro aspecto importante de la capa de transporte al que llamamos como el control de congestión de. Entonces, ¿qué es ese control de la congestión? Por lo tanto, inicialmente piensa en un escenario de red centralizado de. Por lo tanto, cada nodo tiene un borde. Hay un borde entre 2 nodosy tenemos una espera de borde.Por lo tanto, esta espera de borde significa que cuál es la capacidad de ese enlace en particular, por ejemplo, sienviar algunos datos S a D, en ese caso, si desea averiguar que cuál sería la capacidad dede ese flujo, cuál sería la capacidad máxima de ese flujo.Por lo tanto, puede aplicar este teorema de corte mínimo de flujo mínimo que está siendo cubierto en el curso algorítmico de. Por lo tanto, puede aplicar el flujo máximo en el teorema de corte y desde el máximo de flujo demin teorema se puede averiguar cuál es el corte mínimo aquí. Así que, sólo mirandoal escenario, este parece ser el recorte mínimo porque este es el corte mínimo. Por lo tanto,puede enviar un flujo máximo a la velocidad de 6 más 4 más 10 más 2, 12.Por lo tanto, puede enviar un dato a la velocidad de si envía un pensamiento como la unidad como Mbps, por lo que puedeenviar los datos a una tasa de 12 mbps de S a D. Ahora si tiene este tipo de escenario decentralizado, puede aplicar este tipo de algoritmo, este tipo de mecanismo para restringir la velocidad de flujo dea 12 Mbps, pero si no está ahí, ¿cómo podráencontrarlo?Ahora, el algoritmo de control de flujo no podrá garantizar que su transmisión seasiempre restringida a 12 mbps porque está recibiendo la tarifa de varias vías de acceso y la cosaestá restringida a este tamaño de segmento máximo que es un cálculo aproximado quehemos visto anteriormente. Por lo tanto, debido a que puede suceder que en un escenario distribuido,el remitente puede impulsar más datos en comparación con esta capacidad de cuello de botella de 12 Mbps que esen esta red en particular. Por lo tanto, esta capacidad es la capacidad de cuello de botella. Por lo tanto, sidesea enviar algunos datos de S a D incluso si no hay otros flujos en la red,nunca podrá lograr más de 12 mbps.Ahora, el escenario se complica más si tiene varios flujos, si piensa quehay otro flujo de este S 1 a D 1, que también utilizará estos enlaces a estos enlaces individuales deen la red, puede pensar que hay un enlace de aquí a aquí con la capacidadde 4. Ahora utilizará este enlace en particular. Ahora este flujo puede pasar por cualquiera deeste enlace y habría este tipo de solapamiento entre los flujos de extremo a extremoy compartirán la capacidad en este enlace de cuellos de botella.Por lo tanto, todo esto es difícil de implementar en una red real, porque en una red real,hay que implementarlo de una manera distribuida. Por lo tanto, en ese concepto concreto, la congestión depuede producirse en la red en la que este cuello de botella se enlaza en el enlace de cuello de botella,está intentando más que la capacidad del enlace de cuello de botella en particular. Ahora, sidesea enviar más datos en comparación con el enlace de cuello de botella, la capacidad del enlace de cuello de botella,qué pasará con el almacenamiento intermedio intermedio en los nodos, se llenarán,experimentará una pérdida de paquetes, lo que reducirá el retraso de la transmisión final oque llenaría el aumento del retraso de la transmisión final de forma significativa.Buffer Management and Congestion Control-Parte 2
Por lo tanto, desde aquí veamos cómo cambia el ancho de banda al asignarmás flujos entre el mismo par de destino de origen. Por lo tanto, inicialmente dice que su asignación de ancho de bandalo estamos normalizando en 1 mbps. Por lo tanto, inicialmente si tienes un solo flujo, así quesolo pensamos en una red como esta. Por lo tanto, usted ha dicho que esta red y usted sonenviando un solo flujo de esta fuente a S1 a destino D1 y asumir que esta capacidad de enlace de cuello de botella dees de 1 Mbps.Ahora, si ese es el caso, entonces una vez que esté iniciando el flujo 1, entonces el flujo 1 será capaz de utilizartodo este ancho de banda de 1 mbps que está ahí en este enlace de cuello de botella. Ahora dice después de un tiempo dede nuevo que usted comienza otro flujo de este S2 a D2. Esto es el flujo 2.Ahora, si se inicia, esta capacidad de enlace es de 1 mbps. Por lo tanto, este enlace está siendo compartido portanto F1 como F2. Por lo tanto, lo ideal es lo que debería suceder que bien cada vez que esté iniciando este flujo en particular de, será todo el ancho de banda que el ancho de banda del enlace de cuello de botella serádividido entre F1 y F2. Por lo tanto, todo el mundo obtendrá aproximadamente el flujo 1 y el flujo 2obtendrá aproximadamente 0,5 mbps de velocidad, si su velocidad de envío es superior a 0,5 mbps.Por lo tanto, en ese caso, toda esta capacidad de cuello de botella se divide entre el flujo 1 y el flujo 2 ydespués de que en algún momento diga que ha iniciado otro flujo, el flujo 3 que ha requerido quecuyo ancho de banda necesario es poco menor, diga que su ancho de banda necesario es algo cercano adecir 100 kbps. Si ese es el caso, arrastrará este ancho de banda de 100 kbps desde aquí y luegoel ancho de banda restante se compartirá entre el flujo 1 y el flujo 2, y el flujo 1 y el flujo2 están utilizando tanto este ancho de banda de cuello de botella.Ahora, después de algún tiempo si el flujo 2 se detiene, entonces el flujo 1 dice que el flujo 2 se detiene, el flujo 2 flujo 2finaliza, en ese momento el flujo 1 obtendrá el ancho de banda que está cerca de 900 m, 900 kbps y el flujo1 está utilizando unos 100 kbps. De este modo, toda esta asignación de ancho de banda entremúltiples flujos de almacenamiento intermedio múltiple se cambia con el tiempo.(Consulte el tiempo de la diapositiva: 20:59)Por lo tanto, en este contexto, la congestión que hemos discutido el algoritmo controlado por congestión enla red. Por lo tanto, este algoritmo de control de congestión, es necesario porque estos flujosentran y salen de la red dinámicamente, el ejemplo que hemos visto y debido a esta razón, la aplicación de un algoritmo para el control de la congestión en la red es difícil porqueno tiene esta información de red centralizada, como el primer ejemplo que hemostrado donde puede aplicar este teorema de corte min para averiguar el flujo máximoentre un origen y un destino.El escenario es mucho más difícil aquí porque cada router individual no tienetoda esta red La información, incluso el host final, no tiene toda la información de redy una forma distribuida o descentralizada que tiene que asignar los flujosentre las tasas de flujo entre los distintos flujos de final a fin. Por lo tanto, aplicamos algo llamado algoritmo de evitación de congestión deen lugar de un control de congestión porque la estimación de congestión dees difícil. Así que, en lugar de ir por el control de la congestión, vamospara evitar la congestión.Por lo tanto, la evitación de la congestión es que siempre que hay una congestión, se detecta que la congestión dey luego tratar de salir de esa congestión. Entonces, ¿cómo va a hacer eso? Por lo tanto,regula la tasa de envío basada en la base de lo que la red puede soportar. Por lo tanto, la tasa de envío deahora es el mínimo de algo llamado tasa de red y la tasa de receptor. Por lo tanto, antes su tasa de envío era igual a la tasa de receptor.Así que, basándose en el anuncio de buffer que fue dado por el receptor, usted está controlandosu tamaño de ventana y usted está enviando los datos a esa tasa en particular. Ahora usted es la tasa de envío deserá el mínimo de su tasa de red, lo que la red puede soportary lo que el receptor puede soportar. Por lo tanto, esta velocidad de red, la velocidad de receptor que viene del algoritmo de control de flujo de. Por lo tanto, el mismo viene del tamaño de la ventana del anuncio del receptor para un control de flujo basado en la ventana deslizante de. Por lo tanto, el receptor está publicitando esa información deen particular y esta tasa de red no tiene ningún control sobre la tasa de red oen lugar de decir que no tiene ningún mecanismo de estimación sobre la tasa de red. Por lo tanto, quépuede hacer para aumentar gradualmente este componente de velocidad de red y observar el efectoen la velocidad de flujo. Por lo tanto, lo ideal es lo que puede suceder en caso de red con cable, si ustedasume que la pérdida debida al error de canal es muy inferior; eso significa, si hay una pérdida dela red que la pérdida viene debido al desbordamiento del búfer en los routers intermedios.Ahora si ocurre el desbordamiento del buffer que da una indicación de que, bien la tasa de entrada totalal buffer excede la tasa de salida total de ese buffer.Así que, como un ejemplo, si usted sólo piensa en una cola intermedia intermedia intermedia queestá recibiendo datos de múltiples flujos y hay alguna tasa de salida que la tasa de salidapuede también ser múltiple. Por lo tanto, suponga que la tasa de entrada total es λ y la tasa de salida total es μ.Ahora si el λ es más que mu, esto indica que después de algún tiempo el almacenamiento intermedio se llenaráy una vez que el almacenamiento intermedio se llenará habrá una caída de paquetes del almacenamiento intermedioy se experimentará una pérdida.Por lo tanto, se producen las mismas cosas en el caso de la red y estamos detectando una congestión dede esta pérdida de paquete porque la pérdida de paquetes proporciona una indicación de que el almacenamiento intermedioque tiene, ese almacenamiento intermedio se está superando.Así que lo identifica como una congestión y vuelve a bajar la tasa de red. Por lo tanto, la amplia idea dees que gradualmente aumente la tasa de red en algún momento, usted experimentará,la pérdida de paquetes en el momento en que usted está experimentando la pérdida, entonces usted baja la tasa y otra vezaumentar la tasa y de nuevo siempre que usted ’ ll obtener una pérdida, usted bajará la tasa. Por lo tanto, esa maneraaplicamos el algoritmo de control de la congestión en la red.Ahora, la pregunta viene aquí que cómo va a aumentar la tasa. Por lo tanto, vemos que los primerosqueremos ver el impacto de la congestión de la red por encima de la buena puesta y el retraso. Por lo tanto, lo que vemoses que si usted mira en la red el bien puesto que el número de paquetes por segundo queestán recibiendo en la capa de transporte y con la carga ofrecida. Por lo tanto, tiene una capacidad máxima de. Por lo tanto, normalmente lo que sucede tan bien la tasa se incrementa hasta la capacidad máxima de.Pero en este momento hay esta congestión, se ve una cierta caída en el buen putporque sus paquetes se están bajando y si los paquetes se están bajando, el algoritmo de control de flujointentará retransmitir los paquetes. Por lo tanto, usted recibirá una cierta caída aquí,nosotros llamamos que el colapso de la congestión. Ahora, cuando se produce el colapso de la congestión,experimenta un aumento significativo en el retraso.Debido a que los paquetes se están bajando, el control de flujo está intentando retransmitir el paquete,si en ese momento el enlace no puede salir de la congestión, de nuevo ese paquete deretransmitido caerá en la congestión y hay una alta probabilidad de que el almacenamiento intermedio todavía esté llenoy el paquete se puede eliminar. Por lo tanto, debido a eso, el final total de la entrega final del paquete exitoso deque puede disminuir.Así que, para garantizar el control de la congestión en la red, necesitamos asegurar otra cosa quellamamos como la equidad. Por lo tanto, lo que es justo, la equidad asegura que la tasa de todos los flujos deen la red sea controlada de una manera justa. ¿Qué es lo que significa eso? Ahora, el mal algoritmo de control de congestión depuede afectar a la equidad; es decir, algunos flujos de la redpueden verse afectados. Por lo tanto, porque debido a que está fluyendo en la congestión, sólo se puede pensarde un escenario en una red de carreteras, si se está cayendo en una congestión, si un coche está cayendo en una congestión de, por lo que el coche puede tener una mala suerte o tener un gran retraso para llegar al destino de. Por lo tanto, lo similar puede suceder en la red que algunos flujos pueden tenerde hambre.Ahora en una red descentralizada, garantizar la justicia dura es muy difícil porqueotra vez requiere toda la información de la red y quiere hacer algún cálculo matemáticopara averiguar este corte mínimo de ese teorema de corte min, lo que sería la capacidad disponible dey restringir el ancho de banda a esa capacidad en particular. Por lo tanto, veamos un ejemplo de máxima asignación justa mínima. Por lo tanto, en este ejemplo particulartenemos varios flujos aquí. Por lo tanto, puede ver que esta es la capacidad de cuello de botella donde 3 flujos deestán compartiendo el enlace. Por lo tanto, 3 flujos están compartiendo el enlace significa que cada uno de ellos obtendráun tercio del ancho de banda. Por lo tanto, este enlace concreto es compartido por el número máximo de flujos de.Por lo tanto, esto es compartido por 3 flujos que es compartido por 2 flujos, esto es compartido por 2 flujos y esto escompartido por un flujo. Así que, aquí está el cuello de botella. Por lo tanto, cada uno de ellos obtendrá un tercio del ancho de banda desi están obteniendo un tercio del ancho de banda, el flujo que es este flujonúmero D, utilizará un tercio del ancho de banda, este número de flujo C y utilizará elun tercio del ancho de banda. A continuación, el flujo B que se está moviendo desde aquí debido a esta capacidad de cuello de botella de, está utilizando un tercio del ancho de banda. Por lo tanto, utilizará un tercio del ancho de banda deen este enlace. Por lo tanto, en este enlace la capacidad restante es de 2 terceros. Por lo tanto, este flujo A,puede utilizar el 2 tercio del ancho de banda. Por lo tanto, este es el máximo algoritmo de feria min, ya que sidesea aumentar el ancho de banda de este de un tercio para el flujo B, si deseaancho de banda de un tercio tiene que disminuir el ancho de banda de flujo A.Del mismo modo, si desea aumentar el ancho de banda para el flujo C o el flujo D porque puedever que en este enlace la capacidad total que se está utilizando dos terceras partes, no está utilizando la capacidad completa deaquí también, no está utilizando la capacidad completa y sólo tomando esto sidesea aumentar la capacidad de cualquiera de este enlace debido a esta capacidad de cuello de botella distribución, tiene que disminuir la capacidad de dicho flujo B. Por lo tanto, esta asignación deen particular es una asignación mínima de mínimo.Ahora, de forma distribuida, podemos garantizar una asignación máxima mínima mediante la aplicación de este algoritmo deAIMD. Por lo tanto, lo llamamos el algoritmo como aditivo aumento multiplicativo disminuciónque fue propuesto por Chiu y Jain en 1989. Por lo tanto, el algoritmo es algo así.Por lo tanto, si usted está haciendo como un aumento de aditivo seguido de una disminución multiplicativa gananciaun aumento de aditivo seguido por una disminución multiplicativa y ambos los usuarios están siguiendoeste principio, gradualmente, llegarán al punto óptimo de manera similar si usted comienza deaquí usted hace un aumento de aditivo y luego hacia este punto central hacer una disminución multiplicativa dede nuevo hacer un aumento de aditivo hacer una disminución multiplicativagradualmente se moverá hacia este punto óptimo.Así que, de esa manera este algoritmo de AIMD aumento del aditivo en 45 grados y la disminución multiplicativahacia los puntos de la línea a origen, si usted aplica este algoritmo en particular, usted puedeconverger hacia el punto óptimo. Por lo tanto, este algoritmo en particular es utilizado por TCP para ajustarel tamaño de la ventana deslizante para controlar las tarifas que se verán en los detalles en algún momentomás tarde. Bueno, por lo tanto, en esta conferencia en particular tienes la amplia visión general sobre el algoritmo de controlde la congestión y con esta conferencia, hemos cubierto los servicios básicos que se están ofreciendoen la capa de transporte.Así que, en el próximo conjunto de conferencias, vamos a ver más detalles de la capa de transporte desdela perspectiva del protocolo, y también vemos en que cómo estos diferentes servicios pueden serjuntos para construir los servicios finales.Así que gracias a todos por asistir, esperamos que nos encontremos en la próxima clase.