Libro Análisis de Redes
Libro Análisis de Redes
Libro Análisis de Redes
Análisis de redes y
sistemas de comunicaciones
POLITEXT
Análisis de redes y
sistemas de comunicaciones
EDICIONS UPC
La presente obra fue galardonada en el octavo concurso
"Ajut a l'elaboració de material docent" convocado por la UPC.
Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del copyright, bajo las san-
ciones establecidas en las leyes, la reproducción total o parcial de esta obra por cualquier medio o pro-
cedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares de
ella mediante alquiler o préstamo públicos.
Prólogo 7
Prólogo
Esta obra que está en sus manos es fruto del reto de cubrir un hueco bibliográfico en la descripción de
las redes de comunicaciones y en la aplicación de herramientas para su análisis.
En el ánimo de los autores se encuentra ofrecer una visión descriptiva y general de las tecnologías de
red actuales, contemplando la tan frecuentemente olvidada vertiente analítica, indispensable tanto para
la comprensión del funcionamiento de los sistemas como para su correcto dimensionado.
Es por este motivo que este libro se estructura del siguiente modo: un capítulo inicial para presentar
los conceptos y definiciones fundamentales en el área de las redes telemáticas, que permite introducir
en el siguiente la descripción de los principales métodos y algoritmos de las modernas tecnologías
(que por avanzadas que sean, siempre tienen fecha de caducidad). Se dedica un capítulo a las
herramientas de análisis basadas en la teoría de colas, cuyos modelos permiten el estudio de todas
estas tecnologías, con instrumentos de trabajo perennes en el tiempo. No se pasan por alto los métodos
de acceso tradicionales, ni tampoco las redes de banda ancha, con especial atención a los problemas
específicos a los que están enfocadas y las soluciones que aportan.
Confiamos en que los esfuerzos dedicados a la culminación de este libro sean útiles tanto a estudiantes
de los últimos cursos de ingeniería especializada en telemática como a jóvenes estudiantes de
doctorado, que buscan comprender los fundamentos de las redes de comunicaciones y conocer las
principales herramientas de análisis para abordar el problema de estudio del comportamiento de un
determinado sistema o red.
Las tecnologías de red nacen, se desarrollan y acaban por desaparecer. Algunas, como Ethernet,
parecen revitalizarse día a día, lejos de seguir la suerte de muchas otras contemporáneas suyas que ya
están casi olvidadas. Sin embargo, los conceptos de red perduran. El lector encontrará en estas páginas
implementaciones y análisis, las primeras sufriendo el paso del tiempo, pero las segundas mostrando
metodologías de análisis que se va aplicando y se podrán aplicar a las tecnologías existentes y las que
están por llegar en el futuro.
Índice
PRÓLOGO............................................................................................................................................ 7
ÍNDICE.................................................................................................................................................. 9
1. INTRODUCCIÓN .......................................................................................................................... 13
1.1 DEFINICIONES BÁSICAS ........................................................................................................... 13
1.1.1 La codificación de canal ..................................................................................................... 13
1.1.2 La modulación de la señal................................................................................................... 15
1.1.3 Los medios de transmisión................................................................................................... 16
1.1.4 El multiplexado de la señal ................................................................................................. 20
1.1.5 Clasificación de la transmisión según su sentido ................................................................ 23
1.1.6 Transmisión síncrona/asíncrona ......................................................................................... 23
1.1.7 Capacidad de canal............................................................................................................. 23
1.2 CONCEPTOS BÁSICOS DE REDES DE COMUNICACIONES ...................................................... 24
1.2.1 Servicios orientados y no orientados a conexión ................................................................ 26
1.2.2 Tipos de redes según su capacidad de cobertura ................................................................ 26
1.2.3 Clasificación de las topologías de red................................................................................. 27
1.2.4 Clasificación de los tipos de conmutación de datos ............................................................ 28
1.2.5 Clasificación del tráfico en clases ....................................................................................... 30
1.3 CONCEPTOS BÁSICOS DE TELETRÁFICO................................................................................. 31
2. ARQUITECTURAS DE COMUNICACIONES .......................................................................... 33
2.1 PERSPECTIVA HISTÓRICA ........................................................................................................ 33
2.2 CONCEPTOS DE ARQUITECTURAS DE COMUNICACIONES .................................................... 34
2.3 ANALOGÍA DE UNA ARQUITECTURA DE COMUNICACIONES................................................ 37
2.4 EL MODELO DE REFERENCIA OSI DE LA ISO ......................................................................... 39
2.4.1 Introducción ........................................................................................................................ 39
2.4.2 Terminología OSI ................................................................................................................ 41
2.4.3 La capa física ...................................................................................................................... 42
2.4.4 La capa de enlace de datos ................................................................................................. 43
2.4.5 La capa de red ..................................................................................................................... 51
2.4.6 La capa de transporte.......................................................................................................... 56
2.4.7 La capa de sesión ................................................................................................................ 59
2.4.8 La capa de presentación...................................................................................................... 63
2.4.9 La capa de Aplicación ......................................................................................................... 71
1. Introducción
Este capítulo presenta brevemente los conceptos y términos más básicos relacionados con las redes y
sistemas de comunicación. Algunos de los conceptos se desarrollarán más ampliamente a lo largo del
libro.
Transmisión analógica: aquella que usa señales que toman valores continuos (de un conjunto infinito
de valores) a lo largo del tiempo (normalmente también continuo).
Transmisión digital: aquella que usa señales que toman valores discretos (de un conjunto finito de
valores) a lo largo del tiempo (dividido usualmente en unidades elementales iguales).
Codificación (de canal): mecanismo de conversión de una señal digital a otra también digital más
adecuada a un propósito determinado; generalmente para obtener alguna ventaja en su proceso de
transmisión. Así, por ejemplo, puede desearse:
De los muchos métodos de codificación existentes, presentaremos solamente dos para ilustrar la idea
de la codificación.
Supongamos una secuencia digital de datos a transmitir, es decir, de “ceros” y “unos” cuya duración
individual es el tiempo de bit (Tb).
La codificación NRZ (Non Return to Zero), que asigna un nivel de tensión bajo, digamos de V Volt, a
los “ceros” y un nivel de tensión alto, digamos de +V Volt, a los “unos”.
La codificación Manchester diferencial. Este mecanismo puede describirse mediante las dos reglas
siguientes: a) siempre existe transición (cambio de nivel bajo a alto o viceversa) en la mitad del bit; b)
existe una transición adicional al inicio del bit, si éste es un “cero”, no existiendo en caso de ser un
“uno”.
0 1 0 1 1 0 0 0 1
+V
NRZ
-V
+V
Manchester
diferencial
-V
Otra ventaja de la ausencia de componente continua en las transmisiones que usan códigos Manchester
diferenciales es la eliminación de fenómenos de corrosión electrolítica en los conectores y de fallos,
por tanto, en éstos (Recordemos que dos metales distintos puestos en contacto a través de cierta
humedad ambiental pueden originar fenómenos de descomposición electroquímica).
Pero quizás la mayor ventaja de usar el código Manchester sea la de la autosicronización (self-
clocking) a nivel de bit que proporciona. En efecto, usando códigos NRZ, largas secuencias de “ceros”
o “unos” consecutivos hacen difícil en el receptor determinar exactamente cuantos bits iguales se han
transmitido debido a las inevitables diferencias entre los relojes (los que definen el Tb) de transmisión
y recepción.
La solución a ese problema pasaría por utilizar una línea de transmisión adicional con la información
de reloj del transmisor o relojes extremadamente precisos (los llamados relojes atómicos, de cesio o
rubidio) y caros en los lados transmisor y receptor. Por el contrario, las señales codificadas según el
esquema Manchester, independientemente de la secuencia original, siempre presentan transiciones
frecuentes (al menos cada Tb s y, a veces, cada Tb/2 s) que permiten al receptor ajustar continuamente
el reloj con el que muestrea las señales recibidas.
Por último, también puede verse, tras cierta reflexión, que la información que transporta el código
Manchester diferencial está asociada a las transiciones y no a los valores, bajo o alto, de la señal. Es
decir, podríamos intercambiar sin ningún problema los hilos que llevan la señal. (Esto es
especialmente interesante en los actuales sistemas de cableado de red que usan líneas pares trenzados.)
Las ventajas del código Manchester diferencial respecto al código NRZ tienen su precio. Mientras el
ritmo máximo de variación de las señales codificadas en NRZ es una vez cada Tb s, dicho ritmo llega a
ser el doble en las señales codificadas en Manchester diferencial, es decir, cada Tb/2 s. Dicho de otro
modo, el espectro de potencia de las señales codificadas en Manchester diferencial se extiende a
frecuencias más altas. Dado que las líneas de transmisión responden peor a frecuencias elevadas, al
usar códigos Manchester tendremos más problemas (errores) al decodificar en recepción las señales, o
bien deberemos utilizar líneas de transmisión de mayor calidad (y, por tanto, mayor coste), o bien
limitar las distancias alcanzables.
Existen muchos otros códigos, cada uno de ellos orientado a obtener alguna ventaja durante la
transmisión de señales digitales a través de las líneas de transmisión. Los dos códigos presentados, sin
embargo, ilustran de forma bastante clara la idea y los objetivos que hay detrás de la función de
codificación.
La codificación descrita aquí se suele llamar codificación de canal para distinguirla de la codificación
de fuente. Esta última se aplica en un nivel superior, está íntimamente relacionada con la clase de
información a enviar (datos, sonidos, imágenes, …) y su función principal es la compresión (reducción
de la cantidad de bits necesaria para representar una información).
Se puede definir la modulación como el mecanismo de conversión de una señal, digital o no, en otra
analógica con el fin de obtener alguna ventaja en su transmisión o de separarla de otras señales dentro
de un mismo medio de transmisión.
La modulación se basa en la utilización de una señal portadora, generalmente una onda senoidal de
frecuencia más elevada o variación más rápida que la de la señal original. La modulación consiste en
la modificación de al menos uno de los parámetros (amplitud, frecuencia o fase) de la portadora como
función de la señal original. Así tendremos los siguientes tipos de modulación (para fuentes analógicas
o digitales, respectivamente):
Una característica del proceso de modulación es que, desde el punto de vista espectral, se produce una
translación en frecuencia (aparte de probable modificación) del espectro de la señal original; esto no
sucede en los procesos de codificación (donde sólo se produce una modificación, ensanchamiento o
reducción, del espectro original). Por ello, a veces, se verá la palabra broadband (banda ancha)
asociada a los sistemas donde se utilizan modulaciones, y baseband (banda base) donde se utilizan
codificaciones.
Los medios de transmisión son aquellas estructuras físicas que soportan la propagación de las ondas
electromagnéticas asociadas a los bits (o a señales analógicas, también) a enviar de un punto
geográfico a otro. Constituyen, por tanto, la infraestructura más básica de toda red de comunicaciones.
Con el fin de establecer algún criterio de cara a su clasificación y presentación, diremos que pueden
ser guiantes y no-guiantes.
c) línea coaxial
d) fibra óptica
línea paralela
línea coaxial
fibra óptica
a) Línea de pares paralela: formada por dos conductores que discurren próximos y
paralelamente. De bajo coste, ofrecen características de transmisión muy limitadas (cifras
meramente orientativas podrían ser: tasa de transmisión < 20 Kbit/s; distancia < 50 m). Sus
principales desventajas son la captación de ruido, el acoplamiento con otras líneas próximas
(diafonía) y las pérdidas por radiación a frecuencias elevadas. Ejemplos de utilización: el
interfaz local de datos EIA RS-232C, el bucle de abonado telefónico (último tramo).
b) Línea de par trenzado: formada por dos conductores trenzados (retorcidos) sobre sí mismo.
Su geometría cambiante reduce la captación de ruido, las pérdidas por radiación y la diafonía
entre pares cercanos. De bajo coste, ofrece mejores características de transmisión que la línea
de pares paralela (algunas cifras orientativas son: tasa de transmisión < 1 Mbit/s.; distancia <
100 m). Existen versiones de dicho tipo de línea sin pantalla (conductor cilíndrico que rodea
el par), llamados UTP (Unshielded Twisted Pair), y con ella, llamados STP (Shielded Twisted
Pair). Estos últimos ofrecen mejores características a un mayor coste. Ejemplos de
utilización: la planta de abonado de la red telefónica, los cableados estructurados en edificios
para comunicaciones de voz y datos.
c) Línea coaxial: formada por un conductor cilíndrico y otro conductor en el interior que
discurre axialmente al primero. Su geometría hace que el campo electromagnético quede
prácticamente confinado en su interior, reduciéndose grandemente la captación de ruido e
interferencias así como las pérdidas por radiación. El material dieléctrico existente entre
ambos conductores, necesario para mantener la estructura mecánica de la línea, influye
notablemente en sus características. Existen multitud de líneas coaxiales disponibles en el
mercado con prestaciones que aumentan con el grosor de los conductores y la bondad del
d) Fibra óptica: formada por una fibra (cilindro muy delgado) de vidrio silíceo cuyo índice de
refracción disminuye de forma abrupta o suave en sentido radial, desde el centro hacia la
periferia. Por ella se propaga, conducida por fenómenos de reflexión o refracción, una onda
electromagnética de frecuencia muy elevada (en el rango de las ondas luminosas, visibles o
no) actuando como portadora. Existen varios tipos de fibra óptica:
1. Multi-modo (de índice en escalón): constan de un núcleo y de una vaina, que rodea al
primero, cuyos índices de refracción son distintos (mayor el del núcleo que el de la
vaina). Para ciertos ángulos de incidencia de las ondas luminosas se produce el
fenómeno de “reflexión total” en la frontera núcleo-vaina, responsable del guiado de las
ondas en el sentido aproximadamente longitudinal de la fibra. En estas fibras el diámetro
del núcleo es mucho mayor que la longitud de onda (O) de la onda luminosa, por lo que
existen varios caminos posibles a lo largo de la fibra, es decir, múltiples modos de
propagación. Esto hace que en el extremo receptor se superpongan ondas luminosas que
han viajado distancias ligeramente distintas y, por tanto, con retrasos también distintos,
originándose una dispersión o ensanchamiento de los pulsos de luz transmitidos que
llegan a confundirse unos con otros cuando su tasa supera cierto valor (interferencia
intersimbólica). Algunas de la fibras de este tipo más usuales son las denominadas
62,5/125 y las 50/125 (números que expresan, en Pm, el diámetro del núcleo y la vaina
respectivamente). Unas cifras orientativas en cuanto a prestaciones podrían ser: tasa de
transmisión < 200 Mbit/s; distancias < 2 km.
multi-modo
mono-modo
2. Mono-modo: en estas fibras el diámetro del núcleo es de unas pocas veces la O de la onda
luminosa que se propaga por ellas (del orden de 8 a 12 Pm). Esto hace que las ondas se
propaguen de forma más rectilínea, básicamente por un único camino o modo de
3. A medio camino entre los dos anteriores tipos de fibra tenemos las multi-modo de
gradiente de índice. Como su denominación indica, el índice de refracción disminuye de
forma suave desde el centro hacia la periferia de la fibra, siendo la luz guiada por
fenómenos de refracción que tienden a curvar los haces luminosos hacia el centro de la
fibra cuando aquellos se alejan de éste.
Los elementos usados para la generación y la detección de la portadora óptica son principalmente
dispositivos de estado sólido (uniones semiconductoras). En el proceso de transmisión (conversión de
la señal eléctrica en óptica) se utilizan:
a) diodos LED (light-emitting diode, diodo electro-luminiscente): de bajo coste, pero ofreciendo
una fuente de luz de baja pureza espectral (emiten luz en un rango relativamente amplio de Os),
lo que aumenta la dispersión de los pulsos recibidos. Suelen emplearse con las fibras más
sencillas multi-modo.
Las frecuencias de emisión de los dispositivos anteriores caen en la región del espectro de luz no
visible del infrarrojo, siendo la banda más usada la de O=850 nm. Más recientemente se vienen usando
las bandas de menor frecuencia de 1350 y 1500 nm, que presentan mejores características de
propagación.
Los medios de transmisión de fibra óptica presentan actualmente las mejores prestaciones, en cuanto a
capacidad y distancia, para el transporte de la información. Otra característica favorable es su
prácticamente total ausencia de radiación y captación de cualquier energía electromagnética (eléctrica
u óptica). Su principal desventaja es su coste debido, en gran parte, no a la fibra en sí sino a la
complejidad de unión de las fibras (soldaduras y conectores) y a una instalación y mantenimiento más
complicados por su fragilidad. Algunos ejemplos de aplicación serían: enlaces troncales de elevada
capacidad y distancia en redes extensas de telefonía y datos, redes metropolitanas de difusión de video
y datos, enlaces entre redes locales, etc.
Algunas características específicas de este tipo de medio de transmisión son que existe un único medio
que debe ser compartido por todos los procesos de transmisión que se desarrollan en una cierta zona
espacial que, a su vez, no tiene límites claramente definidos; la transmisión por este tipo de medios
está sujeta a mayores problemas (de ruido, interferencia, atenuación, dispersión por caminos múltiples,
etc.) que cualquier otro medio; su capacidad está limitada, es decir, no puede aumentarse
sencillamente como sucede en los otros tipos de medio (para los que siempre pueden instalarse más
líneas de par trenzado o fibras ópticas, por ejemplo); en relación con lo anterior, la capacidad
disponible debe repartirse cuidadosamente entre las diferentes transmisiones asignándoles fracciones
del espectro y del espacio difíciles de planificar y mantener.
a) Ondas de radio con frecuencias por debajo de 1GHz: difusión de información de audio y vídeo,
telemetría/telemando, servicios de voz y datos en sistemas de telefonía móvil celular, etc.
b) Ondas de radio por encima de 1 GHz: enlaces punto a punto y de difusión de información,
tanto vía satélite como terrestres, redes locales sin hilos, etc.
c) Ondas en el rango de frecuencias óptico: enlaces entre puntos con visibilidad directa entre ellos
de corta y media, redes locales sin hilos, telemando, etc.
El Multiplexado es el método por el cual pueden transmitirse varias señales (canales) por un único
medio físico de transmisión. Existen básicamente dos métodos:
Como se vio, la modulación supone una traslación del espectro de las señales. De este
modo las distintas señales, aunque simultáneas en el tiempo, quedan separadas desde el
punto de vista frecuencial.
x F.P. x
S1 (t) Banda S1 (t)
F1 F1
F.P.
S2 (t) x x S2 (t)
Banda
6
F2 F2
F.P.
Sn (t) x x Sn (t)
Banda
Fn Fn
. . .
F
F1 F2 Fn
b) TDM (Time División Multiplexing): multiplexado por división en el tiempo. Las diversas
señales (digitales) se “trocean” en grupos de bits o bytes que se transmiten a mayor
velocidad que la original, unos tras otros y siguiendo un proceso cíclico. En este caso
cada una de las señales utiliza todo el ancho de banda disponible en el medio de
transmisión pero nunca coincidiendo en el tiempo. La estructura de bits que transporta un
“trozo” de cada una de las señales a multiplexar, y que se repite cíclicamente en el tiempo,
se denomina trama. Dentro de ella, el grupo de bits perteneciente a una misma señal se
denomina ranura (slot). Dado que una trama debe contener los “trozos” de información
de todos los N canales a multiplexar en el mismo tiempo original, ésta tendrá una
velocidad (en bit/s) N veces superior al de las señales originales (en realidad algo superior
dado que las tramas suelen incluir bits adicionales para la sincronización, la supervisión y
el control de errores). Puede decirse que las técnicas de TDM son básicamente digitales y
para señales digitales, y su coste y complejidad son reducidos (dado el menor coste de los
circuitos integrados digitales). Un ejemplo de utilización de técnicas de TDM se
encuentra en la inmensa mayoría de los enlaces troncales de alta velocidad en redes de
área extensa de telefonía y datos y el acceso a la RDSI.
El acceso básico a la RDSI, también llamado 2B+D, está construido por el multiplexado
de 2 canales B (para tráfico de voz y datos) de 64 kbits/s cada uno y un canal D (para
señalización usuario-red y datos a baja velocidad) de 16 kbit/s. El acceso primario a la
RDSI se realiza alrededor de un enlace E1 con algunas modificaciones.
s1(n) s1(n)
s2(n) s2(n)
sn(n) sn(n)
. . . sn s1 s2 . . . sn s1 s2 . . . sn s1 . . .
T
En función de los parámetros “sentido” de una comunicación y tiempo, las transmisiones pueden
clasificarse en:
a) Simplex: cuando se dan siempre en un solo sentido; por ejemplo, aquellas asociadas a los
servicios de difusión (TV, radio) y de mensajería (busca-personas).
b) Semi-duplex: cuando pueden darse en ambos sentidos pero no al mismo tiempo; por ejemplo,
las comunicaciones entre radioaficionados y las de los walkie-talkies.
Por el contrario, la transmisión es síncrona cuando siempre existe una coordinación temporal precisa
entre emisor y receptor y los caracteres se transmiten contiguamente sin ningún bit adicional de
sincronización (aun en el caso de que no hayan caracteres a transmitir, la sincronía se mantiene y es
frecuente que se envíen continuamente bits llamados de “relleno”.)
La capacidad de canal es una medida de la cantidad de información que puede llevar un canal de
comunicaciones; por ejemplo, el ancho de banda (en Hz) constituiría una medida analógica y la tasa de
bit (en bit/s) una medida digital. Detrás de este concepto existe un aparato científico-tecnológico muy
importante y extenso (cuya presentación ocuparía más de un libro como el presente). Se darán, por
tanto, unas breves “pinceladas” sobre dicho tema.
B, ancho de banda de la señal transmitida (en Hz) que, para aprovechar el canal, se hace
coincidir con el de éste
N, potencia de ruido (en W), usualmente considerado de tipo gaussiano (térmico, aleatorio,
de espectro de potencia plano)
En total ausencia de ruido, por un canal de ancho de banda B finito y empleando señales de
potencia finita puede transmitirse a velocidad arbitrariamente alta (RÆ) usando un
esquema de codificación con muchos niveles (AÆ).
Teorema de Nyquist: Dada una señal analógica de ancho de banda B que deba ser digitalizada
para su transmisión, es suficiente que sea muestreada a 2B muestras/s para poder
restituirla con toda fidelidad. Por ejemplo, las señales de voz del servicio de telefonía,
que no pretende ser de alta fidelidad, sino simplemente de alta inteligibilidad, son
usualmente muestreadas a 8 Kmuestras/s lo que teóricamente garantiza que dichas
señales puedan tener un ancho de banda de hasta 4 kHz.
Relación de Shannon: C § S·
B log 2 ¨1 ¸ (bits/s). Esta importante relación nos indica la
© N ¹
capacidad máxima de un canal de comunicación de ancho de banda B en presencia de
ruido gaussiano (de potencia N) y empleando señales de potencia S. Dicha relación es
una cota superior para cualquier esquema de codificación/modulación realizable
actualmente o en el futuro, por sofisticado que sea.
nodos conmutación
equipos terminales
Un servicio de telecomunicación es el valor añadido que percibe el usuario; por ejemplo: telefonía,
facsímil (fax), transmisión datos (módem) entre computadores. Obsérvese la diferencia entre servicio y
red; los tres servicios citados anteriormente son habitualmente soportados por la red telefónica
tradicional (aunque esta fuera inicialmente diseñada y optimizada para soportar el servicio de
telefonía) y cabría pensar en redes más adecuadas para soportar los dos últimos servicios. En relación
con los servicios, en ocasiones se habla de:
b) Servicios portadores: aquellos que se ofrecen entre puntos de acceso a la red, no entre
terminales. Retomando los ejemplos anteriores, puede decirse que el servicio portador de la
red de telefónica tradicional es aquel que permite el envío, entre puntos situados
prácticamente en cualquier lugar del globo terráqueo, de señales analógicas en el rango de
frecuencias comprendido entre 300 y 3.400 Hz, en modo full-duplex, con retardo inferior a
unos 200 ms y con una distorsión y adición de ruido determinados. Evidentemente este
servicio portador es el más adecuado para ofrecer el teleservicio de telefonía aunque, con el
uso de módems, se adapte al ofrecimiento de otros teleservicios, como se ha comentado
anteriormente.
RED
servicio portador
teleservicio
Los servicios también pueden clasificarse según la forma en que se establecen y finalizan. Así puede
hablarse de:
a) servicios orientados a conexión: aquellos que requieren una fase de establecimiento (antes
de estar disponibles) y una de finalización. Por ejemplo, el servicio de telefonía requiere de
una fase de establecimiento (en la que se especifica la dirección del destino, se analiza la
viabilidad de establecer el servicio, se reservan los recursos necesarios en la red, se notifica
al destinatario, etc.). A esta fase le sigue la de transferencia (en la que se ofrece el servicio
propiamente) y, después, la fase de liberación (en la que se desocupan los recursos
reservados en la red, se almacenan los datos de facturación del usuario, etc.).
Aunque puedan establecerse multitud de criterios, las redes se clasifican tradicionalmente según tres
parámetros: velocidad de acceso, distancia cubierta y tipo de propiedad/explotación. Así tenemos:
a) WAN (Wide Area Networks): Las redes de área extensa comúnmente se caracterizan por
tener una velocidad de acceso moderada (de 1 a 64 kbit/s; o hasta 2 Mbit/s.), distancias
cubiertas grandes (de 100 a 20.000 km) y propiedad pública (en el sentido de que los
territorios por donde se despliega la red son varios, de propietarios distintos, incluidas las
administraciones públicas. Antes del fenómeno de la “liberalización” de hace algunos años
en España, la propiedad y explotación eran enteramente públicas). Ejemplos de este tipo de
redes son: la red telefónica tradicional y la RDSI, las redes públicas de datos con estándar
de acceso X.25 (en retroceso), internet, etc. En algunos casos, se comprende también a los
troncales de red, que pueden alcanzar velocidades de los centenares de Gbit/s mediante
tecnologías tales como DWDM.
b) LAN (Local Area Networks): Las redes de área local tradicionales se caracterizan por tener
velocidades de acceso elevadas (de 0,2 a 16 Mbit/s; o hasta 1000 Mb/s si se incluyen las
variantes más recientes), distancias cubiertas reducidas (de 200 m a 5 km) y
propiedad/explotación privada (en el sentido de que la infraestructura de red usualmente
pertenece a la organización a la que da sus servicios, se despliega en territorios de su
propiedad y es explotada por la misma). Ejemplos de este tipo de redes son: Ethernet (IEEE
802.3), Token Ring (IEEE 802.5), AppleTalk (norma propietaria en declive), etc.
c) MAN (Metropolitan Area Networks): Las redes de área metropolitana se caracterizan por
tener velocidades de acceso muy elevadas (de 30 a 150 Mbit/s y en la actualidad hasta los
10 Gbit/s), distancias cubiertas medianas (10 a 50 km, las correspondientes a una ciudad y
su área de influencia) y propiedad/explotación a medio camino entre lo público y lo
privado. Dichas redes, aparecidas en la década de 1990, eran tecnológicamente avanzadas y
su lugar actualmente es algo difuso, confundiéndose con las nuevas redes de área local y
extensa de alta velocidad. Ejemplos de este tipo de redes son: DQDB (Dual Queue Dual
Bus) (IEEE 802.6), FDDI (Fiber Distributed Data Interface), etc.
Velocidad (bit/s)
10E6 LAN
WAN
10E4
PABX
10E2
Fig. 1.10 Ámbito de aplicación de los distintos tipos de redes según los parámetros de velocidad y cobertura
La topología (de red) es la disposición lógica de los elementos (enlaces, nodos) de una red. Así
pueden definirse diversos modelos de topologías básicas:
a) Malla: Los distintos nodos están más o menos densamente unidos entre sí por enlaces directos
(en general, de forma arbitraria y sin seguir ninguna jerarquía particular). Cuando cualquier
nodo está unido directamente a todos los demás mediante un enlace directo, se dice que la red
presenta una topología de malla completa.
c) Árbol: Los distintos nodos están distribuidos en forma de ramificaciones sucesivas a partir de
un único nodo raíz.
d) Bus: Todos los nodos están unidos por un único enlace común.
e) Anillo: Los nodos están unidos en cadena, uno tras otro, cerrándose ésta sobre si misma (de
manera circular).
a) a’) b)
c) d) e)
Fig. 1.11 Topologías de red a) malla, a’) malla completa de 4 nodos, b) estrella, c) árbol, d) bus, e) anillo
La conmutación permite la entrega de información desde un nodo origen hasta un destino a través de
un medio compartido, gracias a los nodos intermedios que actúan como elementos activos en el
encaminamiento de la información, dirigiendo los datos. Existen diversas técnicas para llevar a cabo
esta tarea, como son la conmutación de circuitos, de paquetes y de celdas, así como variantes
específicas que a continuación son descritas.
a) Conmutación de circuitos: Modo de operación de una red en el que la comunicación entre dos
terminales se produce a través de caminos establecidos al inicio de la comunicación, que no
varían durante ésta y que se dedican en exclusiva a ella. Los caminos se construyen al inicio de
la comunicación, por conmutación electro-mecánica o electrónica en los nodos intermedios,
concatenando una serie de circuitos físicos (por ejemplo, una línea de par trenzado dentro de un
cable de pares, un canal en un sistema de FDM o TDM, un canal de radiofrecuencia en el
espacio o un canal luminoso en una fibra óptica). Las características más relevantes de las
comunicaciones establecidas en este modo de operación son: a) su ancho de banda (B), o
velocidad de transmisión (R), es fijo; b) su retardo (T) es bajo y constante. Dada la reserva
exclusiva de recursos de red que implica, la conmutación de circuitos resultará rentable cuando
se éstos aprovechen enteramente, es decir, para flujos continuos de datos. El ejemplo más claro
e importante de este modo de operación lo constituye la red telefónica bajo los estándares del
ITU-T (con sus circuitos digitales full-duplex a 64 kbit/s dedicados a cada llamada telefónica).
b) Conmutación de paquetes: Modo de operación de una red en el que la comunicación entre dos
terminales se produce mediante los paquetes (unidades de información formadas por grupos de
bits) que viajan a través de caminos, establecidos inicialmente o no, fijos o variables a lo largo
de la comunicación, compartidos por paquetes de otras comunicaciones. El camino que sigue
cada paquete se realiza, tras su análisis, por su conmutación digital en los nodos intermedios.
Las características más relevantes de las comunicaciones establecidas en este modo de
operación son: a) su ancho de banda (B) no está generalmente prefijado, es decir, la red
proporciona capacidad según los paquetes asociados a cada comunicación vayan llegando
(según su demanda) y en función de la disponibilidad de recursos; b) su retardo (T) es variable
y mayor que en la conmutación de circuitos. Esta variabilidad en B y T es debida a que no se
reservan recursos en exclusiva a las comunicaciones; por lo tanto, los tiempos de
procesamiento y conmutación y la capacidad disponible varían continuamente en función de las
comunicaciones y paquetes que existen en un momento dado. Algunos ejemplos de este modo
de operación se encuentran en las redes de datos públicas o privadas que operan bajo
estándares como X.25 (o Frame Relay) del ITU-T, TCP/IP de la comunidad internet, etc.
1. Conmutación de paquetes en modo “circuito virtual”: El camino que siguen todos los
paquetes pertenecientes a una comunicación se determina en su inicio y permanece
invariable a lo largo de la comunicación como en la conmutación de circuitos. Aun así,
sólo se determina el camino, no se hace una reserva de recursos (al menos no en
exclusiva) como sucedía en la conmutación de circuitos. De ahí el nombre de circuito
virtual.
a)
b) c)
Fig. 1.12 Distintos modos de operación de las redes: a) conmutación de circuitos, b) conmutación de paquetes
en modo circuito virtual, c) idem, en modo datagrama
Tabla 1.1 Algunas características y diferencias de los distintos modos de conmutación en las redes
Con el único fin de perfilar los distintos tipos de tráfico que puedan ser transportados por una red, se
pueden establecer una posible clasificación con las siguientes 3 clases de tráfico:
1. Clase I (tiempo real): de mensajes largos o continuos, en tiempo real (no tolera retardos
superiores, digamos, a 200 ms), admite errores, admite bloqueo, muy interactivo: hombre-
hombre (telefonía, videoconferencia), adecuado para la conmutación de circuitos.
3. Clase III (pesado, diferido): de mensajes muy largos, no requiere tiempo real (tolera retardos
elevados, hasta de minutos), no admite errores, no admite bloqueo, no interactivo: máquina-
máquina (transferencia de archivos, correo electrónico), adecuado para la conmutación de
paquetes o circuitos.
Degradación
III Retardo
II
Bloqueo
Fig. 1.13 Representación simbólica de las clases de tráfico según los parámetros de degradación, retardo y
bloqueo (imposibilidad de establecer una conexión en un momento dado)
La intensidad de tráfico, o tráfico simplemente, es una medida muy útil de la carga o grado de
ocupación de los recursos (línea de transmisión, órgano de conmutación, etc.) de una red.
2. Número medio de recursos ocupados (de un grupo de ellos: líneas en un cable de pares,
procesadores en un sistema, etc.)
3. Dado un recurso que es solicitado por sus usuarios con una frecuencia promedio de O
peticiones/s y siendo el tiempo medio de ocupación de dicho recurso en cada solicitud de T s,
se define el tráfico (A) cursado por dicho recurso como
A OT (1.1)
d) En una central local de telefonía se reciben 2.100 peticiones de llamadas por hora (en la
hora del día con mayor tráfico u hora cargada, busy hour). Si el promedio de la duración
de una llamada telefónica es de 3 min, puede decirse que la central soporta un tráfico de
Obsérvese que el tráfico cursado es aquel que supone una ocupación real de los recursos. El tráfico
ofrecido es aquel que se ofrece a un grupo finito de recursos, pero sin que haya la certeza de que todas
las peticiones puedan satisfacerse (cursarse) en cualquier momento; es, por tanto, aquel que
hipotéticamente se cursaría si el número de recursos fuera infinito. El tráfico perdido es aquel que se
debe a todas aquellas peticiones que no han encontrado algún recurso libre y, por tanto, han sido
rechazadas. Finalmente, también se define el tráfico demorado como aquel que se debe a todas
aquellas peticiones que no han encontrado algún recurso libre inmediatamente y, por tanto, son
mantenidas en espera hasta que eso suceda. Es aquel tráfico que acaba materializándose, pero con
demora.
2. Arquitecturas de comunicaciones
La idea de red de comunicaciones como infraestructura para ofrecer algún servicio de comunicación
de información quizás se remonte muchos siglos atrás. Las redes basadas en el fenómeno de la
electricidad se remontan a mediados del siglo XIX, con la invención del telégrafo. Pero las redes de
comunicación de datos, digitales, surgen a partir de la invención del ordenador moderno, hacia la
década de 1960 (aunque existieron máquinas de calcular bastante antes: el ábaco de los árabes, la
máquina de Leibniz y ya en el siglo XX, el computador ENIAC, basado en válvulas de vacío).
Los primeros ordenadores con transistores eran equipos grandes y costosos en posesión de unas pocas
empresas (los llamados centros de cálculo). Ofrecían los servicios a clientes que se desplazaban
físicamente para entregar los datos de entrada y recoger los datos de salida. Es decir, al principio el
acceso a los ordenadores era local, a través de terminales relativamente rudimentarios conectados a
ellos (lectores de tarjetas perforadas con los programas y datos, impresores en papel continuo, teclados
y pantallas de rayos catódicos, a lo sumo).
Con el fin de mejorar los servicios ofrecidos a sus clientes, los centros de cálculo habilitaron
terminales en las ubicaciones de aquéllos para permitir el acceso remoto, usando módems y la red
analógica de telefonía (la única realmente extendida en aquella época). Con el tiempo los ordenadores
empezaron a conectarse entre sí para compartir datos y capacidad de proceso entre ellos, así como
terminales de entrada/salida más sofisticados.
Postrimerías de la década de 1960: En EUA, ARPA (Advanced Research Projects Agency) promueve
el desarrollo de una red específica para la comunicación entre los ordenadores de centros federales
militares y de investigación. Dicha red debía ser robusta ante fallos de algunos de sus elementos
(topología en malla con caminos redundantes) y adaptada al tráfico generado por los ordenadores (el
paquete como unidad de información). Esa red, llamada ARPANet, fue el embrión de lo que hoy
conocemos como Internet.
Principios de la década de 1980: IBM, en sus laboratorios de Zurich (Suiza), desarrolla la red Token
Ring, otra red de ámbito local con topología en anillo y filosofía de acceso diferente al de la red
Ethernet. En 1985, la red SITA desarrollada por y para las compañías de transporte aéreo está
ampliamente extendida (algunos datos de explotación correspondientes al año 1985 eran: cuenta con
enlaces a 9,6 y 14,4 kbit/s, algunos de ellos vía satélite, conecta unas 250 compañías aéreas de unos
150 países, mueve 5x109 mensajes, relacionados con reservas de vuelos en tiempo real, de 80 octetos
de longitud media al año con un retardo típico de 3 s, mueve también 4x108 mensajes, relacionados
con partes de vuelo y meteorología, de 200 octetos de longitud media al año con un retardo mayor).
b) Sistema final: sistema informático donde residen procesos de aplicación; en ciertos contextos se
le llama acertadamente host (anfitrión). Son los antiguamente llamados mainframes, las
estaciones de trabajo, los PCs, etc.
c) Sistema intermedio: sistema que, en general, no posee aplicaciones de usuario y actúa como
nodo de conmutación e interconexión en las redes; son los repetidores, puentes (bridges) y
encaminadores (routers, gateways) cada uno de ellos con funcionalidades específicas.
Para estudiar las arquitecturas de comunicaciones es conveniente pensar que los objetos en
comunicación son los procesos de aplicación y no los sistemas (finales) donde se alojan. Bajo esta
premisa, ya puede intuirse que la tarea de poner en comunicación dichos procesos puede llegar a ser
muy compleja.
Procesos de
aplicación
Arquitectura de
comunicaciones
¡PROBLEM A
MUY
COM PLEJO!
Fig. 2.1 La arquitectura de comunicaciones como estructura compleja para el intercambio de información
entre procesos de aplicación
En toda comunicación entre equipos finales a través de un medio, existen diversas cuestiones a las que
buscar solución con el fin de alcanzar el establecimiento de conexión. Véanse algunos aspectos a
resolver:
El número de problemas a resolver para permitir una comunicación correcta entre los procesos de
aplicación es demasiado elevado como para atacarlos globalmente. Es mejor aplicar el principio de
“divide y vencerás”.
Procesos de
aplicación
Arquitectura de
comunicaciones
PROBLEMA
MÁS
MANEJABLE
Por eso, la mayoría de arquitecturas de comunicaciones están estructuradas en lo que suelen llamarse
capas o niveles. Las principales ventajas de una estructuración de ese tipo son:
b) permitir varias alternativas para una misma tarea. Poder disponer de 2 protocolos, elegibles por
la entidad de nivel superior, en función de los requisitos necesarios.
c) la facilidad de cambios parciales. Por ejemplo, cambiar un protocolo por otro sin afectar al
resto del funcionamiento. Una aplicación de ello podría ser la migración a una nueva versión de
protocolo desde una anterior (pasar de IP versión 4 a IP versión 6, sin variar el resto de la torre
de protocolos, obteniendo por tanto el beneficio del nuevo estándar en las funciones de las que
específicamente sea responsable).
Supongamos dos pensadores (filósofos) que viven en países distintos, con lenguas nativas distintas y
que están interesados en establecer un intenso debate dialéctico. Ellos representarán los procesos de
aplicación que desean intercambiar información al más alto nivel, sin preocupaciones secundarias.
Para ellos debe diseñarse una arquitectura de comunicaciones que aborde básicamente dos problemas:
la separación geográfica entre los filósofos y su separación idiomática (distinta forma de representar
sus pensamientos). En la figura 2.3 puede verse el esquema de dicha arquitectura.
filósofo filósofo
Capa de
español francés
aplicación
Capa de
adaptación traductor 1 traductor 2
sintáctica
M edios de
comunicación
La capa de adaptación sintáctica aborda el problema de la distinta forma en que los filósofos (procesos
de aplicación) representan sus pensamientos (información), es decir, ofrece un servicio de intercambio
de información transparente (independiente) al idioma en que está expresada. Con este fin, dicha capa
se construye con dos entidades, traductor1 y traductor2, colaborando entre sí, capaces de traducir
a/desde el idioma de cada filósofo a otros idiomas comunes a ambos traductores (al menos uno de
ellos).
La capa de comunicación aborda el problema de enviar cualquier información entre los sitios
geográficos distintos donde residen los filósofos, es decir, ofrece un servicio de transporte de
información entre sitios distantes, óptimo (en cuanto a rapidez, fiabilidad o coste) y transparente
(independiente) a los problemas (extravíos, retrasos, desordenamientos, etc.) que puedan surgir en los
envíos. A tal fin, dicha capa se construye con dos entidades, ingeniero1 e ingeniero2, colaborando
entre sí, con un conjunto de medios de comunicación (teléfono, fax, correo postal, correo electrónico,
etc.) a su disposición para ponerse en contacto.
Analicemos algunos aspectos que el uso de esta arquitectura de dos niveles o capas supone: el diálogo
entre los filósofos es virtual (no es directo) y se produce a través de la arquitectura diseñada para
ellos; en concreto, su dialogo sólo se produce a través de su interacción con la capa de adaptación
sintáctica, desconociendo ellos cualquier detalle de cómo dicha capa funciona y, mucho menos,
cualquier detalle de las capas inferiores a ésa.
Algo similar puede decirse de las entidades traductor; éstas, para llevar a cabo la función que tienen
encomendada, se comunican virtualmente (no directamente) a través de su interacción con la capa de
comunicación, desconociendo cualquier detalle de cómo su información es intercambiada y qué
medios se usan para ello.
Veamos otro aspecto: las entidades de la capa de adaptación sintáctica no hacen valoraciones, ni
mucho menos modifican, los pensamientos intercambiados por los filósofos; es decir, son de nuevo
transparentes en ese aspecto; sólo se ocupan de que el significado (semántica) de los pensamientos de
los filósofos se mantenga lo más intacto posible durante el proceso de traducción de idioma que llevan
a cabo. Lo mismo aplica a las entidades de la capa de comunicación que, tomando literalmente
(transparentemente) la información proporcionada por la capa superior, se encargan de que ésta llegue
intacta y de la mejor forma posible (económica, rápida, etc.) al otro extremo.
Además, debe observarse que cuando uno de los filósofos, inquieto ante una idea nueva que acaba de
surgir en su mente, decide intercambiar impresiones con su colega e invoca los servicios de la
arquitectura de comunicaciones que tiene a su disposición, se desencadenan una serie de hechos en las
capas de dicha arquitectura. El filósofo solicita el servicio de la capa de adaptación sintáctica
aportando su pensamiento y quizás algún parámetro relativo a la urgencia requerida en su envío; el
traductor se pone en contacto con su colega de capa invocando para ello los servicios de la capa de
comunicación; una vez en contacto, ambos traductores se saludan, se comunican la lista de idiomas
que dominan (de alguna forma preestablecida) y negocian cual será el mejor idioma (o quizás el único
posible) para llevar a cabo sus funciones como capa.
Algo similar sucede con los ingenieros de la capa de Comunicación: se saludan, usando un medio de
comunicación preestablecido; se comunican la lista de medios de comunicación de que disponen cada
uno de ellos y negocian cuál es el mejor medio a utilizar en aquella ocasión, basándose quizás en algún
parámetro de urgencia proporcionado por la capa superior. En resumen, puede decirse que el servicio
que ofrece cada capa requiere de una fase previa de establecimiento, con posible negociación, antes de
llevar a cabo el servicio propiamente dicho; es lo que se llama servicio orientado a conexión.
Otros aspectos remarcables son la existencia de lo que podemos denominar un diálogo horizontal o
protocolo de capa, entre las entidades de una misma capa para iniciar, llevar a cabo y finalizar las
funciones de capa. Asimismo, también existe un diálogo vertical, entre entidades de capas adyacentes
que residen en un mismo sitio, con el que se expresa la demanda / ofrecimiento de los servicios de
capa.
Este diálogo vertical se conforma mediante las llamadas primitivas de servicio, que permiten tener
acceso a los servicios ofrecidos por las capas inferiores y comunicar con las superiores. Por ejemplo,
una alarma de cable desconectado se notifica desde el nivel inferior hacia las capas superiores
mediante primitivas.
Finalmente, la concepción de arquitectura modular permite cambios parciales sin que haya que
modificarla enteramente. Por ejemplo, las entidades traductor de la capa de adaptación sintáctica
pueden sustituirse (los traductores también merecen vacaciones…) por otras que quizás conozcan
idiomas distintos.
La funcionalidad de la capa (sus servicios), sin embargo, no se verán alterados por eso. Lo mismo
puede decirse de las entidades ingeniero, que pueden ser sustituidas, o de los medios de comunicación
a su disposición, que pueden variar de un momento a otro.
2.4.1 Introducción
Como se ha visto en la breve introducción histórica del apartado 2.1, a finales de la década de 1970
existían un número creciente de sistemas informáticos a conectar. Dichos sistemas eran heterogéneos,
es decir:
c) se basaban en arquitecturas desarrolladas por sus fabricantes para ellos mismos (propietarias)
Por ello, en 1977 la ISO (International Standards Organization) promovió el desarrollo de un modelo
de referencia sobre el que desarrollar una arquitectura de comunicaciones abierta a adoptar por todo
sistema informático en una red de comunicaciones.
etc.
Fig. 2.4 Evolución hacia una arquitectura común (abierta) propuesta por la ISO
Los sistemas que adoptasen dicha arquitectura se llamarían sistemas abiertos, es decir, capaces de
entenderse entre sí, independientemente de su fabricante, de su hardware y de su sistema operativo. El
documento básico del modelo OSI (Open Systems Interconnection) vio la luz en 1983 (ISO 7498).
a) Es universal (apto para cualquier tipo de interacción entre procesos de aplicación de cualquier
tipo, en cualquier contexto, en el presente y en el futuro)
El modelo OSI contempla una arquitectura de comunicaciones dividida en siete capas o niveles.
Algunas de las razones que condujeron a la definición y número de las capas son las siguientes:
a) Cada capa debe representar un nivel de abstracción claramente distinto en el conjunto de tareas
encomendado a una arquitectura de comunicaciones
b) Cada capa se define de manera que el interfaz entre ellas sea lo más claro y sencillo posible
c) El número de capas debe ser suficientemente grande como para que funciones claramente
distintas queden separadas
d) El número de capas debe ser suficientemente reducido como para que el modelo no se
complique con excesivos interfaces y protocolos distintos
Aplicación Aplicación
Presentación Presentación
Sesión Sesión
Transporte Transporte
Red Red
Física Física
El estándar OSI de la ISO recoge en su especificación una terminología de uso común. Los principales
términos se definen a continuación.
c) Protocolo de capa N: el protocolo que siguen todas las entidades parejas dentro de una capa.
Constituye un diálogo horizontal entre entidades que residen en sistemas distintos. Es objeto de
detallada y estricta estandarización, por tanto.
e) N-SAP (N-Service Access Point): puntos de acceso al servicio de nivel N. Puntos, en el interfaz
entre capas adyacentes, donde se solicitan/prestan los servicios de capa N. Permiten distinguir
diferentes entidades usuarias o servidoras. Dicho de otro modo, son las direcciones en sentido
genérico (locales o externas) donde se ofrecen los servicios de capa N o donde están sus
usuarios.
f) N-PDU (N-Protocol Data Unit): unidad de datos del protocolo de capa N. Es cualquier
mensaje que una entidad de capa N intercambia con sus entidades parejas siguiendo el
protocolo de capa N. Dicho mensaje puede contener datos de la capa superior o no.
h) N-SDU (N-Service Data Unit): unidad de datos del servicio de capa N. Parte de una N-PDU
que contiene los datos de usuario (provenientes de la capa superior y tratados de forma
transparente) para los que debe realizar el servicio solicitado.
Capa N+1
protocolo de capa
Capa N entidad entidad
Capa N-1
N-SAP
(N+1)-PDU
Capa N+1
N-SDU
N-PCI
Capa N N-PCI
N-PDU
(N-1)-SDU
Capa N-1
b) Ofrece un servicio básico de transmisión de bits entre puntos adyacentes (conectados al mismo
medio de transmisión). Dicho servicio no tiene por qué ser fiable (puede ser propenso a los
errores).
d) La unidad de información en este nivel es el bit (a veces grupos de pocos bits: dibits, nibbles,
bytes).
Son ejemplos de especificaciones de capa física: EIA RS-232C (para enlaces locales de datos entre
computadores y periféricos), IEEE 802.3 (una parte de ella, para redes de área local Ethernet), CCITT
I.430 (para el acceso básico a la RDSI), etc.
La capa de enlace de datos mejora el servicio de transmisión de bits -en bruto- de la capa física. Sus
funciones principales son:
a) Control de errores
b) Control de flujo
La unidad de información es un grupo de bits llamado trama (en terminología OSI, 2-PDU o L-PDU;
donde la L significa Link).
El control de errores se realiza de forma más eficiente considerando los datos agrupados en conjuntos
de bits u octetos. La idea básica consiste en añadir a dichos grupos una información adicional, llamada
redundancia, que se obtiene a partir de determinadas operaciones realizadas sobre ellos. En función
del tipo y cantidad de redundancia añadida, se tienen dos filosofías de control de los errores:
Por otra parte, el control de flujo es la función encargada de armonizar las velocidades de generación
de datos (tramas) en la fuente a las capacidades de procesado en el destino a fin de no perder
información.
Se basa en el envío en sentido contrario al del flujo de datos de señales de control o regulación. El
método más simple consistiría en señales de detención/reanudación del flujo de datos; otros métodos
más sofisticados contemplarían el envío hacia la fuente de cantidades máximas (créditos) de bits o
tramas permitidos en un momento dado. El control de flujo se encuentra usualmente combinado con el
control de errores.
A continuación se describirán los principales mecanismos que combinan técnicas de control de errores
con las de flujo para conseguir una transmisión exenta de errores en un enlace, esto es, una
comunicación fiable. Estos mecanismos son el de parada y espera y los protocolos ARQ continuos.
Es la forma más simple de control de errores ARQ y también de flujo. Dicho protocolo establece que
el emisor, tras enviar una trama de datos, detiene sus envíos y permanece a la espera de una señal por
parte del receptor que le indique el éxito o fracaso en el envío de aquella trama. Si la señal es
favorable, el emisor procede a enviar la siguiente trama de datos; en caso contrario, el emisor vuelve a
transmitir la misma trama.
A CK ACK A CK
a) b) c)
El sencillo esquema del protocolo parada-espera debe refinarse un poco para contemplar el posible
caso en que sea la señal ACK la que sufra errores o pérdida en su transmisión hacia el emisor. Como
se ilustra en las figura 2.9, deben añadirse: a) un mecanismo de retransmisión automático de la trama
de datos por vencimiento de tiempo; b) una esquema de numeración de las tramas de datos nuevas que
sucesivamente envíe el emisor (para el caso del protocolo que nos ocupa, es suficiente un bit para
numerar alternadamente las tramas con “0” o “1” y poder detectar los casos de entrega duplicada).
Datos
1(0)
D atos
1 ACK
Tout Datos
2(1)
ACK
X Tout
ACK
D atos
1
X
entrega Datos
2(1)
duplicada!
ACK descarte
ACK de datos
Dat os
3(0)
a)
b)
Fig. 2.9 Protocolo parada-espera: a) entrega de datos duplicada por pérdida del mensaje de confirmación; b)
corrección del problema mediante la introducción de números de secuencia
Asumiendo que siempre se tengan datos a enviar, lo que se espera de cualquier protocolo es que utilice
óptimamente la capacidad de transmisión (R) del canal sobre el que opera, es decir, que:
Cuando el tiempo de propagación de los datos a través del enlace es importante, puede verse que el
protocolo parada-espera no cumple satisfactoriamente el punto a) comentado anteriormente.
Defínase el rendimiento, eficiencia o utilización (U) de un protocolo como la relación entre la tasa de
datos de usuario (en bit/s) que éste puede servir y la tasa bruta (R) (en bit/s) del canal sobre el que
opera.
Tt: el tiempo de transmisión de una trama de datos (que se consideraran todas de igual
longitud)
Tproc: el tiempo de procesado (que incluye, en transmisión, los tiempos necesarios para tomar
el siguiente bloque de datos de usuario de la memoria, calcular sus bits de redundancia, etc. y,
en recepción, el tiempo necesario para determinar si el bloque recibido es erróneo o no a
partir de los bits de redundancia, etc.)
Tt Dat os
1>
T Tp
Tproc
Tp
K
< AC
Tack
Tproc
Dat os
2>
K
< AC
Considerando que el tiempo de procesado del protocolo es despreciable (es decir, que la velocidad de
ejecución del protocolo es prácticamente infinita; lo cual es bastante cierto para los controladores en
circuito integrado actuales) y que el tiempo de transmisión del mensaje de ACK (unos pocos bits) es
muy pequeño en comparación con el del bloque de datos, tenemos que T | Tt 2T p .
Tt Tt 1 1
U (2.1)
T Tt 2T p Tp 1 2a
1 2
Tt
Tp (2.2)
a
Tt
Dicho parámetro “resume” las características del enlace y también puede expresarse como
Tp dR
a (2.3)
Tt V p Lt
donde:
Ld Ld 1 Ld 1
Uc U (2.4)
Lt Lt 1 2a Ld L h 1 2 a
Donde Ld es la longitud de los datos de usuario y Lh es la longitud de los datos de control del protocolo
(la PCI).
a=138,24, U=0,0036
a=0,04, U=0,93
d1=1 km, d2=5000 km., R=9600 bit/s., Lt=500 bit, Vp=2108 m/s
a1=0,000096, U1§1
a2=0,48, U2=0,69
Como puede verse de la figura 2.11, existen, a su vez, dos variantes de protocolos ARQ, en función
del procedimiento seguido cuando hay errores en las tramas recibidas:
1. ARQ Go-Back N (vuelta atrás): el receptor, cuando detecta una trama errónea, descarta
las tramas siguientes a esa y se queda a la espera de recibir de nuevo la trama en
cuestión; el emisor, cuando se apercibe del error en una trama, vuelve hacia atrás y
procede a retransmitir la trama en error y todas las tramas que ya hubiera transmitido.
Este método, que puede ser ineficiente porque retransmite tramas que pueden haber sido
recibidas correctamente, simplifica la realización del protocolo, dado que no requiere
capacidad de almacenamiento y reordenación de tramas en el receptor.
2. ARQ Selective Reject (rechazo selectivo): el receptor, cuando detecta una trama errónea,
envía la señal para su retransmisión pero sigue aceptando las tramas siguientes; el
emisor, cuando se apercibe del error en una trama, sólo retransmite la trama errónea a la
primera oportunidad. Este método es más eficiente, pero supone que el receptor es capaz
de almacenar varias tramas para, cuando reciba correctamente la trama en error,
entregarlas en orden al usuario del nivel superior.
D(0) D(0)
D(1) D(1)
D(2) D(2)
D(3) D(3)
ACK(2) Asentimiento inclusivo ACK(2)
D(4) (de más de 1 trama) D(4)
Trama #4 con error o
D(5) X D(5) X no recibida.
Trama #4 con error o no
recibida. Manda una petición de
D(6) D(6) reenvío pero acepta y
REJ(4) X El receptor se da cuenta al REJ(4)
recibir la trama siguiente. almacena las tramas
X Manda una petición de #5, #6 y #7.
D(7) reenvío ignorando las ya D(7)
D(4) D(4)
X recibidas.
D(5) D(8)
El transmisor procede a El emisor sólo
D(6) reenviar la trama errónea y D(9) reenvía la trama
todas las siguientes de errónea.
D(7) nuevo. D(10)
a) b)
Fig. 2.11 Protocolos ARQ continuos: a) go-back (vuelta atrás); b) selective reject (rechazo selectivo)
Los protocolos ARQ continuos presentan una eficiencia de 1 (en el caso sin errores y sin considerar la
sobrecarga de la cabeceras de control)) cuando la ventana de transmisión (N) es “suficientemente”
grande, es decir, cuando el transmisor nunca debe detenerse a la espera de confirmaciones. Tras cierta
reflexión, pude verse que esto se cumple cuando N>2a+1.
Cuando se considera el efecto de los errores en las tramas, es decir, cuando existe una probabilidad no
nula de error en cualquier trama transmitida (Pt), la eficiencia se reduce consecuentemente. El análisis
de la eficiencia en esta situación resulta algo más complejo.
La implementación real de un protocolo ARQ debe contemplar muchos detalles no comentados aquí
(el establecimiento/iniciación del enlace de datos, el control de flujo, el soporte del modo full-duplex,
etc.). Esto conlleva a una definición de nuevos campos en las cabeceras (L-PCI) de las tramas (L-
PDUs) y a una especificación compleja del protocolo (según los estados y transiciones entre ellos,
variables de estado, temporizadores, etc.). Un buen ejemplo de implementación de un protocolo de
enlace de datos clásico lo constituye la familia de protocolos HDLC (High level Data Link Control)
estandarizada por la ISO.
a) BSC (Binary Synchronous Control): uno de los primeros protocolos para el control de errores y
flujo desarrollado por IBM en las década de 1960. Era orientado a carácter, es decir, los
campos de control y datos estaban estructurados en octetos.
b) SDLC (Synchronous Data Link Control): mejora del protocolo anterior también debida a IBM.
Es orientado a bit, es decir, los campos de control y datos contienen un número arbitrario de
bits.
c) HDLC (High level Data Link Control): Familia de protocolos de enlace de datos estandarizada
por la ISO e inspirada en SDLC.
d) LAP-B (Link Access Procedure – Balanced): Variante de HDLC que define la capa de enlace
de datos en el estándar de acceso a redes públicas de conmutación de paquetes definido en la
norma X.25 del ITU-T.
e) LAP-D (Link Access Procedure on D channel): Variante de HDLC que define la capa de
enlace de datos en el canal D de señalización en el estándar de acceso a la RDSI (Red Digital
de Servicios Integrados) de banda estrecha.
f) LLC (Logical Link Control): Variante de HDLC que define la sub-capa superior de la capa de
enlace de datos para redes de área local según la norma IEEE 802.2.
Cuando el medio físico de transmisión es compartido por más de dos sistemas (lo que a veces también
se denomina enlace multi-punto) surge el problema adicional de arbitrar su uso, es decir, determinar
cuándo y cómo cada uno de los sistemas puede usarlo, evitando los conflictos. Dicha función, dentro
de la capa de enlace de datos, tiene tal relevancia que, arquitectónicamente hablando, se la ha asociado
a una subcapa denominada MAC (Medium Access Control). Así pues, cuando convenga (típicamente
en entornos de redes de área local), la capa de enlace de datos se estructura según la figura 2.12.
distribuido entre todas las entidades que comparten el medio, o en función del grado de ordenamiento
o determinismo de los accesos por parte de las diferentes entidades (protocolos aleatorios, por
demanda o por turnos). Todo ello se verá más en detalle en el capítulo 4.
sub-capa de
control del enlace lógico
capa de
enlace de datos
sub-capa de
control de acceso al medio
Fig. 2.12 Subdivisión de la capa de enlace de datos en el caso de medios de transmisión compartidos por
múltiples sistemas
Esta capa, situada por encima de la de enlace, aprovecha los servicios brindados por esta y añade
algunas características, como son:
c) Control de congestión, es decir, control de todas las comunicaciones que se producen a través
de la red con el fin de que los recursos de ésta se utilicen de la mejor forma posible.
Puede decirse que la capa de red articula el conjunto de enlaces físicos, mejorados por la capa de
enlace de datos, para constituir lo que propiamente se entiende por red de comunicaciones. Aunque la
capa de Red está obviamente implementada en los sistemas finales, es en los sistemas intermedios
donde ésta se encuentra realizada de forma completa.
En la sección 1.2.1 del capítulo de introducción se definieron los conceptos de servicio orientado y
no-orientado a conexión. En ésta, se planteará su aplicación en el nivel de red de la arquitectura OSI.
b) Ofrece una gran facilidad para garantizar diversas calidades de servicio, al poder reservar
recursos de antemano
d) Garantiza gran fiabilidad, al poder secuenciar los paquetes como pertenecientes a una conexión
y poder detectar la pérdida de alguno o evitar su desordenamiento
b) Al estar fijado el camino, la caída de un nodo de conmutación o enlace origina la pérdida de las
conexiones que pasaban a través de ellos, aun cuando topológicamente existan caminos
alternativos
c) Requiere una elevada capacidad de memoria en los nodos de conmutación para almacenar el
estado de todos los circuitos virtuales
Por otro lado, el servicio de red no orientado a conexión (NOC) se caracteriza por que cada bloque de
datos (datagrama) es auto-contenido (lleva información de su destino) y es tratado de forma individual
e independiente por la red. No existe, por tanto, camino establecido a priori ni fases asociadas al
servicio.
El símil para este tipo de servicio lo constituiría el envío de cartas del servicio postal. Las ventajas de
este procedimiento son las siguientes:
b) Al no existir un camino fijado a priori, sino determinado para cada datagrama, se tiene mayor
robustez frente a fallos de nodos de conmutación o enlaces (siempre que topológicamente
existan caminos alternativos)
c) Se caracteriza por un uso más eficiente de los recursos de red al no existir ninguna reserva
previa
d) No se requiere memoria en los nodos de conmutación para almacenar información relativa a las
conexiones pues éstas no existen
a) Al tener que evaluar el trayecto que debe seguir cada unidad de datos, se requiere mayor
capacidad y velocidad de cálculo en los nodos de conmutación
b) Muestra cierta ineficiencia dado que cada datagrama debe llevar información completa
(direcciones, etc.) para su tránsito por la red
c) Tarificación más difícil, especialmente cuando existe más de un proveedor del servicio de red,
al tener que identificar los usuarios fuente y destinatarios de cada datagrama
e) Poca fiabilidad, al no poder secuenciar los datagramas como pertenecientes a ninguna conexión
y no poder detectar su pérdida o desordenamiento
Puede resumirse diciendo que las diferencias entre el servicio de red OC y el NOC residen en su
mayor o menor fiabilidad y en donde se sitúa la complejidad (en los sistemas intermedios para el
servicio OC y en los sistemas finales -capa de transporte más sofisticada- para el servicio NOC).
Durante la redacción del modelo arquitectónico OSI, se propuso que el servicio de red debía ser OC
(más en la línea de pensamiento en Europa), aunque los defensores del servicio NOC (más en la línea
de pensamiento en EEUU) también hicieron prevalecer sus argumentos. Finalmente se incluyeron
ambos tipos de servicio de red.
Direccionamiento
El direccionamiento es la identificación única de cada equipo terminal o sistema final conectado a una
red o grupo de redes interconectadas.
a) el número de dígitos o bits usados, que determinan el tamaño del “espacio” de direcciones, es
decir, el número máximo de terminales distintos que podrán conectarse las redes
b) la estructuración de dichos números y los criterios para su asignación a los equipos terminales en
función de su situación geográfica, que deben ser de tal forma que faciliten la creación de tablas
y algoritmos de encaminamiento viables para los nodos de conmutación o sistemas intermedios
(los esquemas de direccionamiento en la red telefónica o en la Internet, por ejemplo, siguen ese
criterio).
Estos números pueden estar asociados o no a una palabra que facilite recordar el nombre del equipo.
Un ejemplo donde existe esta asociación es en la red Internet. Tras cualquier dirección de página web
existe siempre una identificación de 32 bits que indica el equipo donde se encuentran los contenidos
solicitados.
Un ejemplo donde no existe asociación es en los números de telefonía. Pero sería francamente cómodo
poder efectuar una llamada simplemente indicando al operador el nombre del interlocutor con el que
se desea conversar.
Los algoritmos de encaminamiento permiten a los nodos intermedios de la red tomar decisiones sobre
el siguiente nodo al que deben dirigir la unidad de datos que acaban de recibir. Los criterios
considerados en la toma de decisión constituyen el algoritmo de encaminamiento.
3. distribuidos, a medio camino entre los dos anteriores, es decir, utilizan información de
zonas de la red
Control de congestión
El control de congestión refiere a los mecanismos necesarios para que los recursos de la red se utilicen
de forma armoniosa entre todas las comunicaciones. Debe evitar los efectos de realimentación
positiva, que resulta negativa o perjudicial para el equilibrio de tráficos en el sistema.
Por ejemplo, en presencia de tráfico intenso, el número de paquetes perdidos por la red puede
aumentar al llegar al límite la capacidad de almacenamiento en los sistemas intermedios. En esta
situación, el número de retransmisiones de paquetes aumenta, lo que hace agravar aún más el
problema. Existen diversos métodos para llevar a cabo el control de la congestión. Se pueden citar los
siguientes, entre otros existentes:
b) reserva de ancho de banda en los enlaces para redes con servicio orientado a conexión (OC)
c) mecanismo de permisos (tokens) para transmitir paquetes con el fin de mantener más o menos
constante el número de paquetes en la red en cualquier momento
d) uso del control de flujo a nivel de cada circuito virtual para redes con servicio OC o de mensajes
de limitación de flujo a nivel de equipo terminal para redes con servicio no OC
Interconexión de redes
La propuesta inicial del modelo OSI asignaba a la capa de red la misión de resolver las diferencias
para permitir la interconexión de redes con tipos de servicio y calidades distintos (aunque en el mundo
real la interconexión de redes puede resolverse no sólo en dicho nivel). A efectos de interconexión, la
capa de red puede dividirse hasta en tres subcapas, como se refleja en la figura 2.13.
Depende de la tecnología
subcapa de acceso a subred de la subred
Fig. 2.13 Subdivisión de la capa de red según OSI a efectos de interconexión entre redes
Con el fin de ilustrar las ideas subyacentes en la interconexión de redes, en la figura 2.14 se presenta
un ejemplo relativamente abstracto y elemental de interconexión entre una red con servicio no OC y
una red con servicio OC.
La primitiva N-UNIT-DATA (la única existente) sirve para el envío de bloques de datos (datagramas)
en la red con servicio no OC. Las primitivas N-CONNECT, N-DATA y N-DISC sirven para el
establecimiento de conexión, el envío de datos y la liberación de la conexión, respectivamente, en la
red con servicio OC. Obsérvese que en el ejemplo se establece una conexión por la que se envía el
datagrama procedente de la red con servicio no OC hacia su destino en la red con servicio OC,
liberándose a continuación dicha conexión.
En muchos casos es razonable pensar que cuando un sistema final envía un bloque de datos a otro
sistema final, es que se ha iniciado algún tipo de interacción entre procesos residentes en ellos y que,
por tanto, en un futuro inmediato se observarán nuevos bloques de datos intercambiados entre ellos. Si
esto fuera así, sería más eficiente que el sistema intermedio mantuviera la conexión abierta, es decir,
no invocara la primitiva N-DISC.req tan pronto hubiera enviado el datagrama procedente de la red con
servicio no OC, sino que esperara cierto tiempo antes de hacerlo. Con ello se reduciría el retardo y se
disminuiría el número de establecimientos y liberaciones de conexión.
a a’ b b’ c c’ d d’
3 3 3’ 3’
2 2 2’ 2’
1 1 1’ 1’
N-UNIT-DATA.re q a b c d
N-UNIT-DATA.ind
N-CONNECT.req
N-CONNECT.indic
N-CONNECT.resp
N-CONNECT.conf
N-DATA.req
N-DATA.indic
N-DISC.req
N-DISC.indic
a’ b’ c’ d’
La capa de transporte solamente está realizada en los sistemas finales (aquellos que alojan a los
procesos de aplicación que se comunican); no existen entidades de transporte en los sistemas
intermedios. Se dice, entonces, que la capa de transporte opera extremo a extremo, al igual que las
capas por encima de ésta.
Su misión principal es “esconder” las imperfecciones de las redes subyacentes a los procesos de
aplicación, ofreciendo un servicio de comunicación de datos extremo a extremo perfectamente fiable y
de una calidad pactada. Esto debe hacerlo, además, de forma eficiente, es decir, optimizando el uso de
los recursos que tiene a su disposición.
La anteriormente citada calidad de servicio (en adelante, QoS: Quality of Service) que la capa de
transporte se compromete a ofrecer viene especificada, según OSI, hasta por 12 parámetros que
pueden, a su vez, contener subparámetros. La realización completa de la capa de transporte OSI en un
caso real, en cuanto a sus exigencias de compromiso con tan sofisticada especificación de QoS, podría
llegar a ser extremadamente compleja. Sin embargo, actualmente el término QoS ha resurgido con
fuerza ante el fenómeno de la integración de un número cada vez mayor de servicios (especialmente
los de audio y vídeo en tiempo real) en redes IP (léase internet). Para ilustrar el concepto de QoS se
enumeran solamente algunos de los parámetros que la definen:
a) Caudal, es decir, flujo medio en bits/s entre los dos T-SAP que definen una conexión de
transporte; el uso de subparámetros permitiría especificar dicho caudal de forma más completa,
por ejemplo: caudal mínimo garantizado, caudal de pico, duración máxima del pico de caudal,
etc.
b) Retardo de tránsito, es decir, el tiempo medio desde que una T-SDU atraviesa el T-SAP origen
hasta que aparece en el T-SAP destino; el uso de subparámetros permitiría especificar, por
ejemplo: fluctuación (desviación) media o máxima de dicho retardo, retardo máximo, etc.
Con el fin de determinar la complejidad necesaria en la capa de transporte, OSI clasifica las redes en
tres tipos:
c) Tipo C: redes con una tasa de errores residuales (y quizás también señalizados) inaceptable
Los errores señalizados son aquellos que, aunque no corregidos, son detectados por la capa de red y
notificados (señalizados) a su capa usuaria. Son típicamente los reinicios y liberaciones espontáneos
en los circuitos virtuales de las redes orientadas a conexión.
Los errores residuales, como su nombre indica, son aquellos no detectados (que pasan
desapercibidos) por la capa de red. Son, típicamente, la corrupción de algunos bits en los datagramas,
la pérdida, desordenación, e incluso duplicación, de datagramas en las redes no orientadas a conexión.
En función del tipo de redes con las que tratar, la capa de transporte OSI define cinco niveles de
realización de complejidad creciente; son las llamadas clases de transporte:
a) Clase 0 (Simple Class): la más sencilla; no recupera errores; para redes tipo A
b) Clase 1 (Error Detection Class): recupera errores señalizados; para redes tipo B
d) Clase 3 (Error Detection and Multiplexing Class): como la clase 1 pero incorporando
mecanismos de multiplexado
e) Clase 4 (Error Detection and Recovery Class): recupera todo tipo de errores; de uso
obligatorio para redes de tipo C
Para ofrecer el refinado servicio de transporte definido, dicha capa incorpora un elevado número de
mecanismos (en los que no se abundará aquí). Algunos de ellos son muy parecidos a los de la capa de
enlace de datos: adición de bits de redundancia (checksum) para detectar errores de bit; uso de
números de secuencia, mecanismos de asentimiento y retransmisión para detectar pérdidas,
desordenamientos y duplicaciones en las T-PDU; uso de créditos o ventanas de transmisión para
mejorar la eficiencia y controlar el flujo de datos, etc.
a) Varias conexiones de transporte en una conexión de red (optimiza el uso de las redes
cuando varias conexiones de transporte tienen el mismo origen y destino).
a b a’ b’
capa de
transporte
x1 x1’
Proveedor
de servicio de red
Fig. 2.15
b) Una conexión de transporte en varias conexiones de red (permite alcanzar los niveles de
QoS acordados; en efecto, el uso de varias conexiones de red “en paralelo” permite
conseguir un caudal mayor o tener mayor redundancia para disminuir el retardo o la
probabilidad de desconexión de la conexión de transporte).
a a’
capa de
transporte
x1 x2 x1’ x2’
Proveedor
de servicio de red
Fig. 2.16
La capa de sesión fue una aportación relativamente nueva del modelo OSI de la ISO a las arquitecturas
de comunicaciones. En efecto, podría pensarse que, dado el servicio perfectamente fiable que ofrece la
capa de transporte, los procesos de aplicación no necesitarían nada más y podrían usar dicho servicio
directamente.
De hecho, y siguiendo este razonamiento, la arquitectura TCP/IP carece de las capas de sesión y
presentación explícitamente. Superados los errores de comunicación en la capa de transporte, la capa
de sesión puede verse como un conjunto de herramientas, a disposición de los programadores, que
permiten estructurar y enriquecer el diálogo entre los procesos de aplicación.
c) Sincronización y recuperación
Una conexión de sesión (sesión) se soporta sobre una conexión de transporte, pero va más allá. Así,
por ejemplo, una sesión puede prolongarse más allá de una conexión de transporte o viceversa, como
se ilustra en la figura 2.17.
tiempo
Sesión
Transporte
a) b) c)
Fig. 2.17 Una sesión es algo más refinado que una conexión de transporte: a) una sesión en una conexión de
transporte; b) varias sesiones en una misma conexión de transporte; c) una sesión en varias conexiones de
transporte
Aunque las conexiones de transporte se definen como full-duplex, una sesión puede estructurarse
como half-duplex, es decir, que existan turnos en las transmisiones o que, en un momento dado, sólo
uno de los extremos de la sesión esté facultado para enviar datos. Para ello, la capa de sesión ofrece la
posibilidad de usar el testigo (token) de transmisión que se posee, se pide y se cede por parte de los
extremos como se ilustra en la figura 2.18.
S-DATA.indic
S-TOKEN_PLEASE.request
(pido turno)
S-TOKEN_PLEASE.indic
S-DATA.req
S-TOKEN_GIVE.request
(cedo turno) S-DATA.indic
S-TOKEN_GIVE.indication
S-DATA.request
(turno en este lado)
S-DATA.indication
Fig 2.18 Ejemplo de gestión del modo half-duplex mediante el uso del testigo de transmisión
La capa de sesión también ofrece mecanismos para sincronizar o “marcar” el diálogo entre sus
usuarios a través de la inserción de puntos de sincronización de los que existen dos tipos: mayores
(major sync points) y menores (minor sync points).
Mediante la inserción de esos puntos la sesión se estructura en diálogos (aquella porción comprendida
entre punto de sincronización mayor consecutivos) y actividades (que comprenden varios puntos de
sincronización mayor). Las actividades pueden ser iniciadas, acabadas e incluso suspendidas (para
continuarlas posteriormente). La utilización o no de estas facilidades, así como su significado, no son
competencia de la capa de sesión, sino de los procesos de aplicación en dicha capa. La figura 2.19
ilustra todo esto.
Por resincronización de la sesión se entiende la conducción de ésta (su status completo) a un punto o
estado anterior identificado por algún punto de sincronización. Como mucho se puede retroceder no
más allá del punto de sincronización mayor anterior. El uso y utilidad de la resincronización, como
siempre, depende del proceso de aplicación. Podría servir para recuperar una situación de error
originada por la aplicación (no un error de comunicación ya que éste sería solventado por la capa de
transporte).
En esta situación, la capa de transporte no puede solventar ese problema originado por el proceso de
aplicación impresora remota; dicha capa ha cumplido perfectamente su misión de enviar datos
fiablemente de un extremo a otro y no debe ni puede determinar que dichos datos no se han procesado
adecuadamente en la aplicación destino impresora remota; las funciones de resincronización que
ofrece la capa de sesión, en cambio, permitirían reanudar el proceso de impresión a partir del punto
donde se inició el fallo elegantemente.
La capa de transporte OSI define un cierre de la conexión abrupto, es decir, cualquiera de los usuarios
de la conexión puede iniciar una desconexión sin tener en cuenta el otro extremo ni los datos que
pueda haber en tránsito.
La capa de sesión ofrece mecanismos para el cierre ordenado de las conexiones (graceful close), es
decir, sin ambigüedades o pérdida de datos. En la arquitectura TCP/IP, en cambio, dicho cierre
ordenado ya está disponible en la capa de transporte (en el protocolo TCP). La figura 2.20 ilustra el
concepto de cierre ordenado en donde implícitamente se definen sesiones abiertas, sesiones medio
cerradas (es decir, que el extremo cerrado no envía más datos pero sí puede recibirlos) y sesiones
cerradas.
T-DATA.req
T-DISCONNECT.req
(finalización
? conexión y adiós)
T-DISCONNECT.indication
a)
S-DATA.req S-RELEASE.request
(sesión cerrada en
este lado)
S-RELEASE.indicationt S-DATA.indic
S-DATA.req
S-RELEASE.responset
(sesión cerrada) S-DATA.indic
S-RELEASE.confirm
(sesión cerrada)
b)
Fig. 2.20 a) Cierre abrupto de una conexión de transporte; b) cierre ordenado de una conexión de sesión
b) Typed data: pequeñas cantidades de datos que pueden transferirse sin la posesión del
testigo de transmisión
c) Capability data: pequeñas cantidades de datos que se pueden transferir fuera de las
actividades para funciones de control
d) Expedited data: datos con prioridad respecto a los normales; basado en los servicios de
datos urgentes de las capas inferiores de transporte y red (si están disponibles)
La capa de presentación está relacionada con el significado (semántica) y formato (sintaxis) de los
datos intercambiados en una sesión entre procesos de aplicación. Si la capa de transporte ofrece un
intercambio de datos fiable independiente de las redes y la capa de sesión estructura/enriquece ese
intercambio de datos, la capa de presentación ofrece un servicio de intercambio de información, es
decir, a nivel de dicha capa no se intercambian meramente grupos de bytes, sino algo con significado
(por ejemplo: textos escritos, vectores o matrices de números enteros o reales, imágenes, sonidos,
etc.).
Se suele decir que el nombre más adecuado para la capa de Presentación hubiera sido el de capa de
representación. Si el modelo OSI perseguía la interconexión de sistemas que fueran realmente abiertos,
debía resolverse el problema de los diferentes formatos con que cada sistema representaba localmente
su información (dependiente del fabricante del sistema, de su hardware y de su sistema operativo). Es
ahí donde interviene la capa de presentación.
c) Compresión de la información
Para ilustrar mejor la necesidad de la capa de presentación véanse algunos ejemplos: los sistemas de la
marca IBM han venido usando el código EBCDIC para representar la información textual, mientras
que la mayor parte de los demás sistemas usan el código ASCII. En esta situación es evidente que, si
un sistema IBM intercambia un texto con otro sistema, se pierde completamente su significado.
Algunos sistemas almacenan los números enteros en su memoria o disco con el bit más significativo en
primer lugar, mientras que otros lo hacen con el bit menos significativo en primer lugar; no digamos
ya, la manera en que cada sistema representa a los números reales (¿cuántos bits para la mantisa?,
¿cuántos para el exponente?, ¿en qué formato?) o cómo lo hace para estructuras de datos más
complejas (vectores o matrices de números, registros de una base de datos, etc).
a) Conversión del formato de origen al formato de destino en el sistema destino (una vez recibida
la información)
Las dos primeras alternativas suponen que cada sistema debe tener algoritmos de traducción a/de
cada uno de todos los posibles formatos que pueda usar cualquier sistema de cualquier fabricante.
Si N es el número de formatos distintos existentes, el número de algoritmos necesarios crece con
N2 y, además, la introducción de sistemas que usen un nuevo formato de representación de su
información obliga a una actualización en todos los sistemas en comunicación.
sistema A sistema B
3
2
1
Fig. 2.21 Alternativas para lograr la transparencia en la capa de presentación: 1) conversión a/de un formato
común; 2) conversión en origen al formato de destino; 3) conversión en destino del formato origen
1 1
2 2
3 3
. . . .
. . . .
. . . .
N N
N(N-1) 2N
Fig. 2.22 Conversiones de formato necesarias, dados N formatos distintos, para las distintas alternativas
La sintaxis abstracta se utiliza para definir de forma simbólica cualquier estructura de datos
susceptible de ser intercambiada entre procesos de aplicación de sistemas distintos. Para ello se
usa el lenguaje ASN.1 (Abstract Syntax Notation 1). Dicho lenguaje permite definir cualquier
estructura de datos a partir de la definición de unos tipos de datos primitivos o básicos
(INTEGER, BOLEAN, BIT STRING, OCTET STRING, ANY, NULL; OBJECT IDENTIFIER)
y unos constructores (SEQUENCE, SEQUENCE OF, SET, SET OF, CHOICE), siendo similar a
lo que ofrecen leguajes de programación como PASCAL o C.
La sintaxis de transferencia, por otra parte, describe cómo se codifica y transfiere cualquier
estructura descrita mediante ASN.1 (estructura de campos, orden y significado de cada bit en
ellos, etc). Pueden existir diversas sintaxis de transferencia, dependiendo, por ejemplo, de si se
utiliza reducción de redundancia (compresión), cifrado, etc. La figura 2.23 ilustra las anteriores
ideas.
Datos + def. de la
estructura en ASN.1
S-PDUs
conversión conversión
Sintaxis de
transferencia (común)
Otro concepto clave en la capa de presentación OSI es el de contexto. Por contexto se entiende la
descripción de todas las estructuras de datos, mediante ASN.1, que se utilizarán en una conexión
entre procesos de aplicación, así como la sintaxis de transferencia que se aplicará para ellas. Los
contextos se negocian durante el establecimiento de una conexión de presentación y pueden
también alterarse durante ella. Así, por ejemplo, una aplicación de cálculo numérico distribuida
utilizará un contexto claramente distinto al de una aplicación de acceso a una base de datos.
Los servicios que ofrece la capa de presentación, aparte de las funciones de conversión de sintaxis
para mantener la semántica de la información y de las funciones de compresión o cifrado, son los
mismos que ya ofrecía la capa de sesión. Los servicios que una capa transfiere sin modificación
alguna, desde su capa inferior a su superior, suelen denominarse servicios “reflejados” (mirroring
services) o servicios de “paso directo” (pass through services), como se representa
simbólicamente en la figura 2.24.
presentación
Entidad de Servicios de
representación
Fig. 2.24 La capa de presentación “refleja” los servicios de la capa de sesión, excepto aquellos que impliquen
aspectos de representación de la información
Si bien el modelo OSI establece que las funciones de compresión y cifrado deben realizarse en la capa
de presentación, ello no debe necesariamente ser siempre así en una arquitectura de comunicaciones.
Así, por ejemplo, podría concebirse una arquitectura en donde la capa de enlace de datos cifrara y/o
comprimiera las L-PDU (tramas). Las implicaciones de una u otra alternativa pueden ser importantes:
con cifrado/compresión en la capa de enlace de datos, las PCI (cabeceras) de la capa de red y
superiores (transporte y sesión) resultan afectadas, mientras que con dichas funciones realizadas en la
capa de Presentación, no. Asimismo, la primera alternativa implica dotar a los sistemas intermedios de
funciones de compresión/cifrado, mientras que la alternativa de la capa de presentación sólo implica a
los sistemas finales.
a) Ocultar la información (evitar que pueda ser leída por entidades ajenas o no autorizadas)
b) Proteger la información (evitar que agentes externos puedan modificar, borrar o insertar partes)
En la figura 2.25 se representa el escenario general donde se aplican las técnicas criptográficas.
Actualmente, los algoritmos criptográficos son estándares públicos, es decir, conocidos por todos,
estando confiada su potencia al secreto y tamaño de la clave y al hecho de que los algoritmos sean
robustos, en el sentido de que no existan “atajos” para descifrar el texto y sólo quepa probar todas las
claves posibles (método de la fuerza bruta).
Por substitución se entiende el reemplazo de cada carácter por otro o por un grupo de ellos. Entre esas
técnicas pueden citarse, por ejemplo:
a) Aplicación de una máscara XOR a cada carácter. El algoritmo lo constituye la función XOR
(O-exclusivo), la clave la constituye la máscara. Así, por ejemplo, si la clave (máscara) es
“11001110” (“CE”hex) y el texto a cifrar es “CASA” (“43 41 53 41”hex), el texto cifrado sería
“8D 8F 9D 8F”hex . El algoritmo de descifrado para recuperar el texto original es el mismo, es
decir, aplicar de nuevo la función XOR con la clave a cada octeto. En este ejemplo, conocido el
algoritmo, el número de claves posibles es de sólo 28, lo que da una idea de su poca seguridad.
Sin embargo, dicho algoritmo se utilizó hace años para codificar los documentos de texto por
parte de un conocido fabricante de software que confiaba en el secreto del algoritmo.
b) Uso de una tabla de traducción (variante del método utilizado por el emperador romano César
Augusto para intercambiar partes de guerra). Así, por ejemplo, dada la tabla de traducción
siguiente (Q, M, U, G, X, J, P, R, A, H, W, …) que indica que la primera letra del abecedario
debe sustituirse por la Q, la segunda por la M y así sucesivamente, el texto “BECA” resultaría
“MXVQ”; puede verse fácilmente que el número posible de tablas distintas, es decir, de claves,
es el factorial del número de letras del abecedario (27!). Dicho algoritmo es algo más robusto,
aunque con los ordenadores actuales puede vulnerarse fácilmente.
Por transposición se entiende el cambio en el orden de los octetos del mensaje a cifrar según indique
una clave. Así, por ejemplo, dada la clave (3, 1, 4, 2) que indica las transposiciones a realizar en el
texto a cifrar, tomado en bloques de cuatro octetos, de manera que el tercer octeto de cada bloque se
coloca en primer lugar, el primer octeto en segundo lugar, etc., el texto “MI_ORDENADOR”
resultaría “_MOIERNDOARD”.
El método de cifrado DES propuesto en USA divide el texto a cifrar en bloques de 64 bits sobre los
que se aplican elaboradas técnicas de substitución y transposición repetidamente a partir de la
información que contiene una clave de 56 bits. El método ha demostrado ser robusto y existen mejoras
basadas en el uso de claves de mayor longitud, el cifrado encadenado de bloques, etc. Existen circuitos
integrados para llevar a cabo los algoritmos DES de forma rápida y eficiente. Este método de cifrado
se llama simétrico porque utiliza la misma clave para cifrar y descifrar. Su inconveniente es el
problema de la distribución de claves; en efecto, el emisor debe mandar al destinatario la clave usada
en el cifrado, ¡pero ello no puede hacerse por la misma red que se considera insegura y para la cual se
utiliza el cifrado!; las claves deben enviarse, por tanto, por otro medio que pueda considerarse seguro
(envío personal, en mano, por ejemplo). En muchos casos, tampoco se desea que el receptor de una
información que se manda cifrada conozca la clave que el emisor utiliza para todos sus envíos, pues
podría ser suplantado por aquel. En estos casos es más conveniente usar métodos de cifrado
asimétricos o de clave pública, como se describe a continuación.
Uno de los problemas más importantes de las técnicas de criptografía es el de la distribución de las
claves. Si un emisor sospecha que algún intruso conoce su clave y desea cambiarla, éste no puede
utilizar la propia red insegura para mandar su nueva clave al destinatario. Tampoco es deseable, en
muchas ocasiones, que el destinatario conozca la clave que el emisor utiliza para todos sus envíos.
Los algoritmos de clave pública se basan en que cada usuario que desea intervenir en un entorno de
intercambio seguro de información posee una clave de dos partes: su clave pública Kp y su clave
privada o secreta Ks . Un usuario puede fácilmente generar (o solicitar a un organismo administrador
de claves de confianza) pares de claves (Kp, Ks). La clave pública Kp, como indica su nombre, es
depositada en una base de datos al alcance de cualquier otro usuario, mientras que la clave privada Ks
es mantenida en secreto por su usuario y nunca viajará por la red. Aunque, obviamente, existe una
relación entre Kp y Ks, es extremadamente difícil deducir Ks a partir de Kp, es decir
Ks f (Kp) (2.5)
Además se cumple que los algoritmos de cifrado empleados (en adelante AE) son asimétricos, es
decir, no reversibles fácilmente. La reversibilidad estará condicionada a la utilización de la otra parte
del par que constituye una clave. Supongamos que un usuario A desea mandar un mensaje M (en claro)
a otro usuario B de manera que nadie, excepto el destinatario pueda entender su contenido. Para ello el
usuario A cifra el mensaje M usando la clave pública KpB del destinatario, obteniendo el mensaje
cifrado X que viajará por la red, es decir,
X = AE (KpB, M) (2.6)
Nadie podrá descifrar dicho mensaje (el proceso de cifrado con KpB no es reversible), es decir,
excepto quien posea la otra parte de esa clave, es decir KsB, es decir, el destinatario
AE (KsB, X) = M (2.8)
Estos algoritmos se llaman asimétricos, dado que la clave para cifrar y descifrar son distintas.
Cualquier usuario distinto de B no podrá entender, descifrar, el mensaje X. Además, si el usuario B
desea cambiar de claves (porque sospecha que alguien haya obtenido su clave privada o simplemente
por rutina de seguridad) no tiene más que generar un nuevo par de claves (K’pB, K’sB) y distribuir por
la red sin restricciones K’pB.
KpB KsB
En el último tercio del siglo pasado se descubrieron algoritmos con las peculiares características antes
citadas. A grandes rasgos, éstos se basan en la generación de pares de números primos muy grandes y
en la aplicación de la función exponencial. Su coste computacional es relativamente elevado y sólo se
usan donde son imprescindibles o combinados con los algoritmos simétricos de tipo DES, por
ejemplo.
Pero dichos algoritmos aún permiten más; por ejemplo, implementar mecanismos de autentificación o
de firma digital. Para ello, basta que además de
Si además, el usuario A desea mandar un mensaje firmado F a otro usuario B, de manera que sólo el
destinatario pueda leerlo, procede a cifrarlo de nuevo usando la clave pública del destinatario, como
ya se vio anteriormente, es decir:
Los sistemas de cifrado en las redes cada vez tienen más importancia en la llamada sociedad de la
información. Algunos ejemplos de herramientas de seguridad, que combinan algunas de las técnicas
descritas con otras nuevas, son: Kerberos, SSL (Secure Socket Layer), PGP (Pretty Good Privacy),
etc.
a) Basada en los contenidos (semántica) de las fuentes de datos: tienen en cuenta el tipo de
información que representan los datos con lo que pueden aplicarse las técnicas de reducción
más adecuadas en cada caso.
En íntima relación con los dos tipos anteriores, también se habla de:
a) Compresión con pérdidas: es decir, la información que se recupera tras someterse al proceso de
compresión no es idéntica a la original, pero es suficiente para los propósitos establecidos.
Típicamente se usa en la compresión de sonidos e imágenes fijas o en movimiento; para este
tipo de información, cuyo destinatario es el oído u ojo humano, se admiten ciertas
degradaciones en la calidad que toman ventaja de las peculiares características (o
imperfecciones) de los sentidos humanos. La compresión con pérdidas está, en general,
claramente asociada con la compresión basada en los contenidos y permite índices de
compresión elevados (del orden de 10:1 hasta 50:1). Algunos ejemplos para este tipo son: los
codificadores GSM o MP3 para audio y los algoritmos GIF, JPEG, MPEG para imágenes y
video.
ejecutable, etc. Dicha compresión está asociada a algoritmos genéricos o independientes de las
fuentes y se obtienen índices de compresión generalmente menores. Algunos ejemplos para este
tipo son: los códigos de Huffman, de Lempel-Ziv, los conocidos ficheros .ZIP, etc.
La capa de aplicación es la más superior del modelo arquitectónico y ofrece los llamados servicios de
aplicación e incluso las aplicaciones más comunes y estandarizadas de forma completa. Al principio
del capítulo se comentó que el objetivo de toda arquitectura de comunicaciones era poner en contacto
a los procesos de aplicación.
Un proceso de aplicación es aquella parte de un sistema final que procesa información en un entorno
de red OSI y que es invocado por un usuario o proceso local o remoto; suele dividirse
conceptualmente en dos partes: el agente de aplicación (aquella parte del proceso de aplicación fuera
del entorno OSI, dependiente del sistema local y que puede actuar como interfaz con el usuario u otros
procesos internos) y la entidad de aplicación (aquella parte que pertenece a la capa de aplicación
OSI).
La capa de aplicación puede llegar a ser muy compleja y en el modelo OSI se considera formada por
los llamados elementos de servicio de aplicación (en adelante ASE: Application Service Element). De
estos se distinguen: los CASE (Common ASE), módulos que ofrecen funcionalidades genéricas a un
programador de aplicaciones en red, por ejemplo, y los SASE (Specific ASE), módulos destinados a
construir aplicaciones concretas estandarizadas en la capa de aplicación.
a) ACSE (Association Control Service Element): el más básico, pues aporta la funcionalidad
básica para las conexiones a nivel de aplicación, llamadas asociaciones. Nótese que la palabra
sugiere una interacción al más alto nivel que hereda todos los refinamientos aportados por cada
una de las capas del modelo arquitectónico; es decir, una asociación es una conexión altamente
refinada que permite el intercambio transparente de información (presentación) de forma segura
y autentificada (presentación), eficiente (transporte, presentación -en su faceta de compresión-),
fiable (transporte, enlace de datos), estructurada (sesión) entre cualquier sistema final (red), etc.
b) RTSE (Reliable Transfer Service Element): obsoleto, diseñado para la transferencia de grandes
volúmenes de información y antes de que las capas de sesión y presentación estuvieran
completamente desarrolladas.
d) CCR (Commitment, Concurrency and Recovery): para el soporte de las llamadas acciones
atómicas (es decir, indivisibles). Una acción atómica es aquella que implica a dos o más
entidades, que debe desarrollarse sin interferencia de entidades ajenas y, lo más importante, que
debe realizarse en su totalidad o no realizarse en absoluto. En una acción atómica existe un
maestro (que supervisa la realización de toda la acción) y uno o más esclavos y se establecen
varias fases. En la primera fase, el maestro solicita a los esclavos las acciones a realizar y estos
responden si están en condiciones de realizarlas (compromiso); si, y sólo si, todos los esclavos
Los SASE están orientados a ofrecer funciones más específicas relacionadas con una aplicación
completa usual y estandarizada. Algunas de las aplicaciones estandarizadas por OSI en la capa de
aplicación son:
c) VT (Virtual Terminal)
d) DS (Directory Services)
A continuación se presentaran sucintamente las aplicaciones de red más comunes haciendo referencias
al enfoque que propone la arquitectura OSI como al de otras arquitecturas como la TCP/IP.
En la arquitectura TCP/IP, FTP (File Transfer Protocol) es una aplicación para el acceso a un sistema
de ficheros en un sistema remoto y la transferencia de ficheros entre sistemas. Se trata de una
aplicación relativamente antigua, sencilla e íntimamente ligada a los sistemas operativos de tipo
UNIX. Permite la ejecución de los comandos habituales de acceso y gestión a sistemas de ficheros
(listar, cambiar de directorio, borrar, etc.), así como la transferencia de archivos o grupos de archivos.
La aplicación no ofrece apenas nivel de abstracción en el sentido de que es bastante dependiente de los
sistemas de ficheros (tipo UNIX, aunque también se haya adaptado a los de tipo Windows); tampoco
garantiza el mantenimiento del significado del contenido de los ficheros, al pasar éstos de un sistema a
otro, pues dichos ficheros son tratados de forma transparente por la aplicación. La aplicación consta de
las entidades cliente ftp y servidor ftp, que se comunican mediante el protocolo FTP, y usa dos
conexiones de transporte TCP, una para el control de la sesión (transferencia de comandos y
respuestas) y la otra para la transferencia de archivos, habitualmente en los puertos 20 y 21.
También asociada a la arquitectura TCP/IP, NFS (Network Filing Systems) es una potente y robusta (a
pesar de ser enteramente no orientada a conexión) aplicación para la compartición de ficheros entre
múltiples sistemas en un entorno generalmente local. Su filosofía de operación se basa en que: un
sistema puede exportar una parte o la totalidad de su sistema de ficheros (es decir, hacerlo visible y
accesible, a través de la red, a otros sistemas); un sistema puede montar localmente sistemas de
ficheros exportados por otros (es decir, incorporarlos a su sistema de ficheros y verlos como propios).
La transparencia de este proceso es casi total, en el sentido de que se pueden realizar operaciones de
abertura y acceso para lectura y/o escritura (open, read, write) de ficheros remotos como si fueran
locales; aquí radica la gran diferencia respecto a la aplicación FTP comentada anteriormente. Por otra
parte, la transparencia en cuanto a la semántica de los ficheros no es considerada, es decir, todos los
sistemas deben estar de acuerdo en la estructura interna y significado de los datos de los ficheros que
comparten.
La propuesta de la arquitectura OSI es FTAM (File Transfer, Access and Management), una
aplicación completa que pretende cubrir todos los aspectos relativos a sistemas de ficheros de sistemas
finales en un entorno de red abierto. Su filosofía gira en torno al concepto de sistema de ficheros
virtual (en adelante VFS: Virtual File System), es decir todas las operaciones relacionadas con ficheros
entre sistemas abiertos se realizan sobre ese VFS o, en otras palabras, los sistemas de ficheros, o partes
de éstos, que un sistema desea compartir en red se ven como un VFS, independientemente de sus
particularidades locales.
FADU
FADU DU FADU DU
Fig. 2.28 Los diversos puntos de acceso al fichero, cuya estructura genérica es de árbol, se describen por los
FADU (File Access Data Unit). Asociados a cada uno de estos puntos pueden existir o no datos, los DU (Data
Unit)
FTAM define asimismo las operaciones que pueden realizarse sobre el VFS. Los distintos grupos de
operaciones definen diversos regímenes de operación posibles (o grados de interacción) para sistemas
que se relacionan mediante FTAM. Muy sucintamente, la figura 2.29 representa los diferentes
regímenes y algunas primitivas de servicio asociadas a ellos.
régimen de asociación
régimen de selección
régimen de acceso
F-CHANGE- ATTRIB
F-LOCATE
régimen de transferencia
F-READ-ATTRIB
F-ERASE
F-DATA-END
F-DATA
F-READ
F-WRITE F-T RANSF-END
F-OPEN F-CLOSE
F-SELECT F-DESELECT
F-CREATE F-DELETE
F-INITIALIZE F-TERMINATE
F-ABORT
Fig 2.29 Los regímenes de operación en FTAM y algunas primitivas de servicio asociadas
Fig. 2.30 Las operaciones sobre el sistema de ficheros virtual (VFS) se “mapean” o traducen en el
correspondiente sistema de ficheros local
La norma X.400 del CCITT de 1984 define los sistemas MHS (Message Handling Systems). En 1988
se produce su armonización con la propuesta de la ISO llamada MOTIS (Message Oriented
Interchange System).
En el entorno de la arquitectura TCP/IP de internet el nombre que más suena es SMTP (Simple Mail
Transfer Protocol).
Los sistemas de mensajería, conocidos popularmente como de correo electrónico (E-mail), tuvieron
una gran aceptación desde un principio, puesto que no requerían la presencia simultánea del emisor del
mensaje y de su receptor (un sondeo mostró que sólo el 28% de las llamadas telefónicas realizadas en
el entorno profesional tenían éxito debido a que se producían errores en el número de teléfono, la línea
se encontraba ocupada, el destinatario no estaba disponible, o estaba ausente, o en una reunión, o bien,
no conocía la respuesta a la consulta realizada en aquel momento…).
a) Sobre (envelope): contiene las direcciones del destinatario (nombre, localización) y del
remitente, las opciones especiales tales como la urgencia del mensaje, si está cifrado y/o
firmado, si se requiere confirmación de entrega (correo certificado), etc.
b) Cabecera del mensaje (header): contiene información del remitente (nombre, empresa), la fecha
de emisión del mensaje, el tema o resumen del mensaje (subject), las referencias a otros
mensajes y la estructura del mensaje (de cuantas partes consta, de que tipo de contenido se trata,
etc.).
c) Cuerpo del mensaje (body): el/los contenido/s del mensaje en sí; los contenidos pueden ser
textos, ficheros binarios, gráficos, imágenes en movimiento, sonidos, etc.
P2
usr
usr UA
P3
P3 P2
MTA UA
P1
P1
P3 usr
MTA UA
P2
P1 MTA
P7 usr
gateway P3 MS UA
otros
sistemas
b) MTA (Message Transfer Agent): Encargadas del reenvío o progresión de los mensajes hacia su
desntino; son, por así decirlo, los nodos de conmutación de mensajes a nivel de dicha
aplicación. Interpretan el sobre de los mensajes al igual que las oficinas de correos del sistema
postal tradicional.
Los protocolos establecidos entre las diferentes entidades funcionales de un sistema de mensajería
electrónica son:
c) P3: protocolo que se establece entre los UA y los MTA. En la arquitectura TCP/IP, el
protocolo con dicha función es también SMTP (comentado anteriormente).
d) P7: protocolo que se establece entre los UA y las entidades MS. Ejemplos de dicho protocolo,
asociados a la arquitectura TCP/IP, serían POP3 (Post Office Protocol, versión 3) e IMAP
(Internet Message Access Protocol).
Una de las formas más habituales de interacción entre el usuario humano y el sistema informático es a
través del concepto de terminal. Independientemente de otras formas más modernas y refinadas de
interacción (escritorios, ventanas, ratón), el terminal, formado por una unidad de entrada de datos
(normalmente un teclado) y una unidad de salida de datos (normalmente una pantalla de visualización
de caracteres alfanuméricos), sigue siendo una forma básica de acceso a los sistemas. Muchos
procesos de aplicación hacen uso del concepto de terminal para la interacción con el usuario humano;
ahora bien, a lo largo de la historia se han definido muchos tipos de terminales (básico o teletipo,
ANSI, VT-52, VT-100, IBM 3270, etc.).
La aproximación de OSI a dicho tema se basa en el concepto de terminal virtual (en adelante VT:
Virtual Terminal). El VT es una representación abstracta de una unidad de entrada/salida, de sus
Las operaciones sobre el VT pueden ser de escritura de caracteres en determinada posición (x, y), de
borrado de caracteres, de borrado de línea, de cambios de atributos (color, aspecto), de borrado de
pantalla, de trazado de líneas o dibujo de bloques, en terminales gráficos, etc. Las aplicaciones OSI
(editores de textos, bases de datos, etc.) interactúan con un terminal virtual, es decir, sólo deben
escribirse una vez en relación a ese terminal virtual, independientemente del terminal real que se use;
en el otro extremo existe un terminal real y las correspondientes funciones de “mapeo” asociadas,
como se ilustra en la figura 2.32.
Aplicación Teclado +
pantalla reales
Mapeo
VT-PDUs
Entidad VT Entidad VT
Aplicación
a)
Estructuras compartidas
Aplicación
Estructura de salida
b)
Estructura de entrada
Fig. 2.33 Modos de funcionamiento de un terminal: a) síncrono (una estructura de datos representa al VT en
cada extremo y el intercambio de VT-PDU mantiene su coherencia; b) asíncrono (la entrada y salida de
terminal están desvinculadas)
El terminal tradicional en sistemas tipo UNIX opera en el modo asíncrono, es decir, la entrada y salida
están desligadas y sujetas al proceso de aplicación.
En la arquitectura TCP/IP, los procesos telnet cliente y telnet servidor y el protocolo TELNET
establecido entre ellos representan la alternativa histórica, y algo arcaica ya, al acceso de terminal
remoto. Telnet también define un terminal virtual (NVT: Network Virtual Terminal) sobre el que se
realizan las operaciones de entrada/salida de muchas aplicaciones. Dicho terminal es de tipo
alfanumérico únicamente y posee un modo “transparente” que permite a muchas aplicaciones
desarrolladas para terminales reales típicos (por ejemplo, VT-100 de Tektronic) funcionar
adecuadamente. Ligado también a la arquitectura TCP/IP y a los sistemas UNIX, X-Windows y el
protocolo X-protocol, representan una alternativa más moderna y versátil a la interacción remota entre
usuarios y procesos de aplicación.
Aplicaciones de directorio
c) Disposición de los resultados (retornar al usuario invocador, nueva entrada para otro proceso
en otro sistema, es decir, encadenamiento de trabajos, etc.)
3.1 Introducción
Los sistemas de transmisión pueden ser muy frecuentemente modelados según un esquema como el de
la siguiente figura:
O P
Fig. 3.1 Modelo simple de un sistema de transmisión de datos
Este esquema aparece de forma natural al estudiar las redes de transmisión. Muestra una fuente de
datos, una cola de espera o almacenamiento temporal a la espera de que las unidades que en ella se
acumulen sean atendidas por un servidor.
De este modelo, deben destacarse dos aspectos fundamentales: La disciplina con que se generan los
mensajes (O) y la disciplina con que se sirven (P). El término disciplina hace referencia a la estadística
de las unidades de información.
Una línea de transmisión puede ilustrar un ejemplo: la cola modela el retardo de transmisión (con
posibles variaciones, asociadas al tamaño de la cola), y las tasas O y P corresponden a la velocidad de
entrada y salida de la información de dicha línea, que podría tener pérdidas de información.
En un sistema como el de este ejemplo, debe considerarse que todas las unidades de datos tienen las
mismas características y requieren el mismo esfuerzo desde el punto de vista de su generación y
servicio. En ciertos casos, ello puede implicar que sean de tamaño fijo.
Supóngase una tasa de llegadas de información al sistema de O = 5 paquetes/seg. (es decir, en media se
recibe un paquete cada 1/O = 0,2 segundos. Pasemos a estudiar las situaciones que se pueden distinguir
en función del valor de la tasa de servicio P, por medio de simples razonamientos intuitivos:
Para P<O, el sistema sirve las unidades en cola a un ritmo inferior al que llegan a ella.
Por lo tanto, no es capaz de servir las unidades que se reciben a razón de 5 por segundo en media, por
lo cual el tamaño de la cola en cada instante dependerá de la estadística de las llegadas y en régimen
permanente tenderá hacia infinito.
Para P>O, el sistema es capaz de servir más de 5 paquetes por segundo, por lo cual la cola tendrá un
tamaño finito. Ahora bien, el tamaño en general no será nulo, puesto que aunque las llegadas tengan
una media O, podrían producirse en ráfagas.
El último caso a considerar es la situación límite P=O. En este caso, el sistema se encuentra al límite de
estabilidad.
En resumen,
O Cola o f
° (3.1)
P ® O Límite estabilidad
°! O Estable
¯
De este razonamiento aparentemente se deriva la necesidad de evitar sistemas cuyas colas de espera
queden muy ocupadas, para lo cual emplear valores de P suficientemente mayores a O. Aunque no es
incorrecto, no siempre es oportuno considerar este criterio.
Una condición muy empleada en el diseño de sistemas, en general razonable, es la previsión de una
cierta congestión de modo que se puedan rentabilizar económicamente los recursos invertidos.
U O/P (3.2)
! 1 Cola o f(Inestable)
° (3.3)
U ® 1 Límite estabilidad
° 1 Estable
¯
Obsérvese que en cualquier sistema que se desee analizar deben considerarse los siguientes aspectos:
c) Cuántos servidores trabajan en paralelo (es decir, cuantas unidades pertenecientes a la misma
cola de espera pueden servirse simultáneamente)
e) Con qué disciplina operan las colas, desde el punto de vista de almacenar unidades y
entregarlas a los servidores para que sean atendidas. Algunas alternativas comunes son las
denominadas FIFO (first in first out - primera en entrar, primera en salir -) y LIFO (last in first
out - última en entrar, primera en salir -).
En esta sección vamos a comentar una de las más empleadas por su simplicidad, propiedades y
características generales: los procesos de Poisson. Sin embargo, estas prometedoras características le
restringen a marcos de análisis más bien simples y no válidos en general para casos en los cuales
participen fuentes de datos más o menos complejos, como puedan ser los multimedia (audio, video,
etc.), aunque no es menos cierto que se ajusta bien a fuentes de datos en general.
b) Población infinita. Es decir, que el número de fuentes sea tan grande que se pueda considerar
que la tasa media de llegada de unidades no depende de la ventana temporal y es por tanto una
constante, cuyo valor es O
c) Que la probabilidad de que se produzca una llegada sea proporcional al tiempo 't, es decir, que
sea O·'t+O('t), donde O('t) es una O de Landau y hace referencia a los términos de orden
superior a 't (tienden hacia 0 más rápido que 't, conforme 't tiende a 0)
't
tiempo
t t + 't
Bajo estas hipótesis, se demostrará más adelante que la probabilidad de que se produzcan n llegadas
de unidades en un tiempo T (o 't) es:
(OT ) n OT
Pn (T ) e (3.4)
n!
¦ P (t)
n 0
n 1 (3.5)
(Ot ) 0 Ot
P0 ( t ) e e Ot (3.6)
0!
a) Bien como la suma de tener 1 llegada, 2 llegadas, 3 llegadas, etc. hasta infinito
b) Bien, de forma más simple (recordando que las probabilidades están normalizadas como indica
la expresión 3.5) como 1 menos la probabilidad de no tener ninguna
Pn z 0 ( t ) 1 e Ot (3.7)
3.2.2 Propiedades
f
E>n @ ¦ n P (t) n (3.8)
n 0
Por lo que,
f
( Ot ) n O t f
(Ot ) n
E>n @ ¦n e e Ot ¦ e Ot Ot e Ot Ot (3.9)
n 0 n! n 1 ( n 1)!
x
f
xk
e ¦
k 0 k!
(3.10)
A la vista de que E[n] = O · t se puede deducir - tal como puede esperarse - que O es la velocidad de las
llegadas por unidad de tiempo, ya que O = E[n] / t.
V2 > @
E n 2 >E>n @@
2
(3.11)
V2 Ot (3.13)
Según esta propiedad, se definen los siguientes tipos de tráficos, en función de la relación entre la
varianza y la media:
! 1 Tráfico de pico
V2 ° (3.15)
Si ® 1 Tráfico de Poisson
E>n @ ° 1 Tráfico suavizado
¯
Hasta el momento nos hemos ocupado de estudiar cuántas llegadas se producen en un determinado
intervalo de tiempo en una estadística de un proceso de Poisson. En esta sección se estudiará cuánto
tiempo transcurre entre llegadas consecutivas mediante la evaluación analítica y obtendremos la
función densidad de las llegadas para un proceso de Poisson.
Considérese para ello un intervalo de tiempo con un origen de tiempo arbitrario, al final del cual se
produce la llegada de la siguiente unidad.
Origen Llegada de
arbitrario una unidad
(t=0)
En la situación de la figura 3.3, se tiene que no se recibe ninguna unidad en el intervalo de tiempo
comprendido en (0,W).
Por lo tanto, la probabilidad de no tener ninguna llegada en el intervalo (0,t) es exactamente la de que
W sea mayor a t. Es decir,
P(W ! t ) P0 ( t ) e Ot (3.16)
Y por tanto, P (W d t ) 1 e Ot . Nótese que P(W t) denota la función distribución FW(t), por lo que
por simple derivación puede obtenerse la función densidad:
dFW ( t )
fW ( t ) O e Ot (3.17)
dt
En resumen, en un proceso de Poisson, las llegadas siguen una función densidad exponencial.
A partir de esta función densidad, puede calcularse el tiempo medio entre llegadas:
f f 1
E >t @ ³ t fW (t ) dt ³ t O e Ot dt (3.18)
0 0 O
2
> @
E t2
O2
(3.19)
1
V2 (3.20)
O2
Este último resulta especialmente interesante, puesto que resulta que, en un proceso de Poisson, la
media entre dos llegadas consecutivas coincide con la desviación. En otras palabras, se recibe una
unidad en media cada 1/O, y puede estar desviada en media esa misma cantidad.
La suma de procesos de Poisson es otro proceso de Poisson cuya tasa es la suma de las tasas
tributarias.
O1
OT=O1+O2
O2
La demostración se basa en justificar el caso de dos fuentes de Poisson, ya que para el caso de tres,
basta con asociar primeramente dos de ellos para demostrar que también se cumple. Del mismo modo
se puede proceder para demostrar cualquier otro número de fuentes.
Supóngase un caudal OT de Poisson. Al aplicar una función que descomponga este caudal en caudales
más pequeños de forma aleatoria de acuerdo a una probabilidad Pi, los caudales resultantes tendrán
una tasa Oi = OT · Pi, y serán también de Poisson.
P1
O1=OT·P1
OT O2=OT·P2
P2
Pn On=OT·Pn
Fig. 3.5 Descomposición de procesos de Poisson
La demostración puede efectuarse para el caso de separar 2 de ellos, y el caso general será la
descomposición de éstos hasta conseguir los n flujos deseados.
Considérese un sistema con diversos estados. Denominemos Ei al estado i. Por ejemplo, el estado Ei
puede simbolizar el estado asociado a que i usuarios estén en un instante dado efectuando una llamada
telefónica. Si hubiera n circuitos en total para cursar las llamadas, habría que definir desde un estado
E0 hasta un estado En.
Nótese que la notación del vector se puede distinguir porque en ella no aparece el subíndice.
0 d Pm (t i ) d 1
(3.22)
¦P
m
m (t i ) 1
Diremos que tenemos una cadena por disponer de un conjunto de estados que pueden representarse
gráficamente enlazados entre ellos mediante flechas de transición entre unos estados y otros.
En general, la evolución de un sistema puede depender de todos los estados pasados, es decir, que i,
la Pr[Em(t=ti+1)] puede depender de los estados anteriores En(t=ti), Ep(t=ti-1), Eq(t=ti-2), etc.
cumpliéndose que ti+1 > ti > ti-1 > ti-2 >etc. En el caso de que únicamente dependa del estado presente,
En(t=ti), se puede escribir que:
En este caso, diremos que estamos ante un proceso sin memoria, un proceso de Markov.
Según las posibles transiciones entre los estados, queda definida la cadena de Markov, tal como
muestra la figura 3.6. Nótese que no es necesario que las flechas alcancen todos los posibles estados.
Cada flecha va asociada a una probabilidad de transición entre estados que debe ser definida.
Estado
1
Estado
2
Estado
3 …
Fig. 3.6 Ejemplo simple de cadena de Markov
Las señales de reloj de los sistemas digitales son un ejemplo de sistema discreto. La llegada del
público a la entrada de un cine es un ejemplo de sistema continuo, puesto que se efectúan sin ningún
instante de tiempo predeterminado.
De ahora en adelante nos vamos a interesar únicamente por los sistemas de tiempo continuo.
Dado que nos interesan los sistemas cuyas llegadas y salidas se produzcan en tiempo continuo, de
ahora en adelante nos ocuparemos únicamente de cadenas de este tipo.
En este caso, la notación que anteriormente habíamos expresado en general como Pr[Em(t=ti+1)] ahora
se puede expresar simplemente como Pr[Em(t)], o más abreviadamente Pm(t).
cumpliéndose que
0 d Pm (t ) d 1
(3.25)
¦P
m
m (t) 1
En este caso, que sea una cadena de Markov conduce a que la notación sea
Esta expresión se interpreta como la probabilidad de pasar del estado m al n desde el instante u al t.
Dado que la probabilidad de estar en el estado n en el instante t puede descomponerse según todos los
caminos procedentes de cada uno de los estados hasta n, podemos escribir que:
Estado
Estado n
u t tiempo
Fig, 3.7 Transiciones desde todos los estados hasta uno determinado
Esta expresión sintetiza todos los aspectos relacionados con las cadenas de Markov de tiempo
continuo estudiados en esta sección.
De acuerdo a la figura 3.8, que muestra la evolución del sistema desde un estado m en el instante u
hasta un estado n en t+'t, definimos la ecuación de futuro como:
Todos los
posibles Estados
Estado
Estado m
Estado n
u t tiempo
t+'t
ª º
Pmn (u, t 't ) Pmn (u, t ) «¦ Pmp ( u, t ) Ppn ( t , t 't )» Pmn (u, t ) Pnn ( t , t 't ) Pmn (u, t ) (3.31)
¬ pzn ¼
Dividiendo por 't y tendiendo al límite 'tÆ0, podemos reconocer la expresión de la derivada, con lo
cual resulta la siguiente ecuación de futuro:
wPmn ( u, t ) ª º
«¦ Pmp (u, t ) q pn ( t )» Pmn ( u, t ) q nn ( t ) (3.32)
wt ¬ pz n ¼
Ppn ( t , t 't )
q pn ( t ) lim (3.33)
't o0 't
Ppn ( t , t 't ) 1
q nn ( t ) lim (3.34)
't o0 't
Se puede aplicar la siguiente condición inicial: en instante de tiempo 0 se parte del estado 0, por lo
cual P0n(0,t) = Pn(t). Entonces la ecuación de futuro puede ser reescrita de la siguiente manera:
dPn ( t ) ª º
«¦ Pp ( t ) q pn (t )» Pn ( t ) q nn ( t ) (3.35)
dt ¬ pz n ¼
¦q
n
pn (t) 0 (3.36)
Si se define la matriz Q(t) como la formada por [qpn], se puede escribir la siguiente ecuación que
resume lo contado hasta el momento:
dP( t )
P( t )·Q( t ) (3.37)
dt
Hasta el momento, se han estudiado las cadenas de Markov en las cuales desde cualquier estado se
puede ir a cualquier otro en el siguiente instante de tiempo.
Vamos a continuación a restringir esta situación y tomar como hipótesis que únicamente se puede
pasar en el siguiente instante de tiempo a un estado inmediatamente vecino, esto es, desde el estado En
se puede pasar al En+1, al En-1 o permanecer en En. Este escenario define los procesos de nacimiento
(cuando se pasa a un estado superior) y muerte (a un estado inferior).
En este caso, únicamente no serán nulas las probabilidades Pm,m+1, Pm,m y Pm,m-1.
Como ejemplo, puede tomarse las llegadas a la cola de un cine. Cuando llega alguien, se pone a la
cola. Incluso, aunque llegue un grupo, se puede considerar que cada persona se pone en cola con un
diferencial de tiempo entre cada una de ellas.
dPn ( t )
Pn 1 ( t ) q n 1,n (t ) Pn 1 ( t ) q n 1,n ( t ) Pn ( t ) q nn (t ) (3.38)
dt
En este caso, considerando 3.36, se cumplirá que qnn(t) = - (qn,n+1(t) + qn,n-1(t)). Usando la nueva
notación, resulta que qnn(t) = - (On(t) + Pn(t)), donde hay que prestar un especial cuidado a los
subíndices.
dPn (t )
° dt P n1 (t )·Pn1 (t ) On1 (t )·Pn1 (t ) (On (t ) P n (t ))·Pn (t ) ; n ! 0
® dP (t ) (3.39)
° 0 P1 (t )·P1 (t ) O0 (t )·P0 (t ) ;n 0
¯ dt
Constituye un sistema de ecuaciones diferenciales. Para su resolución, por motivos de linealidad del
sistema, siempre deberá despreciarse una y tomar otra ecuación que sea linealmente independiente.
Una que resulta adecuada para este fin es:
¦ P (t )
n 0
n 1 (3.40)
0 1 n-1 n n+1
Fig. 3.9 Cadena de Markov de tiempo continuo para procesos de nacimiento y muerte
3.3.5 Ejemplo
a) Proceso homogéneo. En este caso, las tasas de nacimiento y muerte no dependerán del estado:
On(t) = O(t), n
b) Población infinita. Un conjunto de fuentes tan “alta” permite garantizar que la velocidad del
sistema será constante. En este caso, O(t) = O ( = constante), t
c) Asumamos también que sea un proceso de nacimiento puro, es decir, no hay muertes (Pn(t) = 0)
Una primera reflexión nos conduce a pensar que éstas son precisamente las características de los
procesos de Poisson. Veamos, pues, con las herramientas de que disponemos, qué podemos obtener.
O O O
0 1 2
dPn (t )
° dt 0 O ·Pn1 (t ) (O 0)·Pn (t ) ; n ! 0
® dP (t ) (3.41)
° 0 0 O·P0 (t ) ;n 0
¯ dt
es decir,
dPn (t )
° dt O ·Pn1 (t ) O ·Pn (t ) ; n ! 0
® dP (t ) (3.42)
° 0 O ·P0 (t ) ;n 0
¯ dt
1 ; k 0
Pk (0) ® (3.43)
¯0 ; k z 0
donde la condición inicial tiene en cuenta que en el instante inicial el sistema se encuentra en el estado
0 (sin ninguna unidad).
dP0 (t )
P0(t): O ·P0 (t ) Æ P0 (t ) A·e O ·t
dt
Mediante la condición inicial, se pueden obtener las constante de integración que irán apareciendo en
el sistema. Para el caso de A de forma inmediata se obtendrá su valor 1.
Por tanto, P0 (t ) e O ·t
dP1 (t ) dP1 (t )
P1(t): O ·P0 (t ) O ·P1 (t ) Æ O ·e O ·t O ·P1 (t ) Æ P1 (t ) O·t ·e O ·t
dt dt
Siguiendo la resolución del sistema para P2(t), P3(t), etc. se puede obtener una expresión general:
(O·t ) n O ·t
Pn (t ) ·e (3.44)
n!
Se reconoce la expresión que al principio de este capítulo se usó para definir los procesos de Poisson.
Por lo tanto, este ejemplo permite justificarla.
Cuando se desea estudiar el régimen permanente de un sistema, éste ha alcanzado una situación en la
cual ya no hay dependencias temporales. Las derivadas respecto al tiempo pasan a ser nulas.
En el caso de los procesos de nacimiento y muerte, el régimen permanente supone que dPn(t)/dt =0 y el
sistema de ecuaciones diferenciales 3.39 queda reducido a:
0 1 k-1 k k1
De estas ecuaciones y cadena representada se puede concluir que estos procesos pueden estudiarse en
régimen permanente como flujos entrantes y salientes.
Los valores que pueden encontrarse son los siguientes, asociados a los estados iniciales, finales y el
flujo entre ellos:
0 1 P0·O0
1 2 P1·O1
k k+1 Pk·Ok
1 0 P1·P1
2 1 P2·P2
k k-1 Pk·Pk
Dado que el sistema no acumula unidades, podemos afirmar que la suma de flujos entrantes debe
coincidir con el de salientes,
A partir de este simple razonamiento, se obtienen también el sistema de ecuaciones para los procesos
de nacimiento y muerte, de forma simple y sin tener que recordarlas.
Directamente podemos resolver las ecuaciones, empezando desde el estado 0 y llegando hasta el
estado k, para obtener una expresión general:
n=0: Directamente, P1 O0
P
P1 0
O0 ·O1 ·...·Ok 1 k 1
Oi (3.47)
Pk P0 P0 ·
P1 ·P 2 ·...·P k i 0 P i 1
f
Para obtener el valor de P0, se puede despejar de la expresión ¦P k 1:
k 0
1 (3.48)
P0 k 1
f
O
1 ¦ i
k 1 i 0 P i 1
La expresión obtenida para Pk y de P0 son especialmente útiles para el estudio de los sistemas que
abordaremos en las siguientes secciones.
Nótese que P0 es la probabilidad de que no haya ninguna unidad en el sistema. Por consiguiente, el
valor 1 - P0 es la probabilidad de tener alguna unidad en el sistema.
Sea un sistema modelable como el de la figura 3.12, donde O es la tasa de llegadas al sistema, E[n] el
número medio de unidades en el interior de este sistema y E[t] el tiempo medio de permanencia en él.
O Sistema
E[n]
E[t]
Fig. 3.12 Sistema genérico donde la fórmula de Little puede aplicarse
Esta expresión es muy general y aplicable a todos los sistemas de colas que aparecerán en este libro,
que son los más usuales.
La forma más usual de denotar de forma abreviada el tipo de cola empleado es mediante la notación de
Kendall, que sigue el siguiente formato:
A/B/X/Y/Z
Estas variables caracterizan las colas de espera por los siguientes elementos:
x Tipo o distribución de las llegadas de las unidades. Se denota mediante A. Hace referencia al
parámetro O. Ejemplo son las llegadas a tasa constante o Poisson.
x Tipo o estadística del servicio ofrecido. Se denota mediante B. Hace referencia al parámetro
O.
x Número de servidores dispuestos en paralelo que atienden a la misma cola. Este valor
corresponde a X de acuerdo a la notación anterior.
x Disciplina de la cola. Z puede tomar el valor de FIFO (first in first out) o LIFO (last in first
out) según corresponda a un disciplina de cola o de pila, respectivamente. Por defecto, se
asume una disciplina FIFO.
Por ejemplo, una cola M/M/1/f/FIFO modela un sistema con llegadas markovianas (es decir,
estadística de Poisson), servicio también markoviano, con un único servidor, capacidad f (por lo cual
es tamaño de la cola también ilimitado), con disciplina FIFO. De forma abreviada, resulta equivalente
escribir M/M/1.
Veamos otro ejemplo. Sea una cola M/D/1. En este sistema, las llegadas siguen una estadística de
Poisson, el servicio es determinista, con un único servidor. Al igual que en el ejemplo anterior, la cola
es de longitud f y la disciplina FIFO. Los servicios deterministas se caracterizan por una entrega de
unidades de datos de forma equidistante. Un tipo de redes que operan de esta forma son las basadas en
tecnología ATM, tal como se estudiará más adelante.
A continuación se estudiarán los principales modelos para obtener sus propiedades y los valores
estadísticos correspondientes a su modo de operación.
Considérese una tasa de llegadas O y una tasa de servicio P. Cada estado representa el número de
unidades en la cola de espera.
Dado que las llegadas se producen a tasa O, independientemente del número de unidades en el sistema
ésa será la tasa de nacimientos, y así se pone de manifiesto en la cadena representada en la figura 3.13.
En cuanto a las tasas de muerte, el servidor único de este sistema siempre sirve a tasa P,
independientemente del estado de la cola. Así queda representado en la cadena.
O P
0 1 k-1 k k+1
Partiendo de las expresiones 3.47 y 3.48 y considerando que Oi = O, i, y Pi = P, i, donde O y P son
valores constantes, se obtiene:
k
k 1
O §O· (3.50)
Pk P0 · i P0 ·¨¨ ¸¸
i 0 P i 1 ©P¹
1 1 1 (3.51)
P0 1 O
f k 1
Oi f
k
O P
1 ¦ §O· P
P i 1 1 ¦ ¨¨ ¸¸ 1
k 1© P ¹
k 1 i 0
1 O
P
Para el cálculo de P0 se ha tenido en cuenta que O/P<1, es decir, que la tasa de llegadas es menor a la
de servicio. Desde un punto de vista matemático, ha permitido efectuar el sumatorio, donde se ha
usado el conocido resultado del siguiente sumatorio:
f
k x
Para x<1: ¦x
k 1 1 x
P0 1 U (3.52)
Pk 1 U ·U k (3.53)
Una vez se conocen las probabilidades de estado, podemos decir que el sistema ha quedado
caracterizado. Vamos a evaluar a continuación los parámetros fundamentales.
Este valor puede obtenerse mediante simple cálculo estadístico, teniendo en cuenta que cada estado
refleja el número de unidades en el sistema. Esto es, en el estado 0 hay cero unidades, en el estado 1
hay una unidad, etc.
f f
U
E>n @ ¦ n·P n ¦ n·1 U ·U n
(3.54)
n 0 n 0 1 U
Para el cálculo del tiempo de permanencia, basta con usar la expresión de Little:
U
1
E>n @ 1 U P
E>t @ T (3.55)
O O 1 U
Nótese que este resultado contiene tanto el tiempo de espera en cola como el tiempo de servicio:
O P
W 1/P
T
Fig. 3.14 Tiempo de espera en cola (W) y tiempo medio de permanencia en el sistema (T)
1
T W (3.56)
P
1
1 P 1 U
W T (3.57)
P 1 U P 1 U ·P
Y aplicando la fórmula de Little, el número medio de unidades en la cola es de:
U2
nq W·O (3.58)
1 U
Supongamos las siguientes tasas de llegada y de servicio ante un sistema modelado mediante M/M/1
en el cual la unidad mínima de llegada son paquetes de información de tamaño fijo, pongamos de 100
bytes: O = 8 paquetes /seg (llegan a razón de 1 cada 1/8 de segundo) , P = 10 paquetes / seg (en media
se sirve uno cada 0,1 segundos).
El tiempo medio de permanencia en el sistema de un paquete, desde que entra hasta que sale, es de
E[t] = (1/10) / 0,2 = 0,5 segundos.
El tiempo que este paquete habrá pasado en media en la cola, es de W = 0,8 / (1-0,8) / 10 = 0,4
segundos y el tamaño medio de la cola es de nq = 0,82 / (1-0,8) = 3,2 paquetes, o lo que es lo mismo, el
tamaño medio de la cola expresado en bytes es de 3,2 · 100 = 320 bytes.
Lógicamente, estos valores contribuyen a poder dimensionar suficientemente el sistema, dadas las
prestaciones obtenidas por él.
También son de interés el cálculo de momentos estadísticos de orden superior, con el fin de ajustar
adecuadamente los valores.
Una vez dimensionado con una cola de tamaño finito (una memoria), conocer la probabilidad de que
el sistema desborde consiste simplemente en sumar las probabilidades de los estados que quedan no
cubiertos por el dimensionado de la cola (o bien, calcularlo como el complementario, es decir, 1
menos la suma de las probabilidades de todos los estados que sí se cubren con la memoria empleada).
Al igual que para M/M/1, considérese una tasa de llegadas O y una tasa de servicio P en un servidor.
Cada estado representa el número de unidades en la cola de espera.
Las llegadas se producen a tasa O, independientemente del número de unidades en el sistema ésa será
la tasa de nacimientos, y así se pone de manifiesto en la cadena representada en la figura 3.15.
En cuanto a las tasas de muerte, el hecho de que siempre haya un servidor esperando a una unidad que
acabe de llegar hace que la tasa de servicio sea igual al número de unidades atendidas
simultáneamente por el valor de un único servidor, que es P. Es decir, si hay 1 unidad en el sistema, se
sirve a tasa P. Si hubiera 2, a tasa 2·P. Si hubiera k, a tasa k·P. Se desprende que Pk = P·k. Así queda
representado en la cadena de la figura 3.15.
P
O
O O O O O O
0 1 k-1 k k+1
Procediendo de forma análoga a como se ha efectuado para el sistema M/M/1, considerando que en
este caso Oi = O, i, y Pi = i·P, i, donde O y P son valores constantes, se obtiene:
k k
k 1 k 1
O §O· 1 §O· 1 (3.59)
Pk P0 · i P0 ·¨¨ ¸¸ P0 ·¨¨ ¸¸
i 0 P i 1 ©P¹ i 0 i 1 © P ¹ k!
1 O
P
P0 f k 1
e (3.60)
O
1 ¦ i
k 1 i 0 P i 1
por lo que
k
§¨ O ·¸
Pk © P ¹ eO P (3.61)
k!
En este caso, es perfectamente admisible (tanto matemática como semánticamente) que O/P>1, dado
que siempre hay servidores disponibles.
Con estos valores, el lector puede efectuar, si lo desea, el cálculo de los valores medios tanto de
unidades en el sistema como del tiempo de transmisión.
Al igual que para los sistemas anteriores, considérese una tasa de llegadas O y una tasa de servicio P,
en un servidor. Cada estado representa el número de unidades en la cola de espera.
Sin embargo, a partir de la llegada de la unidad m+1, ésta no será atendida y pasará a esperar su turno
en cola. En consecuencia, cuando el estado del sistema sea superior a m, todos los m servidores estarán
activos, y por tanto, la tasa de servicio para los estados superiores a m será m·P. Por otro lado, las
llegadas se producen a tasa O, independientemente del número de unidades en el sistema ésa será la
tasa de nacimientos, y así se pone de manifiesto en la cadena representada en la figura 3.16.
P
1
P
2
O
P
m
O O O O O O
0 1 m-1 m m+1
Procediendo de forma análoga a como se ha efectuado para el sistema M/M/1 y M/M/f, considerando
en este caso que
Oi = O, i,
donde O y P son valores constantes. Para este caso con m servidores, se definen los siguientes
parámetros:
O “utilización” (3.62)
U
mP
que deberá ser inferior a la unidad para que el sistema sea estable.
O
a “intensidad de tráfico” (3.63)
P
mm U k
k 1
Oi °° P0 ;k t m
m! (3.64)
Pk P0 · ® k
i 0 P i 1 ° m U P ;k d m
°¯ k! 0
1 1
P0 k 1 m m 1 k
(3.65)
f
O a a
1 ¦ i ¦
k 1 i 0 P i 1 m!1 U k 0 k!
Más adelante se estudiarán algunas características importantes de este sistema de cola. Estudiemos
primero otra disciplina de espera peculiar, denominada M/M/m/m, de la cual se derivarán
consecuencias que también atañen a M/M/m.
Nótese que el parámetro a refleja el tráfico que desea cursarse sobre el sistema completo, mientras que
U determina el rendimiento del sistema, en tanto por 1, considerando como potencial máximo de
servicio m·P, y O como tasa de entrada.
Considerando como es habitual una tasa de llegadas O y una tasa de servicio P en cada servidor, y cada
estado representando el número de unidades en la cola de espera, este sistema presenta una capacidad
m con m servidores.
Por lo tanto, no dispone de cola de espera para almacenar las unidades que a su llegada no puedan ser
atendidas. En consecuencia, estas unidades se perderán inmediatamente. Un ejemplo típico de este tipo
de sistemas se encuentra en las centralitas de telefonía, donde un usuario que no consiga un circuito de
voz debe volver a llamar.
Debe notarse que el sistema sólo definirá un número finito de estados, m estados. No tiene sentido un
estado m+1 porque la m+1 – ésima unidad se perdería al no haber espera posible.
La figura 3.17 muestra la figura asociada a esta disciplina, y la cadena de Markov correspondiente.
P
1
P
2
O
P
m
O O O O
0 1 m-1 m
P 2P (m-1)P mP
Se procede como siempre para el cálculo de las probabilidades de estado en régimen permanente,
teniendo en cuenta que
donde O y P son valores constantes. Para este caso con m servidores, se usa la misma notación de U y a
tal y como ha sido definida en M/M/m.
k 1
Oi 0 ;k ! m
° k (3.66)
Pk P0 · ®a P
i 0 P i 1 °̄ k! 0 ;k d m
donde
1 1 (3.67)
P0 f k 1 k
Oi m
§O· 1
1 ¦
P i 1 ¦ ¨¨ P ¸¸
k 1 i 0
k 0© ¹ k!
Se define la situación de bloqueo como aquella en la cual todos los servidores están ocupados. En
estas circunstancias, cuando llegue una nueva unidad, no podrá ser atendida y, al no disponer de cola
de espera, se perderá.
De acuerdo con esta definición, se puede calcular la probabilidad de estar en esta situación de bloqueo
por identificarla con estar con todos los servidores ocupados, puesto que en este caso la llegada de una
nueva unidad provoca irremediablemente su pérdida. En suma, la probabilidad de bloqueo coincide
con la probabilidad del estado m, y es lo que se define como función de Erlang B usando la siguiente
expresión de probabilidad:
m
§O· 1 1 am 1 (3.68)
Pm ¨¨ ¸¸ · k
· Er1 (m, a)
© P ¹ m! m
§O· 1 m! m a k
¦ ¨¨ P ¸¸ ¦
k 0 k!
k 0© ¹ k!
Así pues, la función de Erlang B no es más que la probabilidad de bloqueo de un sistema M/M/m/m,
es decir, de un sistema formado únicamente por servidores, sin cola de espera.
Este tipo de cola modela perfectamente el acceso a los circuitos de una central telefonía. Por ello,
Erlang B es un modelo típicamente empleado para el dimensionado de sistemas basados en
conmutación de circuitos.
Si a es el tráfico ofrecido (TO) al sistema, queda claro que a·Pm (= a · Er1(m,a)) debe ser el tráfico
perdido (TP). Dado que el tráfico cursado (TC) es la diferencia entre el ofrecido y el perdido (TC =
TO – TP), se tiene que TC = a (1-Er1(m,a)), tal como muestra la figura 3.18.
a a (1-Er1(m,a))
Tráfico
Sistema Tráfico
Ofrecido Cursado
(TO) (TC)
a Er1(m,a)
Tráfico perdido
(TP)
f m
E >n @ ¦ k ·P k ¦ k ·P k a·>1 Er 1(m, a )@ (3.69)
k 0 k 0
Supóngase que se desea dimensionar un sistema que pueda cursar 1,2 Erlang, con una probabilidad de
bloqueo del 5%, y desea conocerse el número de servidores necesario.
El problema puede plantearse en base a la fórmula de Erlang B, buscando cuál es el valor de m que
verifica que Er1(m, 1) 0,02. El problema es obtener el valor de m, lo cual, a la vista de la expresión
analítica de Er1(m,a) se traduce en un problema de muy difícil resolución. La solución habitual pasa
por emplear la técnica del tanteo, mediante la prueba de valores de m hasta aproximar lo mejor posible
la probabilidad buscada.
La forma habitual de llevar a cabo esta labor es mediante las denominadas tablas de Erlang. Las tablas
de Erlang son unos listados de valores de modo que se encuentran dispuestos en filas el TO (a) y en
columnas el número de circuitos (m) de modo que la tabla presenta la probabilidad de bloqueo para
cada a y m. De este modo, resulta mucho más cómodo localizar el número de circuitos m necesario
para tener una probabilidad de bloqueo inferior al valor deseado, dado un determinado tráfico a.
La siguiente tabla muestra un fragmento de una tabla de Erlang B. La tabla puede diseñarse para
ofrecer mayor precisión si la distancia entre valores consecutivos de a fuera menor.
a\m 1 2 3 4
A la vista de esta tabla, se observa que escoger 3 servidores para un tráfico de 1,2 Erlang supone tener
una probabilidad de bloqueo del 8,98%. Escoger 4 circuitos ofrece sólo un 2,62%. Dado que el
requisito en el ejemplo era de un 5%, la elección de 4 servidores satisface las condiciones.
a Er1 (m 1, a ) (3.70)
Er1 (m, a )
a Er1 ( m 1, a ) m
Esta expresión permite calcular Er1(m,a) según Er1(m-1,a), es decir, en base a un servidor menos. Esta
situación presenta un gran interés, ya que se puede conocer el valor de la función de Erlang B para
ningún servidor, Er1(0,a). Basta con atender al concepto semántico de Er1(m,a), que es la probabilidad
de bloqueo. Resulta evidente que el sistema está completamente bloqueado si no se dispone de ningún
servidor, por lo que
Er1(0,a) = 1 (3.71)
3.9.6 Ejemplo
Considérese un tráfico a = 0,5 Erlangs, con m=3 servidores. Calcular la probabilidad de bloqueo y el
tráfico perdido. (Nótese que con 3 servidores pueden llegarse a cursar hasta 3 Erlangs).
Una red de paquetes de tamaño constante genera un caudal saliente de tipo poissoniano de 16000
paquetes/segundo. Este caudal se manda a una batería de servidores que no disponen de ninguna
memoria de espera para que manipulen su contenido antes de enviarlo hacia el exterior de la red. Se
desea conocer cuántos servidores son necesarios con el fin de que ningún paquete se pierda por el
hecho de encontrar todos los servidores ocupados, con una probabilidad inferior al 4%. Cada servidor
es capaz de atender hasta 8000 paquetes/segundo.
Esto significa que a priori bastaría con 2 servidores para atender todo este tráfico, siempre y cuando se
comportara de forma uniforme, sin ninguna aleatoriedad. El hecho de ser tráfico de Poisson provoca la
posibilidad de encontrar los 2 servidores ocupados y la necesidad de una cola de espera.
Este escenario puede ser modelado mediante una disciplina M/M/m/m (si existiera cola de espera, el
modelo adecuado sería M/M/m), es decir, un modelo de Erlang-B, y en consecuencia, el valor deseado
es m de la expresión Er1(m,2) 0,1.
Aunque el procedimiento más conveniente es el primero, vamos a efectuarlo por tanteo, como
simple ejercicio demostrativo:
En el caso de disponer de una memoria de espera ante una batería de m servidores, el modelo
adecuado es Erlang C. En este caso, el hecho de que todos los servidores estén ocupados no supone la
pérdida de información, sino únicamente la espera en cola. En este caso, la probabilidad de encontrar
todos los servidores ocupados supone una demora, y por esta razón esta circunstancia ha dado en
denominarse probabilidad de demora.
Por lo tanto, la probabilidad de demora será la probabilidad de encontrar a todos los servidores
ocupados. Esto es, la suma de probabilidades de todos estados en los que todos los servidores se
encuentran ocupados:
f
Pd ¦P k Er2 ( m, a ) (3.72)
k m
Pm
Pd (3.73)
1 U
Esta expresión recursiva permite calcular la función de Erlang C según la función de Erlang B. A
partir de ella resulta fácil construir unas tablas de Erlang C del mismo modo que se ha expuesto para la
elaboración de las tablas de Erlang B.
f
a (3.75)
nq ¦ (k m)·P
k m
k (...)
ma
Er2 (m, a )
Por tanto, empleando la fórmula de Little, el tiempo medio de espera en cola será:
nq 1
Wq Er2 (m, a ) (3.76)
O P ·m a
3.10.3 Ejemplo
Un sistema genera un tráfico poissoniano de 10 paquetes/seg, que se enviarán hacia la red a través de 2
módems que sirven con servicio de Poisson, cada uno con una capacidad de hasta a 6 paquetes/seg.
Las dos arquitecturas de la figura son candidatas, donde cada servidor modela a uno de los módems.
¿Qué opción es mejor desde el punto de vista del tiempo de espera en cola?
P O/2 P
O 1 O 1
2 2
P O/2 P
(a) (b)
Para resolver este ejercicio, basta con evaluar el tiempo de espera en cada una de las dos situaciones,
teniendo presente que a=O/P=5/3 Erlangs.
En el caso a), se observa un sistema M/M/2, al disponer de llegadas de Poisson, con 2 servidores
también de Poisson. Ahora bien, con el fin de simplificar el desarrollo, este caso puede analizarse
también mediante Erlang C.
5 Er1 (2, 5 )
a 3 Er ( 2, 5 ) 3
nq Er2 ( m, a )
ma 2 5
2 3 5 5
3 1 3 3 Er1 (2, 5 )
2 2 3
5 Er (1, 5 )
Dado que Er1 (2, 5 ) 3 1 3 0,3425
3 5 Er (1, 5 ) 2
3 1 3
nq 3,79paquetes
Y por tanto, Wq 0,379seg.
O 10paq / seg
El caso b) se trata de dos colas M/M/1, cada una con una tasa de llegadas O’ = O/2 = 5 paquetes/seg.
Para cada cola, a’ = O’/P = 5/6.
Esta caso puede analizarse como la M/M/1 que es realmente, o incluso como un Erlang C con un único
servidor. Usando la primera opción, tal como se ha estudiado, observando que coinciden U y a:
nq
U2 5 6 2
4,16paquetes
1 U 1 5
6
nq 4,16paquetes
Por tanto, Wq 0,832seg.
O' 5paq / seg
Nótese que este valor es sensiblemente superior al caso a) con una única cola.
Ante tráficos de Poisson, con servidores markovianos, es preferible una única cola esperando al
servicio de los servidores que una cola dedicada en cada servidor. Nótese que esta afirmación es
válida para este tipo de estadística, pero en general, no puede garantizarse.
Considérese a continuación un sistema con llegadas de Poisson de tasa O, servicio sin ninguna
disciplina específica (digamos, general), con un único servidor y cola de tamaño ilimitado.
En este caso, supóngase conocidos los momentos primero y segundo de la disciplina de servicio, es
decir, se conoce E[s] (tiempo medio de servicio) y E[s2] (segundo momento del servicio).
E >n@ U
> @
O2 E s 2
(3.77)
21 U
Definiendo B(t) como la función densidad del servicio (por ejemplo, en el caso de Poisson,
B( t ) P e P t ), se puede enunciar:
f
E>s@ ³ t·B( t )·dt (3.78)
0
> @ ³
E s2
f
0
t 2 ·B( t )·dt (3.79)
U O E>s@ (3.80)
E>t @
E>n @
E>s@
O E s2 > @ (3.81)
O 21 U
de donde por simple inspección se observa que el tiempo de permanencia en cola debe ser el segundo
sumando, puesto que el primero es directamente el tiempo de servicio:
Wq
O E s2 > @ (3.82)
21 U
El cálculo de las integrales puede efectuarse para obtener los siguientes valores, que son fácilmente
esperables:
f
E>s @ s·P e P s ·ds (...) 1
³ 0 P
> @ ³
E s2
f
0
s 2 ·P e P s ·ds (...) 2
P2
Susbtituyendo,
1
O E>s 2 @ P
E>t @ E>s@ (...) (3.83)
21 U 1 U
expresión que ya se obtuvo durante el análisis tradicional con la cadena de Markov asociada a M/M/1.
f § 1· 1
E>s@ ³ s·G ¨¨ s ¸¸·ds
0
© P¹ P
§ 1·
> @ ³
E s2
f
s 2 ·G ¨¨ s ¸¸·ds 1
P2
0
© P¹
Susbtituyendo,
O E>s 2 @ 1 2 U
E>t @ E>s @ (...) (3.84)
21 U P 2·1 U
Se proponen a continuación unas cuantas situaciones que tienen por objetivo permitir estudiar diversos
escenarios desde el punto de vista de la teoría de colas.
La primera situación presentada debe llevar a la evaluación del tiempo medio de espera y el número de
unidades en cola para acceder a un servicio atendido por un protocolo de parada y espera, con
llegadas poissonianas de tasa O, una probabilidad p de transmisión incorrecta de un paquete de datos y
un tiempo tT invertido en la transmisión y retorno de la confirmación (ACK o NACK) desde el destino.
Este es un ejercicio de nivel medio, donde el esfuerzo debe dedicarse al modelado de la situación y
poderla abordar mediante la fórmula de Pollaczek-Khinchine.
La segunda situación propuesta se basa en una red ATM, que en un simple modelo puede presentar
nodos de entrada con servicio determinista de tasa 155 Mbit/s, y 3 fuentes de Poisson de 2, 8 y 34
Mbit/s hacia uno de los enlaces atendido por uno de estos nodos de entrada. ¿Cuál es el tiempo medio
de espera en la cola de entrada en la red? ¿Cuál es el número de bits en el nodo de entrada a la red?
¿Cuál el tiempo de entrada en el enlace? Es un ejercicio simple, que permite deducir fácilmente un
criterio para el tamaño ocupado en las colas de espera de los conmutadores.
El tercer caso aquí propuesto se centra también en una red de banda ancha basada en tecnología ATM
que ofrece a 4 usuarios un enlace de 34 Mbit/s para que sea compartido. El acceso se efectúa de forma
determinista, atravesando un búfer de espera (una memoria RAM) para que los bits entren a la red
cuando ésta esté disponible para transmitirlos. Se puede considerar que los 4 usuarios presentan un
perfil de generación de información poissoniano, de tasas 500 Kbit/s, 1,5 Mbit/s, 6 Mbit/s y 9 Mbit/s.
En este contexto, es posible evaluar:
a) La utilización de la red
b) El tiempo medio de espera en la cola de acceso
c) La ocupación media de la memoria RAM
d) El tiempo total de acceso a la red
Se trata de una variación al caso anterior, donde se incluyen más elementos y por tanto conduce a una
situación más real. Su dificultad es baja.
Las tecnologías de red de área local vienen definidas por una normativa cuyos aspectos más
destacados son los aspectos relacionados con el mecanismo de acceso. Este capítulo presenta los
antecedentes de la tecnología Ethernet, que es sin duda la de mayor difusión actual, así como los
principios de las modernas soluciones que permiten accesos a 1 Gbit/s.
El capítulo describe los protocolos más importantes de acceso aleatorio, empezando por Aloha y
Aloha ranurado o S-Aloha. A continuación se exponen los principios de CSMA y CSMA/CD, base del
estándar IEEE 802.3, o su variante Ethernet.
Precisamente por su importancia, Ethernet merece un estudio donde se muestran las restricciones para
el incremento de caudal hasta 1000 Mbit/s. Finalmente se concluye con las tendencias de este estándar,
especialmente como solución para acceso y transporte metropolitano.
Los protocolos de acceso aleatorio constituyen una familia de mecanismos de acceso cuya
característica notoria es la aleatoriedad en el instante de acceso. Este esquema de funcionamiento
facilita una simplicidad de diseño y funcionamiento.
Sin embargo, este procedimiento dar lugar a estados en las cuales dos o más estaciones traten de
efectuar un acceso simultáneamente. Esta situación se denomina colisión. La colisión debe ser
resuelta, es decir, las estaciones deben acabar consiguiendo realizar su transmisión de forma
satisfactoria. Las propuestas y soluciones existentes para la resolución de colisión pueden mejorar el
rendimiento de este tipo de protocolos, aunque en general debe considerarse bajo (valores del orden
del 40-50% del ancho de banda total disponible en el enlace).
El capítulo está organizado presentando las propuestas históricamente más antiguas, basadas en acceso
Aloha, y sigue la evolución que ha existido hasta alcanzar las más modernas, implementadas en
Gigabit Ethernet.
4.2 Aloha
El mecanismo de acceso Aloha tiene su origen en el año 1970 de la mano de Norman Abramson, en la
universidad de Hawai. Presenta un nuevo y elegante mecanismo para la solución del problema de la
asignación de canal en un medio compartido. Su aplicación principal se centra en los sistemas radio.
Aunque se basa en algoritmos muy simples, su sencillez ha dado lugar a un uso muy extenso en
protocolos actuales y ha generado una familia de protocolos derivados tales como CSMA, PRMA o
DQRUMA, que mejoran su rendimiento.
Aloha permite el acceso para transmisión en cualquier instante de tiempo, cuando la estación
transmisora dispone de datos. Este mecanismo supone un riesgo de 2 o más transmisiones simultáneas
o coincidencia de señales en el medio, ya sea aéreo o cable. Este estado se denomina colisión e
implica la destrucción de las formas de onda y por tanto de la información que las señales transportan.
Paquete 1 Paquete 2
tiempo
Zona de colisión
Para la detección de la colisión, Aloha usó inicialmente una estación central dedicada a este propósito.
Otra alternativa usada posteriormente es el empleo de paquetes de reconocimiento envidados desde el
receptor hasta el emisor con el fin de notificar el éxito de la transmisión, con tiempos máximos de
espera o time-out.
4.2.2 Análisis
Asumiremos para el análisis la transmisión de datos mediante tramas de tamaño fijo, digamos de
duración T. Esta hipótesis facilita el análisis y permite la obtención de un mejor throughput que con
tramas de longitud variable. Asimismo, vamos a considerar que todos los usuarios del sistema
transmiten con un tráfico agregado de Poisson de tasa O paquetes/seg.
Se define el factor de utilización como U = O · T. Evidentemente, su valor debe ser inferior a la unidad.
Esto es, el máximo servicio que puede ser ofrecido es de valor P = 1 / T, que es la situación en la que
un paquete viaja justamente tras el anterior, aprovechando el medio al 100% de su tiempo, sin
espacios desocupados.
Teniendo en cuenta que ante cualquier colisión, la estación va a efectuar un reintento y bajo la anterior
hipótesis de que el tráfico es de Poisson, pueden aplicarse los principios de descomposición y
superposición de tráficos poissonianos para configurar el siguiente modelo:
O O’ Canal O
reintentos
Se puede observar que O’ > O, puesto que incluye el tráfico entrante de los usuarios más todas las
retransmisiones debidas a colisión. Por otro lado, por simple condición de estabilidad, el tráfico
saliente (O) debe coincidir con el entrante.
( O ' t ) n O 't
Pn (t ) e (4.1)
n!
donde se emplea O’ puesto que incluye el caudal total a la entrada del canal.
Debe notarse de que existe una vía alternativa de análisis considerando un modelo de cola M/G/1 y el
empleo de la fórmula de Pollaczek y Khinchine, mediante la caracterización de la estadística del
servicio a través del primer y el segundo momento.
La probabilidad de no tener ninguna colisión, teniendo un paquete emitido en el instante t0, implica
que no haya ningún otro en el intervalo [t0-T, t0+T], tal como muestra la figura 4.3.
En esta situación, la probabilidad de no existir colisión coincide con la probabilidad de que no haya
ningún paquete en un intervalo de tiempo 2 T. Por lo tanto,
(O '2T ) 0 O ' 2T
Probabilidad de no colisión = Pn 0 (t 2T ) e e O ' 2T (4.2)
0!
Consecuentemente,
Por lo tanto, la tasa media de retransmisión será la tasa de entrada al canal por la probabilidad de
retransmisión, es decir,
Dado que, por conservación del tráfico, debe cumplirse que O’ = O + tasa de reintentos, ello significa
que
S G ·e 2G (4.6)
Con esta notación, la probabilidad de no colisión o de transmisión con éxito 4.2 puede ser escrita
como:
La siguiente figura muestra cuál es el comportamiento del sistema (G) frente a diversas entradas de
tráfico (S).
1/2e
G
1/2
Fig. 4.4 Curva de tráfico cursado frente al ofrecido empleando protocolo Aloha
El valor máximo puede ser fácilmente deducido por simple derivación: dS/dG = 0.
a) El valor del tráfico máximo entrante en ningún caso puede superar 1/2e (aproximadamente el
18% de la capacidad teórica del medio). Este máximo se alcanza para G=1/2, lo cual significa
que el uso del canal es únicamente del 50%, donde se incluye la información que acaba de
llegar más los reintentos debidos a anteriores colisiones. En estas condiciones, un medio que
operara con un tiempo de bit de 1 mseg, con codificación PAM-2, únicamente sería capaz de
transportar 1/2e · 1/10-3 bit/s = 180 bit/s, de un total teórico máximo de 103 bit/s. En este
mismo sistema, el canal estaría transmitiendo 500 bit/s, de los cuales únicamente 180 serían
realmente efectivos, el resto debido a reintentos.
b) Se puede constatar la existencia de dos zonas de trabajo separadas por el máximo, como
aparece reflejado en la figura 4.5.
1/2e
ZONA ZONA
ESTABLE INESTABLE
G
1/2
Como se observa, se ha definido una zona denominada estable y una inestable. La zona
estable se caracteriza porque ante un incremento del caudal entrante (S), el sistema responde
con un incremento del caudal en el canal (G). Sin embargo, en la zona inestable, un
incremento en S impone un decremento en G, lo cual implica un comportamiento
autodegenerativo que impide el funcionamiento del sistema. En consecuencia, es necesario
que en ningún caso el sistema alcance la zona inestable, pues la única forma de recuperación
sería la desactivación del mecanismo de acceso y su reinicialización.
4.3 S-Aloha
El mecanismo de acceso S-Aloha (Slotted Aloha, Aloha Ranurado) deriva del ya comentado Aloha. Su
origen en 1972, de la mano de Roberts, permitió mejorar las prestaciones de Aloha manteniendo
algoritmos muy simples y una elegante sencillez, con una pequeña e interesante modificación.
Conocido el comportamiento del protocolo Aloha, S-Aloha se puede definir como una versión
ranurada en el tiempo. Es decir, el acceso de los paquetes al medio no puede efectuarse en cualquier
instante, sino solamente cuando se inicia una de las ranuras de tiempo. El resto de condicionantes son
los mismos que para el método de acceso Aloha.
El procedimiento de análisis será muy similar, aunque los resultados son sensiblemente diferentes,
para mejorar el rendimiento de forma apreciable.
4.3.2 Análisis
Al igual que con Aloha, asumiremos tramas de tamaño fijo de duración T. Asimismo, vamos a
considerar que todos los usuarios del sistema transmiten con un tráfico agregado de Poisson de tasa O
paquetes/seg.
Teniendo en cuenta que ante cualquier colisión, la estación efectuará un reintento, sigue siendo válida
la figura , ya empleada para modelar el acceso en Aloha, con la salvedad de que los intentos de acceso
solamente se efectúan a instantes discretos:
O O’ Canal O
reintentos
La probabilidad de no tener ninguna colisión, teniendo un paquete emitido en el instante t0, implica
que no haya ningún otro en la misma ranura, tal como muestra la figura 4.6.
En esta situación, la probabilidad de no existir colisión coincide con la probabilidad de que no haya
ningún paquete en un intervalo de tiempo T, no 2T como el caso en Aloha, dado que ahora los
paquetes deben esperar la llegada del inicio de las ranura para ser depositados en el medio. Por lo
tanto,
(O 'T ) 0 O 'T
Probabilidad de no colisión = Pn 0 (t T) e e O 'T (4.8)
0!
Consecuentemente,
S G ·e G (4.12)
Con esta notación, la probabilidad de no colisión o de transmisión con éxito 4.8 puede ser escrita
como:
La siguiente figura muestra cuál es el comportamiento del sistema (G) frente a diversas entradas de
tráfico (S).
1/e
G
1
Fig. 4.8 Curva de tráfico cursado frente al ofrecido empleando protocolo S-Aloha
El valor máximo puede ser fácilmente deducido por simple derivación: dS/dG = 0.
1/e
ZONA ZONA
ESTABLE INESTABLE
G
1
a) El valor del tráfico máximo entrante en ningún caso puede superar 1/2e (aproximadamente el
37% de la capacidad teórica del medio). Este máximo se alcanza para G=1, lo cual significa
que el uso del canal es únicamente del 100%, donde se incluye la información que acaba de
llegar más los reintentos debidos a anteriores colisiones. En estas condiciones, un medio que
operara con un tiempo de bit de 1 mseg, con codificación PAM-2, únicamente sería capaz de
transportar 1/e · 1/10-3 bit/s = 370 bit/s, de un total teórico máximo de 1000 bit/s. En este
mismo sistema, el canal estaría transmitiendo un total de 1000 bit/s, de los cuales únicamente
370 serían realmente efectivos, el resto debido a reintentos. Puede observarse que esta
situación es óptima desde el punto de vista del canal, y que ofrece un rendimiento el doble
mejor que Aloha.
b) Se puede constatar la existencia de dos zonas de trabajo separadas por el máximo, como
aparece reflejado en la figura 4.9.
Los comentarios relacionados con las zonas de estabilidad e inestabilidad son análogos a los
ya efectuados para Aloha.
Hasta ahora se han estudiado los casos con población infinita, de tal modo que se asegura que las
llegadas sean uniformes.
Ahora, se considera la situación con N usuarios iguales e independientes, con un tráfico total de
entrada entregado S, y un tráfico total en el canal G (incluyendo los reintentos debidas a las
colisiones).
S
Si (4.14)
N
G (4.15)
Gi
N
Dado que Si es el valor del tráfico transmitido exitosamente, podemos afirmar que coincide con la
probabilidad de transmisión, es decir:
Si = Probabilidad{[Transmisión(exitosa o no) del usuario “i”] & [Ningún otro usuario transmita]} =
N
Gi 1 G j (4.16)
j 1
( j zi )
Teniendo en cuenta 4.14 y 4.15, se puede escribir la expresión 4.16 del siguiente modo:
N 1
S G N § G· G § G· (4.17)
¨1 ¸ ¨1 ¸
N N j1 © N¹ N © N¹
( j zi )
Simplificando, queda la relación final que caracteriza a S-Aloha para población finita:
N 1
§ G· (4.18)
S G ¨1 ¸
© N¹
N
1. Por simple derivación, se puede obtener la condición de máxima utilización: ¦G i 1.
i 1
La tabla 4.1 muestra el rendimiento para diversos usuarios. Cuando el número crece, se tiende al
comportamiento con población infinita, como era de esperar. Además, el rendimiento máximo
decrece, puesto que el riesgo de colisión aumenta con el número de usuarios. Debe recordarse que una
colisión provoca ocupar un tiempo adicional el medio hasta conseguir la transmisión satisfactoria.
N 1 2 5 10 100 f
Smax 1 0,5 0,410 0,387 0,370 1/e
La aportación de CSMA (Carrier Sense Multiple Access) consiste en que antes de transmitir, el equipo
debe escuchar el estado del medio. En el caso de que lo detecte desocupado, puede efectuar la
transmisión. Ello supone una mejora frente a Aloha, puesto que gracias a la disminución del número
de colisiones, cabe esperar un incremento de rendimiento.
Nótese, sin embargo, que ello no garantiza la ausencia de colisiones, puesto que dos equipos podrían
actuar del mismo modo y, consecuentemente, producirse una colisión tras considerar que el medio está
libre de transmisiones. Existe un margen temporal que es el que puede producir este problema. Este
margen es el tiempo de propagación. Estudiemos esta situación.
La técnica CSMA, es decir, “escuchar” el medio antes de transmitir, es efectiva (evita la mayoría de
las colisiones) cuando el retardo de propagación en el medio es pequeño comparado con el tiempo de
transmisión de las tramas, es decir, cuando el parámetro a (presentado en el capítulo 2) es <<1. Puede
decirse que, a mayor retardo de propagación, mayor probabilidad de colisiones (llamadas colisiones
primarias), debido a la mayor incertidumbre con que las estaciones conocen el estado del medio de
transmisión.
El procedimiento de acceso a una red CSMA impone ciertas restricciones. Revisemos a continuación
el algoritmo desde un punto de vista de la transmisión de las tramas de información:
Si una estación desea transmitir, escucha el medio. Si el medio está ocupado, espera un cierto tiempo y
reintenta. Si no, puede acceder al medio para transmitir los datos.
Instante d
A B
1) to+H
2) to+Tprop-H
3) to+Tprop+H
4) to+2Tprop
Fig. 4.10 Evolución de una transmisión crítica, entre equipos situados en los extremos de la red
Esta figura muestra diversos pasos en la transmisión entre los equipos A y B situados en los extremos
de la red, separados por una distancia d.
Asumiendo que el medio estaba anteriormente totalmente desocupado, el primer paso muestra como la
estación A inicia una transmisión hacia B en el instante to + H, donde H es un valor tan pequeño como
se desee. En este instante ha generado una trama, puesto que ha observado el medio desocupado y por
tanto no había impedimento. La onda electromagnética asociada a esta trama de información se
propagará por el medio a velocidad v (en el caso de un medio de cobre tal como el par trenzado, esta
velocidad es aproximadamente 2/3 de la velocidad de la luz en el vacío).
Al cabo de un tiempo Tprop = d/v esta trama alcanzará la estación B. Situemos la situación justo un
instante antes, digamos to + Tprop - H, que es el paso 2 de la figura. Supóngase en estas circunstancias
que la estación B desea iniciar una transmisión hacia la estación A. En to + Tprop - H el equipo B
escucha el medio. Al no detectar ninguna señal, decide de forma lícita, de acuerdo al procedimiento de
transmisión CSMA, iniciar su transmisión.
Al cabo de un tiempo Tprop desde el paso 3, se llega finalmente al último, en to + 2Tprop, momento en el
cual A reconocerá la existencia de la colisión al recibir la señal procedente de B. Debe notarse, que
para que A sepa que ha sido uno de los participantes en la colisión, su transmisión debe continuar
cuando reciba la señal de B, puesto que de no ser así, podría creer erróneamente que la colisión no es
debida a él.
De esta última frase se deduce una expresión de un interés fundamental: La duración de una
transmisión debe ser al menos la necesaria para poder detectar una colisión, esto es, 2·Tprop:
L d
!2 (4.22)
R v
d
L ! 2R (4.23)
v
De esta expresión se deriva una importante interpretación: el tamaño mínimo de la trama está acotado
al valor 2·R·d/v.
En otras palabras, el tamaño mínimo está limitado por parámetros físicos del sistema (diámetro de la
red y velocidad de propagación de la onda) y por la tasa de transmisión de la red (capacidad). Es decir,
d
Lmin 2R (4.24)
v
En suma, el objetivo de CSMA es conseguir evitar colisiones. Los mecanismos de escucha antes de
transmisión (Listen Befote Talk, LBT) se remontan a 1975, de la mano de Kleinrock y Tobagi.
De entre las diversas variantes existentes de CSMA, deben citarse CSMA/CA (CSMA with Collission
Avoidance) ,empleada en las redes Localtalk de Appletalk, o en las recientes Wireless LAN 802.11, y
también destaca CSMA/CD (CSMA with Collission Detection). Este último será abordado en las
siguientes secciones.
Se ha visto que, aun cuando CSMA reduce la posibilidad de colisiones, éstas todavía se producen. Dos
o más estaciones transmitiendo tramas que colisionan originan un desperdicio de la capacidad (ancho
de banda) disponible, pues la información en el medio físico no es válida durante todo el tiempo que
dura la transmisión de dichas tramas.
El inconveniente en CSMA es que cuando se produce una colisión entre tramas, el medio queda
ocupado durante todo el tiempo que dura la transmisión de la trama. Parece obvio que sería adecuado
cortar lo antes posible la transmisión con el fin de dejar libre el canal lo antes posible para iniciar un
nuevo intento.
Dotando a las estaciones de la capacidad de detectar en tiempo real que sus transmisiones se
superponen (colisionan) con otras, aquellas podrían interrumpir su transmisión cuando eso sucediera,
ahorrando tiempo de “mal uso” del medio. El mecanismo de detección de colisiones (CD), por tanto,
reduce la duración de las colisiones en caso de que éstas se produzcan.
La realización del mecanismo CD depende de las características del medio físico de transmisión, de la
técnica de codificación/modulación empleada e incluso de la topología de la red y de las variaciones
en los niveles de señal en cada punto de la red de las transmisiones procedentes de cualquier estación.
La detección de colisiones es, por tanto, una tarea de la capa física aunque ésta no toma decisiones y
simplemente notifica de la ocurrencia de colisión a la subcapa MAC, que es la que ejecuta el algoritmo
de acceso CSMA/CD.
En algunos contextos, el mecanismo CD no está exento de problemas; por ejemplo, en las redes vía
radio la atenuación de las señales es muy grande (como mínimo, aumenta con el cuadrado de la
distancia), por lo que, a veces, puede ser muy difícil detectar que una transmisión con un nivel de señal
fuerte se superpone con otra cuyo nivel es varios ordenes de magnitud más débil. (Este es el llamado
captura o enmascaramiento.)
CSMA/CD representa el máximo refinamiento de una serie de técnicas de acceso aleatorias propuestas
a partir de finales de la década de 1960 (Aloha, Aloha-ranurado, CSMA).
Por tanto, CSMA/CD pretende optimizar el rendimiento mediante un mejor aprovechamiento del
medio, para lo cual proporciona un mecanismo que aborta toda transmisión de información cuando se
detecta una colisión. Sin entrar en detalles como se efectúa, cuando se descubre una colisión, se genera
una señal de atasco (jam) durante un cierto tiempo, con el fin de conseguir que todas las estaciones de
la red conozcan que el medio debe dejarse libre de inmediato para iniciar un nuevo proceso de
contienda para conseguir ganar acceso.
Aun cuando el mecanismo CSMA reduce la probabilidad de colisiones, éstas aun pueden darse debido
a la existencia de un retardo de propagación no nulo y a la característica 1-persistente citada
anteriormente. También se ha visto que dos o más estaciones que detectan colisión en sus
transmisiones, proceden a abortar dichas transmisiones (el mecanismo CD).
Surge ahora la cuestión de cuándo deben las estaciones en contienda proceder a la retransmisión de
sus tramas que han colisionado. Si lo hicieran inmediatamente, al detectar el medio libre, se volvería a
tener colisión, y así sucesivamente. Se produce, entonces, un fenómeno de “sincronización perniciosa”
de las estaciones en contienda.
La solución es que cada estación, tras experimentar una colisión, espere un tiempo aleatorio (el
llamado tiempo de back-off) antes de volver a intentar la transmisión. Con esto se “diseminan” en el
tiempo los intentos de acceso al medio por parte de las estaciones; aquella estación que haya obtenido
aleatoriamente el tiempo de espera menor será la que transmita en primer lugar; las demás estaciones
lo intentarán más tarde pero, al observar el medio ya ocupado (mecanismo CS), no transmitirán.
La probabilidad de una nueva colisión es equivalente a la probabilidad de que dos o más estaciones
calculen exactamente el mismo tiempo de espera. El tiempo de espera se escoge al azar, con
probabilidad uniforme, dentro de un intervalo comprendido entre 0 y un tiempo máximo Tmax.
La elección de Tmax supone un compromiso entre la posibilidad de nueva colisión y el tiempo medio de
retardo de acceso. En efecto, si Tmax es grande, se tiene una probabilidad de nueva colisión ínfima (es
muy poco probable que dos estaciones obtengan exactamente el mismo tiempo de espera), pero el
tiempo medio de retardo en el acceso es elevado (aun cuando el medio esté libre tras la colisión,
ninguna estación lo ocupará inmediatamente).
Por el contrario, si Tmax es pequeño, el tiempo medio en que las estaciones volverán a transmitir será
más reducido a costa del aumento de la probabilidad de una nueva colisión. Puede verse que el Tmax
óptimo será aquel que maximice la probabilidad de ocupación correcta del medio (es decir, ni
desocupado ni en colisión) tras una colisión y que dependerá de la carga (número de estaciones en
contienda) de la red en aquel momento.
La solución adoptada en las redes CSMA y en especial Ethernet, que se estudiará en las siguientes
secciones, es el algoritmo de back-off exponencial binario truncado que intenta adaptarse a la carga
estimada de la red en tiempo real. Dicho algoritmo parte de valores de Tmax muy pequeños (para
minimizar el retardo de acceso) pero los aumenta rápidamente (exponencialmente) ante la presencia de
colisiones repetidas (que estimativamente indican una carga –número de estaciones en contienda-
elevada). Véase la descripción de dicho algoritmo:
a) El rango de tiempo de espera aleatoria está discretizado en ranuras temporales (time slots)
cuya duración es de 2 veces el tiempo de propagación máximo entre estaciones (2Tp) o, lo
que es lo mismo, el tiempo mínimo de duración de trama (Ttrans mínimo).
b) Sea n el número de intentos de transmisión de una trama realizados hasta el momento (siendo
n=1 tras el intento inicial de transmisión de una trama).
c) El tiempo de espera de r ranuras se escoge al azar, con igual probabilidad, dentro del
intervalo 0 r < 2k, siendo k = min (n, 10)
Es decir, una estación que observa colisión al intentar transmitir una trama nueva no esperará a
retransmitir con probabilidad ½ y esperará 1 ranura de tiempo con probabilidad ½. Si vuelve a
observar colisión (n=2), no esperará a retransmitir con probabilidad ¼ y esperará 1, 2 o 3 ranuras con
probabilidades de ¼ respectivamente.
Si aún observa colisión (n=3), escogerá esperar a retransmitir durante 0, 1, 2, …,7 ranuras con
probabilidades de 1/8 respectivamente. Mientras se produzca colisión, el proceso continúa,
aumentando en potencias de dos (exponencial binario) el número de ranuras, hasta llegar a 1023. Si se
llega a esta situación (poco probable e indicando una carga extremadamente alta en la red), el
algoritmo aún permite 6 intentos de retransmisión adicionales pero sin aumentar el número de ranuras
del intervalo de tiempo de espera que se queda en 1023 (truncado). Si, tras 16 intentos, no se consigue
transmitir la trama con éxito, el protocolo de subcapa MAC desiste en su empeño y notifica del error
(exceso de colisiones) a su capa usuaria por medio de una primitiva de indicación. La probabilidad de
que esto suceda en una red Ethernet es despreciable y normalmente indica de la existencia de algún
problema serio (líneas de transmisión con reflexiones por mala terminación, estaciones con tarjetas de
red defectuosas, etc.).
En Febrero de 1980, en el seno del IEEE (Institute of Electrical and Electronic Engineers), se
constituye el comité 802, al mando de Marius Graube (de Tektronic), con el fin de promover el
desarrollo de estándares para redes de área local. Así, la serie de estándares IEEE 802.x (donde x es un
número de 1 en adelante) ha venido definiendo los niveles arquitectónicos inferiores (capa física y de
enlace de datos según el modelo OSI) para redes locales.
En este ámbito, la organización ISO (International Standards Organization) también emite sus
estándares, totalmente equivalentes a los anteriores, bajo la denominación ISO 8802-x. En la figura
4.11 se esquematizan los diferentes estándares y su interrelación.
802.10
Security
Enlace de Datos
802.1 M anagement
802.1 Bridging
capa de
802.3 802.4 802.5 802.6
MAC MAC MAC MAC
.. .
Física
capa
802.3 802.4 802.5 802.6
Phy Phy Phy Phy
La lista de estándares IEEE 802 ha ido creciendo con el tiempo, tanto por la incorporación de nuevos
estándares como por la revisión/ampliación de los ya existentes (que se representan mediante IEEE
802.xy, donde x es el número que denota el estándar e y es una letra, de la “a” en adelante, que denota
la ampliación/revisión llevada a cabo).
1. 802.1: Describe el marco general de la serie de estándares, así como aspectos de gestión de
red e interconexión entre redes a nivel MAC.
2. 802.2: Describe el LLC (Logical Link Control), subcapa superior de la capa de enlace de
datos OSI, común a todas las redes locales.
3. 802.3: Describe una familia de redes locales basadas en el protocolo de acceso aleatorio de
tipo CSMA/CD. Inicialmente describía una red local con topología en bus, de cable coaxial, y
velocidad de 10 Mbit/s (la conocida Ethernet, propuesta por Xerox, Digital e Intel en la
década de 1970); las numerosas revisiones posteriores introducen topologías en estrella, de
cable de pares trenzados o fibra óptica, y velocidades de 100 Mbit/s y 1 Gbit/s.
4. 802.4: Describe Token Bus, una red con topología en bus y protocolo de acceso basado en
pase de testigo (a partir de una propuesta de red de General Motors para entornos de
producción); actualmente en desuso.
5. 802.5: Describe Token Ring, una red con topología en anillo, velocidades de 4 y 16 Mbit/s y
protocolo de acceso basado en pase de testigo (a partir de una propuesta de IBM hacia 1980);
si bien a finales del siglo pasado llegó a tener una implantación del orden del 10-15% de las
instalaciones de redes locales, actualmente está en desuso.
6. 802.6: Describe DQDB (Dual Queue Dual Bus), una red de área metropolitana con topología
de doble bus, velocidades de decenas de Mbits/s y sofisticado protocolo de acceso basado en
una cola distribuida; si bien en la década de 1990 tuvo cierta implantación, su futuro es
incierto.
11. 802.11: Describe a las WLAN (Wireless LAN), redes locales sin hilos basadas en la
transmisión por microondas o infrarrojos y protocolo de acceso aleatorio.
12. 802.12 Describe la red 100 VG-AnyLAN, una red con topología en árbol, velocidad de 100
Mbit/s y protocolo de acceso por demanda (propuesta por Hewlett-Packard y otros);
actualmente en desuso.
El estándar IEEE 802.2 (o ISO 8802-2) describe la subcapa superior de la capa de enlace de datos,
siendo sus características principales:
a) Utilizando los servicios ofrecidos por la subcapa MAC (Medium Access Control),
proporciona servicios a la capa de red.
1. Tipo 1 (sin conexión): intercambio de las L-SDU entre usuarios de LLC, sin establecimiento
de conexión; transmisión aislada (sin relación lógica) de las L-SDU; no garantiza la entrega
de las L-SDU, sólo que éstas sean correctas (principio del mejor esfuerzo); adecuado para
diseminación (broadcast) de datos no críticos, donde se requiera la máxima simplicidad y el
mínimo retardo a costa de una fiabilidad absoluta (por ejemplo, muestreo periódico de
sensores, aplicaciones en tiempo real, etc.) o, también, cuando en las capas superiores
(típicamente la de transporte) se tengan mecanismos de recuperación de errores.
2. Tipo 2 (orientado a conexión): intercambio de L-SDU entre usuarios LLC a través del
establecimiento, mantenimiento y liberación de conexiones; entrega de datos garantizada (sin
pérdidas, manteniendo la secuencia) y con control de flujo; adecuado cuando se requiere
fiabilidad ante todo (por ejemplo, transferencia de ficheros) o cuando las capas superiores no
tengan la capacidad de tratamiento de errores (por ejemplo, algunas implementaciones de la
arquitectura SNA de IBM).
3. Tipo 3 (sin conexión confirmado): intercambio de L-SDU entre usuarios de LLC sin conexión
pero con confirmación de llegada de cada unidad enviada; adecuado donde se requiera el
diálogo con muchos destinos simultáneamente, pero se requiera la máxima simplicidad (por
ejemplo, en el control automatizado de cadenas de producción).
Actualmente, dadas las bajas tasas de error que se observan en la transmisión por los medios físicos, y
dada la existencia generalizada de capas de transporte “potentes” (que corrigen, bajo una filosofía
extremo a extremo, errores de comunicación de toda índole), solamente se utiliza el servicio LLC de
tipo 1, es decir, el más básico.
En realidad, puede decirse que dicho servicio no hace prácticamente nada: simplemente “refleja” los
servicios de subcapa MAC, añadiendo una cabecera con capacidad de direccionamiento de L-SAP
origen y destino. Las figuras 4.12 y 4.13 muestran las primitivas del servicio LLC de tipo 1 y las
posibilidades de direccionamiento.
DL-UNIT-DATA.request
DL-UNIT-DATA.indication
Donde:
a) dir. origen/dir. destino son una combinación de los SAP (Service Access Point) LLC y MAC
b) Datos son los datos del usuario de LLC, es decir, las L-SDU o N-PDU
Otras
TCP/IP OSI
arq.
L-SAP
LLC
M-SAP
MAC
Física
Fig. 4.13 Uso del direccionamiento, a través de los L-SAP, para distinguir diversas “pilas” de protocolos en
una red local mixta donde conviven diferentes sistemas con diferentes arquitecturas de comunicaciones en los
niveles de red y superiores
Como se dijo al principio, el protocolo de subcapa LLC está basado en la familia de protocolos de
enlace HDLC de ISO (véase dicho estándar para más información). Para el caso del servicio tipo 1, no
se utilizan tramas de supervisión ni de establecimiento/liberación del enlace. Solamente se hace uso de
las tramas de tipo no numerado (UI, XID, TEST).
Para los servicios de LLC de tipo 3, y especialmente de tipo 2, el conjunto de primitivas de servicio es
más complejo y rico, así como el protocolo de subcapa utilizado. Dada la casi nula implantación de
dichos tipos de servicio, no se comentaran aquí (sin que ello quiera decir que carezcan de un interés
conceptual importante).
El estándar IEEE 802.3 describe el nivel físico y el subnivel MAC de una familia de redes de área
local que usan un medio de transmisión de difusión (con topología de bus en su origen) al que acceden
las estaciones según un protocolo de acceso aleatorio de tipo CSMA/CD (Carrier Sense Múltiple
Access / Collision Detection).
4.9.1 Introducción
Los antecedentes de este estándar se sitúan hacia el año 1974 en el centro de investigaciones de Xerox
Corporation en Palo Alto (California, USA). Allí, los ingenieros David R. Boggs y Robert M.
Metcalfe, entre otros, diseñaron una red basada en el protocolo CSMA/CD, operando a 2,94 Mbit/s,
que conectaba 100 estaciones de trabajo a lo largo de un bus de 1 km de longitud. Poco después, la
alianza entre las compañías Digital, Intel y Xerox propone una norma industrial para conectividad
local, a la que llamaron Ethernet, operando a 10 Mbit/s.
La norma IEEE 802.3 difiere ligeramente de la norma de facto Ethernet y, además, describe a toda una
familia de redes basadas en el protocolo CSMA/CD.
A efectos de permitir el uso de topologías y medios de transmisión distintos, la norma divide la capa
física en varias entidades funcionales, con su interfaz entre ellas, donde:
a) MAC (Medium Access Control): subcapa inferior de la capa de enlace de datos, para el
control del acceso al medio físico de transmisión
c) AUI (Attachment Unit Interface): interfaz de la unidad de conexión, entre la MAU y la PLS.
Las redes IEEE 802.3 usan la variante de CSMA denominada 1-persistente, que significa que las
estaciones que desean transmitir, lo hacen tan pronto como detectan el medio libre.
Este algoritmo “agresivo” intenta reducir los tiempos muertos en el medio, ocupándolo lo más pronto
posible, con el fin de reducir el retardo de acceso. El inconveniente es que, cuando la carga en la red
empieza a ser notable, habrá frecuentemente estaciones esperando transmitir tan pronto el medio
devenga libre; ello conduce inevitablemente (e independientemente del retardo de propagación) a que
se produzcan las llamadas colisiones secundarias, justo después del fin de una transmisión. Para
resolver este problema ya se ha presentado el algoritmo de espera tras colisión (algoritmo de back-off),
estudiado en la sección 4.6.
b) se “resuelvan” todas las colisiones, es decir, se retransmitan las tramas todas las veces que haga
falta hasta tener una transmisión exenta de colisión. (Los errores en la transmisión de las tramas
debidos a otras causas -por ejemplo, al ruido- no son competencia de la subcapa MAC, sino de
la subcapa LLC o, en última instancia, de la capa de transporte.)
Tal como se ha visto en 4.24, existe una longitud mínima de trama transmitida, para detectar
efectivamente cualquier colisión. Dicho requisito es que Ttrans > 2Tp, es decir que a < ½.
Otro modo de ver lo anterior es que Lt > 2RD/Vp, donde Lt es la longitud de la trama (en bits), R es la
tasa de transmisión (en bit/s), D es la distancia máxima entre estaciones (en m) y Vp es la velocidad de
propagación de las señales (en m/s) a través del medio físico compartido. Es decir, en las redes
Ethernet existe un compromiso velocidad-distancia inevitable que tiene su efecto a la hora de “escalar”
dichas redes. Así, manteniendo igual la longitud mínima de trama, si se aumenta por 10 la velocidad
de transmisión (pasar, por ejemplo, de la Ethernet tradicional a 10 Mbit/s a la denominada Fast
Ethernet a 100 Mbit/s), la distancia máxima entre estaciones debe reducirse en ese mismo factor.
Ethernet ha evolucionado desde sus inicios hacia diversas posibilidades topológicas, aunque su
funcionamiento básico sigue siendo esencialmente el mismo.
BUS
Fig. 4.14 Configuración clásica Ethernet en bus
En los últimos años, a raíz de la emergencia de las estructuras de cableado estructurado, se han basado
las redes en un dispositivo central o hub, que concentra en un punto el acceso CSMA/CD de Ethernet,
ya sea a 10 o a 100 Mbit/s, tal como aparece a continuación.
10baseT
Transceptor
Transceptor
HUB
Transceptor
BUS
Fig. 4.15 Configuración basada en cableado estructurado y Hub central
Ahora bien, únicamente se ha considerado hasta ahora el uso de acceso tradicional mediante protocolo
CSMA/CD. Pero debe decirse que en los últimos años se ha desarrollado un procedimiento de acceso
radicalmente eficiente, mediante el empleo de un conmutador de tramas Ethernet, mediante el cual no
existe el riesgo de colisión. Consecuentemente, el tamaño de la red no viene determinado por
CSMA/CD, y en la práctica queda limitado por otras cuestiones tales como la atenuación del cableado.
En esta nueva solución, el caudal neto coincide con el disponible, puesto que no hay penalización por
acceso al medio ni colisión. El precio a pagar se encuentra en el equipo conmutador, cuyo coste resulta
elevado debido a la potencia de cómputo necesaria para transmitir la información hacia su destinatario
correspondiente.
Puerto #1
Puerto #2
Conmutador
Red exterior Router
Ethernet
Puerto #4
Puerto #3
Para el caso de una red Ethernet, considerando que la distancia extremo-extremo prevista en el
estándar puede llegar a d = 2,5 Kms, emplea una tasa de bit de R = 10 Mbit/s y que la velocidad de
propagación de las ondas en el medio es de v = 2/3 · c = 2·108 m/s, de acuerdo a la expresión 4.24, se
tiene que Lmin = 250 bits = 31,25 bytes.
Consecuentemente, el tamaño de la trama definida no debe ser nunca inferior a 31,25 bytes, con el fin
de garantizar la detección de colisión, en el peor de los casos posibles (es decir, cuando esté situado en
un extremo de la red).
De este modo se define el tiempo de ranura (Slot Time) como el tiempo mínimo necesario para
detectar una colisión. Una forma más útil de referir este concepto es mediante el tamaño de ranura
(Slot Size) que es el número de bytes que pueden transmitirse en un tiempo de slot. En el caso de
Ethernet, el tamaño de slot es de 64 bytes (la longitud mínima de la trama) tal como se ha visto.
Como se ha visto, el rendimiento real de las redes Ethernet está seriamente comprometido por el
procedimiento de acceso CSMA/CD. Puede afirmarse que el rendimiento se encuentra entre el 40% y
el 80%, pudiendo llegar al 90% solamente en situaciones excepcionales (pocas estaciones y tramas
largas).
En general, se puede asumir que en general se dispone de un caudal neto situado entorno al 60%. Ello
supone que una red de 10 Mbit/s únicamente ofrece un caudal de unos 6 Mbit/s para todos los usuarios
conectados (100 o más), lo cual hoy en día resulta en general insuficiente. La distancia extremo
extremo entre dos estaciones en Ethernet está en los 2 Kms.
La necesidad de nuevos requisitos de transmisión propiciaron la evolución del estándar hacia tasas de
transmisión superiores, llegando Fast-Ethernet a 100 Mbit/s (IEEE 802.3u), con el argumento de la
compatibilidad con Ethernet, que resulta fundamental para el crecimiento de la red, puesto que permite
continuar con los equipos existentes al tiempo que puede procederse a la migración hacia la nueva
tecnología. Sin embargo, motivos físicos debidos a la propagación de la señal en el cable motivan que
el tamaño de la red quede limitada los 200 m.
De todos modos, aunque para las aplicaciones actuales suele ser suficiente, incluso 100 Mbit/s puede
quedar obsoleto en breve, por lo que la tecnología ha continuado buscando la solución para el
incremento de caudal. Por ello, recientemente ha entrado a formar parte de los estándares (802.3z) el
nuevo Gigabit Ethernet, operando a 1 Gbit/s, aunque para operar bajo CSMA/CD aparece un
problema de tamaño de red, que quedaría limitado a los 20 m. Para evitar este problema, se ha
aumentado el tamaño mínimo de trama, pasando de 512 bit en Ethernet y Fast-Ethernet a los 512 bytes
(este cambio ha sido denominado carrier extensión). En esta situación, el tamaño de extremo a
extremo de la red recupera los 200 m que también define el estándar para Fast-Ethernet.
La compatibilidad entre equipos 10/100 Mbit/s se puede conseguir en la situación de la figura 4.18:
10
Repetidor Repetidor
multirate
100
Clientes a
100 10
Repetidor
Repetidor Clientes a
10
Clientes a
100
Clientes a
10
Una importante consecuencia es que la conexión a un HUB que funcione por contienda (CSMA/CD
convencional) únicamente permite 100 m de cable hasta cada estación.
La tecnología Gigabit Ethernet queda estandarizada en 802.3z, para Acceso CSMA/CD, es decir, por
contención. Asegura la compatibilidad con las soluciones a 10 y 100, con el mismo formato de trama.
Ofrece soporte para cableado de cobre, mediante cables:
a) De 25 m, 1000baseCX de 150 :,
b) o 100 m usando UTP de categoría 5, estandarizado en IEEE 802.3ab, y recomendado por la
Gigabit Ethernet Alliance.
Ahora bien, si se emplea un conmutador, el diámetro de la red pasa a no tener más límite que el de la
propia transmisión de la señal por el cableado, por atenuación o distorsión.
El funcionamiento de la red Gigabit Ethernet que emplea el mecanismo por contención es una
extensión de la solución empleada para 10 o 100 Mbit/s, tal como se estudiará a continuación.
De la expresión 4.23 se puede deducir de forma muy simple un muy importante resultado asociado al
procedimiento para emplear una tasa de bit superior: de los parámetros contenidos en esta expresión, v
es una constante dependiente del medio, L debe mantenerse por motivos de compatibilidad. En
consecuencia, si R aumenta, no hay más remedio que disminuir a d del mismo modo. En suma,
Por ejemplo, supóngase una red Fast-Ethernet. La diferencia fundamental con Ethernet es la tasa R,
que en este caso ha aumentado de 10 a 100 Mbit/s. Por lo tanto, el diámetro de la red habrá reducido
hasta los 250 m, que el estándar deja en 210 m. Por lo demás, el formato de trama es el mismo.
a) En el sentido Fast-Ethernet hacia Ethernet, debe existir una cola o buffer que permita almacenar
la trama mientras ésta es transmitida a velocidad 10 veces inferior hacia Ethernet. Esta cola
actúa con funciones de retención de los bytes que no pueden ingresar en Ethernet al mismo ritmo
que salen de Fast-Ethernet. Debe observarse que no es posible que todo el caudal de Fast-
Ethernet (100 Mbps teóricos) pueda introducirse hacia Ethernet (10 Mbps teóricos),
evidentemente.
b) En el sentido opuesto, desde Ethernet a Fast-Ethernet, se requiere un buffer para acoger la trama,
de modo que pueda entregarla hacia Fast-Ethernet a tiempo de bit contraído a la décima parte,
evitando que la disminución del tiempo de bit suponga que se agote la información recibida a 10
Mbit/s, y no se mande la trama completa. Por tanto, el buffer debe ser llenado antes de iniciar la
transmisión hacia Fast-Ethernet.
sido necesario idear un mecanismo que permita disponer de una distancia extremo a extremo superior.
En la práctica, el estándar habla de 210 m. ¿Cómo ha sido posible?
Para comprender la solución empleada, debe recordarse que los 46 bytes del campo de datos de la
trama Ethernet (fig. 4.17), deben estar siempre presentes, incluso aunque los datos reales que deben
encapsularse sean de tamaño inferior. En este caso, se procede a rellenar hasta alcanzar este tamaño
mínimo. La cuestión es entonces determinar la longitud real de los datos, lo cual podrá llevarse a cabo
en la entidad destino por medio del protocolo encapsulado, gracias al campo de tipo que permitirá
reconocer ese protocolo operando encima de Ethernet. Obsérvese que este mecanismo no ofrece
inconvenientes, más que la simple disminución de rendimiento cuando se desean enviar menos de 64
bytes, causado por el relleno artificial que debe efectuarse.
Justamente este mismo esquema es el que ha permitido resolver el problema para aumentar el tamaño
de trama mínimo en Gigabit Ethernet al tiempo que se mantiene la compatibilidad. Gigabit Ethernet
define un tamaño mínimo de slot 512 bytes, esto es, 8 veces superior al de Ethernet. En este caso, el
relleno es muy superior.
Ahora bien, este tamaño únicamente afecta al tiempo de slot, pero no al tamaño mínimo de la trama,
que ahora quedará ubicada dentro de un slot de mayor tamaño que en el caso de Ethernet o Fast-
Ethernet. El relleno que puede ser necesario se realiza mediante símbolos especiales, diferentes a los
que pueden aparecer en los bytes de la trama. Este proceso es conocido como carrier extension. Para
tramas con la portadora extendida, los símbolos especiales (distintos a los de datos) que efectúan la
extensión rellenando el slot se incluyen al final de la trama estándar Ethernet y el CRC calculado no
los tiene en consideración.
64 bytes mínimo
En resumen, Gigabit Ethernet permite la interoperación con las redes 802.3 existentes. El mecanismo
de carrier extension es una forma de garantizar los tamaños mínimos y máximos de trama con
distancias extremo a extremo de la red razonables.
De este simple e intuitivo razonamiento se deduce que, aunque pueda existir una importante
disminución del aprovechamiento neto de la red, el caudal final obtenido es sensiblemente superior en
Gigabit Ethernet y, consecuentemente, ofrece gran interés para las futuras redes que deban transportar
caudales elevados con acceso al medio CSMA/CD.
Sin embargo, dado que carrier extension es un mecanismo que desperdicia una buena parte del ancho
de banda (hasta 512 – 64 = 448 bytes de relleno) se ha diseñado una mejora añadida, denominada
packet bursting. Packet bursting consiste en el empleo de carrier extension combinado con la
realización de una ráfaga de paquetes en transmisión. El procedimiento seguido presenta ventajas
cuando se van a transmitir desde una estación varios paquetes de pequeño tamaño: tras transmitir el
primer paquete, ya sea empleando carrier extension o no en un time slot, los siguientes paquetes se
transmiten también hasta que se consumen 1500 bytes. Para la transmisión de la ráfaga de paquetes se
respeta el valor de inter-packet gap (IGP) (o distancia mínima entre paquetes) definida por el estándar.
Puede verse el funcionamiento de forma gráfica en la figura 4.21.
Con el fin de establecer los límites existentes, cabría cuestionar cuál sería la velocidad máxima a la
que podría operar esta tecnología usando d = 210 m. Para resolver este simple ejercicio, basta con
considerar que el límite viene fijado por la compatibilidad, esto es, por el tamaño máximo de las
tramas Ethernet, que es de 1518 bytes. Considérese pues una red Ethernet con todas las tramas de la
misma longitud, que coincida con la máxima de 1518 bytes. En esta situación, la red podría operar
hasta
1 v 1 2 10 8 m / s
Rmax L 1518bytes 5,78Gbit / s (4.25)
2 d 2 210 m
Nótese que ante mecanismos de Ethernet conmutada, no existen estas limitaciones, ya que la distancia
máxima viene determinada por la atenuación de la señal en el cableado, y por tanto podría ser
técnicamente ilimitada. Este es el caso de enlaces Ethernet de varios kilómetros, que interconecten
equipos distantes mediante tecnología Ethernet, con caudales en la actualidad de hasta 10 Gbit/s, pero
que presumiblemente la evolución los llevará hacia los 100 Gbit/s y, por qué no, hacia el terabit/s.
Metro Ethernet Forum es un organismo sin ánimo de lucro que tiene por principal objetivo la
promulgación de las redes Ethernet ópticas para su adopción como solución tecnológica en entornos
de red metropolitana. Está constituido por empresas líderes del sector, con 67 miembros a fecha de 1
de enero de 2002.
b) Definición de servicios.
Este consorcio pretende potenciar la implantación de las soluciones Ethernet (hasta 10 Gbit/s en la
actualidad, IEEE 802.3ae, en el marco de las redes metro.
La servicios considerados por Metro Ethernet incluyen la emulación de circuitos (CES, Circuit
Emulation Service) para el soporte de tráfico TDM, tal como T1/E1, T3/E3 y OC-3/12 sobre redes
basadas en Ethernet. De este modo, se puede decir que esta nueva Ethernet de alta capacidad ofrece
características de transmisión equiparables a las de SDH.
Las redes basadas en Ethernet ofrecen una relación prestaciones/coste muy ventajosa, así como una
gran facilidad de uso. En general, puede afirmarse que Ethernet es una tecnología muy adecuada para
el transporte de tráfico IP. Estas ventajas la determinan como una tecnología adecuada para el entorno
metropolitano a la vista de los organismos que actualmente impulsan nuevas tecnologías, como es el
caso del 10 Gigabit Ethernet Alliance (10GEA).
Uno de los aspectos fundamentales en las consideraciones de adopción de la red metro Ethernet frente
a SDH / Sonet es que Ethernet puede ser empleada para el transporte de una gran variedad de
propósitos, coexistiendo con SDH/Sonet. Ahora bien, las previsiones apuntan a que, aunque la
convivencia está garantizada, el mercado tenderá a adoptar progresivamente Ethernet como solución
de transporte, sustituyendo a la larga a SDH/Sonet.
5.1.1 Introducción
El concepto de red digital de servicios integrados, en adelante RDSI, surge a mediados de las década
de 1980. En dicha época la red telefónica, con aproximadamente 100 años de existencia y presencia
prácticamente mundial, se utilizaba, aparte del servicio de voz, para el soporte de nuevos servicios de
telecomunicación de demanda creciente (transmisión de datos entre ordenadores, facsímil, vídeo, etc.).
El soporte de esos servicios (gracias al uso del módem), y de otros que se vislumbraban para un futuro
inmediato, no era del todo eficiente.
Por ello, el CCITT (actualmente el ITU-T), en sus reuniones de 1984 y 1988, define la RDSI como
una red basada, a grandes rasgos, en lo siguientes principios:
a) Compromiso internacional
b) videotexto (hoy en desuso y sustituido, probablemente, por el servicio web): para el acceso
interactivo a bases de datos remotas, las consultas de direcciones y personas (páginas blancas,
páginas amarillas), las reservas de billetes para viajes y espectáculos, las operaciones
bancarias, las telecompras, etc.
c) el correo electrónico
d) el facsímil (o fax)
e) la videotelefonía, la videoconferencia
En cuanto a los aspectos de implantación y requisitos de diseño de las RDSI, podrían apuntarse los
siguientes:
c) mejora de la capacidad de señalización del sistema telefónico tradicional (con una baja
capacidad de señalización, propensa a los errores e, incluso, al fraude)
d) uso de una red de señalización por canal común (usuario-red, red-red, fuera de la banda,
basada en la conmutación de mensajes, con funciones para: el establecimiento,
encaminamiento y liberación de llamadas, el acceso a bases de datos internas, la supervisión,
mantenimiento y gestión de la red, la tarificación, etc.)
Como se muestra en la figuras 5.1 y 5.2, la RDSI integraría el acceso a todos los servicios, pero no las
redes de transporte, para, eventual y posteriormente (en el siglo XXI), integrar también el trasporte
ACCESO ACCESO
Conmutación de circuitos
Enlaces dedicados
Equipo Nodo de Nodo de Equipo
terminal acceso RDSI acceso RDSI terminal
Conmutación paquetes
Señalización
Interfaz Interfaz
usuario-red usuario-red
Fig. 5.1 Inicialmente la RDSI integra el acceso a todo tipo de servicios y redes, pero no las redes de transporte
ACCESO ACCESO
Interfaz Interfaz
usuario-red usuario-red
Fig. 5.2 En el futuro la RDSI integraría eventualmente también a las redes de transporte (ATM, por ejemplo)
a) la digitalización del último tramo de la red (el acceso del terminal de usuario a la red)
central
NT1
RDSI
T (S) U
Fig. 5.3 Entidades funcionales y puntos de referencia en un entorno sencillo como un domicilio particular o
pequeña oficina con teléfono y fax, por ejemplo
TE1
TE1 central
R NT2 NT1
RDSI
TE2 TA
T U
route r S
LAN
Fig. 5.4 Entidades funcionales y puntos de referencia en un entorno algo más complejo; obsérvese que cabe
considerar el uso de un encaminador con interfaces S y Ethernet, por ejemplo, para conectar dos redes LAN
distantes o para permitir el acceso de los equipos de la LAN a Internet
Las entidades funcionales de la arquitectura del acceso básico a la RDSI son las siguientes:
b) NT2 (Network Termination 2): elemento opcional que aparece en entornos de usuario más
importantes; posee funciones de conmutación (PABX, por ejemplo); con funciones de capas
1 a 3 según el modelo OSI
c) TE1 (Terminal Equipment 1): equipo terminal RDSI con interfaz S (véase más abajo); puede
ser un terminal telefónico, un equipo de fax, un ordenador dotado de tarjeta RDSI, etc.
Los puntos de referencia de la arquitectura del acceso básico a la RDSI son las siguientes:
4B3T (que significa que cada grupo de 4 bits se transmite como 3 símbolos ternarios, es
decir, que pueden adoptar 3 niveles de tensión distintos), dando una tasa de 120 kbaudios. En
este último caso se tiene cierta redundancia (33 grupos distintos de 3 símbolos para 24 grupos
de 4 bits posibles), aprovechable para la detección de errores
c) T: es el interfaz entre las entidades NT1 y NT2; si la entidad NT2 no existe, entonces los
puntos T y S son equivalentes
d) R: define algún interfaz no RDSI con equipos terminales tradicionales (por ejemplo: teléfono
analógico, RS-232, X-25, etc.)
a) Canales B: canales digital full-dúplex a 64 kbit/s para el transporte extremo a extremo de voz
o datos de usuario; dichos canales son generalmente tratados de forma “transparente”, es
decir, la RDSI no especifica el significado de los bits que transportan o, dicho de otro modo,
las normas de RDSI sólo dan especificaciones de capa física para dichos canales. El
significado de los bits transportados por dichos canales depende del usuario (pudiendo ser
muestras de voz codificadas, imágenes de video comprimidas, datos entre ordenadores,
datagramas de Internet, etc.)
El acceso básico, también denominado 2B+D, ofrece al usuario dos canales B que, por conmutación
de circuitos, pueden conectarse con cualquier destino. Así, por ejemplo, un usuario puede mantener
una conversación telefónica con alguien y enviar un fax a otro destino simultáneamente, o bien
acceder a Internet usando los dos canales B “en paralelo” para tener una velocidad de acceso de 128
kbit/s. El canal D lleva toda la información de señalización, es decir, de establecimiento de llamadas,
de información de llamadas entrantes o de tarificación en tiempo real durante una conversación, etc.
El acceso primario, también denominado 30B+D (en Europa) o 23B+D (en USA y Japón), ofrece al
usuario 30 (23) canales B que, por conmutación de circuitos, pueden conectarse con cualquier destino.
Así, por ejemplo, una empresa de alojamiento de páginas web puede tener conectados sus servidores a
Internet, a una velocidad cercana a los 2 Mbit/s, usando los 30 canales B de un acceso primario “en
paralelo”, o bien otra empresa puede disponer de un número telefónico de atención al cliente con 30
líneas, etc. El canal D, en este caso, por llevar información de señalización relativa a 30 canales, opera
a 64 kbit/s.
acceso D acceso B1
B1 B2
básico B2
primario .
.
B30
Fig. 5.5 Representación simbólica (pues todos los canales van multiplexados en el tiempo sobre una única línea
de transmisión) de los dos principales accesos a la RDSI de banda estrecha
conmutador de
S U circuitos
NT1 LT
1 I.430/I.431
plano de señalización
3 Q.930/Q.431 3
(canal D)
2 Q.920/Q.421 2
I.430/I.431
1 1
Fig. 5.6 Arquitectura del acceso a la RDSI de banda estrecha. En sombreado, las capas definidas por ésta para
el plano de usuario (canales B) y para el plano de señalización (canal D). En negrita, los principales protocolos
para el acceso básico/primario
2 bits de offset
Frame Relay es una propuesta de ANSI de 1990, planteada como una evolución del servicio de X.25,
que incorpora las mejoras tecnológicas disponibles, para sustituir a las tecnologías de ese momento.
5.2.1 Objetivos
Frame Relay pretende sintetizar una tecnología articulada sobre mecanismos simples. Por este motivo,
Frame Relay potencia los aspectos destinados a alcanzar esta simplicidad, entre los cuales destacan la
desaparición de los elementos de gestión de la transmisión de los datos, la señalización fuera de banda
y la supresión de los controles de error en los nodos intermedios.
De esta forma, Frame Relay se perfila como una tecnología que con una menor potencia en los equipos
consigue mejorar la velocidad de transmisión de datos y el funcionamiento general de la red al
simplificar los aspectos de gestión.
Entre las motivaciones que llevaron al desarrollo de esta tecnología, pueden distinguirse las causas
funcionales y a las de implementación.
Las causas funcionales, que surgen como respuesta a las necesidades del avance de la tecnología y los
servicios, pueden desglosarse en las siguientes:
b) La necesidad de integrar las redes de área local con las de área extensa con el fin de permitir
la comunicación entre las pequeñas redes a través de una tecnología de transporte que
garantizara el caudal de transporte.
En cuanto a las causas por motivos de implementación, se articulan en dos aspectos fundamentales,
fruto de la evolución de las técnicas de transmisión de datos y del incremento de potencia de los
procesadores:
a) La disponibilidad de un mejor soporte para la transmisión, con tasas de error de bit menores,
condujo a cuestionar la necesidad de comprobar la existencia de errores en cada uno de los
nodos de la red, a nivel de enlace.
b) Este hecho, unido a equipos terminales más inteligentes gracias a una mayor potencia de
cálculo, permitió asignar la responsabilidad del control de errores completamente al terminal.
La importancia consecuencia que se deriva de este hecho es que los nodos de conmutación de
la red quedan automáticamente liberados de esta labor, y pueden concentrar sus esfuerzos en
la propia operación de conmutación de la información, de modo que esta pueda ser efectuada
por dispositivos de menor coste.
Frame Relay es una tecnología de red cuya simplicidad afecta a dos aspectos de control
fundamentales, que en otras redes como X.25 son muy importantes para su correcto funcionamiento:
En primer lugar, no hay controles de flujo, por lo que si se produce congestión en la red, el tráfico
entrante puede perderse por simple desbordamiento de colas
En segundo lugar, no hay control de errores en los nodos de la red, gracias a que el medio físico
proporciona una probabilidad de error de símbolo baja.
Su base se asienta en el estándar I.122 del CCITT, ofreciendo una estructura para los servicios
portadores en modo paquete. Con posterioridad, el Q.921 también del CCITT demostró la utilidad del
multiplexado de circuitos virtuales para protocolos de nivel de enlace. De ahí que Q.921 trata del
protocolo LAPD (Link Access Procedure for the D Channel). La recomendación V.120, finalmente,
especificó el procedimiento de multiplexado a través de interfaces S/T de la red digital de servicios
integrados de banda estrecha, la RDSI.
En la actualidad, los estándares reposan en dos ramas diferentes, una de ellas constituida por el CCITT
con los estándares I.233, Q.922 anexo A y Q.933, y por otro el ANSI, con los estándares T1.606,
T1.618 y T1.617.
El servicio ofrecido es orientado a conexión. Durante la fase de conexión, se establece la ruta del
circuito virtual y se señaliza a la red con el fin de garantizar parámetros de calidad al usuario (caudal y
retardo). La conmutación se caracteriza por operar en modo conmutación rápida de mensajes. Este
procedimiento trata de encaminar la información tan pronto la trama de datos entra al conmutador.
Frame Relay no prevé mecanismos de prioridad para los paquetes de información, de tal modo que
todos ellos reciben el mismo trato por parte de la red. Sin embargo, esta afirmación deberá ser
matizada más adelante puesto que aunque efectivamente la red no proporciona herramientas explícitas
de prioridad, sí es cierto que existe una forma práctica que permite definir dos niveles de calidad,
basados en el campo DE de la trama.
Las tramas son de longitud variable, y su tamaño viene determinado por unos indicadores (flags) al
principio y al final.
El usuario contrata una tasa de transmisión que se denomina CIR (Committed Information Rate) o tasa
de información comprometida, que puede interpretarse como aquel caudal que el usuario puede
transmitir hacia la red y que ésta siempre debe cursar. Más adelante se comentarán otros parámetros
que el usuario también puede contratar y que consienten la generación de picos de tráfico hasta cierto
valor máximo.
5.2.3 La conmutación
Frame Relay define un servicio orientado a conexión, mediante circuitos virtuales. Esto significa que
durante la fase de conexión, los nodos intermedios de la red buscan una ruta que establezca por donde
pasa el circuito virtual de modo que todos los paquetes transiten por el mismo camino.
Para cada circuito un contrato de tráfico, con un perfil de caudal y de retardo de transmisión. En este
contrato, se indica el valor de CIR asociado. Un circuito se establece en ambos sentidos de la
comunicación, aunque no por ello el valor del CIR debe ser el mismo.
Se distinguen dos tipos de conexiones, en base a la forma en que se establecen: Los circuitos virtuales
permanentes (PVC, Permament Virtual Circuit) disponen siempre del mismo valor de contrato,
negociado de antemano con el operador, con un establecimiento de conexión prefijado.
Por otro lado, los circuitos virtuales conmutados (SVC, Switched Virtual Circuit), negocian todos los
parámetros de la conexión durante la fase de establecimiento. Estos últimos pueden desconectarse una
vez termina la comunicación. El tratamiento de mensajes de señalización definido en los estándares
para el establecimiento y desconexión del circuito queda fuera del alcance de este libro.
Cabe indicar que una vez establecidos, los PVC y los SVC reciben el mismo trato por parte de la red.
Es decir, la única diferencia entre ellos se encuentra en las acciones durante la fase de establecimiento
de conexión.
Tal como se ha indicado en la sección anterior, Frame Relay emplea un modo de conmutación rápida
de paquetes. Para que sea efectivo, es necesario que la información de direccionamiento se encuentre
al principio del paquete, de modo que el conmutador pueda conocer la ruta de destino lo antes posible
para proceder a dirigir los datos hacia el puerto de salida adecuado. De acuerdo a esta necesidad, el
identificador del canal virtual o DLCI (Data Link Control Identifier) se sitúa al principio del paquete.
El establecimiento de una ruta, ya sea para circuitos virtuales permanentes o conmutados, consiste en
la programación de unas tablas en cada uno de los conmutadores, de modo que quede establecida la
ruta que deben seguir los mensajes. En la tabla de conmutación se indican los pares {puerto de entrada
del conmutador / número de conexión (DLCI)} para el puerto de entrada (in) por el que se espera la
llegada, y el de salida (out) por el que el equipo de conmutación debe transferirlo.
Durante este proceso, el identificador DLCI puede cambiar entre enlaces de nodos pertenecientes al
mismo trayecto. Nótese que ello no supone ningún inconveniente, puesto que el circuito queda
claramente definido y sin ambigüedades por la concatenación de los diversos valores de DLCI
adoptados en los diversos enlaces entre conmutadores desde el equipo origen hasta el destino.
Aunque la existencia de valores diferentes para un mismo trayecto pueda parecer un inconveniente,
permite la administración local del valor de DLCI. Es decir, durante la fase de estableciendo de la ruta,
cuando los conmutadores deben programar sus tablas, el valor del DLCI se negocia entre los dos
equipos de los extremos de dicho enlace, eligiendo cualquier valor no ocupado.
De este modo, se evita tener que conocer todos los valores ya usados de DLCI en toda la red. Como el
lector podrá apreciar, esto es una gran ventaja para la gestión de identificadores en Frame Relay, y no
conlleva ningún tipo de perjuicio. La figura 5.8 muestra una pequeña red Frame Relay con algunas
rutas definidas.
Resulta fácil encontrar los circuitos establecidos, tal como muestra la figura 5.9.
IN OUT
IN OUT
Identificador de puertos del conmutador
16 #3 220 #5
25 #5 26 #2
Identificadores de conexión 16 16 #6 45 #9
2 27 #3 26 #9
1 50 220
#1,#2,#3 45 25
A 1 26
51 4
IN OUT 27 B
Puerto/Conexión 313
1 #1 50 #3
314
1 #2 50 #6 IN OUT
1 #3 51 #8
24 3
313 #9 25 #8
25 24 #8 314 #3
#3 #5
#1 2
#2
A
#3
1 #6
#9 4
#2 B
#9
#8
3 #3
#8
C
Frame Relay define una arquitectura donde únicamente aparecen los dos niveles inferiores, de acuerdo
a la torre de protocolos de OSI.
En esta arquitectura, el nivel físico es responsable del transporte de los bits y el nivel de enlace se
ocupa del control de congestión y multiplexado estadístico de conexiones. En este nivel, el encargado
de las tareas de señalización es el protocolo LAP-D. El control de errores se debe efectuar en las capas
superiores.
LAP-D
Nivel Físico
En cuanto al direccionamiento, necesario para poder establecer los circuitos virtuales, en el nivel de
enlace se definen direcciones de 2 bytes, de modo que cada nodo viene identificado por un SAPI
(Service Access Point Indentifier) o Identificador de Punto de Acceso al Servicio. Además. Cada
terminal dispone de un identificador o TEI (Terminal Endpoint Identifier). De este modo es posible
multiplexar diversos circuitos virtuales desde un mismo nodo. El TEI y el SAPI se denominan
conjuntamente como el identificador de conexión del nivel de enlace, que es precisamente el DLCI.
La forma tradicional de acceder a una red Frame Relay es mediante el dispositivo FRAD (Frame
Relay Access Device), cuyo nombre rememora el PAD (Packet Assember / Disassembler) de las
antiguas redes X.25. Como puede verse en la figura 5.11, la conexión se efectúa mediante el
dispositivo FRAD conectado a la red Frame Relay que se encarga del encapsulado y desencapsulado
de los paquetes hacia o desde la red.
De este modo resulta posible la conexión de una red LAN hacia una rede de transporte Frame Relay
contratada a un operados de modo que una dos redes de área local distantes. Tal puede ser el caso de
dos departamentos, dos oficinas, etc.
Red
Red
FRAD
FRAD Frame
UNI FrameRelay
Relay
FRAD
FRAD LAN
LAN
Fig. 5.11 Esquema tradicional de acceso a una red Frame Relay desde una red LAN
El ITU-T indica que se pueden emplear accesos a Frame Relay mediante interfases V.35 para servicio
a 56 ó 64 Kbit/s, G.703 para servicio a 2 Mbit/s, y también interfases de X.21.
El Frame Relay Forum, por su parte, refiere a ANSI T1.403 para medios a 1,5 Mbit/s.
Tal como muestra la figura, la trama se inicia con un flag de inicio y final, que permite determinar la
longitud del campo de información. Este flag sigue una secuencia reservada cuyo valor es 01111110, y
que el sistema tiene reservada mediante un mecanismo que garantiza que no exista ningún dato que
pueda usar esta misma combinación. El campo de CRC se emplea como herramienta de detección de
errores. Por lo que hace referencia al campo de cabecera o header, se descompone en diversos campos.
El DLCI ya ha sido comentado a raíz del procedimiento de definición del identificador de conexión en
la sección dedicada a la conmutación.
El campo de Petición / Respuesta (C/R) se emplea para conocer si una trama es una petición o bien se
manda como respuesta a una solicitud. Es útil para el caso de estudiar o reconocer los diversos flujos
de información asociados a una conversación entre dos equipos.
6 1 1 4 1 1 1 1
0 0 0 1
Fig. 5.13 Configuración más larga posible del campo de cabecera, atendiendo al campo EA
El campo DE (Discart Elegibility) o Elegible para Descarte, permite al usuario o a la red marcar
tramas como candidatas para ser descartadas, caso de que el estado del sistema lo requiriera. En el
mecanismo de control de congestión se estudiará como afecta este campo. También debe mencionarse
que aunque Frame Relay no disponga de mecanismos de prioridad, es bien cierto que gracias a este bit
es posible definir dos niveles: El nivel bajo, caracterizado por tener este bit activado, y el nivel alto, en
que no lo está.
De este modo, los operadores de red pueden ofrecer dos niveles de prioridad, gracias a este
procedimiento ingenioso.
Finalmente, quedan por mencionar los bits FECN y BECN (Forward, Backward Explicit Congestion
Notification). Son bits asociados a los niveles de congestión de la red, y permiten indicar a los
terminales si existe congestión en algún punto del circuito contratado.
Su funcionamiento queda más allá de los objetivos de este libro, aunque puede consultarse la
bibliografía para obtener más detalles al respecto.
Frame Relay define un conjunto de parámetros, que definen el perfil de tráfico de las diversas
conexiones contratadas. Los parámetros principales son los siguientes: CIR, Bc, Be y Tc.
2. El Bc (Committed Burst Rate) es el máximo volumen de bits que el usuario puede transmitir
por la conexión en un intervalo Tc. Se desprende de estas dos definiciones que CIR = Bc / Tc.
3. EL Be (Excess Burst Rate) es el máximo volumen de bits que el usuario puede transmitir por
la conexión excediendo a Bc en un intervalo Tc. A partir de este valor, se define el EIR
(Excess Information Rate) o tasa de información en exceso, como EIR = Be / Tc
Teniendo en cuenta estos parámetros, la tabla de la siguiente figura muestra diversas situaciones:
CIR Bc Be
En el segundo caso (CIR>0, Bc>0, Be=0) , se tiene una conexión en la cual se dispone de un caudal
CIR y no hay posibilidad de transmitir un exceso de tráfico por encima de este CIR. El valor de Tc
puede obtenerse simplemente considerando cada qué volumen de bits Bc se desea controlar el caudal.
En el segundo caso (CIR>0, Bc>0, Be>0) , se tiene una típica conexión en la cual se dispone de un CIR
y también de la posibilidad de transmitir un exceso de tráfico por encima de este CIR. El valor de Tc
puede obtenerse al igual que en el caso anterior, considerando cada qué volumen de bits Bc se desea
controlar el caudal. En este caso, se podrá obtener el valor de la tasa EIR como cociente entre Be y Tc.
El último caso resulta cuanto menos, curioso, puesto que el valor de CIR es nulo. Sin embargo, se
permite la transmisión de caudal gracias a Be.
En esta situación, como se verá en la siguiente sección dedicada al control de congestión, todas las
tramas entrarán en la red marcadas como DE por estar por encima de CIR. Este tipo de contratos
constituyen conexiones de baja prioridad. No por ello dejan de ser útiles, porque existen usuarios
dispuestos a emplear servicios económicos para funciones de red que no precisan de ningún tipo de
caudal garantizado. El valor de Tc se contabiliza como Be sobre el valor de la tasa de acceso del enlace
que llegue hasta el punto de acceso del abonado.
Por ejemplo, puede ser un enlace a 1 Mbit/s, y nótese que aunque el usuario deseara inyectar este
caudal, al llegar al punto de entrada a la red, sería presumiblemente descartado por el operador.
Ante todo, es preciso definir la congestión. Es usual comprobar como erróneamente se considera la
congestión como el exceso de tramas en la red.
Resulta fundamental comprender que esto es la causa de la congestión, no la congestión como tal. De
hecho, un usuario seguro que admitiría sin queja alguna una conexión que garantice perfectamente el
caudal que haya contratado, sea cual sea el estado de la red. El problema aparecería cuando el servicio
recibido no se ajustase al esperado.
Desde este punto de vista, puede definirse la congestión como aquella situación en la cual la red no es
capaz de ofrecer la calidad de servicio que los usuarios han contratado. Esto es, no es capaz de
garantizar un determinado retardo ni caudal, que los usuarios han contratado.
Para garantizar el correcto funcionamiento de la red, es preciso controlar que los usuarios generen el
caudal que han contratado.
Bits
Bc+Be
Tasa de acceso
Bc
CIR
tiempo
To To+Tc
Trama dentro de CIR Trama dentro de CIR DE=1 DE=1 Trama descartada en la UNI
Tc
Obsérvese que existe una línea gruesa representada con punto-ralla, que se inicia en el eje de
coordenadas, a tiempo To y ningún bit en el eje de ordenadas, y llega hasta To+Tc, con Bc bits. Por lo
tanto, la pendiente de esta recta es Bc / Tc, es decir presenta pendiente CIR.
Por tanto, todas las líneas de mayor pendiente a esta recta serán tasas superiores, y las de menor
pendiente de caudal inferior.
En consecuencia, la línea de trazos discontinuos que nace donde cruzan los ejes presenta una tasa
bastante superior. Es el caudal del enlace, que puede ser muy superior a la tasa contratada y por tanto
permitida por la red.
Si analizamos el comportamiento de una hipotética fuente (trazo continuo más grueso), se observa que
inicia la transmisión generando un determinado volumen de información inferior a Bc, a velocidad
igual a la del enlace. Por lo tanto, esta primera trama no supera ningún umbral del eje de ordenadas, y
debe considerarse como trama aceptable.
Tras una breve pausa, la fuente reemprende la transmisión, siguiendo con la tasa máxima, que es la del
enlace, y alcanza un total de bits acumulado de Bc. Dado que no se ha superado este umbral, la trama
se considera también perfectamente aceptable, dentro de CIR.
Tras otra pausa, se genera una nueva trama, que hace que el total de bits generados supere a Bc pero
no a Bc+Be. Por lo tanto, la trama se acepta pero se marca su campo DE a 1. De este simple modo, se
indica que puede ser descartada en caso de que se produzca congestión o los conmutadores lo
consideren. El mismo comentario puede ser aplicado a la siguiente trama, que no llega a superar el
segundo umbral Bc+Be. Finalmente, la figura muestra como antes de haber transcurrido Tc, se genera
una nueva trama, que desborda el umbral superior. En consecuencia, esta trama será descartada.
La principal consecuencia de este procedimiento de control es que la red permite el paso de ráfagas de
tráfico, de acuerdo siempre a no superar el segundo umbral. Este hecho podrá observarse con un
refinamiento superior en las redes de banda ancha basadas en la tecnología ATM, que serán objeto de
estudio en el siguiente capítulo.
6.1 Introducción
La tecnología ATM es la base de la Red Digital de Servicios de Banda Ancha (Broadband Integrated
Services Digital Network, B-ISDN).G
En la definición de Banda Ancha de la recomendación I.113 del ITU-T, se afirma que es un servicio o
sistema que necesite canales de transmisión capaces de soportar tasas superiores a la primaria (es
decir, mayor a 2 Mbps). Esta definición es hoy en día obsoleta, dado el salto que en los últimos se ha
producido en las redes de comunicaciones, alcanzando cotas cercanas a 1 Tbit/s, bajo tecnologías tales
como DWDM (Dense Wavalenght Division Multiplexing), que quedan fuera del alcance de este libro.
6.1.1 Problemática
La aparición de la Red Digital de Servicios Integrados de Banda Ancha se explica por la existencia en
su momento de una red de banda estrecha (la popular RDSI comentada en el capítulo 5), que ofrece
poca flexibilidad y poco ancho de banda, puesto que se tratan de caudales de tasa constante, sin
posibilidad de variaciones de tráfico.
Las necesidades actuales se dirigen hacia un gran ancho de banda, con dispositivos de conmutación y
transporte rápidos, basados en canales a alta velocidad, que admita servicios orientados y no
orientados a conexión, y comunicación punto a punto y multipunto.
El paradigma actual establece que es precisa una clasificación de los servicios con el fin de adecuar el
perfil demandado por los usuarios con la oferta que hagan los operadores de red. Resulta utópico
pensar que los servicios ofrecidos por las empresas de servicios de red coincidan con la demanda de
los usuarios, pero es cierto que es posible acercar ambas posturas conociendo el comportamiento de
las fuentes de usuario y sus necesidades, con el fin de conseguir multiplexar la información
adecuadamente.
1. Conversacionales: aquellos que son bidireccionales y operan con requisitos de tiempo real.
Por ejemplo, los servicios de telefonía.
De acuerdo a las variaciones de caudal que pueda experimentar la fuente de datos, se define la
relación de rafagueo o burstiness como la fluctuación del ancho de banda respecto el valor medio. Así
pues, un valor de burstiness = 1 se interpreta como un caudal constante. Por otro lado, un burstiness
>>1 supone que el ancho de banda de la transmisión es muy variable, presentando picos de tráfico
muy pronunciados. Este último caso es difícil gestión en las redes tradicionales.
Un ejemplos de burstiness elevado es el vídeo comprimido en modo de tasa variable (es habitual
también la compresión a tasa constante), como por ejemplo, en los estándares MPEG 1, 2 o 4.
125000
100000
75000
50000
25000
0
1800 1850 1900 1950 2000 2050 2100 2150 2200
número de cuadro
La figura 6.1 muestra diversas capturas de tráfico generado por diversas fuentes de vídeo reales de
formato MPEG-1. Además de los usuales picos debidos al entramado MPEG con formatos I,P y B.
puede observarse que el valor medio varía. Ello es debido a pasajes de la secuencia con poco
movimiento (tales como puestas de sol) y otras con un caudal más elevado (como podría ser el caso de
una escena con mucho movimiento, como una persecución de vehículos).
En STM se consideró un multiplexación basada en TDM, con canales separados y un ancho de banda
de cada canal fijo, sin información de propiedad del paquete. Este esquema es el mismo que el
empleado en la RDSI estudiada en el capítulo 5, y por tanto es adecuado para fuentes de tasa constante
pero inadecuado para tasa variable.
... cabecera
cabeceraTrama
Trama Canal
Canal11 ...... Canal
CanalNN cabecera
cabeceraTrama
Trama ...
Por otro lado, ATM propone una asincronía n el sentido de no hay canales reservados del tipo STM,
aunque el medio perfectamente síncrono (existen señales de reloj). El acceso de los usuarios al medio
se efectúa a instantes determinados de tiempo, en ranuras específicas, pero sin existir ninguna ranura
reservada. Por este motivo de denomina asíncrono.
La figura 6.3 presenta un conjunto de celdas, usadas por diversos usuarios arbitrarios.
... HH Canal
Canali i HH Canal
Canalj j HH Canal
Canalkk HH Canal
Canalj j ...
Permite una asignación dinámica del ancho de banda, mediante el empleo consecutivo de
varias celdas para conseguir picos de tráfico para atender a ráfagas de usuario.
El modelo de protocolos de la B-ISDN viene expuesto en la figura 6.4. Aunque el detalle de todos los
planos que conforman esta arquitectura queda lejos de los propósitos de este libro, se mencionan a
continuación los aspectos principales.
PLANO DE GESTIÓN
PLANO DE GESTIÓN
Plano control Plano usuario
NIVEL DE GESTIÓN
NIVELES NIVELES
ALTOS ALTOS
CAPA de ADAPTACIÓN
CAPA ATM
CAPA FÍSICA
Fig. 6.4 Modelo de protocolos de la Red Digital de Servicios Integrados de Banda Ancha
El plano de control está encargado del control de la llamada y la conexión. Por lo tanto, del
establecimiento, control y liberación de los circuitos que se establezcan.
El plano de gestión está dedicado a la gestión de todo el sistema. No presenta ninguna estructura de
capas.
En esta misma capa ATM existe también el denominado nivel de VP o de camino virtual, que define
un identificador para un conjunto de circuitos virtuales VC. Este grupo de VC tienen en común el
mismo VPI (Identificador de VP).
En el nivel físico, existe un camino de transmisión que se conforma por los flujos de celdas, una
sección digital, por bytes y bits, y una sección de regeneración, caracterizado por el estado del enlace.
Hasta el momento se ha explicado que ATM define dos niveles para el transporte de celdas: El nivel
de VC, y el de agrupaciones de VC, que se denominan VP. La conmutación en cada caso es diferente.
En el caso de la conmutación mediante el valor del VPI transportado en las celdas, la situación es
análoga a la que se efectúa en las redes Frame Relay, donde debe entenderse que en este caso el papel
del DLCI es jugado por el VPI. En la figura 6.5 se muestra un posible esquema, y fácilmente se
pueden ver las analogías entre ambas tecnologías.
En el caso de la conmutación por VCI, es preciso comprender ante todo que la conmutación basada en
VCI es posterior a la de VPI, puesto que un conjunto de VCI ha sido agrupado dentro de un VPI.
Consecuentemente, el conmutador se encarga primero de deshacer el haz de VPI para dejar disponible
la posibilidad de conmutar los VC, mediante una tabla específica.
Para ello, como aparece en la figura 6.6, el conmutador puede decidir generar nuevos VPI para poder
hacer llegar hasta sus destinos las celdas de datos que quizá hasta el momento habían viajado junto a
otras bajo el mismo identificador VPI.
Conmutador de VCs
1 2 3 4
VCI-4
VCI-1 VPI-2
VPI-1
VCI-2
VCI-3
VPI-3
VCI-1 VCI-1
VPI-4 VPI-5
VCI-2 VCI-2
Conmutador de VPs
La ventaja de emplear un esquema con VCI y VPI estriba en que mientras sea posible emplear el valor
de VPI para la conmutación, supone un esfuerzo menor para los equipos, pudiendo por tanto conmutar
un volumen de información mayor.
Las redes ATM distinguen dos tipos de circuitos, en función de la naturaleza de su establecimiento:
Los circuitos virtuales permanentes (CVP) y los circuitos virtuales conmutados (CVC). Los primeros
son aquellos que se establecen manualmente, sin necesidad de un proceso de señalización. Los
segundos se contratan mediante un intercambio de mensajes de señalización, los cuales identifican el
equipo ATM destino y las características de la conexión a establecer, mediante el denominado
descriptor de tráfico, tal como más adelante se definirá.
En consecuencia, los CVP son establecidos mediante un operador que se encarga de fijarlos
manualmente, tanto en ruta como en características del caudal.
Los CVC se establecen o se cierran automáticamente mediante mensajes de señalización, en los cuales
se indica el destino y las características del tráfico a contratar. En este caso, es necesario poder referir
el equipo ATM destino de algún modo.
Por este motivo, se emplean las direcciones ATM, de 160 bits, con estructura jerarquica. Existen
diversos formatos, distinguibles gracias al campo AFI (Authority and Format Identifier). La figura 6.7
muestra los formatos definidos para las direcciones ATM.
IDP DSP
IDP DSP
IDP DSP
Fig. 6.7 Formatos de direcciones ATM
Los campos más destacados de entre los mostrados son los pertenecientes a la identificación del
equipo final, que son el ESI (End System Identifier) y SEL (Selector). El resto, corresponden a la
jerarquización de la red y se asocian al conmutador con el que el equipo está conectado.
ESI (End System Identifier): 48 bits para la identificación específica de un host ATMG
Las direcciones ATM motivan la necesidad de disponer de algún dispositivo de registro de dichas
direcciones de modo de pueda ser consultado por los equipos de la red, y obtener direcciones de forma
automática o interrogar sobre cuestiones específicas. Este dispositivo se conoce por ILMI (Interim
Local Management Interface).
ILMI permite al switch conocer todos los hosts que tiene conectados a través del VPI=0 y VCI=16:
El conmutador les envía su ESI y SEL y espera una conformación del equipo solicitante con la
dirección completa. Una vez entregada la dirección ya es posible una solicitud de establecimiento de
circuito CVC, para lo cual los conmutadores usan el protocolo PNNI que permite la localización de
una ruta hasta el equipo destino deseado.
La figura 6.8 muestra el formato de celda definido para redes ATM. El formato es ligeramente
diferente en función de si se trata de una celda que entra a la red ATM (para lo cual emplea la interfaz
UNI, user-network Interface), o bien si es interior a la red, para lo cual el formato es el de NNI (node-
node interface).
4 4 4 4
GFC VPI VPI
VPI VCI VPI VCI
VCI VCI
VCI PT CLP VCI PT CLP
HEC HEC
datos (48 bytes) datos (48 bytes)
UNI NNI
Fig. 6.8 Formatos de celda en interfases UNI y NNI
x El campo VCI permite identificar con 16 bits el valor de circuito virtual asociado a
una conexión.
x PT: Define varios tipos de carga, como muestra la tabla 6.1. Por ejemplo ,destaca el
tipo 110, que son celdas denominas RM o de gestión de recursos, cuya importancia
será puesta de relieve más adelante al abordar el estudio de unos servicios
denominados ABR o de tasa disponible.
x CLP: Cell Loss Priority: Un valor ‘0’ denota alta prioridad, un ‘1’, baja prioridad. Su
función es prácticamente la misma que el bit DE de las redes Frame Relay.
Tabla. 6.1 Interpretación de los valores del campo PT según el ATM Forum
Usuario
Usuario BB-ISDN
-ISDN BB-ISDN
-ISDN Usuario
Usuario
UNI NNI UNI
Hasta el momento, se ha estudiado que ATM proporciona un transporte de celdas ATM, que son unas
unidades de datos de pequeño tamaño, y que la conmutación se efectúa mediante los identificadores de
VCI-VPI y unas tablas de conmutación que se han programado en cada nodo durante la fase de
establecimiento de conexión.
Ahora bien, las celdas ATM son demasiado pequeñas para cubrir las necesidades de los usuarios,
puesto que en general los tamaños de trama son grandes (por ejemplo, los paquetes IP, y además, debe
organizarse el acceso a las celdas dentro del flujo ATM, tal como aparece en la figura 6.3).
Por este motivo, se requiere una capa situada justo por encima de ATM, que se beneficie de este
transporte de celdas asíncrono, pero que permita mejorar el servicio de la capa ATM, mediante un
conjunto de servicios específicos, entre los cuales destacan los siguientes:
Recuperación de errores
Se denomina capa de adaptación (AAL, ATM Adaptation Layer) a esta capa. Se define en ella 5 tipos
o modos de operación, denominados:
AAL1, 2, 3/4 y 5
Existe también la llamada AAL0, que consiste en el uso directo de celdas ATM, sin disponer
del beneficio de los servicios específicos antes mencionados como la segmentación.
SSCS
CPCS
CS
SAR
AAL
ATM
PHY
Esta capa AAL define ciertas subcapas, cuyo estudio queda fuera del alcance de este libro. Estas
subcapas son:
La figura 6.10 muestra gráficamente como se articulan todas ellas. A efecto de comprender los
servicios, basta con tener presente cuáles de ellas son soportadas en los equipos que se adquieran, ya
que cada una define unas propiedades específicas de funcionamiento, como a continuación se
expondrá.
6.8.1 AAL1
La AAL1 está definida en la recomendación I.363.1 para establecer un transporte de tasa constante o
CBR (constant bit rate), con transmisión de información de reloj SRTS, e información de error o
pérdida. El formato de trama a nivel de encapsulado en la celda ATM es el de la figura 6.11, donde se
observa que de los 48 bytes de datos de la celda, 1 se emplea en el soporte a AAL1, lo cual significa
pérdida de capacidad de transporte de datos de usuario.
48 bytes
La capa SAR de AAL1 presenta el campo CSI, como indicador de existencia capa CS activa, SN para
numerar la secuencia de celdas, y un campo SNP para protección.
La capa CS es la que se encarga del SRTS, del control celdas perdidas o mal insertadas (es decir, las
que llegan a un destino incorrecto) y a la corrección y monitorización de los campos de usuario.
6.8.2 AAL2
La AAL2 está definida en la recomendación I.363.2 para realizar transmisión con uso eficiente del
ancho de banda, es decir, con beneficio de multiplexado estadístico de diversos usuarios. Además, se
aplica para aplicaciones sensibles al retardo, puesto que incorpora mecanismos para el soporte de
transporte en tiempo real. Una aplicación típica de AAL2 es el VBR (Variable Bit Rate) de vídeo o
audio.
El formato se muestra en la figura 6.12, donde se aprecia una sensible pérdida de bits útiles, con el fin
de poder dar soporte a los servicios de esta capa de adaptación.
48 bytes
SN IT SAR_SDU LI CRC
(4) (4) 45 bytes (6) (10)
Fig. 6.12 Formato de trama de AAL2
LI es un indicador de la longitud del campo de datos, y finalmente el CRC, que se emplea para
detección y corrección.
En la capa CS se establecen los valores para el sincronismo, se efectúan las tareas para la posible
recuperación de celdas perdidas, y se calcula un valor que se aplica para la corrección de errores en
servicios multimedia.
6.8.3 AAL3/4
Admite servicios tanto no orientados a conexión como los que si lo son, pero sin dar soporte a
sincronismo fuente-destino, ni contemplar ninguna sensibilidad a retardo.
Adicionalmente permite sobre un mismo VCI/VPI efectuar un multiplexado usando el campo MID
(Message Identifier), de 10 bits, heredero directo de una tecnología ya caduca denominada IEEE
802.6 MAN (DQDB, Distributed Queue Dual Bus).
5 48
Fig. 6.13 Formato de trama de AAL3/4
En la capa SAR se define el campo CPI con el identificador de tipo de PDU, un campo Al de
alineamiento a 32 bits, ST indicando el Tipo de Segmento (BOM, COM, EOM, SSM, como en AAL2,
donde SSM es Single Segment Message, para aquellos casos en que basta con el espacio de una sola
celda para transmitir todo el mensaje), y el campo MID ya mencionado.
En la capa CS, la longitud datos puede ser de hasta 65535 bytes, que son inmediatamente segmentados
para poder ser transmitidos en celdas ATM.
6.8.4 AAL5
La AAL5 está definida en la recomendación I.363.3, como una implificación de AAL 3/4 dado el alto
grado de complejidad que esta última presenta. Con este fin, se han reducido el número de campos
aunque sea a costa de disponer de menos funcionalidades. Ahora bien, la idea es dejar 48 bytes
disponibles para usuario.
En este momento, surge la duda de qué diferencia presenta entonces AAL5 con AAL0. La respuesta es
que AAL5 proporciona mecanismos sutiles como la segmentación, cosa que en AAL0 debe ser
gestionada por el propio usuario.
Long.
DATOS Pad CPCS-UU CPI Datos CRC32
<65636 bytes 0..47 1 1 2 4
Fig. 6.14 Formato de trama de AAL5
El formato de la AAL5 es el de la figura 6.14. La descripción de los campos queda fuera del ámbito de
esta obra, aunque puede decirse que en general es para gestión del sistema o información de las capas
superiores a AAL.
6.9.1 Introducción
Todas estas formas de solicitar a la red una calidad de servicio (Quality of Service, QoS) por medio de
unos determinados parámetros, será estudiado en esta sección.
Usuario BB-ISDN
-ISDN
Usuario
UNI
Fig. 6.15 Interfaz UNI entre el usuario y la red
En cualquier caso, la red dispone de unos mecanismos de control que deben servir para efectuar el
control de los recursos que el usuario va a emplear. Entre estos controles, los más importantes son los
siguientes:
Control de congestión
La figura 6.16 los ilustra, donde el embudo trata de ser una imagen alegórica de la función de
restricción que la red tiene sobre el caudal que el usuario genere. Si el volumen de datos supera un
cierto umbral, el embudo desbordará. Sin embargo, admite una cierta tolerancia o ráfagas.
Para poder comprender como se contrata una determinada calidad de servicio en una red ATM, deben
definirse los parámetros que se emplean en esta tecnología con esta fin.
PCR, Peak Cell Rate, o tasa de pico, medida en celdas por segundo.
SCR, Sustainable Cell Rate, o tasa sostenida, también medida en celdas por segundo.
MCR, Minimum Cell Rate o tasa minima que la red debe garantizar.
No todos estos parámetros se contratan. Depende del servicio que se desee. En la tabla 6.2 se indica
cuáles.
Se definen los descriptores de tráfico como el conjunto de parámetros que permiten describir un perfil
de tráfico en función de un conjunto de valores, tales como el SCR, PCR, etc. El conjunto de
parámetros varía en función del tipo de conexión contratada. Por ejemplo, las conexiones de tasa
constante únicamente requieren del PCR para indicar el caudal, mientras que las de tasa variable
exigen el empleo de otros valores adicionales.
Existen además los parámetros de QoS, negociables según el servicio. Son los siguientes:
CDVT, Cell Delay Variation Tolerance, referido a una tolerancia por el mero hecho de que el
acceso al medio de celdas ATM se efectúa de forma ranurada.
La relación de celdas perdidas o CLR, definido como celdas perdidas/Total celdas transmitidas.
función
densidad
de retardo
retardo
medio
retardo retardo
mínimo máximo
retardo
Fig. 6.17 Función densidad de probabilidad del retardo de llegada de las celdas
6.9.3 Notación
c) ABR o servicios de tasa disponible, que serán estudiados más adelante. Son denominados
también servicios “semi” best-effort, porque mejoran los servicios best-effort gracias a
información de red en base al conocimiento del caudal instantáneo disponible
La figura 6.18 muestra como todos estos servicios quedan dispuestos en un enlace. El servicio ABR
aprovecha los sobrantes de CBR y VBR, que tienen mayor prioridad. Finalmente, UBR se queda con
el caudal sobrante. Nótese que esta clasificación permite encajar perfectamente los requisitos de los
servicios definidos en el apartado 6.1.2.
ABR
VBR
CBR
A la hora de establecer qué parámetros deben indicarse a la red ATM para solicitar una calidad de
servicio, la tabla 6.2 muestra qué parámetros deben obligatoriamente indicarse para cada categoría de
servicio.
Tabla. 6.2 Características definitorias de cada categoría de servicio, según el ATM Forum
Parámetros de tráfico
PCR, CDVT o o o o Sup: o o
SCR, MBS, CDVT n/a o o x Sup: x x
MCR n/a n/a n/a x Sup: o o
Parámetros de QoS
Pico-a-Pico CDV o o x x Sup: x x
Máx CTD o o x x Sup: x x
Otros Atributos
Realimentación x x x x Sup: x o
Uso típico T-Real, QoS T-Real, mux Mux Best-effort Best-effort adaptación tasa
Si una conexión admitida significa que la red dispone de suficientes recursos. Ahora bien, la conexión
podría no ser admitida.G
El criterio que se sigue es que “la admisión de una nueva conexión no puede perjudicar a las ya
existentes”. Esta regla es fundamental para garantizar que los usuarios que ya disponen de una
conexión, no sean perjudicados por nuevas conexiones.
Se puede emplear para tarificación, y si aplicación se efectúa en la UNI, pero también es posible en
interior de la red.
Mientras el usuario “cumpla” con su contrato de tráfico, la UPC sólo monitoriza. Si no cumple
la función de UPC puede:
Descartar celdas
Cerrar conexiones
Jumping Window( figura 6.19), que permite un número limitado de celdas por ventana.
T T T T T
t
Fig. 6.19 Mecanismo de ventana fija
Moving Window, o ventana móvil (figura 6.20), que permite detectar picos de tráfico que en el
caso de emplear jumping window podrían quedar ocultos en el paso entre una ventana y la
siguiente.
((( T ))) t
Ahora bien, el algoritmo adoptado es GCRA, como recomendación ITU-T, I.371. Existen 2
versiones equivalents, Virtual Scheduling (VS) y Continuous State Leaky Bucket (LB).
En ambos casos, el algoritmo simplemente indica si una celda es o no conforme, dejando las
tareas de descarte para otros mecanismos.
Tiempo de llegada de una celda ta(k) Tiempo de llegada de una celda ta(k)
X´ X -(ta(k) -LCT)
si
TAT< ta(k)?
no TAT ta(k) si
X´<0?
si
celda TAT>ta(k)+L? no X´ 0
no cumpliente
no celda si
X´>L?
TAT TAT+ I no cumpliente
celda cumpliente no
X X´+I
LCT ta(k)
GCRA (I, L) celda cumpliente
Las redes ATM permiten efectuar un moldeado del tráfico por medio de la aplicación de elementos de
espaciado como indica la figura 6.22. Es lo que se denomina conformado de tráfico.
Con ello se pretende redondear los picos de tráfico, de tal modo que el caudal generado sea menos
exigente con la red. El precio es un cierto incremento en el retardo.
fuente espaciador
red destino
Espaciador
T
T T
En el caso de multiplexar diversas fuentes, la realización puede llevarse a cabo como se muestra en la
figura 6.23:
T1
Espaciador T
T1
T2 Espaciador
T
Espaciador
T2
fuente 1 espaciador
T1
fuente 2
espaciador UPC
T2 espaciador
T CAC X
espaciador
TN
fuente N
N RM
Fig. 6.24 Modelo de diseño del funcionamiento de espaciadores de fuente y de red en la UNI
El servicio ABR se nutre del caudal sobrante dejado por las conexiones CBR y VBR. Ello significa
que el caudal disponible es desconocido. Por este motivo, la red dispone de un mecanismo de
realimentación hacia el usuario que permite informarle del caudal disponible para él.
En este caso, el usuario debe adaptarse a un valor conocido. La red garantiza que si el usuario se
adapta correctamente, la tasa de pérdidas será nula.
valores disponibles, a los que el usuario debe adaptarse. La figura 6.25 muestra gráficamente este
comportamiento.
Nrm Paquetes
Paquete de gestión
Paquete de datos
NI: No Increase, para indicar que no debe incrementarse en la fuente la tasa de transmisión.
ER: Explicit Rate, con la tasa explicita de transmisión que debe emplear la fuente.
MCR: Min. Cell Rate, que es la tasa mínima que debe garantizarse por contrato a la conexión.
Los conmutadores binarios, que efectúan el marcado bit EFCI. Es esta una técnica muy simple.
Además, si realizan el marcado de bits CI y NI se dice que realizan RR (Relative Rate
Marking).
Los conmutadores ER (Explicit Rate) que modifica el campo ER para indicar el valor preciso al
que la fuente debe transmitir. Lógicamente, estos equipos resultan más costosos puesto que
requieren algoritmos capaces de computar este valor.
En esta sección se describe a modo de algoritmo el comportamiento seguido por las fuentes:
Se transmite una celda RM cada Nrm celdas de datos. La transmisión se realiza a Tasa ACR (allowed
cell rate). Esta variable se encuentra en cada terminal, controlando el caudal de cada conexión.
Al inicio de la transmisión:
El ACR se fija al valor predefinido ICR (initial cell rate). ICR se encuentra en el
margen [MCR,PCR].
De acuerdo a este comportamiento, la evolución del caudal autorizado de una fuente sigue el siguiente
mecanismo, según si se atiende a las actualizaciones recibidas, o bien al tiempo real transcurrido. Debe
tenerse en cuenta que cuanto mayor es el caudal generado, mayor es el número de celdas RM por
unidad de tiempo, y por lo tanto, mayor la frecuencia de actualización.
Fig. 6.26 Actualización del valor ACR en función del número de celdas RM recibidas
Fig. 6.27 Actualización del valor ACR en función del tiempo transcurrido
El concepto de repartición justa (Fairness) puede ser definida como la distribución del caudal
disponible sin discriminación entre las fuentes ni favoritismos. Para ello es necesario adoptar algún
tipo de criterio. En el caso de MCR=0, el usado más frecuentemente es el denominado Max-Min. El
objetivo del criterio Max-Min es asignar el mismo caudal para todas las conexiones que estén en “la
misma situación dentro de la red”. Ello significa que fuentes que procedan de distinto origen, tendrán
asignado un ancho de banda dependiente del estado de todas las conexiones que atraviesen, pero
siempre partiendo de la base del criterio de igualdad. Este y otros criterios existentes se muestran en la
siguiente tabla:
Max-Min B(i) B
N
Ponderada w(i )
B (i ) B
¦ w(i)
i
x Transitorio breve
Defiendo como conexiones estranguladas (bottlenecked) aquellas que no consiguen alcanzar su tasa
justa en el enlace (es decir, el valor disponible para ellas en un enlace es superior al que existe debido
a la asignación en otros enlaces más limitantes al repartir), de tiene que la tasa justa deberá se
calculada como la total disponible descontando todas las conexiones que están estranguladas. Por ello,
resulta inmediatamente la siguiente expresión:
donde Cl es el caudal total disponible en el enlace l y Nl son el número de conexiones en dicho enlace.
Ejemplo: Considérese la siguiente topología de red, donde todas las conexiones establecidas sean de
tipo ABR (Si hubiera conexiones de tipo CBR o VBR, el caudal consumido por ellas debería ser
substraído antes de iniciar el cálculo. Nótese que, en general, este caudal depende del instante de
tiempo).
D1
D2
F1
F2 X 2 Mbps
X 8 Mbps
X 155 Mbps
X D3
D4
F3 F4
En este caso, se puede calcular que en el enlace de 2 Mbps, el caudal asignado a la F1 y la F2 será a
priori de 1 Mbps. Dado que el destino de la F1 está en paralelo al enlace de 8 Mbps, resulta que el
caudal para las fuentes F2 y F3 en este enlace será (a priori) de 8 Mbps/2 fuentes = 4 Mbps, lo cual es
superior al caudal asignado para F2. Es decir, la F2 está estrangulada debido asl enlace de 2 Mbps.
En este caso, el caudal asignado para la F3 será, empleando la expresión anterior, de (8 Mbps-1
Mbps)/(2-1) = 7 Mbps.
Finalmente, repitiendo el mismo proceso para el enlace de 155 Mbps, se obtiene que el caudal para la
F4 será de 147 Mbps.
Pudiera suceder que el enlace que en este caso es de 155 Mbps fuera más restrictivo que los anteriores.
En este caso, debería rehacerse el cálculo.
De este ejemplo se deriva una conclusión muy importante: El cálculo de la tasa justa basado en criterio
Max-Min parte de una expresión simple, aunque la obtención de los caudales no es un proceso simple,
especialmente para un conmutador de la red que no tiene la suerte de disponer de la visión general de
la red, que sí dispone el lector al efectuar el cálculo. El conmutador debe basarse en la observación
parcial, de acuerdo a los valores de los campos de las celdas RM.
Se pueden distinguir dos tipos de algoritmos para la determinación del caudal justo: Los aproximados
y los exactos. De los primeros, destaca el propuesto por Roberts y denominado Enhanced Proporcional
Rate Control Algorithm (EPRCA). Este algoritmo se basa en el denominado marcado inteligente.
Aunque su funcionamiento se aleja de los propósitos de este libro, puede mencionarse que se basa en
el empleo de una cola de espera en la cual confluyen todas las conexiones ABR que atravesarán el
conmutador. El tamaño de esta cola da noción del nivel de congestión del enlace de salida.
De acuerdo a dos umbrales, QT y DQT, se definen 3 zonas, tal como muestra la siguiente figura:
DQT QT
Celdas
En la zona de no-congestión, se informa a las fuentes mediante las celdas RM de que pueden aumentar
el caudal a las fuentes que confluyen en el conmutador. En la de alta-congestión, las celdas RM
informan de que deben reducir su caudal. En la zona de congestión (congestión moderada), cada
algoritmo actúa de modo particular, y es en general el parámetro distintito de sus propiedades. En
cualquier caso, debe tenerse en cuenta que la zona de congestión moderada es el punto adecuado de
trabajo para el sistema, puesto que se asegura el empleo de todos los recursos disponibles sin
desbordar la cola, es decir, con cotas de retardo y sin pérdidas.
Las principales características de este adaptador ATM son las siguientes: Soporte para: TCP/IP,
Circuitos Virtuales, Permanentes (PVCs), Conmutados (SVCs), Classical IP (CLIP), Emulación de
LANs (LANE), Agente SNMP, UNI 3.0, Segmentación y Reensamblado (SAR) hardware para AAL 5
y AAL ¾.
1) GIA-200
2) ESA-200
3) VMA-200
NOTE: to start the FORE ATM LAN during system boot, you must modify your
initialization configuration. For example, you could make the following changes:
Bibliografía
ALQUEZAR, R.; otros. “Algorithms for signal processing of ultrasonic images”. Contrato ESA nº
7320/87/NL/PP. Noviembre 1988.
ANDERBERG, M.R. Cluster Analysis for Applications. Academic Press, New York, 1973.
ARULAMBALAM, A.; CHEN, X. “llocating Fair Rates for Available Bit Rate Service in ATM
networks” IEEE Communications. Vol.34, No.11, pp.92-100. Noviembre 1996.
ASATANI, K.; otros. Introduction to ATM networks and B-ISDN. Wiley, 1997.
ATM FORUM. “ATM User-Network Interface Specification”. Version 3.1. Septiembre 1994.
BARNHART, A.W. “Explicit Rate Performance Evaluations”. Contribución al ATM Forum. 94-0983,
Octubre 1994.
BENAIM, M.; TOMASINI, L. “Approximating functions and predicting time series with multi-
sigmoidal basis functions”. Artificial Neural Networks, Vol.1, pp.407-411. Elsevier Science Publisher.
Amsterdam, 1992.
BENNET, J.C.R; ZHANG, H. “WF2Q: Worst case Fair Weighted Fair Queueing”. pp.120-128,
INFOCOM, San Francisco, 1996
BONOMI, F.; FENDICK, K. W. “The Rate-Based Flow Control Framework for the Available Bit
Rate ATM Service”. IEEE Network. Vol.10, No.2, pp.25-39. Marzo/Abril, 1995.
BRADEN, R.; ZHANG, L.; BERSON, S.; HERZOG, S.; JAMIN, S. “Resource Reservation Protocol
(RSVP). Version 1 Functional Specification”. Internet Draft. Noviembre, 1996.
CHEN, T.M.; LIU, S.S.; SAMALAM, V.K. “The Available Bit Rate Service for Data in ATM
Networks”. IEEE Communications Magazine. 34, 5, pp.56-71, 1996.
CHIUSSI, F.M.; XIA, Y.; KUMAR, V.P. “Dynamic Max Rate Control Algorithm for Available Bit
Rate Service in ATM Networks”. Globecom’96, pp.2108-2117. Londres, 1996.
DSS. Core aspects of Frame Relay protocol for the use with Frame Relay Bearer service. American
National Standards Intitute, Telecommunications Committee (ANSI T1S1). Diciembre, 1990.
FENDICK, K.W. “Evolution of Controls for the Available Bit Rate Service”. IEEE Communications.
Vol.34, No.11, pp.35-39. Noviembre 1996.
GEORGIADIS, L.; otros. “Efficient Network Qos Provisioning Based on per Node Traffic Shaping”.
IEEE/ACM Transactions on Networking. Vol.4, No.4. pp.482-501. Agosto, 1996.
GITLIN, R.D.; HAYES, J.F.; WEINSTEIN, S.B. Data Communications Principles. Ed. Plenum,
1992.
GUÉRIN, R.; PERIS, V. “Quality of Service in packet networks: basic mechanism and directions”.
Computer Networks, Vol.31, pp.169-189. Febrero 1999.
HAMDI, M.; ROBERTS, J.; ROLIN, P. “Rate control for VBR video coders in Broadband networks”.
IEEE Journal on Selected Areas in Communications, Vol.15, No. 6, pp.1040-1051. Agosto 1997.
HESSELBACH, X. “On the Quality of Service Enhancement in Variable Bit Rate Networks”. Looking
forward. IEEE Computer. Vol.6, No.1. Primavera 1998.
HESSELBACH, X.; OLIVER, M.; BORRÀS, J. “Model of an adaptive access node in a packet
network: The ABR service in ATM”. Eunice'99. pp.125-130. Barcelona, 1999.
HESSELBACH, X.; SALLENT, S. “Control de la tasa de fuente para el multiplexado de celdas bajo
minimización del CTD y CDV en redes ATM”. Youth Forum in Computer Science and Engineering.
Yuforic'97. Barcelona. 1997.
HESSELBACH, X.; SALLENT, S. “Dimensionado del Nodo de Acceso con Control Explícito de tasa
DMRCA para redes de paquetes”. Jitel'99. Madrid. 1999.
HESSELBACH, X.; SALLENT, S. “Dimensioning the input buffers in the access node for fair
bandwidth allocation with source rate control in packet networks using prediction methods”. IMSA'99,
Nassau, Grand Bahamas, Octubre, 1999.
HESSELBACH, X.; SALLENT, S. “Estudio del control de la tasa de fuente en servicio ABR para
aplicaciones de audio y vídeo”. Jornadas de Ingeniería Telemática, Jitel'97. Bilbao. 1997.
HESSELBACH, X.; SALLENT, S.; BARBA, A. “Alisado de tráfico de vídeo síncrono para su
transmisión en redes ATM bajo servicio ABR”. XI Symposium Nacional de la Unión Científica
Internacional de Radio, URSI. Madrid. 1996.
HESSELBACH, X.; SALLENT, S; FERNÁNDEZ, C. “Quality of Service management for audio and
video on demand services”. IEEE Conference on Protocols for Multimedia Systems - Multimedia
Networking, PROMSMmNet'97. Santiago de Chile, Chile. 1997.
HÜBNER, F.; TRAN-GIA, P. “Discrete-time analysis of cell spacing in ATM systems”. Telecommu-
nication Systems3, pp.379-395, 1995.
ISO/IEC. “Coding of Moving Pictures and Associated Audio for Digital Storage Media at up to about
1.5 Mbps”. ISO/IEC 11172-2, 23 Noviembre 1991.
ITU-T. “Traffic Control and Congestion Control in B-ISDN”. Recomendación I.371 del ITU-T, 1993.
JAIN, R.; KALYANARAMAN, S.; FAHMY, S.; GOYAL, R. “Source Behavior for ATM ABR
Traffic Management: An Explanation”. IEEE Communications. Vol 34, No. 11, pp.50-57. Noviembre
1996.
JAIN, R.; KALYANARAMAN, S.; GOYAL, R.; FAHMY, S.; VISWANATHAN, R. “ERICA Switch
Algorithm: A Complete Description”. Contribución ATM Forum. 96-1172, Agosto, 1996.
KLEINROCK, L. Queueing Systems, Volume I: Theory. John Wiley & Sons, 1975.
KLEINROCK, L. Queueing Systems, Volume II: Computer Applications. John Wiley & Sons, 1976.
LAKSHMAN, T.V.; MISHRA, P.P.; RAMAKRISHMAN, K.K. “Transporting compressed video over
ATM networks with explicit rate feedback control”. Proc.IEEE INFOCOM, pp.38-47. Kobe, Japón,
1997.
LEDUC, J.P. Digital Moving Pictures - Coding and Transmission on ATM Networks. Elsevier, 1994.
LUO, W.; EL ZARKI, M. “Quality Control for VBR video over ATM networks”. IEEE Journal on
Selected Areas in Communications. Vol.15, No.6, pp.1029-1039. Agosto, 1997.
MUDDU, S.; CHIUSSI, F.M.; TRYFONAS, C.; KUMAR, V.P. “Max-Min Rate Control Algorithm
for Available Bit Rate Service in ATM networks”. ICC’96, pp.412-418. Dallas. 1996.
NIKOLAIDIS, I.; AKYILDIZ, I.F. Source Characterization and Statistical Multiplexing in ATM
networks. College of Computing. Georgia Institute of Technology. Atlanta. Julio, 1992.
OHSAKI, H.; MURATA, M.; SUZUKI, H.; IKEDA, C.; MIYAHARA, H. “Rate-Based Congestion
Control for ATM Networks”. ACM SIGCOMM, pp.60-71. 1996.
OHTA, N. Packet Video. Modeling and Signal Processing. Artech House Inc. 1994.
OMIDYAR, C.G.; PUJOLLE, G. “Introduction to Flow and Congestion Control”. IEEE Communi-
cations Magazine. 34, 11, pp.30-32, 1996.
PITTS, J.M.; SCHORMANS, J.A. Introduction to ATM design and performance. Wiley, 1996.
PRYCKER, M. Asynchronous Transfer Mode. Solution for Broadband ISDN. Prentice Hall, 1995.
RAMAKRISHAN, K.K.; NEWMAN, P. “Integration of Rate and Credit Schemes for ATM Flow
Control”. IEEE Network. 9, 2, pp.49-56, 1995.
SHROFF, N.; SCHWARTZ, M. “Video Modeling within Networks using Deterministic Smoothing at
the Source”. pp.342-349, INFOCOM, Toronto, 1994.
SOTO, M.; HESSELBACH, X.; SALLENT, S. “Acceso a una red ATM a través de un medio
compartido”. XI Symposium Nacional de la Unión Científica Internacional de Radio, URSI. Madrid.
1996.
VARMA, A.; STILIADIS, D. “Hardware Implementation of Fair Queueing Algorithms for Asynchro-
nous Transfer Mode Networks”. IEEE Communications. Vol.35, No.12, pp.54-68. Diciembre, 1997.
ZHANG, H. “Service Disciplines for Guaranteed Performance Services in Packet Switching Net-
works”. Proceedings of the IEEE. Vol.83, No.10. pp.1374-1396. Octubre, 1995.
ZHANG, L.; DEERING, S.; ESTRIN, D.; SHENKER, S.; ZAPPALA, D. “RSVP: A new Resource
ReSerVation Protocol”. IEEE Network, Vol.7, No.5, pp.8-18, Septiembre, 1993.
ZHENG, B.; ATIQUZZAMAN, M. “Traffic Management of Multimedia over ATM Networks”. IEEE
Communications. Vol.37, No.1, pp.33-38. Enero, 1999.