0% encontró este documento útil (0 votos)
47 vistas101 páginas

Apuntes Completos Del Tercer Parcial

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 101

INSTITUTO POLITÉCNICO NACIONAL

Escuela Superior de Ingeniería Mecánica y Eléctrica


Unidad “ZACATENCO”

SEGUNDO SEMESTRE FEBRERO-JUNIO


CICLO ESCOLAR 2020-2021

UNIDAD DE APRENDIZAJE:

“Redes Básicas”.

Tercer Parcial

Mayo 2021
“Redes Básicas”. Tercer Parcial

Unidad III: Nivel Físico de la Red

E
l nivel físico de una arquitectura es quizás la capa más importante de la red. La razón fundamental es que la
mayoría de los protocolos de las capas superiores dependen de las características físicas (velocidad, tasa de
error, medio compartido o no, etc.). Por ejemplo, si la transmisión ofrece una tasa de error muy bajo, el
protocolo de control de errores a niveles superiores puede ser muy simple. De igual forma, si el medio soporta una
capacidad de transmisión elevada, entonces el sistema de comunicaciones podrá ofrecer servicios como transmisión
de video y datos a alta velocidad.

El nivel físico en todas las arquitecturas de red (modelo OSI, TCP/IP, ATM, Novell, AppleTalk, etc.) es el encargado
de realizar el transporte de la información a través del medio de transmisión. Para poder realizar este transporte, la
arquitectura de red debe tener en cuenta entre otros los siguientes aspectos:

 Cómo se van a enviar los dígitos binarios por el medio de transmisión.


 Cuál es el modo de explotación del circuito
 Cómo se corrigen las distorsiones y perturbaciones que sufre la señal a lo largo del medio.
 Existe la posibilidad de que varias transmisiones circulen por el mismo medio.
 Cómo se identifican los diferentes equipos conectados a la red.

3.1 Canal de comunicación.

El propósito principal de cualquier red es proporcionarnos un método para comunicarnos y compartir


información. Desde las primeras sociedades humanas primitivas hasta las sociedades tecnológicas más avanzadas
de la actualidad, compartir información con otros ha sido crucial para el avance humano.

Toda comunicación comienza con un mensaje o información que debe enviarse de un individuo o dispositivo a
otro. Los métodos utilizados para enviar, recibir e interpretar mensajes cambian con el tiempo a medida que avanza
la tecnología.

Todos los métodos de comunicación tienen tres elementos en común. El primero de estos elementos es el origen del
mensaje o remitente. Las fuentes de mensajes son personas o dispositivos electrónicos que necesitan comunicar un
mensaje a otras personas o dispositivos. El segundo elemento de comunicación es el destino o receptor del
mensaje. El destino recibe el mensaje y lo interpreta. El tercer elemento se llama medio de transmisión o
canal. Proporciona el camino por el cual el mensaje puede viajar desde el origen al destino.

Un sistema de comunicación como el que Claude E. Shannon utilizaba para sus teoremas se asemeja al de la figura,
el cual consiste en seis partes muy diferenciadas. Cada una de ellas componen lo que se llaman: los elementos de la
teoría de la información.

Figura I. Sistema de comunicaciones por Shannon y Weaver

FELR Página 1
“Redes Básicas”. Tercer Parcial

Este esquema comienza con una fuente de información inicial, que es la encargada de producir el mensaje o secuencia
de mensajes que quieren transmitirse al destino. El mensaje puede ser una secuencia de letras como un telégrafo,
una función única de tiempo como en radio o telefonía, o también una función de tiempo con otras variables como
en la televisión en blanco y negro. Si se utilizan dos o más funciones de tiempo, se trataría de un sistema
tridimensional de transmisión de sonido, o en el mismo caso, pero con varias variables, se conseguiría la televisión
en color.

Un transmisor es aquel emisor que trabaja en el mensaje para poder llegar a producir una señal apta para la
transmisión sobre el canal. En telegrafía, por ejemplo, esto consiste en una operación de codificación que produce
una secuencia de puntos, guiones y espacios en el canal correspondiente al mensaje. En cambio en un sistema PCM
serían las diferentes funciones de voz que se deben muestrear, comprimir, cuantificar y codificar para construir la
señal.

La fuente de ruido es un perturbador que modifica la señal durante su transmisión: ruidos de interferencia en radio,
el nivel de sonido, una mancha en la televisión, etc.

El canal es simplemente un medio, generalmente físico, usado para llegar a transmitir la señal del transmisor
al receptor mediante cualquier medio, ya sean un par de cables, un cable coaxial, un haz de luz, etc.

El canal es el medio de transmisión por el que viajan las señales portadoras de la información que pretenden
intercambiar emisor y receptor. Es frecuente referenciarlo también como canal de datos y constituye una vía
por la que se transmite la comunicación. A través de un canal de comunicación transitan las informaciones,
estableciendo un enlace entre el emisor y el receptor.

El receptor no es más que el proceso inverso del transmisor, su función principal es reconstruir la señal. Y por último,
el destino es la persona o máquina a quien va dirigido el mensaje. Los objetivos principales de este modelo fueron
mejorar la velocidad de creación y transmisión de mensajes y aumentar la capacidad de los canales de estos sistemas.
A su vez, pretendía indagar en la codificación eficaz de los mensajes que evitaran la ambigüedad, así como en esa
fuente de ruido entre el transmisor y el receptor.

3.2 Canales eléctricos (alámbricos e inalámbricos).

Uno de los elementos principales que participa en toda comunicación entre sistemas es el canal de comunicación o
medio de transmisión que los interconecta. Este canal puede ser desde un sencillo cable que conecta directamente
dos sistemas remotos hasta una compleja red que conecta múltiples sistemas entre sí. El tipo de medio de
transmisión empleado es el que dictamina qué señal emplear (analógica o digital), con independencia de los datos
que se deseen intercambiar.

Figura II. Canal eléctrico.

FELR Página 2
“Redes Básicas”. Tercer Parcial

El canal que permite la transmisión de información entre dos terminales de un sistema de transmisión. La
transmisión se realiza habitualmente empleando ondas electromagnéticas que se propagan a través del denominado
canal de comunicación. A veces el canal es un medio físico y otras veces no, ya que las ondas electromagnéticas son
susceptibles de ser transmitidas por el vacío.

El abanico de medios de transmisión que se pueden emplear hoy día es muy amplio, y elegir uno u otro depende de
varios factores, tales como su costo, la distancia que debemos cubrir, los errores que podemos asumir en la
transmisión, etc. Se clasifican según sus características de atenuación, adición de ruido, distorsión o retardo de la
señal que contiene la información. Los principales medios de transmisión empleados en la actualidad son:

3.2.1 Canales eléctricos alámbricos (Ver Unidad 1, páginas 3-17).

Es el medio que soporta la propagación de señales electromagnéticas por cables metálicos. Los cables son el
componente básico de una comunicación no inalámbrica, existen varios tipos diferentes de cables, así que la
elección de uno frente a otro va a depender del ancho de banda necesario para el sistema, las distancias existentes
y el presupuesto disponible.

Par trenzado: Formado por dos conductores eléctricos entrelazados de forma helicoidal, suponen una solución
económica, aunque con tendencia a sufrir atenuación y ruido. Existen varias categorías de cable, que proporcionan
mejores prestaciones a cambio de un mayor coste. Por ejemplo, la categoría 5 tiene un ancho de banda de 100
MHz, permite cubrir distancias de hasta100 metros y transmitir una gran cantidad de datos en poco tiempo (hasta
100 Mbps).

Cable coaxial: Formado por un núcleo de cobre, un cilindro aislante, una malla metálica y una cubierta protectora,
alcanza órdenes de ancho de banda de 500 MHz, y su uso se ha visto reducido a la distribución de señales de TV. Es
un medio de transmisión con menos ruido que un par trenzado normal, gracias al aislamiento que incorpora para
proteger su núcleo.

Figura III. Medios eléctricos alámbricos.

3.2.2 Canales eléctricos inalámbricos. (Ver Unidad 1, páginas 14-19)

Se emplean señales inalámbricas emitidas por el aire. Es un canal de transmisión sujeto a ruido y atenuaciones
severas. Su coste se ve reducido a la compra de un emisor que sirva de punto de acceso a la red, y es una solución
muy versátil en un ámbito doméstico, pero es susceptible de sufrir intrusiones (dado que el medio es compartido
con sistemas que se encuentren a su alcance).

Utilizan una banda del espectro de frecuencias. A todo el rango de frecuencias se le conoce como espectro
electromagnético, el cual ha sido un recurso muy apreciado y, como es limitado, tiene que ser bien administrado y
regulado.

La transmisión y la recepción se efectúan mediante antenas:


• En la transmisión se radia energía electromagnética en el medio (generalmente aire).
• En la recepción se captan las ondas electromagnéticas del medio que rodea a la antena.

FELR Página 3
“Redes Básicas”. Tercer Parcial

Microondas Terrestres: La banda de frecuencias cubre de los 300Mhz a los 30 Ghz, a mayor frecuencia corresponde
mayor Ancho de Banda potencial y virtualmente mayor velocidad de Transmisión. Las microondas se propagan por
la troposfera. El término "microondas" viene porque la longitud de onda de esta banda es muy pequeña (milimétricas
o micrométricas), resultado de dividir la velocidad de la luz entre la frecuencia en Hertz. Las estaciones de
microondas consisten en un par de antenas con línea de vista —conectadas a un radio transmisor— que radian
radiofrecuencia (RF).

Microondas por Satélite: A diferencia de las microondas terrestres, las Microondas satelitales lo que hacen
básicamente, es retransmitir información, se usa como enlace entre dos o más transmisores / receptores terrestres,
denominados estaciones base. El satélite funciona como un espejo sobre el cual la señal rebota, su principal función
es la de amplificar la señal, corregirla y retransmitirla a una o más antenas ubicadas en la tierra. Operan desde los
3Ghz hasta los 300 Ghz,

Ondas de Radio: Las ondas de radio comprenden las bandas de frecuencias desde 3 Khz a 300 MHz. Las ondas de
radio son omnidireccionales, en tanto que las microondas son direccionalesy como consecuencia no se necesitan
antenas parabólicas, no se requiere alineación de las antenas, las ondas de radio son un tipo de radiación
electromagnética. Una onda de radio tiene una longitud de onda mayor que la luz visible.

Figura IV. Medios eléctricos inalámbricos.

3.3 Canales ópticos (guiados y no guiados).

En función de la naturaleza del canal de transmisión de señales ópticas puede ser guiado o no guiado. Un canal óptico
guiado establece un camino físico entre una fuente y un destino concretos, como es en el caso de una fibra óptica. Un
canal óptico no guiado permite la interconexión de fuentes y destinos que se hallen próximos, como es en el caso de
un enlace infrarrojo.

En los canales guiados es el propio medio el que determina principalmente las limitaciones de la transmisión:
velocidad de transmisión de los datos, ancho de banda que puede soportar y espaciado entre repetidores. Sin
embargo, al utilizar canales no guiados resulta más determinante en la transmisión el espectro de frecuencia de la
señal producida por la antena que el propio medio de transmisión.

3.3.1 Canales ópticos guiados. (Ver Unidad 1, páginas 8-13)

Fibra óptica: Formado por un fino hilo de material transparente por el que se envían pulsos de luz. Se logran anchos
de banda muy elevados (superiores a 1000 MHz), y la rapidez de la transmisión es altísima. Pueden funcionar de dos
formas: multimodo, de forma que existen varias formas de enviar haces de luz por el medio, y monomodo, donde el
haz se propaga de una única forma posible, paralela al eje de la fibra. El multimodo se emplea en distancias cortas, y
permite utilizar el mismo cable para múltiples comunicaciones, mientras que el monomodo se utiliza para conectar
sistemas muy distantes (300 y hasta 400 km) de forma eficiente, aunque costosa. En cualquier caso, se trata de un
medio que permite cubrir distancias muy elevadas, con poco ruido y atenuación.

FELR Página 4
“Redes Básicas”. Tercer Parcial

Figura V. Medios ópticos guiados.

3.3.2 Canales ópticos no guiados. (Ver Unidad 1, páginas 19-20)

Infrarrojo: Permite la transmisión de información a velocidades muy altas : 10Mbits/seg. Consiste en la


emisión/recepción de un haz de luz; debido a esto, el emisor y receptor deben tener contacto visual (la luz viaja en
línea recta). Debido a esta limitación pueden usarse espejos para modificar la dirección de la luz transmitida. El
infrarrojo es un tipo de luz que no podemos ver con nuestros ojos, se requieren transmisores/receptores
(“transceivers”) que modulan la luz infrarroja no coherente. Los transceivers deben estar alineados, directamente
mediante la reflexión en una superficie coloreada, como el techo de una habitación. Los rayos infrarrojos, a diferencia
de las microondas, no pueden atravesar las paredes, esto, reduce los problemas de seguridad y de interferencias. La
radiación infrarroja se encuentra entre la luz visible y las ondas de radio del espectro electromagnético. La radiación
infrarroja (IR) tiene longitudes de ondas entre 1 milímetro y 750 nanómetros. La longitud de onda de la luz roja tiene
700 nanómetros (o 7 000 Å). La radiación infrarroja oscila con frecuencias entre 300 GHz y 400 THz

Figura VI. Medios ópticos no guiados.

3.4 Capacidad del canal.

Se llama capacidad del canal a la velocidad a la que se pueden transmitir los datos en un canal de comunicación de
datos. La velocidad de transmisión de los datos es expresada en bits por segundo (bps).

La capacidad de un canal depende del ancho de banda (que depende del transmisor y de la naturaleza del medio de
transmisión), el ruido y la tasa de errores permitida. Para un ancho de banda dado se puede alcanzar la mayor
velocidad de transmisión posible pero hay que evitar que se supere la tasa de errores aconsejable. Para conseguirlo,
el mayor inconveniente es el ruido.

3.4.1 Unidades de Medida.

Para medir la velocidad máxima que puede soportar un medio de transmisión determinado con respecto al tipo de
señal utilizada, se emplean dos medidas: el baudio y los dígitos binarios por segundo (bps).

FELR Página 5
“Redes Básicas”. Tercer Parcial

La medida en bps indica el número de bits que se transmiten en un segundo. Por su parte, el baudio mide la
cantidad de veces por segundo que la señal cambia su valor.

La Velocidad de Transmisión es el número de bits enviados durante un periodo de tiempo, y representa la


velocidad a la que se puede transmitir la información. La Velocidad de Transmisión es igual a 1/T siendo T el tiempo
necesario para transmitir 1 bit. La velocidad de transmisión se mide en bits por segundo (Bits/s ó bps).

La Velocidad de Señalización es el número de cambios de estado que puede sufrir la señal por unidad de tiempo.
La Velocidad de Señalización es la inversa de Ts, siendo Ts el tiempo mínimo entre dos cambios de la señal. La
Velocidad de Señalización se mide en baudios.

Ambas velocidades están relacionadas pero representan conceptos distintos. Su relación se encuentra en el número
de bits de información que transporta cada cambio de señal, y que se denotará como n. Este número depende del
conjunto de estados o valores que puede tomar la señal. Cuanto mayor sea el número de estados distintos que pueda
tomar la señal (que se denotará N), mayor cantidad de información se transmite en cada cambio de estado. En
concreto, el número de bits transmitidos por cada cambio de la señal es:

De esta forma, la velocidad de transmisión (medida en bps) se puede obtener como la velocidad de señalización (en
baudios) multiplicada por el número de bits transmitidos en cada cambio de señal:

Una línea de b baudios no necesariamente transmite b bps, pues cada señal podría transmitir varios dígitos. Por
lo tanto, no se debe confundir la velocidad en baudios con la velocidad en bits por segundo, ya que cada cambio de
señal puede transportar menos de uno, uno o más bits. Por ejemplo, si la señal puede tomar 4 valores, éstos pueden
ser codificados con 2 bits {00, 01, 10, 11} ya que 2 = log2 4, y cada cambio de señalización se traduce en el envío de
2 bits. En este caso la velocidad de transmisión (en bits por segundo) será el doble de la velocidad de señalización
(en baudios).

3.4.2 Capacidad de un canal ideal.

Harry Nyquist (Ingeniero Estadounidense, de origen sueco, importante contribuidor de la teoría de la información)
planteó la existencia de un límite en la capacidad de un canal ideal (sin ruido ni distorsiones) de ancho de banda
finito. Nyquist determinó en 1924 que la máxima velocidad alcanzable para un ancho de banda dado es dos veces
dicho ancho de banda si no existe ruido.
C = 2ω

Si se tienen señales de más de dos niveles, es decir que cada elemento de las señales representa más de un bit, la
fórmula de Nyquist resulta en el:

El teorema de Nyquist que establece que la velocidad máxima de transmisión de datos en bps viene limitada por la
siguiente fórmula:

C = 2ω log2 n

• n el número de niveles posibles de la señal


• ω el ancho de banda expresado en hertzios (Hz).

FELR Página 6
“Redes Básicas”. Tercer Parcial

Por tanto, Nyquist establece que aumentado los niveles de tensión diferenciables en la señal, es posible incrementar
la cantidad de información transmitida.

Por ejemplo, el valor de n para una señal digital binaria es 2 por ser señales de dos niveles posibles. Un canal sin
ruido de 3 kHz no podrá transmitir señales binarias a una velocidad mayor que 6000 bps.

Esta expresión fija un límite superior con la que comparar el comportamiento de los sistemas que se diseñan ya que,
cuando se habla de velocidad de transmisión de un canal real (con ruidos), nunca se alcanzan estas velocidades.

Consideraciones
• La capacidad de un canal es la cantidad de información que puede ser relativamente transmitidas sobre un
canal de comunicación.
• No se puede transmitir a una tasa mayor a la capacidad del canal sin perder información.
• La capacidad de canal limita la cantidad de información que puede transmitir a través de él.
• La capacidad de un canal depende de la naturaleza del medio de transmisión.
• La capacidad de un canal depende del ancho de banda y el número de niveles de la señal.

Si existe ruido, la velocidad de transmisión debe disminuir pues se corre el riesgo de aumentar la tasa de errores ya
que una mayor cantidad de bits pueden verse afectados en el mismo tiempo. Solo es posible incrementar la velocidad
de transmisión por medio de una transmisión multinivel, en donde el número de niveles utilizados se encuentra
limitado
• Si los niveles son sólo 2, el receptor distingue fácilmente entre 0 y 1. Si los niveles son 64, el receptor debe
ser muy sofisticado para distinguirlos.
• Incrementar los niveles de la señal reduce la fiabilidad del sistema

3.4.3 Capacidad de un canal con ruido.

Un Canal real siempre tiene ruido, la capacidad del canal está limitada a una velocidad de información que puede ser
alcanzado teniendo en cuenta la presencia de ruido.

Según el teorema de Nyquist, para aumentar la capacidad de un canal se deben incrementar los niveles de tensión.
Por lo que el receptor debe de ser capaz de diferenciar estos niveles de tensión en la señal recibida, cosa que es
dificultada por el ruido. Además, cuanto mayor es la velocidad de transmisión, mayor es el daño que puede ocasionar
el ruido.

En 1948, Claude Shannon (Ingeniero electricista y matemático, recordado como el padre de la teoría de la
información) extendió el trabajo de Nyquist al caso de un canal real sujeto a la aparición de una cierta cantidad de
ruido aleatorio. La siguiente expresión, conocida como fórmula de Shannon, proporciona la capacidad máxima en
bps de un canal con ruido:
C = ω log2 (1 + S/N)

 ω es el ancho de banda del canal en Hertzios.


 es la capacidad del canal (tasa de bits de información bit/s)
 es la potencia de la señal útil, que puede estar expresada en watts, miliwatts, etc., (W, mW, etc.)
 es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la señal útil. En
esta fórmula se utiliza la medida de la relación señal-ruido lineal (no en dB). De esta expresión se deduce que
la capacidad de los canales con poco ruido será mayor que la de aquéllos con mucho ruido.

Por ejemplo, un canal con ancho de banda de 4000 Hz y una relación señal-ruido térmico de 3 dB nunca puede
transmitir a mucho más de 6.3 Kbps, sin importar cuántos niveles de señal se usen.

FELR Página 7
“Redes Básicas”. Tercer Parcial

Esta capacidad máxima es inalcanzable, ya que la fórmula de Shannon supone unas condiciones que en la práctica
no se dan. Sólo tiene en cuenta el ruido térmico, no considerando el ruido impulsivo, la atenuación ni la distorsión.

Consideraciones
• Un canal real siempre está en presencia del ruido
• La capacidad de un canal depende del ancho de banda y la relación S/N
• La capacidad del canal de Nyquist se define por el método de transmisión, en la capacidad del canal de
Shannon se define por las características del canal.

Figura VII. Capacidad del canal con ruido.

3.5 Ancho de Banda.

El ancho de banda es la medición de la cantidad de información que puede fluir desde un lugar hacia otro en un
período de tiempo determinado. Existen dos usos comunes del término ancho de banda: uno se refiere a las
señales analógicas y el otro, a las señales digitales.

En el mundo real cualquier medio de transmisión (cable de cobre, fibra óptica, aire…) presenta una serie de
limitaciones, entre las que se encuentra el rango de frecuencias que se pueden transmitir por él. Como consecuencia
de las características físicas de un medio de transmisión, éste no permite transmitir señales de frecuencia inferior a
una frecuencia dada (por ejemplo, en una fibra óptica no se propagan señales de baja frecuencia) ni superiores a una
frecuencia máxima. A la diferencia entre la frecuencia máxima que se puede transmitir por un medio físico y la
mínima se le denomina ancho de banda.

El ancho de banda en una señal analógica es la longitud, medida en Hz, del rango de frecuencias en el que se
concentra la mayor parte de la energía de la señal. Por lo general, se usan múltiplos de esta unidad de medida básica
para anchos de banda analógicos. Las unidades de medida más comúnmente usadas son el kilohercio (KHz), el
megahercio (MHz), y el gigahercio (GHz)

Se define como espectro de una señal analógica al conjunto de frecuencias que la constituyen. La anchura de este
espectro se denomina ancho de banda.

Ilustración 1. Figura VIII. Ancho de banda analógico de diferentes medios de transmisión.

FELR Página 8
“Redes Básicas”. Tercer Parcial

El espectro electromagnético cubre el conjunto de ondas electromagnéticas que se pueden propagar en el espacio,
esta ordenado en función a su frecuencia (Hz= ciclos / segundo) y su longitud de onda. A menor longitud de onda
mayor frecuencia y mayor energía.

Figura IX. Ancho de banda.

El rango de frecuencias contenido en una señal compuesta es el ancho de banda de dicha señal, el cual es
normalmente la diferencia entre dos valores, la frecuencia más alta y la más baja contenidas en la señal. Si por
ejemplo una señal contiene frecuencias entre 1000 y 5000 Hz, su ancho de banda es 5000 - 1000 = 4000 Hz.

Una señal de una sola frecuencia tiene un ancho de banda mínimo. En general, si la señal tiene componentes en varias
frecuencias, su ancho de banda es mayor, y su variación temporal depende de sus componentes en frecuencias.
Normalmente, las señales generadas en los sistemas electrónicos, ya sean datos informáticos, voz, señales de
televisión, etc., son señales que varían en el tiempo, pero se pueden caracterizar como la suma de muchas señales de
diferentes frecuencias. De esta forma queda claro que el ancho de banda tiene una relación con la velocidad a la que
cambia la señal y a su vez una relación con la velocidad máxima de transmisión de datos.

Aunque las señales analógicas pueden transportar una amplia gama de información, presentan algunas desventajas
significativas en comparación con las transmisiones digitales. La señal de video analógico que requiere una amplia
margen de frecuencia para la transmisión, no puede ser comprimida en una banda más pequeña. Por lo tanto, si no
se dispone del ancho de banda analógico necesario, no se puede enviar la señal.

Figura X. Ancho de banda de una señal analógica.

El ancho de banda en una señal digital se define como la cantidad de información que puede fluir a través de una
conexión de red en un período dado, es la cantidad de bits (teórica o ideal) que pueda transportar un canl de
transmisión en un determinado tiempo. El ancho de banda de una red generalmente se describe en términos de miles
de bits por segundo (kbps), millones de bits por segundo (Mbps), miles de millones de bits por segundo (Gbps) y
billones de bits por segundo (Tbps).

En la señalización digital, toda la información se envía como bits, independientemente del tipo de información del
cual se trate. Voz, video y datos se convierten todos en corrientes de bits al ser preparados para su transmisión a
través de medios digitales. Este tipo de transmisión confiere al ancho de banda digital una importante ventaja sobre
el ancho de banda analógico.

FELR Página 9
“Redes Básicas”. Tercer Parcial

Figura XI. Ancho de banda digital de diferentes medios de transmisión.

Es posible enviar cantidades ilimitadas de información a través de un canal digital con el ancho de banda más
pequeño o más bajo. Independientemente de lo que la información digital demore en llegar a su destino y
reensamblarse, puede ser vista, oída, leída o procesada en su forma original.

Figura XII. Ancho de banda digital.

La importancia del ancho de banda radica en que:

• Es fundamental en el desempeño de la red


• Esa limitado física y tecnológicamente
• Nuevas tecnologías y aplicaciones requieren mayor AB
• A mayor ancho de banda mayor costo.

El rendimiento generalmente se refiere al ancho de banda real medido, en un momento específico del día, usando
rutas específicas de Internet, mientras se descarga un archivo específico. Desafortunadamente, por varios motivos,
el rendimiento a menudo es mucho menor que el ancho de banda digital máximo posible del medio que se está
usando. Por lo anterior es importante introducir el concepto de tasa de transferencia.

La tasa de transferencia es el número de bits por unidad de tiempo que realmente se transfieren, es decir la velocidad
de transmisión.

FELR Página 10
“Redes Básicas”. Tercer Parcial

Figura XIII. Tasa de transferencia.

Algunos factores que afectan la tasa de transferencia son:

• Dispositivos de red
• Tipo de datos que se transfieren
• Topología de la red
• Número de usuarios
• Características del medio
• Mala alimentación eléctrica o por factores climáticos

3.6 Canal analógico.

Hasta hace poco, las transmisiones de radio, televisión y teléfono se enviaban por aire y por cables utilizando ondas
electromagnéticas. Estas ondas se denominan analógicas porque poseen la misma forma que las ondas de luz y
sonido producidas por los transmisores. A medida que las ondas de luz y sonido cambian de tamaño y forma, la señal
eléctrica que transporta la transmisión cambia proporcionalmente. En otras palabras, las ondas electromagnéticas
son análogas a las ondas de luz y sonido.

La naturaleza de una canal depende de los datos a transmitir por el mismo, estos pueden ser analógicos o digitales.
Los datos analógicos toman valores en un determinado intervalo continuo, como la temperatura medida por un
sensor; sin embargo, los datos digitales toman valores discretos, como los valores 0 ó 1, o los enteros de 0 a 255.

Para transmitir dichos datos se utilizan señales electromagnéticas, que son enviadas a través del canal o sistema
de transmisión. Estas señales pueden ser continuas o discretas. Haciendo uso del lenguaje matemático, se puede
decir que toda señal es una función matemática que toma un valor en cada punto del espacio en el que está definida.
Una señal continua es una función continua de una o varias dimensiones, mientras que las señales discretas se
caracterizan por estar definidas solamente para un conjunto discreto de valores de la variable independiente. En la
práctica, las señales discretas suelen provenir de un muestreo periódico de una señal continua.

Si una señal continua puede tomar cualquier valor en un intervalo continuo, esa señal recibe el nombre de señal
analógica. Si una señal discreta puede tomar únicamente un número finito de valores distintos, recibe el nombre de
señal digital. Es importante no confundir que una señal sea analógica o digital con que los datos enviados sean de
un tipo u otro.

Las señales analógicas son aquellas señales representadas por funciones matemáticas que pueden tomar un
número infinito de valores en cualquier intervalo de tiempo, es decir, que, en un instante cualquiera, pueden tomar
un valor cualquiera, solo limitado por la potencia máxima de la señal a la que se puede transmitir. Los parámetros
más significativos que definen una señal son la Amplitud (es el máximo valor que toma la señal respecto al origen),
la Frecuencia (es el número de oscilaciones completas de la señal durante un cierto período de tiempo) y la Fase
(indica el punto que ha alcanzado la señal en su ciclo).

FELR Página 11
“Redes Básicas”. Tercer Parcial

Nosotros podemos escuchar dentro de un rango que aproximadamente se mueve desde los 20Hz hasta los 20kHz.
Es decir si f1 = 20Hz y f2 = 20.000Hz, tenemos que el ancho de banda audibles es de Δf = 20000-20 = 19980 Hz. En
consecuencia el ancho de banda audible corresponde 19.98kHz.

Figura XIV. Canal analógico.

3.7 Canal digital.

La transmisión digital consiste en el envío de información a través de canales de comunicaciones físicos en forma de
señales digitales. Una señal digital es una secuencia de pulsos de tensión discretos y discontinuos. Cada uno de los
pulsos es un elemento de la señal. En la transmisión digital, una fuente de datos (que puede ser analógica o digital)
es codificada en una señal digital. La forma real de la señal digital a transmitir depende de la técnica de codificación
que se elige para optimizar el uso del medio de transmisión.

Las señales digitales son aquellas que están representadas por funciones matemáticas que pueden tomar un
número finito de valores en cualquier intervalo de tiempo, es decir, toman valores discretos.

Tanto la información que presenta un formato analógico como aquella que presenta un formato digital, pueden ser
transmitidas utilizando señales analógicas o digitales. Generalmente la información analógica en función del tiempo,
ocupa una banda de frecuencias limitada y puede ser directamente representada por una señal analógica. El mejor
ejemplo de esto es la voz.

• El ancho de banda analógico audible se encuentra entre las frecuencias de 20 Hz a 20 KHz.


• La voz humano abarca un ancho de banda de 14800 HZ, oscila entre las frecuencias de 100 Hz a 15 KHz
(100Hz hombres y 400 Hz mujeres.
• El ancho de banda de una conversación normal es de 3 KHz de 300 Hz a 3300 Hz ( estudios demuestran que
la mayor parte de la información necesaria para la inteligibilidad del habla está por debajo de los 4 KHz).

Si tomamos como referencia el teorema de Nyquist (1928): “Una señal puede ser reconstruida sin error si
tomamos muestras en intervalos de tiempos iguales a una razón igual o mayor que el doble de su Ancho de
Banda”, es posible digitalizar un señal de voz analógica si tomamos 8000 muestras cada segundo.

𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚
𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹𝐹 𝑚𝑚á𝑥𝑥𝑥𝑥𝑥𝑥𝑥𝑥 𝑓𝑓𝑓𝑓 ≥ 2𝐴𝐴𝐴𝐴 (2)(4 𝐾𝐾𝐾𝐾𝐾𝐾) = 8000
𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠

FELR Página 12
“Redes Básicas”. Tercer Parcial

Figura XV. Digitalización de la voz.

Si se toman 8 bits para digitalizar cada muestra se obtiene un ancho de banda de 64 Kbps para un canal de voz
digital.

𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑏𝑏𝑏𝑏𝑏𝑏𝑏𝑏 𝑏𝑏𝑏𝑏𝑏𝑏𝑏𝑏


8000 ×8 = 64000
𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠

Se obtiene una muestra cada 125 microsegundos


1
= 0.000125
8000

Con 256 niveles de cuantificación

28 = 256

Figura XVI. Digitalización de señal analógica.

Es por eso que el ancho de banda de canal digital básico de voz conocido como DS0 es de 64Kbps

Figura XVII. Ancho de banda de enlaces digitales.

3.8 Técnicas de multiplexaje.

Tanto la información analógica como la digital pueden ser transmitidas mediante señales analógicas o digitales. La
elección de un tipo particular de señalización dependerá de los requisitos exigidos, del medio de transmisión, así
como de los recursos disponibles para la comunicación, pero no del tipo de información a transmitir.

FELR Página 13
“Redes Básicas”. Tercer Parcial

De esta forma, datos de tipo analógico pueden transmitirse mediante una señal analógica o digital, y datos digitales
puede igualmente transmitirse mediante ambos tipos de señales. Cuando se emplean señales analógicas, la
transmisión en sí recibe el nombre de transmisión analógica, mientras que si se emplean señales digitales se
denomina transmisión digital.

En la vida real, una propiedad característica de los enlaces existentes es que tienen el ancho de banda limitado. Esta
propiedad, junto con el hecho de que el coste de implantación de un enlace no suele ser barato (es suficiente con
pensar lo que pueden costar los enlaces que unen Europa con Estados Unidos, formados por un gran cable submarino
que cruza el océano Atlántico), conlleva que la utilización eficiente del ancho de banda se convierta en un aspecto
clave dentro de las Redes de Computadores.

Esta limitación del ancho de banda viene impuesta por las características físicas propias del enlace (no es lo mismo
utilizar un cable coaxial que fibra óptica o un enlace inalámbrico), pero dicho tope nunca se alcanza y ocurre que el
enlace dispone de más capacidad que la necesitada por los dispositivos conectados al mismo, con lo que se está
malgastando la capacidad sobrante. Esta situación provoca un grave problema al desaprovecharse ancho de banda,
uno de los recursos más preciados en las comunicaciones de datos.

Para optimizar el uso de la capacidad del enlace, en determinadas ocasiones se puede necesitar combinar varios
canales de bajo ancho de banda para dar forma a un canal con un ancho de banda mayor. En otras, sin embargo, lo
que se busca es evitar al máximo las interferencias y garantizar que los datos llegan a su destino sin ser interceptados
por usuarios intermedios. Para dar respuesta a estas necesidades existe dos mecanismos fundamentales: la
Multiplexación y el espectro expandido.

La multiplexación es una técnica que permite combinar las señales de varias fuentes para conseguir un uso eficiente
del ancho de banda. En otras palabras, es una técnica que permite transmitir de forma simultánea múltiples señales
analógicas o digitales a través de la compartición de un único enlace de datos, aprovechando al máximo la capacidad
del mismo.

Figura XVIII. Tipos de multiplexación.

Para llevar a cabo esta tarea se emplea un dispositivo conocido como multiplexor, el cual combina los flujos de las
diferentes líneas de entrada en un único flujo (multiplexación), posteriormente separa de nuevo los flujos y los
redirige a sus correspondientes líneas en la salida (demultiplexación).

Un aspecto importante que se debe tener claro a partir de ahora es que cuando se haga referencia al medio de
transmisión se está haciendo referencia al camino físico por el que se transmiten los datos, mientras que cuando se
hable de “canal” se está refiriendo a la porción de un enlace que transporta una comunicación entre un par concreto
de líneas. Por tanto, un enlace puede estar formado por muchos canales.

FELR Página 14
“Redes Básicas”. Tercer Parcial

Existen dos técnicas básicas de multiplexación, multiplexación por división en frecuencia y multiplexación por
división en el tiempo, si bien existen otra técnica la cual se pueden encuadrar dentro de las anteriores:
multiplexación por división de longitud de onda como un caso particular de la primera.

3.8.1 Multiplexación por división en frecuencia (FDM).

Esta técnica de multiplexación conocida como FDM (Frecuency-Division Multiplexing), fue diseñada para transmitir
señales analógicas, y se puede aplicar siempre que el ancho de banda útil del enlace sea mayor que los anchos de
banda combinados de las señales a transmitir.

Las señales que se desean transmitir, generadas por diferentes dispositivos fuente, ocupan el mismo espectro de
frecuencias. El multiplexor modula (utilizando FSK) dichas señales utilizando distintas frecuencias portadoras, las
cuales se combinan a continuación en una única señal compuesta que será la que se transmita por el enlace.

A cada señal modulada se le asigna un subconjunto de frecuencias del enlace de datos, dando lugar a lo que se conoce
como canal. Estos canales, para evitar que se solapen unos con otros, se separan con porciones de ancho de banda
sin utilizar, llamadas bandas de guarda.

En la figura siguiente se ilustra el funcionamiento de este tipo de multiplexación, así como la separación en
frecuencias creando los canales, pero sin la separación existente entre ellos o bandas de guarda.

Figura XIX. Multiplexor.

Una vez la señal multiplexada alcanza el extremo donde se debe demultiplexar, el demultiplexor utiliza una serie de
filtros que permiten descomponer dicha señal en las diferentes señales que la forman, para a continuación
demodularlas y separarlas así de sus portadoras, obteniendo las señales originales, las cuales se redirigen hacia sus
líneas de salida.

Figura XX. Demultiplexor.

La aplicación más típica de la FDM se da en la radio y en la televisión, donde el aire se utiliza como medio de
transmisión o enlace. En la radio, tanto en AM como en FM, la señal de audio de cada estación debe modularse, bien
por amplitud o bien por frecuencia, para obtener las distintas frecuencias de portadoras, independientes unas de las
otras, las cuales podremos sintonizar posteriormente desde nuestro equipo de radio.

FDM es un esquema análogo de multiplexado; la información que entra a un sistema FDM es analógica y permanece
analógica durante toda su transmisión. Un ejemplo de FDM es la banda comercial de AM, que ocupa un espectro de
frecuencias de 535 a 1605 kHz. Si se transmitiera el audio de cada estación con el espectro original de frecuencias,
sería imposible separar una estación de las demás. En lugar de ello, cada estación modula por amplitud una
frecuencia distinta de portadora, y produce una señal de doble banda lateral de 10KHz.

FELR Página 15
“Redes Básicas”. Tercer Parcial

Hay muchas aplicaciones de FDM, por ejemplo, la FM comercial y las emisoras de televisión, así como los sistemas
de telecomunicaciones de alto volumen. Dentro de cualquiera de las bandas de transmisión comercial, las
transmisiones de cada estación son independientes de las demás

Figura XXI Multiplexación por división en frecuencia (FDM)

Una variante de MDF es la utilizada en fibra óptica, donde se multiplexan señales, que pueden ser analógicas o
digitales, y se transmiten mediante portadoras ópticas de diferente longitud de onda, dando lugar a la denominada
multiplexación por división de longitud de onda, o WDM del inglés Wavelength División Multiplexing.

3.8.2 Multiplexación por división de longitud de onda (WDM).

Existe una variante de la multiplexación por división de frecuencia pensada para aprovechar la gran capacidad
ofrecida por los enlaces de fibra óptica. Esta variante, conocida como multiplexación por división de longitud de
onda (Wavelength Division Multiplexing), permite trasmitir diferentes señales ópticas sobre una misma fibra óptica
empleando varias portadoras con diferentes longitudes de onda (y, por tanto, diferentes frecuencias). En esta
técnica, los multiplexores son multiplexores ópticos.

Puesto que las frecuencias de las señales que viajan a través de una fibra son distintas, también lo son sus longitudes
de onda (lambda). De hecho, en WDM se denomina lambda a cada una de las señales que se transmiten por una
fibra, llegándose a incluso a alquilar lambdas en enlaces ópticos.

Figura XXII. Multiplexación por división de longitud de onda (WDM).

FELR Página 16
“Redes Básicas”. Tercer Parcial

WDM, es una tecnología que multiplexa varias señales sobre una sola fibra óptica mediante portadoras ópticas de
diferente longitud de onda, usando luz procedente de un láser o un LED.

Este término se refiere a una portadora óptica (descrita típicamente por su longitud de onda) mientras que la
multiplexación por división de frecuencia generalmente se emplea para referirse a una portadora de radiofrecuencia
(descrita habitualmente por su frecuencia), puesto que la longitud de onda y la frecuencia son inversamente
proporcionales, la radiofrecuencia y la luz son ambas formas de radiación electromagnética, la distinción resulta
un tanto arbitraria.

Conceptualmente, FDM y WDM son iguales a excepción de que ésta última involucra señales ópticas transmitidas a
través de fibra óptica.

Los primeros sistemas WDM aparecieron en torno a 1985 y combinaban tan sólo dos señales. Los sistemas modernos
pueden soportar hasta 160 señales y expandir un sistema de fibra de 10 Gb/s hasta una capacidad total 25.6 Tb/s
sobre un solo par de fibra.

La atenuación en la transmisión, medida en decibelios por kilómetro, es muy pequeña en la fibra óptica respecto a
medios alternativos tales como el cableado metálico. Existen tres rangos de longitudes de onda óptimas donde dicha
atenuación es asumible: longitudes en torno a 850 micras (primera ventana de transmisión), en torno a 1320 micras
(segunda ventana de transmisión) y en torno a 1550 micras (tercera ventana de transmisión). El primer rango de
longitudes tiene una atenuación de unos 0.8 dB/Km, y el segundo y tercer rango una atenuación de unos 0.2 dB/Km.
En la multiplexación por longitud de onda suelen emplearse ondas con longitudes comprendidas en alguna ventana
de transmisión, y diferentes lambdas para cada una de las transmisiones.

3.8.3 Multiplexación por división en el tiempo (TDM).

En esta técnica de multiplexación llamada TD, (Time-Division Multiplexing,) diferentes conexiones con señales
digitales pueden compartir un mismo enlace, aprovechando todo el ancho de banda disponible y no sólo una parte
del mismo como en FDM. Para ello, esta técnica comparte el enlace asignando un intervalo de tiempo en el que cada
conexión puede utilizarlo. El tiempo asignado para que cada línea de entrada transmita su información (un bit, un
carácter, o un bloque de datos) se denomina canal.

TDM es el tipo de multiplexación más utilizado, especialmente en los sistemas de transmisión digitales. En ella, el
ancho de banda total del medio de transmisión es asignado a cada canal durante una fracción del tiempo total
(intervalo de tiempo). Es decir, es una técnica para compartir un canal de transmisión entre varios usuarios. Consiste
en asignar a cada usuario, durante unas determinadas "ranuras de tiempo", la totalidad del ancho de banda
disponible. Esto se logra organizando el mensaje de salida en unidades de información llamadas tramas, y asignando
intervalos de tiempo fijos dentro de la trama a cada canal de entrada. De esta forma, el primer canal de la trama
corresponde a la primera comunicación, el segundo a la segunda, y así sucesivamente, hasta que el n-esimo más uno
vuelva a corresponder a la primera.

El uso de esta técnica es posible cuando la tasa de los datos del medio de transmisión excede de la tasa de las señales
digitales a transmitir. El multiplexor por división en el tiempo muestrea, o explora, cíclicamente las señales de
entrada (datos de entrada) de los diferentes usuarios, y transmite las tramas a través de una única línea de
comunicación de alta velocidad. Los TDM son dispositivos de señal discreta y no pueden aceptar datos analógicos
directamente, si no de modulados mediante un módem.

La figura ilustra el funcionamiento de esta técnica de multiplexación. Suponiendo que las líneas de entrada (1,2, y 3)
tienen todas la misma velocidad de transmisión, el multiplexor obtiene una muestra del flujo de datos de cada una
de las líneas durante un periodo de tiempo (T), con el objetivo de encapsular la información a transmitir en lo que
se conoce como trama. Por tanto, las tramas, que conforman las unidades de información que se van a enviar por el
enlace, están formadas por tantos canales como líneas de entrada haya, estando las posiciones de estos canales
prefijadas de antemano.
FELR Página 17
“Redes Básicas”. Tercer Parcial

Figura XXIII. Ranuras de tiempo o tramas.

Como el multiplexor obtiene datos cada T segundos, debe encapsularlos en la trama y enviar esta última por el enlace
en ese mismo periodo de tiempo T. De esta forma, el multiplexor es capaz de transmitir una trama antes de recibir
los datos necesarios para procesar la siguiente. Por tanto, la duración de transmisión de cada trama es T, lo que
implica que los canales van a tener una duración de transmisión de T/n segundos, siendo n el número de líneas de
entrada.

Dicho de otra forma, para garantizar la transmisión de los datos, el régimen binario (bps) en el enlace debe ser n
veces mayor o igual que el existente en la línea de entrada. Es decir, si como ocurre en el ejemplo, hay tres líneas de
entrada, el régimen binario del enlace debe ser tres veces más rápido que el de cada línea de entrada.

Los TDM funcionan a nivel de bit o a nivel de carácter. En un TDM a nivel de bit, cada trama contiene un bit de cada
dispositivo explorado. El TDM de caracteres manda un carácter en cada canal de la trama. El segundo es
generalmente más eficiente, dado que requiere menos bits de control que un TDM de bit. La operación de muestreo
debe ser lo suficientemente rápida, de forma que cada buffer sea vaciado antes de que lleguen nuevos datos.

El problema en TDM aparece porque en la realidad, no todos los emisores permanecen continuamente
transmitiendo, y al no tener datos que enviar, el canal correspondiente a la trama que se transmite estará vacío. Para
resolver este problema se emplea la técnica de espectro expandido, que aporta además seguridad y fiabilidad a la
comunicación.

Figura XXIV. Multiplexación por división en el tiempo (TDM).

FELR Página 18
“Redes Básicas”. Tercer Parcial

3.8.4 Espectro expandido, Multiplexación Por División De Código (CDM).

En los apartados anteriores se han explicado diversas técnicas que permiten aprovechar adecuadamente un ancho
de banda dado, multiplexando comunicaciones en un mismo enlace de forma que su ancho de banda se comparta
entre varios emisores. Con las técnicas de multiplexación se logra comunicar dos sistemas sin necesidad de tener un
enlace dedicado en exclusiva a dicha comunicación, aprovechando al máximo el ancho de banda de dicho enlace.

No obstante, hay determinados tipos de transmisiones donde la prioridad se centra en aspectos como la seguridad
y la fiabilidad de la comunicación, por encima de la idea de optimizar el uso del ancho de banda. Un ejemplo claro de
ello son las comunicaciones inalámbricas, cada vez más utilizadas hoy en día. Los datos, viajan usando como medio
de transmisión el aire y cualquier sistema puede tener acceso físico a los mismos.

Por tanto, se hace imprescindible:


• Minimizar las interferencias sufridas por ruido casual o provocado por emisores malintencionados
• Evitar la intercepción de los datos por parte de usuarios intermedios
• Mejorar la recepción de la información por parte del receptor, aunque existan varios usuarios
independientes emitiendo a la vez.

Si no se logran cumplir estos requisitos, las soluciones inalámbricas no tendrían validez en el ámbito de las
comunicaciones, y precisamente para dar respuesta a esos problemas surge la técnica de Espectro Expandido, ideada
para un ámbito militar donde se pretendía cifrar las transmisiones para que no pudieran ser interferidas ni
interceptadas por el bando enemigo.

El espectro expandido persigue conseguir que una comunicación sea resistente a las interferencias externas y a
la intercepción. Para ello, va a ser necesario emplear un ancho de banda mayor que el que exige realmente la
comunicación en sí, con lo que se va a perder ancho de banda en favor de aumentar la seguridad/fiabilidad de la
transmisión. Es como si se envía un objeto muy delicado por mensajería: tenemos la opción de meterlo en un
envoltorio que se ajuste al tamaño, ahorrando dinero en el envío, o bien, de envolverlo cuidadosamente en corcho,
plástico contra golpes, caídas, etc., con lo que tendremos que enviar un paquete mucho mayor (nos supondrá mayor
coste) pero más seguro.

Nos encontramos, por tanto, ante una problemática distinta a la que trataba de resolver la multiplexación, donde se
pretende optimizar el ancho de banda de cada comunicación a fin de poder entremezclar varias transmisiones y
aprovechar al máximo el canal utilizado.

La traducción del inglés spread spectrum se hace con distintos adjetivos según las fuentes; pueden emplearse
indistintamente espectro ensanchado, expandido, difuso o disperso para referirse en todos los casos al mismo
concepto.

La Multiplexación por división de código, es una técnica, generalmente utilizada en la telefonía móvil, en la cual
cada canal transmite la información como una secuencia específica de pulsos, es decir, como un canal codificado. La
transmisión se consigue transmitiendo una serie única dependiente del tiempo de pulsos cortos que son “colocados”
dentro de un chip de mayor duración de bit. Cada canal tiene un código distinto y pueden ser transmitidos dentro de
la misma guía de onda (o cable) multiplexándolos asincrónicamente. Cuando las técnicas CDM se utilizan como
tecnología de acceso, toman el nombre de acceso múltiple por división de código (Code Division Múltiple Access
CDMA).

Uno de los problemas a resolver en comunicaciones de datos es cómo repartir entre varios usuarios el uso de un
único canal de comunicación o medio de transmisión, para que puedan gestionarse varias comunicaciones al mismo
tiempo. Sin un método de organización, aparecerían interferencias que podrían bien resultar molestas, o bien
directamente impedir la comunicación. Este concepto se denomina multiplexado o control de acceso al medio, según
el contexto

FELR Página 19
“Redes Básicas”. Tercer Parcial

Figura XXV. Multiplexación por división de código (CDM).

Una analogía posible para el problema del acceso al medio múltiple sería una habitación (que representaría el canal)
en la que varias personas desean hablar al mismo tiempo. Si varias personas hablan a la vez, se producirán
interferencias y se hará difícil la comprensión. Para evitar o reducir el problema, podrían hablar por turnos
(estrategia de división por tiempo), hablar unos en tonos más agudos y otros más graves de forma que sus voces se
distinguieran (división por frecuencia), dirigir sus voces en distintas direcciones de la habitación (división espacial)
o hablar en idiomas distintos (división por código): como en CDMA, sólo las personas que conocen el código (es decir,
el "idioma") pueden entenderlo.

Figura XXVI. Técnicas de Acceso Multiple.

a) CDMA. Acceso Múltiple Por División De Código. Esta técnica es muy usada en conexiones inalámbricas de
área local (WiFi) por radiofrecuencia, aunque también puede usarse en sistemas de fibra óptica o de cable. Cada
usuario de un sistema CDMA emplea un código de transmisión distinto (y único) para modular su señal. La
selección del código a emplear para la modulación es vital para el buen desempeño de los sistemas CDMA,
porque de él depende la selección de la señal de interés, que se hace por correlación cruzada de la señal captada
con el código del usuario de interés, así como el rechazo del resto de señales y de las interferencias multi-path
(producidas por los distintos rebotes de señal). Se expande el ancho de banda de la siguiente forma: cada bit de
información se sustituye por n bits, que en esta técnica se van a denominar chips. Cabe destacar que la tasa de
transmisión de estos chips es n veces la tasa de envío de los bits originales. El emisor y el receptor de la
transmisión compartirán un código de expansión que permitirá transformar cada 1 ó 0 de información en un
conjunto de n chips, y a su vez revertir la traducción para obtener los datos originales.

b) TDMA. Acceso Múltiple Por División De Tiempo. Es una técnica de multiplexación que distribuye las
unidades de información en ranuras ("slots") alternas de tiempo, proveyendo acceso múltiple a un reducido
número de frecuencias. Mediante el uso de TDMA se divide un único canal de frecuencia de radio en varias
ranuras de tiempo (seis en D-AMPS y PCS, ocho en GSM). A cada persona que hace una llamada se le asigna una
ranura de tiempo específica para la transmisión, lo que hace posible que varios usuarios utilicen un mismo canal
simultáneamente sin interferir entre sí.

FELR Página 20
“Redes Básicas”. Tercer Parcial

c) FDMA. Acceso Múltiple Por División De Frecuencia. Es una técnica de multiplexación usada en múltiples
protocolos de comunicaciones, tanto digitales como analógicos, principalmente de radiofrecuencia, y entre ellos
en los teléfonos móviles de redes GSM. En FDMA, el acceso al medio se realiza dividiendo el espectro disponible
en canales, que corresponden a distintos rangos de frecuencia, asignando estos canales a los distintos usuarios
y comunicaciones a realizar, sin interferirse entre sí. Esta técnica se basa en emplear M frecuencias portadoras
distintas entre ellas, y en cada instante de la comunicación, ir cambiando la transmisión de una frecuencia
portadora a otra, para evitar que un intruso pueda seguirnos el rastro entre salto y salto.

d) WDMA.- Acceso Múltiple Por División De Onda. Una variante de la multiplexación en el dominio de la
frecuencia realizada en frecuencias próximas a la luz, se basa en que una fibra óptica puede estar
simultáneamente iluminada por varias fuentes luminosas, (incluso aquellas que no se consideren luz visible)
cada una de las cuales transporta información

3.9 Interfaces físicas entre redes de área local y redes de área amplia (LAN-WAN).

Una tarjeta de interfaz de red NIC (Networking Interface Card) es una placa de circuito impreso que proporciona
capacidades de comunciaciones de red hacia y desde una computadora. Son el pilar que sustentan toda red local es
una placa de circuito impreso que ofrece un puerto físico para que los equipos terminales se conecten al medio
generalmente se comunica con la red, a través de una conexión serial y con el equipo terminal a través de una
conexión en paralelo y contiene la dirección que identifica físicamente a un dispositivo en la red, dirección MAC de
compuesta por 16 dígitos en formato hexadecimal.

Figura XXVII. Tarjeta de Red y dirección MAC.

La tarjeta de red, también conocida como placa de red, adaptador de red o adaptador LAN, es la periferia que actúa
de interfaz de conexión entre aparatos o dispositivos, y también posibilita compartir recursos (discos duros,
impresoras, etcétera), en una red de computadoras.

Las tarjetas NIC son la electrónica que utilizan las estaciones para acceder al medio físico para comunicar con otras
estaciones. Implementan el subnivel MAC (Medium Access Control), mientras que el controlador de las mismas
(driver) implementa el subnivel LLC (Logical Link Control).

Componentes de la tarjeta NIC

En general, una tarjeta de red se compone principalmente de un controlador, un zócalo de ROM de arranque, uno o
más puertos NIC, una interfaz de conexión de placa madre, indicadores LED, un soporte para perfil y algunos otros
componentes electrónicos. Cada componente de la tarjeta LAN tiene sus propias características:
• Controlador: el controlador es como una mini CPU que procesa los datos recibidos. Al ser la parte central de
la tarjeta de red, el controlador determina directamente el rendimiento del dispositivo.

FELR Página 21
“Redes Básicas”. Tercer Parcial

• Zócalo de ROM de arranque: este zócalo habilita en la tarjeta la función ROM de arranque, la cual permite
que las estaciones de trabajo sin disco se conecten a la red, por lo tanto, aumenta la seguridad y reduce los
costos de hardware.
• Puerto NIC para cable/transceptor: normalmente, este puerto se conectará a un cable o transceptor de red
directamente que puede generar y recibir señales electrónicas colocadas en el cable de red o cable de fibra
óptica.
• Interfaz del bus: esta interfaz se encuentra en el costado de la placa de circuito, la cual sirve para conectar
la NIC con una computadora o servidor a través de su ranura de expansión.
• Indicador LED: los indicadores se utilizan para ayudar a los usuarios a identificar si la tarjeta de red está
conectada a la red y si se están transmitiendo los datos.
• Soporte para perfil: hay dos tipos de soportes para perfil en el mercado. El primero es el soporte de altura
completa con una longitud de 12cm, y el segundo es el soporte de perfil bajo con una longitud de 8cm. Este
soporte puede ayudar a los usuarios a reparar la NIC en la ranura de expansión de una computadora o
servidor.

Una tarjeta de red nos permite identificar:

• El tipo de red o tecnología LAN (Ethernet, Token ring WiFi, etc.).


• El tipo de medio (UTP, coaxial, Fibra, Inalámbrico, etc).
• El tipo de Bus (PCI, ISA, PCMCIA, USB)

3.9.1 Tipos de tarjeta de red

Las tarjetas de interfaz de red (NIC)se pueden clasificar en diferentes en virtud de diferentes características. Entre
estas se incluyen la interfaz de host, la velocidad de transmisión y los campos de aplicación. Los detalles se
muestran a continuación.

a) Clasificación basada en la conexión de red.

Según la forma en que una tarjeta de red accede a la red, existen tarjetas NIC alámbricas e inalámbricas. Como su
nombre lo indica, una NIC alámbrica generalmente debe conectar un nodo a la red con un cable, tal y como el cable
de red y el cable de fibra óptica. Una tarjeta NIC inalámbrica suele tener una antena pequeña que utiliza ondas de
radio para comunicarse con el punto de acceso para involucrarse en una red inalámbrica.

b) Clasificación basada en la interfaz del bus.

Tarjeta de red ISA (Arquitectura Industrial Estándar): el bus ISA se desarrolló en 1981, el cual consistía en una
arquitectura de bus estándar para máquinas compatibles con IBM. Debido a la baja velocidad de la tarjeta de 9Mbps,
la interfaz del bus ISA ya no es un tipo reconocido, y es difícil de encontrar en las tiendas actuales.

Tarjeta de red PCI (Interconexión de componentes periféricos): el bus PCI se desarrolló en 1990 para reemplazar el
estándar ISA anterior. Tiene un ancho fijo de 32bits (133MB/s de datos de transmisión) y 64 bits (266MB/s de datos
de transmisión). Este tipo de tarjeta NIC se utilizó por primera vez en servidores y luego se aplicó gradualmente a
las computadoras. Hoy, la mayoría de las computadoras no tienen tarjetas de expansión, sino dispositivos integrados
en la placa madre. Como resultado, la tarjeta de red PCI ha sido reemplazada por otras interfaces de bus, como por
ejemplo, las interfaces PCI-X o USB.

FELR Página 22
“Redes Básicas”. Tercer Parcial

Tarjeta de red PCI-X (Interconexión de componentes periféricos extendida) la tarjeta PCI-X es una tecnología de bus
PCI mejorada. Se ejecuta en 64bits con una velocidad máxima de 1064MB/s. En muchos casos, la PCI-X es compatible
con las tarjetas de red PCI.

Tarjeta de red PCIe (Interconexión de componentes periféricos expreso): la tarjeta PCIe es el último estándar y ahora
es popular en las placas madre de las computadoras y servidores. Hay cinco versiones de tarjetas NIC PCIe, cada una
de las cuales admite cinco carriles de velocidad diferentes. Para obtener más información sobre las tarjetas PCIe, lee
el siguiente artículo: Tutorial de tarjetas PCIe: todo lo que necesitas saber sobre las tarjetas PCI Express.

Figura XXVIII. Versiones de tarjetas de red PCIe.

Tarjeta de red USB (Bus serie universal): el bus USB es un estándar de bus externo. Viene en tres versiones con
diferentes velocidades de datos y puede funcionar junto con una variedad de dispositivos. Además, la tarjeta de red
inalámbrica también es un tipo de tarjeta NIC, que está diseñada para la conexión Wi-Fi.

c) Clasificación según el tipo de puerto

De acuerdo con los diferentes cables conectados, se pueden encontrar cuatro tipos de puertos NIC en el mercado. El
puerto Rj45 que se usa para conectar los cables de par trenzado (como Cat5 y Cat6), los puertos AUI para cables
coaxiales gruesos (como el cable transceptor AUI), los puertos BNC para cables coaxiales finos (como el cable BNC)
y los puertos ópticos para transceptor (como el transceptor 10G/25G).

d) Clasificación basada en la velocidad de transmisión

Basándonos en las diferentes velocidades, disponemos en el mercado de tarjetas de red de 10Mbps, 100Mbps,
10/100Mbps, 1000Mbps, 10GbE, 25G o incluso de mayor velocidad. Las tarjetas NIC de 10Mbps, 100Mbps y
10/100Mbps son adecuadas para pequeñas redes LAN, usos domésticos u oficinas cotidianas. La NIC de 1000Mbps
proporciona un mayor ancho de banda en redes Gigabit. Las tarjetas NIC de 10Gb/25Gb e incluso tarjetas de mayor
velocidad, son de gran acogida por las grandes empresas o centros de datos. Para conocer más sobre las NIC de 25G,
puedes leer este artículo: NIC de 25G: una ruta altamente efectiva hacia las redes 100G.

e) Clasificación basada en campos de aplicación

Tarjeta NIC para computadoras: hoy en día, la mayoría de las computadoras nuevos tienen una NIC integrada en la
placa madre, por lo que no se requiere una tarjeta LAN separada. Por lo general, dicha tarjeta viene con velocidades
de 10/100Mbps y 1Gbps, y permite que una computadora se comunique con otros computadoras o redes.

Tarjeta de red para servidores: la función principal de una NIC para servidor es administrar y manejar el tráfico de
red. En comparación con el adaptador de red de una computadora normal, los adaptadores de servidor generalmente
requieren una velocidad de transmisión de datos más rápida como por ejemplo de 10G, 25G, 40G e incluso 100G.
Además, los adaptadores de servidor tienen un menor uso de CPU, pues disponen de un controlador de red especial
que puede tomar muchas tareas de la CPU. Para satisfacer las diferentes demandas de velocidad de los usuarios para
los adaptadores de servidor, FS ha lanzado tarjetas/adaptadores de red PCIe 10G y tarjetas NIC 25G/40G.
Construidos con controladores Intel, admiten procesadores multinúcleo y optimización para la virtualización de
servidores y redes.

FELR Página 23
“Redes Básicas”. Tercer Parcial

Existen otro tipo de interfaces físicas que se utilizan ampliamente en las redes de datos

• Moduladores y codificadores: Adaptan la señal para que se propague por el canal de forma adecuada. Ej.:
La señal de la computadora es eléctrica pero no es adecuada para transmitirse por línea telefónica. La línea
telefónica es adecuada para señales eléctricas de baja frecuencia.
MODEM: convierte señales eléctricas digitales en analógicas y viceversa. (MOdulador- DEModulador).
CODEC: codifica señales eléctricas digitales acomodándolas al canal. (COdificador-DECodificador).
• Amplificadores: Restaura la señal devolviendo su amplitud original. La señal se atenúa con la distancia.
(Analógicas). Resistencia = Resistividad del material * (Longitud / Sección). Intensidad = Voltaje /
Resistencia.
• Repetidores: regeneran las señales digitales. No amplifica, reconstruye.
• Conmutadores: dispositivos (hardware y/o software) capaces de crear conexiones temporales entre dos o
más dispositivos, que estén conectados a él.
• Distribuidores y concentradores: reparten o agrupan las señales entre los distintos nodos.
• Antenas: permiten que una señal eléctrica se propague por un medio inalámbrico y viceversa.

3.9.2 Repetidores.

Un repetidor es un dispositivo sencillo que se instala para amplificar la señal del cable, de forma que se pueda
extender la longitud de la red. Trabaja solo a nivel de bits. El repetidor es un elemento de red que regenera y
retemporiza la señal eléctrica que le llega con el fin de restituir su nivel original, evitar los problemas que se pudieran
producir por una excesiva atenuación y permite que los bits viajen a mayor distancia que las permitidas por el medio.
Extiende las LAN a mayor distancia.

Características

• Regenera las señales de la red para qué llegan más lejos.


• Algunos repetidores también filtran el ruido.
• Se utilizan sobre todo en los sistemas de cableado lineales como Ethernet.
• No utilizan los protocolos de niveles superiores.
• Los segmentos conectados deben utilizar el mismo método de acceso al medio de transmisión.
• Los segmentos conectados con un repetidor, normalmente dentro de un mismo edificio, forman parte de la
misma red, y tendrán la misma dirección de red.
• Todos los puertos de los repetidores son bidireccionales, es decir, no distinguen el sentido del flujo de la
información.

3.9.3 Concentradores o Hubs.

Los hubs en realidad son repetidores multipuerto y crea un punto central de conexión por lo que a veces son
llamados concentradores. En muchos casos, la diferencia entre los dos dispositivos radica en el número de puertos
que cada uno posee. Mientras que un repetidor convencional tiene sólo dos puertos, un hub por lo general tiene de
cuatro a veinticuatro puertos. Los hubs por lo general se utilizan en las redes Ethernet, aunque hay otras
arquitecturas de red que también los utilizan.

El uso de un hub hace que cambie la topología de la red desde un bus lineal, donde cada dispositivo se conecta de
forma directa al cable, a una en estrella. En un hub, los datos que llegan a un puerto del hub se transmiten de forma
eléctrica a todos los otros puertos conectados al mismo segmento de red, salvo a aquel puerto desde donde enviaron
los datos., no filtra el tráfico, reenvía la señal en forma de broadcast, divide el ancho de banda y extiende el domino
de colisión.

FELR Página 24
“Redes Básicas”. Tercer Parcial

Los hubs vienen en tres tipos básicos:

• Pasivo: Un hub pasivo sirve sólo como punto de conexión física. No manipula o visualiza el tráfico que lo
cruza. No amplifica o limpia la señal. Un hub pasivo se utiliza sólo para compartir los medios físicos. En sí, un
hub pasivo no requiere energía eléctrica.
• Activo: Se debe conectar un hub activo a un tomacorriente porque necesita alimentación para amplificar la
señal entrante antes de pasarla a los otros puertos.
• Inteligente: A los hubs inteligentes a veces se los denomina "smart hubs". Estos dispositivos básicamente
funcionan como hubs activos, pero también incluyen un chip microprocesador y capacidades diagnósticas.
Los hubs inteligentes son más costosos que los hubs activos, pero resultan muy útiles en el diagnóstico de
fallas.

Los dispositivos conectados al hub reciben todo el tráfico que se transporta a través del hub. Cuántos más
dispositivos están conectados al hub, mayores son las probabilidades de que haya colisiones. Las colisiones ocurren
cuando dos o más estaciones de trabajo envían al mismo tiempo datos a través del cable de la red. Cuando esto
ocurre, todos los datos se corrompen. Cada dispositivo conectado al mismo segmento de red se considera un
miembro de un dominio de colisión.

Figura XXIX. Concentrador o repetidor multipuerto.

3.9.4. Nodos de Conmutación


En las redes de comunicaciones, la conmutación es la forma de establecer un camino entre dos puntos, un transmisor
y un receptor a través de nodos o equipos de transmisión. La conmutación permite la entrega de la señal desde el
origen hasta el destino requerido. Los elementos que lo forman son:
• Estaciones: Dispositivos finales que se desean comunicarse y pueden ser Teléfonos, Computadores y otros.
• Nodos: Dispositivos de conmutación que propagan la comunicación.
• Redes de Comunicaciones: Conjunto de todos los nodos.

Los nodos tienen la función de prestar servicio de conmutación para trasladar los datos de un nodo al otro hasta
alcanzar el destino final. Este tipo de redes se denomina redes de comunicación conmutadas. Los datos provenientes
de una de las estaciones (computadoras, terminales, servidores o cualquier dispositivo de comunicación) entran a la
red conmutada y se encaminan hasta la estación de destino conmutándolos de nodo en nodo.

A los nodos de conmutación no les concierne el contenido de los datos que se están transmitiendo, sino solo la
transmisión hacia el otro extremo. La conmutación permite que todos los nodos que deseen establecer una
comunicación no tengan que estar conectados por un enlace en forma directa. Por lo tanto normalmente la red no
está totalmente conectada, es decir no todo par de nodos está conectado mediante un enlace directo. No obstante
muchas veces es deseable poseer más de un camino posible a través de la red para entre cada par de estaciones ya
que esto mejora la seguridad de la red.

FELR Página 25
“Redes Básicas”. Tercer Parcial

Según los tipos de conexión que posean, se pueden distinguir dos tipos de nodos dentro de una red conmutada:

• Nodos que solo se conectan con otros nodos. Su tarea es únicamente la conmutación interna de los datos.
• Nodos que se conectan con otros nodos y con una o más estaciones. Estos nodos además de proveer
conmutación interna de los datos dentro de la red de conmutación, se encargan de distribuir los datos desde y
hacia las estaciones a las cuales están conectados.

En los nodo intermedio por el que pasa el paquete se detiene el tiempo necesario para procesarlo. Cada nodo
intermedio realiza las siguientes funciones:

• Almacenamiento y retransmisión: Hace referencia al proceso de establecer un camino lógico de forma indirecta
haciendo “saltar” la información de origen al destino a través de los nodos intermedios.
• Control de ruta (enrutamiento): hace referencia a la selección de un nodo del camino por el que deben
retransmitirse los paquetes para hacerlos llegar a su destino.

3.10 Conmutación de circuitos.

La conmutación surge en las redes de larga distancia para reducir el número de enlaces, simplificar el mantenimiento
y ahorrar costes. La conexión de N elementos de una red todos con todos, con enlaces punto a punto requeriría N(N-
1)/2 enlaces, que lo hace totalmente inviable.

En la conmutación de circuitos, el camino (llamado “circuito”) entre los extremos del proceso de comunicación se
mantiene de forma permanente mientras dura la comunicación, de forma que es posible mantener un flujo continuo
de información entre dichos extremos. Este es el caso de la telefonía convencional.

Figura XXX. Conmutación de circuitos.

Características

Los enlaces que utilizan conmutación por circuito presentan un retraso en el inicio de la comunicación. Se necesita
un tiempo para realizar la conexión, lo que conlleva un retraso en la transmisión de la información, además existe
un acaparamiento de recursos debido al no aprovechamiento del circuito en los instantes de tiempo en que no hay
transmisión entre las partes. Se desperdicia ancho de banda mientras las partes no están comunicándose.

Una vez establecida la ruta de comunicación, el circuito no cambia por lo que es imposible reajustar la ruta de
comunicación en cada momento para lograr el menor costo entre los nodos, es decir, una vez que se ha establecido
el circuito, no se aprovechan los posibles caminos alternativos con menor coste que puedan surgir durante la sesión.

FELR Página 26
“Redes Básicas”. Tercer Parcial

En la conmutación de circuitos la transmisión no se realiza en tiempo real, siendo adecuado para comunicación de
voz y video, en la misma los nodos que intervienen en la comunicación disponen en exclusiva del circuito
establecido mientras dura la sesión, no hay contención, una vez que se ha establecido el circuito las partes pueden
comunicarse a la máxima velocidad que permita el medio, sin compartir el ancho de banda ni el tiempo de uso.

El circuito es fijo, una vez establecido el circuito no hay pérdidas de tiempo calculando y tomando decisiones de
encaminamiento en los nodos intermedios. Cada nodo intermedio tiene una sola ruta para los paquetes entrantes y
salientes que pertenecen a una sesión específica, este tipo de conmutación simplifica la gestión de los nodos
intermedios una vez que se ha establecido el circuito físico, no hay que tomar más decisiones para encaminar los
datos entre el origen y el destino.

Uno de los peores inconvenientes de la conmutación de circuitos es la poca tolerancia a fallos. Si un nodo intermedio
falla, todo el circuito se viene abajo. Hay que volver a establecer conexiones desde el principio.

3.11 Conmutación de paquetes.

La conmutación de paquetes se trata del procedimiento mediante el cual, cuando un nodo quiere enviar información
a otro lo divide en paquetes, todos del mismo tamaño, los cuales contienen la dirección del nodo destino, en este
caso, no existe un circuito permanente entre los extremos y, la red, simplemente, se dedica a encaminar paquete a
paquete la información entre los usuarios.

Figura XXXI. Conmutación de paquetes.

Características

Es la conmutación más usadas, en caso de error en un paquete solo se reenvía ese paquete, sin afectar a los demás
que llegaron sin error, se limita el tamaño de los paquetes a enviar de manera que ningún usuario pueda monopolizar
una línea de transmisión durante mucho tiempo, por lo que las redes de conmutación de paquetes pueden manejar
tráfico interactivo, esto hace que aumente la aumenta la flexibilidad y rentabilidad de la red.

En caso de algún fallo se puede alterar sobre la marcha el camino seguido por una comunicación así, un nodo puede
seleccionar de su cola de paquetes en espera de ser transmitidos aquellos que tienen mayor prioridad.

Los equipos de conmutación utilizados son de mayor complejidad ya que necesitan mayor velocidad y capacidad de
cálculo para determinar la ruta adecuada en cada paquete, también es capaz de retrasmitir paquetes en caso de que
un paquete tarde demasiado en llegar a su destino, en este caso el receptor no envía el acuse de recibo al emisor, por
lo cual el receptor volverá a retransmitir los últimos paquetes del cual no recibió el acuse, pudiendo haber
redundancia de datos.
FELR Página 27
“Redes Básicas”. Tercer Parcial

3.11.1 Conmutación de mensajes

Es el tipo de conmutación utilizado para transmitir un mensaje a un receptor, el emisor debe enviar primero el
mensaje completo a un nodo intermedio el cual lo coloca en la cola donde almacena los mensajes que le son enviados
por otros nodos. Luego, cuando llega su turno, lo reenviará a otro y éste a otro y así las veces que sean necesarias
antes de llegar al receptor. El mensaje deberá ser almacenado por completo y de forma temporal en el nodo
intermedio antes de poder ser reenviado al siguiente, por lo que los nodos temporales deben tener una gran
capacidad de almacenamiento.

Características

La conmutación de mensaje presenta un mejor aprovechamiento del canal de transmisión comparado con la
conmutación de circuito y por paquetes, en este caso se unen mensajes de orígenes diferentes que van hacia un
mismo destino, y viceversa, todos al mismo tiempo sin necesidad de esperar a que se libere el circuito, esto provoca
que el canal se libera mucho antes que en la conmutación de circuitos, lo que reduce el tiempo de espera necesario
para que otro remitente envíe mensajes.

El tamaño del mensaje es mayor en la conmutación de mensaje ya que se añade información extra de
encaminamiento (cabecera del mensaje) a la comunicación, lo que implica disminución del rendimiento del canal y
una mayor complejidad en los nodos intermedios puesto que tienen que analizar además del mensaje la cabecera de
cada uno para tomar decisiones y examinar los datos del mensaje para comprobar que se ha recibido sin errores,
debido a esto es necesario contar con capacidad de almacenamiento para poder verificar y retransmitir el mensaje
completo, en caso de que la capacidad de almacenamiento se agote y llegue un nuevo mensaje, no puede ser
almacenado y se perderá definitivamente.

Figura XXXII. Conmutación de mensajes.

3.12 Cableado estructurado.

Un "sistema de cableado" es la organización de cables dentro de un edificio que recoge las necesidades de
comunicación) actuales y futuras de una empresa o institución. El cableado es un tipo de instalación que hay que
considerar del mismo modo que se hace con las instalaciones de electricidad, agua, gas, etc. A la hora de realizar el
cableado de un edificio hay que tener en cuenta que la tecnología varía a tal velocidad que las nuevas tendencias
pueden hacer quedar obsoleta cualquier solución adoptada que no prevea una gran capacidad de adaptabilidad.

Un sistema de cableado estructurado es la infraestructura de cable destinada a transportar, a lo largo y ancho de un


edificio, las señales que emite un emisor de algún tipo de señal hasta el correspondiente receptor. Un sistema de
cableado estructurado es físicamente una red de cable única y completa. Con combinaciones de alambre de cobre,
cables de fibra óptica bloques de conexión, cables terminados en diferentes tipos de conectores y adaptadores.

Ventajas del cableado estructurado.

El sistema de cableado estructurado posibilita la integración en la red de área local de varios servicios relacionados
(voz, datos, vídeo, etc.) con la misma instalación, independientemente de los equipos y productos que se utilicen.

FELR Página 28
“Redes Básicas”. Tercer Parcial

La principal ventaja de estos sistemas es que se encuentran regulados mediante estándares, lo que garantiza a los
usuarios su disposición para las aplicaciones existentes, independientemente del fabricante de las mismas, siendo
soluciones abiertas, fiables y muy seguras, unificándose entre otras cosas las normas de diseño de los sistemas de
cableado, su topología, las distancias, tipo de cables, los conectores, etc.

Otras ventajas adicionales son:

• Facilidad y flexibilidad de mantenimiento, pudiéndose dejar aisladas ciertas partes de la instalación sin
afectar al funcionamiento global.
• Facilidad de ampliación, sin necesidad de modificar la instalación existente.
• Aumento de la seguridad, tanto a nivel de datos como a nivel de seguridad personal.
• Facilidad de instalación, pues al tratarse de un mismo tipo de cable, se instala todo sobre el mismo trazado.
• Alta calidad de cableado, lo que permite la transmisión de altas velocidades para redes.

Normatividad.

El cableado estructurado se encuentra regularizado, en concreto bajo los siguientes estándares:

• ANSI/EIA/TIA-568A-B que es la norma de EE.UU. Éste último es el más extendido aunque entre todas ellas
no existen diferencias demasiado significativas. Este estándar define un sistema genérico de alambrado de
telecomunicaciones para edificios comerciales que puedan soportar un ambiente de productos y
proveedores múltiples. El propósito de este estándar es permitir el diseño e instalación del cableado de
telecomunicaciones contando con poca información acerca de los productos de telecomunicaciones que
posteriormente se instalarán. La instalación de los sistemas de cableado durante el proceso de instalación
y/o remodelación son significativamente más baratos e implican menos interrupciones que después de
ocupado el edificio.
• ANSI/TIA/EIA-569 Rutas y Espacios de Telecomunicaciones para Edificios Comerciales. Este estándar
reconoce tres conceptos fundamentales relacionados con telecomunicaciones y edificios:
Los edificios son dinámicos. Durante la existencia de un edificio, las remodelaciones son más la regla que la
excepción. Este estándar reconoce, de manera positiva, que el cambio ocurre.
Los sistemas de telecomunicaciones y de medios son dinámicos. Durante la existencia de un edificio, los equipos
de telecomunicaciones cambian dramáticamente. Este estándar reconoce este hecho siendo tan
independiente como sea posible de proveedores de equipo.
Telecomunicaciones es más que datos y voz. Telecomunicaciones también incorpora otros sistemas tales como
control ambiental, seguridad, audio, televisión, alarmas y sonido. De hecho, telecomunicaciones incorpora
todos los sistemas de bajo voltaje que transportan información en los edificios.
Este estándar reconoce un precepto de fundamental importancia: De manera que un edificio quede
exitosamente diseñado, construido y equipado para telecomunicaciones, es imperativo que el diseño de las
telecomunicaciones se incorpore durante la fase preliminar de diseño arquitectónico.
• Estándar ANSI/TIA/EIA-606 Administración para la Infraestructura de Telecomunicaciones de Edificios
Comerciales. El propósito de este estándar es proporcionar un esquema de administración uniforme que sea
independiente de las aplicaciones que se le den al sistema de cableado, las cuales pueden cambiar varias
veces durante la existencia de un edificio. Este estándar establece guías para dueños, usuarios finales,
consultores, contratistas, diseñadores, instaladores y administradores de la infraestructura de
telecomunicaciones y sistemas relacionados.

Todas estas normas se han diseñado con el objeto de proporcionar un sistema de cableado genérico de
comunicaciones para edificios comerciales, bajo unos medios de transmisión, topología, puntos de terminación y
conexión, así como administración, bien definidos.

Veamos a continuación los distintos subsistemas en que podemos dividir el sistema de cableado estructurado.

FELR Página 29
“Redes Básicas”. Tercer Parcial

Subsistemas principales de un cableado estructurado

El cableado estructurado para instalación de nodos de red tiene 6 subsistemas, regulados por el estándar ANSI / TIA-
568-C.0 (cableado de telecomunicaciones genéricas para las instalaciones del cliente) y por el ANSI / TIA-568-C.1
(de cableado de telecomunicaciones para edificios comerciales para infraestructuras comerciales). Los subsistemas
del cableado están determinados por estas normas con el fin de estandarizar como cómo diseñar, construir y
administrar un sistema de cableado estructurado. Los seis componentes clave son:

1. Entrada al edificio o acometida


2. Cuarto de equipos (MDF).
3. Cableado Vertical o Backbone
4. Cuarto de armarios o bastidores de telecomunicaciones (IDF).
5. Cableado Horizontal
6. Área de trabajo

Figura XXXIII. Subsistemas de cableado estructurado.

3.12.1 Entrada al edificio o acometida.

Hace referencia al punto en el que el cableado externo, hace interfaz con el cableado vertical del edificio. Consisten
en la entrada del servicio de telecomunicaciones al edificio y las vías principales entre los edificios y abarca los cables,
el punto de demarcación de la red, el hardware de conexión, los dispositivos de protección y otros equipos que se
conectan al proveedor de acceso o al cableado de la red privada. Las conexiones se realizan entre la planta exterior
y el cableado interno del edificio.

Comúnmente la Acometida se la llamará a la tubería que está del lado de la propiedad que recibe el servicio
asumiendo que el Proveedor que lo entrega lo entregará a "Pie de Calle", es decir, limitará su responsabilidad a llegar
hasta la entrada del domicilio y será responsabilidad de quien recibe el servicio proveer de la Derivación, Ramal o
"Acometida" para hacer uso de éste.

Figura XXXIV. Esquema del Sistema de cableado estructurado.

FELR Página 30
“Redes Básicas”. Tercer Parcial

Cuando se contrata un Enlace Dedicado para Internet con un Carrier de Telecomunicaciones el nivel de servicio es
más elevado que un servicio de Internet convencional o residencial, eso implica que el Carrier o Proveedor de
Internet tenga que asegurar con mayor rigor la estabilidad de su enlace, que en la mayoría de los casos, es de Fibra
Óptica.

Así que el Carrier buscará que su fibra no sea sujeta a inclemencias del tiempo o a factores externos que puedan
ocasionar su daño o corte en la medida de lo posible cuidando todo el recorrido del cable ya sea por aire o por
tuberías subterráneas, pero será también para ellos crítico el punto de acometida hasta donde el cliente desea la
fibra colocada. Así que el carrier, para proveer un enlace dedicado exigirá cierto estándar de calidad al cliente de la
tubería o canalización que viaje por dentro de las instalaciones del cliente.

La acometida consiste en la entrada de servicios de telecomunicaciones al edificio, los métodos básicos para entrar al
edificio son:

• Subterráneo: Consiste en un conduit, un ducto y un canal, todos los conduit deben ser de 4”
• Enterrado: Los cables de servicio están enterrados sin protección adicional, es realizado por medio de
zanjas, agujeros, taladros o arado.
• Aéreo: Consiste en postes, líneas de soporte para cables y sistemas de apoyo

Figura XXXV. Subsistema de Acometida

3.12.2. Cuarto de telecomunicaciones o cuarto de equipos (MDF).

Este es el espacio destinado a almacenar los equipos de telecomunicación del edificio. Las especificaciones para este
espacio están establecidas en el estándar TIA/EIA 569 A. El cuarto de equipos es el lugar centralizado para alojar los
equipos dentro de los sistemas de telecomunicaciones de construcción (servidores, conmutadores, etc.) y las
terminaciones mecánicas del sistema de cableado de telecomunicaciones. A diferencia del armario de
telecomunicaciones, la sala de equipos contiene componentes más complejos.

Figura XXXVI. Subsistema de cuarto de equipos.

Este componente del cableado estructurado constituye el punto de interconexión de la red local privada del edificio
y los servicios de telecomunicaciones de empresas suministradoras externas, siendo el centro de la red de voz y
datos.

FELR Página 31
“Redes Básicas”. Tercer Parcial

Está constituido como una sala de telecomunicaciones que puede albergar el marco de distribución, servidores de
red, enrutadors, switches, PBX telefónico, protección secundaria de voltaje, receptores satelitales, moduladores y
equipos de Internet de alta velocidad, entre otros.

Un elemento importante de este componente será el nodo central de distribución a cada uno de los cuartos de
telecomunicaciones, es decir, el switch o hub que dará servicio de datos a cada uno de los switch intermedios de la
red. Dicho elemento estará montado contra una pared con una consola con bisagra, un armario para alojar el
equipamiento completo, o un bastidor de distribución.

El número y tamaño de los ductos utilizados para acceder al cuarto de equipos s varía con respecto a la cantidad de
áreas de trabajo, sin embargo se recomienda por lo menos tres ductos de 100 milímetros (4 pulgadas) para la
distribución del cable del backbone ANSI/TIA/EIA-569. Los ductos de entrada deben de contar con elementos de
retardo de propagación de incendio "firestops".

Figura XXXVII. Áreas de un cableado estructurado

3.12.3 Cableado Vertical o Backbone.

El cableado de red troncal también se conoce como cableado vertical. Ofrece la conectividad entre los cuartos de
telecomunicaciones, salas de equipos, espacios de proveedores de acceso e instalaciones de entrada. El cable
funciona en el mismo piso, de piso a piso, e incluso entre edificios. La distancia del cable depende del tipo de cable y
de las instalaciones conectadas, pero el cable de par trenzado está limitado a 90 metros.

El propósito del cableado vertical "backbone" es proporcionar interconexiones entre cada uno de los concentradores
y conmutadores, que a través del cableado horizontal controlan las distintas áreas de trabajo, y el o los de
telecomunicaciones establecidos en el diseño de la red.

Figura XXXVIII. Subsistema de cableado Vertical.


FELR Página 32
“Redes Básicas”. Tercer Parcial

Este cableado asegura la conexión vertical entre plantas en edificios de varios pisos, proporcionando la
interconexión entre los diferentes cuadros de telecomunicaciones y entre estos y la sala de equipamiento. Incluye
los medios de transmisión (cable), puntos principales e intermedios de conexión y terminaciones mecánicas.

En este subsistema del cableado estructurado ya no resulta viable mantener la integración de servicios utilizada en
el cableado horizontal, sino que es conveniente realizar instalaciones independientes para la telefonía y datos, ya
que de esta forma, si fuera necesario sustituir el backbone, esta separación de servicios posibilitaría hacerlo con un
coste relativamente bajo, y causando muy pocas molestias a los ocupantes del edificio.

Para definir el backbone de datos es necesario tener en cuenta cuál será la disposición física del equipamiento.
Normalmente, el tendido físico del backbone se realiza en forma de estrella, es decir, se interconectan los cuadros de
telecomunicaciones con uno que se define como centro de la estrella, en donde se ubica el equipamiento electrónico
más complejo.

En el diseño e instalación del cableado vertical, Backbone, se utiliza una topología tipo estrella, donde todos los
armarios o cuartos de telecomunicaciones intermedios se conectan con el "cuarto de equipo". Los cuartos de
telecomunicaciones interconectados pueden estar situados en plantas o habitaciones distintas de un mismo edificio
o incluso en edificios colindantes.

El cableado vertical se puede realizar con cables UTP o con fibra óptica. Cuando se emplea cable UTP, se colocará un
cable desde el cuarto de equipo por cada cuarto de telecomunicaciones a conectar con la red. La longitud máxima de
este cableado será de 90 metros para cable de par trenzado UTP. En el caso de ser necesario cubrir una mayor
distancia podemos recurrir a la fibra óptica, con distancias permitidas entre 200 y 300 metros.

A la hora de ordenar el cableado en los cuartos de equipos y de telecomunicaciones en situación intermedia, es


imprescindible planificar el tendido y conexionado de estos, pues de otra forma necesariamente se originará un
entramado de cables confuso y entrelazado, haciendo imposible su identificación, mantenimiento y manipulación.

La administración de cables incorpora la ventaja de facilitar la ampliación y las modificaciones al sistema de


cableado, existiendo en el mercado diversas opciones para los diferentes problemas que se presentan a la hora de
organizar el cableado.

Al diseñar y adquirir los sistemas de administración de cables, se debe prever las siguientes circunstancias:
• El sistema debe evitar que los cables se aplasten y que excedan el radio mínimo de curvatura.
• El sistema debe ser ampliable, es decir, se debe prever la incorporación posterior de cables adicionales.
• El sistema debe ser flexible de modo que se permita la introducción de cables desde cualquier dirección.
• El sistema debe ofrecer una transición sin complicaciones a los trayectos horizontales de modo que no se
dañe el cable y no exceda el radio máximo de acodamiento ni de curvatura.
• Otra parte importante de la administración del cableado estructurado es su rotulación, posibilitando así su
identificación unívoca, evitando posibles confusiones.

De esta forma, los cables deben quedar claramente rotulados en ambos extremos, de modo que cada terminación
presente un identificador exclusivo marcado sobre la unidad o sobre su etiqueta.

3.12.4 Cuarto de armarios o bastidores de telecomunicaciones (IDF).

Alberga las terminaciones de los cables horizontales y de red troncal (Backbone) para conectar hardware que incluye
puentes o cables de conexión. Es un área cerrada, como una habitación o un armario, para albergar equipos de
telecomunicaciones, marcos de distribución, terminaciones de cables y conexiones cruzadas. Cada edificio debe
tener al menos un armario de cableado y el tamaño del armario depende del tamaño del área de servicio. Su función
principal de este elemento es la terminación del cableado horizontal y vertical y la interconexión entre ambos.
Delimita la zona dentro del edificio utilizada para el uso exclusivo de equipo asociado con el sistema de cableado de
telecomunicaciones.
FELR Página 33
“Redes Básicas”. Tercer Parcial

Figura XXXIX. Subsistema de armarios o bastidores de telecomunicaciones.

El espacio del cuarto de telecomunicaciones no debe ser compartido con otras instalaciones no afines, debiendo ser
capaz de albergar el equipo necesario para la función que está diseñado, terminaciones de cable y cableado de
interconexión asociado.

El diseño de cuartos de telecomunicaciones debe considerar, además de voz y datos, la incorporación de otros
sistemas de información del edificio tales como televisión por cable (CATV), alarmas, seguridad, audio y otros
sistemas de telecomunicaciones. Todo edificio debe contar con al menos un cuarto de telecomunicaciones o cuarto
de equipo.

Los elementos del cableado estructurado se localizarán en habitaciones independientes, ubicadas por lo menos una
por piso, estando dispuestos habitualmente mediante armarios estándar de 19 pulgadas, con aproximadamente 66
cm de profundidad, 74 cm de ancho y una altura entre 1,5 y 2 metros, incorporando una puerta frontal de acceso,
con el requerimiento de disponer de espacio suficiente delante para su apertura, aproximadamente unos 80 cm.

El bastidor de distribución debe tener un mínimo de 1 metro de espacio libre para poder trabajar en la parte
delantera y trasera del bastidor. En el montaje del bastidor de distribución, se deberá asegurar la necesaria
estabilidad del conjunto y respetar las distancias mínimas recomendadas para su manipulación posterior.

Los armarios de telecomunicaciones estarán configurados de forma genérica con las siguientes secciones:
• Acometida para el cableado horizontal de las áreas de trabajo.
• Acometida para el cableado vertical, Backbone, de datos.
• Componentes electrónicos de la red de datos: Hubs, Switches, Bridges y otros dispositivos necesarios.
• Alimentación eléctrica para dichos dispositivos.
• Iluminación interna para facilitar la realización de trabajos en el gabinete.
• Ventilación a fin de mantener la temperatura interna dentro de límites aceptables.
• Finalmente, recomendar que, a la hora de diseñar el interior de estos habitáculos, habrá que tener en cuenta
y prever futuras ampliaciones de la red, facilitando así su crecimiento, modificación y mantenimiento.

La altura mínima recomendada del cielo raso es de 2.6 metros. Se debe evitar el uso de cielos falsos en los cuartos de
telecomunicaciones. Los pisos de los CT deben soportar una carga de 2.4 kPa. Entre TC de un mismo piso debe haber
mínimo un conduit de 75 mm.

3.12.5 Cableado Horizontal

El cableado horizontal es todo el cableado entre una toma de telecomunicaciones en un área de trabajo y la conexión
en el armario de telecomunicaciones, incluyendo cable horizontal, terminaciones mecánicas, puentes y cables de
conexión ubicados en la sala de telecomunicaciones, conjuntos de tomas de telecomunicaciones multiusuario y
puntos de consolidación. Este tipo de cableado se extiende horizontalmente por encima de los techos o debajo de los
pisos de un edificio. A pesar de los tipos de cable, la distancia máxima permitida entre dispositivos es de 90 metros.

FELR Página 34
“Redes Básicas”. Tercer Parcial

Figura XL. Subsistema de cableado Horizontal.

El cableado horizontal consiste de dos elementos básicos:

• Cable Horizontal y Hardware de Conexión. (también llamado "cableado horizontal"). Proporcionan los
medios para transportar señales de telecomunicaciones entre el área de trabajo y el cuarto de
telecomunicaciones. Estos componentes son los "contenidos" de las rutas y espacios horizontales.
• Rutas y Espacios Horizontales. (también llamado "sistemas de distribución horizontal"). Las rutas y
espacios horizontales son utilizados para distribuir y soportar cable horizontal y conectar hardware entre la
salida del área de trabajo y el cuarto de telecomunicaciones.

El cableado horizontal deberá diseñarse para ser capaz de manejar diversas aplicaciones de usuario incluyendo:
• Comunicaciones de voz (teléfono).
• Comunicaciones de datos.
• Redes de área local.

Distancia del cable:

La distancia horizontal máxima es de 90 metros independiente del cable utilizado. Esta es la distancia desde el área
de trabajo de telecomunicaciones hasta el cuarto de telecomunicaciones. Al establecer la distancia máxima se hace
la previsión de 10 metros adicionales para la distancia combinada de cables de empate (3 metros) y cables utilizados
para conectar equipo en el área de trabajo de telecomunicaciones y el cuarto de telecomunicaciones.

Figura XLI. Distancias del cableado estructurado.

FELR Página 35
“Redes Básicas”. Tercer Parcial

Interferencia electromagnética:

• A la hora de establecer la ruta del cableado de los closets de alambrado a los nodos es una consideración
primordial evitar el paso del cable por los siguientes dispositivos:
• Motores eléctricos grandes o transformadores (mínimo 1.2 metros).
• Cables de corriente alterna
o Mínimo 13 cm. para cables con 2KVA o menos
o Mínimo 30 cm. para cables de 2KVA a 5KVA
o Mínimo 91cm. para cables con mas de 5KVA
• Luces fluorescentes y balastros (mínimo 12 centímetros). El ducto debe ir perpendicular a las luces
fluorescentes y cables o ductos eléctricos.
• Intercomunicadores (mínimo 12 cms.)
• Equipo de soldadura
• Aires acondicionados, ventiladores, calentadores (mínimo 1.2 metros).
• Otras fuentes de interferencia electromagnética y de radio frecuencia.

Tipos de cable:

Los tres tipos de cable reconocidos por ANSI/TIA/EIA-568-A para distribución horizontal son:

• Par trenzado, cuatro pares, sin blindaje (UTP) de 100 ohmios, 22/24 AWG
• Par trenzado, dos pares, con blindaje (STP) de 150 ohmios, 22 AWG
• Fibra óptica, dos fibras, multimodo 62.5/125 mm

3.12.6 Área de Trabajo

Se define área de trabajo como la zona donde están los distintos equipos terminales de la red. El área de trabajo se
refiere al espacio donde los componentes del cable se utilizan entre las salidas de comunicación y el equipo de
telecomunicaciones del usuario final. Los componentes del cable a menudo incluyen equipos terminales, cables de
conexión y salidas de comunicación.

Figura XLII. Subsistema del área de trabajo.

Estos equipo terminales pueden consistir en equipos de cómputo, impresoras en red, terminales telefónicos e
incluso equipo de video y audio y en, general, cualquier dispositivo con tarjeta de red que deba ser conectado dentro
del área afectada. Para cada uno de ellos deberá existir una roseta de conexión que permita conectar el dispositivo
que se quiera integrar en la red a través de un "latiguillo independiente". Hay que tener en cuenta que la norma
impide superar los 3 metros de longitud para cada uno de los latiguillos (cable de red también es conocido
principalmente por los instaladores como patch cord, usados para conectar al usuario final (user cord) o para
conectar equipos dentro del panel de conexiones (patch panel).

FELR Página 36
“Redes Básicas”. Tercer Parcial

Figura XLIII. Componentes del cableado estructurado.

El área de trabajo del sistema de cableado estructurado comprende la parte de red entre la roseta de conexión hasta
los equipos terminales conectados, incluidos cualquier filtro, adaptador, etc., que se necesite, disponiéndose cada
uno de estos elementos en el exterior de la roseta. Esté área se estructura a través de latiguillos de cable de red
independientes para cada uno de los equipos.

Si el cable se utiliza para compartir voz, datos u otros servicios, cada uno de estos servicios deberá de tener un
conector diferente en la propia roseta de conexión.

Hay que tener en cuenta que el área de trabajo comienza en las rosetas, sin incluirlas, que de forma dedicada se
disponen para cada uno de los equipos. Estas rosetas deben quedar unidas a un elemento superior de red,
probablemente un conmutador o concentrador propio de área.

Los ductos a las salidas de área de trabajo deben proveer la capacidad de manejar tres cables. Las salidas de área de
trabajo deben contar con un mínimo de dos conectores.

Todos estos cables, en un sistema de cableado estructurado, quedan terminados mediante conectores RJ45,
conectores de 8 pines. Existen dos asignaciones pin-par, la llamada T-568A y la T-568B. Cada una de ellas define un
orden de conexión, el estándar T-568B es el más empleado.

A la hora de elaborar un cable de par trenzado tenemos dos posibilidades:

• Cable directo: Se emplea para conectar equipos "desiguales", como una computadora, por medio de su
tarjeta de red, a un Switch. Este cable mantiene el orden del cableado en ambos extremos.

Figura XLIV. Cable de conexión directa.

FELR Página 37
“Redes Básicas”. Tercer Parcial

Cable cruzado: Se emplea para conectar equipos "iguales", como dos computadoras entre sí o dos Switches entre sí.
En este tipo de cable la configuración de los extremos en cada conector RJ45 es diferente, cruzándose los terminales
de transmisión de un lado para que lleguen a los terminales de recepción del otro y viceversa, tal y como queda
reflejado en la figura siguiente:

Figura XLV. Cable de conexión cruzada.

Sin embargo, los concentradores y conmutadores de hoy en día tienen la prestación adicional de admitir
interconexiones mediante cable directo, auto configurándose internamente en función del tipo de conexión
detectada. Otros, pueden disponer de conectores específicos para conexionado por cable directo o cable cruzado, o
disponen de un interruptor, marcado con "X", para la selección del tipo de cable conector. Así, en general, se podrá
emplear cable directo en todas las conexiones de la red local.

3.12.7 Instalación de cableado estructurado.

La instalación de un sistema de cableado estructurado se puede establecer en las siguientes cuatro etapas:

• Etapa de preparación: En esta fase se instalan todos los cables en los techos, paredes, conductos del piso, y
conductos verticales. Durante esta etapa, se tiende el cableado desde el área de trabajo a las salas individuales
o cuartos de telecomunicaciones, estableciéndose el cableado horizontal, y desde estos al cuarto de equipo,
cableado vertical. Es en este momento donde se rotulan los cables y conexiones para permitir su
identificación.
• Etapa de recorte: Las tareas principales durante la fase de recorte son la administración de los cables y la
terminación de los hilos.
• Etapa de terminación: Las tareas principales durante la fase de terminación son las pruebas de los cables y
de diagnóstico de problemas y certificación.
• Etapa de asistencia al cliente: En esta etapa, el cliente inspecciona la red y se le presentan los resultados
formales de las pruebas y otra documentación, como por ejemplo, esquemas de la instalación terminada. En
esta fase también se incluye la asistencia técnica posterior a la entrega de la instalación.

Como norma general, las consideraciones a seguir son:


• Colocar un máximo 2 switch en cascada.
• Situar la conexión central del edificio en el centro del mismo, de forma que se limite las longitudes de los
cables, tanto los horizontales como los verticales.
• No conectar dispositivos que tengan una categoría inferior a la del cable que se está utilizando. La instalación
será catalogada por el valor de menor categoría de los componentes instalados.
• No dejar el cable tensado y no utilizar bridas para sujetarlo, ni doblar el cable en ángulos demasiado agudos.
• No instalar el cable cerca de lugares donde exista altos niveles de interferencia electromagnética.
• Se debe asegurar que el agua no penetrará en los conductos del cableado.
• No se permite utilizar los conductos dedicados para ascensores para instalar cableado horizontal.
• Deberá existir al menos un armario de distribución por cada planta del edificio.
• No se debe utilizar el falso techo para alojar el cableado.
• Proteger el edificio contra tormentas eléctricas siguiendo la normativa vigente.
• Todas las conexiones de los dispositivos de la instalación deberán realizarse siguiendo una topología en
estrella.
FELR Página 38
“Redes Básicas”. Tercer Parcial

• No se permite conectar más de dos concentradores en cascada si se desea que la instalación cumpla con las
categorías 5, 5e, 6 ó 7.

3.13 Repetidores activos y pasivos.

Se puede definir al radio enlace del servicio fijo, como sistemas de comunicaciones entre puntos fijos situados
sobre la superficie terrestre, que proporcionan una capacidad de información, con características de calidad y
disponibilidad determinadas. Típicamente estos enlaces se explotan entre los 800 MHz y 42 GHz del espectro
electromagnético.

Los radioenlaces, establecen un concepto de comunicación del tipo dúplex, de donde se deben transmitir dos
portadoras moduladas: una para la Transmisión y otra para la recepción. Al par de frecuencias asignadas para la
transmisión y recepción de las señales, se lo denomina radio canal. Los enlaces se hacen básicamente entre puntos
visibles, es decir, puntos altos de la topografía.

Para poder calcular las alturas libres debe conocerse la topografía del terreno, así como la altura y ubicación de los
obstáculos que puedan existir en el trayecto.

Figura XLVI. Radioenlace.

Se describe como microondas a aquellas ondas electromagnéticas cuyas frecuencias van desde los 500 MHz hasta
los 300 GHz o aún más. Por consiguiente, las señales de microondas, a causa de sus altas frecuencias, tienen
longitudes de onda relativamente pequeñas, de ahí el nombre de “micro” ondas. Así por ejemplo la longitud de onda
de una señal de microondas de 100 GHz es de 0.3 cm., mientras que la señal de 100 MHz, como las de banda comercial
de FM, tiene una longitud de 3 metros. Las longitudes de las frecuencias de microondas van de 1 a 60 cm., un poco
mayores a la energía infrarroja.

Un radioenlace terrestre o microondas provee conectividad entre dos sitios (estaciones terrenas) en línea de vista
(Line – of - Sight, LOS) usando equipo de radio con frecuencias de portadora por encima de 1 GHz. La forma de onda
emitida puede ser analógica (convencionalmente en FM) o digital.

Las principales aplicaciones de un sistema de microondas terrestre son las siguientes:

• Telefonía básica (canales telefónicos)


• Datos
• Telégrafo / Telex / Facsímile
• Canales de Televisión.
• Vídeo
• Telefonía Celular (Troncales)

FELR Página 39
“Redes Básicas”. Tercer Parcial

Los repetidores son estaciones fijas que trasmiten las señales que son recibidas, poseen características técnicas
particulares y están ubicadas en lugares geográficos estratégicos que les permiten cubrir determinada área del
sistema de comunicación, generalmente las estaciones repetidoras funcionan controlándose de forma no
permanente, tele-controlándose desde otros puntos o realizando visitas periódicas con espacios de tiempo largos,
puesto que en la mayoría de los casos son lugares de difícil acceso.

En los casos en que una ruta de acceso de microondas directa no se pueda establecer, es decir que no hay línea de
vista entre dos puntos, es posible establecer una ruta con un repetidor. La función de este repetidor es redirigir la
señal con el fin de pasar el haz de microondas por encima del obstáculo, obviamente el principal requisito es que
debe haber una clara línea de visión directa entre el repetidor y ambos lados del enlace de microondas.

Figura XLVII, Repetidores de microondas.

3.13.1 Repetidores activos.

En ellos se recibe la señal en la frecuencia de portadora y se la baja a una frecuencia intermedia (FI) para amplificarla
y retransmitirla en la frecuencia de salida. No hay demodulación y son transceptores. Un transceptor es un
dispositivo que cuenta con un transmisor y un receptor que comparten parte de la circuitería o se encuentran dentro
de la misma caja. Cuando el transmisor y el receptor no tienen en común partes del circuito electrónico se conoce
como transceptor.

Este tipo de repetidores son los más comunes, están constituidos en su mayoría por un espacio para albergar equipos
de radio, baterías, rectificadores y demás equipos, poseerá también la torre necesaria para colocar la o las antenas,
por su constitución deberá ser necesariamente un lugar en el cual se cuente con energía eléctrica. La principal
función del repetidor activo es tomar la señal en la frecuencia de llegada, trasladarla a una frecuencia intermedia,
amplificar la señal y retransmitir en la frecuencia de salida, aquí no existe demodulación de la señal por lo que la
información que lleva la señal no es procesada constituyendo a este tipo de repetidor un conjunto de equipos de
transmisión-receptor para cada sentido de transmisión.

Un sitio con un repetidor activo contiene dos terminales completas de radio de microondas: antenas, cables coaxiales
o guías de onda, y otros componentes, y es una solución mucho más costosa que el repetidor pasivo, puesto que se
requiere un recinto para el equipo, planta eléctrica, una estructura de la antena de montaje de algún tipo.

La mejor manera de evitar el uso de repetidores en los enlaces de microondas es cuidar exhaustivamente la
planificación del radioenlace y ejecutar el diseño de la red de microondas y estratégicamente, sin embargo hay
ocasiones en que el uso de repetidores es imprescindible.

3.13.2 Repetidores pasivos.

Se comportan como espejos que reflejan la señal y se los puede dividir en pasivos convencionales, que son una
pantalla reflectora y los pasivos back-back, que están constituidos por dos antenas espalda a espalda. Se los utiliza
en ciertos casos para salvar obstáculos aislados y de corta distancia.

Suelen darse situaciones en las que es necesario colocar un repetidor en lugares de difícil acceso en donde es
imposible por razones técnicas o económicas llevar alimentación eléctrica, estos lugares pueden ser la cima de una
montaña, una zona protegida por motivos ambientales o que las líneas de transmisión eléctricas deban atravesar un
terrenos particular con cuyos propietarios no se puedan llegar a un acuerdo.

FELR Página 40
“Redes Básicas”. Tercer Parcial

Los repetidores pasivos se utilizan para cambiar la dirección de la señal de radio con el fin de superar los obstáculos
de visión directa entre dos estaciones de microondas, su misión es cambiar la dirección del haz radioeléctrico sin
regenerar ni amplificador la ganancia de la señal. También se emplean cuando el costo en comparación con un
repetidor activo es demasiado alto.

Utilizar un repetidor pasivo no sólo es más barato de hacer uso de un repetidor activo, el costo de operación también
se reduce sustancialmente. Además los repetidores pasivos tienen una gran ventaja sobre los repetidores activos
desde el punto de vista de la ecología, ya que no es necesario construir vías de acceso, ni implementar líneas de
alimentación eléctrica hacia el sitio del repetidor, este tipo de repetidores requieren un mantenimiento mínimo y
cuando es necesario visitarlo se lo puede hacer a caballo, a pie, o helicóptero, su instalación es menos costosa, al igual
que su operación, al tiempo que ofrece una alta fiabilidad.

Hay dos tipos de repetidores pasivos en uso. Uno consiste en dos antenas parabólicas conectadas espalda con espalda
a través de un pequeño trozo de línea de transmisión. La otra, es un reflector plano que actúa como un espejo de
microondas.

• Repetidores Espejo. El repetidor espejo o también conocido como reflector es una plancha metálica que
refleja la señal entre las antenas de las estaciones receptor y transmisora para salvar los obstáculos que se
presenten en la trayectoria cambiando la dirección del campo electromagnético. El repetidor pasivo tipo
espejo es el más utilizado y su ganancia corresponde al cociente entre el área del espejo en la dirección de
propagación y el área eficaz de la antena isotrópica.

Figura XLVIII. Repetidor pasivo de espejo.

• Repetidores “Back-to-Back” o “Espalda-Espalda”. El repetidor pasivo espalda-espalda o más conocido


como “back-to-back” dispone de líneas de transmisión como el cable coaxial o guía de ondas que conectan
una antena a la otra, con unos pocos metros de distancia. Aquí la ganancia total es la cercana a la suma de las
ganancias individuales de las antenas. Puede existir una interferencia entre antenas debido a la emisión
frente-espalda de cada antena, que en estos casos es despreciable, la instalación y la orientación en el
repetidor espalda-espalda es más simple que en el tipo espejo, sin embargo un espejo de gran tamaño puede
tener una ganancia mayor.

Figura XLIX. Repetidor pasivo back to back.

Los repetidores back-to-back y en general lo repetidores pasivos solo son útiles cerca de una de las antenas y para
enlaces relativamente cortos debido a la suma de atenuaciones que sufre la señal en la trayectoria.

FELR Página 41
“Redes Básicas”. Tercer Parcial

Unidad IV: Protocolos de Enlace de Datos.


Un modelo de red permite que cada capa funcione con un mínimo interés por los papeles de las otras capas. La capa
de enlace de datos releva a las capas superiores de la responsabilidad de colocar datos en la red y de recibir datos
de la red. Esta capa proporciona servicios para soportar los procesos de comunicación para cada medio por el cual
se transmitirán los datos.

El nivel de Enlace o nivel 2 del modelo OSI, es el encargado de establecer una línea de comunicación, libre de errores,
que pueda ser utilizada por el nivel de Red. La capa de Enlace ya no opera con bits, como hace la capa inmediatamente
inferior, la capa Física, Mientras el nivel Físico proporciona únicamente un servicio de transmisión de bits aislados,
que no tienen significado por sí mismos, a través de un canal, el nivel de Enlace tiene el objetivo de hacer la
comunicación fiable y libre de errores proporcionando los medios para activar, mantener y desconectar el Enlace.

De forma general, los errores y velocidades de transmisión dependen del medio de transmisión utilizado: La fibra
óptica y las redes locales suelen tener las tasas más bajas de errores y las mayores velocidades de transmisión,
mientras que las transmisiones inalámbricas con equipos móviles como GSM o LANs inalámbricas, o las conexiones
sobre telefonía analógica, suelen tener las más altas de errores y las menores velocidades de transmisión. Por ello,
la capa de Enlace trabaja con bloques fraccionados del mensaje, llamados tramas o marcos, constituidos por parte
de la información del usuario y por información adicional que se le añade para el encaminamiento de las tramas, la
recuperación de errores, etc.

En cualquier intercambio de paquetes de capas de red, puede haber muchas transiciones de medios y capa de enlace
de datos. En cada salto a lo largo de la ruta, un dispositivo intermediario, generalmente un enrutador, acepta las
tramas de un medio, desencapsula la trama y luego envía el paquete a una nueva trama apropiada para los medios
de tal segmento de la red física.

Figura L. Diferentes tecnologías LAN en la capa de enlace de datos.

Históricamente, los protocolos de nivel de enlace se han clasificado según dos criterios, diferentes pero ambos
relacionados con el sincronismo:

• Según el modo de sincronización: síncronos y asíncronos


• Según la mínima unidad de información tratada: orientación a bit, carácter o mensaje.

La familia de protocolos orientados a carácter se caracterizan por utilizar transmisiones de información codificadas,
normalmente en código ASCII, donde se reservan una serie de códigos especiales –códigos de control– para
controlar la comunicación.

La familia de protocolos orientados a bit es la que, a la postre, ha prevalecido en la industria, siendo la base de la
mayor parte de los protocolos de enlace que se utilizan en la actualidad, y en particular, en Redes de Área Local. Los
protocolos orientados a bit son absolutamente independientes del código utilizado. Codifican el control de las
comunicaciones por la posición y el valor de los distintos bits que componen los campos de control de la trama. Su
eficiencia es mayor que la de los protocolos orientados a carácter y obviamente, son absolutamente transparentes.

FELR Página 42
“Redes Básicas”. Tercer Parcial

4.1 Funciones del nivel de enlace de datos.

La capa de enlace de datos proporciona un medio para intercambiar datos a través de medios locales comunes. La
capa de enlace de datos realiza dos servicios básicos:

• Permite a las capas superiores acceder a los medios usando técnicas, como tramas.

• Controla cómo los datos se ubican en los medios y son recibidos desde los medios usando técnicas como
control de acceso a los medios y detección de errores.

Figura LI. Términos en la capa de Enlace de datos.

Como con cada una de las capas OSI, existen términos específicos para esta capa:

• Trama: el PDU de la capa de enlace de datos.


• Nodo: la notación de la Capa 2 para dispositivos de red conectados a un medio común.
• Medios/medio (físico): los medios físicos para la transferencia de información entre dos nodos.
• Red (física): dos o más nodos conectados a un medio común.

La capa de enlace de datos es responsable del intercambio de tramas entre nodos a través de los medios de una red
física. La capa de enlace deberá ser capaz de realizar las siguientes funciones:

• Detección de Errores.

La capa de enlace incluye “Mecanismos de Detección de Errores” que permiten determinar al extremo receptor si
una trama es correcta o si, por el contrario, ha sufrido alguna alteración durante la transmisión debido a ruidos u
otros fenómenos adversos. La detección de errores suele llevarse a cabo mediante la inclusión de códigos de paridad
o códigos de redundancia cíclica (CRC) en cada trama transmitida.

• Recuperación ante fallos.

La capa de enlace se encarga de la retransmisión de todas las tramas pérdidas o erróneas cuando se produce un fallo
en la transmisión. El mecanismo más habitual consiste en que el extremo receptor envía una confirmación (ACK,
acknowledge) por cada trama correcta recibida. Si el emisor no recibe la trama de confirmación, significa que la
trama de datos correspondiente se ha perdido o ha sufrido un error en la transmisión, por lo que deberá
retransmitirla.

• Control de flujo.

Para evitar la pérdida de datos es necesario evitar que un emisor rápido pueda llegar a saturar a un receptor lento.
Para ello los “Mecanismos de Control de Flujo” permiten regular la cantidad de información que se puede enviar al
extremo receptor en función de las limitaciones de éste.

FELR Página 43
“Redes Básicas”. Tercer Parcial

• Acceso al medio y gestión del enlace.

Los protocolos de la Capa 2 especifican la encapsulación de un paquete en una trama y las técnicas para colocar y
sacar el paquete encapsulado de cada medio. La técnica utilizada para colocar y sacar la trama de los medios se
llama método de control de acceso al medio. Para que los datos se transfieran a lo largo de una cantidad de medios
diferentes, puede que se requieran diferentes métodos de control de acceso al medio durante el curso de una única
comunicación. Cuya función es garantizar la transmisión administrando la utilización del medio físico.

La utilización de protocolos garantiza la compatibilidad de los distintos equipos que se quieren comunicar. Los
protocolos realizan una serie de funciones, destacando, entre ellas, el establecimiento y la finalización de la
comunicación, el envío de los mensajes y la detección y corrección de errores, obteniendo así un máximo
rendimiento de los medios de transmisión utilizados.

El nivel de enlace de datos puede ser diseñado para ofrecer diferentes clases de servicios. La clase de servicio puede
variar de un sistema a otro. Las tres posibilidades más razonables son:

• Servicio no orientado a conexión y no confirmado: Consiste en hacer que la máquina fuente mande
tramas a la máquina destino sin que esta última tenga que reconocerlas. No se establece ninguna conexión
(o acuerdo previo) antes de la transmisión de los datos. Si una trama se pierde o queda dañada por ruido en
el canal de transmisión no será misión del nivel de enlace el corregir la deficiencia.
• Servicio no orientado a conexión y confirmado: Significa que por cada trama que manda espera que le
llegue un reconocimiento. De esta manera, el emisor sabe si la trama ha llegado satisfactoriamente. Si no llega
el reconocimiento correspondiente pasado un tiempo determinado desde la emisión de la trama, el emisor
asume que su trama no llegó o llegó dañada y la retransmite.
• Servicio orientado a conexión Es el servicio más sofisticado que el nivel de enlace de datos puede
proporcionar al nivel de red. Con este servicio las máquinas fuente y destino establecen una conexión antes
de transmitir los datos. Cada trama que se envía, sobre la conexión establecida, se numera y el nivel de enlace
garantiza que cada trama se recibe una sola vez y que se reciben en el orden correcto. Esto no se puede
garantizar con el servicio sin conexión, pues la pérdida de reconocimiento provoca que una trama pueda ser
enviada varias veces y, por lo tanto, recibida otras tantas.

La configuración del enlace de datos vendrá establecida principalmente por tres características de la transmisión: el
tipo de canal, el modo de transmisión y la calidad de línea.

4.1.1 Entramado de la información.

La capa de enlace encapsula la información procedente de la capa superior en tramas de datos con un formato
específico. La función de entramado deberá habilitar un mecanismo que permita al extremo receptor determinar
donde comienza y donde termina cada trama, incluyendo patrones especiales de principio y fin de trama.

La descripción de una trama es un elemento clave de cada protocolo de capa de enlace de datos. Los protocolos de
capa de enlace de datos requieren información de control para permitir que los protocolos funcionen. La información
de control puede indicar:

• Qué nodos están en comunicación con otros


• Cuándo comienza y cuándo termina la comunicación entre nodos individuales
• Qué errores se producen mientras los nodos se comunican
• Qué nodos se comunicarán luego

La Capa de enlace de datos prepara un paquete para transportar a través de los medios locales encapsulándolo con
un encabezado y un tráiler para crear una trama.

FELR Página 44
“Redes Básicas”. Tercer Parcial

Todos los protocolos de capa de enlace de datos encapsulan la PDU de la capa 3 dentro del campo de datos de la
trama. Sin embargo, la estructura de la trama y los campos contenidos en el encabezado y tráiler varían de acuerdo
con el protocolo.

El protocolo de capa de enlace de datos describe las características requeridas para el transporte de paquetes a
través de diferentes medios. Estas características del protocolo están integradas en la encapsulación de la trama.
Cuando la trama llega a su destino y el protocolo de capa de enlace de datos saca la trama del medio, la información
de tramado es leída y descartada.

No hay una estructura de trama que cumpla con las necesidades de todos los transportes de datos a través de todos
los tipos de medios. Según el entorno, la cantidad de información de control que se necesita en la trama varía para
coincidir con los requisitos de control de acceso al medio de los medios y de la topología lógica.

Figura LII. Uso de los protocolos de la capa de enlace

La trama de la capa de enlace de datos incluye:

• Datos: El paquete desde la Capa de red


• Encabezado: contiene información de control como direccionamiento y está ubicado al comienzo del PDU
• Tráiler: contiene información de control agregada al final del PDU

Figura LIII. Entramado en la capa de Enlace de datos.

FELR Página 45
“Redes Básicas”. Tercer Parcial

Existen dos tipos diferentes de trama:

• Trama de datos.- Es la unidad que se transmite. Contiene un elemento de información acompañado por
una cabecera y una cola de control o tráiler.
• Trama de control.- Son las unidades de información que se envían las estaciones para el control y
coordinación del establecimiento y terminación del enlace de datos.

Función del Encabezado.

Como se muestra en la figura, el encabezado de trama contiene la información de control especificada por el
protocolo de capa de enlace de datos para la topología lógica específica y los medios utilizados.

Figura LIV. Encabezado de una trama.

La información de control de trama es única para cada tipo de protocolo. Es utilizada por el protocolo de la Capa 2
para proporcionar las características demandadas por el entorno de comunicación.

Los campos típicos del encabezado de trama incluyen:

• Campo inicio de trama: indica el comienzo de la trama


• Campos de dirección de origen y destino: indica los nodos de origen y destino en los medios
• Prioridad/Calidad del Campo de servicio: indica un tipo particular de servicio de comunicación para el
procesamiento
• Campo tipo: indica el servicio de la capa superior contenida en la trama
• Campo de control de conexión lógica: utilizada para establecer la conexión lógica entre nodos
• Campo de control de enlace físico: utilizado para establecer el enlace a los medios
• Campo de control de flujo: utilizado para iniciar y detener el tráfico a través de los medios
• Campo de control de congestión: indica la congestión en los medios

Los nombres de los campos mencionados son campos no específicos enumerados como ejemplos. Diferentes
protocolos de capa de enlace de datos pueden utilizar diferentes campos de los mencionados. Debido a que los fines
y funciones de los protocolos de capa de enlace de datos están relacionados a las topologías específicas y a los
medios, cada protocolo debe examinarse para tener una comprensión detallada de su estructura de trama.

Función del Tráiler.

Los protocolos de la capa de enlace de datos agregan un tráiler en el extremo de cada trama. El tráiler se utiliza para
determinar si la trama llegó sin errores. Este proceso se denomina detección de errores. Observe que es diferente de
la corrección de errores. La detección de errores se logra colocando un resumen lógico o matemático de los bits que
comprenden la trama en el tráiler.

Figura LV. Tráiler o cola de una trama.

FELR Página 46
“Redes Básicas”. Tercer Parcial

El campo secuencia de verificación de trama (FCS) se utiliza para determinar si ocurrieron errores de transmisión y
recepción de la trama. La detección de errores se agrega a la capa de enlace de datos porque es ahí donde se
transfieren los datos a través de los medios. Los medios son un entorno potencialmente inseguro para los datos. Las
señales en los medios pueden estar sujetas a interferencia, distorsión o pérdida que podría cambiar sustancialmente
los valores de los bits que dichas señales representan. El mecanismo de detección de errores provisto por el uso del
campo FCS descubre la mayoría de los errores causados en los medios.

Para asegurase de que el contenido de la trama recibida en el destino combine con la trama que salió del nodo origen,
un nodo de transmisión crea un resumen lógico del contenido de la trama. A esto se lo conoce como valor de
comprobación de redundancia cíclica (CRC). Este valor se coloca en el campo secuencia de verificación de la trama
(FCS) para representar el contenido de la trama.

Cuando la trama llega al nodo de destino, el nodo receptor calcula su propio resumen lógico, o CRC, de la trama. El
nodo receptor compara los dos valores CRC. Si los dos valores son iguales, se considera que la trama llegó como se
transmitió. Si el valor CRC en el FCS difiere del CRC calculado en el nodo receptor, la trama se descarta.

4.1.3 Direccionamiento.

La capa de enlace de datos proporciona direccionamiento que es utilizado para transportar la trama a través de los
medios locales compartidos. Las direcciones de dispositivo en esta capa se llaman direcciones físicas. El
direccionamiento de la capa de enlace de datos está contenido en el encabezado de la trama y especifica el nodo de
destino de la trama en la red local. El encabezado de la trama también puede contener la dirección de origen de la
trama.

A diferencia de las direcciones lógicas de la Capa 3, que son jerárquicas, las direcciones físicas no indican en qué red
está ubicado el dispositivo. Si el dispositivo es transportado a otra red o subred, aún funcionará con la misma
dirección física de la Capa 2. Direcciones compuestas por 48 bits dividido en 12 dígitos en formato hexadecimal

Figura LVI. Direccionamiento Físico (Direcciones MAC).

Debido a que la trama sólo se utiliza para transportar datos entre nodos a través del medio local, la dirección de la
capa de enlace de datos sólo se utiliza para entregas locales. Las direcciones en esta capa no tienen significado más
allá de la red local. Compare esto con la Capa 3, donde las direcciones en el encabezado del paquete son transportadas
desde el host de origen al host de destino sin importar la cantidad de saltos de la red a lo largo de la ruta.

Si el paquete en la trama debe pasar a otro segmento de la red, el dispositivo intermediario, un router,
desencapsulará la trama original, creará una nueva trama para el paquete y la enviará al nuevo segmento. La nueva
trama usará el direccionamiento de origen y de destino según sea necesario para transportar el paquete a través del
nuevo medio.

La necesidad de direccionamiento de la capa de enlace de datos en esta capa depende de la topología lógica.

Las topologías punto a punto, con sólo dos nodos interconectados, no requieren direccionamiento. Una vez en el
medio, la trama sólo tiene un lugar al cual puede ir.

FELR Página 47
“Redes Básicas”. Tercer Parcial

Debido a que las topologías de anillo y multiacceso pueden conectar muchos nodos en un medio común, se requiere
direccionamiento para esas tipologías. Cuando una trama alcanza cada nodo en la topología, el nodo examina la
dirección de destino en el encabezado para determinar si es el destino de la trama.

Figura LVII. Topologías de acceso al medio.

4.1.2 Estándares de la capa de Enlace de datos.

A diferencia de los protocolos de las capas superiores del conjunto TCP/IP, los protocolos de capa de enlace de datos
generalmente no están definidos por solicitudes de comentarios (RFC). A pesar de que el Grupo de trabajo de
ingeniería de Internet (IETF) mantiene los protocolos y servicios funcionales para la suite de protocolos TCP/IP en
las capas superiores, la IETF no define las funciones ni la operación de esa capa de acceso a la red del modelo. La
capa de acceso de red TCP/IP es el equivalente de las capas de enlace de datos OSI y la física. Estas dos capas se verán
en capítulos separados para un análisis más detallado.

Los protocolos y servicios funcionales en la Capa de enlace de datos son descriptos por organizaciones de ingeniería
(como IEEE, ANSI y ITU) y compañías en comunicaciones. Las organizaciones de ingeniería establecen estándares y
protocolos públicos y abiertos. Las compañías de comunicaciones pueden establecer y utilizar protocolos propios
para aprovechar los nuevos avances en tecnología u oportunidades de mercado.

Los servicios y especificaciones de la capa de enlace de datos se definen mediante varios estándares basados en una
variedad de tecnologías y medios a los cuales se aplican los protocolos. Algunos de estos estándares integran los
servicios de la Capa 2 y la Capa 1.

Las organizaciones de ingeniería que definen estándares y protocolos abiertos que se aplican a la capa de enlace de
datos incluyen:
• Organización Internacional para la Estandarización (ISO)
• Instituto de Ingenieros Eléctricos y Electrónicos (IEEE)
• Instituto Nacional Estadounidense de Estándares (ANSI)
• Unión Internacional de Telecomunicaciones (ITU)

Figura LVIII. Estándares de la capa de enlace de datos.

FELR Página 48
“Redes Básicas”. Tercer Parcial

A diferencia de los protocolos de la capa superior que están implementados principalmente en el software como el
sistema operativo de host o aplicaciones específicas, los procesos de la Capa de enlace de datos se producen tanto en
el software como en el hardware. Los protocolos en esta capa se implementan dentro de la electrónica de los
adaptadores de red con los que el dispositivo se conecta a la red física.

Por ejemplo: un dispositivo que implementa la capa de enlace de datos en una computadora sería la tarjeta de
interfaz de red (NIC). En una computadora portátil, se utiliza comúnmente un adaptador PCMCIA inalámbrico. Cada
uno de estos adaptadores es el hardware que cumple con los estándares y protocolos de la Capa 2.

4.2 . Integridad de los datos.

La capa de enlace de datos existe como una capa de conexión entre los procesos de software de las capas por encima
de ella y la capa física debajo de ella. Como tal, prepara los paquetes de capa de red para la transmisión a través de
alguna forma de medio, ya sea cobre, fibra o entornos o medios inalámbricos.

En muchos casos, la Capa de enlace de datos está incorporada en una entidad física como tarjeta de interfaz de red
(NIC) de Ethernet, que se inserta dentro del bus del sistema de una computadora y hace la conexión entre los
procesos de software que se ejecutan en la computadora y los medios físicos. Sin embargo, la NIC no es solamente
una entidad física.

El software asociado con la NIC permite que la NIC realice sus funciones de intermediara preparando los datos para
la transmisión y codificando los datos como señales que deben enviarse sobre los medios asociados.

Figura LIX. La Network Interface Card NIC.

Para cada una de las limitaciones de la capa física, la NIC ofrece una solución.

CAPA 1 (FÍSICA) CAPA 2 (NIC)


• Se comunica con las capas superiores a través
• No se puede comunicar con capas superiores.
del control de enlace lógico LLC.
• Solo puede enviar corriente de bits. • Usa entramado agrupando los bits.
• No puede decidir que dispositivo transmitirá
los bits desde un grupo en el que todos tratan • Utiliza control de acceso al medio MAC.
de transmitir al mismo tiempo.
• Usa un proceso de denominación, direcciones
• No puede nombrar o identificar los dispositivos
físicas (MAC)

Para sostener una gran variedad de funciones de red, la capa de enlace de datos a menudo se divide en dos subcapas:
una subcapa superior y una subcapa inferior.

FELR Página 49
“Redes Básicas”. Tercer Parcial

• Control de enlace lógico (LLC). La subcapa superior define los procesos de software que proveen servicios
a los Protocolos de capa de red, coloca información en la trama que identifica qué protocolo de capa de red
está siendo utilizado por la trama. Esta información permite que varios protocolos de la Capa 3, tales como
IP e IPX, utilicen la misma interfaz de red y los mismos medios.
• Control de acceso al medio (MAC), La subcapa inferior define los procesos de acceso a los medios
realizados por el hardware, proporciona a la capa de enlace de datos el direccionamiento y la delimitación
de datos de acuerdo con los requisitos de señalización física del medio y al tipo de protocolo de capa de enlace
de datos en uso.

Separar la Capa de enlace de datos en subcapas permite a un tipo de trama definida por la capa superior acceder a
diferentes tipos de medios definidos por la capa inferior. Tal es el caso de muchas tecnologías LAN, incluida Ethernet.

Figura LX. División de la capa de Enlace de datos.

Para asegurarla integridad de los datos, en la realización de una transmisión entre dos estaciones a través de la capa
de enlace de datos, los protocolos pasan por las siguientes fases:

• Conexión física del circuito.- Constituye esta fase todo el conjunto de operaciones necesarias para el
establecimiento del circuito físico que une las dos estaciones que desean comunicarse.
• Conexión lógica del circuito.- Esta fase se compone del conjunto de procesos necesarios para la preparación
de la transmisión de la información a través del circuito físico ya establecido, comprobándose que ambas
estaciones se encuentran en disposición de empezar.
• Transferencia de datos.- Esta fase está compuesta por los procesos necesarios para que el conjunto de
tramas de información llegue desde la estación emisora a la receptora sin ningún tipo de problemas y sin la
aparición de errores.
• Terminación de la transferencia de datos.- Esta fase comprende los procedimientos de liberación de los
elementos que han intervenido en la transmisión de los datos.
• Desconexión del circuito físico.- Constituye esta fase el conjunto de operaciones necesarias para la
desconexión del circuito físico entre las dos estaciones.

Figura LXI. Integridad capa de enlace de datos.

FELR Página 50
“Redes Básicas”. Tercer Parcial

En la figura se muestran las fases en una comunicación al nivel de enlace de datos. En ella puede observarse que
tanto la conexión física como la desconexión física no pertenecen al nivel de enlace de datos.

Para garantizar que todas las tramas llegan a su destino en condiciones. Si el emisor se limita a mandar la trama sin
preocuparse de si llega correctamente a su destino, esta estrategia puede ser adecuada para un servicio sin conexión
y sin verificación, pero es totalmente inadecuada para un servicio con conexión.

El método usual de asegurar una entrega es que el emisor tenga alguna forma de realimentación que le informe de
lo que está ocurriendo en el otro extremo de la línea. Normalmente en los protocolos se plantea que el receptor
mande al emisor una trama especial de control conteniendo un reconocimiento positivo o negativo sobre las tramas
que va recibiendo. Si el emisor recibe un reconocimiento positivo de una trama sabe que esa trama ha llegado a
destino correctamente.

Por el contrario, un reconocimiento negativo indica que algo ha funcionado mal y la trama debe ser retransmitida.
Una complicación adicional es que existe la posibilidad de que una trama se pierda completamente por problemas
en el hardware (por ejemplo, una ráfaga de ruido). En este caso el receptor no podrá reaccionar ya que no tendrá
motivo para hacerlo. Debe quedar claro que en un protocolo en el que el emisor transmite la trama y entonces espera
por el reconocimiento positivo o negativo podría bloquearse si la trama se pierde completamente.

Para evitar tal situación se introducen temporizadores en el nivel de enlace. Cuando el emisor transmite una trama
arranca un temporizador. El temporizador se fija a un tiempo lo suficientemente grande para que la trama llegue a
su destino, correctamente y que un reconocimiento venga del receptor. Normalmente la trama llegará correctamente
al receptor y el reconocimiento volverá antes de que el temporizador finalice la cuenta, en cuyo caso se desconectará
el temporizador. Sin embargo, si se pierde alguna de las tramas, la de datos o la de reconocimiento, el temporizador
finalizará la cuenta, lo que avisará al emisor de que debe existir algún problema. La opción más lógica en este caso
es retransmitir la trama.

Ahora bien, si las tramas pueden ser retransmitidas varias veces existe el peligro de que el receptor acepte la misma
trama más de una vez. Para prevenir que esto ocurra es generalmente necesario asignar números de secuencia a
las tramas, para que el receptor pueda distinguir las tramas retransmitidas (duplicados) de las originales.

El manejo de los temporizadores y de la numeración de las tramas, así como garantizar que cada trama
entregará su contenido al nivel de red de la máquina destino una y solo una vez (sin repeticiones) es una de las
tareas importantes a desarrollar por el nivel de enlace de datos.

4.3 . Control de errores. (Ver Apuntes Unidad 1 paginas 30-37)

La forma más simple de asegurar la entrega correcta de los datos es proporcionar al emisor información sobre lo
que ocurre al otro lado de la línea. La forma más simple es enviar del receptor al emisor tramas de control que
indiquen si una trama enviada ha llegado de forma correcta o no. De esta forma, el emisor sabe si una trama ha
llegado de forma correcta o debe retransmitirla.

Sin embargo, debido a errores en la línea, una trama puede desaparecer completamente de la línea. En ese caso, el
receptor nunca informará de que no le ha llegado correctamente la trama, pues no ha recibido nada, y el emisor no
sabrá que debe reenviarlo. Se han desarrollado dos estrategias principales para manejar los errores.

1. Métodos de detección de errores. Incluir sólo suficiente redundancia para permitir que el receptor sepa
que ha ocurrido un error (pero no qué error) y entonces solicite una retransmisión, los métodos más
utilizados son:
a) Verificación de paridad (VRC).
b) Suma de verificación (LRC).
c) Verificación de redundancia cíclica (CRC)
FELR Página 51
“Redes Básicas”. Tercer Parcial

2. Métodos de corrección de errores. Incluir suficiente información redundante para que el receptor pueda
deducir cuáles debieron ser los datos transmitidos.
a) Códigos de Hamming.
b) Códigos convolucionales binarios.
c) Códigos de Reed-Solomon.
d) Códigos de verificación de paridad de baja densidad.

Figura LXII. Control de errores

4.4 . Control de acceso al medio.

Cada entorno de red que los paquetes encuentran cuando viajan desde un host local hasta un host remoto puede
tener características diferentes. Por ejemplo: un entorno de red puede componerse de muchos hosts disputando el
acceso a un medio de red. Otro entorno puede componerse de una conexión directa entre sólo dos dispositivos sobre
los cuales fluyen los datos de manera secuencial como bits de manera ordenada.

El control de acceso al medio es el equivalente a las reglas de tráfico que regulan la entrada de vehículos a una
autopista. La ausencia de un control de acceso al medio sería el equivalente a vehículos ignorando el resto del tráfico
e ingresando al camino sin tener en cuenta a los otros vehículos.
Sin embargo, no todos los caminos y entradas son iguales. El tráfico puede ingresar a un camino confluyendo,
esperando su turno en una señal de parada o respetando el semáforo. Un conductor sigue un conjunto de reglas
diferente para cada tipo de entrada.

Los métodos de control de acceso al medio descritos en los protocolos de capa de enlace de datos definen los
procesos por los cuales los dispositivos de red pueden acceder a los medios de red y transmitir tramas en
diferentes entornos de red.

El control de acceso al medio es una de las grandes funciones de la capa de enlace. De hecho, la mayor parte de las
arquitecturas de red con referencia en el modelo OSI descomponen el nivel 2 en una subcapa inferior de acceso al
medio (MAC) y otra subcapa superior que se encarga del gobierno de la comunicación (LLC). Los principales métodos
de acceso al medio que se utilizan en redes de área local son el CSMA y el paso de testigo o sondeo.

Un nodo que es un dispositivo final utiliza un adaptador para hacer la conexión a la red. Por ejemplo: para conectarse
a una LAN, el dispositivo usaría la tarjeta de interfaz de red (NIC) para conectarse a los medios LAN. El adaptador
administra la trama y el control de acceso a los medios.

En dispositivos intermediarios, tales como un enrutador donde los tipos de medios pueden cambiar para cada red
conectada, se utilizan diferentes interfaces físicas en el enrutador para encapsular el paquete en la trama apropiada
y se utiliza un método de control de acceso a los medios adecuado para acceder a cada enlace. El enrutador de la
figura tiene una interfaz Ethernet para conectarse a la LAN y una interfaz serial para conectarse a la WAN. A medida
que el enrutador procesa tramas, utilizará los servicios de la capa de enlace de datos para recibir la trama desde un
medio, desencapsularlo en la PDU de la Capa 3, reencapsular la PDU en una trama nueva y colocar la trama en el
medio del siguiente enlace de la red.

FELR Página 52
“Redes Básicas”. Tercer Parcial

Figura LXIII. Control de acceso al medio.

De la misma manera, hay diferentes formas de regular la colocación de tramas en los medios. Los protocolos en la
capa de enlace de datos definen las reglas de acceso a los diferentes medios. Algunos métodos de control de acceso
al medio utilizan procesos altamente controlados para asegurar que las tramas se coloquen con seguridad en los
medios. Estos métodos se definen mediante protocolos sofisticados, que requieren mecanismos que introducen
sobrecargas a la red.

El método de control de acceso al medio utilizado depende de:

• Compartir medios: si y cómo los nodos comparten los medios.


• Topología: cómo la conexión entre los nodos se muestra a la capa de enlace de datos.

Figura LXIV. Métodos de control de acceso al medio.

4.4.1 Control de acceso al medio para medios compartidos.

Algunas topologías de red comparten un medio común con varios nodos. En cualquier momento puede haber una
cantidad de dispositivos que intentan enviar y recibir datos utilizando los medios de red. Hay reglas que rigen cómo
esos dispositivos comparten los medios.

Hay dos métodos básicos de control de acceso al medio para medios compartidos:

• Controlado: Cada nodo tiene su propio tiempo para utilizar el medio


• Basado en la contención: Todos los nodos compiten por el uso del medio.

FELR Página 53
“Redes Básicas”. Tercer Parcial

Acceso controlado para medios compartidos

Otra de las funciones de la capa de enlace corresponde al manejo de la gestión de enlace. Con un servicio sin conexión
esta gestión es mínima, pero para el caso de un servicio orientado a conexión es más compleja. Las conexiones se
deben establecer y después liberar, las secuencias de números deben iniciarse y reiniciarse en caso de que sucedan
errores, y así sucesivamente.

Además, la configuración del enlace se debe administrar; en el caso más sencillo, sólo un hilo físico se extiende entre
dos máquinas. Sin embargo, es muy común encontrar que varias máquinas compartan el mismo canal.

La gestión de tráfico se logra cuando una computadora denominada primaria transmite una trama corta,
denominada sondeo, a otra computadora denominada secundaria, preguntando si tiene alguna información que
transmitir. Si es así, el terminal envía dicha información; si no, la primera sondea a la siguiente computadora
secundaria. En otros sistemas, como por ejemplo las redes LAN Ethernet, no hay primarios ni secundarios. Todas las
estaciones son iguales y tienen los mismos derechos para acceder al canal.

Al utilizar el método de acceso controlado, los dispositivos de red toman turnos, en secuencia, para acceder al medio.
A este método se lo conoce como acceso programado o determinístico. Si un dispositivo no necesita acceder al medio,
la oportunidad de utilizar el medio pasa al siguiente dispositivo en línea. Cuando un dispositivo coloca una trama en
los medios, ningún otro dispositivo puede hacerlo hasta que la trama haya llegado al destino y haya sido procesada
por el destino.

Aunque el acceso controlado está bien ordenado y provee rendimiento predecible, los métodos determinísticos
pueden ser ineficientes porque un dispositivo tiene que esperar su turno antes de poder utilizar el medio.

Figura LXV. Acceso controlado para medios compartidos

Acceso por contención para medios compartidos

Estos métodos por contención, también llamados no deterministas, permiten que cualquier dispositivo intente
acceder al medio siempre que haya datos para enviar. Para evitar caos completo en los medios, estos métodos usan
un proceso de Acceso múltiple por detección de portadora (CSMA) para detectar primero si los medios están
transportando una señal. Si se detecta una señal portadora en el medio desde otro nodo, quiere decir que otro
dispositivo está transmitiendo. Cuando un dispositivo está intentando transmitir y nota que el medio está ocupado,
esperará e intentará después de un período de tiempo corto. Si no se detecta una señal portadora, el dispositivo
transmite sus datos. Las redes Ethernet e inalámbricas utilizan control de acceso al medio por contención.

Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo tiempo. A esto se lo denomina colisión
de datos. Si esto ocurre, los datos enviados por ambos dispositivos se dañarán y deberán enviarse nuevamente.

FELR Página 54
“Redes Básicas”. Tercer Parcial

Los métodos de control de acceso al medio por contención no tienen la sobrecarga de los métodos de acceso
controlado. No se requiere un mecanismo para analizar quién posee el turno para acceder al medio. Sin embargo, los
sistemas por contención no escalan bien bajo un uso intensivo de los medios. A medida que el uso y el número de
nodos aumenta, la probabilidad de acceder a los medios con éxito sin una colisión disminuye. Además, los
mecanismos de recuperación requeridos para corregir errores debidos a esas colisiones disminuyen aún más el
throughput (tasa de transferencia efectiva). CSMA es generalmente implementado junto con un método para
resolver la contención del medio. Los dos métodos comúnmente utilizados son:

• CSMA/Detección de colisión. En CSMA/Detección de colisión (CSMA/CD), el dispositivo monitorea los


medios para detectar la presencia de una señal de datos. Si no hay una señal de datos, que indica que el medio
está libre, el dispositivo transmite los datos. Si luego se detectan señales que muestran que otro dispositivo
estaba transmitiendo al mismo tiempo, todos los dispositivos dejan de enviar e intentan después. Las formas
tradicionales de Ethernet usan este método.
• CSMA/Prevención de colisiones. En CSMA/Prevención de colisiones (CSMA/CA), el dispositivo examina
los medios para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo envía una
notificación a través del medio, sobre su intención de utilizarlo. El dispositivo luego envía los datos. Este
método es utilizado por las tecnologías de redes inalámbricas 802.11.

Figura LXVI. Acceso por contención para medios compartidos

4.4.1 Control de acceso al medio para medios no compartidos


Los protocolos de control de acceso para medios no compartidos requieren poco o ningún control antes de colocar
tramas en los medios. Estos protocolos tienen reglas y procedimientos más simples para el control de acceso al
medio. Tal es el caso de las topologías punto a punto.
En las topologías punto a punto, los medios interconectan sólo dos nodos. En esta configuración, los nodos no
necesitan compartir los medios con otros hosts ni determinar si una trama está destinada para ese nodo. Por lo tanto,
los protocolos de capa de enlace de datos hacen poco para controlar el acceso a medios no compartidos. En
conexiones punto a punto, la capa de enlace de datos tiene que considerar si la comunicación es half-duplex o full-
duplex.

Figura LXVII. Comunicación half-duplex Comunicación full-duplex

FELR Página 55
“Redes Básicas”. Tercer Parcial

Topología punto a punto

Una topología punto a punto conecta dos nodos directamente entre sí, como se muestra en la figura. En redes de
datos con topologías punto a punto, el protocolo de control de acceso al medio puede ser muy simple. Todas las
tramas en los medios sólo pueden viajar a los dos nodos o desde éstos. El nodo en un extremo coloca las tramas en
los medios y el nodo en el otro extremo las saca de los medios del circuito punto a punto.

En redes punto a punto, si los datos sólo pueden fluir en una dirección a la vez, está operando como un enlace half-
duplex. Si los datos pueden fluir con éxito a través del enlace desde cada nodo simultáneamente, es un enlace full-
duplex.

Los Protocolos de capa de enlace podrían proveer procesos más sofisticados de control de acceso a los medios para
las topologías lógicas punto a punto, pero esto agregaría un gasto innecesario al protocolo.

Figura LXVIII. Topologías lógicas punto a punto.

Redes punto a punto lógicas

Los nodos de los extremos que se comunican en una red punto a punto pueden estar conectados físicamente a través
de una cantidad de dispositivos intermedios. Sin embargo, el uso de dispositivos físicos en la red no afecta la
topología lógica. Como se muestra en la figura, los nodos de origen y destino pueden estar conectados indirectamente
entre sí a través de una distancia geográfica. En algunos casos, la conexión lógica entre nodos forma lo que se llama
circuito virtual. Un circuito virtual es una conexión lógica creada dentro de una red entre dos dispositivos de red.
Los dos nodos en cada extremo del circuito virtual intercambian las tramas entre sí. Esto ocurre incluso si las tramas
están dirigidas a través de dispositivos intermediarios. Los circuitos virtuales son construcciones de comunicación
lógicas utilizadas por algunas tecnologías de la Capa 2.

El método de acceso al medio utilizado por el protocolo de enlace de datos se determina por la topología lógica punto
a punto, no la topología física. Esto significa que la conexión lógica de punto a punto entre dos nodos puede no ser
necesariamente entre dos nodos físicos en cada extremo de un enlace físico único.

Figura LXIX. Enlaces lógicos Punto a punto.

FELR Página 56
“Redes Básicas”. Tercer Parcial

4.5 . Control de flujo.

Un aspecto importante a tener en cuenta en este nivel es qué hacer cuando el emisor quiere transmitir tramas con
una frecuencia (velocidad) superior a la que puede aceptar el receptor. Esta situación puede darse fácilmente
cuando, por ejemplo, el emisor es un proceso ejecutándose en una máquina potente o poco cargada, y el receptor es
un proceso en una máquina lenta.

Cuando dos computadoras se comunican, generalmente han de adoptarse medidas para asegurar que lo hacen al
mismo ritmo. Si la línea entre ellos es de baja velocidad, probablemente el factor que limite la velocidad será la
conexión, pero si es un canal rápido, por ejemplo una red local, a menudo la velocidad de transmisión efectiva vendrá
marcada por el más lento, o el más cargado, de las dos computadoras. Es preciso habilitar mecanismos que garanticen
que la computadora más rápida no abrumará al más lento hasta el punto de que se pierdan tramas. Respetando esta
restricción, las computadoras deben intentar comunicarse a la máxima velocidad que permita el canal físico.
El mecanismo que se ocupa de controlar el ritmo de la transmisión para asegurar que ésta es soportable por ambas
partes se denomina control de flujo. Generalmente se implementa por procedimientos que permitan al receptor
informar al emisor de su situación.

La solución más usual es introducir un mecanismo de control de flujo que impida transmitir al emisor a una velocidad
superior a la que puede aceptar el receptor. Este mecanismo de freno requiere generalmente algún tipo de
realimentación que permita al procedimiento emisor conocer si el receptor está ya listo para aceptar otra trama.

Existen muchas posibilidades para realizar este control de flujo, pero la mayoría utilizan el mismo principio básico.
El protocolo contiene reglas bien definidas acerca de cuándo el emisor puede transmitir la siguiente trama. Estas
reglas generalmente prohíben que se envíen tramas hasta que el receptor dé su permiso de forma implícita o
explícita. Por ejemplo, cuando se establece una conexión el receptor puede decir:

Me puedes enviar n tramas ahora, pero después de haberlo hecho no envíes ninguna más hasta que yo te diga
que continúes.

El control de flujo es una función propia de los protocolos de la capa de enlace, encargada de adecuar las velocidades
de transferencia de datos entre emisores rápidos y receptores lentos, y viceversa. No todos los emisores y receptores
escriben y leen tramas del canal con la misma eficiencia. En ocasiones es preciso paralizar la transmisión de tramas
hasta que el receptor más lento procese las tramas anteriormente recibidas.

Para realizar esta función, los nodos de la red deben disponer de mecanismos (protocolos) por los que se establecen
diálogos con los que se eviten pérdidas de datos, no ya por error, sino por inadecuación entre las características del
emisor y del receptor. Estos protocolos son los siguientes:

4.5.1 Protocolos de parada y espera ARQ.

Un modo muy simple de controlar el flujo consiste en, cuando el receptor reciba una trama, tenga capacidad de
paralizar, por unos instantes, la transmisión, como consecuencia de que el protocolo acordado por ambos
interlocutores tenga previsto que el emisor no envíe una nueva trama mientras no reciba la confirmación de la trama
anterior procedente del receptor.

Como caso más sencillo tenemos el denominado protocolo de parada y espera, consistente en que el emisor espera
confirmación o acuse de recibo después de cada envío y antes de efectuar el siguiente. El acuse de recibo, también
llamado ACK, del inglés ACKnowledgement, sirve tanto para indicar que la trama ha llegado correctamente como
para indicar que se está en condiciones de recibir la siguiente. Este tipo de protocolos, donde el emisor espera una
confirmación o acuse de recibo para cada dato enviado se denominan protocolos PAR (Positive Acknowledgement
with Retransmission) o también ARQ (Automatic Repeat reQuest).

FELR Página 57
“Redes Básicas”. Tercer Parcial

Cuando la trama recibida es errónea, cosa que el receptor podrá verificar gracias al CRC, no se produce ACK,
sucediendo lo mismo sucede cuando la trama enviada se pierde por completo. En este caso el emisor, pasado un
tiempo máximo de espera, reenvía la trama.

Una optimización que se puede incorporar a todo protocolo de parada y espera es el uso de acuse de recibo negativo
o NAK (Negative AcKnowledgement) cuando se recibe una trama errónea; de esta forma el emisor puede reenviar la
trama sin esperar a agotar el tiempo de espera, con lo que se consigue una mayor utilización de la línea.

Sin embargo, supongamos que alguna vez lo que se pierde no es la trama enviada, sino el mensaje de ACK; pasado el
tiempo de espera, el emisor deducirá, erróneamente, que la trama se ha perdido y la reenviará, llegando ésta
duplicada al receptor. El receptor no tiene ningún mecanismo para detectar que la trama es un duplicado, por lo que
pasará el duplicado al nivel de red, lo cual no está permitido en un protocolo a nivel de enlace. Por ello, es necesario
permitir al receptor distinguir los duplicados de reenvío.

Figura LXX. Protocolo de parada y espera.

La forma más sencilla es numerar las tramas, por ejemplo, con un campo de un bit, que permite numerar las tramas
en base 2 (0, 1, 0, 1, ...), y que es suficiente para detectar los duplicados.

Por su configuración, el protocolo de parada y espera puede implementarse en un canal de comunicaciones semi-
dúplex, pues el canal solo se utiliza en un sentido en cada instante.

Figura LXXI. Control de flujo de parada y espera.

Protocolo “piggybacked”.

El protocolo de parada y espera que hemos visto transmitía datos en una sola dirección; el canal de retorno era
utilizado únicamente para enviar los mensajes de acuse de recibo (ACK). Si tuviéramos que transmitir datos en
ambas direcciones podríamos utilizar dos canales semi-dúplex con los protocolos anteriores, pero nos
encontraríamos enviando en cada sentido tramas de datos mezcladas con tramas ACK.

La trama ACK contiene una cantidad mínima de información útil, pero ha de contener no obstante una serie de
campos de control imprescindibles que ocupan más bits que la propia información de ACK. Si se están transmitiendo
datos en ambas direcciones resulta más eficiente, en vez de enviar el ACK solo en una trama, enviarlo dentro de una
trama de datos; de esta forma el ACK viajará “casi gratis” y se ahorrará el envío de una trama. Esta técnica se conoce
con el nombre de piggybacking o piggyback acknowledgement; (en inglés piggyback significa llevar a alguien o algo
a hombros o a cuestas).
FELR Página 58
“Redes Básicas”. Tercer Parcial

Ahora bien, para “montar” el ACK en una trama de datos es preciso que esta se envíe en un tiempo razonablemente
corto respecto a cuando debería enviarse el ACK; de lo contrario el emisor, al ver que el ACK esperado no llega
reenviará la trama, lo cual daría al traste con el pretendido beneficio del “piggybacking”; como no es posible saber
de antemano cuando se va a enviar la siguiente trama de datos generalmente se adopta una solución salomónica: se
espera un determinado tiempo y si el nivel de red no genera ningún paquete en ese tiempo se genera una trama ACK;
en este caso el tiempo de espera debe ser sensiblemente inferior al timer de reenvío del emisor.

Figura LXXII. Protocolo Piggybacked.

4.5.2 Protocolos de ventana deslizante

Los protocolos de ventana deslizante permiten transmitir datos en ambas direcciones utilizando canales Full-dúplex.
Con este método el emisor puede enviar varias tramas antes de necesitar un reconocimiento. Cuando se utiliza un
protocolo de ventana deslizante de más de un número (BIT) el emisor no actúa de forma sincronizada con el
receptor; por ello, cuando el receptor detecta una trama defectuosa hay varias posteriores ya en camino, que llegarán
irremediablemente a él, aun cuando reporte el problema inmediatamente.

Existen dos posibles estrategias en este caso:


• El receptor ignora las tramas recibidas a partir del error (inclusive) y solicita al emisor retransmisión de
todas las tramas subsiguientes. Esta técnica se denomina retroceso n.
• El receptor descarta la trama errónea y pide retransmisión, pero acepta las tramas posteriores que hayan
llegado correctamente. Esto se conoce como repetición selectiva y corresponde a una ventana deslizante
mayor de 1 en el receptor (normalmente de igual tamaño que la ventana del emisor).

En cualquiera de los dos casos el emisor deberá almacenar en su buffer todas las tramas que se encuentren dentro
de la ventana, ya que en cualquier momento el receptor puede solicitar la retransmisión de alguna de ellas.

Funcionamiento:
• El receptor tiene una memoria temporal suficiente para almacenar W tramas.
• El emisor puede enviar hasta W tramas sin confirmación.
• Cada trama se etiqueta con un número de secuencia.
• La confirmación incluye el número de secuencia de la siguiente trama que se espera recibir.

Figura LXXIII. Tamaño de la ventana deslizante.


FELR Página 59
“Redes Básicas”. Tercer Parcial

Figura LXXIV. Ejemplo del tamaño de la ventana deslizante.

Figura LXXV. Control de flujo de ventana deslizante.

Protocolo de retroceso n o GoBack-N

El receptor simplemente descarte todas las tramas subsecuentes, sin enviar confirmaciones de recepción para las
tramas descartadas. Esta estrategia corresponde a una ventana de recepción de tamaño 1. En otras palabras, la capa
de enlace de datos se niega a aceptar cualquier trama excepto la siguiente que debe entregar a la capa de red. Si la
ventana del emisor se llena antes de terminar el temporizador, el canal comenzara a vaciarse. En algún momento, el
emisor terminara de esperar y retransmitirá en orden todas las tramas cuya recepción aún no se haya confirmado
comenzando por la dañada o perdida.

Funcionamiento.
• Se descarta la trama errónea.
• Se descartan todas las tramas posteriores al error tengan o no errores.
• Una vez vaciada la ventana se retransmiten de nuevo las tramas descartadas comenzando por la que causo
el error.

Figura LXXVI. Protocolo de retroceso n (GoBack-N)


FELR Página 60
“Redes Básicas”. Tercer Parcial

Como se muestra en la Figura a), en un caso ideal el transmisor envía DATOS 0123, y el receptor responde con acuses de
recibo por cada envío. En la Figura b) existe una falla, D-2 no llega. El receptor envía un acuse negativo (NACK); sin
embargo, el transmisor continua enviando tramas, hasta que recibe el NACK, entonces revisa y empieza a
retransmitir a partir de la trama con error, con la desventaja de que se ocupa un ancho de banda considerable.

Protocolo de repetición selectiva

El protocolo de retransmisión selectiva es una estrategia alterna para que el receptor acepte u coloque en búferes
las tramas que llegan después de una trama dañada o perdida.

En este protocolo, tanto el emisor como el receptor mantienen una ventana de números de secuencia pendientes y
aceptables, respectivamente. El tamaño de la ventana del emisor comienza en 0 y crece hasta un valor máximo
predefinido. Por lo contrario, la ventana del receptor siempre es de tamaño fijo e igual al máximo predeterminado.

El receptor tiene un búfer reservado para cada número de secuencia dentro de su ventana fija. Cada búfer tiene un
bit asociado, el cual indica si el búfer está lleno o vacío. Cada vez que llega una trama, la función between verifica su
número de secuencia para ver si cae dentro de la ventana. De ser así, y si todavía no se recibe, se acepta y se almacena.
Esta acción se lleva a cabo sin importar si la trama contiene o no el siguiente paquete que espera la capa de red.

La recepción no secuencial introduce limitaciones adicionales en los números de secuencia de tramas, que no se
presentan en los protocolos en los que las tramas sólo se aceptan en orden.

Funcionamiento.
• Se descarta la trama errónea.
• Se puede enviar un NACK para la trama con error.
• Las tramas en buen estado recibidas se almacenan en un buffer.
• Se retransmite únicamente la trama errónea que no ha recibido confirmación.

La repetición selectiva consiste en aprovechar aquellas tramas correctas que lleguen después de la errónea,
evitándose así tráfico en la red al pedir al emisor que retransmita únicamente la trama dañada. Lógicamente, la
técnica de repetición selectiva da lugar a protocolos más complejos que la de retroceso n, y requiere mayor espacio
de buffer en el receptor; a cambio de ello ofrece mayor rendimiento, dado que permite aprovechar todas las tramas
correctas.

Figura LXXVII. Protocolo de recepción selectiva.

FELR Página 61
“Redes Básicas”. Tercer Parcial

4.6 . Protocolos orientados a carácter (BSC).

Los protocolos orientados a carácter fueron los primeros en emplearse. La mayoría de ellos tienen su origen en la
década de los 60 y suelen ser incompatibles entre sí. Estos protocolos se preocupan por el contenido del carácter,
dado que cada uno de ellos tendrá un significado diferente, dependiendo así del código utilizado.

Puede decirse que en la actualidad, han cedido su lugar a los protocolos orientados a bit. Estos protocolos alcanzaron
gran difusión, y alguno de ellos como el BSC (Comunicaciones Síncronas en Binario) de IBM aun suele utilizarse.

El protocolo BSC es un protocolo semiduplex, orientado a carácter, desarrollado por IBM en 1962 como primer
protocolo de propósito general, utilizado para conectar equipos en la configuración punto a punto o multipunto en
canales conmutados o sin conmutación. Se utiliza para conectar y transferir un gran volumen de datos entre
computadoras mediante uno o varios enlaces dedicados síncronos. Utiliza códigos ASCII o EBCDIC.

Mientras que en la transmisión asincrónica cada uno de los caracteres contiene el bit de sincronización, en los
protocolos BSC la sincronización se obtiene enviando en línea los caracteres especiales que preceden
inmediatamente al envío en la línea de los datos propiamente dicho.

En la estación receptora, estos caracteres de sincronización los utiliza el módem para establecer la sincronización
correcta y luego, leer e interpretar correctamente los caracteres siguientes que representan la información efectiva.

A esta sincronización a nivel de señal le corresponde, a nivel de procedimiento, en segundo tipo de sincronización
que se obtiene mediante mensajes que confirmar que el mensaje recibido es correcto y que envía la estación
receptora a la transmisora.

El protocolo BSC, es tal vez el protocolo de línea sincrónico más utilizado. A veces se hace referencia a él como
bisíncrono Bisync. BSC en un protocolo semiduplex. Las transmisiones fluyen en dos sentidos de forma alternada.
Es capaz de manejar conexiones punto a punto. Es un protocolo sensible al código. Todos los caracteres que se
transmitan a través de un canal BSC deben ser decodificados en el receptor para comprobar si se trata de un carácter
de control o de un dato de usuario. Éste protocolo está orientado a carácter.

Algunas de sus características principales son:


• Admite configuraciones punto a punto y multipunto.
• Gestión del enlace por contención (en punto a punto) y por sondeo (en multipunto).
• Control de flujo por parada y espera.
• Control de errores por CRC.
• Delimitación de trama por procedimiento de principio y final

La trama consta de un número entero de caracteres pertenecientes al alfabeto de un código determinado. Para
efectuar el control de enlace se utilizan algunos de los siguientes caracteres de control:

Para delimitar la trama:


• SYN (synchronous): sincronización. Dos o más se utilizan como sincronización de comienzo de bloque. Es
la secuencia 0010110.
• SOH (start of header): comienzo de secuencia cabecera de mensaje.
• STX (start of text): comienzo de información.
• ETX (end of text): fin de información.
• ETB (end of trasmision block): fin de bloque.

Para el control de línea:


• ENQ (enquiry): solicitud de respuesta.
• EOT (end of transmision): para marcar el final de una comunicación.
• RVI (reverse interrupt): interrupción inversa
FELR Página 62
“Redes Básicas”. Tercer Parcial

Para el control de flujo:


• ACK4: reconocimiento o acuse de recibo positivo.
• ACK0: confirmación par.
• ACK1: confirmación impar.
• NAK5: reconocimiento o acuse de recibo negativo.
• WACK6: indisponibilidad.

Para el control de transparencia:


• DLE7: caracter utilizado para cambiar el significado de los caracteres de control que lo siguen

4.6.1. Formato de Trama BSC.

El formato de trama es variable. Existen tramas de control y de información. Cuando los datos de usuario contienen
caracteres que coinciden con los caracteres de control del propio protocolo, es necesario colocar caracteres de
control especiales para evitar que sean mal interpretados (relleno de caracteres).

El enlace BSC opera de dos modos distintos:

• Modo control.- Es utilizado por la estación primaria para efectuar operaciones de control de enlace, tales
como interrogar de modo rotatorio a las estaciones secundarias sobre sus necesidades de transmisión.
• Modo texto o mensaje.- Es utilizado por cualquier estación para efectuar la transmisión de sus bloques
de datos.

Figura LXXVIII. Formato de la trama BSC.

Cuando una estación desea transmitir recibe la invitación para efectuar la transmisión, envía un STX o un SOH como
cabecera de la trama. Este envío pone al enlace en el modo texto. Posteriormente se intercambian datos hasta que se
recibe un EOT que produce el cambio al modo control. Cualquier intercambio de datos se produce exclusivamente
entre dos estaciones, permaneciendo inactivas las estaciones restantes.

Para controlar la posible pérdida de tramas, BSC utiliza los caracteres de confirmación de tramas ACK0 y ACK1, uno
para tramas pares y el otro para tramas impares. El carácter SOH abre la trama y deja el enlace a modo texto; el
campo de cabecera va encerrado entre un carácter SOH y un STX. Este campo no está definido por el protocolo
dependiendo de la red en la que se esté utilizando. Posteriormente viene un campo de datos de usuario, que acaba
con un ETB si es el final del bloque pero no el último bloque de la transmisión y ETX si ya se envió el último bloque.
La trama finaliza con un campo de control de errores del tipo CRC.

El principal inconveniente del protocolo BSC es su poca eficiencia, dado que está basado en un algoritmo de para y
espera. La transferencia es bidireccional, pero debido al para y espera no es simultánea. Además, BSC muestra poca
fiabilidad, ya que las tramas de control están poco protegidas, no como las tramas de información.

4.7 Protocolos orientados a bit (HDLC).

El protocolo HDLC o Protocolo de Alto nivel del Enlace de Datos (High Level Datos Link Control) es un protocolo
propuesto por OSI, basado en el protocolo SDLC (Synchronous Datos Link Control Protocol o Protocolo de Control
Síncrono de Enlace de Datos), y tomado de la capa de enlace de la arquitectura SNA de IBM.

FELR Página 63
“Redes Básicas”. Tercer Parcial

En HDLC Se definen tres tipos de estaciones que dan lugar a dos configuraciones de enlace y tres modos de
transferencia de datos o de operaciones posibles para la interconexión entre el emisor y el receptor.

Tipos de estaciones

• Estación primaria: tiene la responsabilidad de controlar el enlace. Las tramas generadas por una estación
primaria se denominan órdenes.
• Estación secundaria: opera bajo el control de una estación primaria. Actúa como esclava de la primaria (que, a
su vez, actuaría como maestra) y las tramas por ella generada se denominan respuestas. Mantiene solamente una
sesión con la estación principal y no tiene responsabilidad en el control del enlace. Las estaciones secundarias no
pueden comunicarse directamente entre sí.
• Estación combinada: Es capaz de transmitir y recibir tanto órdenes como respuestas procedentes de otra
estación combinada.

Modos de Operación.

• Modo NRM.- (Normal Response Mode). El modo de respuesta normal requiere que la estación secundaria reciba
permiso explícito de la primaria para que pueda comenzar la transferencia de datos.La transmisión puede constar
de una o mas tramas. La comunicación siempre se efectúa entre una estación secundaria y una estación primaria,
nunca entre dos estaciones secundarias. Una vez se ha transmitido la última trama, la estación secundaria debe
esperar a la concesión de otro pñermiso para volver a transmitir. El modo NRM es ampliamente utilizado en las
conexiones multipunto.
• Modo ARM.- (Asynchronous Response Mode). El modo de respuesta asíncrona permite a la estación secundaria
comenzar una transmisión de datos sin recibir explícitamente el permiso de una estación primaria. Sin embargo,
la estación primaria tiene toda la responsabilidad sobre el control, la corrección de errores y la conexión y
desconexión del enlace. El modo ARM es muy poco utilizado en la actualidad.
• Modo ABM.- (Asynchronous Balanced Mode). El modo asíncrono balanceado utiliza para sus transmisiones
dos estaciones equivalentes, no hay ninguna privilegiada, es propio de las comunicaciones de igual a igual y, por
lo tanto, es el modo más utilizado en Reedes de Área Local.

4.7.1. Formato de Trama HDLC.

HDLC utiliza una trama semejante a la de cualquier protocolo orientado a bit. Todas las tramas deben comenzar y
acabar por una bandera (flag) señalizadora de 8 bits, en concreto, se trata de la secuencia “0 1 1 1 1 1 1 0”. Entre
estas dos banderas se encierra la trama:

Figura LXXIX. Formato de la trama HDLC.

Los campos de la trama son los siguientes:

• Dirección.- Este campo codifica con 1 byte o múltiplos de 1 byte la dirección del terminal, identificando si se
trata de la estación primaria o la secundaria y, por tanto, si es transmisión o recepción. En líneas punto a punto
a veces su usa para distinguir los comandos de las respuestas.
• Control.- El campo de control contiene los datos necesarios para el control del enlace, por ejemplo, las
peticiones y las respuestas, los números de secuencia de tramas para las ventanas del emisor y del receptor.
• Informacion.- El campo de información contiene los datos del usuario. Puede ser de longitud arbitraria,
aunque la eficiencia de la suma de comprobación decae al aumentar el tamaño del marco, debido a la mayor
probabilidad de errores en la ráfaga. No todas las tramas tienen este campo, dependerá de las funciones que
la trama tenga asociadas, lo que se indica en el campo de control de la trama.

FELR Página 64
“Redes Básicas”. Tercer Parcial

• Suma de Comprobación (FCS Frame Check Sequence).- Este campo es el de control de errores. Utiliza el
método de redundancia cíclica para la detección de los posibles errores de la transmisión, usando CRC-CCITT
como generador de polinomios.
• Flags.- El marco está delimitado por banderas o secuencia de indicación (0 1 1 1 1 1 1 0). En líneas punto a
punto inactivas se transmiten secuencias de indicación continuamente.

La trama mínima contiene tres campos y está formada por 32 bits excluyendo los indicadores de ambos lados. La
transparencia de código se establece no permitiendo en toda la trama secuencias de más de cinco 1 seguidos
aplicando la técnica de relleno de bits. La bandera es detectada por los receptores precisamente por violar esta regla,
puesto que consta de seis 1 consecutivos.

En HDLC se definen tres tipos de tramas: información, supervisión y no numeradas, las cuales se distinguen por su
campo de control.

• Trama de información. Se utiliza para producir el transporte de datos de usuario entre dos dispositivos
terminales de la red. Las tramas pueden ser confirmadas en destino y, además, pueden tener otras funciones
añadidas, como es la de interrogar (sondeo o polling) a otras estaciones sobre sus necesidades de
comunicación. Las estaciones de la red reconocen una trama informativa fijándose en la estructura del campo
de control, que comienza con un “0”. Posteriormente se codifica el número de secuencia de la ventana del
emisor. El protocolo emplea una ventana deslizante, con un número de secuencia de tres bits. El campo
secuencia de las tramas informativas es el número de secuencia de la trama. Se utiliza para controlar que la
secuencia de las tramas emitidas es correcta en el receptor.

• Trama de supervisión. Las tramas supervisoras efectúan funciones de control tales como bloqueos y
desbloqueos de las transmisiones, la confirmación de las tramas recibidas, las peticiones de retransmisión,
etc. Los diferentes marcos de supervisión se distinguen por el campo tipo , que se codifica con:
1. Tipo 0 o RR Receive Ready (Receptor Listo).
2. Tipo 1 o REJ Reject (Rechazo).
3. Tipo 2 o RNR Receive Not Ready (Receptor no Listo).
4. Tipo 3 o SREJ Selective Reject (Rechazo Selectivo).

• Trama no numerada. Las tramas no enumeradas también tiene funciones de control aunque también
puede servir para llevar datos cuando se solicita un servicio n confiable sin conexión. Las tramas no
enumeradas pueden clasificarse del siguiente modo:
1. Tramas que seleccionan el modo de operación. SNRM, SARM o SABM
2. Tramas que ordenan la desconexión. DIS
3. Confirmación de trama no numerada. UA
4. Confirmación negativa de la selección de modo de operación. DM
5. Confirmación de rechazo de trama. FRMR

Figura LXXX. Tipos de tramas de control de HDLC.

FELR Página 65
“Redes Básicas”. Tercer Parcial

4.7.2 Fases del protocolo HDLC y ejemplo de funcionamiento.

La comunicación de datos en el nivel de enlace entre dos estaciones, utilizando el protocolo HDLC debe seguir las
siguientes fases:

• Conexión del circuito.- Esta fase presupone la conexión física a través de un medio de transmisión, propia del
nivel físico. Consiste en el establecimiento de una conexión lógica entre el emisor y el receptor en el que se ponen
de acuerdo en los parámetros de la comunicación, ponen a cero las variables de estado de comunicación, ajustan
sus ventanas de comunicación, etc.

• Transporte de datos.- En esta fase se produce el intercambio de datos entre el emisor y el receptor, incluyendo
tramas informativas, de supervisión y no numeradas que regulan la comunicación.

• Desconexión del circuito.- Una vez concluida la transmisión de datos, debe procederse a la liberación de los
recursos utilizados para la comunicación en el emisor y en el receptor. Para ello se utiliza la trama de desconexión
DIS.

Gráficamente, la comunicación entre dos estaciones a través del protocolo HDLC se simula en la siguiente figura:

Figura LXXXI. Operación de HDLC.

FELR Página 66
“Redes Básicas”. Tercer Parcial

4.8 HDLC y sus subconjuntos.

Después de desarrollar SDLC, IBM lo propuso a la ANSI como estándar en Estados Unidos y a la ISO para su aceptación
internacional. ANSI tomó las especificaciones del SDLC y construyó las suyas propias con el nombre de ADCCP
(Advanced Datos Communication Control Procedure o Procedimiento para el Control Avanzado de Comunicación de
Datos). Por su parte, la ISO propuso el protocolo HDLC.

Posteriormente otras organizaciones de estándares han dado su propia versión, acomodado a las aplicaciones
concretas para las que se desea utilizar. Esta es la razón por la que HDLC es un protocolo, derivado del SDLC, del que
derivan otros muchos protocolos:

Figura LXXXII. HDLC y sus subconjuntos.

4.8.1 Protocolo punto a punto PPP

El protocolo punto a punto (PPP) es un protocolo utilizado para entregar tramas entre dos nodos. A diferencia de
muchos protocolos de capa de enlace de datos, definidos por las organizaciones de ingeniería eléctrica, el estándar
PPP está definida por RFC. PPP fue desarrollado como un protocolo WAN y sigue siendo el protocolo elegido para
implementar muchas WAN serie. PPP se puede utilizar en diversos medios físicos, lo que incluye cable de par
trenzado, líneas de fibra óptica o transmisión satelital.

PPP utiliza una arquitectura en capas. Para incluir a los diferentes tipos de medios, PPP establece conexiones lógicas,
llamadas sesiones, entre dos nodos. La sesión PPP oculta el medio físico subyacente del protocolo PPP superior. Estas
sesiones también proporcionan a PPP un método para encapsular varios protocolos sobre un enlace punto a punto.
Cada protocolo encapsulado en el enlace establece su propia sesión PPP.

PPP también permite que dos nodos negocien opciones dentro de la sesión PPP. Esto incluye la autenticación,
compresión y multienlace (el uso de varias conexiones físicas).

PPP encapsula tramas de datos para transmitirlas a través de enlaces físicos de capa 2. PPP establece una conexión
directa mediante cables seriales, líneas telefónicas, líneas troncales, teléfonos celulares, enlaces de radio
especializados o enlaces de fibra óptica.

El Protocolo Punto a Punto contiene tres componentes principales:

• Entramado del estilo de HDLC para transportar paquetes multiprotocolo a través de enlaces punto a punto.
• Protocolo de control de enlace (LCP) extensible para establecer, configurar y probar la conexión de enlace
de datos.
• Familia de protocolos de control de red (NCP) para establecer y configurar distintos protocolos de capa
de red. PPP permite el uso simultáneo de varios protocolos de capa de red.

Algunos de los NCP más comunes son el protocolo de control del protocolo de Internet (IPv4), el protocolo de control
de IPv6, el protocolo de control AppleTalk, Novell IPX, el protocolo de control de Cisco Systems, el protocolo de
control SNA y el protocolo de control de compresión.

FELR Página 67
“Redes Básicas”. Tercer Parcial

Figura LXXXIII. Trama PPP.

Hay tres fases de establecimiento de una sesión PPP, como se muestra en la ilustración:

• Fase 1, establecimiento del enlace y negociación de la configuración: antes de que PPP intercambie
cualquier datosgrama de capa de red (como IP) LCP primero debe abrir la conexión y negociar las opciones de
configuración. Esta fase se completa cuando el router receptor envía una trama de acuse de recibo de
configuración de vuelta al router que inicia la conexión.
• Fase 2, determinación de la calidad del enlace (optativa): LCP prueba el enlace para determinar si la
calidad de este es suficiente para activar protocolos de capa de red. LCP puede retrasar la transmisión de la
información del protocolo de capa de red hasta que se complete esta fase.
• Fase 3, negociación de la configuración del protocolo de capa de red: una vez que LCP terminó la fase de
determinación de la calidad del enlace, el protocolo NCP correspondiente puede configurar por separado los
protocolos de capa de red, activarlos y desactivarlos en cualquier momento. Si LCP cierra el enlace, informa a
los protocolos de capa de red para que puedan tomar las medidas adecuadas.

Figura LXXXIV. Fases de PPP.

FELR Página 68
“Redes Básicas”. Tercer Parcial

El enlace permanece configurado para las comunicaciones hasta que las tramas LCP o NCP explícitas cierren el
enlace, o hasta que ocurra algún evento externo, por ejemplo, que caduque un temporizador de inactividad o que
intervenga un administrador.

LCP puede finalizar el enlace en cualquier momento. Por lo general, esto se realiza cuando uno de los routers solicita
la finalización, pero puede suceder debido a un evento físico, como la pérdida de una portadora o el vencimiento de
un temporizador de período inactivo.

4.9 Modelo IEEE LAN.

El Instituto de Ingenieros Electricistas y Electrónicos de USA se ha dedicado a trabajar, desarrollando estándares


para las capas Física y de Enlace del modelo OSI, ya que estas se corresponden con la capa de acceso del Host a la
Red, que en la familia de protocolos TCP/IP no está especificada.

Figura LXXXV. Comparación entre estándares IEEE, modelo OSI y la pila de protocolos TCP/IP.

IEEE 802 fue un proyecto creado en febrero de 1980 paralelamente al diseño del Modelo OSI. Se desarrolló con el fin
de crear estándares para que diferentes tipos de tecnologías pudieran integrarse y trabajar juntas. El proyecto 802
define aspectos relacionados con el cableado físico y la transmisión de datos. Se centra en definir los niveles más
bajos (según el modelo de referencia OSI o sobre cualquier otro modelo). Concretamente subdivide el segundo nivel,
el de enlace, en dos subniveles: el de Enlace Lógico (LLC), recogido en 802.2, y el de Control de Acceso al Medio
(MAC), subcapa de la capa de Enlace Lógico. El resto de los estándares actúan tanto en el Nivel Físico, como en de
Control de Acceso a los Medios

Figura LXXXVI. Estándares IEEE 802.

FELR Página 69
“Redes Básicas”. Tercer Parcial

Casi todas las redes locales han sido estandarizadas por el IEEE, en el comité denominado 802. Los estándares
desarrollados por este comité están enfocados a las capas 1 y 2 del modelo de referencia OSI. Este comité se divide
en subcomités, cuyo nombre oficial es 'Grupos de Trabajo', que se identifican por un número decimal. El primero
(802.1) describe los aspectos generales y las interfaces comunes a todas las LANs 802.x. El 802.2 describe la subcapa
LLC (Logical Link Control), también común a todas las redes 802.x. La mayoría de los demás grupos de trabajo tienen
que ver con diversas tecnologías de red local. Cada uno de ellos especifica el nivel físico y la subcapa MAC. Por
ejemplo el estándar 802.3 describe el nivel físico y el subnivel MAC de la red con protocolo MAC CSMA/CD, más
conocida como Ethernet.

Los grupos de trabajo 802 no son algo estático; continuamente se están planteando para su estandarización nuevas
técnicas y protocolos, nuevos medios físicos, etc. Cuando surge una nueva propuesta el grupo de trabajo
correspondiente nombra un grupo de estudio que la analiza, y si el informe es favorable se crea un 'subgrupo' de
trabajo (llamado oficialmente proyecto) que eventualmente propone una adenda al estándar para su aprobación.
Los proyectos se identifican por letras añadidas al grupo de trabajo del que provienen, por ejemplo el proyecto que
propuso el estándar Gigabit Ethernet era el 802.3z.

Figura LXXXVII. Grupos de trabajo IEEE 802.

Todos los estándares IEEE 802 son más tarde aprobados por ANSI y por la ISO. El estándar IEEE 802.x tiene un estándar
equivalente ISO 8802-x. Normalmente todos los estándares IEEE son aprobados más tarde por ISO bajo la denominación
8802.x, convirtiéndose así en estándares internacionales; así por ejemplo el estándar ISO 8802.3 es equivalente al IEEE
802.3

FELR Página 70
“Redes Básicas”. Tercer Parcial

4.9.1 Estándar IEEE 802.1

Es la Definición Internacional de Redes. Define la relación entre los estándares 802 del IEEE y el Modelo de
Referencia para Interconexión de Sistemas Abiertos (OSI) de la ISO (Organización Internacional de Estándares). Por
ejemplo, este Comité definió direcciones para estaciones LAN de 48 bits para todos los estándares 802, de modo que
cada adaptador (NIC) puede tener una dirección única (Dirección MAC). Los fabricantes de tarjetas de interfaz de
red están registrados y los tres primeros bytes de la dirección son asignados por el IEEE. Cada vendedor es entonces
responsable de crear una dirección única para cada uno de sus productos con los otros tres bytes. Distintos
subcomités han trabajado sobre otras especificaciones varias; por ejemplo el 802.1q trabajó sobre el etiquetado de
tramas en VLAN, el 802.1d sobre el protocolo de árbol de expansión (spanning tree) en switches, el protocolo 802.1x
sobre seguridad en redes, etc.

Distintos subcomités han trabajado sobre otras especificaciones varias; por ejemplo el 802.1q trabajó sobre el
etiquetado de tramas en VLAN, el 802.1d sobre el protocolo de árbol de expansión (spanning tree) en switches, el
protocolo 802.1x sobre seguridad en redes, etc. El IEEE 802.1 Grupo de Trabajo ha sido creado para ocupar y
desarrollar normas y prácticas recomendadas en las siguientes áreas:
• Arquitectura 802LAN / MAN.
• Interconexión entre los 802 LAN, MAN y otras redes de área amplia.
• Seguridad (802).
• Gestión de la red general (802).
• Protocolo y capas superiores (MAC y LLC).

El grupo de trabajo 802.1 tiene cuatro grupos de trabajo activos:


1. Interworking.
 802.1AC - Media Access Control revisión de servicio.
 802.1aq - Reducción de la ruta más corta.
 802.1Qbf - PBB-TE Protección segmento de las infraestructuras.
 802.1AXbk - Link Aggregation: Protocolo de direccionamiento.
 802.1Qbp - Igualdad de Costo varias rutas.
 802.1AXbq - Agregación de enlaces: Interconexión en red distribuida y resistente.
2. Seguridad.
3. Audio / Video puente.
 802.1ASbt - Tiempo y Sincronización: avances y mejoras de rendimiento.
4. Puente del centro de datos (Datos Center Bridging).
 802.1Qbg - Edge Virtual puente.
 802.1BR - Ampliación del puente Puerto.

4.9.2 Estándar IEEE 802.2: Control de Enlace Lógico LLC

IBM diseñó originalmente LLC como una subcapa en la arquitectura IBM Token Ring. El IEEE ha definido un
protocolo que puede operar por encima de todos los protocolos de LAN y MAN de la familia 802. Además, este
protocolo, llamado LLC (Logical Link Control) esconde las diferencias entre los distintos tipos de redes 802,
proporcionando un formato único y una interfaz con la capa de red. Este formato, interfaz y protocolo están basados
estrechamente en OSI.

LLC es la más alta de las dos subcapas de enlace de datos definidas por el IEEE y la responsable del control de enlace
lógico. La subcapa LLC maneja el control de errores, control del flujo, entramado, control de diálogo y
direccionamiento de la subcapa MAC. El protocolo LLC más generalizado es IEEE 802.2, que incluye variantes no
orientado a conexión y orientadas a conexión. El LLC especifica los mecanismos para el direccionamiento de
estaciones conectadas al medio y para controlar el cambio de datos entre usuarios de la red. La operación y formato
de este estándar es basado en el protocolo HDLC.

FELR Página 71
“Redes Básicas”. Tercer Parcial

Figura LXXXVIII, Posición de LLC en una trama de datos.

La subcapa LLC proporciona mecanismos de multiplexación que hacen posible que varios protocolos de red (por
ejemplo, IP , IPX y DECnet ) coexistan dentro de una red multipunto y sean transportados por el mismo medio de
red. También puede proporcionar mecanismos de gestión de errores de control de flujo y solicitud de repetición
automática (ARQ).

El LLC se implementa en el software y su implementación depende del equipo físico. En una computadora, el LLC
puede considerarse como el controlador de la Tarjeta de interfaz de red (NIC). El controlador de la NIC (Tarjeta de
interfaz de red) es un programa que interactúa directamente con el hardware en la NIC para pasar los datos entre
los medios y la subcapa de Control de Acceso al medio (MAC).

El LLC proporciona tres modos de operación.

• Tipo 1 No orientado a la conexión sin confirmación.


• Reduce el tráfico – difusión a todas las estaciones
• No garantiza la entrega
• No garantiza el orden de recepción
• Tipo 2 Orientado a la conexión
• Sólo para comunicación punto a punto
• Fases de establecimiento de conexión y desconexión.
• Control de flujo por ventana deslizante
• Garantiza entrega y orden
• Tipo 3 No orientado a la conexión con confirmación
• Sólo para comunicación punto a punto
• Confirma la entrega de tramas de datos

Cualquier PDU 802.2 LLC tiene el siguiente formato:

Figura LXXXIX. Trama LLC.

Cuando el protocolo LLC se utiliza para el acceso a subredes, e utiliza la extensión (SNAP), se encuentra al comienzo
del campo Información:

Figura XC. Trama LLC para acceso a subredes.

El encabezado 802.2 incluye dos campos de dirección de ocho bits, llamados puntos de acceso al servicio (SAP).

FELR Página 72
“Redes Básicas”. Tercer Parcial

• SSAP (SAP de destino) es un campo de 8 bits que representa la dirección lógica de la entidad de capa de red
que ha creado el mensaje.
• DSAP (SAP de destino) es un campo de 8 bits de longitud que representa las direcciones lógicas de la entidad
de la capa de red destinada a recibir el mensaje.

Aunque los campos SAP tienen una longitud de 8 bits, el bit de orden inferior se reserva para fines especiales, dejando
solo 128 valores disponibles para la mayoría de los fines.

El bit de orden inferior del DSAP indica si contiene una dirección individual o de grupo:
• si el bit de orden inferior es 0, los 7 bits restantes del DSAP especifican una dirección individual, que se refiere
a un único punto de acceso al servicio local (LSAP) al que debe entregarse el paquete.
• si el bit de orden inferior es 1, los 7 bits restantes del DSAP especifican una dirección de grupo, que se refiere
a un grupo de LSAP a los que se debe entregar el paquete.

El bit de orden inferior del SSAP indica si el paquete es un comando o un paquete de respuesta:
• si es 0, el paquete es un paquete de comando, y
• si es 1, el paquete es un paquete de respuesta.

Los 7 bits restantes del SSAP especifican el LSAP (siempre una dirección individual) desde el que se transmitió el
paquete. Los números LSAP son asignados globalmente por el IEEE para identificar de manera única los estándares
internacionales bien establecidos.

Aunque IPv4 se le ha asignado un valor LSAP de 6 (0x06) y ARP se le ha asignado un valor LSAP de 152 (0x98), IPv4
casi nunca se encapsula directamente en tramas 802.2 LLC sin encabezados SNAP. En cambio, el Estándar de Internet
RFC 1042 se utiliza generalmente para encapsular el tráfico IPv4 en tramas LLC 802.2 con encabezados SNAP en
FDDI y en IEEE 802 redes distintas a Ethernet. Las redes Ethernet suelen utilizar Ethernet II enmarcando con
EtherType 0x800 para IP y 0x806 para ARP

El campo de control sirve para distinguir el modo de comunicación, para especificar una operación específica y
para facilitar el control de la conexión y control de flujo (en modo de conexión) o reconocimientos (en modo sin
conexión reconocido). IEEE 802.2 se derivó conceptualmente de HDLC, y tiene los mismos tres tipos de PDU:
• PDU de trama no numerado, U: con un campo de control de 8 bits, que están destinadas a aplicaciones sin
conexión;
• PDU de trama de información, I:con un campo de numeración secuencial y control de 16 bits, que están
destinadas a ser utilizadas en aplicaciones orientadas a la conexión;
• PDU de trama de supervisión, S: con un campo de control de 16 bits, que están destinadas a ser
utilizadas para funciones de supervisión en la capa LLC (Control de enlace lógico).
Para transportar datos en el modo sin conexión y sin acuse de recibo más utilizado, se utiliza el formato U. Se
identifica por el valor '11' en los dos bits inferiores del campo de control de un solo byte.

Figura XCI. Tipo de tramas LLC.

FELR Página 73
“Redes Básicas”. Tercer Parcial

4.10 CSMA/CD.

La primera LAN (Red de área local) del mundo fue la versión original de Ethernet. Robert Metcalfe y sus compañeros
de Xerox la diseñaron hace más de cuarenta años. El primer estándar de Ethernet fue publicado en 1980 por un
consorcio formado por Digital Equipment Corporation, Intel y Xerox (DIX). Metcalfe quería que Ethernet fuera un
estándar compartido a partir del cual todos se podían beneficiar, de modo que se lanzó como estándar abierto.

Ethernet es una familia de tecnologías de interconexión de redes que se define en los estándares 802.2 y 802.3. Los
estándares de Ethernet definen los protocolos de la Capa 2 y las tecnologías de la Capa 1. Ethernet es la tecnología
LAN más ampliamente utilizada y soporta anchos de banda de datos de 10, 100, 1000, o 10 000 Mbps.

El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen siendo los mismos para todas las
formas de Ethernet. Sin embargo, los métodos para detectar y colocar en los medios varían con las diferentes
implementaciones.

Figura XCII. Ethernet y el modelo OSI.

4.10.1 Historia de Ethernet vs el Estándar 802.3

En 1970, cuando la ARPANET sólo llevaba unos meses en funcionamiento, un equipo de la Universidad de Hawai,
dirigido por Norman Abramson, quería poner en marcha una red para interconectar terminales ubicados en las islas
de Kauai, Maui y Hawaii, con un ordenador central situado en Honolulu, en la isla de Oahu. Lo normal habría sido
utilizar enlaces telefónicos, pero la baja calidad y el elevado costo de las líneas hacían prohibitiva esta opción.

En vez de asignar un canal diferente para la comunicación de Oahu hacia y desde cada isla (lo cual habría requerido
seis canales), se asignaron únicamente dos: uno a 413,475 MHz para las transmisiones de Oahu a las demás islas y
otro a 407,350 MHz para el sentido inverso. Esta red se denominó ALOHANET y el protocolo MAC utilizado se llamó
ALOHA. El principio de funcionamiento de ALOHA es muy simple. Cuando un emisor quiere transmitir una trama
simplemente la emite, sin preocuparse en ningún momento de si el canal está libre; una vez ha terminado se pone a
la escucha esperando recibir confirmación de que la información ha sido recibida correctamente por el destinatario
(el cual lo comprueba mediante el CRC de la trama). Si la confirmación no llega en un tiempo razonable el emisor
supone que ha ocurrido una colisión, en cuyo caso espera un tiempo aleatorio y reenvía la trama.

En 1970, mientras Abramson montaba ALOHANET, un estudiante del MIT llamado Robert Metcalfe experimentaba
con la recién estrenada ARPANET y conectaba entre sí ordenadores en un laboratorio. Metcalfe estudió la red de
Abramson y empezó ese mismo año una tesis doctoral en Harvard, que terminaría en 1973, en la que desde un punto
de vista teórico planteaba mejoras que se podrían introducir al protocolo ALOHA para aumentar su rendimiento.

La idea básica era muy simple: las estaciones antes de transmitir deberían detectar si el canal ya estaba en uso (es
decir si ya había 'portadora'), en cuyo caso esperarían a que la estación activa terminara antes de transmitir. Además,
cada estación mientras transmitiera estaría continuamente vigilando el medio físico por si se producía alguna
colisión, en cuyo caso pararía y transmitiría más tarde. Años después este protocolo MAC recibiría la denominación
Acceso Múltiple con Detección de Portadora y Detección de Colisiones, o más brevemente CSMA/CD (Carrier
Sense Multiple Access / Colision Detect).

FELR Página 74
“Redes Básicas”. Tercer Parcial

Figura XCIII. CSMA/CD

En 1972 Metcalfe se mudó a California para trabajar en el Centro de Investigación de Xerox en Palo Alto llamado
Xerox PARC (Palo Alto Research Center). A Metcalfe, el especialista en comunicaciones del equipo con 27 años de
edad, se le encomendó la tarea de diseñar y construir la red que uniera computadoras para compartir archivos e
impresoras. Contaba para ello con la ayuda de un estudiante de doctorado de Stanford llamado David Boggs. Las
primeras experiencias de la red, que denominaron ‘Alto Aloha Network’, las llevaron a cabo en 1972. Fueron
mejorando gradualmente el prototipo hasta que el 22 de mayo de 1973 Metcalfe escribió un memorándum
interno en el que informaba de la nueva red.

Para evitar que se pudiera pensar que sólo servía para conectar ordenadores Alto cambió el nombre inicial por el de
Ethernet, que hacía referencia a la teoría de la física hoy ya abandonada según la cual las ondas electromagnéticas
viajaban por un fluido denominado éter que se suponía llenaba todo el espacio (Metcalfe llamaba éter al cable coaxial
por el que iba la portadora). Los dos ordenadores Alto utilizados para las primeras pruebas fueron rebautizados
entonces con los nombres Michelson y Morley, en alusión a los dos físicos que demostraron en 1887 la inexistencia
del éter mediante el experimento que lleva su nombre.

En 1973 La red de Metcalfe ya tenía todas las características esenciales de la Ethernet actual. Empleaba CSMA/CD
para minimizar la probabilidad de colisión. Tenía topología de bus y funcionaba a 2,94 Mbps sobre un segmento de
cable coaxial de 1,6 Km de longitud. Las direcciones eran de 8 bits y el CRC de las tramas de 16 bits.

En septiembre de 1980 DIX (DEC-Intel-Xerox) publicó las especificaciones de Ethernet Versión 1.0 conocidas como
'libro azul'. Este documento hizo de Ethernet experimental operando a 10 Mb/s un estándar abierto. La publicación
del libro azul hizo de Ethernet la primera tecnología de red local abierta multivendedor, ya que a partir de ese
momento cualquier fabricante podía construir equipamiento conforme con la norma Ethernet. En 1982 se publicó
Ethernet Versión 2.0, que fue la última especificación de Ethernet publicada por DIX. En estas especificaciones el
único medio físico que se contemplaba es el cable coaxial grueso hoy conocido como 10BASE5. En ese mismo año
1982 Xerox liberó la marca registrada que ostentaba sobre el nombre Ethernet.

En febrero de 1980 el IEEE puso en funcionamiento el proyecto (o comité) 802 con el objetivo de acordar la
tecnología idónea para establecer el estándar de red local del futuro. De esta forma los productos de diferentes
fabricantes podrían interoperar, habría libre competencia y los precios bajarían, beneficiando al usuario.
Inicialmente el comité no tenía unas ideas claras de cómo debía ser la tecnología a utilizar, pero sí de cómo debía
llevarse a cabo el proceso de estandarización: debía ser abierto, ordenado y justo. Lo último que se quería era recibir
una propuesta ya terminada de un reducido grupo de fabricantes. Esto fue precisamente lo que ocurrió cuando dos
meses más tarde, en abril de 1980, la alianza DIX informó al comité 802 que estaba terminando el diseño y
especificación de una tecnología de red local, que la propondría para su estandarización cuando estuviera terminada,
pero que entretanto el comité no podría participar en su elaboración.

Después de la propuesta de DIX para la adopción de Ethernet el comité 802 recibió otra de General Motors de una
red denominada Token Bus, también con topología de bus pero que utilizaba un protocolo MAC basado en paso de
testigo. Algo más tarde IBM presentó a su vez otra propuesta de una red con topología de anillo y paso de testigo que
recibía el nombre de Token Ring.

FELR Página 75
“Redes Básicas”. Tercer Parcial

Finalmente, viendo que no sería posible satisfacer a todos con un único estándar, y considerando que el apoyo de la
industria a cada una de las tres propuestas era demasiado importante como para descartar cualquiera de ellas, el
comité 802 en una polémica decisión optó en 1982 por aceptar las tres propuestas y crear un subcomité para cada
una: 802.3 para CSMA/CD (Ethernet), 802.4 para Token Bus y 802.5 para Token Ring.

El 24 de junio de 1983 el IEEE aprobó el estándar 802.3, contemplando como medio físico únicamente el cable coaxial
grueso, al cual denominó 10BASE. El estándar original de IEEE 802.3 se basó en la especificación Ethernet 1.0 y era
muy similar. El documento preliminar se aprobó en 1983. Hoy en día, el término Ethernet a menudo se usa para
referirse a todas las LAN de acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD), que
generalmente cumplen con las especificaciones Ethernet, incluyendo IEEE 802.3.

Originalmente las LAN Ethernet como las LAN IEEE 802.3 eran redes de broadcast. Esto significa que cada estación
puede ver todas las tramas, aunque una estación determinada no sea el destino propuesto para esos datos. Cada
estación debe examinar las tramas que recibe para determinar si corresponden al destino. De ser así, la trama pasa
a una capa de protocolo superior dentro de la estación para su adecuado procesamiento. Existen por lo menos 18
variedades de Ethernet, que han sido especificadas, o que están en proceso de especificación. En la tabla de la figura
se resaltan algunos estándares IEEE.802.3 más comunes y más importantes.

Estándar
Ethernet
Fecha Descripción

Ethernet 1972 (patentado


2,85 Mbit/s sobre cable coaxial en topología de bus.
experimental en 1978)

Ethernet II 10 Mbit/s sobre coaxial fino (thinnet) - La trama tiene un campo de tipo de paquete. El
1982
(DIX v2.0) protocolo IP usa este formato de trama sobre cualquier medio.

10BASE5 10 Mbit/s sobre coaxial grueso (thicknet). Longitud máxima del segmento 500
IEEE 802.3 1983
metros - Igual que DIX salvo que el campo de Tipo se substituye por la longitud.

10BASE2 10 Mbit/s sobre coaxial fino (thinnet o cheapernet). Longitud máxima del
802.3a 1985
segmento 185 metros

10BASE-T 10 Mbit/s sobre par trenzado (UTP). Longitud máxima del segmento 100
802.3i 1990
metros.

100BASE-TX, 100BASE-T4, 100BASE-FX Fast Ethernet a 100 Mbit/s con auto-negociación


802.3u 1995
de velocidad.

802.3x 1997 Full Duplex (Transmisión y recepción simultáneas) y control de flujo.

802.3z 1998 1000BASE-X Ethernet de 1 Gbit/s sobre fibra óptica.

802.3ab 1999 1000BASE-T Ethernet de 1 Gbit/s sobre par trenzado

802.3ae 2003 Ethernet a 10 Gbit/s ; 10GBASE-SR, 10GBASE-LR

802.3an 2006 10GBASE-T Ethernet a 10 Gbit/s sobre par trenzado (UTP)

802.3bm 2015 100G/40G Ethernet para fibra óptica.

25G/40GBASE-T en par trenzado de 4 pares balanceado con 2 conectores a distancias


802.3bq 2016
superiores a los 30 m.

La Ethernet original ha sido renovada varias veces para incorporar nuevos medios de transmisión que permitan
velocidades más altas, sin embargo se han mantenido sus cualidades originales lo que hace compatibles a todos los
protocolos de la familia 802.3., es decir es escalable. El formato de la trama básico no cambiara aun cuando viaje de
una NIC a 10Mb por un enlace a 10Gb y finalicé en una tarjeta a 100Mb.
FELR Página 76
“Redes Básicas”. Tercer Parcial

4.10.2 Formato de la trama IEEE 802.3 y Ethernet

Dado su polémico comienzo no es de extrañar que en el comité 802 (más tarde 802.3) hubiera cierta aversión hacia
la propuesta de la alianza DIX. El comité 802.3 pasó varios meses revisando el estándar Ethernet e introdujo diversos
cambios, el más importante de los cuales fue la sustitución del campo tipo (que especifica el protocolo del nivel de
red) por un campo longitud, inexistente hasta entonces. Los diseñadores originales de Ethernet consideraron este
campo innecesario porque la mayoría de los protocolos a nivel de red incluyen en la información de cabecera un
campo indicando la longitud, y cuando esto no es así la longitud de la trama se puede averiguar simplemente
contando el número de bytes que ésta contiene. Sin embargo el comité 802.3 creyó conveniente incluir el campo
longitud en vez del campo tipo para no condicionar la información que debiera aparecer en el nivel de red. Esta
pequeña modificación tenía el efecto colateral de hacer incompatible el estándar IEEE 802.3 con Ethernet DIX, cosa
que según algunos era el verdadero objetivo de muchos de los miembros del comité que votaron a favor de esta
modificación.

Xerox resolvió en parte el problema de incompatibilidad producido por la decisión del IEEE asignando a todos los
protocolos códigos superiores a 1536, valor máximo del campo longitud por ejemplo el código correspondiente a IP
es 2048. Así analizando el valor de este campo podemos saber si la trama tiene formato DIX u 802.3. Los dos formatos
son incompatibles entre sí, pero al menos pueden coexistir en una misma red. En el caso de una trama 802.3 la
información sobre el protocolo a nivel de red aparece en la cabecera LLC (Logical Link Control). La estructura de
esta cabecera, común a todas las redes locales 802, se especifica en el estándar IEEE 802.2.

En 1997 el subcomité 802.3x finalmente decidió incluir en el estándar como válidos los dos significados, tipo y
longitud, para este campo de dos bytes. La elección de cual significado es aplicable en cada caso se haría en función
del valor de este campo. Dicho de otro modo el comité estandarizó lo que era ya una práctica generalizada en todas
las implementaciones existentes. El formato DIX es el más utilizado, empleándose por ejemplo en TCP/IP.

Los campos de trama Ethernet e IEEE 802.3:

• Preámbulo: El patrón de unos y ceros alternados les indica a las estaciones receptoras que una trama es
Ethernet o IEEE 802.3. En IEEE 802.3 El patrón del preámbulo es: 10101010 10101010 10101010 10101010
10101010 10101010 10101010. Un campo de 7 bytes (56 bits) con una secuencia de bits usada para
sincronizar los dispositivos emisor y receptor antes de iniciar la transmisión de datos. Estos bits se
transmiten en orden, de izquierda a derecha y en la codificación Manchester representan una forma de onda
periódica. La trama Ethernet incluye un byte adicional que es el equivalente al delimitador Inicio de trama
(SOF) de la trama IEEE 802.3.

FELR Página 77
“Redes Básicas”. Tercer Parcial

• Delimitador de inicio de trama (SOF): El byte delimitador de IEEE 802.3 finaliza con dos bits 1
consecutivos, 10101011 que sirven para sincronizar las porciones de recepción de trama de todas las
estaciones de la LAN. SOF se especifica explícitamente en el campo de preámbulo de Ethernet. Aunque se
detecte una colisión durante la emisión del preámbulo o del SOF, el emisor debe continuar enviando todos
los bits de ambos hasta el fin del SOF.
• Dirección de destino: puede tener una longitud tanto de 2 o de 6 bytes (48 bits) que especifica la dirección
MAC para IEEE 802.3 y solo de 6 bytes para Ethernet. El campo dirección de destino específica la estación o
estaciones a las cuales están dirigidos los datos. Esta dirección de destino puede ser la de un solo equipo
unicast, la de un grupo de equipos multicast o la dirección de broadcast dirigida hacia todos los equipos de la
red. Cada estación examina este campo para determinar si debe aceptar el paquete.
• Dirección de origen: La dirección de origen identifica a la estación que está haciendo la transmisión, puede
tener una longitud tanto de 2 o de 6 bytes para IEEE 802.3 y solo de 6 bytes para Ethernet. Ambas direcciones,
origen y destino, deben tener la misma longitud en todos los dispositivos de una red dada. La estación que
deba aceptar el paquete conoce por este campo la dirección de la estación origen con la cual intercambiará
datos.
• Tipo de trama: Campo de 2 bytes (16 bits) que identifica el protocolo de la capa de red asociado con el
paquete códigos superiores a 1536 para tramas Ethernet (2048 para IP), o en su defecto, la longitud del
campo de datos. La capa de enlace de datos interpreta este campo, longitudes inferiores a 1536.
• Longitud de la trama. Campo creado para las tramas IEEE 802.3 para indica la longitud del campo de datos
que se encuentra a continuación. Es necesaria para determinar la longitud del campo de datos en los casos
que se utiliza un campo pad (campo de relleno). La longitud máxima de una trama Ethernet es 1526 bytes.
Esto significa una longitud del campo de datos por encima de 1500 bytes. La longitud del campo de datos de
802.3 también está limitada a 1500 bytes para redes de 10 Mbps, pero es distinta para otras velocidades de
transmisión.
• Información. Contiene realmente los datos transmitidos por la capa de red. Es de longitud variable, por lo
que puede tener cualquier longitud entre 0 y 1500 bytes. Si los datos de la trama no son suficientes para
llenar la trama hasta una cantidad mínima de 64 bytes, se insertan bytes de relleno para asegurar que por lo
menos haya una trama de 64 bytes.
• Pad o campo de relleno. Es usado para asegurar que la trama alcance la longitud mínima requerida. Una
trama debe contener mínimo un número de 64 bytes para que las estaciones puedan detectar las colisiones
con precisión.
• Secuencia de chequeo de trama (FCS). Esta secuencia contiene un algoritmo de verificación CRC de 4 bytes,
utilizado como mecanismo de control de errores. Cuando el dispositivo emisor ensambla la trama, realiza un
cálculo en los bits de la trama. El dispositivo emisor almacena este valor en el campo de chequeo de secuencia
de la trama. Cuando el receptor recibe la trama, realiza el mismo cálculo y compara el resultado con el del
campo de chequeo de secuencia de la trama. Si los dos valores coinciden, la transmisión se asume como
correcta. Si los dos valores son diferentes, el dispositivo de destino solicita una retransmisión de la trama.

Figura XCIV. Trama Ethernet encapsulando un paquete IP.

FELR Página 78
“Redes Básicas”. Tercer Parcial

4.10.3 Capa física de IEEE 802.3

Las diferencias que existen entre Ethernet estándar, Fast Ethernet, Gigabit Ethernet y 10 Gigabit Ethernet tienen
lugar en la capa física, generalmente denominada Ethernet PHY.

La Ethernet se rige por los estándares IEEE 802.3. Actualmente, se definen cuatro velocidades de datos para el
funcionamiento con cables de fibra óptica y de par trenzado:
• 10 Mbps - Ethernet 10Base-T
• 100 Mbps - Fast Ethernet
• 1000 Mbps - Gigabit Ethernet
• 10 Gbps - 10 Gigabit Ethernet

Si bien existe una gran cantidad de implementaciones de Ethernet diferentes para estas diversas velocidades de
transmisión de datos, aquí sólo se presentarán las más comunes. La figura muestra algunas de las características de
la Ethernet PHY.

Figura XCV. Características de la capa física PHY estándares IEEE 802.3

4.10.4 Capa de Control de acceso al medio IEEE 802.3 CSMA/CD

Ethernet e IEEE 802.3 especifican el mismo método de control del medio (MAC) CSMA/CD. Las estaciones de una
LAN de tipo CSMA/CD pueden acceder a la red en cualquier momento. Antes de enviar datos, las estaciones CSMA/CD
escuchan a la red para determinar si se encuentra en uso. Si lo está, entonces esperan. Si la red no se encuentra en
uso, las estaciones comienzan a transmitir. Una colisión se produce cuando dos estaciones escuchan para saber si
hay tráfico de red, no lo detectan y, acto seguido transmiten de forma simultánea. En este caso, ambas transmisiones
se dañan y las estaciones deben volver a transmitir más tarde. Los algoritmos de postergación determinan el
momento en que las estaciones que han tenido una colisión pueden volver a transmitir. Las estaciones CSMA/CD
pueden detectar colisiones, de modo que saben en qué momento pueden volver a transmitir.

1. Una estación que tiene un mensaje para enviar escucha al medio para ver si otra estación está transmitiendo
un mensaje.
2. Si el medio está tranquilo (ninguna otra estación está transmitiendo), se envía la transmisión.
3. Cuando dos o más estaciones tienen mensajes para enviar, es posible que transmitan casi en el mismo
instante, resultando en una colisión en la red.
4. Cuando se produce una colisión, todas las estaciones receptoras ignoran la transmisión confusa.
5. Si un dispositivo de transmisión detecta una colisión, envía una señal de expansión para notificar a todos los
dispositivos conectados que ha ocurrido una colisión.
6. Las estaciones transmisoras detienen sus transmisiones tan pronto como detectan la colisión.
7. Cada una de las estaciones transmisoras espera un periodo de tiempo aleatorio e intenta transmitir otra vez.

FELR Página 79
“Redes Básicas”. Tercer Parcial

Figura XCVI. CSMA/CD en IEEE 802.3

Detección de portadora. Es utilizada para escuchar al medio (la portadora) para ver si se encuentra libre. Si la
portadora se encuentra libre, los datos son pasados a la capa física para su transmisión. Si la portadora está ocupada,
se monitorea hasta que se libere.

Detección de colisiones. Luego de comenzar la transmisión, continúa el monitoreo del medio de transmisión.
Cuando dos señales colisionan, sus mensajes se mezclan y se vuelven ilegibles. Si esto ocurre, las estaciones afectadas
detienen su transmisión y envían una señal de expansión. La señal de expansión de colisión asegura que todas las
demás estaciones de la red se enteren de que ha ocurrido una colisión.

4.10.5 Capa de Control de Enlace Lógico de IEEE 802.3 CSMA/CD

Ethernet opera a través de dos capas del modelo OSI. El modelo ofrece una referencia sobre con qué puede
relacionarse Ethernet, pero en realidad se implementa sólo en la mitad inferior de la capa de Enlace de datos, que se
conoce como subcapa Control de acceso al medio (Media Access Control, MAC), y la capa física.

Ethernet en la Capa 1 implica señales, streams de bits que se transportan en los medios, componentes físicos que
transmiten las señales a los medios y distintas topologías. La Capa 1 de Ethernet tiene un papel clave en la
comunicación que se produce entre los dispositivos, pero cada una de estas funciones tiene limitaciones.

Ethernet en la Capa 2 se ocupa de estas limitaciones. Las subcapas de enlace de datos contribuyen significativamente
a la compatibilidad de tecnología y la comunicación con la computadora. La subcapa MAC se ocupa de los
componentes físicos que se utilizarán para comunicar la información y prepara los datos para transmitirlos a través
de los medios. La subcapa Control de enlace lógico (Logical Link Control, LLC) sigue siendo relativamente
independiente del equipo físico que se utilizará para el proceso de comunicación.

Para Ethernet, el estándar IEEE 802.2 describe las funciones de la subcapa LLC y el estándar 802.3 describe las
funciones de la subcapa MAC y de la capa física. El Control de enlace lógico se encarga de la comunicación entre las
capas superiores y el software de red, y las capas inferiores, que generalmente es el hardware. La subcapa LLC toma
los datos del protocolo de la red, que generalmente son un paquete IPv4, y agrega información de control para ayudar
a entregar el paquete al nodo de destino. La Capa 2 establece la comunicación con las capas superiores a través del
LLC.

El LLC se implementa en el software y su implementación depende del equipo físico. En una computadora, el LLC
puede considerarse como el controlador de la Tarjeta de interfaz de red (NIC). El controlador de la NIC (Tarjeta de
interfaz de red) es un programa que interactúa directamente con el hardware en la NIC para pasar los datos entre
los medios y la subcapa de Control de Acceso al medio (MAC).

FELR Página 80
“Redes Básicas”. Tercer Parcial

4.10.6 Características de Ethernet

Las siguientes son algunas de las características que definen a Ethernet:

• Las especificaciones Ethernet (IEEE 802.3) también han sido adoptadas por ISO y se encuentran en el
estándar internacional 8802-3.
• Ethernet está basado en la lógica de la topología bus. Originalmente, el bus era una única longitud de cable a
la cual los dispositivos de red estaban conectados. En las implementaciones, el bus se ha miniaturizado y
puesto en un hub (concentrador) actualmente un switch, al cuál las estaciones, servidores y otros
dispositivos son conectados.
• Ethernet usa un método de acceso al medio por disputa (contention). Las transmisiones son difundidas en el
canal compartido para ser escuchadas por todos los dispositivos conectados, solo el dispositivo de destino
previsto va a aceptar la transmisión. Este tipo de acceso es conocido como CSMA/CD.
• Ethernet ha evolucionado para operar sobre una variedad de medios, cable coaxial, par trenzado y fibra
óptica, a múltiples tasas de transferencia. Todas las implementaciones son interoperables, lo que simplifica
el proceso de migración a nuevas versiones de Ethernet.
• Múltiples segmentos de Ethernet pueden ser conectados para formar una gran red LAN Ethernet utilizando
repetidores. La correcta operación de una LAN Ethernet depende en que los segmentos del medio sean
construidos de acuerdo a las reglas para ese tipo de medio. Redes LAN complejas construidas con múltiples
tipos de medio deben ser diseñadas de acuerdo a las pautas de configuración para multisegmentos provistas
en el estándar Ethernet. Las reglas incluyen límites en el número total de segmentos y repetidores que
pueden ser utilizados en la construcción de una LAN.
• Ethernet fue diseñado para ser expandido fácilmente. El uso de dispositivos de interconexión tales como
bridges (puente), routers (ruteadores), y switches (conmutadores) permiten que redes LAN individuales se
conecten entre sí. Cada LAN continúa operando en forma independiente pero es capaz de comunicarse
fácilmente con las otras LAN conectadas.

Figura XCVII. Compatibilidad e Interoperabilidad entre estándares IEEE 802.3

4.11 Token Passing BUS.

Token bus está definido en el estándar IEEE 802.4. Se publicó en 1980 por el comité 802 dentro del cual crearon 3
subcomites para 3 propuestas que impulsaban distintas empresas. Fue muy apoyado por GM. Actualmente en desuso
por la popularización de Ethernet. Físicamente, es un cable lineal o en forma de árbol al que se conectan las
estaciones. Las estaciones están organizadas lógicamente en forma de anillo, donde cada estación conoce la dirección
a su “izquierda” y a su “derecha”. Cuando sé inicializa el anillo lógico, la estación de número más alto puede enviar la
primera trama.

FELR Página 81
“Redes Básicas”. Tercer Parcial

Hecho esto, pasa el permiso a su vecino inmediato enviándole una trama de control especial llamada ficha (token).
La ficha se propaga alrededor del anillo lógico, teniendo permiso de transmitir marcos sólo quien tiene la ficha. Dado
que sólo una estación a la vez tiene la ficha, no ocurren colisiones. Un punto importante a notar es que no es
importante el orden físico en que están conectadas las estaciones al cable. Dado que el cable inherentemente es un
medio de difusión, todas las estaciones reciben todas las tramas, descartando los que no están dirigidos a ellas.

Figura XCVIII. Topología lógica de Token Bus IEEE 802.4.

Cuando una estación pasa la ficha, envía una trama de ficha dirigida específicamente a su vecino lógico en el anillo, sin
importar la ubicación física de esa estación en el cable.

Trama Token Bus

Figura XCIX. Trama Token Bus.

• Preámbulo: se utiliza para la sincronización del reloj del receptor.


• Byte delimitador de inicio: Marca el inicio de la trama.
• Control de la trama: Byte que indica si la trama es de datos o de control:
• Trama de Datos: LLeva el nivel de prioridad y el acuse de recibo (ACK).
• Trama de Control: Se encarga de indicar el paso del testigo o token y también del mantenimiento del anillo
(Adhesión o eliminación de nodos).
• Dirección Destino y Origen: 2 ó 6 bytes, indican hacia quien o desde quien se envía la trama. Son
equivalentes a las usadas en Token Ring.
• Datos: Hasta 8182 bytes si las direcciones son de 2 bytes y hasta 8174 si son de 6 bytes.
• Código de Redundancia (CRC): 4 bytes que corresponden a una suma de verificación (Checksum) para
comprobar que la trama llegó en buen estado:

Medio físico.

Los nodos están conectados a un cable coaxial de 75Ω como el usado en TV. Se emplean 3 tipos de modulaciones
analógicas:

• Modulación por desplazamiento de frecuencia continua (FSK).


• Modulación por desplazamiento de frecuencia coherente (FSK).
• Modulación por desplazamiento de fase de amplitud modulada (PSK).

Las velocidades de transmisión son de 1,5 y 10 Mbps.


FELR Página 82
“Redes Básicas”. Tercer Parcial

Control de acceso al medio MAC.

Siempre hay un testigo (token) el cual las estaciones de la red se van pasando en el orden en el que están conectadas.
Solamente un único nodo puede transmitir en un momento dado y éste nodo es el que tiene el testigo. El testigo es
usado durante un tiempo para transmitir, pasando después el testigo a su vecino lógico para mantener el anillo. Si el
nodo no tuviera que enviar ningún dato, el testigo es inmediatamente pasado a su nodo sucesor. Es necesario que un
protocolo notifique las desconexiones o adhesiones de nodos al anillo lógico.

Al inicio del anillo el nodo con dirección más alta puede enviar la primera trama y luego envía el testigo a la dirección
del nodo siguiente. El testigo va pasando de las direcciones más altas a las más bajas. Además se definen prioridades
de tráfico: 0, 2 ,4 y 6, siendo 0 la más baja. Cuando el testigo llega a un nodo, se comprueba si la prioridad 6 tiene
datos para enviar. De lo contrario, se pasa a la prioridad 4 y se comprueba, y así sucesivamente hasta llegar al nivel
0, ó hasta que haya expirado el tiempo del testigo.

El token bus también reconoce prioridades y puede configurarse para proporcionar una fracción garantizada del
ancho de banda a tráfico con prioridad alta como la voz digitalizada. Esta LAN también tiene rendimiento y eficiencia
excelentes con alta carga volviéndose efectivamente TDM. Por último, el cable de banda ancha puede manejar
múltiples canales, no sólo de datos sino también de voz y televisión.

Por el lado negativo, los sistemas de banda ancha emplean mucha ingeniería analógica e incluyen módems y
amplificadores de banda amplia. El protocolo es extremadamente complicado y tiene un retardo sustancial cuando
la carga es baja. Por otra parte, el token bus no es idóneo para las implementaciones de fibra óptica y tiene una base
instalada de usuarios pequeños.

4.12 Token Passing Ring.

Token Ring es una arquitectura de red desarrollada por IBM en los años 1970 con topología lógica en anillo y técnica
de acceso de paso de testigo, usando una trama de 3 bytes llamado testigo (en inglés token) que viaja alrededor del
anillo. Token Ring queda definido en el estándar IEEE 802.5. Actualmente está en desuso por la popularización de
Ethernet; actualmente no es empleada en diseños de redes.

El IEEE 802.5 es un estándar por el Institute of Electrical and Electronics Engineers (IEEE), y define una red de área
local LAN en configuración de anillo (Ring), con método de paso de testigo como control de acceso al medio. La
velocidad de su estándar es de 4 o 16 Mb/s cuando es implementado sobre cables de hilos de cobre, existen
implementaciones de mayor velocidad tanto sobre hilos de cobre CDDI como sobre fibra óptica FDDI la cual llega a
los 100 Mbps y 200 km de extensión.

La topología del token ring se basa en Unidades de acceso de múltiples estaciones (MAU) que permiten una
conexión en estrella de los diferentes participantes en la red. El "nodo" representa el punto que permite que todas
las estaciones de trabajo se vinculen entre sí. No hay conexión directa entre las diferentes computadoras.

Figura C. Unidad de acceso múltiple MAU de Token Ring

FELR Página 83
“Redes Básicas”. Tercer Parcial

Sin embargo, evoca un anillo lógico, basado en una estructura física en forma de estrella, porque la transmisión de
datos se realiza de forma circular, pero en un nivel abstracto. Los datos ciertamente todavía están orientados hacia
el MAU (Concentrador). Pero no los redirige directamente a un destinatario especifico, simplemente los pasa a la
siguiente computadora en una secuencia claramente definida.

Las redes Token Ring usan varios mecanismos para detectar y compensar los fallos de la red. Uno de estos
mecanismos consiste en seleccionar una estación de la red Token Ring como el monitor activo. Esta estación actúa
como una fuente centralizada de información de temporización para otras estaciones del anillo y ejecuta varias
funciones de mantenimiento del anillo. Potencialmente cualquier estación de la red puede ser la estación de monitor
activo.

Una de las funciones de esta estación es la de eliminar del anillo las tramas que circulan continuamente. Cuando un
dispositivo transmisor falla, su trama puede seguir circulando en el anillo e impedir que otras estaciones transmitan
sus propias tramas; esto puede bloquear la red. El monitor activo puede detectar estas tramas, eliminarlas del anillo
y generar un nuevo token.

La topología en estrella de la red Token Ring de IBM también contribuye a la confiabilidad general de la red. Las MAU
activas pueden ver toda la información de una red Token Ring, lo que les permite verificar si existen problemas y, de
ser necesario, eliminar estaciones del anillo de forma selectiva.

Trama Token Ring

Figura CI. Formato de Trama de Token Ring IEEE 802.5

El token es un frame de 3 byte que contiene:

• SD (Delimitador de inico): 8 bits para indicar dónde empieza el token .El delimitador de inicio alerta a cada
estación ante la llegada de un token o de una trama de datos/comandos. Este campo también incluye señales
que distinguen al byte del resto de la trama al violar el esquema de codificación que se usa en otras partes de
la trama.
• AC (Control de acceso): otro byte para indicar si el token está libre (0) u ocupado (1). El byte de control de
acceso contiene los campos de prioridad y de reserva, así como un bit de token y uno de monitor. El bit de
token distingue un token de una trama de datos/comandos y un bit de monitor determina si una trama gira
continuamente alrededor del anillo
• ED (Delimitador final): igual que el primero para delimitar el final del token. El delimitador de fin señala el
fin del token o de una trama de datos/comandos. Contiene bits que indican si hay una trama defectuosa y
una trama que es la última de una secuencia lógica.

FELR Página 84
“Redes Básicas”. Tercer Parcial

Además, la trama completa contará con 12 bytes para almacenar la dirección de destino y origen, 4 bytes para control
de errores CRC y otros dos bytes para control y estatus de la trama.

El tamaño de las tramas de datos/comandos varía según el tamaño del campo de información. Las tramas de datos
transportan información para los protocolos de capa superior, mientras que las tramas de comandos contienen
información de control y no poseen datos para los protocolos de capa superior.

• FC (Control de Trama): En las tramas de datos o instrucciones hay un byte de control de trama a
continuación del byte de control de acceso. El byte de control de trama indica si la trama contiene datos o
información de control. En las tramas de control, este byte especifica el tipo de información de control.
• Campos de dirección que identifican las estaciones destino y origen. Como en el caso de IEEE 802.5, la
longitud de las direcciones es de 6 bytes.
• Campo de datos está ubicado a continuación del campo de dirección. La longitud de este campo está limitada
por el token de anillo que mantiene el tiempo, definiendo de este modo el tiempo máximo durante el cual
una estación puede retener al token.
• Campo de secuencia de verificación de trama (FCS). La estación origen completa este campo con un valor
calculado según el contenido de la trama. La estación destino vuelve a calcular el valor para determinar si la
trama se ha dañado mientras estaba en tránsito. Si la trama está dañada se descarta. Como en el caso del
token, el delimitador de fin completa la trama de datos/comandos.

Nivel físico

Las redes Token Ring soportan entre 72 y 260 estaciones a velocidades de 4 a 16 Mbps, se implementan mediante
cableado de par trenzado UTP, STP o cable coaxial y utilizan una señalización de banda base con codificación
diferencial de Manchester.

Figura CII. Nivel Físico IEEE 802.5

Control de acceso al medio MAC.

La idea es mantener el testigo circulando activamente por el anillo, para que cualquier estación que desee transmitir
pueda hacerlo cuando este pase por ella. En este punto, la estación que recibe el testigo verifica el campo de prioridad
de este, si los datos que desea enviar tienen una prioridad mayor o igual, entonces retiene el testigo durante el tiempo
máximo de posesión menos 10 ms o hasta que no tenga más datos para enviar (lo que ocurra primero) e inicia su
transmisión. A medida que las tramas van recorriendo el anillo, cada estación verifica si la dirección Destino
corresponde con la propia, de no ser así, simplemente la ignora.

En caso contrario, la estación receptora va a copiar la trama (notificando esto al marcar el bit de copiado en 1) y de
acuerdo al resultado de la operación, el bit A también será encendido; posteriormente, deja que la trama siga
circulando por el anillo para que al llegar al emisor ésta sea retirada. Finalmente, el emisor debe inyectar un nuevo
testigo en el anillo, con prioridad X (donde X será la prioridad previamente marcada en el testigo antes de que
nuestra estación lo retuviera para empezar la transmisión), el objetivo de esto es que las estaciones con datos cuya
prioridad es más baja no sufran de inanición y puedan transmitir.

FELR Página 85
“Redes Básicas”. Tercer Parcial

Figura CIII. Operación de Token Ring.

4.13 Normas 802.11x

Una red inalámbrica es similar a las redes LAN de los protocolos anteriormente vistos, sólo que reemplaza los
conductores de cobre por señales radioeléctricas para conectar las estaciones de trabajo al concentrador de red
(Access Point). En la mayoría de las instalaciones actuales encontramos una LAN inalámbrica (WLAN) como
prolongación de una LAN tradicional.

En un principio, las redes sin hilos fueron concebidas para la creación de redes de área local de empresa. La
arquitectura de éstas es, pues, bastante sencilla. Con el tiempo, sin embargo, su uso ha evolucionado hacia redes de
área extendida, principalmente en núcleos urbanos. Eso es debido al hecho de que la arquitectura, a pesar de ser
sencilla, es muy fácilmente escalable.

Las redes inalámbricas permiten a los usuarios acceder a información y recursos en tiempo real sin necesidad de
estar físicamente en un sólo lugar. Con WLAN los terminales pueden ser móviles y elimina la necesidad de usar cables
y establece nuevas aplicaciones añadiendo flexibilidad a la red y lo más importante incrementa la productividad y
eficiencia en las actividades diarias de la empresa. Un usuario dentro de una red inalámbrica puede transmitir y
recibir voz, datos y video dentro de edificios, entre edificios o campus universitarios e inclusive sobre áreas
metropolitanas a velocidades de 11 Mbps, 54 Mbps, 100Mbps y hasta 300 Mbps.

De manera purista vale a decir que el acrónimo Wi-Fi se utiliza para identificar los productos que incorporan
cualquier variando de la tecnología sin hilos de los estándares IEEE 802.11, que permiten la creación de redes de
área local sin hilos conocidas como WLAN, y que son plenamente compatibles con los de cualquier otro fabricante
que utilice estos estándares.

Las redes Wi-Fi cumplen los estándares genéricos aplicables a las LAN cableadas (Ethernet o equivalentes) pero
necesitan una normativa específica adicional que defina el uso de los recursos radioeléctricos y la manera o el orden
en qué cada uno de los dispositivos en red envía la información a los otros.

802.11 es una extensión de los estándares IEEE 802. Utiliza el mismo 802.2 LLC y esquema de direccionamiento de
48 bits como otras LAN 802. Sin embargo, hay muchas diferencias en la subcapa MAC y en la capa física. En un
entorno inalámbrico, el entorno requiere consideraciones especiales. No hay una conectividad física definible; por
lo tanto, factores externos pueden interferir con la transferencia de datos y es difícil controlar el acceso. Para vencer
estos desafíos, los estándares inalámbricos tienen controles adicionales.

FELR Página 86
“Redes Básicas”. Tercer Parcial

Figura CIV. Frecuencias de operación de Redes Inalámbricas IEEE 802.11

Las bandas de frecuencia utilizadas mayoritariamente por las redes sin hilos y especialmente por los equipos Wi-Fi
son las de 2,4 y 5 GHz, que están clasificadas como uso común compartido. La caracterización como uso común
permite que diversos operadores o usuarios puedan utilizar de forma simultánea estas frecuencias, de acuerdo con
unas normas establecidas por la regulación para mitigar las posibles interferencias entre emisiones.

Elementos de una red Wi-Fi

Los elementos que forman una red Wi-Fi son los siguientes:
• Punto de acceso (AP): Es el dispositivo que gestiona la información transmitida y la hace llegar a destino.
Asimismo, proporciona la unión entre la red Wi-Fi y la red fija.
• Antena: Las antenas son los elementos que envían al aire señales en forma deondas electromagnéticas que
contienen la información dirigida en el dispositivo de destino; y a la vez, captan del aire las señales de las
cuales se extraerá la información que llega de otro dispositivo.
• Dispositivo externo Wi-Fi: La tarjeta Wi-Fi es una tarjeta de red de área local (CHAL) que cumple la
certificación Wi-Fi y permite por lo tanto la conexión de un terminal de usuario en una red 802.11. Hay
tarjetas diferentes para cada subestándar (a, b o gr), pero también hay mixtas. Estos dispositivos externos
pueden conectarse a ranuras PCI o PCMCIA o en puertos USB. Las principales diferencias entre este tipo de
tarjetas y una tarjeta Ethernet convencional son el cifrado de datos, el identificador de red Wi-Fi (ESSID), el
canal y el ajuste de velocidad.
• Antena de usuario y conector pigtail: La antena de usuario proporciona la cobertura necesaria a un
usuario para el acceso a la red Wi-Fi. El conector pigtail es un tipo de cable que conecta y adapta la tarjeta
Wi-Fi y la antena del usuario. Hay que decir que el pigtail no es un elemento estándar, depende del fabricante
de la tarjeta. En ciertos casos la tarjeta Wi-Fi trae integrada la antena de usuario, como es el caso de las
tarjetas para portátiles, PDA, etc. Si es así, entonces no es necesaria otra antena externa.

Figura CV. Elementos de una red 802.11

Un AP constituye una red Wi-Fi pero por si solo no proporciona acceso a Internet. El AP, además de establecer una
red Wi-Fi, permite conectar los dispositivos inalámbricos a una red cableada. Para ello, todos los APs disponen de
un puerto Ethernet. Si el AP está conectado a una red cableada con conexión a Internet (o directamente a un router),
los dispositivos Wi-Fi tendrán acceso a Internet.

FELR Página 87
“Redes Básicas”. Tercer Parcial

Figura CVI. Puerto Ethernet para establecer redes 802.11

Arquitectura de Red IEEE 802.11

El estándar IEEE 802.11, comúnmente llamada Wi-Fi, es un sistema por contención que utiliza un proceso de acceso
al medio de Acceso múltiple con detección de portadora y prevención de colisiones (CSMA/CA), a diferencia de
CSMA/CD, el dispositivo final examina los medios para detectar la presencia de una señal de datos. Si el medio está
libre, el dispositivo envía una notificación a través del medio, sobre su intención de utilizarlo. Una vez que recibe
autorización para transmitir, el dispositivo envía los datos. CSMA/CA especifica un procedimiento Postergación
aleatorio para todos los nodos que están esperando transmitir. La oportunidad más probable para la contención de
medio es el momento en que el medio está disponible.

Las redes 802.11 también usan Acuse de recibo de enlace de datos para confirmar que una trama se recibió con
éxito. Si la estación transmisora no detecta la trama de reconocimiento, ya sea porque la trama de datos original o el
reconocimiento no se recibieron intactos, se retransmite la trama. Este reconocimiento explícito supera la
interferencia y otros problemas relacionados con la radio.

Otros servicios admitidos por la 802.11 son la autenticación, asociación (conectividad a un dispositivo inalámbrico)
y privacidad (encriptación).

IEEE 802.11 define dos tipos de arquitectura de red o modos de funcionamiento: modo Ad-Hoc, para conexiones
punto a punto, y modo Infraestructura, para conexiones punto a multipunto.

• Modo Ad-Hoc. El modo Ad-Hoc permite a los equipos inalámbricos interconectarse entre ellos sin la
necesidad de utilizar un Punto de Acceso, estableciendo conexiones punto a punto. Cada una de estas redes
punto a punto se denominan Independent Basic Service Set (IBSS), y las conexiones tendrán un identificador
propio denominado Independent Basic Service Set Identifier (IBSSID).

Figura CVII. Arquitectura IEEE Ad-Hoc

FELR Página 88
“Redes Básicas”. Tercer Parcial

• Modo Infraestructura. En el modo infraestructura, los equipos que conforman la red se conectan entre sí a
través de un Punto de Acceso, que a la misma vez, les ofrece el acceso a una red cableada. Es la manera
habitual de establecer una red inalámbrica. Al área de cobertura de un punto de acceso se le conoce con el
nombre de Basic Service Set (BSS) y se identifica mediante un nombre de red denominado Service Set
Identifier (SSID). La red se puede componer de varios Puntos de Acceso interconectados entre si de forma
cableada, lo que se conoce como una Extended Service Set (ESS). Este conjunto de BSS pueden compartir un
mismo SSID, denominándose en ese caso Extended Service Set Identifier (ESSID).

Formato de Trama 802.11

Figura CVIII. Trama 802.11

• Campo de versión del protocolo: la versión de la trama 802.11 en uso


• Campos tipo y subtipo: identifica una de las tres funciones y subfunciones de la trama: control, datos y
administración
• Campo A DS: establecido en 1 en las tramas de datos destinadas al sistema de distribución (dispositivos en
la estructura inalámbrica)
• Campo Desde DS: establecido en 1 en tramas de datos que salen del sistema de distribución
• Campo Más fragmentos: establecido en 1 para tramas que tienen otro fragmento
• Campo Reintentar: establecido en 1 si la trama es una retransmisión de una trama anterior
• Campo Administración de energía: establecido en 1 para indicar que un nodo estará en el modo ahorro de
energía
• Campo Más datos: establecido en 1 para indicar a un nodo en el modo ahorro de energía que más tramas se
guardan en la memoria del búfer de ese nodo
FELR Página 89
“Redes Básicas”. Tercer Parcial

• Campo Privacidad equivalente por cable (WEP): establecido en 1 si la trama contiene información
encriptada WEP por seguridad
• Campo Orden: establecido en 1 en una trama de tipo datos que utiliza la clase de servicio Estrictamente
ordenada (no requiere reordenamiento)
• Campo Duración/ID: según el tipo de trama, representa el tiempo, en microsegundos, requerido para
transmitir la trama o una identidad de asociación (AID) para la estación que transmitió la trama
• Campo Dirección de destino (DA): la dirección MAC del nodo de destino final en la red
• Campo Dirección de origen (SA): la dirección MAC del nodo que inició la trama
• Campo Dirección del receptor (RA): la dirección MAC que identifica al dispositivo inalámbrico que es el
receptor inmediato de la trama
• Campo Dirección del transmisor (TA): la dirección MAC que identifica al dispositivo inalámbrico que
transmitió la trama
• Campo Número de secuencia: indica el número de secuencia asignado a la trama; las tramas retransmitidas
se identifican por números de secuencia duplicados

Los estándares del IEEE no se configuran nunca de manera cerrada, es decir que se van mejorando mientras es
posible, por eso a lo largo del tiempo van apareciendo nuevos sub estándares que implementan mejoras o variantes
sobre algún aspecto. La nomenclatura que se sigue en estos casos consiste a ir añadiendo letras minúsculas detrás
del número 802.11, que es el del estándar principal.

Figura CIX. Estándares IEEE802.11 WiFi.

En cuanto a velocidad de transmisión de datos y de banda de frecuencia de uso, que de hecho son los dos parámetros
principales del sistema, se han definido hasta ahora los subestándares siguientes:

IEEE 802.11a

Esta versión del estándar se corresponde con la tercera generación de redes inalámbricas debido a que apareció en
el mercado después de las redes 802.11 y 802.11b. Aunque en un principio, su desarrollo se había iniciado antes que
el estándar 802.11b. A pesar de ello, se retrasó debido a los requisitos tecnológicos necesarios para poder llevarlo a
cabo. En concreto, las redes inalámbricas 802.11a se caracterizan por operar a una frecuencia de 5 Ghz.

Las principales características que aporta son:


• Una capacidad de enlace de 54 Mbps.
• Al trabajar en la banda UNII, posee mayor inmunidad frente a las interferencias por solapamiento puesto que
dicha banda contempla el uso de 4 canales para este fin.
• Uso de un rango de frecuencias relativamente libre como son los 5 Ghz.
FELR Página 90
“Redes Básicas”. Tercer Parcial

IEEE 802.11b

Este estándar apareció en 1999 con la idea de permitir a los usuarios comunicarse con sus dispositivos con redes
Ethernet a través de transmisores/receptores de radiofrecuencia. Por este motivo, la institución IEEE se vio obligada
a cambiar los mecanismos de acceso a las redes Ethernet para añadir el soporte de las nuevas capas físicas y de
enlace introducidas por 802.11b. En concreto, se optó por usar CSMA/CA (Carrier-Sense Multiple Access with
Collision Avoidance) en la capa de enlace y para la capa física se eligieron tres técnicas:
• DSSS (Direct-Sequence Spread Spectrum) usando la banda de los 2,4 GHz.
• FHSS (Frecuency-Hopping Spread Spectrum) operando en el rango de los 2,4GHz.
• Infrarrojos.

La principal ventaja de este estándar es que ha sido ampliamente usado en todo el mundo para establecer redes
inalámbricas por ser el primero que salió de forma comercial. No obstante, presenta una serie de inconvenientes que
en revisiones posteriores se han intentado corregir. Entre estas se pueden citar:
• Problemas de interferencias debido a que el rango de frecuencias en el que opera se encuentra saturado al
tratarse de una banda libre.
• Capacidad de transmisión reducida, admite hasta 11 Mbps.
• Requiere de modulaciones que contrarresten los efectos de multitrayectos.
• Sensible a la distancia de tal forma que a una distancia a más de 75 metros, la capacidad del enlace cae a 2
Mbps.

IEEE 802.11g

Este estándar surgió como una extensión del 802.11b con el que se pretendía mejorar la capacidad de transmisión
del enlace usando el mismo rango de frecuencias, es decir, la banda de 2,4 Ghz. Para ello, lo que se hizo fue introducir
un segundo modo de acceso basado en OFDM usado ya en las redes 802.11a que permitió aumentar la capacidad del
enlace hasta los 54 Mbps. De esta forma, al disponer de las dos técnicas de modulación, las usadas en 802.11b y la
usada en 802.11a, este estándar podía dar servicio a dispositivos que cumpliesen la normativa 802.11b y a la vez a
los nuevos dispositivos compatibles con el estándar 802.11g.

Por tanto, la principal ventaja de las redes 802.11g es el aumento considerable de la capacidad de transmisión, hasta
54 MBPS. No obstante, al compartir la misma banda que 802.11b presenta las mismas desventajas.

IEEE 802.11n

También conocida como WiFi 4. Sin duda uno de los grandes puntos de inflexión en las conexiones inalámbricas,
gracias a la implementación de las redes MIMO (Multiple-input Multiple-output) en el estándar Wi-Fi, ya que aunque
dichas antenas estaban ya presentes en equipos 802.11g, aquí comenzaron a normalizarse gracias a las ventajas de
esta tecnología. Además de ser compatible con los estándares anteriores, con el Wi-Fi 802.11n se cubren velocidades
de transferencia de entre 150 y 600 Mbps, garantizando velocidades de conexión de 300 Mbps estables en este
último caso.

Con MIMO, los routers WiFi y puntos de acceso pasaron de tener una única antena WiFi de emisión y recepción, a
tener dos o más antenas. Por ejemplo, es muy habitual encontrarnos routers con 2, 3 e incluso 4 antenas con un total
de cuatro flujos espaciales para lograr incrementar hasta en cuatro veces la velocidad real que conseguiremos vía
Wi-Fi. Por ejemplo, con un router típico Wi-Fi 4 y una antena, podremos conseguir una velocidad teórica de 150Mbps
(con 40MHz de ancho de canal y 64QAM), sin embargo, al tener MIMO y poder incorporar más antenas, si
incorporamos un total de cuatro antenas podríamos conseguir una velocidad teórica de 600Mbps (con 40MHz de
ancho de canal y 64QAM).

Por otra parte la tecnología MIMO hace uso de varias antenas instaladas en el router para el envío y recepción de
datos de manera simultánea. Aplicada a este estándar se ayuda a lograr coberturas de hasta 120 metros en interiores
y 300 metros en exteriores.
FELR Página 91
“Redes Básicas”. Tercer Parcial

IEEE 802.11ac

También conocido como WiFi 5 o WiFi Gigabit, el estándar WiGig trajo consigo las grandes velocidades a las
conexiones inalámbricas y prueba de ello es el avance conseguido con el Wi-Fi 802.11ac. Gracias a la tecnología
beamforming para focalizar las señales de radio, el alcance de estas redes inalámbricas es superior incluso a pesar
de operar en la banda de 5 GHz y a velocidades mucho mayores gracias a las antenas múltiples –hasta un máximo de
4-. En este caso, la velocidad teórica queda fijada hasta en 1300 Mbps.

IEEE 802.11ah

Esta revisión es conocida también bajo el nombre de HaLow, Esta revisión conocida por “HaLow” ha sido la última
en llegar y lo hace dispuesta a plantear una seria alternativa al Bluetooth de cara a explotar el sector del Internet de
las Cosas y encauzar las conexiones de los dispositivos conectados en el hogar el día de mañana. En este caso
hablamos de un ancho de banda de 900 MHz por lo que ofrece un alcance mayor que las redes que operan sobre 2,4
GHz además de ayudar a aligerar en dicha banda el tráfico de conexiones de los dispositivos conectados del hogar.

IEEE 802.11ax

También conocido como WiFi 6 y diseñado para operar en los espectros de 2.4 y 5 GHz. Además de utilizar MIMO y
MU-MIMO, este nuevo estándar introduce OFDMA (Acceso múltiple por división de frecuencias ortogonales),
permite que múltiples usuarios con diferentes anchos de banda puedan conectarse a la red de manera simultánea,
para mejorar la eficiencia espectral global y ofrecer un mayor rendimiento. Es compatible con los protocolos
anteriores y ofrece una velocidad máxima teórica de 10 Gbps.

Figura CX. Rango de cobertura de los estándares 802.11.

4.14 Normas subsecuentes.

En los últimos años ha crecido exponencialmente el número de usuarios, que requieren nuevos servicios digitales
tales como: acceso a Internet rápido, transferencia de datos seguros a gran velocidad, Voz sobre el protocolo IP
(VoIP), servicios multimedia, televisión Móvil, videofonía y videoconferencias entre otras aplicaciones, ha motivado
a la industria de las telecomunicaciones a diseñar nuevos sistemas de comunicaciones que puedan soportar esta
gama de servicios, para que todos los usuarios fijos, móviles o celulares tengan acceso a ellos desde cualquier lugar
por remoto que sea, a la hora que sea y con tarifas accesibles.

En la actualidad, el número de tecnologías inalámbricas es muy elevado. A la hora de transmitir datos, se ha recurrido
a muchas tecnologías inalámbricas como, Bluetooth, Wi-Fi o Wi-MAx Cada una de ellas presenta una serie de ventajas
e inconvenientes que las hacen tener mayor o menor validez. En consecuencia, la elección tecnológica deberá
depender de los requisitos de la aplicación en concreto, es decir, se debe hallar una relación de compromiso entre el
precio, el consumo de energía y el ancho de banda que es capaz de brindar.

FELR Página 92
“Redes Básicas”. Tercer Parcial

Figura CXI. Estándares Inalámbricos subsecuentes.

4.14.1 Estándar IEEE 802.15 Redes Bluetooth.

Se corresponde con un estándar de comunicaciones inalámbricas basado en radiofrecuencia, de bajo coste y bajo
consumo energético. Originariamente, en 1994, Ericsson lo desarrolló como un mecanismo alternativo que
permitiese sustituir paulatinamente los enlaces cableados de diversos periféricos. No obstante, las características y
versatilidad que presenta Bluetooth han hecho que se pueda utilizar en una gran cantidad de situaciones diferentes,
como pueden ser el establecimiento de conexiones entre dos terminales móviles inteligentes como puedan ser una
PDA o un teléfono móvil, conexionado de periféricos o dispositivos de audio.

Bluetooth nace de la mano de Ericsson en 1994 junto con otras grandes compañías del sector tecnológico como son
Intel, IBM, Nokia y Toshiba. Este conjunto de multinacionales constituyeron en 1998 el Bluetooth Special Interest
Group, organismo que se encarga de gestionar y desarrollar las distintas versiones del núcleo de Bluetooth. Más
tarde, en 1999, se unirían empresas de la talla de Microsoft, 3Com o Agilent. El trabajo conjunto de los diferentes
miembros del Bluetooth SIG permitió una rápida aceptación por parte de los fabricantes; así como la compatibilidad
entre dispositivos de los diferentes fabricantes.

Este hecho, provocó que las redes Wireless Personal Area Network (WPAN) basadas en Bluetooth estuviesen
reguladas por el IEEE bajo la denominación 802.15. La especificación, define un conjunto completo de protocolos,
los cuales dan gran flexibilidad al estándar para operar una cierta variedad de aplicaciones.

Figura CXII. Bluetooth, red de área personal.

Mientras que el objetivo de la tecnología 802.11 es conectar dos computadoras separadas unos cientos de metros
para obtener regímenes binarios de entre 11 Mbps (802.11b) a 300 Mbps (802.11n), Bluetooth está destinado a
conectar pequeños dispositivos como PDAs y teléfonos móviles dentro de un rango más acotado (decenas de metros)
dependiendo de la potencia de emisión a una velocidad de 1 a 2 Mbps. En comparación con los dispositivos 802.11b,
algunos dispositivos Bluetooth pueden consumir hasta 500 veces menos energía, lo que supone una gran diferencia
en la duración de la batería. Además, Bluetooth también se destina a ser utilizado como una tecnología de sustitución
de cable.

FELR Página 93
“Redes Básicas”. Tercer Parcial

Versiones Bluetooth

• Bluetooth v.1.1, se publicó en febrero de 2001 y se divide en dos volúmenes: El volumen 1 conforma la
especificación del núcleo y describe la pila de protocolos y otros temas relacionados como el testigo y
requisitos de calidad. La pila de protocolos está definida como una serie de capas de forma bastante análoga
a la conocida pila de protocolos del sistema OSI. Cada capa de la pila de protocolos representa un protocolo
diferente y se encuentra completamente descrito de forma separada en la especificación del núcleo. El
volúmen 2 describe los denominados perfiles de Bluetooth. Los perfiles no son más que modelos de uso
esenciales, que describen cómo deben usar las aplicaciones la pila de protocolos de Bluetooth.
• Bluetooth v.1.2, a diferencia de la 1.1, provee una solución inalámbrica complementaria para co-existir
Bluetooth y Wi-Fi en el espectro de los 2.4 GHz y provee una más rápida configuración de la comunicación
con los otros dispositivos Bluetooth dentro del rango del alcance, como pueden ser PDAs, computadoras
portátiles, computadoras de escritorio, Headsets, impresoras y celulares.
• Bluetooth v.2.0, creada para ser una especificación separada que le permite mejorar las velocidades de
transmisión en hasta 3Mbps a la vez que intenta solucionar algunos errores de la especificación 1.2.
• Bluetooth v.2.1, simplifica los pasos para crear la conexión entre dispositivos, además el consumo de
potencia es 5 veces menor, introdujo una característica que cambió el Bluetooth para siempre, la posibilidad
de que un terminal pudiera agregar a otro, y conectarse automáticamente sin necesidad de un PIN ni nada
por el estilo.
• Bluetooth 3.0. Esta versión llegó en 2009, y trajo consigo el término o apellido HS de High Speed (gran
velocidad). Supuso una gran mejora en la tasa de transmisión, que podía llegar a alcanzar los 24 Mbps.
• Bluetooth 4.0: Esta es posiblemente una de las versiones más importantes del estándar, ya que con ella se
empezó a combatir el consumo excesivo de batería de la tecnología mediante Bluetooth Low Energy. La
versión llegó en 2010, mantuvo la tasa de transferencia de 24 Mb/s y gracias a su bajo consumo se empezó
a utilizar en dispositivos más pequeños y menos potentes.
• Bluetooth 4.1: Llegó en 2013, y se caracterizó por dirigirse sobre todo al mundo del IoT (Internet de las
cosas) al permitir la conexión entre dispositivos pequeños sin intermediarios.
• Bluetooth 4.2: Esta siguiente actualización llegó en 2014, e implementó el protocolo IPv6 para permitir la
conexión directa a través de Internet.
• Bluetooth 5.0: A mediados de 2016 llegó la gran revolución, un nuevo paso adelante que doblaba la tasa de
transferencia, cuatruplicaba el alcance, seguía con un bajo consumo pensado en el IoT y permitía una mayor
cantidad de datos en cada mensaje transferido. En cuanto a números, la tasa de transferencia era de hasta
hasta 50 Mb/s, y el alcance hasta 240 metros.
• Bluetooth 5.1: La nueva versión llegada en 2019 giraba en torno a la localización, permitiendo que los
dispositivos puedan saber la ubicación de otros dispositivos a los que estén conectados con un margen de
centímetros. También podrá identificar la dirección de donde proviene una señal que está buscando.

La tecnología inalámbrica de Bluetooth utiliza un radio de corto alcance que ha sido optimizado para el ahorro de
energía, operación adecuada de la batería, tamaño pequeño y para ser utilizada en aparatos personales de bajo peso.
Una WPAN es capaz de soportar canales síncronos de comunicación para telefonía de voz y canales de comunicación
asíncronas para comunicación de datos. Dichas facilidades permiten que una amplia gama de aplicaciones y de
aparatos trabaje en una WPAN.

Una WPAN opera en la banda libre de los 2.4 GHz. Se utiliza un transceptor de fast frequency-hop (1600 hops/s)
para evitar la interferencia y la caída de señales. Para reducir la complejidad del transceptor se utiliza la técnica
binaria FSK (frequency shift keying) para transmitir símbolos con un rango de 1 Símbolos/s. Se utiliza un canal
ranurado, cada ranura de tiempo tiene una duración de 625 µs. Una trama rápida de TDD (time division duplex) se
utiliza para permitir comunicaciones full duplex en capas superiores. En el canal, la información se intercambia a
través de paquetes. Cada paquete se transmite en una frecuencia diferente dentro de la secuencia de espera. Un
paquete normalmente cubre una sola ranura, pero se puede extender de tres a cuatro ranuras. Para tráfico de datos,
de manera unidireccional es posible transmitir un máximo de 723.2 kb/s entre dos dispositivos. Un canal bi
direccional soporta un tráfico de voz entre dos dispositivos con una velocidad de hasta 64 kb/s. La inestabilidad para
el tráfico de voz se mantiene bajo al usar ranuras de tiempo pequeñas en la transmisión
FELR Página 94
“Redes Básicas”. Tercer Parcial

Pila de Protocolos

En la siguiente figura se muestra la pila del protocolo en la séptima capa del modelo del OSI en la tecnología
inalámbrica de Bluetooth y su relación con este estándar. Como se puede observar en la siguiente figura las subcapas
LLC (logical link control) y el MAC juntas abarcan las funciones deseadas para la capa de enlace de datos del modelo
de OSI.

Figura CXIII. Pila de protocolos de Bluetooth y el modelo OSI.

La pila de protocolos de Bluetooth se puede dividir en dos componentes: el host y el controlador Bluetooth (o módulo
radio). La Host Controller Interface (HCI) proporciona una interfaz estándar entre el host y el controlador Bluetooth.

• El host también es conocido como la capa alta de la pila de protocolos y normalmente está implementado en
software. Generalmente se encuentra integrado con el software del sistema o sistema operativo del
dispositivo. Los perfiles están construidos por encima de los protocolos, generalmente en software.
• El módulo radio o controlador de Bluetooth normalmente es un módulo hardware, como podría ser una
PC card conectada al dispositivo en cuestión, aunque lo normal es que éste módulo vaya ya integrado en el
hardware del dispositivo.
• La capa radio es la capa más baja de las definidas en la especificación. Define los requisitos que debe seguir
el transceptor del dispositivo que opera en la banda de los 2,4 Ghz.
• Las capas de banda base y control del enlace permiten el enlace físico de radiofrecuencia (RF) entre las
unidades Bluetooth. La capa de banda base se encarga de la gestión de los canales y temporización, mientras
que la de control del enlace controla el acceso a los canales. Hay dos tipos diferentes de enlaces físicos:
síncrono orientado a conexión (SCO) y asíncrono sin conexión (ACL). Un enlace ACL está orientado al tráfico
de paquetes de datos, mientras que un SCO soporta el tráfico de audio en tiempo real. El tráfico de audio es
dirigido desde y hacia la banda base a través de un enlace SCO. Por supuesto, si se está usando un canal de
datos (como en aplicaciones de VoIP), el tráfico de audio se transmitirá sobre un enlace ACL.
• El protocolo de gestión del enlace LMP se responsabiliza del establecimiento y configuración del enlace
entre los dispositivos, gestionando y negociando el tamaño de los paquetes de banda base. El protocolo LMP
se encarga también de los aspectos de seguridad, como la autentificación y encriptado, generando,
intercambiando y comprobando claves.
• La HCI proporciona una interfaz con el módulo radio, el controlador de la banda base y el gestor de enlace.
De este modo ofrece una interfaz estándar que permite acceder a las posibilidades de la banda base, al estado
del hardware, y los registros de control.
• El protocolo de control del enlace lógico y adaptación L2CAP abstrae a las capas superiores de los
detalles de los protocolos de capas inferiores. Además realiza la multiplexión entre los distintos canales
lógicos creados por las capas superiores.
• SDP proporciona a las aplicaciones un medio para realizar búsquedas de servicios y de sus características.
En Bluetooth primero se encuentra el dispositivo remoto y después se buscan los servicios. Además el
conjunto de servicios disponibles puede cambiar mientras el dispositivo está en marcha. De ahí que SDP sea
bastante diferente de la búsqueda de servicios de las redes tradicionales.
• RFCOMM ofrece una emulación de un puerto serie sobre L2CAP proporcionando el mecanismo de transporte
a servicios de capas más altas, permitiendo realizar múltiples conexiones con un dispositivo al mismo
tiempo.
FELR Página 95
“Redes Básicas”. Tercer Parcial

Topología Bluetooth

La topología de las redes Bluetooth puede ser punto-a-punto o punto-multipunto.

Figura CXIV. Topología Bluetooth.

Los dispositivos, se comunican en redes denominadas piconets. Estas redes tienen posibilidad de crecer hasta tener
8 conexiones punto a punto. Además, se puede extender la red mediante la formación de scatternets. Una scatternet
es la red producida cuando dos dispositivos pertenecientes a dos piconets diferentes, se conectan. En una piconet,
un dispositivo debe actuar como master, enviando la información del reloj (para sincronizarse) y la información de
los saltos de frecuencia. El resto de los dispositivos actúan como slaves (esclavos).

Conexiones Bluetooth
• Standby: Los dispositivos en un "piconet" que no están conectados, están en modo standby, ellos escuchan
mensajes cada 1,28 segundos, sobre 32 saltos derecuencias.
• Page/Inquiry: Si un dispositivo desea hacer una conexión con otro dispositivo, éste le envía un mensaje de
tipo page, si la dirección es conocida; o una petición a través de un mensaje de page, si éste no es conocido.
La unidad "master" envía 16 page message idénticos, en 16 saltos de frecuencias, a la unidad "slave". Si no
hay respuesta, el "master" retransmite en los otros 16 saltos de frecuencia. El método de Petición (inquiry)
requiere una respuesta extra por parte de la unidad "slave", desde la dirección MAC, que no es conocida por
la unidad "master".
• Active: Ocurre la transmisión de datos.
• Hold: Cuando el "master" o el "slave" desean, puede ser establecido un modo en el cual no son transmitidos
datos. El objetivo de esto es conservar el poder.
• Sniff: El modo sniff, es aplicable solo para las unidades "slaves", es para conserva el poder. Durante este
modo, el "slave", no toma un rol activo en la "piconet", pero escucha a un reducido nivel.
• Park: El modo park es un nivel más reducido, que el modo hold. Durante este, el "slave" es sincronizado a la
"piconet", por eso no requiere un reactivación completa, pero no es parte del tráfico. En este estado, ellos no
tienen direcciones MAC y solo escuchan para mantener su sincronización con el "master" y chequear los
mensajes de broadcast.

Figura CXV. Conexiones bluetooth y posibles evoluciones entre estados.

FELR Página 96
“Redes Básicas”. Tercer Parcial

Las principales características de Bluetooth son:

• Opera en la banda libre de los 2,4 GHz por lo que no necesitamos adquirir ninguna licencia de emisión.
• Tiene una capacidad máxima de transmisión de hasta 3 Mbps.
• Implementa diversos mecanismos de ahorro energético de forma que el dispositivo no siempre va a
consumir la misma potencia con el consiguiente ahorro energético en la batería del dispositivo.
• Posee un precio económico que permite implementarlo en casi cualquier dispositivo sin encarecerlo
desmesuradamente.
• Puede operar a una distancia de entre 1 y 100 metros en función de la potencia de emisión que posea el
transmisor Bluetooth.
• No obstante, se corresponde con protocolo de comunicaciones cuyo uso queda restringido para enlaces
punto a punto, puesto que el sistema de establecimiento de conexiones hace difícil poder realizar redes
puntomultipunto. Esto se debe a que en un principio estaba destinado para sustituir a los enlaces
establecidos mediante un cable físico.
• Está orientada a aplicaciones de voz y datos.
• La tasa máxima de transferencia es de 3 Mbps.
• Puede penetrar objetos sólidos.

4.14.2 Estándar IEEE 802.16 Redes WIMAX.

Se trata de una estándar de comunicaciones cuyo principal objetivo consiste en dar servicios de banda ancha de una
forma inalámbrica a áreas metropolitanas, es decir, está pensado para ser usados en redes MAN.

En diciembre de 2001 se aprobó esta norma, que está pensada para brindar acceso inalámbrico de banda ancha a
estaciones fijas (Air Interface for Fixed Broadband Wireless Access Systems) ubicadas dentro de un área de
cobertura metropolitana (distancias de hasta 50 Km.) ya sea que posean o no línea de visión directa con la estación
base y permitir una capacidad de transmisión de hasta 100 Mbps. Con estas características, esta tecnología podría
hacer frente a otras como DSL y las líneas T1 tendidas en el bucle de abonado.

WiMAX se corresponde con el nombre con el que se comercializa el estándar 802.16 del IEEE.

Figura CXVI. Estándar IEEE 802.16 WiMAX.

Esta norma específica la interfaz radio de sistemas de acceso inalámbrico de banda ancha del tipo punto a multipunto
capaces de proveer múltiples servicios de transmisión de datos, como por ejemplo el acceso inalámbrico a Internet
en áreas metropolitanas (MAN). El protocolo de control de acceso al medio especificado en esta norma soporta
múltiples especificaciones de nivel físico, tanto en la banda de 2 a 11 GHz como en la banda licenciada de 10 a 66
GHz.

FELR Página 97
“Redes Básicas”. Tercer Parcial

La idea fundamental de WiMAX se centra en poder dar una gran variedad de servicios, motivado por el bajo coste de
los enlaces, que pueden ir desde actuar como backbone para redes 802.11, dar servicios de conexión a dispositivos
móviles sin hacer uso del estándar 802.11, como red de respaldo de las redes cableadas.

El modelo de referencia de una red WiMAX está compuesto principalmente por tres componentes interconectadas
mediante interfaces estandarizadas o puntos de referencia del R1 a R5. Los tres componentes son:

• MS: Mobile Station, usado en el extremo de la red del usuario para acceder a la red.
• ASN: Access Service Network, comprende una o más estaciones base y una o más pasarelas ASN para
formar la red de acceso radio.
• CSN: Connectivity Service Network, que provee conectividad IP con las funciones IP del núcleo de la red.

El modelo de arquitectura de red desarrollado por el grupo de trabajo del WiMAX Forum define una serie de
entidades funcionales, e interfaces entre dichas entidades (definidos como puntos de referencia).

• Estación Base (BS): Implementa la capa física y MAC tal como se define en el estándar IEEE 802.16. En una
red de acceso WiMAX, una BS está definida por un sector y una frecuencia asignada. En el caso de la
asignación multifrecuencia de un sector, dicho sector incluye tantas BS como frecuencias asignadas haya. La
conectividad a múltiples ASN-GW debe ser requerida en el caso de carga balanceada o propósitos de
redundancia.
• Pasarela de Acceso al Servicio (ASN-GW): Una pasarela ASN es una entidad lógica que actúa típicamente
como un punto de agregación de tráfico de la capa de enlace dentro del ASN e incluye: Funciones de control
entre entidades pares y Encaminamiento plano de portadora o funciones de puente. Una entrada
completamente redundante de la red del servicio del acceso (ASN-GW) conecta las estaciones bajas de
WiMAX con la red de la base. Con una capacidad de hasta 256 BS por unidad, el ASN-GW puede manejar las
conexiones de más de 288.000 suscriptores, con 8.000 de ellos activos simultáneamente. Las funciones
principales del ASN-GW son: gestión y paginación de la localización dentro del ASN, gestión de los recursos
de radio, claves de encriptación, funcionalidad de cliente de AAA, establecimiento y gestión de la movilidad
con las estaciones base, aplicaciones de QoS, funcionalidad de agente externo para Mobile IP y envío a los
CSN seleccionados.
• Servicio de Conexión a la red (CSN): El CSN consiste en unas funciones y equipos que permiten la
conectividad IP a los suscriptores WiMAX. Por ello, el CSN incluye las siguientes funciones:
1. Autorización de conexión de usuario en la capa de acceso 3.
2. Administración de la QoS.
3. Soporte de movilidad basado en Mobile IP.
4. Tunelado (basado en protocolos IP) con otros equipos o redes.
5. Facturación de los suscriptores WiMAX. Servicios WiMAX (acceso a Internet, servicios de
localización, conexión de servicios Peer-To-Peer, aprovisionamiento, autorización y/o conexión a
gestores de bases de datos o IMS).

Figura CXVII. Arquitectura WiMAX.

FELR Página 98
“Redes Básicas”. Tercer Parcial

Además de las entidades anteriores, el grupo de trabajo del WiMAX Forum define varios puntos de referencia entre
las distintas entidades que componen la arquitectura de esta red. Esos puntos de referencia logran puntos de
interoperabilidad entre equipos de diferentes fabricantes. Hay seis puntos de referencias obligatorios (del R1 al R6)
y dos opcionales (R7 y R8).

• R1: Punto de referencia de la interfaz radio entre el MS y el ASN. Incluye todas las características físicas y
MAC de los perfiles de WiMAX. Lleva tráfico de usuario y mensajes de control de usuario.
• R2: Es la interfaz lógica entre el MS y el CSN. Contiene los protocolos y otros procedimientos implicados en
la autenticación, servicios de autorización y administración de la configuración IP.
• R3: Es la interfaz lógica entre el ASN y el CSN. Transporta mensajes del plano de control e información del
plano de datos a través de un tunelado entre el ASN y CSN.
• R4: Punto de referencia que interconecta dos ASNs (ASN perfil B) o dos ASN-GW (ASN perfiles A o C).
Transporta mensajes del plano de control y de datos, especialmente durante el traspaso de un usuario
WiMAX entre ASNs/ASN-GWs. Presenta interoperabilidad entre ASNs de diferentes fabricantes.
• R5: Punto de referencia que interconecta dos CSNs. Consiste en el juego de métodos del plano de control y
de datos para la comunicación entre el CSN del NSP visitante y el NSP.
• R6: Es específico de algunos de los perfiles de ASN. En aquel os en los que el ASN se subdivide en BS y ASN-
GW que corresponden con los perfiles A y C. Por tanto, este punto de referencia no es aplicable al perfil B. R6
se encarga de unir el BS y el ASN-GW. Transporta mensajes del plano de control y de datos.
• R7 y R8: R7 es una interfaz lógica opcional entre funciones de decisión y aplicación en el ASN-GW. R8 es una
interfaz lógica entre estaciones base y transporta flujo de intercambio del plano de control que sirve para
permitir un rápido y eficiente traspaso entre estaciones base.

Figura CXVIII. Puntos de Referencia WiMAX.

Entre las principales características de WiMAX, podemos mencionar:

• Dos rangos de frecuencias para operar:


1. 10GHz-66GHz: se corresponde con la banda asignada en la primera versión del estándar. El principal
problema de este rango es que requiere visión directa entre las distintas estaciones para poder llevar
a cabo la comunicación, provocando el encarecimiento de la instalación al tener que aumentar el
número de estaciones que coloquemos.
2. 2GHz-11GHz: en esta banda se establecen dos rangos y no necesita línea de visión, uno en los 3,5 GHz
que requiere de licencia para poder transmitir y otro en los 5,8 GHz que se halla en la banda libre y,
por tanto, no necesitaríamos ningún tipo de licencia.

FELR Página 99
“Redes Básicas”. Tercer Parcial

• Uso de selección dinámica de la frecuencia de utilización. Esta técnica permite seleccionar la frecuencia de
transmisión en base a las interferencias generadas por otros sistemas en la banda usada y por la interferencia
co-canal y ajustar la potencia de transmisión en base a estos parámetros. De esta forma, consigue mejorar el
rendimiento de la comunicación.
• Útil en redes punto-multipunto.
• Asignación de una determinada calidad de servicio a cada conexión, lo que permite poder transportar sobre
la capa de enlace de WiMAX protocolos como ATM, Ipv4 o Ipv6.
• Se trata de una red inalámbrica de área metropolitana.
• Posee un alcance de 50 Km. con tasas de transferencias de hasta 100 Mbps.
• Contempla el uso de receptores en vehículos móviles siempre cuando no superen la velocidad de 100 Km/h.
• Ha sido creado para competir con la tecnología xDSL y el acceso por módem de cable.

FELR Página 100

También podría gustarte