Ethernet

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 30

4.

1 Descripción general de Ethernet

Cada una de las capas de los modelos OSI y de protocolo TCP/IP, y en cómo se utilizan los
protocolos para lograr la comunicación de red. Estos análisis hacen referencia constantemente a
diversos protocolos clave (TCP, UDP e IP), ya que brindan las bases sobre cómo funcionan
actualmente desde la red más pequeña hasta la red más grande, la Internet. Estos protocolos
comprenden el stack de protocolos TCP/IP y, dado que la Internet se creó utilizando dichos
protocolos, Ethernet es en la actualidad la tecnología LAN preponderante a nivel mundial.

El grupo de trabajo de ingeniería de Internet (IETF) mantiene los protocolos y servicios funcionales
para la suite de protocolos TCP/IP de las capas superiores. Sin embargo, diversas organizaciones
especializadas en ingeniería (IEEE, ANSI, ITU) o empresas privadas (protocolos propietarios)
describen los protocolos y servicios funcionales de la capa de Enlace de datos y la capa física del
modelo OSI. Dado que Ethernet se compone de estándares en estas capas inferiores, puede
decirse que en términos generales se entiende mejor con referencia al modelo OSI. El modelo OSI
separa las funcionalidades de la capa de Enlace de datos de direccionamiento, entramado y acceso
a los medios desde los estándares de la capa física de los medios. Los estándares de Ethernet
definen los protocolos de Capa 2 y las tecnologías de Capa 1. Si bien las especificaciones de
Ethernet admiten diferentes medios, anchos de banda y otras variaciones de Capa 1 y 2, el
formato de trama básico y el esquema de direcciones son los mismos para todas las variedades de
Ethernet.

4.1.1. ESTÁNDARES E IMPLEMENTACIÓN

Estándares de IEEE

La primera LAN (Red de área local) del mundo fue la versión original de Ethernet. Robert Metcalfe
y sus compañeros de Xerox la diseñaron hace más de treinta años. El primer estándar de Ethernet
fue publicado por un consorcio formado por Digital Equipment Corporation, Intel y Xerox (DIX).
Metcalfe quería que Ethernet fuera un estándar compartido a partir del cual todos se podían
beneficiar, de modo que se lanzó como estándar abierto. Los primeros productos que se
desarrollaron a partir del estándar de Ethernet se vendieron a principios de la década de 1980.

En 1985, el comité de estándares para Redes Metropolitanas y Locales del Instituto de Ingenieros
Eléctricos y Electrónicos (IEEE) publicó los estándares para las LAN. Estos estándares comienzan
con el número 802. El estándar para Ethernet es el 802.3. El IEEE quería asegurar que sus
estándares fueran compatibles con los del modelo OSI de la Organización Internacional para la
Estandarización (ISO). Para garantizar la compatibilidad, los estándares IEEE 802.3 debían cubrir las
necesidades de la Capa 1 y de las porciones inferiores de la Capa 2 del modelo OSI. Como
resultado, ciertas pequeñas modificaciones al estándar original de Ethernet se efectuaron en el
802.3.

Ethernet opera en las dos capas inferiores del modelo OSI: la capa de enlace de datos y la capa
física.
4.1.2. CAPA 1 Y CAPA 2

Ethernet opera a través de dos capas del modelo OSI. El modelo ofrece una referencia sobre con
qué puede relacionarse Ethernet, pero en realidad se implementa sólo en la mitad inferior de la
capa de Enlace de datos, que se conoce como subcapa Control de acceso al medio (Media Access
Control, MAC), y la capa física.

 Ethernet en la Capa 1 implica señales, streams de bits que se transportan en los medios,
componentes físicos que transmiten las señales a los medios y distintas topologías. La
Capa 1 de Ethernet tiene un papel clave en la comunicación que se produce entre los
dispositivos, pero cada una de estas funciones tiene limitaciones.

 Tal como lo muestra la figura, Ethernet en la Capa 2 se ocupa de estas limitaciones. Las
subcapas de enlace de datos contribuyen significativamente a la compatibilidad de
tecnología y la comunicación con la computadora. La subcapa MAC se ocupa de los
componentes físicos que se utilizarán para comunicar la información y prepara los datos
para transmitirlos a través de los medios.
La subcapa Control de enlace lógico (Logical Link Control, LLC) sigue siendo relativamente
independiente del equipo físico que se utilizará para el proceso de comunicación.

4.1.3. CONTROL DE ENLACE LÓGICO: CONEXIÓN CON LAS


CAPAS SUPERIORES
Ethernet separa las funciones de la capa de Enlace de datos en dos subcapas diferenciadas:
la subcapa Control de enlace lógico (LLC) y la subcapa Control de acceso al medio (MAC).
Las funciones descritas en el modelo OSI para la capa de Enlace de datos se asignan a las
subcapas LLC y MAC. La utilización de dichas subcapas contribuye notablemente a la
compatibilidad entre diversos dispositivos finales.
Para Ethernet, el estándar IEEE 802.2 describe las funciones de la subcapa LLC y el
estándar 802.3 describe las funciones de la subcapa MAC y de la capa física. El Control de
enlace lógico se encarga de la comunicación entre las capas superiores y el software de red,
y las capas inferiores, que generalmente es el hardware. La subcapa LLC toma los datos del
protocolo de la red, que generalmente son un paquete IPv4, y agrega información de control
para ayudar a entregar el paquete al nodo de destino. La Capa 2 establece la comunicación
con las capas superiores a través del LLC.
El LLC se implementa en el software y su implementación depende del equipo físico. En
una computadora, el LLC puede considerarse como el controlador de la Tarjeta de interfaz
de red (NIC). El controlador de la NIC (Tarjeta de interfaz de red) es un programa que
interactúa directamente con el hardware en la NIC para pasar los datos entre los medios y la
subcapa de Control de Acceso al medio (MAC).

4.1.4. MAC: ENVÍO DE DATOS A LOS MEDIOS

El Control de acceso al medio (MAC) es la subcapa de Ethernet inferior de la capa


de Enlace de datos. El hardware implementa el Control de acceso al medio,
generalmente en la Tarjeta de interfaz de red (NIC).
La subcapa MAC de Ethernet tiene dos responsabilidades principales:
 Encapsulación de datos
 Control de Acceso al medio

Encapsulación de datos
La encapsulación de datos proporciona tres funciones principales:

 Delimitación de trama
 Direccionamiento
 Detección de errores

El proceso de encapsulación de datos incluye el armado de la trama antes de la transmisión y el


análisis de la trama al momento de recibir una trama. Cuando forma una trama, la capa MAC
agrega un encabezado y un tráiler a la PDU de Capa 3. La utilización de tramas facilita la
transmisión de bits a medida que se colocan en los medios y la agrupación de bits en el nodo
receptor.
El proceso de entramado ofrece delimitadores importantes que se utilizan para identificar un
grupo de bits que componen una trama. Este proceso ofrece una sincronización entre los nodos
transmisores y receptores.

El proceso de encapsulación también posibilita el direccionamiento de la capa de Enlace de datos.


Cada encabezado Ethernet agregado a la trama contiene la dirección física (dirección MAC) que
permite que la trama se envíe a un nodo de destino.

Una función adicional de la encapsulación de datos es la detección de errores. Cada trama de


Ethernet contiene un tráiler con una comprobación cíclica de redundancia (CRC) de los contenidos
de la trama. Una vez que se recibe una trama, el nodo receptor crea una CRC para compararla con
la de la trama. Si estos dos cálculos de CRC coinciden, puede asumirse que la trama se recibió sin
errores.

Control de acceso al medio


La subcapa MAC controla la colocación de tramas en los medios y el retiro de
tramas de los medios. Como su nombre lo indica, se encarga de administrar el
control de acceso al medio. Esto incluye el inicio de la transmisión de tramas y la
recuperación por fallo de transmisión debido a colisiones.

Topología lógica
La topología lógica subyacente de Ethernet es un bus de multiacceso. Esto
significa que todos los nodos (dispositivos) en ese segmento de la red comparten
el medio. Esto significa además que todos los nodos de ese segmento reciben
todas las tramas transmitidas por cualquier nodo de dicho segmento.
Debido a que todos los nodos reciben todas las tramas, cada nodo debe
determinar si debe aceptar y procesar una determinada trama. Esto requiere
analizar el direccionamiento en la trama provisto por la dirección MAC.
Ethernet ofrece un método para determinar cómo comparten los nodos el acceso
al medio. El método de control de acceso a los medios para Ethernet clásica es el
Acceso múltiple con detección de portadora con detección de colisiónes
(CSMA/CD)

4.1.5. IMPLEMENTACIONES FÍSICAS DE ETHERNET

La mayor parte del tráfico en Internet se origina y termina en conexiones de


Ethernet. Desde su inicio en la década de 1970, Ethernet ha evolucionado para
satisfacer la creciente demanda de LAN de alta velocidad. Cuando se introdujo el
medio de fibra óptica, Ethernet se adaptó a esta nueva tecnología para aprovechar
el mayor ancho de banda y el menor índice de error que ofrece la fibra.
Actualmente, el mismo protocolo que transportaba datos a 3 Mbps puede
transportar datos a 10 Gbps.
El éxito de Ethernet se debe a los siguientes factores:

 Simplicidad y facilidad de mantenimiento


 Capacidad para incorporar nuevas tecnologías
 Confiabilidad
 Bajo costo de instalación y de actualización

La introducción de Gigabit Ethernet ha extendido la tecnología LAN original a distancias


tales que convierten a Ethernet en un estándar de Red de área metropolitana (MAN) y de
WAN (Red de área extensa).
Ya que se trata de una tecnología asociada con la capa física, Ethernet especifica e
implementa los esquemas de codificación y decodificación que permiten el transporte de
los bits de trama como señales a través de los medios. Los dispositivos Ethernet utilizan
una gran variedad de especificaciones de cableado y conectores.
En las redes actuales, la Ethernet utiliza cables de cobre UTP y fibra óptica para
interconectar dispositivos de red a través de dispositivos intermediarios como hubs y
switches. Dada la diversidad de tipos de medios que Ethernet admite, la estructura de la
trama de Ethernet permanece constante a través de todas sus implementaciones físicas. Es
por esta razón que puede evolucionar hasta cumplir con los requisitos de red actuales.

4.1.6. ETHERNET: COMUNICACIÓN A TRAVÉS DE LAN

4.1.6.1. COMUNICACIÓN A TRAVÉS DE LAN

Un host en una red local Ethernet se puede comunicar con otro host conectado en
el mismo segmento de red o se puede comunicar con otro host conectado en una
red remota. Un host en una red local Ethernet puede acceder a recursos tanto
locales como remotos.
Host en la misma red local
Cuando un host accede a recursos locales, se comunica con otro host
conectado en el mismo segmento de red. Durante esta comunicación
utiliza la dirección MAC del host de destino para entregar el mensaje.

Host en una red remota


Cuando un host accede a recursos remotos, se comunica con otro host conectado
en una red remota. Durante esta comunicación utiliza la dirección MAC del
gateway predeterminado para entregar el mensaje al host de destino.

4.1.6.2. ETHERNET HISTÓRICA


Los cimientos de la tecnología Ethernet se fijaron por primera vez en 1970
mediante un programa llamado Alohanet. Alohanet era una red de radio digital
diseñada para transmitir información por una frecuencia de radio compartida entre
las Islas de Hawai.
Alohanet obligaba a todas las estaciones a seguir un protocolo según el cual una
transmisión no reconocida requería una retransmisión después de un período de
espera breve. Las técnicas para utilizar un medio compartido de esta manera se
aplicaron posteriormente a la tecnología cableada en forma de Ethernet.La
Ethernet se diseñó para aceptar múltiples computadoras que se interconectaban
en una topología de bus compartida.
La primera versión de Ethernet incorporaba un método de acceso al medio
conocido como Acceso múltiple por detección de portadora y detección de
colisiones (CSMA/CD). El CSMA/CD administraba los problemas que se
originaban cuando múltiples dispositivos intentaban comunicarse en un medio
físico compartido.

Primeros medios Ethernet


Las primeras versiones de Ethernet utilizaban cable coaxial para
conectar computadoras en una topología de bus. Cada computadora se
conectaba directamente al backbone. Estas primeras versiones de
Ethernet se conocían como Thicknet (10BASE5) y Thinnet (10BASE2).
La 10BASE5, o Thicknet, utilizaba un cable coaxial grueso que permitía
lograr distancias de cableado de hasta 500 metros antes de que la señal
requiriera un repetidor. La 10BASE2, o Thinnet, utilizaba un cable coaxial
fino que tenía un diámetro menor y era más flexible que la Thicknet y
permitía alcanzar distancias de cableado de 185 metros.
La capacidad de migrar la implementación original de Ethernet a las
implementaciones de Ethernet actuales y futuras se basa en la estructura
de la trama de Capa 2, que prácticamente no ha cambiado. Los medios
físicos, el acceso al medio y el control del medio han evolucionado y
continúan haciéndolo. Pero el encabezado y el tráiler de la trama de
Ethernet han permanecido constantes en términos generales.
Las primeras implementaciones de Ethernet se utilizaron en entornos
LAN de bajo ancho de banda en los que el acceso a los medios
compartidos se administraba mediante CSMA y, posteriormente,
mediante CSMA/CD. Además de ser una topología de bus lógica de la
capa de Enlace de datos, Ethernet también utilizaba una topología de
bus física. Esta topología se volvió más problemática a medida que las
LAN crecieron y que los servicios LAN demandaron más infraestructura.
Los medios físicos originales de cable coaxial grueso y fino se
reemplazaron por categorías iniciales de cables UTP. En comparación
con los cables coaxiales, los cables UTP eran más fáciles de utilizar, más
livianos y menos costosos.
La topología física también se cambió por una topología en estrella
utilizando hubs. Los hubs concentran las conexiones. En otras palabras,
toman un grupo de nodos y permiten que la red los trate como una sola
unidad. Cuando una trama llega a un puerto, se lo copia a los demás
puertos para que todos los segmentos de la LAN reciban la trama. La
utilización del hub en esta topología de bus aumentó la confiabilidad de la
red, ya que permite que cualquier cable falle sin provocar una
interrupción en toda la red. Sin embargo, la repetición de la trama a los
demás puertos no solucionó el problema de las colisiones. Más adelante
en este capítulo se verá cómo se manejaron las cuestiones relacionadas
con colisiones en Ethernet mediante la introducción de switches en la
red.

4.1.6.3. ADMINISTRACIÓN DE COLISIONES ETHERNET

Ethernet antigua
En redes 10BASE-T, el punto central del segmento de red era generalmente un
hub. Esto creaba un medio compartido. Debido a que el medio era compartido,
sólo una estación a la vez podía realizar una transmisión de manera exitosa. Este
tipo de conexión se describe como comunicación half-duplex.
A medida que se agregaban más dispositivos a una red Ethernet, la cantidad de
colisiones de tramas aumentaba notablemente. Durante los períodos de poca
actividad de comunicación, las pocas colisiones que se producían se
administraban mediante el CSMA/CD, con muy poco impacto en el rendimiento, en
caso de que lo hubiera. Sin embargo, a medida que la cantidad de dispositivos y el
consiguiente tráfico de datos aumenta, el incremento de las colisiones puede
producir un impacto significativo en la experiencia del usuario.
A modo de analogía, sería similar a cuando salimos a trabajar o vamos a la
escuela a la mañana temprano y las calles están relativamente vacías. Más tarde,
cuando hay más automóviles en las calles, pueden producirse colisiones y generar
demoras en el tráfico.

Ethernet actual
Un desarrollo importante que mejoró el rendimiento de la LAN fue la introducción
de los switches para reemplazar los hubs en redes basadas en Ethernet. Este
desarrollo estaba estrechamente relacionado con el desarrollo de Ethernet
100BASE-TX. Los switches pueden controlar el flujo de datos mediante el
aislamiento de cada uno de los puertos y el envío de una trama sólo al destino
correspondiente (en caso de que se lo conozca) en vez del envío de todas las
tramas a todos los dispositivos.
El switch reduce la cantidad de dispositivos que recibe cada trama, lo que a su vez
disminuye o minimiza la posibilidad de colisiones. Esto, junto con la posterior
introducción de las comunicaciones full-duplex (que tienen una conexión que
puede transportar señales transmitidas y recibidas al mismo tiempo), permitió el
desarrollo de Ethernet de 1 Gbps y más.

4.2 Trama de Ethernet


4.2.1. ENCAPSULACIÓN DEL PAQUETE
La estructura de la trama de Ethernet agrega encabezados y tráilers a la
PDU de Capa 3 para encapsular el mensaje que se envía.
Tanto el encabezado como el tráiler de Ethernet tienen varias secciones
de información que el protocolo Ethernet utiliza. Cada sección de la
trama se denomina campo. Hay dos estilos de tramas de Ethernet: el
IEEE 802.3 (original) y el IEEE 802.3 revisado (Ethernet).
Las diferencias entre los estilos de tramas son mínimas. La diferencia
más significativa entre el IEEE 802.3 (original) y el IEEE 802.3 revisado
es el agregado de un delimitador de inicio de trama (SFD) y un pequeño
cambio en el campo Tipo que incluye la Longitud, tal como se muestra en
la figura.
tamaño de la trama de Ethernet
El estándar Ethernet original definió el tamaño mínimo de trama en 64 bytes y el tamaño
máximo de trama en 1518 bytes. Esto incluye todos los bytes del campo Dirección MAC de
destino a través del campo Secuencia de verificación de trama (FCS). Los campos
Preámbulo y Delimitador de inicio de trama no se incluyen en la descripción del tamaño de
una trama. El estándar IEEE 802.3ac, publicado en 1998, amplió el tamaño de trama
máximo permitido a 1522 bytes. Se aumentó el tamaño de la trama para que se adapte a una
tecnología denominada Red de área local virtual (VLAN). Las VLAN se crean dentro de
una red conmutada y se presentarán en otro curso.
Si el tamaño de una trama transmitida es menor que el mínimo o mayor que el máximo, el
dispositivo receptor descarta la trama. Es posible que las tramas descartadas se originen en
colisiones u otras señales no deseadas y, por lo tanto, se consideran no válidas.
os campos Preámbulo (7 bytes) y Delimitador de inicio de trama (SFD) (1 byte) se utilizan
para la sincronización entre los dispositivos de envío y de recepción. Estos ocho primeros
bytes de la trama se utilizan para captar la atención de los nodos receptores. Básicamente,
los primeros bytes le indican al receptor que se prepare para recibir una trama nueva.

Campo Dirección MAC de destino


El campo Dirección MAC de destino (6 bytes) es el identificador del receptor deseado.
Como recordará, la Capa 2 utiliza esta dirección para ayudar a los dispositivos a determinar
si la trama viene dirigida a ellos. La dirección de la trama se compara con la dirección
MAC del dispositivo. Si coinciden, el dispositivo acepta la trama.

Campo Dirección MAC de origen


El campo Dirección MAC de origen (6 bytes) identifica la NIC o interfaz que origina la
trama. Los switches también utilizan esta dirección para ampliar sus tablas de búsqueda. El
rol de los switches se analizará más adelante en este capítulo.

Campo Longitud/Tipo
El campo Longitud/Tipo (2 bytes) define la longitud exacta del campo Datos de la trama.
Esto se utiliza posteriormente como parte de la FCS para garantizar que el mensaje se
reciba adecuadamente. En este campo debe ingresarse una longitud o un tipo. Sin embargo,
sólo uno u otro podrá utilizarse en una determinada implementación. Si el objetivo del
campo es designar un tipo, el campo Tipo describe qué protocolo se implementa.
El campo denominado Longitud/Tipo sólo aparecía como Longitud en las versiones
anteriores del IEEE y sólo como Tipo en la versión DIX. Estos dos usos del campo se
combinaron oficialmente en una versión posterior del IEEE, ya que ambos usos eran
comunes. El campo Tipo de la Ethernet II se incorporó a la actual definición de trama del
802.3. La Ethernet II es el formato de trama de Ethernet que se utiliza en redes TCP/IP.
Cuando un nodo recibe una trama, debe analizar el campo Longitud/Tipo para determinar
qué protocolo de capa superior está presente. Si el valor de los dos octetos es equivalente a
0x0600 hexadecimal o 1536 decimal o mayor que éstos, los contenidos del campo Datos se
codifican según el protocolo indicado.

Campos Datos y Relleno


Los campos Datos y Relleno (de 46 a 1500 bytes) contienen los datos encapsulados de una
capa superior, que es una PDU de Capa 3 genérica o, con mayor frecuencia, un paquete
IPv4. Todas las tramas deben tener al menos 64 bytes de longitud. Si se encapsula un
paquete pequeño, el Pad se utiliza para aumentar el tamaño de la trama hasta alcanzar este
tamaño mínimo.

Campo Secuencia de verificación de trama


El campo Secuencia de verificación de trama (FCS) (4 bytes) se utiliza para detectar errores
en la trama. Utiliza una comprobación cíclica de redundancia (CRC). El dispositivo emisor
incluye los resultados de una CRC en el campo FCS de la trama.
El dispositivo receptor recibe la trama y genera una CRC para detectar errores. Si los
cálculos coinciden, significa que no se produjo ningún error. Los cálculos que no coinciden
indican que los datos cambiaron y, por consiguiente, se descarta la trama. Un cambio en los
datos podría ser resultado de una interrupción de las señales eléctricas que representan los
bits.

4.2.2. LA DIRECCIÓN MAC DE ETHERNET

La Ethernet se implementaba como parte de una topología de bus. Cada uno de


los dispositivos de red se conectaba al mismo medio compartido. En redes con
poco tráfico o pequeñas, ésta era una implementación aceptable. El problema más
importante que debía resolverse era cómo identificar cada uno de los dispositivos.
La señal podía enviarse a todos los dispositivos, pero ¿cómo podía determinar
cada uno de los dispositivos si era el receptor del mensaje?
Se creó un identificador único, denominado dirección de Control de acceso al
medio (MAC), para ayudar a determinar las direcciones de origen y destino dentro
de una red Ethernet. Independientemente de qué variedad de Ethernet se estaba
utilizando, la convención de denominación brindó un método para identificar
dispositivos en un nivel inferior del modelo OSI.
Como recordará, la dirección MAC se agrega como parte de una PDU de Capa 2.
Una dirección MAC de Ethernet es un valor binario de 48 bits expresado como 12
dígitos hexadecimales.
Estructura de la dirección MAC

El valor de la dirección MAC es el resultado directo de las normas implementadas


por el IEEE para proveedores con el objetivo de garantizar direcciones únicas para
cada dispositivo Ethernet. Las normas establecidas por el IEEE obligan a los
proveedores de dispositivos Ethernet a registrarse en el IEEE. El IEEE le asigna a
cada proveedor un código de 3 bytes, denominado Identificador único
organizacional (OUI).
El IEEE obliga a los proveedores a respetar dos normas simples:
Todas las direcciones MAC asignadas a una NIC u otro dispositivo Ethernet deben
utilizar el OUI que se le asignó a dicho proveedor como los 3 primeros bytes.

Se les debe asignar un valor exclusivo a todas las direcciones MAC con el mismo
OUI (Identificador exclusivo de organización) (código del fabricante o número de
serie) en los últimos 3 bytes.
La dirección MAC se suele denominar dirección grabada (BIA) porque se
encuentra grabada en la ROM (Memoria de sólo lectura) de la NIC. Esto significa
que la dirección se codifica en el chip de la ROM de manera permanente (el
software no puede cambiarla).
Sin embargo, cuando se inicia el equipo la NIC copia la dirección a la RAM
(Memoria de acceso aleatorio). Cuando se examinan tramas se utiliza la dirección
que se encuentra en la RAM como dirección de origen para compararla con la
dirección de destino. La NIC utiliza la dirección MAC para determinar si un
mensaje debe pasarse a las capas superiores para procesarlo.
Dispositivos de red
Cuando el dispositivo de origen reenvía el mensaje a una red Ethernet, se adjunta
la información del encabezado dentro de la dirección MAC. El dispositivo de origen
envía los datos a través de la red. Cada NIC de la red visualiza la información para
determinar si la dirección MAC coincide con su dirección física. Si no hay
coincidencia, el dispositivo descarta la trama. Cuando la trama llega al destino
donde la MAC de la NIC coincide con la MAC de destino de la trama, la NIC pasa
la trama hasta las capas OSI (Interconexión de sistema abierto), donde se lleva a
cabo el proceso de des encapsulación.
Todos los dispositivos conectados a una LAN Ethernet tienen interfaces con
direcciones MAC. Diferentes fabricantes de hardware y software pueden
representar las direcciones MAC en distintos formatos hexadecimales. Los
formatos de las direcciones pueden ser similares a 00-05-9A-3C-78-00,
00:05:9A:3C:78:00 ó 0005.9A3C.7800. Las direcciones MAC se asignan a
estaciones de trabajo, servidores, impresoras, switches y routers (cualquier
dispositivo que pueda originar o recibir datos en la red).

4.2.3. NUMERACIÓN HEXADECIMAL Y


DIRECCIONAMIENTO
Numeración hexadecimal
El método hexadecimal ("Hex") es una manera conveniente de representar valores
binarios. Así como el sistema de numeración decimal es un sistema de base diez y
el binario es un sistema de base dos, el sistema hexadecimal es un sistema de
base dieciséis.
El sistema de numeración de base 16 utiliza los números del 0 al 9 y las letras de
la A a la F. La figura muestra los valores decimales, binarios y hexadecimales
equivalentes para los binarios 0000 hasta 1111. Nos resulta más conveniente
expresar un valor como un único dígito hexadecimal que como cuatro bits.

Comprensión de los bytes


Dado que 8 bits (un byte) es una agrupación binaria común, los binarios 00000000
hasta 11111111 pueden representarse en valores hexadecimales como el
intervalo 00 a FF. Los ceros iniciales se muestran siempre para completar la
representación de 8 bits. Por ejemplo, el valor binario 0000 1010 se muestra en
valor hexadecimal como 0A.

Conversiones hexadecimales
Las conversiones numéricas entre valores decimales y hexadecimales
son simples, pero no siempre es conveniente dividir o multiplicar por 16.
Si es necesario realizar dichas conversiones, generalmente es más fácil
convertir el valor decimal o hexadecimal a un valor binario y después
convertir dicho valor binario a un valor decimal o hexadecimal, según
corresponda.

Visualización de la MAC
Una herramienta útil para analizar la dirección MAC de nuestra
computadora es ipconfig /all o ifconfig. En el gráfico, observe la dirección
MAC de esta computadora. Si el usuario tiene acceso, es posible que
desee intentar esto en su equipo.
Quizás quiera buscar el OUI de la dirección MAC para determinar quién
es el fabricante de su NIC.

4.2.4. OTRA CAPA DE DIRECCIONAMIENTO


Capa de Enlace de datos
El direccionamiento físico de la capa de Enlace de datos (Capa 2) de OSI,
implementado como dirección MAC de Ethernet, se utiliza para transportar la
trama a través de los medios locales. Si bien brindan una dirección host única, las
direcciones físicas no son jerárquicas. Estas direcciones se asocian a un
dispositivo en particular, independientemente de su ubicación o de la red a la que
esté conectado.
Estas direcciones de Capa 2 no tienen ningún significado fuera de los medios de
la red local. Es posible que un paquete deba atravesar una serie de tecnologías de
conexión de datos diferentes en redes locales y de área amplia antes de llegar a
su destino. Por lo tanto, un dispositivo de origen no tiene conocimiento de la
tecnología utilizada en redes intermedias y de destino o de sus direcciones de
Capa 2 y estructuras de trama.

Capa de Red
Las direcciones de capa de Red (Capa 3), como por ejemplo, las direcciones IPv4,
brindan el direccionamiento general y local que se comprende tanto en el origen
como en el destino. Para llegar a su último destino, un paquete transporta la
dirección de destino de Capa 3 desde su origen. Sin embargo, debido a que
diferentes protocolos de la capa de Enlace de datos la traman durante el trayecto,
la dirección de Capa 2 que recibe cada vez se aplica sólo a esa porción local del
trayecto y sus medios.
En resumen:

 La dirección de capa de red permite el envío del paquete a su destino.


 La dirección de capa de enlace de datos permite el transporte del paquete
utilizando los medios locales a través de cada segmento.

4.2.5. CONTROL DE ACCESO AL


MEDIO
En un entorno de medios compartidos, todos los dispositivos tienen acceso
garantizado al medio, pero no tienen ninguna prioridad en dicho medio. Si más de
un dispositivo realiza una transmisión simultáneamente, las señales físicas
colisionan y la red debe recuperarse para que pueda continuar la comunicación.
Las colisiones representan el precio que debe pagar la Ethernet para obtener el
bajo gasto relacionado con cada transmisión.
La Ethernet utiliza el acceso múltiple por detección de portadora y detección de
colisiones (CSMA/CD) para detectar y manejar colisiones y para administrar la
reanudación de las comunicaciones.
Debido a que todas las computadoras que utilizan Ethernet envían sus mensajes
en el mismo medio, se utiliza un esquema de coordinación distribuida (CSMA)
para detectar la actividad eléctrica en el cable. Entonces, un dispositivo puede
determinar cuándo puede transmitir. Cuando un dispositivo detecta que ninguna
otra computadora está enviando una trama o una señal portadora, el dispositivo
transmitirá en caso de que tenga algo para enviar.

4.2.5.1. CSMA/CD: EL PROCESO

Detección de portadora
En el método de acceso CSMA/CD, todos los dispositivos de red que tienen
mensajes para enviar deben escuchar antes de transmitir.
Si un dispositivo detecta una señal de otro dispositivo, esperará durante un
período especificado antes de intentar transmitir.
Cuando no se detecte tráfico, un dispositivo transmitirá su mensaje. Mientras se
lleva a cabo la transmisión, el dispositivo continúa escuchando para detectar
tráfico o colisiones en la LAN. Una vez que se envía el mensaje, el dispositivo
regresa a su modo de escucha predeterminado.

Multiacceso
Si la distancia existente entre los dispositivos es tal que la latencia de las señales
de un dispositivo denota que un segundo dispositivo no detecta las señales, el
segundo dispositivo puede comenzar también a transmitir. Los medios tienen
entonces dos dispositivos que transmiten sus señales al mismo tiempo. Sus
mensajes se propagarán por todos los medios hasta que se encuentren. En ese
punto, las señales se mezclan y el mensaje se destruye. Si bien los mensajes se
corrompen, la mezcla de señales restantes continúa propagándose a través de los
medios.

Detección de colisiones
Cuando un dispositivo está en modo de escucha, puede detectar una colisión en el
medio compartido. La detección de una colisión es posible porque todos los
dispositivos pueden detectar un aumento de la amplitud de la señal por encima del
nivel normal.
Una vez que se produce una colisión, los demás dispositivos que se encuentren
en modo de escucha (como así también todos los dispositivos transmisores)
detectarán el aumento de la amplitud de la señal. Una vez detectada la colisión,
todos los dispositivos transmisores continuarán transmitiendo para garantizar que
todos los dispositivos de la red detecten la colisión.

Señal de congestión y postergación aleatoria


Cuando los dispositivos de transmisión detectan la colisión, envían una señal de
congestión. Esta señal interferente se utiliza para notificar a los demás dispositivos
sobre una colisión, de manera que éstos invocarán un algoritmo de postergación.
Este algoritmo de postergación hace que todos los dispositivos dejen de transmitir
durante un período aleatorio, lo que permite que las señales de colisión
disminuyan.
Una vez que finaliza el retraso asignado a un dispositivo, dicho dispositivo regresa
al modo "escuchar antes de transmitir". El período de postergación aleatoria
garantiza que los dispositivos involucrados en la colisión no intenten enviar su
tráfico nuevamente al mismo tiempo, lo que provocaría que se repita todo el
proceso. Sin embargo, esto también significa que un tercer dispositivo puede
transmitir antes de que cualquiera de los dos dispositivos involucrados en la
colisión original tenga la oportunidad de volver a transmitir.

Hubs y dominios de colisiones


Dado que las colisiones se producirán ocasionalmente en cualquier topología de
medios compartidos (incluso cuando se emplea CSMA/CD), debemos prestar
atención a las condiciones que pueden originar un aumento de las colisiones.
Debido al rápido crecimiento de la Internet:
 Se conectan más dispositivos a la red.
 Los dispositivos acceden a los medios de la red con una mayor frecuencia.
 Aumentan las distancias entre los dispositivos.

Los dispositivos conectados que tienen acceso a medios comunes a través de un


hub o una serie de hubs conectados directamente conforman lo que se denomina
dominio de colisiones. Un dominio de colisiones también se denomina segmento
de red. Por lo tanto, los hubs y repetidores tienen el efecto de aumentar el tamaño
del dominio de colisiones.

4.2.5.2. TEMPORIZACIÓN DE ETHERNET

Las implementaciones más rápidas de la capa física de Ethernet introducen


complejidades en la administración de colisiones.

Latencia

Tal como se analizó anteriormente, cada dispositivo que desee transmitir debe
"escuchar" primero el medio para verificar la presencia de tráfico. Si no hay tráfico,
la estación comenzará a transmitir de inmediato. La señal eléctrica que se
transmite requiere una cantidad determinada de tiempo (latencia) para propagarse
(viajar) a través del cable. Cada hub o repetidor en la ruta de la señal agrega
latencia a medida que envía los bits desde un puerto al siguiente.
Este retardo acumulado aumenta la probabilidad de que se produzcan colisiones,
porque un nodo de escucha puede transformarse en señales de transmisión
mientras el hub o repetidor procesa el mensaje. Debido a que la señal no había
alcanzado este nodo mientras estaba escuchando, dicho nodo pensó que el medio
estaba disponible. Esta condición produce generalmente colisiones.

Temporización y sincronización

En modo half-duplex, si no se produce una colisión, el dispositivo emisor


transmitirá 64 bits de información de sincronización de temporización, lo que se
conoce como el Preámbulo.
El dispositivo emisor transmitirá a continuación la trama completa.
La Ethernet con velocidades de transmisión (throughput) de 10 Mbps y menos es
asíncrona. Una comunicación asíncrona en este contexto significa que cada
dispositivo receptor utilizará los 8 bytes de información de temporización para
sincronizar el circuito receptor con los datos entrantes y a continuación descartará
los 8 bytes.
Las implementaciones de Ethernet con velocidades de transmisión (throughput) de
100 Mbps y más son síncronas. La comunicación síncrona en este contexto
significa que la información de temporización no es necesaria. Sin embargo, por
razones de compatibilidad, los campos Preámbulo y Delimitador de inicio de trama
(SFD) todavía están presentes.

Tiempo de bit
Para cada velocidad de medios diferente se requiere un período de tiempo
determinado para que un bit pueda colocarse y detectarse en el medio. Dicho
período de tiempo se denomina tiempo de bit. En Ethernet de 10 Mbps, un bit en
la capa MAC requiere de 100 nanosegundos (ns) para ser transmitido. A 100
Mbps, ese mismo bit requiere de 10 ns para ser transmitido. Y a 1000 Mbps, sólo
se requiere 1 ns para transmitir un bit. A menudo, se utiliza una estimación
aproximada de 20,3 centímetros (8 pulgadas) por nanosegundo para calcular el
retardo de propagación en un cable UTP. El resultado es que para 100 metros de
cable UTP se requiere un poco menos de 5 tiempos de bit para que una señal
10BASE-T recorra la longitud del cable.
Para que el CSMA/CD de Ethernet funcione, el dispositivo emisor debe detectar la
colisión antes de que se haya completado la transmisión de una trama del tamaño
mínimo. A 100 Mbps, la temporización del dispositivo apenas es capaz de
funcionar con cables de 100 metros. A 1000 Mbps, ajustes especiales son
necesarios porque se suele transmitir una trama completa del tamaño mínimo
antes de que el primer bit alcance el extremo de los primeros 100 metros de cable
UTP. Por este motivo, no se permite el modo half-duplex en la Ethernet de 10
Gigabits.
Estas consideraciones de temporización deben aplicarse al espacio entre las
tramas y a los tiempos de postergación (ambos temas se analizan en la próxima
sección) para asegurar que cuando un dispositivo transmita su próxima trama, se
ha reducido al mínimo el riesgo de que se produzca una colisión.

Intervalo de tiempo
En Ethernet half-duplex, donde los datos sólo pueden viajar en una dirección a la
vez, el intervalo de tiempo se convierte en un parámetro importante para
determinar cuántos dispositivos pueden compartir una red. Para todas las
velocidades de transmisión de Ethernet de o por debajo de 1000 Mbps, el
estándar describe cómo una transmisión individual no puede ser menor que el
intervalo de tiempo.
La determinación del intervalo de tiempo es una compensación entre la necesidad
de reducir el impacto de la recuperación en caso de colisión (tiempos de
postergación y retransmisión) y la necesidad de que las distancias de red sean lo
suficientemente grandes como para adaptarse a tamaños razonables de red. El
compromiso fue elegir un diámetro de red máximo (2500 metros
aproximadamente) para después establecer la longitud mínima de una trama que
fuera suficiente como para garantizar la detección de todas las peores colisiones.
El intervalo de tiempo para Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o
64 octetos. El intervalo de tiempo para Ethernet de 1000 Mbps es de 4096 tiempos
de bit o 512 octetos.
El intervalo de tiempo garantiza que si está por producirse una colisión, se
detectará dentro de los primeros 512 bits (4096 para Gigabit Ethernet) de la
transmisión de la trama. Esto simplifica el manejo de las retransmisiones de
tramas posteriores a una colisión.
El intervalo de tiempo es un parámetro importante por las siguientes razones:
 El intervalo de tiempo de 512 bits establece el tamaño mínimo de una trama
de Ethernet en 64 bytes. Cualquier trama con menos de 64 bytes de
longitud se considera un "fragmento de colisión" o "runt frame" y las
estaciones receptoras la descartan automáticamente.
 El intervalo de tiempo determina un límite para el tamaño máximo de los
segmentos de una red. Si la red crece demasiado, pueden producirse
colisiones tardías. La colisiones tardías se consideran una falla en la red,
porque un dispositivo detecta la colisión demasiado tarde durante la
transmisión de tramas y será manejada automáticamente mediante
CSMA/CD.

El intervalo de tiempo se calcula teniendo en cuenta las longitudes


máximas de cables en la arquitectura de red legal de mayor tamaño.
Todos los tiempos de retardo de propagación del hardware se
encuentran al máximo permisible y se utiliza una señal de congestión de
32 bits cuando se detectan colisiones.
El intervalo de tiempo real calculado es apenas mayor que la cantidad de
tiempo teórica necesaria para realizar una transmisión entre los puntos
de máxima separación de un dominio de colisión, colisionar con otra
transmisión en el último instante posible y luego permitir que los
fragmentos de la colisión regresen a la estación transmisora y sean
detectados. Ver la figura.
Para que el sistema funcione correctamente, el primer dispositivo debe
estar al tanto de la colisión antes de que termine de enviar la trama legal
de menor tamaño.
Para que una Ethernet de 1000 Mbps pueda operar en modo half-duplex,
se agregó a la trama el campo de extensión cuando se envían tramas
pequeñas, con el sólo fin de mantener ocupado al transmisor durante el
tiempo que sea necesario para que vuelva un fragmento de colisión. Este
campo sólo se incluye en los enlaces en half-duplex de 1000 Mbps y
permite que las tramas de menor tamaño duren el tiempo suficiente para
satisfacer los requisitos del intervalo de tiempo. El dispositivo receptor
descarta los bits de extensión.

4.2.5.3. ESPACIO ENTRE TRAMAS Y POSTERGACIÓN

Espacio entre tramas


Los estándares de Ethernet requieren un espacio mínimo entre dos tramas que no
hayan sufrido una colisión. Esto le otorga al medio tiempo para estabilizarse antes
de la transmisión de la trama anterior y tiempo a los dispositivos para que
procesen la trama. Este tiempo, llamado espacio entre tramas, se mide desde el
último bit del campo FCS de una trama hasta el primer bit del Preámbulo de la
próxima trama.
Una vez enviada la trama, todos los dispositivos de una red Ethernet de 10 Mbps
deben esperar un mínimo de 96 tiempos de bit (9,6 microsegundos) antes de que
cualquier dispositivo pueda transmitir la siguiente trama. En versiones de Ethernet
más veloces, el espacio sigue siendo el mismo, 96 tiempos de bit, pero el tiempo
del espacio entre tramas se vuelve proporcionalmente más corto.
Los retardos de sincronización entre dispositivos pueden ocasionar la pérdida de
algunos de los bits del preámbulo de la trama. A su vez, esto puede producir una
reducción mínima del espacio entre tramas cuando los hubs y repetidores
regeneran los 64 bits completos de la información de temporización (el Preámbulo
y el SFD) al comienzo de cada trama que se reenvía. En Ethernet de mayor
velocidad, algunos dispositivos sensibles al tiempo podrían eventualmente no
reconocer las tramas individuales lo que originaría una falla de comunicación.

Señal de congestión
Como recordará, la Ethernet permite que los dispositivos compitan para
el tiempo de transmisión. En caso de que dos dispositivos transmitan
simultáneamente, el CSMA/CD de la red intenta resolver el problema. Sin
embargo, recuerde que cuando se agrega un mayor número de
dispositivos a la red, es posible que las colisiones sean cada vez más
difíciles de resolver.
Tan pronto como se detecta una colisión, los dispositivos transmisores
envían una señal de congestión de 32 bits que la impone. Esto garantiza
que todos los dispositivos de la LAN detectarán la colisión.
Es importante que la señal de congestión no se detecte como una trama
válida; de lo contrario, no podría identificarse la colisión. El patrón de
datos que se observa con mayor frecuencia para una señal de
congestión es simplemente un patrón de 1, 0, 1, 0 que se repite, al igual
que el Preámbulo.
Los mensajes corrompidos, transmitidos de forma parcial, generalmente
se conocen como fragmentos de colisión o runts. Las colisiones normales
tienen menos de 64 octetos de longitud y, por lo tanto, reprueban tanto la
prueba de longitud mínima como la FCS, lo que facilita su identificación.

Temporización de postergación
Una vez producida la colisión y que todos los dispositivos permitan que el
cable quede inactivo (cada uno espera que se cumpla el espacio
completo entre tramas), los dispositivos cuyas transmisiones sufrieron la
colisión deben esperar un período adicional, y cada vez potencialmente
mayor, antes de intentar la retransmisión de la trama que sufrió la
colisión. El período de espera está intencionalmente diseñado para que
sea aleatorio de modo que dos estaciones no demoren la misma
cantidad de tiempo antes de efectuar la retransmisión, lo que causaría
colisiones adicionales. Esto se logra en parte al aumentar el intervalo a
partir del cual se selecciona el tiempo de retransmisión aleatorio cada
vez que se efectúa un intento de retransmisión. El período de espera se
mide en incrementos del intervalo de tiempo del parámetro.
Si la congestión en los medios provoca que la capa MAC no pueda
enviar la trama después de 16 intentos, abandona el intento y genera un
error en la capa de Red. Este tipo de sucesos es raro en una red que
funciona correctamente y sólo sucedería en el caso de cargas de red
extremadamente pesadas o cuando se produce un problema físico en la
red.
Los métodos descriptos en esta sección permitían a Ethernet
proporcionar un servicio superior en una topología de medios
compartidos basándose en el uso de hubs. En la sección de switches
que aparece a continuación, veremos cómo, mediante el uso de
switches, la necesidad de utilizar el CSMA/CD comienza a disminuir o, en
algunos casos, a desaparecer por completo.

4.3 Protocolo de resolución de


direcciones
El protocolo de resolución de direcciones (ARP, del inglés Address Resolution
Protocol) es un protocolo de comunicaciones de la capa de enlace, responsable
de encontrar la dirección de hardware (Ethernet MAC) que corresponde a una
determinada dirección IP. Para ello se envía un paquete (ARP request) a la
dirección de difusión de la red (broadcast, MAC = FF FF FF FF FF FF) que
contiene la dirección IP por la que se pregunta, y se espera a que esa máquina (u
otra) responda (ARP reply) con la dirección Ethernet que le corresponde. Cada
máquina mantiene una caché con las direcciones traducidas para reducir el
retardo y la carga. ARP permite a la dirección de Internet ser independiente de la
dirección Ethernet, pero esto solo funciona si todas las máquinas lo soportan.
ARP está documentado en el RFC 826. El protocolo RARP realiza la operación
inversa y se encuentra descrito en el RFC 903.
En Ethernet, la capa de enlace trabaja con direcciones físicas. El protocolo ARP
se encarga de traducir las direcciones IP a direcciones MAC (direcciones físicas).
Para realizar esta conversión, el nivel de enlace utiliza las tablas ARP, cada
interfaz tiene tanto una dirección IP como una dirección física MAC.

ARP se utiliza en cuatro casos referentes a la comunicación entre dos hosts:

 Cuando dos hosts están en la misma red y uno quiere enviar un paquete a
otro.
 Cuando dos hosts están sobre redes diferentes y deben usar un gateway o
router para alcanzar otro host.
 Cuando un router necesita enviar un paquete a un host a través de otro
router.
 Cuando un router necesita enviar un paquete a un host de la misma red.

Función
Cuando una máquina desea ponerse en contacto con otra y no se conoce su
dirección IP, entonces necesita un mecanismo dinámico que permite conocer su
dirección física . Entonces envía una petición ARP por broadcast (o sea a todas
las maquinas). El protocolo establece que solo contestara a la petición, si esta
lleva su dirección IP. Por lo tanto solo contestará la maquina que corresponde a la
dirección IP buscada, con un mensaje que incluya la dirección física. El software
de comunicaciones debe mantener una caché con los pares IP-dirección física. De
este modo la siguiente vez que hay que hacer una transmisión a es dirección IP,
ya conoceremos la dirección física.
El protocolo RARP le permite a la estación de trabajo averiguar su dirección IP
desde una tabla de búsqueda entre las direcciones MAC (direcciones físicas) y las
direcciones IP alojadas por una pasarela ubicada en la misma red de área local
(LAN).
Para poder hacerlo, el administrador debe definir los parámetros de la pasarela
(router) con la tabla de búsqueda para las direcciones MAC/IP. A diferencia del
ARP, este protocolo es estático. Por lo que la tabla de búsqueda debe estar
siempre actualizada para permitir la conexión de nuevas tarjetas de interfaz de
red.

Objetivos
El protocolo ARP tiene un papel clave entre los protocolos de capa de Internet
relacionados con el protocolo TCP/IP, ya que permite que se conozca la dirección
física de una tarjeta de interfaz de red correspondiente a una dirección IP. Por eso
se llama Protocolo de Resolución de Dirección.
Cada equipo conectado a la red tiene un número de identificación de 48 bits. Éste
es un número único establecido en la fábrica en el momento de fabricación de la
tarjeta. Sin embargo, la comunicación en Internet no utiliza directamente este
número (ya que las direcciones de los equipos deberían cambiarse cada vez que
se cambia la tarjeta de interfaz de red), sino que utiliza una dirección lógica
asignada por un organismo: la dirección IP.
Para que las direcciones físicas se puedan conectar con las direcciones lógicas, el
protocolo ARP interroga a los equipos de la red para averiguar sus direcciones
físicas y luego crea una tabla de búsqueda entre las direcciones lógicas y físicas
en una memoria caché.
Cuando un equipo debe comunicarse con otro, consulta la tabla de búsqueda. Si
la dirección requerida no se encuentra en la tabla, el protocolo ARP envía una
solicitud a la red. Todos los equipos en la red comparan esta dirección lógica con
la suya. Si alguno de ellos se identifica con esta dirección, el equipo responderá al
ARP, que almacenará el par de direcciones en la tabla de búsqueda, y, a
continuación, podrá establecerse la comunicación.

ARP proxy
Hay ocasiones en las que un host puede enviar una solicitud de ARP con el
objetivo de mapear una dirección IPv4 fuera del alcance de la red local. En estos
casos, el dispositivo envía solicitudes de ARP para direcciones IPv4 que no se
encuentran en la red local en vez de solicitar la dirección MAC asociada a la
dirección IPv4 del gateway. Para proporcionar una dirección MAC para estos
hosts, una interfaz de router puede utilizar un ARP proxy para responder en
nombre de estos hosts remotos. Esto significa que la caché de ARP del dispositivo
solicitante contendrá la dirección MAC del gateway mapeada a cualquier dirección
IP que no se encuentre en la red local. Con el proxy ARP, una interfaz de router
actúa como si fuera el host con la dirección IPv4 solicitada por la solicitud de ARP.
Al "simular" su identidad, el router acepta la responsabilidad de enrutar paquetes
al destino "real".
Uno de los usos que se le da a dicho proceso es cuando una implementación más
antigua de IPv4 no puede determinar si el host de destino se encuentra en la
misma red lógica que el origen. En estas implementaciones, el ARP siempre envía
solicitudes de ARP para la dirección IPv4 de destino. Si el ARP proxy se desactiva
en la interfaz del router, estos hosts no pueden comunicarse fuera de la red local.
Otro caso en el que se utiliza el ARP proxy es cuando un host cree que está
directamente conectado a la misma red lógica que el host de destino. Esto ocurre
generalmente cuando un host se configura con una máscara inapropiada.

Eliminación de mapeos de direcciones


También pueden utilizarse comandos para eliminar manualmente todas o
algunas de las entradas de la tabla ARP. Después de eliminar una
entrada, el proceso para enviar una solicitud de ARP y recibir una
respuesta ARP debe ocurrir nuevamente para ingresar el mapa en la
tabla ARP.
En la práctica de laboratorio para esta sección, utilizará el comando arp
para visualizar y borrar los contenidos de la caché de ARP de una
computadora. Observe que este comando, a pesar de su nombre, no
invoca en absoluto la ejecución del Protocolo de resolución de
direcciones. Sólo se utiliza para mostrar, agregar o eliminar las entradas
de la tabla ARP. El dispositivo integra el servicio ARP dentro del
protocolo IPv4 y lo implementa. Su funcionamiento es transparente para
aplicaciones y usuarios de capa superior.

También podría gustarte