Cours Cisco N1
Cours Cisco N1
Cours Cisco N1
Les objectifs :
I. Connexion à Internet
1. Éléments requis pour une connexion à Internet
• Carte de circuits imprimés – carte de circuits portant des pistes conductrices superposées, ou imprimées, sur
l’une ou chacune de ses faces. Elle peut également comporter des couches internes pour le routage des
signaux, ainsi que des plans de masse et d’alimentation.
• Lecteur de cédérom
• Processeur – Le processeur assure l’interprétation et l’exécution des instructions en plus d'effectuer les
opérations logiques et mathématiques.
• Lecteur de disquette
• Unité de disque dur
• Microprocesseur – processeur de très petite taille, dont les éléments sont fixés sur une puce de silicium
spéciale. Le microprocesseur utilise la technologie de l’intégration à très grande échelle (VLSI – Very
Large-Scale Integration) pour réunir la mémoire, l’unité logique et l’unité de contrôle de l’ordinateur sur une
seule puce.
• Carte mère – Elle contient le bus, le microprocesseur et les circuits intégrés utilisés pour contrôler les
périphériques usuels.
• Bus – ensemble de lignes électriques sur la carte mère, permettant le transfert de données et de signaux de
synchronisation entre les différents éléments d’un ordinateur.
• Mémoire vive (RAM – Random Acces Memory) – elle permet l’enregistrement de nouvelles données et la
lecture des données stockées. Cette mémoire nécessite une alimentation électrique pour assurer la
conservation des données.
• Mémoire morte (ROM – Read Only Memory) – mémoire de l’ordinateur qui contient des données pré-
enregistrées.
• Unité centrale – partie principale d’un PC, comprenant le châssis, le microprocesseur, la mémoire centrale, le
bus et les ports.
• Emplacement d'extension
• Alimentation
Il faut aussi noter qu’il existe des composants dits de « Fond de panier » c’est à dire des « cartes filles »
• Carte réseau
• Carte vidéo
• Carte son
• Port parallèle – port capable de transférer plusieurs bits à la fois. Il est utilisé pour connecter des unités
externes telles que des imprimantes.
• Port série – ce port, qui ne transmet qu’un seul bit à la fois.
• Port souris – port utilisé pour connecter une souris à un ordinateur.
• PortUSB – connecteur pour périphérique USB (Universal Serial Bus).
• Firewire – norme d’interface série qui garantit des communications à haut débit et offre des services de
données en temps réel, transmises en mode isochrone.
• Cordon d’alimentation.
3. Cartes réseaux.
Ce sont elles qui permettent d’envoyer/recevoir des données. Sur un PC fixe, c’est une carte PCI, la plus part du
temps, et sur un portable, on utilise une carte PCMCIA (Personal Computer Memory Card International Association) qui
est de petite taille.
Une carte réseau nécessite une valeur d’interruption IRQ, une adresse d’E/S et de l’espace en mémoire haute.
Pour choisir une carte réseau, il faut prendre en compte les paramètres suivants :
Les conditions suivantes sont souvent nécessaires à l’installation d’une carte réseau ou encore d’un modem :
-C’est au début des années 60 que sont apparus les premiers modems : ils servaient a connecter des terminaux passifs
a un ordinateur central. Ces modems avaient une vitesse de 300b/s, soit une trentaine de caractère /s
-Dans les années 70 les systèmes BBS (Bulletin Board System) apparurent. Ils offraient des services informatisés
d’échange d’informations, auxquels les utilisateurs pouvaient se connecter notamment pour afficher des messages et y
répondre. La vitesse de connexion est encore de 300 b/s
-Dans les années 80 les systèmes BBS se sont développés très rapidement et la vitesse de 300b/s est vite devenue
insuffisante pour le transfert de graphiques volumineux, par exemple.
-Dans les années 1990, le débit des modems est passé à 9 600 bits/s.
-En 1998, la vitesse standard actuelle de 56 Kbits/s, a été atteinte.
Par la suite, les services DSL (Digital Subscriber Line) autrefois réservés aux professionnels sont devenus accessibles aux
particuliers. Ces services permettent de se connecter instantanément à Internet et d’atteindre des débits importants.
TCP/IP (Transmission Control Protocol/Internet Protocol) désigne un ensemble de protocoles et de règles mis au point
pour permettre aux ordinateurs de partager les ressources d’un réseau. Pour le configurer, il suffit d’utiliser les outils
intégrés à l’OS.
La commande ping utilise des paquets de données IP (Internet Protocol) spéciaux, nommés datagrammes ICMP
(Internet Control Message Protocol), pour envoyer des messages de demande d’écho à une destination donnée.
• ping 127.0.0.1 – Utilisée pour tester la boucle locale interne, cette commande permet de vérifier la
configuration réseau TCP/IP.
• ping Adresse IP d’un ordinateur hôte – Envoyée à un hôte du réseau, cette commande vérifie la configuration de
l’adresse TCP/IP pour l’hôte et la connectivité avec ce dernier.
• ping Adresse IP de la passerelle par défaut – Sert à vérifier si le routeur qui relie le réseau local à d’autres réseaux
est accessible.
• ping Adresse IP d’un hôte distant – Permet de tester la connectivité avec un hôte distant.
Un navigateur web est concu pour interpréter le langage HTML. Les navigateurs les plus utilisés sont IE et Netscape.
Marche a suivre :
1. Définition du problème
2. Recueil des données factuelles
3. Etude des possibilités
4. Conception d’un plan d’action
5. Mise en œuvre du plan
6. Observation des résultats
7. Enregistrement des résultats dans des documents
8. Introduction de problème et dépannage
Les ordinateurs gèrent et stockent les données à l’aide de commutateurs électroniques pouvant prendre deux états : «
En fonction » et « Hors fonction » (ON et OFF). Le code ASCII (American Standard Code for Information Interchange)
emploie des chiffres binaires pour symboliser les caractères saisis au clavier.
Les nombres binaires sont parfois convertis en nombres hexadécimaux (hex), ce qui permet de réduire une longue
chaîne de chiffres binaires en quelques caractères hexadécimaux. Ces derniers sont plus simples à mémoriser et à
manipuler.
2. Bits et octets
Le système binaire utilise seulement deux symboles, le 0 et le 1. Dans un nombre binaire lu de droite à gauche, le rang
de chaque chiffre correspond à 2, le nombre de base, élevé à la puissance (exposant) 0, puis à la puissance 1 et ainsi de
suite jusqu’à la puissance 7. Les valeurs respectives des rangs, de droite à gauche, sont donc les suivantes : 20, 21, 22, 23,
24, 25, 26 et 27 Ù 2, 4, 8, 16, 32, 64 et 128.
0 x 20 = 0
0 x 21 = 0
0 x 22 = 0
0 x 23 = 0
1 x 24 = 16
1 x 25 = 32
1 x 26 = 64
+ 0 x 27= 0
___________
112
7. Représentation de nombres binaires à 32 bits par une notation décimale à
quatre octets avec points de séparation
A l’heure actuelle, les adresses affectées aux ordinateurs pour les identifier sur le réseau Internet sont définies par des
nombres binaires de 32 bits. Pour faciliter l’utilisation de ces adresses, les nombres binaires de 32 bits sont décomposés
en plusieurs nombres décimaux. Le nombre binaire est tout d’abord partagé en quatre groupes de huit chiffres
binaires. Puis, chaque groupe de huit bits, est converti en son équivalent décimal.
NB : Chaque groupe de un à trois chiffres décimaux correspond à un groupe de 8 chiffres binaires. Si le nombre
décimal à convertir est inférieur à 128, vous devez ajouter au nombre binaire équivalent autant de zéros que nécessaire
pour atteindre 8 bits au total.
8. Système hexadécimal.
La représentation de quatre bits par un ou deux chiffres décimaux peut être source de confusion : le nombre binaire à
8 bits 01110011 est égal à 115 après conversion vers le système décimal. Dans ce cas, la représentation décimale est-elle
11 et 5 ou 1 et 15 ? Si l’on considère 11 et 5, le nombre binaire représenté est alors 1011 0101, qui n’est pas le nombre
initial converti. En revanche la représentation hexadécimale est 1F, qui donne toujours 00011111 après reconversion en
base 2.
Pour convertir un nombre hexadécimal en nombre binaire, il suffit de remplacer chaque chiffre hexadécimal par son
équivalent binaire de quatre bits.
Cette logique se rapporte aux circuits numériques 1 ou 2 tensions électriques d’entrée, dont dépendra la tension de
sortie générée.
La logique booléenne repose sur des opérateurs logiques : ET, OU et NON.
Dans un réseau, deux types d’opérations font appel à la logique booléenne : la création de masques de sous-réseau et
de masques génériques, qui permettent de filtrer des adresses
10. Adresses IP et masques de réseau.
Dans l’adresse IP affectée à un ordinateur (inclus dans un réseau), plusieurs bits situés à gauche du numéro IP de 32
bits servent à représenter le réseau. Le nombre de bits réservés à cet effet dépend de la classe de l’adresse. Les bits
restants de l’adresse IP à 32 bits identifient un ordinateur particulier sur le réseau
Pour définir la décomposition de l’adresse IP à 32 bits d’un ordinateur, un second numéro de 32 bits, appelé masque
de sous-réseau, est utilisé. Ce masque fournit un guide pour l’interprétation de l’adresse IP. Il indique combien de bits
sont réservés à l’identification du réseau dont fait partie l’ordinateur. La partie gauche du masque de sous-réseau est
formée d’une série de 1 successifs. Tous les bits du masque qui correspondent à l’adresse du réseau ont la valeur 1,
tandis que le reste du masque comporte des zéros. Les bits du masque de sous-réseau qui portent la valeur 0
identifient l’hôte.
Après conversion en notation entière avec points de séparation, cette adresse devient 10.0.0.0 et représente la partie
réseau de l’adresse IP lorsque le masque 255.0.0.0 est utilisé.
1. Expliquer l’importance de la bande passante dans le réseau 2. Décrire la bande passante en utilisant une analogie
3. Identifier les unités de mesure de bande passante, c’est-à-dire 4. Expliquer la différence entre bande passante et débit
bits/s, kbits/s, Mbits/s et Gbits/s
5. Calculer la vitesse de transfert de données 6. Expliquer pourquoi les modèles en couches sont utilisés pour
décrire la communication des données
7. Expliquer le développement du modèle OSI 8. Dresser la liste des avantages d’une approche en couches
9. Identifier chacune des sept couches du modèle OSI 10. Identifier les quatre couches du modèle TCP/IP
11. Décrire les similitudes et les différences entre les deux 12. Retracer brièvement l’historique des réseaux
modèles
13. Identifier les équipements utilisés dans les réseaux 14. Comprendre le rôle des protocoles dans les réseaux
15. Définir les réseaux LAN, WAN, MAN et SAN 16. Expliquer les réseaux VPN et leurs avantages
17. Indiquer les différences entre les intranets et les extranets
Vue d’ensemble :
On se sert de modèles en couches pour décrire un réseau. Nous verrons les deux modèles suivants : le modèle OSI
(open system interconnection) et le modèle TCP/IP.
Les réseaux de données sont nés parce que les entreprises avaient besoin de répondre aux questions suivantes :
• Comment éviter la duplication de l’équipement et des ressources
• Comment communiquer de manière efficace
• Comment mettre en place et gérer un réseau
Ceci a permis d’augmenter significativement le productivité des entreprises. Dans les années 80, chaque société qui
créait des matériels et des logiciels de réseau utilisait ses propres normes, ce qui permet de contrer la concurrence.
Cependant, il était impossible de communiquer d’un réseau à l’autre ; il fallait donc souvent remplacer des
équipements de réseau pour pouvoir implémenter de nouvelles technologies.
Une des première solution a été d’élaborer une norme de réseau local : LAN. Dans un réseau LAN chaque service de
l’entreprise peut être comparé a un îlot électronique. Cependant, cette technologie s’est vite avérée insuffisante, il a
donc fallu élaborer autre chose. La solution du moment était d’élaborer des réseaux MAN (à l’échelle métropolitaine)
et WAN (réseaux étendu)
Dans les années 40, un ordinateur occupait une place gigantesque et était très fréquemment soumis à de nombreuses
pannes.
En 1947, l’invention des semi-conducteurs a permis de réaliser des ordinateurs plus petits et plus fiables.
Dans les années 50, les grandes organisations commencèrent d’utiliser de gros ordinateurs de gestion fonctionnant
avec des programmes sur cartes perforées. Puis à la fin des années 50, sont apparus les circuits intégrés qui combinait
quelques transistors sur une petite puce.
Dans les années 60, on utilisait beaucoup le système d’ordinateurs centraux desservant des terminaux.
De la fin des années 60 au cours des années 70, des micro-ordinateurs furent crées.
En 77, Apple lance le Mac et IBM le PC
Milieu des années 80 : utilisation de modem par les utilisateurs de PC pour échanger des données.
Entre les années 60 et 90, le ministère américain de la Défense (DoD) développa de grands réseaux étendus (WAN)
fiables à des fins militaires et scientifiques. Elle permettait à plusieurs ordinateurs de s’interconnecter en empruntant
différents chemins
Page 1 sur 9
3. Equipements de réseau
-Deux types d’équipements : utilisateur final (pour les hôtes, partageant et obtenant) et réseau.
-Chaque carte réseau est identifiée par un code unique appelé adresse MAC (Media Access Control). Cette adresse
permet de contrôler la communication des données de l'hôte sur le réseau
Les équipements de réseau sont utilisés pour étendre les connexions de câbles, concentrer les connexions, convertir les
formats de données et gérer les transferts de données.
Les répéteurs, concentrateurs, ponts, commutateurs et routeurs sont des exemples d’équipements qui assurent ces
fonctions.
-Les concentrateurs concentrent les connexions, c’est a dire qu’ils les rassemblent en un groupe d’hôtes -> le réseau les
voit comme une seule unité. Cela est effectué de manière passive.
-Les ponts convertissent les formats des données réseau et effectuent une gestion élémentaire de la transmission des
données. Ils contrôlent également les données afin de déterminer si elles peuvent les traverser.
-Les commutateurs de groupe de travail apportent de l’intelligence à la gestion du transfert des données. Ils sont
capables de déterminer si les données doivent rester sur un réseau local et de ne les transférer que vers la connexion
qui en a besoin.
-Les routeurs offrent l’ensemble des capacités précédemment citées.Ils peuvent régénérer les signaux, concentrer
plusieurs connexions, convertir les formats de transmission de données et gérer les transferts de données, se connecter
à un réseau étendu, ce qui leur permet d’interconnecter des réseaux locaux séparés par de grandes distances.
4. Topologie de réseau
Les deux types de topologie logiques les plus courants sont le broadcast et le passage de jeton.
L’utilisation d’une topologie de broadcast indique que chaque hôte envoie ses données à tous les autres hôtes sur le
média du réseau. (Exemple : Ethernet)
Un autre type de technologie broadcast : le passage de jeton. Il est transmis de façon séquentielle à chaque hôte. Dès
qu'un hôte reçoit le jeton, cela signifie qu'il peut transmettre des données sur le réseau. Si l'hôte n'a pas de données à
transmettre, il passe le jeton à l'hôte suivant et le processus est répété. (Exemple : Token Ring et FDDI (Fiber Distributed
Data Interface))
Page 2 sur 9
5. Protocoles de réseau
Un protocole est une description formelle d’un ensemble de règles et de conventions qui régissent un aspect
particulier de la façon dont les équipements communiquent sur un réseau. Ils déterminent le format, la chronologie, le
séquençage et le contrôle d’erreur dans la communication de données et ils contrôlent comment est construit le réseau
physique, comment les ordinateurs se connectent au réseau, comment les données sont formatées pour la transmission
comment ces données sont envoyées et comment traiter les erreurs.
Ces règles de réseau sont actualisées par l’IEEE (Institute of Electrical and Electronic Engineers), l’ANSI (American
National Standards Institute), la TIA (Telecommunications Industry Association), l’EIA (Electronic Industries Alliance), ainsi
que l’ITU (International Telecommunications Union) précédemment nommée CCITT (Comité Consultatif International
Téléphonique et Télégraphique).
Les réseaux locaux permettent aux entreprises de partager localement des fichiers et des imprimantes de manière
efficace et rendent possibles les communications internes. (Exemple : les mails) Les technologies couramment utilisées
sont l’Ethernet, le Token Ring et le FDDI.
Ils interconnectent des réseaux locaux qui donnent accès aux ordinateurs ou aux fichiers distants.
Les réseaux WAN sont conçus pour effectuer les tâches suivantes :
• Fonctionner dans des zones étendues ou géographiquement dispersées
• Permettre aux utilisateurs de disposer de capacités de communication en temps réel avec d’autres utilisateurs
• Fournir des ressources distantes en temps réel connectées aux services locaux
• Fournir des services de courrier électronique, Internet, de transfert de fichiers et de commerce électronique
Voici quelques technologies courantes liées aux réseaux étendus :
Un réseau MAN est un réseau qui s’étend à une zone métropolitaine telle qu’une ville ou une zone de banlieue. Un
réseau MAN comprend habituellement au moins deux réseaux LAN situés dans une zone géographique commune.
En général, on fait appel à un fournisseur de services pour connecter au moins deux sites de réseau local au moyen de
lignes de communication privées ou de services optiques.
C’est est un réseau à haute performance dédié qui permet de transférer des données entre des serveurs et des
ressources de stockage. Du fait qu’il s’agit d’un réseau dédié distinct, il évite tout conflit de trafic entre les clients et les
serveurs.
Différentes configurations : serveur/stockage, stockage/stockage ou serveur/serveur. Cette méthode recourt à une
infrastructure de réseau séparée qui résout tout problème associé à la connectivité réseau existante.
¾ Caractéristiques :
• Performance – les réseaux SAN permettent un accès simultané à haut débit, par deux serveurs ou plus, aux
matrices de disques et de bandes. Cela améliore les performances du système.
• Disponibilité – Les réseaux SAN intègrent la tolérance aux sinistres. Les données peuvent être dupliquées sur
un réseau SAN situé jusqu’à 10 km de distance.
• Évolutivité – Un réseau SAN peut utiliser les technologies les plus variées. Cela facilite le déplacement des
données de sauvegarde, des opérations, la migration des fichiers et la réplication des données entre les
systèmes.
C’est un réseau privé construit au sein d’une infrastructure de réseau publique telle que le réseau mondial Internet ;
un télétravailleur peut accéder à distance au réseau du quartier général de sa société.
Page 3 sur 9
11. Avantages des réseaux privés virtuels
VPN : Offre une connectivité sécurisée et fiable sur une infrastructure partagée publique. C’est la façon la
plus rentable
d’établir une connexion point à point entre des utilisateurs distants et un réseau d’entreprise.
• Les VPN d’accès fournissent aux utilisateurs mobiles et de petits bureaux/bureaux à domicile (SOHO)
l’accès distant à un intranet ou à un extranet sur une infrastructure partagée. Les VPN d’accès utilisent des
technologies analogiques, d’accès par ligne téléphonique, RNIS, DSL, IP mobile et câble afin de connecter
en toute sécurité les utilisateurs mobiles, les télétravailleurs et les agences.
• Les VPN d’intranet font appel à des connexions dédiées pour raccorder des bureaux régionaux et des
bureaux distants à un réseau interne sur une infrastructure partagée. Les VPN d’intranet diffèrent des
VPN d’extranet en ce qu’ils n’autorisent l’accès qu’aux employés de l’entreprise.
• Les VPN d’extranet utilisent des connexions dédiées pour relier des partenaires commerciaux à un réseau
interne sur une infrastructure partagée. Les VPN d’extranet diffèrent des VPN d’intranet en ce qu’ils
permettent l’accès aux utilisateurs en dehors de l’entreprise.
Les serveurs Web intranet diffèrent des serveurs Web publics en ce que le public doit posséder les autorisations et
mots de passe appropriés pour accéder à l’intranet d’une organisation.
Extranet : fait référence à des applications et à des services qui sont basés sur intranet, et qui utilisent un accès étendu
et sécurisé pour les utilisateurs ou entreprises externes. Cet accès s’effectue habituellement au travers de mots de
passe, ID utilisateur et autres dispositifs de sécurité au niveau applicatif.
La bande passante est limitée par des facteurs physique et technologique, elle n’est pas gratuite, les besoins en bande
passante augmentent très vite et enfin, la bande passante est critique pour les performances du réseau.
2. Le bureau
La bande passante est semblable au diamètre d’un tuyau. Un réseau d’eau est constitué de tuyaux de différents
diamètres. Le diamètre des principales canalisations d’une ville peut atteindre 2 mètres, tandis que 2 cm suffisent pour
le tuyau d’un robinet de cuisine.
La bande passante peut être comparée au nombre de voies d’une autoroute. Un réseau de routes dessert chaque ville
ou village.
Page 4 sur 9
3. Mesures
Dans les systèmes numériques, l’unité de base de la bande passante est le bit par seconde (bit/s).
Note : Ne pas utiliser indifféremment les termes de vitesse et bande passante : en effet, on pourrait dire, par exemple,
qu’une connexion T3 à 45 Mbits/s est plus rapide qu’une connexion T1 à 1,544 Mbits/s. Cependant, si une partie
minime de leur capacité de transport de données est utilisée, chacune de ces connexions transportera les données à
approximativement la même vitesse.
4. Limitations
5. Débit
Débit < bande passante pour différentes raisons, telles que les équipements d’inter-réseau, le type de données
transmises la topologie de réseau, le nombre d’utilisateurs sur le réseau, l’ordinateur de l’utilisateur/serveur, et les
conditions d’alimentation.
Page 5 sur 9
• On obtiendra un résultat pour un cas de figure idéal, or la bande passante disponible n’est presque jamais au
maximum théorique de ses capacités pour le type de réseau. Il est possible d’obtenir une estimation plus
précise en posant le débit plutôt que la bande passante dans l’équation.
7. Numérique et analogique.
-La majorité des transmissions sont effectuées par le biais d’ondes électromagnétiques. Ces ondes sont dites
analogiques car elles ont la même forme que les ondes lumineuses et sonores produites par les émetteurs. Lorsque les
ondes lumineuses et sonores changent de taille et de forme, le signal électrique qui transporte la transmission change
en proportion.
L’unité de base de la bande passante analogique est le hertz (Hz).
- Dans la signalisation numérique, toutes les informations sont envoyées sous forme de bits. La voix, la vidéo et les
données sont converties en flux de bits lors de leur préparation pour une transmission via des médias numériques. Ce
type de transmission procure à la bande passante numérique un avantage décisif par rapport à la bande passante
analogique. Il est possible d’envoyer des quantités illimitées d’informations via un canal numérique, même de faible
bande passante. Quel que soit le temps nécessaire à leur transfert et à leur réassemblage, les informations numériques
peuvent toujours être visualisées, écoutées ou traitées dans leur forme originale.
Un paquet est constitué d’une unité d’informations groupées de manière logique qui circule entre des ordinateurs.
Lorsque les données traversent les couches, chaque couche ajoute des informations supplémentaires qui permettent
une communication efficace avec la couche correspondante de l’autre ordinateur.
Un protocole de communications de données est un ensemble de règles, ou convention, qui détermine le format et la
transmission des données.
Il est important de se souvenir que les protocoles préparent les données de façon linéaire. Un protocole d’une couche
effectue un certain nombre d’opérations sur les données lorsqu’il les prépare pour les envoyer sur le réseau. Les
données sont ensuite transmises à la couche suivante, où un autre protocole effectue une série d’opérations
différentes.
Une fois que le paquet a été envoyé vers sa destination, les protocoles annulent la constitution du paquet qui a été
effectuée côté source. L’opération est effectuée à rebours. Les protocoles de chaque couche de destination rétablissent
la forme originale des informations, pour que l’application puisse lire correctement les données.
Page 6 sur 9
Pour résoudre le problème de l’incompatibilité des réseaux, l’OSI (International Organization for Standardization)
examina les modèles réseau tels que DECnet (Digital Equipment Corporation net), SNA (Systems Network
Architecture) et TCP/IP afin de trouver un ensemble de règles applicable de façon générale à tous les réseaux. Sur la
base de ces recherches, l’ISO a mis au point un modèle de réseau pour aider les fournisseurs à créer des réseaux
compatibles avec d’autres réseaux.
Le modèle de référence OSI (Open System Interconnection) publié en 1984 fut le modèle descriptif de réseau créé par
l’ISO. Ce modèle propose aux fournisseurs un ensemble de normes assurant une compatibilité et une interopérabilité
accrues entre divers types de technologies réseau produites par de nombreuses entreprises à travers le monde.
Avantages :
• Il permet de diviser les communications sur le réseau en éléments plus petits et plus gérables.
• Il uniformise les éléments du réseau afin de permettre le développement et le soutien multiconstructeur.
• Il permet à différents types de matériel et de logiciel réseau de communiquer entre eux.
• Les modifications apportées à une couche n'affectent pas les autres couches.
• Il divise les communications sur le réseau en éléments plus petits, ce qui permet de les comprendre plus
facilement.
Dans un réseau, les paquets de données proviennent d’une source et sont acheminés vers une destination. Chaque
couche dépend de la fonction de service de la couche OSI sous-jacente. Pour fournir ce service, la couche inférieure
utilise l’encapsulation pour placer les PDU de la couche supérieure dans son champ de données. Elle ajoute ensuite les
en-têtes et les en-queues de PDU nécessaires à l’exécution de sa fonction. Par la suite, à mesure que les données
traversent les couches du modèle OSI, d’autres en-têtes et en-queues sont ajoutés. Dès que les couches 7, 6 et 5 ont
ajouté leurs informations, la couche 4 en ajoute d’autres. Ce regroupement des données, ou unité de données de
protocole de couche 4, est appelé segment.
Ainsi, la couche réseau fournit un service à la couche transport, qui
présente les données au sous-système de l’interréseau. La couche réseau
est chargée de déplacer les données dans l’interréseau. Pour ce faire, elle
encapsule les données et leur annexe un en-tête de manière à créer un
paquet (soit la PDU de couche 3). L’en-tête contient les informations
requises pour effectuer le transfert, notamment les adresses logiques de
source et de destination.
Page 7 sur 9
La couche physique fournit également un service à la couche liaison de données. Elle code la trame de liaison en une
série de uns et de zéros (bits) en vue de la transmettre sur un média (habituellement un fil) dans la couche 1.
La couche application
La couche transport
La couche Internet
La couche d’accès au réseau
La couche application assure différentes fonctions dans chaque modèle.
Les concepteurs du modèle TCP/IP estimaient que la couche application devait inclure les détails des couches session
et présentation OSI. Ils ont donc créé une couche application qui gère les questions de représentation, le code et le
contrôle du dialogue.
La couche transport est chargée des questions de qualité de service touchant la fiabilité, le contrôle de flux et la
correction des erreurs.
L’objectif de la couche Internet est de diviser les segments TCP en paquets et de les envoyer depuis n’importe quel
réseau. Les paquets arrivent au réseau de destination indépendamment du chemin qu’ils ont emprunté pour y
parvenir.
La relation entre IP et TCP est essentielle. Chaque protocole joue un rôle particulier : IP pointe le chemin pour les
paquets, tandis que TCP assure un transport fiable.
Accès réseau : concerne tous les composants, à la fois physiques et logiques, qui sont nécessaires pour créer une liaison
physique.
Les similitudes entre OSI et TCP/IP :
Note : Il existe une différence entre un modèle et un protocole réel utilisé dans les réseaux. Le modèle OSI est utilisé
pour décrire les protocoles TCP/IP.
Les réseaux doivent effectuer les cinq étapes de conversion ci dessous afin d’encapsuler les données :
Page 8 sur 9
1. Construction des données – Lorsqu’un
utilisateur envoie un message électronique, les
caractères alphanumériques qu’il contient sont
convertis en données pouvant circuler dans
l’interréseau.
2. Préparation des données pour le transport de
bout en bout Les données sont préparées pour le
transport interréseau En utilisant des segments, la
fonction de transport s’assure que les systèmes hôtes
situés à chaque extrémité du système de messagerie
peuvent communiquer de façon fiable.
3. Ajout de l’adresse IP du réseau à l’en-tête – Les données sont organisées en paquets, ou datagrammes,
contenant un en-tête de paquet constitué des adresses logiques d'origine et de destination. Ces adresses aident les
unités réseau à acheminer les paquets dans le réseau suivant un chemin déterminé.
4. Ajout de l’en-tête et de l’en-queue de la couche de liaison de données – Chaque unité réseau doit placer le
paquet dans une trame. La trame permet d’établir la connexion avec la prochaine unité réseau directement connectée
dans la liaison. Chaque unité se trouvant sur le chemin réseau choisi doit effectuer un verrouillage de trame pour
pouvoir se connecter à la prochaine unité.
5. Conversion en bits pour la transmission – La trame doit être convertie en une série de uns et de zéros (bits)
pour la transmission sur le média. Une fonction de synchronisation permet aux unités de distinguer ces bits
lorsqu’ils circulent sur le média. Tout au long du trajet suivi dans l’interréseau physique, le média peut varier. Ainsi,
le message électronique peut provenir d’un réseau local, traverser le backbone d’un campus, sortir par une liaison
WAN pour atteindre sa destination sur un autre LAN éloigné.
Page 9 sur 9
Module 3 : Médias réseau
Les objectifs :
1. Décrire les propriétés électriques d'une matière 2. Définir la tension, la résistance, l'impédance, le courant et les
circuits
3. Décrire les caractéristiques et les performances des différents types de 4. Décrire un câble coaxial ainsi que ses avantages et inconvénients par
câbles rapport aux autres types de câbles
5. Décrire un câble à paires torsadées blindées et son usage 6. Décrire un câble à paires torsadées non blindées et son usage
7. Décrire les caractéristiques et la fonction des câbles droits, croisés et 8. Expliquer les principes des câbles à fibre optique
console
9. Décrire la façon dont les câbles à fibre optique transportent les signaux 10. Décrire la fibre monomode et la fibre multimode
lumineux sur de longues distances
11. Décrire le mode d'installation de la fibre optique 12. Décrire le type des connecteurs et équipements utilisés avec des câbles
à fibre optique
13. Expliquer comment vérifier le bon fonctionnement d'un câble à fibre 14. Identifier les problèmes de sécurité liés à la fibre optique
optique
I. Médias de cuivre
1. Atomes et électrons
Le physicien danois Niels Bohr a élaboré un modèle simplifié pour représenter un atome. Si les protons et les neutrons
de cet atome avaient la taille d’un ballon de football, les électrons seraient les seuls éléments plus petits que le ballon
au milieu du terrain de football. Ils auraient la taille de cerises et graviteraient autour du stade près des sièges les plus
éloignés du terrain. Le volume total de cet atome correspondrait à peu près à la taille du terrain et le noyau aurait la
taille du ballon.
Les électrons de certains atomes, comme les métaux, peuvent se libérer et se mettre à circuler : l’électricité en résulte.
2. Tension
Elle est représentée par la lettre V ou par l’abréviation FEM. Un volt est défini comme le travail nécessaire, par unité
de charge, pour séparer les charges.
3. Résistance et impédance
Les semi-conducteurs sont des matériaux dans lesquels la quantité d'électricité qui circule peut être contrôlée de
manière précise. Ces matériaux sont regroupés dans une même colonne du tableau périodique. Cette catégorie de
matériaux comprend le carbone (C), le germanium (Ge) et un alliage, l'arséniure de gallium (AsGa). Le silicium (Si) est
le semi-conducteur le plus important, car il constitue le meilleur circuit électronique microscopique. La région
s'étendant autour de San Jose, en Californie, est appelée Silicon Valley parce que l'industrie informatique à base de
puces de silicium a démarré à cet endroit
4. Courant
Le courant correspond au nombre d'électrons qui circulent, c'est-à-dire au volume du trafic d'électrons, et la tension
correspond à la vitesse du trafic. La combinaison volts-ampères produit des watts. La puissance des appareils
électriques tels que les ampoules, les moteurs et l'alimentation des ordinateurs est évaluée en watts. Les watts
indiquent la puissance consommée ou produite par ce type d'appareil.
Page 1 sur 7
5. Circuits
Une analogie avec l'eau permet de mieux comprendre le concept de l'électricité. Plus l'eau tombe de haut et plus la
pression est grande, plus le débit est fort. Le débit de l'eau dépend également de la taille de l'espace à travers lequel
elle coule. De même, plus la tension et la pression électrique sont élevées, plus le courant produit est important. Le
courant électrique rencontre alors une résistance, à la façon d'un robinet qui réduit le débit de l'eau. S'il s'agit d'un
circuit de courant alternatif, la quantité de courant dépendra de l'impédance du matériau. S'il s'agit d'un circuit de
courant continu, la quantité de courant dépendra de la résistance du matériau. Une pompe agit comme une batterie.
Elle fournit la pression nécessaire pour assurer la circulation de l’eau.
Il est important de tenir compte des considérations suivantes liées aux performances :
• La vitesse de transmission des bits dans un câble est extrêmement importante.
• La transmission numérique ou à bande de base nécessite des types de câble différents de ceux utilisés pour la
transmission analogique ou à large bande.
• Si le signal est dégradé, les équipements réseau ne peuvent ni le recevoir ni l'interpréter.
7. Câble coaxial
Le câble coaxial Ethernet fin d'un diamètre externe de 0,35 cm maximum était auparavant utilisé dans les réseaux
Ethernet.
Chaque paire de fils est enveloppée dans une feuille métallique et les
deux paires sont enveloppées ensemble dans un revêtement tressé ou
un film métallique. Il s'agit généralement d'un câble de 150 ohms.
Comme l'indiquent les instructions d'installation de réseau Token
Ring, les paires torsadées blindées réduisent le bruit électrique à
l'intérieur du câble (couplage paire à paire ou diaphonie), ainsi qu'à
l'extérieur du câble (interférences électromagnétiques et radio). Le
câble à paires torsadées blindées (STP) présente plusieurs avantages
et inconvénients communs au câble à paires torsadées non blindées
(UTP). Le câble STP assure une protection plus efficace contre toutes
les interférences externes, mais il est plus onéreux et plus difficile à
installer qu'un câble UTP.
Page 2 sur 7
Le câble ScTP (screened twisted pair) ou FTP (foil screened twisted
pair) est un nouveau type de câble UTP hybride. Comme le câble
UTP, le câble ScTP est un câble de 100 ohms. Un grand nombre
d'installateurs et de fabricants de câbles utilisent le terme STP pour
désigner les câbles ScTP. Il est important de retenir que le terme STP
désigne en fait un câble à quatre paires torsadées blindées et que le
véritable câble STP est rarement utilisé dans les installations
actuelles.
Le câble à paires torsadées blindées est toujours utilisé,
particulièrement en Europe et dans des installations où les
interférences électromagnétiques et radio sont fréquentes.
-C’est un média constitué de quatre paires de fils, présent dans divers types de réseau. Chacun des huit fils de cuivre
du câble est protégé par un matériau isolant. De plus, les paires de fils sont tressées entre elles. Ce type de câble repose
uniquement sur l'effet d'annulation produit par les paires torsadées pour limiter la dégradation du signal due aux
interférences électromagnétiques et radio. La réduction de la diaphonie entre les paires d'un câble à paires torsadées
non blindées dépend du nombre de torsades.
-La norme TIA/EIA-568-B.2 comprend des spécifications liées aux performances des câbles. Elle implique la
connexion de deux câbles à chaque prise, l'un pour la voix et l'autre pour les données. Le câble destiné à la voix doit
être un câble à quatre paires torsadées non blindées. Le câble de catégorie 5e est le plus souvent recommandé et utilisé
dans les nouvelles installations.
Dans un câble console ou à paires inversées, la combinaison des
couleurs de gauche à droite d'une extrémité doit être exactement
l'inverse de celle de l'autre extrémité.
La lumière circulant dans la fibre optique a une longueur d'onde de 850, 1 310 ou 1 550 nanomètres. Ce sont les
longueurs d'onde qui circulent le mieux dans la fibre optique.
Page 3 sur 7
3. Réflexion 4. Réfraction
Les lois de réflexion et de réfraction illustrent la façon de concevoir une fibre guidant les ondes lumineuses qui la
traversent avec un minimum de perte d'énergie. Les deux conditions suivantes doivent être remplies pour que les
rayons lumineux se réfléchissent dans la fibre sans que la réfraction entraîne une perte d’énergie :
• L'indice de réfraction (n) au coeur de la fibre optique doit être supérieur à celui du matériau qui l'enveloppe.
Le matériau protégeant le coeur de la fibre est appelé enveloppe.
• L'angle d'incidence du rayon lumineux est supérieur à l'angle critique du coeur et de son enveloppe.
Si ces deux conditions sont remplies, l'intégralité du rayon incident se reflète à l'intérieur de la fibre. La conception
d'une fibre optique repose sur ce principe appelé réflexion interne totale. La réflexion interne totale entraîne les rayons
lumineux circulant dans la fibre hors de la limite cœur-enveloppe et les achemine vers l'extrémité de la fibre. La
lumière franchit le coeur de la fibre en zigzag.
Il est facile de fabriquer une fibre qui remplit la première condition. En outre, il est possible de contrôler l'angle
d'incidence des rayons lumineux entrant dans le cœur en limitant les deux facteurs suivants:
• Ouverture numérique de la fibre –c’est l'intervalle des angles des rayons incidents pénétrant dans la fibre qui
seront entièrement réfléchis.
• Modes – Chemins suivis par un rayon lumineux.
6. Fibre multimode
Si le diamètre du coeur de la fibre est suffisamment large de façon à ce que la lumière puisse suivre plusieurs chemins
à l'intérieur de la fibre, celle-ci est appelée fibre multimode.
Aucun blindage n'est nécessaire jusqu'aux connecteurs, car la lumière ne s'échappe pas une fois à l'intérieur d'une
fibre. Autrement dit, les fibres ne génèrent aucun problème de diaphonie. Il est très courant de loger plusieurs paires
de fibres dans le même câble, ce qui permet d'installer un seul câble entre des locaux de câblage, des étages ou des
bâtiments. Un câble peut contenir de 2 à 48 fibres séparées (ou plus), alors qu'un câble de cuivre UTP doit être installé
pour chaque circuit.
Le coeur des fibres multimodes est fabriqué dans un verre à gradient
d'indice qui offre un indice de réfraction faible vers le bord externe du
coeur. Par conséquent, le bord externe du coeur étant optiquement
moins dense que le centre, la lumière circule plus vite dans cette partie
externe. Ce principe de conception est nécessaire car un rayon
lumineux suivant un mode qui l'achemine directement au centre du
cœur n'a pas à parcourir une distance aussi longue que s'il suivait un
mode qui le fasse rebondir en périphérie du cœur dans la fibre. Tous
les rayons doivent parvenir ensemble à l'extrémité de la fibre et le
récepteur situé à l'extrémité reçoit un flash de lumière intense au lieu
d'une impulsion longue et faible.
Les LED (Light Emitting Diodes) ou les lasers VCSEL (Vertical Cavity Surface Emitting Lasers) infrarouges sont les
deux types de source lumineuse généralement utilisés avec la fibre multimode. Vous pouvez utiliser l'un ou l'autre.
Les LED sont moins onéreuses et requièrent moins de précautions d'utilisation que les lasers VCSEL. Cependant, elles
ne transmettent pas la lumière aussi loin que les lasers. Une fibre multimode (62,5/125) peut transporter des données
jusqu'à une distance de 2000 mètres.
Page 4 sur 7
7. Fibre monomode
Une fibre monomode utilise un laser infrarouge comme source lumineuse. Le rayon lumineux qu'il génère pénètre
dans le coeur à un angle de 90 degrés. Par conséquent, les données transportant les impulsions du rayon lumineux
dans une fibre monomode sont essentiellement transmises en ligne droite directement au centre du coeur, ce qui
accroît considérablement la vitesse et la distance de transmission des données. (3.000m)
Deux types de source lumineuse permettent de coder et de transmettre les données via le câble :
• Une diode électroluminescente (LED) produisant une lumière infrarouge avec des longueurs d'onde de 850 ou
1 310 nanomètres, utilisée avec la fibre multimode dans les réseaux locaux. Des lentilles permettent de
concentrer la lumière infrarouge sur l'extrémité de la fibre.
• Un laser (Light Amplification by Stimulated Emission Radiation) produisant un faisceau étroit de lumière
infrarouge intense avec des longueurs d'onde de 1 310 ou 1 550 nanomètres, utilisé avec la fibre monomode
sur de longues distances dans des réseaux WAN ou des backbones de campus. Cette méthode exige des
précautions pour éviter toute lésion oculaire.
Les connecteurs les plus fréquemment utilisés sont les connecteurs SC (Subscriber Connector) pour la fibre
multimode, et les connecteurs ST (Straight Tip) pour la fibre monomode.
-Lorsque la lumière circule dans la fibre, elle perd de son énergie. Plus la distance à parcourir est longue, plus la
puissance du signal diminue. Cette atténuation est due à plusieurs facteurs inhérents à la fibre, dont le plus important
est la dispersion. La dispersion de la lumière dans une fibre est provoquée par des inégalités microscopiques
(distorsions) qui réfléchissent et dispersent l'énergie lumineuse.
-L'absorption est une autre cause de perte d'énergie. Lorsqu'un rayon lumineux entre en contact avec certaines
impuretés dans une fibre, celles-ci absorbent une partie de l'énergie qui est convertie en une petite quantité d'énergie
thermique, ce qui affaiblit le signal lumineux.
-Les rugosités ou les défauts de fabrication présents entre le coeur et l'enveloppe d'une fibre constituent un autre
facteur d'atténuation des signaux lumineux. Ces derniers perdent de leur puissance en raison de la réflexion interne
totale qui se dégrade dans cette zone.
-Les lasers, et particulièrement les DEL génèrent une plage de longueurs d'onde, la dispersion chromatique limite la
distance de transmission dans une fibre. Si un signal est transmis trop loin, l'impulsion d'énergie lumineuse
initialement intense, se disperse, se sépare et s'affaiblit.
Si la fibre est étirée ou trop courbée, la présence de minuscules craquelures provoquera la dispersion des rayons
lumineux.
Une fois la fibre installée, ses extrémités doivent être coupées
avec soin de façon à ce qu'elles soient lisses. (1)
Des connecteurs mal installés, des épissures incorrectes ou
l'assemblage de deux câbles dont le diamètre du coeur est
différent contribuent à réduire considérablement la puissance
d'un signal lumineux. (2)
2
1
Page 5 sur 7
III. Médias sans fil
1. Organisations de normalisation et normes des LAN sans fil (WLAN)
Pour résoudre le problème d'incompatibilité, un point d'accès est généralement installé pour servir de concentrateur
central dans le mode infrastructure des LAN sans fil.
Taille de la cellule : comprise entre 91,44 et 152,4 mètres.
L'exploration active entraîne l'envoi d'une demande de sonde de la part du nœud sans fil cherchant à joindre le
réseau. Cette demande contient l'identifiant de l'ensemble de services (SSID) du réseau qu'il souhaite joindre. Si un
point d'accès ayant le même SSID est trouvé, il émet une réponse de sonde et les étapes d'authentification et
d'association sont terminées.
-Seules les trames de données sont similaires aux trames 802.3. Les trames sans fil et
802.3 comportent 1 500 octets de données utiles. Cependant, une trame Ethernet ne
peut dépasser 1518 octets alors qu'une trame sans fil peut atteindre 2 346 octets. En
général, la trame d'un LAN sans fil est limitée à 1 518 octets, car elle est connectée la
plupart du temps à un réseau Ethernet câblé.
-Étant donné que la radiofréquence (RF) est un média partagé, il peut se produire des
collisions comme dans tout autre média partagé, à la différence près qu'il n'existe
aucune méthode permettant au nœud source de détecter les collisions. C'est la raison
pour laquelle les LAN sans fil utilisent la détection de porteuse avec accès multiple et
prévention de collision (CSMA/CA), similaire au réseau CSMA/CD Ethernet.
-Lorsqu'un nœud source envoie une trame, le nœud récepteur renvoie un accusé de
réception positif, ce qui consomme 50 % de la bande passante disponible.
Cette charge, combinée à celle du protocole de prévention de collision, réduit le débit de données réel à un débit
maximal compris entre 5 et 5,5 Mbits/s sur un LAN sans fil 802.11b de 11 Mbits/s.
4. Authentification et association
L'authentification des LAN sans fil a lieu au niveau de la couche 2. Il s'agit du processus d'authentification d'un
équipement et non de l'utilisateur. Ce processus est important dans le contexte de la sécurité, de la résolution des
problèmes et de l'administration globale des LAN sans fil.
Types d'authentification et d'association :
• Non authentifié et non associé
¾ Le nœud est déconnecté du réseau et non associé à un point d'accès.
• Authentifié et non associé
¾ Le nœud a été authentifié sur le réseau mais n'est pas encore associé au point d'accès.
• Authentifié et associé
¾ Le nœud est connecté au réseau et peut transmettre et recevoir des données via le point d'accès.
Méthodes d'authentification
1) Il d’agit du système ouvert (open). C’est une norme de connectivité standard dans laquelle seul le SSID doit
correspondre. Cette norme peut être utilisée dans un environnement sécurisé ou non, bien qu'il soit fort
probable que des sniffeurs de réseau de niveau inférieur découvrent le SSID du réseau LAN sans fil.
2) Il s’agit de la clé partagée (shared key). Ce processus requiert l'utilisation du cryptage WEP (Wireless
Equivalency Protocol), un algorithme simple utilisant des clés de 64 et 128 bits. Le point d'accès est configuré
avec une clé cryptée, et les nœuds tentant d'accéder au réseau via le point d'accès doivent disposer d'une clé
correspondante. Les clés WEP attribuées de façon statique fournissent un niveau de sécurité supérieur à celui
du système ouvert, mais elles ne sont pas inviolables.
Page 6 sur 7
5. Spectres des ondes radioélectrique et des micro-ondes
-Dans un LAN sans fil, la puissance d'un signal radio mesuré à une distance de 10 mètres de l'antenne émettrice serait
égale à un centième de sa puissance d'origine. À l'instar de la lumière, les ondes radioélectriques peuvent être
absorbées par certains matériaux et réfléchies par d'autres. Lors du passage d'une matière telle que l'air à une autre
matière telle qu'un mur en plâtre, les ondes radioélectriques sont réfractées. Elles sont également dispersées et
absorbées par les gouttelettes d'eau présentes dans l'air.
-Le processus de modification du signal porteur entrant dans l'antenne de l'émetteur est appelé modulation. Un signal
porteur radioélectrique peut être modulé dans trois cas principaux. Par exemple, les stations de radio à modulation
d'amplitude (AM) modulent la hauteur (amplitude) du signal porteur. Les stations de radio à modulation de
fréquence (FM) modulent la fréquence du signal porteur, tel que déterminé par le signal électrique du micro. Dans les
LAN sans fil, un troisième type de modulation appelé modulation de phase permet de superposer le signal de
données sur le signal porteur diffusé par l'émetteur.
-Un récepteur démodule le signal porteur en provenance de son antenne. Il interprète les modifications de phase du
signal porteur et le reconstitue à partir du signal de données électrique d'origine.
-La technologie à bande étroite est l'inverse de la technologie de l'étalement du spectre. Elle n'affecte pas l'intégralité
du spectre de fréquences du signal sans fil. Pour résoudre un problème d'interférence à bande étroite, il suffirait de
modifier le canal utilisé par le point d'accès. En réalité, la recherche de la cause d'une interférence à bande étroite peut
prendre du temps et s'avérer coûteuse. L'identification de la source requiert un analyseur de spectre dont le modèle le
plus économique est relativement onéreux.
-Une interférence de bande entière affecte l'intégralité du spectre. La technologie Bluetooth franchit plusieurs fois 2,4
GHz par seconde et peut engendrer d'importantes interférences sur un réseau 802.11b. Dans les habitations et les
bureaux, les interférences proviennent souvent des fours à micro-ondes. Il suffit d'une fuite d'une micro-onde d'un
watt dans le spectre RF pour entraîner une panne de réseau importante. Les téléphones sans fil opérant dans le spectre
de 2,4 GHz peuvent également perturber un réseau.
Un grand nombre de nouveaux protocoles et solutions de sécurité tels que les réseaux privés virtuels (VPN) et le
protocole EAP (Extensible Authentication Protocol) sont désormais disponibles. Avec le protocole EAP, le point
d'accès ne fournit plus l'authentification au client, mais transmet les tâches à un équipement plus perfectionné. Une
technologie VPN de serveur intégrée crée un tunnel au début d'un protocole existant tel que le protocole IP. Il s'agit
d'une connexion de couche 3, contrairement à la connexion de couche 2 située entre le point d'accès et le nœud
émetteur.
¾ Les différents types d’authentification :
• EAP-MD5 Challenge – Le protocole EAP (Extensible Authentication Protocol) est le type d'authentification le
plus ancien, très proche de la protection par mot de passe CHAP sur un réseau câblé.
• LEAP (Cisco) – Le protocole LEAP (Lightweight Extensible Authentication Protocol) est le type d'authentification
principalement utilisé dans les points d'accès des LAN sans fil Cisco. Ce protocole assure la sécurité pendant
les échanges des autorisations, utilise des clés WEP de cryptage dynamique et prend en charge
l'authentification mutuelle.
• Authentification utilisateur – Permet uniquement aux utilisateurs autorisés à se connecter et à envoyer et à
recevoir des données sur le réseau sans fil.
• Cryptage – Fournit des services de cryptage qui protègent les données des intrus.
• Authentification des données – Assure l'intégrité des données en authentifiant les équipements d'origine et
de destination
Page 7 sur 7
Module 4 : Test des câbles
Les objectifs :
1. Distinguer les ondes sinusoïdales des ondes carrées 2. Définir et calculer des exposants et des logarithmes
3. Définir et calculer des décibels 4. Définir des termes de base relatifs au temps, à la fréquence et
au bruit
5. Faire la distinction entre une bande passante numérique et 6. Comparer les niveaux de bruit sur différents types de câbles
une bande passante analogique
7. Définir et décrire les effets d’une atténuation et d’un défaut 8. Montrer comment les paires torsadées peuvent réduire le
d’adaptation de l’impédance bruit
9. Montrer comment la diaphonie et les paires torsadées peuvent 10. Décrire les dix tests des câbles en cuivre spécifiés dans la
réduire le bruit norme TIA/EIA-568-B
11. Décrire les différences entre les câbles de catégorie 5 et les
câbles de catégorie 6
-Les ondes sinusoïdales variant en permanence, elles constituent un exemple d’ondes analogiques.
-Cependant, les graphiques des ondes carrées ne varient pas avec le temps. L’onde garde la même valeur, puis se
modifie brusquement (impulsions discrètes). Après quelques courts instants, elle reprend sa valeur de départ. Les
ondes carrées sont des signaux numériques, ou impulsions.
3. Exposants et logarithmes
Pour manipuler des grands nombres, on les transforme sous forme d’un nombre élevé a un certain exposant ou alors
on le transforme en logarithme de base 10.
4. Décibels
Pfinal= Préf*10dB/10
L’analyse des signaux à l’aide d’un oscilloscope s’appelle une analyse dans le domaine temporel.
Pour étudier des signaux, les techniciens utilisent également l’analyse dans le domaine de fréquence. Pour cette
analyse, l’axe des abscisses représente la fréquence. Un équipement électronique, appelé analyseur de spectre, permet
de créer des graphiques pour l’analyse dans le domaine de fréquence. Les signaux électromagnétiques utilisent des
fréquences différentes pour la transmission afin que des signaux différents n’interfèrent pas les uns avec les autres.
Page 1 sur 5
6. Signaux analogiques et numériques
Ceci est une combinaison de plusieurs ondes sinusoïdales.
L’onde créée est alors plus complexe qu’une onde
sinusoïdale simple. Cette onde comprend plusieurs signaux
sonores. Un graphique de ces signaux sonores comprend
plusieurs lignes correspondant à la fréquence de chacun
d’entre eux.
8. Bande passante
Deux sortes de bandes passantes sont importantes pour l’étude d’un LAN : la bande passante analogique et la bande
passante numérique.
-La bande passante analogique fait référence à la plage de fréquences d’un système électronique analogique. Comme
pour la fréquence, l’unité de mesure de la bande passante analogique est le hertz (Hz).
-La bande passante numérique mesure la quantité de données pouvant circuler d’un endroit à un autre pendant une
période donnée. Exprimé en bps.
Lors d’un test de câble en cuivre, la bande passante analogique sert à déterminer la bande passante numérique. Les
ondes numériques sont constituées de plusieurs ondes sinusoïdales (ondes analogiques). Les fréquences analogiques
sont émises à une extrémité et reçues à l’autre extrémité du câble. Les deux signaux sont ensuite comparés et le niveau
d’atténuation du signal est calculé. En général, les médias supportant des bandes passantes analogiques importantes
sans trop d’atténuation supportent également des bandes passantes numériques élevées.
Page 2 sur 5
Dans les câbles en cuivre, les signaux de données correspondent à des niveaux de tension représentés de façon binaire
par des 1 et des 0.
Les câbles STP comprennent un blindage conducteur externe mis à la terre afin d’isoler les signaux du bruit électrique
extérieur. Ils sont également composés de feuilles métalliques internes protégeant chaque paire du bruit généré par les
autres paires.
Les câbles UTP ne comportent pas de blindage et sont plus sensibles au bruit extérieur. Ce sont néanmoins les câbles
les plus utilisés car ils sont moins onéreux et plus faciles à installer.
Dans un câble à fibre optique, l’intensité de la lumière augmente ou décroît afin de représenter les 1 et les 0
L’atténuation est la baisse d’amplitude du signal le long d’une liaison. L’atténuation est exprimée en décibels (dB) par
des nombres négatifs. La résistance du câble en cuivre convertit une partie de l’énergie électrique du signal en chaleur.
De plus, l’énergie du signal se perd dans l’isolation du câble ainsi que dans l’impédance provoquée par des
connecteurs défectueux.
L’impédance normale d’un câble de catégorie 5 est de 100 ohms.
Les discontinuités d’impédance provoquent une atténuation car une partie du signal transmis est réfléchie, à la
manière d’un écho, et n’atteint pas le récepteur. Les échos frappent donc le récepteur à différents intervalles de temps,
ce qui lui complique la tâche pour détecter les valeurs des données. Ce phénomène est appelé « gigue ».
La diaphonie est la transmission des signaux d’un fil à un autre fil proche. Lorsque la diaphonie est provoquée par un
signal émis par un autre câble, elle est appelée paradiaphonie étrangère.
Les câbles à paires torsadées sont conçus pour tirer parti des effets de la diaphonie afin de réduire au maximum le
bruit. Dans les câbles à paires torsadées, une paire de fils est utilisée pour transmettre un seul signal. La paire de fils
est torsadée pour que chaque fil subisse la même diaphonie. Puisqu’un signal de bruit apparaît sur l’un et l’autre fil de
façon identique, ce bruit peut aisément être détecté et filtré au niveau du récepteur.
Les câbles UTP des catégories supérieures sont dotés de paires aux torsades plus nombreuses afin de réduire la
diaphonie pour les fréquences de transmission élevées. Lorsque les connecteurs sont raccordés aux extrémités de
câbles UTP, les paires de fils doivent être détorsadées le moins possible.
4. Types de diaphonies
Figure 1 Figure 2
Figure 3
-La diaphonie locale (NEXT) est calculée selon le rapport d’amplitude entre le signal test et le signal de diaphonie
mesurés à la même extrémité de la liaison. Des valeurs négatives faibles indiquent une plus grande présence de bruit
-En raison de l’atténuation, une diaphonie intervenant à un point éloigné de l’émetteur crée moins de bruit sur un
câble qu’une diaphonie locale. C’est une diaphonie distante, ou FEXT.
-La diaphonie locale totale (PSNEXT) mesure l’effet cumulé d’une diaphonie locale provenant de toutes les paires
d’un câble. L’effet combiné de la diaphonie provenant de sources de transmission simultanées multiples peut être très
nuisible pour le signal.
Page 3 sur 5
Pour des technologies plus récentes telles que 1000BaseT, qui reçoivent des données simultanément à partir de paires
multiples dans la même direction, les tests de diaphonie totale sont très importants.
La norme TIA/EIA-568-B préconise dix tests à faire passer à un câble de cuivre s’il doit être utilisé sur des LAN
Ethernet modernes à haut débit.
Le délai de propagation est une mesure simple du temps que met un signal à transiter le long d’un câble en cours de
test. Les délais de propagation s’expriment en centièmes de nanosecondes.
C’est à partir des mesures de délai de propagation qu’est calculée la longueur des câbles. La norme TIA/EIA-568-B.1
stipule que la longueur physique d’une liaison doit être calculée sur la paire dont le délai électrique est le plus court.
La différence de délai entre les paires est appelée distorsion de délai.
Lorsque la lumière rencontre une discontinuité optique, une partie du signal lumineux est réfléchie dans la direction
opposée et seule une fraction du signal lumineux initial continue à parcourir la fibre jusqu’au récepteur. Cela
débouche sur une réduction de la quantité d’énergie lumineuse parvenant au récepteur et sur des difficultés de
reconnaissance du signal. La quantité de perte de puissance d’un signal acceptable, sans descendre au-dessous du
minimum requis par le récepteur est appelée budget d’une liaison à fibre optique.
9. Nouvelle norme
Le supplément pour les câbles de catégorie 6 a été ajouté à la norme TIA-568 le 20 juin 2002. L’intitulé officiel de la
norme est le suivant : ANSI/TIA/EIA-568-B.2-1. Elle indique l’ensemble des paramètres de performance de base qui
doivent être testés pour un câblage Ethernet, ainsi que les résultats qui doivent être obtenus pour être en conformité
avec la norme.
Les câbles de catégorie 6 doivent pouvoir supporter des fréquences allant jusqu’à 250 MHz et leurs niveaux de
diaphonie et de perte de retour doivent être plus faibles.
Page 4 sur 5
Un testeur de câble de qualité similaire au Fluke DSP-4000 ou au Fluke OMNIScanner2 peut effectuer toutes les
mesures requises pour la certification des câbles des catégories 5, 5e et 6 sur des liaisons permanentes ou des liaisons
de canal.
Page 5 sur 5
Module 5 : Câblage des réseaux LAN et
WAN
Les objectifs :
1. Identifier les caractéristiques des réseaux 2. Identifier les câbles droits, croisés et à paires
Ethernet inversées
3. Décrire la fonction, les avantages et les
inconvénients des répéteurs, des concentrateurs,
4. Décrire la fonction des réseaux d’égal à égal
des ponts, des commutateurs et des composants
réseau sans fil
6. Décrire et identifier les différents types de
5. Décrire la fonction, les avantages et les
connexions WAN (série, RNIS, DSL et modem
inconvénients des réseaux client-serveur
câble)
8. Identifier et décrire l’emplacement de
7. Identifier les ports série, les câbles et les
l’équipement utilisé dans les différentes
connecteurs des routeurs
configurations WAN
Page 1 sur 8
Les technologies Ethernet peuvent être utilisées de différentes façons dans un réseau de type campus :
• La mise en place d’un débit Ethernet de 10 Mbits/s au niveau des utilisateurs permet d’obtenir des
performances satisfaisantes. Les clients ou les serveurs qui ont besoin d’une bande passante plus importante
peuvent utiliser un débit Ethernet de 100 Mbits/s.
• L’interface Fast Ethernet constitue la liaison entre les équipements utilisateur et réseau. Elle prend en charge la
totalité du trafic généré sur chaque segment Ethernet.
• La technologie Fast Ethernet peut servir à relier des serveurs d’entreprise. Ainsi, elle optimise la performance
client-serveur sur le réseau du campus tout en permettant d’éviter les goulots d’étranglement.
• Selon les moyens financiers mis en œuvre, il est possible de relier les équipements du backbone via une
interface Fast Ethernet ou Gigabit Ethernet.
Les catégories de câbles spécifiques d’Ethernet sont basées sur les normes de télécommunications relatives aux
édifices commerciaux EIA/TIA-568 SP-2840.
Les réseaux qui présentent une combinaison de trafic 10 et 100 Mbits/s utilisent un câble UTP de catégorie 5 pour la
prise en charge de Fast Ethernet.
4. Médias de connexion
Le connecteur d’une carte réseau peut ne pas
correspondre au média auquel il doit être relié.
Comme le montre la figure, il peut exister une
interface pour le connecteur AUI (Attachment Unit
Interface) 15 broches. Utilisé avec l’émetteur-récepteur
approprié, ce connecteur permet de raccorder
différents médias. En règle générale, un émetteur-
récepteur convertit un connecteur AUI en connecteur
de type RJ-45, câble coaxial ou fibre optique.
Les systèmes 10Base5 Ethernet (ou Thicknet) font
appel à un câble court pour relier le connecteur AUI
à un émetteur-récepteur sur le câble principal.
Page 2 sur 8
5. Mise en œuvre d’UTP
Si on maintient deux connecteurs RJ-45 cote a cote et dans le même sens et que les fils se présentent dans la même
séquence, alors on a affaire à un câble droit.
Dans le cas d’un câble croisé, certains fils placés aux deux extrémités des connecteurs RJ-45 se raccordent à des
broches différentes à chaque extrémité du câble. La figure montre que les broches 1 et 2 d’un connecteur se raccordent
aux broches 3 et 6 de l’autre.
Page 3 sur 8
6. Répéteurs
Un répéteur reçoit un signal, le régénère et le transmet. Il peut régénérer les signaux réseau et les re-synchroniser au
niveau du bit pour leur permettre de voyager sur de plus longues distances via le média.
Les normes Ethernet et IEEE 802.3 mettent en œuvre la règle 5-4-3 relative au nombre de répéteurs et de segments sur
les backbones Ethernet à accès partagé dans une topologie arborescente. La règle 5-4-3 divise le réseau en deux types
de segments physiques : les segments (utilisateur) avec stations de travail et les segments (de liaison) sans stations de
travail. Les systèmes des utilisateurs sont connectés aux segments utilisateur. Les répéteurs du réseau sont reliés entre
eux via les segments de liaison. La règle stipule qu’entre deux nœuds du réseau, il ne peut exister que cinq segments
au maximum, reliés par le biais de quatre répéteurs (ou concentrateurs), et que seuls trois des cinq segments peuvent
contenir des connexions utilisateur.
7. Concentrateurs
Les concentrateurs (Hub) sont, en fait, des répéteurs multiports. La différence entre un concentrateur et un répéteur
réside dans le nombre de ports respectifs de ces équipements. Un répéteur classique possède généralement deux ports
et un concentrateur entre 4 et 24 ports. L’utilisation d’un concentrateur modifie la topologie du réseau. La topologie en
bus linéaire (chaque équipement est connecté directement au câble) est remplacée par une topologie en étoile. Chaque
donnée qui arrive sur le port d'un concentrateur par l'intermédiaire des câbles est électriquement répétée sur tous les
autres ports connectés au segment de réseau.
∃ trois principaux types de concentrateurs :
• Passif: un concentrateur passif sert uniquement de point de connexion physique. Il ne peut ni manipuler ni
visualiser le trafic acheminé par son intermédiaire. De même, il n’amplifie pas le signal et ne le nettoie pas. Un
concentrateur passif permet uniquement de partager le média physique. Il n’a besoin d’aucune alimentation
électrique.
• Actif: un concentrateur actif doit être branché à une prise de courant pour pouvoir amplifier un signal avant
de l’envoyer aux autres ports.
• Intelligent: les concentrateurs intelligents (ou «smart hubs») fonctionnent de la même façon que les
concentrateurs actifs, avec des puces microprocesseur et des fonctions de diagnostic. Les concentrateurs
intelligents sont plus onéreux que les concentrateurs actifs. Ils sont également plus efficaces dans les situations
de dépannage.
Les équipements raccordés à un concentrateur reçoivent tout le trafic qui traverse le concentrateur. Plus le nombre
d’équipements reliés au concentrateur est important, plus le risque de collisions est élevé.
Les réseaux sans fil utilisent la radiofréquence (RF), des rayons laser, des ondes infrarouges (IR), un satellite ou des
micro-ondes pour transporter les signaux entre les ordinateurs sans connexion de câble permanente.
La communication sans fil s’appuie sur des équipements appelés «émetteurs» et «récepteurs». L’émetteur convertit les
données source en ondes électromagnétiques, qu’il envoie au récepteur. Puis, le récepteur reconvertit ces ondes
électromagnétiques en données pour les envoyer à la destination. Dans le cadre de la communication bidirectionnelle,
chaque équipement nécessite un émetteur et un récepteur. La plupart des fabricants d’équipements réseau intègrent
l’émetteur et le récepteur dans une même unité appelée «émetteur-récepteur» (transceiver) ou «carte réseau sans fil».
La technologie RF permet de placer les équipements dans des pièces ou des bâtiments distincts. La plage limitée de
signaux radio restreint l’utilisation de ce type de réseau. Cette technologie peut utiliser une ou plusieurs fréquences.
Une fréquence radio unique est sensible aux interférences externes et aux obstructions géographiques. Par ailleurs, elle
peut facilement être surveillée par des tiers, ce qui nuit à la sécurité des transmissions de données. L’étalement du
spectre utilise plusieurs fréquences pour accroître l’immunité au bruit et éviter que des tiers n’interceptent les
transmissions de données.
La mise en œuvre de l’étalement du spectre pour les transmissions WLAN peut s’effectuer selon l’approche FHSS
(Frequency Hopping Spread Spectrum ou étalement du spectre à sauts de fréquence) ou DSSS (Direct Sequence Spread Spectrum
ou étalement du spectre en séquence directe).
9. Ponts
Dans certains cas, il peut s’avérer nécessaire de diviser un LAN de taille importante en plusieurs petits segments, qui
seront plus faciles à gérer.
Les commutateurs et les ponts fonctionnent au niveau de la couche liaison de données du modèle OSI. Un pont doit
prendre des décisions intelligentes quant à la transmission ou non des signaux au segment suivant d’un réseau.
Page 4 sur 8
Lorsqu’un pont reçoit une trame sur le réseau, il recherche l’adresse MAC de destination dans une table spécifique
afin de déterminer s’il doit filtrer la trame, la diffuser ou la copier sur un autre segment :
• Si l’équipement de destination se trouve sur le même segment que la trame, le pont n’envoie pas la trame vers
d’autres segments. Ce processus correspond au «filtrage».
• Si l’équipement de destination se trouve sur un autre segment, le pont transmet la trame au segment
approprié.
• Si le pont ne connaît pas l’adresse de destination, il transmet la trame à tous les segments, excepté à celui par
lequel la trame a été reçue. Ce processus correspond à la «diffusion».
10. Commutateurs
Les commutateurs sont parfois qualifiés de «ponts multiports». A l’instar des ponts, les commutateurs recherchent des
informations sur les trames de données qu’ils reçoivent de la part des ordinateurs du réseau. Ils se servent ensuite de
ces informations pour créer des tables et déterminer la destination des données que s’envoient les ordinateurs sur le
réseau.
Les cartes réseau sont des équipements de couche 2 car chacune d’entre elles porte un code unique appelé «adresse
MAC».
Dans certains cas, le type de connecteur de la carte ne correspond pas au type de média auquel elle doit être
connectée. Le routeur Cisco 2500 possède un connecteur AUI qui doit être raccordé à un câble Ethernet UTP de
catégorie 5. Dans ce cas, il convient d’utiliser un émetteur-récepteur qui convertit un type de signal ou un connecteur
en un autre.
Les ordinateurs du réseau assument différents rôles ou fonctions les uns par rapport aux autres. Certains types
d’applications exigent que les ordinateurs agissent comme des partenaires égaux. D’autres répartissent leur travail de
façon à ce qu’un seul ordinateur en desserve plusieurs dans le cadre d’une relation inégale. En règle générale, deux
ordinateurs communiquent à l’aide de protocoles de requête et de réponse. L’un envoie une requête de service, et
l’autre reçoit cette requête et y répond. Les ordinateurs membres d’un réseau d’égal à égal se comportent comme des
partenaires égaux (ou «pairs»). En tant que pair, chaque ordinateur peut tour à tour assurer la fonction de client et de
serveur. Chaque utilisateur contrôle ses propres ressources et peut décider de partager certains fichiers avec des tiers.
L’extension des réseaux accroît la difficulté de coordination des relations d’égal à égal. Ce type de réseau fonctionne
bien avec dix ordinateurs au plus. Étant donné le manque d’évolutivité des réseaux d’égal à égal, leur efficacité décroît
parallèlement à l’augmentation du nombre d’ordinateurs connectés.
Page 5 sur 8
13. Environnement client - serveur
Page 6 sur 8
Pour un routeur Cisco, la connectivité physique sur le site du client est mise en œuvre par le biais d’un ou deux types
de connexions série. Le premier type est un connecteur 60 broches et le second un connecteur « série intelligent » plus
compact.
Si la connexion s’effectue directement auprès d’un fournisseur de services ou d’un équipement doté d’un signal de
synchronisation tel qu’une unité CSU/DSU (channel service unit/data service unit), le routeur est alors considéré comme
un équipement terminal de traitement de données (ETTD) et utilise un câble série ETTD. Toutefois, dans certains cas,
le routeur local doit fournir la fréquence d’horloge et utilise donc un câble d’équipement de communication de
données ou câble ETCD.
Dans l’environnement d’un LAN, le routeur stoppe les broadcasts, fournit les services de résolution d’adresse du type
ARP et RARP et peut segmenter le réseau via une structure de sous-réseaux. Pour proposer ces services, le routeur
doit être connecté au LAN et au WAN.
Outre le type de câble, il convient de déterminer les connecteurs à utiliser (ETTD ou ETCD). L’ETTD est le point
d’extrémité de l’équipement d’un utilisateur au niveau de la liaison WAN. L’ETCD est, en général, le point auquel la
responsabilité de la diffusion des données est reportée sur le fournisseur de services.
Lorsque vous vous connectez directement à un fournisseur de services ou à un équipement tel qu’une unité
CSU/DSU qui doit exécuter le signal de synchronisation, le routeur constitue un équipement ETTD et doit être équipé
d’un câble série du même type (fig. 1). Tel est généralement le cas des routeurs. Cependant, le routeur doit, dans
certains cas, être l’équipement ETCD. Lorsque vous exécutez un scénario avec des routeurs dos à dos dans un
environnement de test, l’un des routeurs est un équipement ETTD et l’autre un équipement ETCD. (fig. 2)
Fig. 1
Fig. 2
Page 7 sur 8
4. Routeurs et connexions RNIS BRI
Le NT1 est un équipement intermédiaire, situé entre le
routeur et le commutateur RNIS de l’opérateur télécom. Cet
équipement permet de relier le câblage à quatre fils de
l’abonné à la boucle locale traditionnelle à deux fils. En
Amérique du Nord, le client fournit généralement
l’équipement NT1, ce qui n’est pas le cas dans le reste du
monde, où l’opérateur Télécom en est responsable.
Il peut s’avérer nécessaire d’ajouter un équipement NT1
externe si celui-ci n’est pas intégré au routeur. L’examen
des étiquettes disponibles au niveau des interfaces du
routeur permet facilement de déterminer si ce routeur
comporte un NT1 intégré. Une interface BRI dotée d’un
NT1 intégré est étiquetée «BRI U»; dans le cas contraire, elle
présente l’étiquetage «BRI S/T».
Pour la configuration initiale de l’équipement Cisco, une connexion d’administration doit être directement liée à
l’équipement. Pour l’équipement Cisco, cette liaison d’administration est appelée «port console». Le port console
permet de surveiller et de configurer un concentrateur, un commutateur ou un routeur Cisco.
Un câble à paires inversées équipé de connecteurs RJ-45 relie le terminal et le port console. Le câble à paires inversées,
ou câble console, présente une configuration différente de celle des câbles RJ-45 droits ou croisés que l’on utilise dans
le cas d’Ethernet ou de RNIS BRI. Un câble à paires inversées présente la configuration de broches suivante :
De 1 à 8 De 2 à 7
De 3 à 6 De 4 à 5 La configuration d’une connexion entre le terminal et le port console Cisco s’effectue en deux
De 5 à 4 De 6 à 3 étapes. Raccordez tout d’abord les équipements à l’aide d’un câble à paires inversées (du port
De 7 à 2 De 8 à 1 console du routeur au port série de la station de travail). Vous devrez peut-être installer un
adaptateur RJ-45 à DB-9 ou RJ-45 à DB-25 pour le PC ou le terminal. Puis, configurez
l’application d’émulation du terminal à l’aide des paramètres de port COM suivants : 9600 bits/s, 8 bits de données,
sans parité, 1 bit d’arrêt et sans contrôle de flux.
Le port AUX fournit une gestion hors bande via un modem. Pour pouvoir l’utiliser, vous devez le configurer par le
biais du port console. Le port AUX utilise également les paramètres 9 600 bits/s, 8 bits de données, sans parité, 1 bit
d’arrêt et sans contrôle de flux.
Page 8 sur 8
Module 6 : Notions de base sur Ethernet
Les objectifs :
1. Décrire les notions de base de la technologie 2. Expliquer les règles d’attribution de nom de la
Ethernet technologie Ethernet
3. Expliquer la relation entre Ethernet et le modèle 4. Décrire le processus de verrouillage de trame et
OSI la structure de trame Ethernet
5. Lister les noms des champs des trames Ethernet
6. Identifier les caractéristiques de CSMA/CD
et leur objet
7. Décrire la synchronisation, l’espacement
intertrame et la réémission temporisée après une 8. Définir les erreurs et les collisions Ethernet
collision
9. Expliquer le concept d’autonégociation en
fonction de la vitesse et du mode duplex
configuré
Le même protocole qui transportait les données à 3 Mbits/s en 1973 assure des transmissions à 10 Gbits/s.
Le succès d’Ethernet est dû aux facteurs suivants :
• Simplicité et facilité de maintenance
• Capacité à incorporer de nouvelles technologies
• Fiabilité
• Faible coût d’installation et de mise à niveau
À l’origine, l’idée était de permettre à deux hôtes au moins d’utiliser le même média sans aucune interférence entre les
signaux. Ce problème d’accès multiple de l’utilisateur à un média partagé a été étudié au début des années 70 à
l’Université d’Hawaï. Un système nommé Alohanet a été développé pour donner à plusieurs stations des Iles Hawaï
un accès structuré à la fréquence radio partagée dans l’atmosphère
Chaque fois qu’Ethernet doit être étendu pour ajouter un nouveau média ou une nouvelle capacité, l’IEEE publie un
nouveau supplément à la norme 802.3. Les nouveaux suppléments sont identifiés par une ou deux lettres (p. ex.
802.3u). Une description abrégée, appelée identificateur, est également affectée au supplément.
La description abrégée comporte les éléments suivants :
• Un chiffre qui indique le nombre de Mbits/s transmis
• Des lettres pour indiquer que la signalisation de la bande de base sont utilisées
• Une ou plusieurs lettres de l’alphabet indiquant le type de média utilisé. Par exemple, F = câble à fibre optique
et T = paire de cuivre torsadée non blindée
Ethernet repose sur la signalisation de bande de base, qui utilise la totalité de la bande passante du média de
transmission
Dans la signalisation à large bande, le signal de données n’est plus placé directement sur le média de transmission.
Ethernet utilisait la signalisation à large bande dans le cadre de la norme 10Broad36.
L’IEEE a pour cela deux objectifs principaux :
• Fournir les informations nécessaires pour construire des équipements qui sont conformes aux normes
Ethernet
• Promouvoir l’innovation auprès des fabricants
Ethernet opère dans deux domaines du modèle OSI. Il s’agit de la moitié inférieure de la couche liaison de données,
que l’on appelle sous-couche MAC, et la couche physique.
Page 1 sur 9
Un répéteur transmet le trafic à tous les autres ports. Il n’envoie jamais de trafic par le port qui a servi à le recevoir.
Tout signal détecté par le répéteur sera transmis. Si le signal subit une dégradation due à l’atténuation ou au bruit, le
répéteur tentera de reconstruire et de régénérer le signal.
Afin de garantir une bande passante et une opérabilité minimales, les normes spécifient le nombre maximum de
stations par segment, la longueur maximum de segment, ainsi que le nombre maximum de répéteurs entre stations.
La figure suivante fait correspondre diverses technologies Ethernet avec la partie inférieure de la couche 2 OSI et avec
l’ensemble de la couche 1. Sur la couche 1, Ethernet gère des signaux, des flots de bits qui circulent sur le média, des
composants qui placent les signaux sur le média et diverses topologies.
La couche 2 traite ces restrictions.
Les sous-couches liaison de données contribuent de façon significative à la compatibilité technologique et aux
communications informatiques. La sous-couche MAC est responsable des composants physiques qui seront utilisés
pour communiquer les informations. La sous-couche LLC (Logical Link Control – contrôle de lien logique) reste
relativement indépendante de l’équipement physique qui sera utilisé pour le processus de communication.
Page 2 sur 9
4. Attribution de noms
Ethernet utilise des adresses MAC qui comportent 48 bits et qui sont
exprimées à l’aide de douze chiffres hexadécimaux. Les six premiers
chiffres hexadécimaux, qui sont administrés par l’IEEE, identifient le
fabricant ou le fournisseur. Cette partie de l’adresse MAC est appelée
identifiant unique d’organisation (OUI). Les six autres chiffres
hexadécimaux forment le numéro de série d’interface ou une autre
valeur administrée par le fabricant. On dit parfois des adresses MAC
qu’elles sont rémanentes (BIA - burned-in adresses) parce qu’elles
demeurent en mémoire morte (ROM) et sont copiées en mémoire vive
(RAM) lors de l’initialisation de la carte réseau.
Au niveau de la couche liaison de données, des en-têtes et des en-queues MAC sont ajoutés aux données de la couche
supérieure. Ces en-têtes et en-queues contiennent des informations de contrôle destinées à la couche liaison de
données du système de destination
La carte réseau utilise l’adresse MAC afin de déterminer si un message doit être transmis aux couches supérieures du
modèle OSI.
Il existe plusieurs types de trame différents, décrits par diverses normes. Une trame générique comprend des sections
appelées champs :
• Champ de début de trame
• Champ d’adresse
• Champ de longueur/de type
• Champ de données
• Champ FCS (Frame Check Sequence = Séquence de contrôle de trame)
La plupart des trames contiennent des champs spécialisés. Dans certaines technologies, un champ de longueur
indique la longueur exacte de la trame en octets. Certaines trames comportent un champ de type précisant le protocole
de couche 3 utilisé par l’équipement qui veut envoyer des données.
Les trames sont utilisées pour envoyer des données de couche supérieure, puis des données d’application utilisateur
d’une source à une destination. Le paquet de données inclut le message à envoyer ou les données d’application
utilisateur. À des fins de synchronisation, d’autres octets peuvent être ajoutés pour que les trames aient une longueur
minimale. Des octets LLC sont également ajoutés au champ de données dans les trames IEEE standard
Page 3 sur 9
Toutes les trames, ainsi que les bits, les octets et les champs qu’elles contiennent, peuvent comporter des erreurs
provenant d’une multitude de sources.
Il y a trois façons de calculer le numéro de séquence de contrôle de trame :
• Code de redondance cyclique (CRC) – exécution des calculs sur les données.
• Parité bidimensionnelle – place des octets individuels dans une matrice bidirectionnelle et effectue des
contrôles de redondance verticalement et horizontalement sur la matrice, ce qui crée ainsi un octet
supplémentaire produisant un nombre pair ou impair de 1 binaires.
• Somme de contrôle Internet – somme résultant de l’addition des valeurs de tous les bits de données.
Lorsqu’un nœud reçoit une trame, il doit examiner le champ de longueur/type afin de déterminer quel protocole de
couche supérieure est présent. Si la valeur de ces deux octets est égale ou supérieure à la valeur hexadécimale 0x0600
(1536 en notation décimale), alors le contenu du champ de données est décodé suivant le protocole indiqué.
Page 4 sur 9
7. Champs des trames Ethernet
Une trame Ethernet 802.3 comprend les champs autorisés ou obligatoires suivants :
• Préambule
• Délimiteur de début de trame (SOF)
• Adresse de destination
• Adresse source
• Longueur/Type
• En-tête et données
• Séquence de contrôle de trame (FCS)
• Extension
Le préambule est une succession de uns et de
zéros permettant de définir la synchronisation
dans des implémentations Ethernet à 10 Mbits/s
et moins rapides.
Un délimiteur de début de trame (SOF) est constitué d’un champ d’un octet qui marque la fin des informations de
synchronisation et qui contient la séquence de bits 10101011.
L’adresse de destination peut être une adresse d’unicast, une adresse de multicast ou une adresse de broadcast.
Le champ d’adresse source contient l’adresse source MAC. Celle-ci est généralement l’adresse d’unicast du nœud
Ethernet qui a transmis la trame.
Le champ de longueur/type peut être utilisé de deux façons. Si la valeur est inférieure à 1536 en notation décimale, soit
0x600 en notation hexadécimale, alors elle indique la longueur. L’interprétation de la longueur est utilisée lorsque la
couche LLC fournit l’identification de protocole.
Le champ de données -avec remplissage le cas échéant- peut être de n’importe quelle longueur, pourvu que cela
n’entraîne pas un dépassement de la taille maximum de la trame. L’unité de transfert d’informations maximale (MTU)
pour Ethernet étant de 1500 octets, les données ne doivent pas dépasser cette taille. Ces données supplémentaires sont
appelées données de remplissage. Ethernet exige que chaque trame ait une longueur comprise entre 64 et 1518 octets.
Une séquence de contrôle de trame (FCS) contient un code de redondance cyclique (CRC) de 4 octets créé par l’unité
émettrice et recalculé par l’unité réceptrice afin de s’assurer qu’aucune trame n’a été endommagée. La corruption d’un
seul bit, où que ce soit entre le début de l’adresse de destination et la fin du champ FCS, entraînera une différence dans
la somme de contrôle.
L’expression MAC (Media Access Control) fait référence aux protocoles qui, dans un environnement à média partagé
(domaine de collision), déterminent l’ordinateur autorisé à transmettre des données.
Il y a deux grandes catégories de protocole MAC, l’une déterministe, l’autre non déterministe.
Token Ring et FDDI sont des exemples de protocoles déterministes. Lorsqu’un ordinateur hôte désire émettre des
données, il saisit le jeton, émet les données pendant un temps limité, puis transmet le jeton à l’hôte suivant sur
l’anneau.
Les protocoles MAC non déterministes font appel à la méthode dite du " premier arrivé, premier servi ". La carte
réseau guette l’absence de signal sur le média, puis commence à transmettre. Si deux nœuds transmettent
simultanément, une collision se produit et aucun d’eux n’est alors en mesure de transmettre.
l existe trois technologies répandues de couche 2 : Token Ring, FDDI et Ethernet. Toutes trois précisent des éléments de
couche 2 (par exemple : LLC, attribution de noms, verrouillage de trame et MAC), ainsi que des composants de
signalisation et des éléments de média de couche 1. Les technologies utilisées par chacune d’elles sont les suivantes :
• Ethernet – utilise une topologie de bus logique (flux d’informations sur un bus linéaire) et une topologie
physique en étoile ou en étoile étendue (câblage en étoile).
• Token Ring – utilise une topologie logique en anneau pour contrôler le flux d’informations et une topologie
physique en étoile.
• FDDI – utilise une topologie logique en anneau pour contrôler le flux d’informations et une topologie
physique à deux anneaux.
Page 5 sur 9
2. Règles MAC et détection de collision/réémission temporisée
3. Synchronisation Ethernet
Si la station connectée fonctionne en mode full duplex, alors elle peut envoyer et recevoir de façon simultanée et les
collisions ne doivent pas se produire. Le mode full duplex modifie également les paramètres de synchronisation et
élimine le concept de tranche de temps. Le fonctionnement en full duplex permet de concevoir une architecture réseau
plus étendue puisque la restriction de synchronisation pour la détection de collisions est éliminée.
En mode half duplex, en supposant qu’aucune collision ne se produise, la station émettrice transmet 64 bits
d’informations de synchronisation appelées préambule. La station émettrice transmet alors les informations suivantes :
• Certaines autres informations d’en-tête
• Charge utile réelle de données
• Somme de contrôle (FCS) utilisée pour s’assurer que le message n’a pas été corrompu en cours de route
Les versions à 10 Mbits/s ou moins d’Ethernet sont asynchrones, chaque station réceptrice utilisera les huit octets
d’informations de synchronisation afin de synchroniser le circuit de réception avec les données entrantes, puis les
abandonnera.
Pour toutes les vitesses de transmission Ethernet égales ou inférieures à 1000 Mbits/s, la norme stipule qu’une
transmission ne peut pas être inférieure à une tranche de temps. La tranche de temps pour l’Ethernet 10 et 100 Mbits/s
est de 512 temps de bit, soit 64 octets. La tranche de temps pour l’Ethernet 1000 Mbits/s est de 4096 temps de bit, soit
512 octets.
La tranche de temps calculée réelle est à peine supérieure à la durée théorique requise pour aller jusqu’aux points les
plus éloignés du domaine de collision, entrer en collision avec une autre transmission au dernier moment possible,
retourner les fragments de collision à la station émettrice et les détecter. Pour que le système fonctionne, la première
station doit détecter la collision avant d’avoir terminé d’envoyer la taille de trame légale la plus petite.
Page 6 sur 9
non blindées, cela signifie qu’il faut 5 temps de bit à
peine à un signal 10BaseT pour parcourir la
longueur du câble
Pour que l’Ethernet CSMA/CD puisse fonctionner, la station émettrice doit avoir connaissance d’une collision avant
d’avoir terminé la transmission d’une trame de taille minimum. À 100 Mbits/s, la synchronisation du système est à
peine capable de servir 100 mètres de câble. À 1000 Mbits/s, des ajustements spéciaux sont nécessaires du fait
qu’environ une trame de taille minimum serait transmise avant que le premier bit n’atteigne la fin des premiers
100 mètres de câble UTP. Pour cette raison, le mode half duplex n’est pas autorisé dans le 10-Gigabit Ethernet.
Un signal de bourrage peut être constitué de n’importe quelles données binaires, tant qu’il ne forme par une somme de
contrôle valide pour la partie de la trame déjà transmise. Le modèle de données le plus communément observé pour
un signal de bourrage est simplement un modèle répétitif de un, zéro, un, zéro identique au préambule. Dans un
analyseur de protocole, ce modèle s’affiche comme une séquence répétitive de 5 ou A en notation hexadécimale.
Page 7 sur 9
6. Types de collisions
Une collision unique est une collision qui a été
détectée lors d’une tentative de transmission
d’une trame, mais qui a abouti à la tentative
suivante. On parle de collisions multiples lorsque
la même trame est entrée en collision plusieurs
fois avant d’être transmise avec succès. Les trois
types de collision sont les suivants :
• Locale
• Distante
• Tardive
Pour créer une collision locale sur du câble coaxial (10Base2 et 10Base5), le signal circule sur le câble jusqu’à ce qu’il
rencontre un signal de l’autre station. Les ondes se chevauchent alors, annulant certaines parties du signal ou
dédoublant d’autres parties.
Sur un câble UTP, tel que 10BaseT, 100BaseTX et 1000BaseT, une connexion n’est détectée sur le segment local que
lorsqu’une station détecte un signal sur la paire réceptrice en même temps qu’il envoie sur la paire émettrice. Puisque
les deux signaux sont sur des paires différentes, il n’y a aucune modification caractéristique du signal. Les collisions ne
sont reconnues sur du câble UTP que lorsque la station fonctionne en mode half duplex. À ce titre, la seule différence
fonctionnelle entre le fonctionnement en mode half duplex et en mode full duplex consiste à savoir s’il est possible ou
non d’utiliser de façon simultanée les paires de transmission et de réception. Si la station n’est pas en train de
transmettre, elle ne peut pas détecter une collision locale. Réciproquement, une défaillance du câble due à une
diaphonie excessive peut faire percevoir à une station sa propre transmission comme une collision locale. Les
caractéristiques d’une collision distante sont celles d’une trame de longueur inférieure à la longueur minimum, dont la
somme de contrôle FCS est invalide, mais qui ne manifeste pas de signe de collision locale tel qu’une surtension ou une
activité de réception/transmission simultanée. Cette sorte de collision résulte habituellement de collisions qui se
produisent du côté éloigné d’une connexion répétée. Un répéteur ne transmettra pas un état de surtension, et ne peut
pas être à l’origine de l’activité simultanée des paires TX et RX de la station. La station doit être en train de transmettre
pour que les deux paires soient actives, ce qui constitue une collision locale. Sur les réseaux UTP, il s’agit d’un type de
collision couramment observable.
Les collisions qui se produisent après les 64 premiers octets sont appelées "collisions tardives". La différence la plus
significative entre les collisions tardives et les collisions qui se produisent avant les 64 premiers octets réside dans le
fait que la carte réseau Ethernet retransmettra automatiquement une trame entrée en collision de façon normale, mais
ne le fera pas pour une trame dont la collision a été tardive. Au niveau de la carte réseau, tout s’est bien déroulé, et les
couches supérieures de la pile de protocoles doivent déterminer que la trame a été perdue. Hormis la retransmission,
une station qui détecte une collision tardive la traite exactement de la même façon qu’une collision normale.
7. Erreurs Ethernet
Page 8 sur 9
Une trame longue est une trame, étiquetée ou non, dont la longueur dépasse la taille légale. Il n’est pas tenu compte du
fait que la trame a une somme de contrôle FCS valide.
Dans une trame FCS erronée, les informations d’en-tête sont probablement correctes, mais la somme de contrôle
calculée par la station réceptrice ne correspond pas à celle rattachée à la fin de la trame par la station émettrice. La
trame est alors abandonnée.
Un nombre élevé d’erreurs FCS d’une seule station est
habituellement le signe d’une carte réseau défaillante
et/ou de pilotes logiciels défaillants ou corrompus, ou
encore d’un mauvais câble reliant cette station au
réseau.
On parle d’erreur d’alignement lorsqu’un message ne se termine pas par une frontière entre octets. Plutôt qu’un
nombre correct de bits binaires formant des groupements d’octets complets, on observe des bits supplémentaires
(moins de huit). Une telle trame est tronquée à la frontière entre octets la plus proche, et une erreur d’alignement est
signalée si la somme de contrôle FCS échoue. Cette erreur est souvent due à des pilotes incorrects ou à une collision.
On parle d’erreur de plage lorsque la valeur du champ de longueur d’une trame ne correspond pas au nombre d’octets
réel dénombré dans la trame reçue. Cette erreur apparaît également lorsque la valeur du champ de longueur est
inférieure à la taille minimum légale sans remplissage du champ de données. Une erreur similaire, Out of Range, est
signalée lorsque la valeur du champ de longueur indique une taille de données qui est trop grande pour être légale.
Fluke Networks a inventé le terme fantôme (ghost) pour désigner l’énergie (bruit) détectée sur le câble qui semble être
une trame, mais à laquelle il manque un SFD valide. La trame doit être d’une longueur de 72 octets au moins,
préambule compris. Sinon, elle entre dans la catégorie des collisions distantes.
9. Autonégociation Ethernet
Au moment où Fast Ethernet a été introduite, la norme incluait une méthode permettant de configurer de façon
automatique une interface donnée afin de l’adapter à la vitesse et aux capacités du partenaire de liaison.
La norme 10BaseT exigeait que chaque station transmette une impulsion de liaison toutes les 16 millisecondes environ,
c’est-à-dire à chaque fois que la station n’était pas engagée dans la transmission d’un message. L’autonégociation a
adopté ce signal et l’a renommé impulsion de liaison normale (NLP). Lorsqu’une série de NLP est envoyée en groupe à
des fins d’autonégociation, ce groupe est appelé rafale FLP (impulsion de liaison rapide). Chaque rafale FLP est
envoyée selon le même intervalle de synchronisation qu’une NLP, et elle est conçue pour permettre à des équipements
10BaseT anciens de fonctionner normalement en cas de réception d’une rafale FLP
Les partenaires de liaison sont autorisés à ignorer l’offre de configuration pour laquelle ils sont équipés. Cela permet à
l’administrateur réseau de forcer des ports à une configuration de vitesse et de mode duplex donnée, sans désactiver
l’autonégociation.
L’autonégociation est optionnelle pour la plupart des implémentations Ethernet. Gigabit Ethernet requiert sa mise en
œuvre, bien que l’utilisateur puisse la désactiver. L’autonégociation a été définie à l’origine pour les implémentations
UTP d’Ethernet, et elle a été étendue pour fonctionner avec d’autres implémentations à fibre optique.
Lorsqu’une station d’autonégociation tente pour la première fois d’établir une liaison, elle est supposée activer
100BaseTX pour tenter d’établir une liaison de façon immédiate.
Si la signalisation produit une liaison ou en cas de réception de rafales FLP, la station poursuivra avec cette
technologie. Si un partenaire de liaison ne propose pas de rafale FLP, mais des NLP, cet équipement est
automatiquement supposé être une station 10BaseT.
Cette liste sert à déterminer quelle technologie doit être choisie parmi les configurations
proposées.
Page 9 sur 9
Module 7 : Technologies Ethernet
Les objectifs :
• Décrire les différences et les points communs entre • Définir le codage Manchester.
10BASE5, 10BASE2 et 10BASE-T Ethernet.
• Énumérer les facteurs qui affectent les délais d'un réseau • Énumérer les paramètres du câblage 10BASE-T.
Ethernet.
• Décrire les principales caractéristiques et variétés d'un • Décrire l'évolution d'Ethernet.
réseau Ethernet 100 Mbits/s.
• Expliquer les méthodes MAC, les formats de trame et le • Décrire les utilisations de médias et de codage
processus de transmission de Gigabit Ethernet. spécifiques avec la technologie Gigabit Ethernet.
• Identifier les broches et le câblage propres aux • Décrire les différences et les points communs entre les
différentes mises en œuvre de Gigabit Ethernet. technologies Gigabit et 10 Gigabit Ethernet.
• Présenter les considérations de base relatives à
l'architecture des technologies Gigabit et 10 Gigabit
Ethernet.
Page 1 sur 9
• Dans un délai de 4 à 8 microsecondes après une transmission normale pour indiquer que la trame de sortie a
été correctement transmise.
• En cas de collision sur le support.
• en cas de signal incorrect sur le support, tel qu'une erreur de message trop long, ou de réflexion due à un
court-circuit.
• Lorsqu'une transmission a été interrompue
- Le codage Manchester utilise la transition au milieu de la fenêtre de synchronisation pour déterminer la valeur
binaire de cette période de bits.
- La conception générale de l'architecture est plus importante dans les réseaux de médias mixtes. Il est en effet plus
facile de dépasser les délais maximums lorsque le réseau devient étendu. La synchronisation est fonction des types de
paramètres suivants :
• La longueur de câble et le délai de propagation.
• Le délai des répéteurs.
• Le délai des émetteurs-récepteurs.
• La réduction des vides intertrames.
• Les délais au sein de la station.
- La fenêtre temporelle de la technologie Ethernet de 10 Mbits/s se caractérise par un ensemble pouvant comprendre
jusqu'à cinq segments séparés par un maximum de quatre répéteurs. Cette règle est appelée « règle 5-4-3 ». Ces
ensembles ne peuvent pas utiliser plus de quatre répéteurs entre deux stations. De même, trois segments maximum
peuvent être remplis entre deux stations.
2. 10BASE5
C’est l’Ethernet de base, crée en 80 pour transmettre à 10Mbps sur un coax unique.
Le principal avantage du câble 10BASE5 était sa longueur. Les systèmes 10BASE5 sont peu onéreux et ne nécessitent
aucune configuration. Ils présentent toutefois deux inconvénients : les composants de base tels que les cartes réseau
sont très difficiles à trouver et ils sont sensibles à la réflexion des signaux sur le câble. Les systèmes 10BASE5
constituent également un point de défaillance unique.
Ils utilisent le codage Manchester.
Chaque segment de câble coaxial épais peut avoir une longueur de 500 m. Lourd, large et difficile à installer.
Lorsque le support est un câble coaxial unique, une seule station à la fois peut effectuer un transfert -> half-duplex
avec un débit maximum de 10 Mbits/s.
Cette figure illustre une configuration d'un domaine de collision
de bout en bout avec le nombre maximum de segments et de
répéteurs. Ne pas oublier que seuls trois segments peuvent être
connectés à des stations. Les deux autres segments répétés sont
utilisés pour étendre le réseau.
3. 10BASE2
Crée en 85.
10BASE2 fait également appel au codage
Manchester. Les ordinateurs qui ont recours à un
LAN de type 10BASE2 sont liés entre eux par
une série ininterrompue de câbles coaxiaux. Ces
câbles sont reliés à un connecteur en T de la carte
réseau, avec des connecteurs BNC.
Les systèmes 10BASE2 comportent un
conducteur central torsadé. Chacun des cinq
segments d'un câble coaxial fin peut atteindre
185 m de long et chaque station est directement
connectée au connecteur BCN en T du câble
coaxial.
Un segment 10BASE2 peut comporter jusqu'à
30 stations. Seuls trois des cinq segments
consécutifs entre deux stations peuvent être
remplis. (cf ci-contre)
4. 10BASE T
Page 2 sur 9
Crée en 90.
La technologie 10BASE-T utilisait plutôt des
câbles en cuivre UTP de catégorie 3.
L’origine, le système 10BASE-T était un
protocole half-duplex, mais des fonctionnalités
full duplex ont été ajoutées ultérieurement. La
forte popularité qu'ont connue les réseaux
Ethernet entre le milieu et la fin des années 1990
a eu lieu lorsqu'Ethernet a supplanté la
technologie LAN. Les systèmes 10BASE-T
utilisent également le codage Manchester.
Un câble UTP 10BASE-T comporte un conducteur rigide pour chaque fil. La longueur maximale de câble est de 90 m.
Le câble UTP utilise des connecteurs RJ-45 à huit broches.
Une liaison 10BASE-T relie généralement une station à un concentrateur ou à un commutateur. Les concentrateurs ne
subdivisent pas les segments de réseau en domaines de collision distincts, contrairement aux ponts et aux
commutateurs. La distance maximum entre ponts et commutateurs dépend des restrictions imposées par les médias.
6. Ethernet 100Mbps.
Deux normes sont devenues importantes : 100BASE-TX (câble UTP en cuivre) et 100BASE-FX (fibre optique
multimode).
Leurs caractéristiques communes sont les
paramètres de synchronisation, le format de trame
et certaines parties du processus de transmission.
Les technologies 100BASE-TX et 100BASE-FX
présentent les mêmes paramètres de
synchronisation.
7. 100BASE-TX
Page 3 sur 9
La technologie 100BASE-TX utilise le codage 4B/5B, qui est ensuite mélangé et converti en codage MLT-3 (Multi-Level
Transmit).
La technologie 100BASE-TX prend en charge le
trafic 100 Mbits/s en mode half-duplex. Avec ce
mode, les systèmes 100BASE-TX peuvent
échanger des données à un débit de 200 Mbits/s.
Le mode full duplex va prendre de plus en plus
d'importance au fur et à mesure que de
l'augmentation de la vitesse de la technologie
Ethernet.
8. 100BASE-FX
La synchronisation, le format de la trame et la transmission sont identiques dans les deux versions de Fast Ethernet
100 Mbits/s (cuivre et fibre optique).
Une paire en fibre optique associée à des connecteurs ST ou SC est le plus souvent utilisée.
Les chemins de transmission (TX) et de réception (Rx) de la technologie 100BASE-FX à fibre optique permettent
chacun des transmissions à 200 Mbits/s.
Les liaisons Fast Ethernet se composent généralement d'une connexion entre une station et un concentrateur ou un
commutateur.
Un répéteur de classe I peut introduire une latence d'une durée allant jusqu'à 140 bits. Tout répéteur modifié entre une
implémentation Ethernet et une autre appartient à la classe I. Les délais de synchronisation d'un répéteur de classe II
sont plus courts (durée de 92 bits), car ce type de matériel répète immédiatement le signal entrant vers tous les autres
ports, sans processus de conversion. Pour pouvoir offrir un tel délai, les répéteurs de classe II peuvent uniquement se
connecter à des types de segments qui utilisent la même technique de signalisation.
À l'instar des versions à 10 Mbits/s, les versions à 100 Mbits/s autorisent la modification de certaines règles
d'architecture. Cela est cependant fortement déconseillé pour les systèmes 100BASE-TX. La longueur de câble
100BASE-TX entre les répéteurs de classe II ne doit pas être supérieure à 5 m. Il n'est pas rare de rencontrer des
liaisons qui fonctionnent en mode half-duplex dans les systèmes Fast Ethernet. Toutefois, ce mode est déconseillé car
le schéma de signalisation est en mode full duplex.
Page 4 sur 9
1. Ethernet 1Gbps
La transmission des données est plus efficace lorsque les codes sont utilisés pour représenter le train binaire. Le
codage des données permet la synchronisation, l'utilisation efficace de la bande passante. Cela améliore également le
rapport signal/bruit.
Au niveau de la couche physique, le profil binaire de la couche MAC est converti en symboles. Ces symboles peuvent
aussi représenter des informations de contrôle, telles que le début de trame, la fin de trame ou les conditions
d'inactivité sur une liaison. La trame est codée sous forme de symboles de contrôle et de symboles de données pour
augmenter le débit sur le réseau.
La norme Gigabit Ethernet à fibre optique (1000BASE-X) utilise le codage 8B/10B, qui est semblable au concept 4B/5B.
Il est suivi par le codage de ligne simple de non-retour à zéro (NRZ) de la lumière sur les fibres optiques.
2. 1000BASE-T
-La norme 1000BASE-T (IEEE 802.3ab) a été développée pour fournir une bande passante supplémentaire afin de
désengorger ces goulots d'étranglement.
-Étant donné qu'un câble 5e peut supporter sans risque un débit maximal de 125 Mbits/s, une bande passante de
1 000 Mbits/s ou d'un gigabit était un véritable défi. La première étape de la mise en œuvre de la norme 1000BASE-T
consiste à utiliser les quatre paires de fils plutôt que les deux paires généralement utilisées par les normes 10BASE-T et
100BASE-TX. Cela nécessite un circuit complexe qui permet d'effectuer des transmissions en mode full duplex sur la
même paire de fils. Ainsi, chaque paire dispose d'un débit de 250 Mbits/s. Ainsi, avec les quatre paires de fils, il est
possible d'obtenir les 1 000 Mbits/s souhaités.
-Le codage 1000BASE-T avec le codage de ligne 4D-PAM5 est utilisé sur un câble de catégorie 5e, ou encore mieux, sur
un câble UTP.
-Pendant les périodes d'inactivité, il existe neuf niveaux de tension sur le câble, contre 17 lors de la transmission des
données.
Page 5 sur 9
Les données de la station expéditrice sont soigneusement réparties en quatre
courants parallèles, puis codées, transmises et détectées en parallèle. Enfin,
elles sont de nouveau assemblées en un train binaire de réception. La figure
représente le mode full duplex simultané sur quatre paires de fils. La norme
1000BASE-T prend en charge les actions en mode half-duplex et full duplex.
L'utilisation de cette norme en mode full duplex est très répandue.
3. 1000BASE-SX et LX
La norme 1000BASE-X fait appel au codage 8B/10B converti en codage de ligne de non-retour à zéro (NRZ). Le
codage NRZ utilise le niveau de signal de la fenêtre de synchronisation pour déterminer la valeur binaire de cette
période de bits. Contrairement à la plupart des autres systèmes de codage décrits, celui-ci est fonction du niveau, et
non de la limite définie. Cela signifie que pour déterminer si un bit correspond à un 0 ou à un 1, le système se réfère au
niveau du signal plutôt qu'au moment où le signal change de niveau.
La méthode MAC (Media Access Control) traite la liaison comme étant de type point-à-point. Différentes fibres optiques
étant utilisées pour la transmission (Tx) et la réception (Rx), la connexion est, de façon inhérente, en mode full duplex.
La norme Gigabit Ethernet n'autorise qu'un seul répéteur entre deux stations.
Page 6 sur 9
La longueur des liaisons en mode full duplex est uniquement limitée par le support, et non par le temps de parcours
aller-retour entre deux hôtes. La plupart des réseaux Gigabit Ethernet étant commutés, les valeurs des figures
suivantes correspondent aux limites pratiques entre les unités.
En 1000BASE-SX
En 1000BASE-LX
Il est fortement déconseillé de modifier les règles d'architecture de la norme 1000BASE-T. Avec une distance de
100 mètres, le matériel fonctionne à la limite de ses capacités pour récupérer le signal transmis. Tout problème de
câblage ou bruit peut empêcher le fonctionnement d'un câble conforme, même si la distance entre dans les limites
spécifiées.
Il est conseillé d'autoriser l'autonégociation pour toutes les liaisons entre une station et un concentrateur ou un
commutateur pour bénéficier des meilleures performances communes. Cela évitera des problèmes liés à une
configuration incorrecte des autres paramètres requis pour une bonne utilisation de Gigabit Ethernet
5. 10 Gigabit Ethernet
La norme IEEE 802.3ae a été adaptée pour inclure la transmission en mode full duplex de 10 Gbits/s sur un câblage à
fibre optique. Les similitudes de base entre les normes 802.3ae et 802.3, système Ethernet d'origine, peuvent être
facilement constatées.
Avec un format de trame et d'autres spécifications de couche 2 d'Ethernet conformes aux normes précédentes.
Les points communs et les différences entre la norme 10 Gigabit Ethernet et les autres versions de la technologie
Ethernet :
• Il est désormais possible de disposer de réseaux Ethernet de bout en bout flexibles, efficaces, fiables et
relativement peu onéreux.
• Le protocole TCP/IP peut être utilisé sur des réseaux LAN, MAN et WAN avec une méthode de transport de
couche 2.
La norme de base IEEE 802.3 prend en charge la méthode CSMA/CD. Un complément de cette norme (802.3ae) décrit
la technologie 10 Gigabit Ethernet. Comme cela est souvent le cas pour les nouvelles technologies, plusieurs
implémentations sont prises en compte :
• 10GBASE-SR : conçue pour les courtes distances sur des fibres optiques multimodes déjà installées, supporte
une distance de 26 à 82 m.
• 10GBASE-LX4 : utilise le multiplexage de longueurs d'onde, supporte une distance de 240 à 300 m sur des
fibres optiques multimodes déjà installées et 10 km sur des fibres optiques monomodes.
Page 7 sur 9
• 10GBASE-LR et 10GBASE-ER : supportent une distance de 10 km et 40 km respectivement sur des fibres
optiques monomodes.
• 10GBASE-SW, 10GBASE-LW et 10GBASE-EW : généralement appelées « 10GBase-W », conçues pour
fonctionner avec un équipement de réseaux WAN SONET et SDH, avec module de transport synchrone OC-
192.
7. Avenir d’Ethernet
La technologie Ethernet a connu l'évolution suivante : version initiale —> Fast —> Gigabit —> MultiGigabit. Alors
que d'autres technologies LAN sont toujours utilisées (installations existantes), la norme Ethernet est largement
employée dans les nouvelles installations LAN; à tel point que certains ont qualifié Ethernet de «tonalité» LAN.
Ethernet est désormais la norme pour les connexions horizontales, verticales et entre les bâtiments. Les dernières
versions d'Ethernet en cours de développement sont en train d'atténuer les différences existant entre les réseaux LAN,
MAN et WAN.
L’IEEE et l'alliance 10 Gigabit Ethernet travaillent sur les normes 40, 100 et
même 160 Gbits/s.
Résumé :
Page 8 sur 9
Ethernet est une technologie dont la vitesse a été multipliée par 1 000, de 10 à 10 000 Mbits/s, en moins d'une
décennie. Toutes les versions d'Ethernet présentent une structure de trame similaire, permettant une excellente
interopérabilité. La plupart des connexions en cuivre Ethernet sont désormais en mode full duplex commuté, et la
technologie Ethernet avec câblage en cuivre la plus rapide est 1000BASE-T, ou Gigabit Ethernet. La technologie
10 Gigabit Ethernet et les versions plus rapides utilisent essentiellement des fibres optiques.
Les technologies Ethernet 10BASE5, 10BASE2 et 10BASE-T sont considérées comme les versions initiales d'Ethernet.
Elles ont en commun quatre caractéristiques, à savoir les paramètres de synchronisation, le format de la trame, le
processus de transmission et la règle de conception de base.
Elles codent les données sur un signal électrique. La forme de codage utilisée dans les systèmes de 10 Mbits/s est
appelée « codage Manchester ». Ce type de codage repose sur les changements de tension pour représenter les
nombres binaires 0 et 1. Une hausse ou une baisse de la tension pendant une certaine durée (période de bits)
détermine la valeur binaire du bit.
Outre une période de bits standard, les normes Ethernet définissent des limites pour les tranches de temps et
l'espacement intertrame. La durée des transmissions est fonction du type de média utilisé et des normes de
synchronisation garantissent l'interopérabilité. La fenêtre temporelle de la technologie Ethernet de 10 Mbits/s se
caractérise par un ensemble pouvant comprendre jusqu'à cinq segments séparés par un maximum de quatre
répéteurs.
Le câble coaxial fin unique a été le premier support des systèmes Ethernet. La norme 10BASE2, qui utilise un câble
coaxiale plus fin, a été introduite en 1985. La norme 10BASE-T (fil en cuivre à paires torsadées) est apparue en 1990.
Cette dernière, qui comptait plusieurs fils, permit une signalisation en mode full duplex. La technologie 10BASE-T
prend en charge un trafic de 10 Mbits/s en mode half-duplex et de 20 Mbits/s en mode full duplex.
La longueur sans répéteur des liaisons 10BASE-T peut atteindre 100 m. Au-delà, les équipements de réseau, tels que
les répéteurs, les concentrateurs, les ponts ou les commutateurs, permettent d'accroître l'étendue du LAN. Avec
l'apparition des commutateurs, la règle des 4 répéteurs est apparue moins adaptée. Grâce aux commutateurs en
chaîne, il est possible d'étendre un LAN indéfiniment. Chaque connexion de commutateur à commutateur, avec une
longueur maximale de 100 m, constitue en fait une connexion de bout en bout sans les conflits d'accès aux médias ni
les problèmes de synchronisation liés à l'utilisation de répéteurs et de concentrateurs.
La technologie Ethernet 100 Mbits/s, ou Fast Ethernet, peut être mise en œuvre à l'aide d'un fil en cuivre à paires
torsadées (100BASE-TX, par exemple) ou avec un média à fibre optique (100BASE-FX, par exemple). Les réseaux
Ethernet 100 Mbits/s peuvent offrir un débit de 200 Mbits/s en mode full duplex.
La fréquence plus élevée des signaux Fast Ethernet augmentant le risque de bruit, deux étapes de codage distinctes
sont utilisées par l'Ethernet 100 Mbits/s pour améliorer l'intégrité du signal.
La technologie Gigabit Ethernet avec un câblage en cuivre est mise en œuvre de la façon suivante :
• Un câblage UTP de catégorie 5e et des améliorations électroniques prudentes permettent de passer d'un débit
de 100 à 125 Mbits/s par paire de fils.
• Les quatre paires de fils sont utilisées, et pas seulement deux d'entre elles. On obtient ainsi débit de
125 Mbits/s, soit 500 Mbits/s pour les quatre paires de fils.
• Des composants électroniques sophistiqués autorisent les collisions permanentes sur chaque paire de fil et
exécutent les signaux en mode full duplex, doublant ainsi le débit (de 500 à 1 000 Mbits/s).
Sur les réseaux Gigabit Ethernet, les signaux binaires se produisent en un dixième du temps des réseaux à 100 Mbits/s
et en un centième du temps des réseaux à 10 Mbits/s. La fréquence des signaux étant plus élevée, les bits risquent plus
de générer du bruit. Le problème consiste alors à déterminer à quelle vitesse la carte ou l'interface réseau peut
modifier les niveaux de tension pour émettre les signaux binaires de telle sorte qu'ils soient détectés de façon fiable à
une distance de 100 mètres, au niveau de l'interface ou de la carte réseau du récepteur. À cette vitesse, le codage et le
décodage des données deviennent encore plus complexes.
Les versions à fibre optique des systèmes Gigabit Ethernet, 1000BASE-SX et 1000BASE-LX présentent les avantages
suivants : elles ne génèrent pas de bruit, leur taille est réduite, elles permettent de disposer de bandes passantes plus
larges et elles autorisent des distances non répétées plus grandes. La norme IEEE 802.3 recommande d'utiliser la
norme Gigabit Ethernet sur des fibres optiques pour le backbone
Page 9 sur 9
Module 8 : Commutation Ethernet
Les objectifs :
1. Définir les notions de pontage et de commutation. 2. Définir et décrire une table de mémoire associative (CAM,
Content Addressable Memory).
3. Définir le temps de latence. 4. Présenter les modes de commutation par paquets «Store and
Forward » et « Cut-through».
5. Expliquer le protocole d'acheminement STP (Spanning-Tree 6. Définir les collisions, les broadcasts et les domaines
Protocol). correspondants.
7. Identifier les équipements de couche 1, 2 et 3 utilisés pour 8. Aborder la question du flux de données et les problèmes liés
créer les domaines de collision et de broadcast. au broadcast.
9. Décrire la segmentation de réseau et répertorier les
équipements utiles à la création de segments.
I. Commutation Ethernet
1. Pontage au niveau de la couche 2
Plus le nombre de nœuds situés sur un segment Ethernet augmente, plus le média est utilisé. Ethernet étant un média
partagé, un seul nœud à la fois peut transmettre des données. L'ajout de nœuds entraîne un besoin croissant de bande
passante et occasionne des charges supplémentaires sur le média. En outre, la probabilité de collisions est plus forte,
ce qui entraîne davantage de retransmissions. L'une des solutions consiste à fragmenter le segment principal en
plusieurs parties et à le diviser en domaines de collision distincts.
Pour ce faire, on utilise un pont qui établira une table de correspondance entre les adresses MAC et les ports associés.
Le pont transmet ensuite les trames, ou les rejette, en fonction des entrées de la table.
Fonctionnement d’un pont :
1. Lorsqu'un pont vient d'être installé, sa table est vide. Le pont attend le transfert de données sur le segment.
Dès qu'une transmission est détectée, le pont la traite.
2. L'hôte A émet une requête ping vers l'hôte B. Les données étant transmises sur l'ensemble du segment de
domaine de collision, le pont et l'hôte B traitent le paquet.
3. Le pont ajoute l'adresse source de la trame à sa table de pontage. Sachant que l'adresse se trouve dans le
champ d'adresse source et que la trame est reçue sur le port 1, la trame doit être associée au port 1 dans la
table.
4. L'adresse de destination de la trame est comparée à toutes les adresses de la table de pontage. Bien que les
deux adresses se trouvent dans le même domaine de collision, si l'adresse de destination ne se trouve pas dans
la table, la trame est transférée vers le segment suivant. L'adresse de l'hôte B n'est pas encore enregistrée.
5. L'hôte B traite la requête ping et transmet la réponse à l'hôte A. Les données sont alors transmises à l'ensemble
du domaine de collision. L'hôte A et le pont reçoivent la trame et procèdent à son traitement.
6. Le pont ajoute l'adresse source de la trame à sa table de pontage. Sachant que l'adresse source ne se trouve pas
dans la table de pontage et qu'elle a été reçue sur le port 1, l'adresse source de la trame doit être associée au
port 1 dans la table.
7. L'adresse de destination de la trame est comparée à toutes les adresses de la table de pontage afin de vérifier si
elle s'y trouve. L'adresse étant dans la table, le numéro de port est vérifié. L'adresse de l'hôte A est associée au
port sur lequel la trame a été reçue. Par conséquent, la trame n'est pas transmise.
8. L'hôte A émet une requête ping vers l'hôte C. Les données étant transmises sur l'ensemble du segment de
domaine de collision, le pont et l'hôte B traitent la trame. L'hôte B rejette la trame car elle ne lui était pas
destinée.
9. Le pont ajoute l'adresse source de la trame à sa table de pontage. L'adresse existant déjà dans la table de
pontage, l'entrée est seulement renouvelée.
10. L'adresse de destination de la trame est comparée à toutes les adresses de la table de pontage. L'adresse
n'étant pas dans la table, la trame est transmise au segment suivant. L'adresse de l'hôte C n'est pas encore
enregistrée.
11. L'hôte C traite la requête ping et transmet la réponse à l'hôte A. Les données sont alors transmises à l'ensemble
du domaine de collision. L'hôte D et le pont reçoivent la trame et procèdent à son traitement. L'hôte D rejette
la trame car elle ne lui était pas destinée.
12. Le pont ajoute l'adresse source de la trame à sa table de pontage. Sachant que l'adresse se trouve dans le
champ d'adresse source et que la trame est reçue sur le port 2, la trame doit être associée au port 2 dans la
table.
Page 1 sur 8
13. L'adresse de destination de la trame est comparée à toutes les adresses de la table de pontage afin de vérifier si
elle s'y trouve. L'adresse se trouve dans la table, mais elle est associée au port 1. Par conséquent, la trame est
transmise au segment suivant.
14. Lorsque l'hôte D transmet les données, son adresse MAC est également enregistrée dans la table de pontage.
C'est sur la base de ce principe que le pont contrôle le trafic entre les domaines de collision.
En règle générale, un pont comprend deux ports et subdivise un domaine de collision en deux segments. Les décisions
prises par un pont dépendent uniquement des adresses MAC (ou adresses de couche 2) et n’affectent pas les adresses
de couche 3 (ou adresses logiques). Un pont subdivise un domaine de collision, mais il n'a aucun effet sur le domaine
logique ou de broadcast.
Un pont crée davantage de domaines de collision, mais n'ajoute pas de domaine de broadcast.
Un commutateur est un pont doté de plusieurs ports. Lorsqu'un seul nœud est
connecté à un port de commutation, le domaine de collision du média partagé
ne contient que deux nœuds. Les deux nœuds de ce petit segment, ou domaine
de collision, se composent du port de commutation et de l'hôte qui lui est
associé. Ces petits segments physiques sont appelés des microsegments.
La mémoire CAM effectue l'opération inverse des
mémoires traditionnelles. Un contenu est fourni à
la mémoire et l'adresse correspondante est
récupérée. Cette mémoire permet à un
commutateur de rechercher un port associé à une
adresse MAC sans algorithme de recherche. Un
circuit intégré à application spécifique (ASIC) est
un circuit intégré doté de fonctionnalités
personnalisées pour un usage particulier (matériel
ou projet) et non un usage générique. Un ASIC
permet à des fonctions logicielles d’être effectuées
de façon matérielle. Ces technologies ont permis
de réduire, de façon notable, les retards causés par
les processus logiciels.
4. Latence
Plusieurs causes peuvent être à l'origine de ces retards :
• Les retards au niveau des médias peuvent être causés par la vitesse finie de propagation des signaux dans le
média physique.
• Les retards au niveau des circuits peuvent être causés par les composants électroniques qui traitent le signal
tout au long du chemin.
• Les retards au niveau des applications peuvent être causés par les décisions prises par les logiciels pour
implémenter la commutation et les protocoles.
Page 2 sur 8
• Les retards peuvent être causés par le contenu de la trame et l'emplacement des décisions relatives à la
commutation de la trame. Par exemple, un équipement ne peut pas acheminer une trame vers une destination
tant que l'adresse MAC de destination n'a pas été identifiée.
5. Modes de commutation
Page 3 sur 8
accidentellement et elles peuvent provoquer des
tempêtes de broadcasts qui risquent de submerger
rapidement le réseau.
Le protocole STP est un protocole de routage normalisé qui permet d'éviter les boucles de routage. Chaque
commutateur d'un réseau LAN qui utilise le protocole STP envoie un message appelé BDPU (Bridge Protocol Data Unit)
par le biais de tous ses ports afin que les autres commutateurs soient informés de son existence. Les informations
contenues dans ce message sont alors utilisées pour désigner le pont racine du réseau. Les commutateurs utilisent
l'algorithme «spanning-tree» pour résoudre les chemins redondants.
• Environnement de média partagé : plusieurs hôtes ont accès au même média. Par exemple, si plusieurs PC
sont connectés au même fil physique ou au même câble à fibre optique, ils partagent le même environnement
de média.
• Environnement de média partagé étendu : type particulier d'environnement de média partagé où des
équipements de réseau étendent leur environnement de manière qu'il prenne en charge plusieurs accès ou des
câbles plus longs.
• Environnement de réseau point à point : environnement réseau très répandu dans les réseaux commutés et
chez les télétravailleurs. Il s'agit d'un environnement réseau partagé où un équipement est directement
connecté à un seul autre équipement. Un PC connecté à un fournisseur d'accès Internet à l'aide d'une ligne
téléphonique et d'un modem en constitue un exemple.
Les collisions ne se produisent que dans les environnements partagés.
On appelle domaines de collision des segments du réseau physique dans lesquels des collisions peuvent se produire.
Les collisions rendent le réseau inefficace. Chaque fois qu'une collision survient sur un réseau, les transmissions
s'interrompent momentanément. La durée de cette interruption est variable et est fonction d'un algorithme de
réémission temporisée pour chaque équipement du réseau.
Les types d'équipements assurant l'interconnexion des segments de médias définissent les domaines
de collision. Ces équipements sont des équipements de couche OSI 1, 2 ou 3. Les équipements de
couche 2 et 3 segmentent les domaines de collision. Ce processus est d'ailleurs appelé
«segmentation».
Cependant, chaque hôte ajouté augmente la quantité de trafic potentiel sur le réseau. Les équipements de couche 1
transmettent la totalité des données qui sont reçues sur le média. Plus le trafic est dense dans un domaine de collision,
plus les risques de collision sont importants. Il en résulte une diminution des performances du réseau, qui sera
Page 4 sur 8
d'autant plus significative si tous les ordinateurs consomment une grosse quantité de bande passante. Les équipements
de couche 1 peuvent être à l'origine de collisions en raison d'une augmentation trop importante du réseau LAN.
La règle dite de «5-4-3-2-1» requiert que les conditions suivantes soient respectées :
• Cinq segments de média réseau.
• Quatre répéteurs ou concentrateurs.
• Trois segments hôte de réseau;
• Deux sections de liaison sans hôte.
• Un grand domaine de collision.
3. Segmentation
- Un domaine de collision est créé lorsque plusieurs ordinateurs sont connectés à un même média partagé qui n'est pas
relié aux autres équipements du réseau. Cette situation limite le nombre des ordinateurs qui peuvent utiliser le
segment. Les équipements de couche 1 permettent d'étendre les domaines de collision, mais pas de les contrôler.
- Les équipements de couche 2 segmentent ou divisent les domaines de collision. Ils utilisent les adresses MAC
affectées à chaque équipement Ethernet pour effectuer le contrôle de propagation de la trame. Les équipements de
couche 2 sont des ponts et des commutateurs qui permettent d'effectuer le suivi des adresses MAC et de leurs
segments. Ainsi, les équipements peuvent contrôler le flux de trafic au niveau de la couche 2. Grâce à cette
caractéristique, les réseaux s'avèrent plus efficaces. Cela permet au réseau de transporter des données simultanément
sur différents segments sans collisions. Les ponts et les commutateurs subdivisent les domaines de collision en
éléments plus petits. Chaque élément devient alors son propre domaine de collision.
- Les équipements de couche 2 et 3 ne transmettent pas les collisions. Les équipements de couche 3 subdivisent les
domaines de collision en domaines plus petits.
Les équipements de couche 2 doivent diffuser la totalité du trafic de broadcasts et de multicast. L'accumulation du
trafic de broadcasts et de multicast de chaque équipement du réseau s'appelle le rayonnement de diffusion (broadcast
radiation). Il arrive alors que le réseau soit saturé au point que les données d'application ne disposent plus d'une bande
passante suffisante.
Les stations de travail diffusent une requête ARP (Address Resolution Protocol) chaque fois qu'elles doivent localiser une
adresse MAC qui ne se trouve pas dans la table ARP.
Les protocoles de routage qui sont configurés sur un réseau peuvent augmenter de manière significative le trafic de
broadcasts. Certains administrateurs configurent la totalité des stations de travail de sorte qu'elles utilisent le
protocole RIP (Routing Information Protocol) comme garantie d'accessibilité et de redondance. Toutes les 30 secondes, le
protocole RIPv1 utilise les broadcasts pour transmettre la table de routage RIP complète vers d'autres routeurs RIP.
Les routeurs opèrent au niveau des couches 1, 2 et 3. À l'instar de tous les équipements de couche 1, les routeurs
disposent d'une connexion physique et transmettent les données sur le média. En outre, les routeurs procèdent à
l'encapsulation de couche 2 sur toutes les interfaces et effectuent les mêmes opérations que les autres équipements de
couche 2. La couche 3 permet aux routeurs de segmenter les domaines de broadcast.
Pour qu'un paquet puisse être envoyé via un routeur, celui-ci doit déjà avoir été traité par un équipement de couche 2
et les informations relatives à la trame doivent avoir été éliminées. La transmission de couche 3 est fonction de
l'adresse IP de destination et non de l'adresse MAC. Pour qu'un paquet soit envoyé, celui-ci doit contenir une
adresse IP qui n'appartienne pas à la plage d'adresses affectées au réseau LAN et le routeur doit disposer de la
destination du paquet dans sa table de routage.
Page 6 sur 8
Dans le contexte des domaines de collision et de
broadcast, les flux de données sont principalement
axés sur la propagation des trames de données dans
un réseau. Cette notion décrit les mouvements de
données dans les équipements de couche 1, 2 et 3,
ainsi que la façon dont les données sont
encapsulées pour être acheminées.
Voici la règle expliquant la différence : un équipement de couche 1 transmettra toujours une trame, alors qu’un
équipement de couche 2 essayera toujours de la transmettre. En d’autres mots, l'équipement de couche 2 transmet
toujours les trames à moins qu'un événement ne l'en empêche. Un équipement de couche 3 ne transmet pas de trame à
moins d'y être obligé. L’utilisation de cette règle permet d’identifier comment les données sont acheminées sur un
réseau.
Les équipements de couche 1 n'effectuent pas de filtrage. Par conséquent, la totalité des données reçues est transmise
au segment suivant. La trame est simplement régénérée et resynchronisée afin de retrouver sa qualité de transmission
initiale. Tous les segments reliés par des équipements de couche 1 appartiennent au même domaine (collision et
broadcast).
Les équipements de couche 2 filtrent les trames de données en fonction des adresses MAC de destination. Une trame
est transmise s'il s'agit d'une adresse inconnue qui se trouve en dehors du domaine de collision. La trame est
également transmise s'il s'agit d'une adresse de broadcast, de multicast ou d'unicast devant être acheminée en dehors
du domaine de collision local. La non-transmission d'une trame se produit uniquement dans le cas où un équipement
de couche 2 détecte que l'hôte émetteur et l'hôte récepteur se trouvent dans le même domaine de collision. Un
équipement de couche 2, tel qu'un pont, crée plusieurs domaines de collision, mais ne gère qu'un seul domaine de
broadcast.
Les équipements de couche 3 filtrent les paquets de données en fonction des adresses IP de destination. Un paquet
sera transmis uniquement si son adresse IP de destination est en dehors du domaine de broadcast et que le routeur a
identifié l'adresse à laquelle envoyer le paquet. Un équipement de couche 3 crée plusieurs domaines de collision et de
broadcast.
Le flux des données transitant sur un réseau de routage IP implique le passage des données par des équipements de
gestion du trafic au niveau des couches 1, 2 et 3 du modèle OSI : la couche 1 sert à la transmission des données sur le
média physique, la couche 2 à la gestion du domaine de collision et la couche 3 à la gestion du domaine de broadcast.
Dans le domaine des échanges informatiques, la définition d'un segment est la suivante :
• Section d’un réseau reliée par des ponts, des routeurs ou des commutateurs.
• Dans un réseau local à topologie de bus, un segment est un circuit électrique continu souvent connecté à
d’autres segments de même type par des répéteurs.
• C’est aussi un terme utilisé dans la spécification TCP pour décrire une unité d’information de la couche de
transport. Les termes datagramme, trame, message et paquets sont aussi utilisés pour décrire des
regroupements logiques de données au niveau de différentes couches du modèle de référence OSI dans divers
cercles technologiques
Si un segment est utilisé dans le contexte du protocole TCP, celui-ci est défini comme un élément de données séparé.
Si un segment est utilisé dans le contexte d'un média réseau physique basé sur des routeurs, il est considéré comme
étant l'une des parties, ou sections, du réseau complet.
Page 7 sur 8
Page 8 sur 8
Module 9 : Pile de protocoles TCP/IP et
adressage IP
Les objectifs :
1. Expliquer le principe d'Internet et l'adéquation du protocole 2. Décrire les quatre couches du modèle TCP/IP.
TCP/IP avec celui-ci.
3. Spécifier les fonctions de chaque couche du modèle TCP/IP. 4. Comparer les modèles OSI et TCP/IP.
5. Présenter la fonction et la structure des adresses IP. 6. Définir le rôle des sous-réseaux.
7. Présenter les différences entre l'adressage privé et l'adressage 8. Identifier la fonction des adresses IP réservées.
public.
9. Expliquer l'utilisation de l'adressage dynamique et statique 10. Définir le mécanisme des adresses dynamiques avec les
d'un équipement. protocoles RARP, BOOTP et DHCP.
11. Utiliser le protocole ARP pour que l'adresse MAC envoie un 12. Appréhender les problèmes liés à l'adressage réseau.
paquet à un autre équipement.
Le ministère américain de la Défense (DoD) a développé le modèle de référence TCP/IP, car il avait besoin d'un réseau
pouvant résister à toutes les situations.
Les quatre couches du modèle TCP/IP sont les suivantes : la couche application, la couche transport, la couche
Internet et la couche d'accès au réseau. Certaines couches du modèle TCP/IP portent le même nom que celles du
modèle OSI. Il est essentiel de ne pas confondre les fonctions des couches, car ces dernières jouent des rôles différents
dans chaque modèle.
2. La couche application
La couche application gère les protocoles de niveau supérieur, les
représentations, le code et le contrôle du dialogue. La pile de protocoles
TCP/IP regroupe en une seule couche la totalité des aspects liés aux
applications et vérifie que les données sont préparées de manière
adéquate pour la couche suivante.
• Le protocole NFS (Network File System) : ce protocole est un ensemble de protocoles pour systèmes de fichiers
distribués, développé par Sun Microsystems, permettant un accès aux fichiers d'un équipement de stockage
distant, tel qu'un disque dur, dans un réseau.
• Le protocole SMTP (Simple Mail Transfer Protocol) : ce protocole régit la transmission du courrier électronique
sur les réseaux informatiques. Il ne permet pas de transmettre des données autres que du texte en clair.
• Telnet: ce protocole permet d'accéder à distance à un autre ordinateur. Cela permet à un utilisateur d’ouvrir une
session sur un hôte Internet et d’exécuter diverses commandes. Un client Telnet est qualifié d'hôte local. Un
serveur Telnet est qualifié d'hôte distant.
• Le protocole SNMP (Simple Network Management Protocol) : ce protocole permet de surveiller et de contrôler
les équipements du réseau, ainsi que de gérer les configurations, les statistiques, les performances et la sécurité.
Page 1 sur 9
• Le protocole DNS (Domain Name System): ce protocole est utilisé par Internet pour convertir en adresses IP les
noms de domaine et leurs nœuds de réseau annoncés publiquement.
3. La couche transport
La couche transport fournit une connexion logique entre les hôtes source et de destination. Les protocoles de transport
segmentent et rassemblent les données envoyées par des applications de couche supérieure en un même flux de
données, ou connexion logique, entre les deux points d'extrémité.
Le rôle principal de la couche transport est d'assurer une fiabilité et un contrôle de bout en bout
lors du transfert des données à travers ce nuage. Les fenêtres glissantes, les numéros de
séquençage et les accusés de réception permettent d'obtenir ce résultat. La couche transport
définit également une connectivité de bout en bout entre les applications hôtes. Les protocoles
de la couche transport incluent les protocoles TCP et UDP.
Le rôle des protocoles TCP et UDP est le suivant:
• Segmenter les données d'application de couche
supérieure.
• Envoyer des segments d’un équipement à un autre.
4. La couche Internet
Le rôle de la couche Internet consiste à sélectionner le meilleur chemin pour transférer les paquets
sur le réseau. Le principal protocole de cette couche est le protocole IP. La détermination du
meilleur chemin et la commutation de paquets ont lieu au niveau de cette couche.
Page 2 sur 9
La couche d'accès au réseau permet à un paquet IP d'établir une liaison physique avec un média
réseau. Cela comprend les détails sur les technologies LAN et WAN, ainsi que toutes les
informations contenues dans les couches physique et liaison de données du modèle OSI.
En outre, les protocoles de la couche d'accès au réseau mappent les adresses IP avec les adresses matérielles physiques
et encapsulent les paquets IP dans des trames. La couche d'accès au réseau définit la connexion au média physique en
fonction de l'interface réseau et du type de matériel utilisés.
7. L’architecture d’Internet
Internet fait appel au principe d'interconnexion de la couche réseau. L'objectif est de développer les fonctionnalités du
réseau dans des modules séparés. Cela permet d'utiliser différentes technologies LAN pour les couches 1 et 2 du
modèle OSI et différentes applications pour les couches 5, 6 et 7. Le modèle OSI offre un système dans lequel les
caractéristiques des couches supérieures et inférieures sont indépendantes. Dès lors, les équipements de réseau
intermédiaires auront la permission de relayer le trafic sans avoir de détails sur le LAN.
Ce qui nous amène au concept d'interréseaux, ou de réseaux composés de plusieurs réseaux. Un réseau qui comprend
plusieurs réseaux s'appelle un interréseau. Le réseau sur lequel le Web (www) s'exécute s'appelle Internet. Les
interréseaux doivent être modulables en fonction du nombre de réseaux et d'ordinateurs qui leur sont associés. En
outre, les interréseaux doivent être capables de gérer l'acheminement des données sur de longues distances. Un
interréseau doit être relativement flexible pour pouvoir assimiler les continuelles évolutions technologiques. Il doit
être capable de s'adapter aux conditions dynamiques du réseau. Par ailleurs, les interréseaux doivent se révéler
économiques. Ils doivent être conçus de manière à autoriser tout utilisateur à envoyer des données vers n'importe
quelle destination, et ce à tout moment.
Page 3 sur 9
L'une des solutions consiste pour le routeur à établir une liste répertoriant tous les ordinateurs et leur chemin d'accès.
Le routeur sélectionne ensuite la méthode d'envoi des paquets de données en fonction de cette table de référence. Les
paquets sont alors envoyés en fonction de l'adresse IP de l'ordinateur de destination. Néanmoins, plus le nombre
d'utilisateurs connectés au réseau augmente, plus cette solution s'avère compliquée. La notion d'évolutivité apparaît
lorsque le routeur détient une liste de tous les réseaux, mais qu'il laisse la responsabilité de l'acheminement local aux
réseaux physiques locaux. Dans ce cas, les routeurs transmettent les messages à d'autres routeurs. Chaque routeur
partage des informations relatives à son réseau connecté.
Un ordinateur peut être connecté à plusieurs réseaux. Si tel est le cas, le système doit recevoir plusieurs adresses.
Chaque adresse identifie la connexion d'un ordinateur à un réseau différent. Chaque point de connexion, ou interface,
d'un équipement dispose d'une adresse associée à un réseau. Cela permet à d'autres ordinateurs de localiser cet
équipement sur un réseau spécifique. La combinaison d'une adresse réseau et d'une adresse hôte crée une adresse
unique pour chaque équipement du réseau. Tout ordinateur appartenant à un réseau TCP/IP doit disposer d'un
identificateur unique, ou adresse IP. Cette adresse, qui intervient au niveau de la couche 3, permet à un ordinateur de
localiser un autre ordinateur sur le réseau. Tous les ordinateurs possèdent également une adresse physique unique,
également appelée «adresse MAC». Celle-ci est attribuée par le fabricant de la carte réseau. Les adresses MAC opèrent
au niveau de la couche 2 du modèle OSI.
Cf. module 1.
3. Adressage IPv4
Un routeur fait appel à une adresse IP pour transmettre des paquets du réseau d'origine vers le réseau de destination.
Les paquets doivent comporter un identificateur pour les réseaux source et de destination. Un routeur utilise
l'adresse IP du réseau de destination afin de remettre le paquet au réseau approprié. Lorsque le paquet atteint un
routeur connecté au réseau de destination, ce routeur localise l'ordinateur sur le réseau à l'aide de l'adresse IP. Ce
système fonctionne pratiquement de la même manière que le système postal national. Une fois le courrier envoyé, le
code postal est utilisé pour remettre le courrier au bureau de poste de la ville de destination. Le bureau de poste utilise
ensuite la rue pour localiser la destination finale au niveau de la ville.
Chaque adresse IP comporte également deux parties. La première partie identifie le réseau auquel le système est
connecté et la seconde partie identifie le système.
Les adresses IP sont réparties en classes afin de définir des réseaux de grande taille, de taille moyenne et de petite
taille. Les adresses IP de classe A sont affectées aux réseaux de grande taille. Les adresses de classe B sont utilisées
pour les réseaux de taille moyenne et les adresses IP de classe C pour les réseaux de petite taille
4. Adresses IP de classe A, B, C, D, et E
Page 4 sur 9
Les adresses IP sont regroupées en classes afin de permettre l'adaptation
à des réseaux de différentes tailles et de faciliter leur classification. Cette
opération est connue sous le nom d'adressage par classes. Chaque
adresse IP complète de 32 bits est fractionnée en une partie réseau et
une partie hôte. Un bit, ou une séquence de bits, situé en début
d'adresse détermine la classe de l'adresse.
Il existe cinq classes d'adresses IP.
5. Adresses IP réservées
• Une adresse de broadcast – pour diffuser des paquets vers tous les équipements d'un réseau.
Page 5 sur 9
La section identifiée par la zone supérieure
représente l'adresse de broadcast 198.150.11.255.
Les données envoyées à l'adresse de broadcast
seront lues par tous les hôtes du réseau, de
198.150.11.1 à 198.150.11.254. Le LAN inclus
dans la zone inférieure est traité de la même
façon que le LAN supérieur, mais son adresse
de broadcast est 198.150.12.255.
À l'origine, un organisme portant le nom d'InterNIC (Internet Network Information Center) était chargé de cette
vérification. Celui-ci n'existe plus et a été remplacé par l'IANA (Internet Assigned Numbers Authority). L'IANA gère
scrupuleusement les adresses IP disponibles afin de garantir qu'une même adresse publique n'est pas utilisée deux
fois. En cas de doublons d'adresses, Internet devient instable et ses capacités à transmettre des datagrammes sur le
réseau sont compromises.
Chaque adresse IP publique étant unique, deux ordinateurs connectés à un réseau public ne peuvent pas avoir la
même adresse IP publique. Les adresses IP publiques sont mondiales et normalisées. Tous les ordinateurs connectés à
Internet se conforment au système. Les adresses IP publiques doivent être obtenues auprès d'un fournisseur d'accès
Internet (FAI) ou d'un registre moyennant une participation.
Avec la croissance rapide d'Internet est apparu le problème de pénurie d'adresses IP publiques. Pour résoudre ce
problème, de nouveaux systèmes d'adressage, notamment le routage CIDR (Classless interdomain routing) et la norme
IPv6, ont été développés
Les adresses IP privées constituent une solution de rechange au problème de pénurie des adresses IP publiques.
Comme précédemment indiqué, les hôtes d'un réseau public doivent disposer d'une adresse IP unique. Néanmoins, les
réseaux privés qui ne sont pas connectés à Internet peuvent utiliser n'importe quelle adresse hôte, dès lors que chacun
des hôtes du réseau privé est unique. Un grand nombre de réseaux privés coexistent avec les réseaux publics.
Cependant, il est vivement déconseillé d'avoir recours à un réseau privé utilisant une adresse quelconque, car ce réseau
peut être connecté à Internet
La connexion d'un réseau à Internet par le biais d'adresses publiques nécessite la conversion des adresses privées en
adresses publiques. Ce processus de conversion est appelé «NAT» (Network Address Translation). L'équipement chargé
d'exécuter le système NAT est généralement un routeur.
Le découpage en sous-réseaux constitue l'une des solutions de gestion des adresses IP. Cette méthode, basée sur la
fragmentation de classes d'adresses réseau entières en composants plus petits, a permis d'éviter la pénurie
d'adresses IP. Il est impossible de traiter du protocole TCP/IP sans aborder la question des sous-réseaux. En tant
qu'administrateur système, il est primordial d'appréhender la notion de découpage en sous-réseaux afin de pouvoir
subdiviser un LAN et y identifier les différents réseaux. Dans le cas de réseaux de petite taille, il n'est pas toujours utile
de créer des sous-réseaux. En revanche, dans le cadre des réseaux de grande à très grande taille, cette opération
s'impose. Le découpage d'un réseau en sous-réseaux implique l'utilisation du masque de sous-réseau afin de
fragmenter un réseau de grande taille en segments (ou sous-réseaux) plus petits, plus faciles à gérer et plus efficaces.
On pourrait établir une comparaison avec le système téléphonique américain qui se compose d'un indicatif régional,
d'un indicatif de central et de numéros locaux.
L'administrateur système doit réfléchir aux problèmes suivants lors de l'évolution d'un réseau: il est essentiel de définir
le nombre de sous-réseaux ou de réseaux requis, ainsi que le nombre d'hôtes requis par réseau. En utilisant des sous-
Page 6 sur 9
réseaux, le réseau n'est pas limité aux masques de réseau de classe A, B ou C par défaut. En outre, la conception du
réseau est plus flexible.
Les adresses de sous-réseau contiennent une partie réseau, plus un champ de sous-réseau et un champ d’hôte. Le
champ de sous-réseau et le champ d'hôte sont créés à partir de la partie hôte d'origine pour l'ensemble du réseau.
L’administrateur réseau jouit d’une grande souplesse d’adressage dans la mesure où il peut déterminer la façon dont la
partie hôte d’origine sera subdivisée pour créer les nouveaux champs de sous-réseau et d’hôte.
Pour créer une adresse de sous-réseau, l’administrateur réseau emprunte des bits au champ d’hôte et les désigne
comme champ de sous-réseau. Le nombre minimal de bits pouvant être empruntés est deux. Lors de la création d'un
sous-réseau pour lequel un seul bit a été emprunté, le numéro de réseau est .0, tandis que le numéro de broadcast est le
réseau .255.
Lors de son adoption dans les années 80, le protocole TCP/IP s'appuyait
sur un système d'adressage à deux niveaux. Ses possibilités d'évolution
étaient alors parfaitement adaptées. Malheureusement, ses concepteurs
ne pouvaient pas prévoir qu'il allait soutenir un réseau mondial dédié à
l'information, aux échanges commerciaux et au divertissement. Dans les
années 80, la stratégie d'adressage proposée par la version IPv4 s'avérait
relativement évolutive. Néanmoins, elle ne réussit pas à satisfaire les
exigences liées à l'attribution des adresses.
Les adresses de classe A et B représentent 75% de l'espace d'adresses
IPv4. Toutefois, moins de 17 000 organisations peuvent recevoir un
numéro de réseau de classe A ou B. Le nombre d'adresses réseau de
classe C est nettement plus important que celui des adresses de classe A
et B, bien qu'il ne représente que 12,5 % des quatre milliards
d'adresses IP disponibles.
Dès 1992, le groupe IETF (Internet Engineering Task Force) a identifié deux problèmes :
• La diminution inquiétante des adresses réseau IPv4 disponibles. À l'époque, l'espace d'adresses de classe B
était sur le point d'être saturé.
• La hausse importante et rapide du volume des tables de routage d'Internet en raison de l'augmentation du
nombre de connexions des réseaux de classe C. Ce déferlement de nouvelles informations réseau constituait
une menace pour le bon fonctionnement des routeurs Internet.
Au cours des deux dernières décennies, plusieurs
extensions de la norme IPv4 ont été développées.
Celles-ci étaient spécifiquement conçues pour
optimiser l'espace des adresses 32 bits.
Cette version devrait ainsi couvrir l'intégralité des besoins en communication pour les années à venir.
Les adresses IPv4 ont une longueur de 32 bits et sont exprimées en notation décimale avec des points de séparation.
Les adresses IPv6 ont une longueur de 128 bits et constituent un identifiant pour une interface ou un ensemble
d'interfaces. Les adresses IPv6 sont affectées à des interfaces et non à des nœuds. Dans la mesure où chaque interface
appartient à un nœud unique, toutes les adresses d'unicast attribuées aux interfaces du nœud peuvent être utilisées
comme identifiant du nœud. Les adresses IPv6 sont exprimées au format hexadécimal avec des deux-points de
séparation. Les champs IPv6 ont une longueur de 16 bits. Afin de faciliter la lecture des adresses, il est possible
d'omettre les zéros de tête dans chaque champ.
Page 7 sur 9
1. Obtention d'une adresse internet
Les adresses IP sont les adresses les plus fréquemment utilisées pour les communications Internet. Ce protocole, basé
sur un système d'adressage hiérarchique, permet d'associer des adresses individuelles entre elles et de les traiter en
tant que groupes. Ce groupement d'adresses assure un transfert efficace des données sur Internet.
Les administrateurs réseau font appel à deux méthodes différentes pour affecter les adresses IP. Il s'agit des méthodes
statique et dynamique.
L'attribution statique convient particulièrement aux réseaux de petite taille qui subissent peu de changements.
L'administrateur système effectue manuellement les opérations d'affectation et de suivi des adresses IP pour chaque
ordinateur, imprimante ou serveur de l'intranet.
Les serveurs doivent recevoir une adresse IP statique de sorte que les stations de travail et les autres équipements
puissent toujours accéder aux services requis.
Le protocole RARP associe des adresses MAC connues à des adresses IP. Cette association permet à certains
équipements d’encapsuler les données avant de les envoyer sur le réseau. Un équipement réseau, tel qu'une station de
travail sans disque dur local, peut connaître son adresse MAC mais ignorer son adresse IP. Le protocole RARP permet
à l'équipement de lancer une requête afin de connaître son adresse IP. Les équipements utilisant le protocole de
résolution inverse d'adresses requièrent un serveur RARP pour répondre aux requêtes de ce protocole.
Le protocole de résolution inverse d'adresses utilise le même format de paquet que le protocole ARP. Cependant, dans
une requête RARP, les en-têtes MAC et le code de fonctionnement sont différents de ceux d'une requête ARP. La
structure du paquet RARP contient des champs pour les adresses MAC des équipements d'origine et de destination. Le
champ de l’adresse IP d'origine est vide. Le message de broadcast est envoyé à tous les équipements du réseau. L
Le protocole BOOTP fonctionne dans un environnement client-serveur et ne requiert qu'un seul échange de paquet
pour obtenir des informations sur le protocole IP. Contrairement au protocole RARP, les paquets BOOTP peuvent
contenir l'adresse IP, l'adresse du routeur, l'adresse du serveur ainsi que des informations spécifiques du fournisseur.
L'un des problèmes du protocole BOOTP est de ne pas avoir été conçu pour l'attribution dynamique d'adresses. Il
permet à un administrateur réseau de créer un fichier de configuration qui définit les paramètres de chaque
équipement. L'administrateur doit ajouter les hôtes et tenir à jour la base de données BOOTP. Bien que les adresses
soient attribuées de manière dynamique, il existe une relation biunivoque entre le nombre d'adresses IP et le nombre
d'hôtes. Autrement dit, à chaque hôte du réseau doit correspondre un profil BOOTP comportant une adresse IP. Deux
profils ne peuvent pas partager une même adresse IP. Ces profils pourraient être utilisés simultanément, ce qui
signifierait que deux hôtes disposent d'une même adresse IP.
Un équipement utilise le protocole BOOTP au démarrage pour obtenir une adresse IP. BOOTP utilise la couche UDP
pour transporter les messages. Le message UDP est encapsulé dans un paquet IP. Un ordinateur utilise le
protocole BOOTP pour envoyer un paquet IP de broadcast en utilisant une adresse IP de destination constituée de tous
les 1 binaires (255.255.255.255 en notation décimale séparée par des points). Un serveur BOOTP reçoit le message de
broadcast, puis en envoie un à son tour. Le client reçoit une trame et vérifie l’adresse MAC. Si le client trouve sa propre
adresse MAC dans le champ d'adresse de destination et une adresse de broadcast dans le champ de destination IP, il
enregistre et stocke l'adresse IP ainsi que toutes les informations fournies dans le message de réponse BOOTP.
Le protocole DHCP a été proposé pour succéder au protocole BOOTP. Contrairement au protocole BOOTP, le
protocole DHCP permet à un hôte d'obtenir une adresse IP de manière dynamique sans que l'administrateur réseau ait
à définir un profil pour chaque équipement. Avec le protocole DHCP, il suffit qu’une plage d’adresses IP soit définie
sur un serveur DHCP. Lorsque les ordinateurs se connectent, ils communiquent avec le serveur DHCP et demandent
une adresse. Le serveur DHCP choisit une adresse et l’affecte à l'ordinateur hôte. Grâce au protocole DHCP, la
configuration réseau tout entière d'un ordinateur peut être obtenue dans un seul message. Cela comprend les données
fournies par le message BOOTP, plus une adresse IP allouée et un masque de sous-réseau.
Le protocole DHCP dispose d'un avantage majeur sur le protocole BOOTP, car il permet aux utilisateurs d'être
mobiles. Les utilisateurs peuvent changer de connexion réseau d'un emplacement à l'autre, et ce en toute liberté. Il n'est
plus nécessaire d'utiliser un profil fixe pour chaque équipement relié au réseau, comme cela était le cas avec le système
BOOTP. Cette évolution revêt une importance particulière dans la mesure où le protocole DHCP peut octroyer une
adresse IP à un équipement, puis utiliser cette même adresse pour un autre utilisateur lorsque le premier ne s'en sert
Page 8 sur 9
plus. Autrement dit, le protocole DHCP offre une relation «un à plusieurs» pour les adresses IP. De plus, une adresse
est disponible pour quiconque se connectant au réseau.
L'une des principales difficultés liées au réseau est d'arriver à communiquer avec les autres équipements du réseau.
Lors des échanges TCP/IP, un datagramme appartenant à un réseau local doit comporter une adresse MAC et une
adresse IP de destination. Ces adresses doivent être valides et elles doivent correspondre aux adresses MAC et IP de
destination de l'équipement hôte. Si elles ne correspondent pas, le datagramme est rejeté par l'hôte de destination. Pour
échanger des données dans un segment LAN, deux adresses sont requises. Une solution de mappage automatique des
adresses IP avec des adresses MAC est également requise. Le mappage manuel de ces adresses se révélerait beaucoup
trop long. La pile de protocoles TCP/IP comprend un protocole appelé «ARP» (Address Resolution Protocol) qui peut
obtenir automatiquement les adresses MAC pour la transmission locale. Plusieurs problèmes apparaissent lors de
l'envoi des données à l'extérieur du réseau local.
Pour échanger des données entre deux segments LAN, un élément supplémentaire est requis. Les adresses IP et MAC
sont nécessaires à l'hôte de destination et à l'équipement de routage intermédiaire. Proxy ARP est une variante du
protocole ARP qui fournit l'adresse MAC d'un équipement intermédiaire pour la transmission de données vers un
autre segment du réseau en dehors du LAN.
Dans un réseau TCP/IP, un paquet de données doit contenir une adresse MAC de destination et une adresse IP de
destination. Si l'une ou l'autre est manquante, les données qui se trouvent au niveau de la couche 3 ne sont pas
transmises aux couches supérieures. Ainsi, les adresses MAC et IP se contrôlent et s'équilibrent mutuellement. Une fois
que les équipements ont déterminé les adresses IP des équipements de destination, ils peuvent ajouter les adresses
MAC de destination aux paquets de données.
Certains tiennent à jour des tables contenant les adresses MAC et IP des autres équipements connectés au même réseau
local. Ces tables sont appelées «tables ARP». Elles sont stockées dans la mémoire RAM, où les informations en
mémoire cache sont mises à jour automatiquement dans chaque équipement.
Dans un réseau TCP/IP, un paquet de données doit contenir une adresse MAC de
destination et une adresse IP de destination. Si l'une ou l'autre est manquante, les
données qui se trouvent au niveau de la couche 3 ne sont pas transmises aux couches
supérieures. Ainsi, les adresses MAC et IP se contrôlent et s'équilibrent mutuellement.
Une fois que les équipements ont déterminé les adresses IP des équipements de
destination, ils peuvent ajouter les adresses MAC de destination aux paquets de
données.
Certains tiennent à jour des tables contenant les adresses MAC et IP des
autres équipements connectés au même réseau local. Ces tables sont
appelées «tables ARP». Elles sont stockées dans la mémoire RAM, où les
informations en mémoire cache sont mises à jour automatiquement dans
chaque équipement.
Les routeurs ne transmettent pas les paquets de broadcast. Lorsque la
fonction est activée, le routeur exécute une requête via Proxy ARP. Proxy
ARP est une variante du protocole ARP. Dans cette variante, un routeur
envoie une réponse ARP, qui contient l'adresse MAC de l'interface qui a
reçu la requête, à l'hôte demandeur.
Le routeur répond avec ses adresses MAC aux requêtes dont l'adresse IP n'appartient pas à la plage d'adresses du
sous-réseau local.
Une autre solution pour envoyer des données à l’adresse d’un équipement situé sur un autre segment du réseau,
consiste à configurer une passerelle par défaut. Une passerelle par défaut est une option « host » dans laquelle
l'adresse IP de l'interface du routeur est enregistrée dans la configuration réseau de l'hôte. L’hôte source compare
l’adresse IP de destination à sa propre adresse IP afin de déterminer si les deux adresses sont situées sur le même
segment. Si l’hôte de destination ne se trouve pas sur le même segment, l’hôte d’origine envoie les données en utilisant
l'adresse IP actuelle de destination et l'adresse MAC du routeur. Cette dernière a été extraite de la table ARP à l'aide de
l'adresse IP du routeur.
Si la passerelle par défaut de l'hôte ou la fonction Proxy ARP du routeur n'est pas configurée, aucune donnée ne
peut quitter le réseau local. L'une ou l'autre est nécessaire pour établir une connexion avec une machine située à
l'extérieur du réseau local.
Page 9 sur 9
Module 9 : Notions de base sur le
routage et les sous-réseaux
Les objectifs :
1. Décrire les protocoles routés. 2. Énumérer les étapes de l'encapsulation des données dans
un interréseau lors de leur acheminement vers les unités
de couche 3.
3. Décrire la transmission orientée connexion et la 4. Énumérer les champs d'un paquet IP.
transmission non orientée connexion.
5. Expliquer comment les données sont acheminées. 6. Comparer les différents types de protocoles de routage.
7. Énumérer et décrire plusieurs des métriques utilisées par 8. Dresser la liste des différentes utilisations d'un sous-
les protocoles de routage. réseau.
9. Déterminer le masque de sous-réseau pour une situation 10. Utiliser le masque de sous-réseau pour déterminer
donnée. l'adresse de sous-réseau.
I. Protocole routé
1. Protocole routé et protocole routable
Un protocole routé permet au routeur de transmettre des données entre les nœuds de différents réseaux. Un
protocole routable doit impérativement permettre d'attribuer un numéro de réseau et un numéro d'hôte à chacune des
machines. Certains protocoles, à l'instar du protocole IPX, ne requièrent que le numéro de réseau. Ils utilisent alors
l'adresse MAC de l'hôte à la place de son numéro. D'autres protocoles, comme IP, nécessitent que l'adresse comporte
une partie réseau et une partie hôte. Dans ce cas, un masque de réseau est nécessaire pour différencier ces deux
numéros. L’adresse réseau est ensuite obtenue en effectuant une opération AND logique sur l’adresse et le masque de
réseau.
L'objectif du masque de réseau est de permettre à des groupes d'adresses IP séquentielles d'être traités en tant qu'une
seule et même unité. Sans ce regroupement, chaque hôte devrait être mappé individuellement pour le routage, ce qui
est impossible à réaliser. En effet, selon le consortium ISC (Internet Software Consortium), il existerait quelque
233 101 500 hôtes sur Internet
IP est le système d'adressage hiérarchique des réseaux le plus largement utilisé. C'est un protocole non orienté
connexion, peu fiable et axé sur l'acheminement au mieux (best-effort delivery). Le terme «non orienté connexion»
signifie qu'aucune connexion à un circuit dédié n'est établie avant la transmission. Le protocole IP détermine le
meilleur chemin pour les données en fonction du protocole de routage. Les termes «peu fiable» et «au mieux» ne
signifient pas que le système n'est pas fiable et qu'il fonctionne mal, mais plutôt que le protocole IP ne s'assure pas de
la bonne livraison des données envoyées sur le réseau. Si cette vérification est nécessaire, elle est effectuée par les
protocoles de couche supérieure.
Les données sont traitées au niveau de chaque couche du modèle OSI au fur et à mesure qu'elles circulent vers le bas
du modèle. Au niveau de la couche réseau, les données sont encapsulées dans des paquets. Ces paquets sont appelés
des datagrammes. IP détermine le contenu de l'en-tête du paquet IP, qui contient les informations d'adressage. Il ne se
préoccupe toutefois pas des données proprement dites. Il se contente de les accepter lorsqu'il les reçoit des couches
supérieures.
Page 1 sur 12
3. Propagation d'un paquet et commutation au sein d'un routeur
Quel que soit le type d'adressage de couche 2 utilisé, les trames sont conçues pour circuler dans un domaine de
broadcast de couche 2. Lorsque les données sont envoyées vers une unité de couche 3, les informations de couche 2
sont modifiées. Lorsqu'une interface du routeur reçoit une trame, elle en extrait l'adresse MAC de destination. Cette
adresse est vérifiée afin de savoir si la trame est destinée directement à l'interface du routeur ou s'il s'agit d'un
broadcast. Dans les deux cas, la trame est acceptée. Si elle est destinée à une autre unité du domaine de collision, elle
est rejetée.
Lorsqu'elle est acceptée, les informations de code de redondance cyclique (CRC, Cyclic Redundancy Check) sont
extraites de son en-queue. Le CRC est calculé pour vérifier l'intégrité des données de la trame.
Si la vérification échoue, la trame est rejetée. Si elle réussit, l'en-queue et l'en-tête de trame sont retirés, et le paquet est
transmis à la couche 3. Ce paquet est ensuite examiné pour savoir s'il est destiné au routeur ou s'il doit être acheminé
vers un autre équipement de l'interréseau. Si l'adresse IP de destination correspond à l'un des ports du routeur, l'en-
tête de la couche 3 est retiré et les données sont transmises à la couche 4. Dans le cas contraire, l'adresse est comparée à
la table de routage. Si une correspondance est établie ou s'il existe un chemin par défaut, le paquet est envoyé à
l'interface indiquée dans l'entrée mise en correspondance de la table de routage. Lors de la commutation du paquet
vers l'interface de sortie, une nouvelle valeur CRC est ajoutée en en-queue de trame et l'en-tête de trame approprié est
ajouté au paquet. La trame est ensuite transmise au domaine de broadcast suivant et continue sa route jusqu’à la
destination finale.
La plupart des services réseau utilisent un système de livraison non orienté connexion. Les paquets peuvent
emprunter différentes routes pour circuler sur le réseau. Ils sont ensuite rassemblés à leur arrivée. Dans un système
non orienté connexion, la destination n’est pas contactée avant l’envoi d’un paquet. Le système postal constitue une
bonne analogie, puisque le destinataire du courrier n'est pas contacté pour savoir s'il acceptera la lettre avant son
envoi. De même, l'expéditeur ne sait pas si sa lettre est arrivée à bon port.
Dans les systèmes orientés connexion, une connexion est établie entre l'émetteur et le récepteur avant le transfert des
données. Le système téléphonique est un exemple de système orienté connexion. L'appelant initie l'appel, une
connexion s'établit, puis la communication a lieu.
Les processus réseau sans connexion sont souvent appelés processus à commutation de paquets. Au cours de leur
acheminement, les paquets peuvent emprunter différents chemins et arriver de manière désordonnée. Le chemin
emprunté par chaque paquet est déterminé par divers critères. Certains de ces critères, tels que la bande passante
disponible, peuvent varier d’un paquet à l’autre.
Les processus réseau orientés connexion sont souvent appelés processus à commutation de circuits. Une connexion
avec le destinataire est établie avant que le transfert des données ne commence. Tous les paquets circulent de manière
séquentielle sur le même circuit virtuel ou physique.
Internet est un réseau sans connexion gigantesque, dans lequel la majorité des transmissions de paquets sont traitées
par le protocole IP. Le protocole TCP ajoute les services orientés connexion et fiables de la couche 4 au protocole IP.
Page 2 sur 12
5. Anatomie d’un paquet IP
• Version: indique le format de l'en-tête du paquet IP. Le champ Version (4 bits) contient le numéro 4 s'il s'agit d'un
paquet IPv4 ou le numéro 6 s'il s'agit d'un paquet IPv6. Ce champ n'est toutefois pas utilisé pour faire la
distinction entre des paquets IPv4 et IPv6. C'est le rôle du champ relatif au type de protocole présent dans
l'enveloppe de couche 2.
• Longueur d'en-tête IP (HLEN): indique la longueur de l'en-tête du datagramme en mots de 32 bits. Ce champ
représente la longueur totale des informations d'en-tête et inclut les deux champs d'en-tête de longueur variable.
• Type de service (ToS): ce champ codé sur
8 bits indique le niveau d'importance attribué
par un protocole de couche supérieure
particulier.
• Longueur totale (16 bits): ce champ spécifie la
taille totale du paquet en octets, données et
en-tête inclus. Pour obtenir la taille des
données proprement dites, soustrayez la
longueur de l'en-tête IP de cette longueur
totale.
• Identification (16 bits): identifie le datagramme actuel. Ce champ comporte le numéro de séquence.
• Drapeaux (3 bits): champ dans lequel les deux bits de poids faible contrôlent la fragmentation. Un bit indique
si le paquet peut être fragmenté ou non, et l'autre si le paquet est le dernier fragment d'une série de paquets
fragmentés.
• Décalage de fragment (13 bits): champ permettant de rassembler les fragments du datagramme. Il permet au
champ précédent de se terminer sur une frontière de 16 bits.
• Durée de vie (TTL): champ indiquant le nombre de sauts par lesquels un paquet peut passer. Ce nombre est
décrémenté à chaque passage du paquet dans un routeur. Lorsque le compteur atteint zéro, le paquet est
éliminé. Cela empêche les paquets de circuler indéfiniment en boucle.
• Protocole (8 bits): indique quel protocole de couche supérieure, tel que TCP ou UDP, reçoit les paquets
entrants une fois les processus IP terminés.
• Somme de contrôle de l'en-tête (16 bits): champ qui aide à garantir l'intégrité de l'en-tête IP.
• Adresse source (32 bits): : champ indiquant l'adresse IP du nœud à partir duquel a été envoyé le paquet.
• Adresse de destination (32 bits): champ indiquant l'adresse IP du nœud vers lequel sont envoyées les
données.
• Options: permet au protocole IP de prendre en charge diverses options, telles que la sécurité. La longueur de
ce champ peut varier.
• Remplissage: des zéros sont ajoutés à ce champ pour s'assurer que l'en-tête IP est toujours un multiple de
32 bits.
• Données: ce champ contient les informations de couche supérieure. Sa longueur est variable.
Si les adresses IP source et de destination sont des champs capitaux, les autres champs de l'en-tête font du protocole IP
un protocole très souple. Les champs de l'en-tête répertorient les informations d'adressage source et de destination du
paquet et indiquent souvent la longueur des données du message. Les informations de routage sont également
contenues dans les en-têtes IP, qui, de ce fait, peuvent devenir longs et complexes.
Le routage est une fonction de la couche 3 du modèle OSI. C'est un système d'organisation hiérarchique qui permet de
regrouper des adresses individuelles. Ces dernières sont traitées comme un tout jusqu'à ce que l'adresse de destination
soit requise pour la livraison finale des données. Le routage cherche le chemin le plus efficace d'une unité à une autre.
Le matériel au centre du processus de routage est le routeur.
• Le routeur gère les tables de routage et s'assure que les autres routeurs ont connaissance des modifications
apportées à la topologie du réseau. Il se sert des protocoles de routage pour échanger les informations de
réseau.
• Le routeur détermine la destination des paquets à l'aide de la table de routage lorsque ceux-ci arrivent à l'une
de ses interfaces. Il les transfère vers la bonne interface, ajoute les informations de trame de cette interface,
puis transmet la trame.
Page 3 sur 12
Un routeur est une unité de couche réseau qui utilise une ou plusieurs métriques pour déterminer le chemin optimal
par lequel acheminer le trafic réseau. Les métriques de routage sont les valeurs qui permettent de définir le meilleur
chemin. Les protocoles de routage utilisent diverses combinaisons de ces métriques pour établir la meilleure route
possible des données.
Les routeurs permettent d'interconnecter les segments d'un réseau ou des réseaux entiers. Leur rôle consiste à
acheminer les trames de données entre les réseaux, en fonction des informations de la couche 3. Ils prennent des
décisions logiques quant au meilleur acheminement possible des données, puis redirigent les paquets vers le port de
sortie approprié afin qu'ils soient encapsulés pour la transmission. Les phases d'encapsulation et de désencapsulation
se produisent à chaque passage d'un paquet dans un routeur. Le routeur doit en effet désencapsuler la trame de
données de la couche 2 pour accéder à l'adresse de couche 3 et l'examiner. Comme vous pouvez le voir dans la figure ,
le processus intégral d'envoi des données implique des phases d'encapsulation et de désencapsulation au niveau des
sept couches du modèle OSI. L'encapsulation consiste à fractionner le flux de données en segments et à ajouter les en-
têtes et les en-queues appropriés avant de transmettre les données. Le processus de désencapsulation, quant à lui,
consiste à retirer les en-têtes et les en-queues, puis à recombiner les données en un flux continu.
2. Routage et commutation
La relation existant entre la commutation et le routage peut être comparée aux appels téléphoniques locaux et longue
distance. Lorsqu'un appel est passé à un numéro comportant le même indicatif régional, il est traité par un
commutateur local. Ce dernier ne peut effectuer le suivi que des numéros locaux. Il ne peut pas gérer l'ensemble des
numéros de téléphone du monde entier. Lorsque le commutateur reçoit une demande pour un appel hors de sa zone,
il transfère cet appel vers un commutateur de niveau supérieur à même de reconnaître les indicatifs régionaux. Celui-
ci commute ensuite l'appel de sorte qu'il atteigne le commutateur local correspondant à son indicatif.
Le routeur joue un rôle similaire à celui du commutateur de niveau supérieur. La figure montre les tables ARP des
adresses MAC de la couche 2 et les tables de routage des adresses IP de la couche 3. Chaque ordinateur et chaque
interface de routeur gèrent une table ARP pour la communication de couche 2. La table ARP n'est utile que pour le
domaine de broadcast auquel elle est connectée. Le routeur est également doté d'une table de routage qui lui permet
d'acheminer les données hors du domaine de broadcast. Chaque entrée de table ARP contient une paire d'adresses IP-
MAC.
Le commutateur de couche 2 établit sa table de transmission à l'aide d'adresses MAC. Lorsqu'un hôte possède des
données pour une adresse IP non locale, il envoie la trame au routeur le plus proche. Ce routeur est également appelé
« passerelle par défaut ». L'hôte se sert de l'adresse MAC du routeur comme adresse MAC de destination.
Un commutateur interconnecte des segments appartenant au même réseau ou sous-réseau logique. Dans le cas
d'hôtes non locaux, le commutateur transfère la trame au routeur en fonction de l'adresse MAC de destination. Le
routeur analyse alors l'adresse de destination de couche 3 du paquet afin de déterminer l'acheminement de la trame.
L'hôte X connaît l'adresse IP du routeur parce que sa configuration IP contient l'adresse IP de la passerelle par défaut.
À l'instar du commutateur qui gère une table d'adresses MAC connues, le routeur possède une table d'adresses IP
connue sous le nom de table de routage. Les adresses MAC ne sont pas organisées de manière logique, tandis que
l'organisation des adresses IP est, elle, hiérarchique. Un commutateur se contentant de rechercher les adresses
appartenant à son segment dans sa table, il ne traite qu'un nombre limité d'adresses MAC non organisées. Les
routeurs, quant à eux, ont besoin d'un système d'adressage hiérarchique qui va permettre de regrouper les adresses
similaires et de les traiter en tant qu'une seule et même unité réseau, et ce jusqu'à ce que les données atteignent le
segment de destination.
Sans cette organisation, Internet ne pourrait fonctionner. Vous pourriez comparer ce dernier à une bibliothèque dans
laquelle des millions de pages imprimées s'entasseraient. Cette documentation serait tout simplement inutile puisqu'il
serait impossible de localiser un seul de ces documents. Lorsque ces pages sont identifiées et assemblées en un livre et
que chacun de ces livres est répertorié dans un index, la recherche et l'utilisation des données deviennent alors
possibles.
Page 4 sur 12
Une autre différence entre les réseaux routés et
commutés réside dans le fait que ces derniers ne
bloquent pas les broadcasts. Les commutateurs
peuvent par conséquent voir leur fonctionnement
perturbé par des tempêtes de broadcasts. Les
routeurs bloquant les broadcasts LAN, les
tempêtes n'affectent que le domaine de broadcast
dont elles sont issues. Du fait de ce blocage, les
routeurs offrent une meilleure sécurité et un
meilleur contrôle de la bande passante que les
commutateurs.
Les protocoles routés ou routables sont utilisés au niveau de la couche réseau afin de transférer les données d'un hôte
à l'autre via un routeur. Les protocoles routés transportent les données sur un réseau. Les protocoles de routage
permettent aux routeurs de choisir le meilleur chemin possible pour acheminer les données de la source vers leur
destination.
Il inclut n'importe quelle suite de protocoles réseau capable de fournir assez d'informations dans l'adresse de couche
réseau pour permettre au routeur d'effectuer le transfert vers l'unité suivante, jusqu'à la destination finale.
Il définit le format et l'usage des champs dans un paquet.
Le protocole IP (Internet Protocol) et le protocole IPX (Internetwork Packet Exchange) de Novell, mais aussi DECnet,
AppleTalk, Banyan VINES et Xerox Network Systems (XNS), sont des exemples de protocoles routés.
Les routeurs utilisent des protocoles de routage pour échanger des tables de routage et partager d’autres informations
d'acheminement. En d'autres termes, les protocoles de routage permettent aux routeurs d'acheminer les protocoles
routés.
4. Détermination du chemin
La détermination du chemin se produit au niveau de la couche réseau. Ce processus permet au routeur de comparer
l'adresse de destination aux routes disponibles dans sa table de routage et de choisir le meilleur chemin possible. Les
routeurs acquièrent ces chemins soit par l'intermédiaire du routage statique, soit par l'intermédiaire du routage
dynamique. Les chemins configurés manuellement par l'administrateur réseau sont appelés «routes statiques». Ceux
que le routeur a acquis d'autres routeurs à l'aide d'un protocole de routage sont dits «routes dynamiques».
La détermination du chemin permet au routeur de choisir le port à partir duquel envoyer un paquet pour que celui-ci
arrive à destination. On appelle ce processus le routage d'un paquet. Chaque routeur rencontré sur le chemin du
paquet est appelé un saut. Le nombre de sauts constitue la distance parcourue. La détermination du chemin peut être
comparée à la situation où une personne conduit sa voiture d'un endroit de la ville à un autre. Le conducteur consulte
une carte qui lui indique les rues par lesquelles passer pour arriver à sa destination, tout comme le routeur consulte sa
table de routage. Il passe d'un carrefour à un autre, de la même façon qu'un paquet circule d'un routeur à un autre lors
Page 5 sur 12
de chaque saut. À chaque carrefour, le conducteur peut choisir de prendre à gauche, à droite ou de continuer tout
droit. Il en va de même pour le routeur lorsqu'il choisit le port de sortie à partir duquel le paquet sera envoyé.
Le conducteur prend ses décisions en fonction de certains facteurs, comme l'état du trafic, la limitation de vitesse, le
nombre de voies, les péages et si une route est fréquemment fermée ou pas. Il est parfois plus rapide de prendre le
chemin le plus long en passant par des petites routes peu fréquentées que de prendre l'autoroute embouteillée. De
même, les routeurs vont prendre leurs décisions en fonction de la charge, de la bande passante, du délai, du coût et de
la fiabilité d'une liaison de réseau.
Les processus impliqués dans la sélection du chemin pour chaque paquet sont les suivants:
5. Table de routage
Les routeurs emploient des protocoles de routage pour construire et gérer les tables de routage contenant les
informations d'acheminement. Le processus de sélection du chemin en est ainsi facilité. Les protocoles de routage
placent diverses informations d'acheminement dans les tables de routage. Le contenu de ces informations varie selon
le protocole de routage utilisé. Les tables de routage contiennent les informations nécessaires à la transmission des
paquets de données sur les réseaux connectés. Les équipements de couche 3 interconnectent les domaines de
broadcast ou les réseaux LAN. Le transfert des données nécessite un système d'adressage hiérarchique.
Les routeurs conservent les informations suivantes dans leurs tables de routage:
• Type de protocole: cette information identifie le type de protocole de routage qui a créé chaque entrée.
• Associations du saut suivant: indique au routeur que la destination lui est directement connectée, ou qu'elle
peut être atteinte par le biais d'un autre routeur appelé le «saut suivant» vers la destination finale. Dès
réception d'un paquet, le routeur vérifie l'adresse de destination et tente de trouver une correspondance dans
sa table de routage.
• Métrique de routage: les métriques utilisées varient selon les protocoles de routage et permettent de
déterminer les avantages d'une route sur une autre. Par exemple, le protocole RIP se sert d'une seule métrique
de routage : le nombre de sauts. Le protocole IGRP crée une valeur de métrique composite à partir des
métriques de fiabilité, de délai, de charge et de bande passante.
• Interfaces de sortie: cette information désigne l'interface à partir de laquelle les données doivent être envoyées
pour atteindre leur destination finale.
Les routeurs s'envoient des messages afin de mettre à jour leurs tables de routage. Certains protocoles de routage
transmettent ces messages de manière périodique. D'autres ne les envoient que lorsque des changements sont
intervenus dans la topologie du réseau. Certains transmettent l'intégralité de la table dans leurs messages de mise à
jour alors que d'autres se contentent d'envoyer les modifications. L'analyse des mises à jour de routage provenant de
routeurs directement connectés permet aux routeurs de créer et de gérer leur table de routage.
Page 6 sur 12
Ils reposent sur l'utilisation de métriques pour prendre ce type de décision.
Les protocoles de routage sont conçus pour répondre à un ou plusieurs des objectifs suivants:
• Optimisation: capacité d'un algorithme de routage à sélectionner le meilleur chemin. Ce dernier sera choisi en
fonction des métriques et de la pondération utilisées dans le calcul. Par exemple, un algorithme peut utiliser à
la fois le nombre de sauts et le délai comme métriques, mais considérer que le délai doit prévaloir dans le
calcul.
• Simplicité et réduction du temps-système: plus l'algorithme est simple et plus il sera traité efficacement par le
processeur et la mémoire du routeur. Ce paramètre est important si le réseau veut pouvoir évoluer vers des
proportions plus conséquentes, comme Internet.
• Efficacité et stabilité: un algorithme de routage doit pouvoir fonctionner correctement dans des circonstances
inhabituelles ou imprévues, comme les défaillances de matériels, les surcharges et les erreurs de mise en
œuvre.
• Flexibilité: : un algorithme de routage doit pouvoir s'adapter rapidement à toutes sortes de modifications du
réseau, touchant par exemple la disponibilité et la mémoire du routeur, la bande passante ou le délai réseau.
• Rapidité de convergence: la convergence est le processus par lequel tous les routeurs s'entendent sur les
routes disponibles. Lorsqu'un événement sur le réseau entraîne des modifications au niveau de la
disponibilité d'un routeur, des mises à jour sont nécessaires afin de rétablir la connectivité du réseau. Une
convergence lente des algorithmes de routage peut empêcher la livraison des données.
Les algorithmes de routage utilisent différentes métriques pour déterminer la meilleure route. Chacun d'eux
interprète à sa façon ce qui est le mieux. L'algorithme génère un nombre, appelé valeur métrique, pour chaque chemin
traversant le réseau. Les algorithmes de routage perfectionnés effectuent la sélection du chemin en fonction de
plusieurs métriques combinées en une valeur composite. Généralement, les valeurs métriques faibles indiquent le
meilleur chemin.
Les métriques peuvent être calculées sur la base d'une seule caractéristique de chemin, comme elles peuvent l'être sur
la base de plusieurs. Les métriques les plus communément utilisées par les protocoles de routage sont les suivantes:
• Bande passante: la bande passante représente la capacité de débit d'une liaison. Une liaison Ethernet de 10
Mbits/s est généralement préférable à une ligne louée de 64 Kbits/s.
• Délai: le délai est le temps nécessaire à l'acheminement d'un paquet, pour chaque liaison, de la source à la
destination. Il dépend de la bande passante des liaisons intermédiaires, de la quantité de données pouvant
être temporairement stockées sur chaque routeur, de la congestion du réseau et de la distance physique.
• Charge: la charge est la quantité de trafic sur une ressource réseau telle qu'un routeur ou une liaison.
• Fiabilité: la fiabilité se rapporte habituellement au taux d'erreurs de chaque liaison du réseau.
• Nombre de sauts: le nombre de sauts est le nombre de routeurs par lesquels un paquet doit passer avant
d'arriver à destination. Chaque routeur équivaut à un saut. Un nombre de sauts égal à 4 signifie que les
données doivent passer par quatre routeurs pour atteindre leur destination. Lorsque plusieurs chemins sont
possibles, c'est le chemin comportant le moins de sauts qui est privilégié.
• Tops: délai d'une liaison de données utilisant les tops d'horloge d'un PC IBM, un top d'horloge correspondant
environ à 1/18 seconde.
• Coût: le coût est une valeur arbitraire, généralement basée sur la bande passante, une dépense monétaire ou
une autre mesure, attribuée par un administrateur réseau.
Un système autonome est un réseau ou un ensemble de réseaux placés sous un même contrôle administratif, tel que le
domaine cisco.com. Un tel système est constitué de routeurs qui présentent une vue cohérente du routage vers
l'extérieur.
Il existe deux familles de protocoles de routage : les protocoles IGP (Interior Gateway Protocol) et les protocoles EGP
(Exterior Gateway Protocol).
Les protocoles IGP acheminent les données au sein d'un système autonome. Il s'agit:
Page 7 sur 12
Les protocoles EGP acheminent les données entre les systèmes autonomes. Le protocole BGP est un exemple de ce
type de
Les protocoles de routage peuvent être classés en protocoles IGP ou EGP. Le type utilisé va dépendre de
l'administration du groupe de routeurs, notamment s'ils sont placés sous une seule et même administration ou pas.
Les protocoles IGP peuvent être subdivisés en protocoles à vecteur de distance et en protocoles à état de liens. Cette
page présente le routage à vecteur de distance et à état de liens, et explique quand ces différents types de protocoles
de routage sont utilisés.
La méthode de routage à vecteur de distance détermine la direction (vecteur) et la distance vers n’importe quelle
liaison de l’interréseau. La distance peut être représentée par le nombre de sauts vers cette liaison. Les routeurs faisant
appel aux algorithmes de vecteur de distance envoient périodiquement l'intégralité ou une partie des entrées de leur
table de routage aux routeurs adjacents, que des modifications aient été ou non apportées au réseau. Lorsqu'un
routeur reçoit une mise à jour de routage, il vérifie tous les chemins connus et modifie le cas échéant sa propre table de
routage. Ce processus est également appelé «routage par rumeur». La connaissance qu'a un routeur du réseau dépend
de la vue dont dispose le routeur adjacent sur la topologie du réseau.
• Routing Information Protocol (RIP): le protocole RIP est le protocole IGP le plus utilisé sur Internet. Son
unique métrique de routage est basée sur le nombre de sauts.
• Interior Gateway Routing Protocol (IGRP): ce protocole IGP a été développé par Cisco afin de résoudre les
problèmes associés au routage dans des réseaux hétérogènes étendus.
• Enhanced IGRP (EIGRP): ce protocole IGP, propriété de Cisco, inclut un grand nombre des caractéristiques
d'un protocole de routage à état de liens. Il est, de ce fait, également appelé «protocole hybride symétrique»,
bien qu'il soit véritablement à classer dans les protocoles de routage à vecteur de distance avancés.
Les protocoles à état de liens ont été conçus pour pallier les limitations des protocoles de routage à vecteur de
distance. Ils ont pour avantage de répondre rapidement aux moindres changements sur le réseau en envoyant des
mises à jour déclenchées uniquement après qu'une modification soit survenue. Ces protocoles envoient par ailleurs
des mises à jour périodiques, connues sous le nom d'actualisations à état de liens, à des intervalles moins fréquents,
par exemple toutes les 30 minutes.
Dès qu'une unité a détecté la modification d'une liaison ou d'une route, elle crée une mise à jour de routage à état de
liens (LSA, link-state advertisement) concernant cette liaison. Cette mise à jour LSA est ensuite transmise à tous les
équipements voisins. Chacun d'eux en prend une copie, met à jour sa base de données à état de liens et transmet la
mise à jour LSA aux autres unités voisines. Cette diffusion de mises à jour LSA est nécessaire afin que tous les
équipements de routage puissent créer des bases de données transcrivant de manière précise la topologie du réseau et
mettre à jour leur table de routage.
Les algorithmes à état de liens se servent généralement de leurs bases de données pour créer des entrées dans la table
de routage qui privilégient le chemin le plus court. Les protocoles OSPF (Open Shortest Path First) et IS-IS
(Intermediate System-to-Intermediate System) sont des exemples de protocoles à état de liens.
9. Protocole de routage
Le protocole RIP est un protocole de routage à vecteur de distance qui utilise le nombre de sauts comme métrique
pour déterminer la direction et la distance vers n'importe quelle liaison de l'interréseau. S’il existe plusieurs chemins
vers une destination, le protocole RIP sélectionne celui qui comporte le moins de sauts. Toutefois, le nombre de sauts
étant la seule métrique de routage utilisée par ce protocole, il ne sélectionne pas toujours le chemin le plus rapide. En
outre, le protocole RIP ne peut acheminer un paquet au-delà de 15 sauts. La version 1 du protocole RIP (RIPv1)
n'incluant pas les informations de masque de sous-réseau dans les mises à jour de routage, tous les équipements du
réseau doivent nécessairement utiliser le même masque de sous-réseau. On parle dans ce cas de routage par classes.
La version 2 (RIPv2) fournit un routage par préfixe et envoie les informations de masque de sous-réseau dans ses
mises à jour de routage. On parle ici de routage sans classe. Avec les protocoles de routage sans classe, les sous-
réseaux d'un même réseau peuvent comporter des masques différents. Cette technique fait référence à l'utilisation de
masques de sous-réseau de longueur variable (VLSM).
Le protocole IGRP est un protocole de routage à vecteur de distance mis au point par Cisco. Il a été spécifiquement
développé pour résoudre les problèmes associés au routage dans de grands réseaux qui dépassaient la portée des
Page 8 sur 12
protocoles tels que RIP. IGRP peut sélectionner le chemin disponible le plus rapide en fonction du délai, de la bande
passante, de la charge et de la fiabilité. Le nombre de sauts maximal autorisé est par ailleurs considérablement plus
élevé que celui défini dans le protocole RIP. Le protocole IGRP utilise uniquement le routage par classes.
Le protocole OSPF est un protocole de routage à état de liens mis au point par l'IETF (Internet Engineering Task Force)
en 1988. Il a été écrit pour permettre la gestion de vastes interréseaux évolutifs hors de portée du protocole RIP.
Le protocole IS-IS (Intermediate System-to-Intermediate System) est un protocole de routage à état de liens utilisé
pour les protocoles routés autres qu'IP. Il existe une extension du protocole IS-IS, Integrated IS-IS, qui, elle, prend en
charge plusieurs protocoles routés dont IP.
À l'instar du protocole IGRP, EIGRP est un protocole développé par Cisco. Il constitue une version perfectionnée du
protocole IGRP. Plus précisément, ce protocole offre de meilleures performances d'exploitation comme une
convergence plus rapide et une bande passante moins surchargée. C'est un protocole à vecteur de distance avancé qui
a également recours à certaines fonctions des protocoles à état de liens. Il est, par conséquent, parfois classé dans les
protocoles de routage hybrides.
Le protocole BGP (Border Gateway Protocol) est un exemple de protocole EGP (External Gateway Protocol). Il permet
l'échange d'informations de routage entre systèmes autonomes tout en garantissant une sélection de chemins exempts
de boucle. Le protocole BGP est le protocole de mises à jour de routage le plus utilisé par les grandes sociétés et les
FAI sur Internet. BGP4 est la première version de BGP à prendre en charge le routage interdomaine sans classes
(CIDR) et le regroupement de routes. À la différence des protocoles IGP courants, comme RIP, OSPF et EIGRP, le
protocole BGP ne se sert pas de métriques tels que le nombre de sauts, la bande passante ou le délai. Il prend à la place
ses décisions de routage selon des stratégies de réseau (ou règles utilisant divers attributs de chemin BGP).
Le découpage en sous-réseaux est une opération purement interne à un réseau. Vu de l'extérieur, un réseau LAN est
un réseau unique qui ne donne aucune information sur sa structure interne. Cette perspective permet de conserver des
tables de routage de petite taille et efficaces. Supposons l'adresse de nœud locale 147.10.43.14 sur le sous-réseau
147.10.43.0. À l'extérieur du réseau LAN, seul le numéro de réseau principal 147.10.0.0 est visible. La raison en est
simple : l'adresse de sous-réseau locale 147.10.43.0 n'est valable qu'au sein du réseau LAN subdivisé en sous-réseaux
Le nombre de bits à sélectionner dans le processus de découpage en sous-réseaux dépend du nombre maximal d'hôtes
requis par sous-réseau. Pour calculer le nombre de sous-réseaux et d'hôtes créés par l'emprunt de bits, il est nécessaire
d'avoir des notions de base en calculs binaires et de connaître la valeur de position des bits dans un octet.
Quelle que soit la classe d'adresse IP, les deux derniers bits du dernier octet ne doivent jamais être attribués au sous-
réseau. Ces bits constituent les deux derniers bits significatifs. Si vous utilisez tous les bits disponibles, à l'exception de
ces deux derniers, pour créer des sous-réseaux, les sous-réseaux créés ne comporteront que deux hôtes utilisables. Il
s'agit d'une méthode de conservation d'adresses pratique pour l'adressage des liaisons de routeur série. Toutefois,
pour un réseau LAN effectif, cela impliquerait des coûts en équipement dépassant l'entendement.
Le masque de sous-réseau apporte au routeur l'information dont il a besoin pour déterminer le réseau et le sous-
réseau auxquels un hôte donné appartient. Le masque de sous-réseau est créé en utilisant des 1 dans les positions
binaires du réseau. Les bits du sous-réseau sont déterminés en ajoutant la valeur de position des bits empruntés.
Ainsi, si trois bits sont empruntés, le masque d'une adresse de classe C donne 255.255.255.224. Au format de barre
oblique, ce masque est représenté par /27. Le nombre situé après la barre oblique correspond au nombre total de bits
utilisés pour les parties réseau et sous-réseau.
Pour savoir combien de bits doivent être utilisés,
le concepteur du réseau doit d'abord calculer le
nombre d'hôtes nécessaires à son sous-réseau le
plus vaste ainsi que le nombre de sous-réseaux
requis. Supposons que le réseau requiert 30 hôtes
et cinq sous-réseaux. La méthode la plus simple
pour déterminer le nombre de bits à réattribuer est
de se reporter au tableau de découpage en sous-
réseaux. Si vous consultez la ligne intitulée
« Hôtes utilisables », vous constatez que trois bits
sont nécessaires pour 30 hôtes. Le tableau vous
informe également que six sous-réseaux utilisables
sont en même temps créés, ce qui répond tout à
fait à vos besoins actuels.
Il existe une différence entre les hôtes utilisables et le nombre total d'hôtes qui tient à l'utilisation de deux adresses
spécifiques pour chaque sous-réseau : l'ID du réseau (représenté par la première adresse disponible) et l'adresse de
broadcast (représentée par la dernière adresse disponible). Savoir emprunter le nombre de bits appropriés nécessaires
aux sous-réseaux et aux hôtes de chacun des sous-réseaux constitue un exercice périlleux qui peut être à l'origine d'un
certain nombre d'adresses hôtes inutilisées dans les divers sous-réseaux. Le routage par classes ne permet pas de
limiter la perte de ces adresses. En revanche, le routage sans classe (qui sera abordé un peu plus loin dans ce cours)
peut vous aider à récupérer un bon nombre de ces adresses perdues.
Pour résoudre les problèmes liés à la subdivision en sous-réseaux, vous pouvez faire appel à la même méthode que
celle utilisée pour la création du tableau des sous-réseaux. Cette méthode se base sur la formule suivante :
Nombre de sous-réseaux utilisables = deux à la puissance du nombre de bits attribués au sous-réseau ou nombre de
bits empruntés, moins deux. La soustraction correspond aux deux adresses réservées que sont l'adresse du réseau et
l'adresse de broadcast du réseau.
Page 10 sur 12
(2 nombre de bits empruntés) – 2 = sous-réseaux utilisables
(23) – 2 = 6
Nombre d'hôtes utilisables = deux à la puissance des bits restants, moins deux (pour les adresses réservées que sont
l'adresse du sous-réseau et l'adresse de broadcast du sous-réseau).
(2 nombre de bits hôtes restants) – 2 = hôtes utilisables
(25) – 2 = 30
Il est constitué des trois octets du réseau et du numéro de masque de sous-réseau inséré au niveau du quatrième
octet. Trois bits ont été attribués au champ de sous-réseau donnant la valeur 224. L'ID du sous-réseau 7 est
192.168.10.224. L'insertion de ces nombres entraîne la définition de points de contrôle qui vérifieront l'exactitude du
tableau une fois celui-ci complété.
En consultant le tableau de découpage en sous-réseaux ou en appliquant la formule, on constate que les trois bits
attribués au champ de sous-réseau donne un résultat total de 32 hôtes dans chacun des sous-réseaux. À partir de ces
informations, vous pouvez calculer l'adresse de chacun des sous-réseaux. Il vous suffit en effet d'ajouter 32 à chacun
des numéros précédents, en commençant par le sous-réseau zéro. Notez que la partie hôte de l'adresse de sous-réseau
ne comporte que des bits à 0.
Le champ de broadcast est le dernier numéro de chaque sous-réseau et il ne comporte que des 1 dans la partie hôte.
Cette adresse ne permet la diffusion que vers les hôtes d'un même sous-réseau. L'adresse du sous-réseau zéro étant
192.168.10.0 et le nombre total d'hôtes s'élevant à 32 hôtes, l'adresse de broadcast est la suivante : 192.168.10.31. En
effet, si l'on commence à calculer à partir de zéro, le 32ème numéro séquentiel est le numéro 31. Il est important de
garder à l'esprit qu'en gestion de réseaux, zéro (0) constitue un vrai nombre.
Vous pouvez renseigner la colonne relative à l'adresse de broadcast de la même manière que vous avez indiqué
l'adresse des sous-réseaux. Ajoutez simplement 32 à l'adresse de broadcast précédente du sous-réseau. Une autre
méthode consiste à partir du bas de cette colonne et à remonter vers le haut en soustrayant 1 de l'adresse de sous-
réseau précédente.
La méthode de découpage en sous-réseaux des réseaux de classes A et B est identique à celle utilisée pour les réseaux
de classe C, à l'exception du nombre de bits impliqués qui est considérablement plus élevé. Le nombre de bits
disponibles à attribuer au champ de sous-réseau dans une adresse de classe A est de 22 bits, tandis qu'il est de 14 bits
pour une adresse de classe B.
En attribuant 12 bits d'une adresse de classe B au champ de sous-réseau, vous créez le masque de sous-réseau
255.255.255.240 ou /28. L'ensemble des huit bits ont été attribués dans le troisième octet donnant 255, la valeur totale
Page 11 sur 12
des huit bits. Quatre bits ont été attribués dans le quatrième octet donnant le résultat 240. Petit rappel : le masque de
format /# correspond à la somme totale des bits attribués au champ de sous-réseau en plus des bits fixes du réseau.
L'attribution de 20 bits d'une adresse de classe A au champ de sous-réseau crée le masque de sous-réseau
255.255.255.240 ou /28. L'ensemble des huit bits des deuxième et troisième octets sont affectés au champ de sous-
réseau, ainsi que quatre bits du quatrième octet.
Ici, il apparaît clairement que les masques de sous-réseau des adresses de classes A et B sont identiques. À moins
d'associer le masque à une adresse réseau, il est impossible de savoir combien de bits ont été affectés au sous-réseau.
Quelle que soit la classe sur laquelle porte la subdivision, les règles sont les mêmes:
Page 12 sur 12