
La résilience d’un réseau ne dépend pas du nombre de switchs redondants, mais de la maîtrise des configurations qui empêchent ces mêmes redondances de faillir.
- Le choix architectural (Collapsed Core vs 3-tiers) est un arbitrage entre simplicité immédiate et évolutivité future, crucial pour les PME.
- Les protocoles conçus pour la sécurité, comme Spanning Tree ou VTP, peuvent devenir la source même de la panne s’ils sont mal maîtrisés.
- La véritable fiabilité se niche dans les détails : un budget PoE mal calculé ou une mauvaise gestion du tagging VLAN ont plus d’impact qu’une panne matérielle.
Recommandation : Auditez en priorité les points de configuration invisibles (mode VTP, priorités PoE, tagging natif) car ils sont la cause la plus fréquente des pannes totales.
Imaginez la scène : il est 9h30. Un silence inhabituel s’installe dans l’open space. Les e-mails ne partent plus, les applications métier sont inaccessibles, les téléphones IP affichent « Connexion… ». Au cœur du datacenter, une unique lumière rouge clignote sur un switch. Une panne unique vient de paralyser toute l’entreprise. Ce scénario n’est pas une fatalité, mais la conséquence d’une architecture qui n’a pas été pensée pour la résilience. Beaucoup d’ingénieurs réseau se contentent du conseil de base : « achetez deux équipements au lieu d’un ». C’est un bon début, mais c’est largement insuffisant.
La redondance matérielle, sans une intelligence de configuration, ne fait que créer des chemins de panne plus complexes. La véritable expertise ne réside pas dans l’empilement d’équipements, mais dans l’anticipation des erreurs de configuration subtiles qui transforment ces protections en points de défaillance uniques. C’est une bataille contre les détails négligés, ces « faux-amis de la redondance » comme le Spanning Tree Protocol ou le VTP, qui, mal configurés, peuvent causer des pannes bien plus spectaculaires qu’un simple défaut matériel. C’est cette « dette technique réseau », accumulée par des choix de facilité, qui finit toujours par présenter sa facture, souvent au pire moment.
Cet article n’est pas un simple guide d’achat. C’est une plongée dans la mentalité d’un architecte réseau focalisé sur la résilience. Nous allons disséquer les points de défaillance les plus courants et les plus sournois, non pas au niveau du matériel, mais bien au niveau de la conception et de la configuration. L’objectif : vous donner les clés pour construire un réseau qui ne se contente pas de fonctionner, mais qui continue de fonctionner même quand tout semble aller de travers.
Pour vous guider à travers ces concepts essentiels à la construction d’une infrastructure réseau à toute épreuve, nous avons structuré cet article en plusieurs points clés. Chaque section aborde un défi spécifique et fournit des solutions pragmatiques et éprouvées sur le terrain.
Sommaire : Concevoir une infrastructure réseau sans point de défaillance unique
- Pourquoi l’architecture « Collapsed Core » est-elle plus adaptée aux PME de moins de 500 postes ?
- Stacking ou LACP : quelle méthode de redondance choisir pour vos switchs de distribution ?
- Port Security : comment empêcher le branchement d’un routeur Wi-Fi sauvage par un employé ?
- L’erreur de calcul de budget PoE qui fait redémarrer vos téléphones aléatoirement
- Quand le Spanning Tree bloque tout : comment identifier et résoudre une tempête de broadcast ?
- 802.1Q : comment éviter les erreurs de tagging qui isolent accidentellement des machines ?
- Comment identifier un goulot d’étranglement réseau en moins de 30 minutes ?
- VLAN : comment segmenter votre réseau pour empêcher un ransomware de traverser toute l’entreprise ?
Pourquoi l’architecture « Collapsed Core » est-elle plus adaptée aux PME de moins de 500 postes ?
Pour une PME, chaque euro investi dans l’infrastructure IT doit être justifié. Face à une panne, l’impact financier peut être dévastateur. En effet, une panne réseau de seulement 15 minutes peut coûter plus de 6 000 €, ce qui souligne l’importance d’une architecture à la fois robuste et économique. C’est ici que l’architecture « Collapsed Core » (ou cœur de réseau condensé) trouve toute sa pertinence. Contrairement au modèle classique à 3 niveaux (Accès, Distribution, Cœur) conçu pour les grands campus, le Collapsed Core fusionne les couches Distribution et Cœur en une seule. Cette simplification n’est pas un compromis sur la qualité, mais un choix pragmatique adapté à une échelle précise.
L’avantage principal est une réduction drastique de la complexité et des coûts. Moins d’équipements à acheter, à configurer et à maintenir signifie un TCO (Total Cost of Ownership) plus faible. La latence est également réduite, car le trafic ne doit franchir qu’un seul « saut » pour passer d’une partie du réseau à une autre. Cependant, cette architecture a ses limites. Son évolutivité est intrinsèquement bornée. Au-delà de 400 à 500 postes, la charge de gestion du trafic et des politiques de sécurité sur un nombre limité de switchs peut devenir un goulot d’étranglement. Opter pour un Collapsed Core, c’est donc faire un choix éclairé : privilégier l’efficacité et la simplicité pour les besoins actuels, tout en étant conscient qu’une croissance majeure de l’entreprise nécessitera une migration vers une architecture plus segmentée.
Le tableau suivant, basé sur les bonnes pratiques des architectures d’entreprise, résume les points de décision clés pour un architecte réseau.
| Critère | Collapsed Core | Architecture 3 niveaux |
|---|---|---|
| Nombre d’équipements | 2-4 switchs | 6+ switchs |
| Coût initial | Faible | Élevé |
| Complexité gestion | Simple | Complexe |
| Évolutivité | Limitée (500 postes max) | Très élevée |
| Latence réseau | Faible (1 saut) | Moyenne (2-3 sauts) |
En somme, pour une PME, le Collapsed Core n’est pas une version « low-cost » d’une grande architecture, mais une conception optimisée, offrant un équilibre idéal entre performance, coût et résilience pour un périmètre défini.
Stacking ou LACP : quelle méthode de redondance choisir pour vos switchs de distribution ?
Une fois l’architecture de base choisie, la question de la redondance des liens et des équipements devient centrale. Deux approches dominent pour les switchs de distribution : le stacking et l’agrégation de liens (LACP), souvent couplée à un protocole de redondance de passerelle comme VRRP. Bien qu’elles visent toutes deux à éliminer les points de défaillance uniques, elles ne sont pas interchangeables et répondent à des besoins différents. Le stacking consiste à connecter plusieurs switchs avec des câbles propriétaires pour qu’ils se comportent comme un unique châssis logique. L’avantage est une gestion unifiée (une seule adresse IP, une seule configuration) et un basculement quasi instantané en cas de panne d’un membre de la pile.
Le LACP (Link Aggregation Control Protocol), quant à lui, permet de regrouper plusieurs ports physiques en un seul lien logique, augmentant la bande passante et offrant une redondance de lien. Si un câble est débranché, le trafic continue de passer par les autres. Cependant, LACP seul ne protège pas contre la panne d’un switch entier. C’est pourquoi on l’associe à VRRP (Virtual Router Redundancy Protocol) qui crée une passerelle virtuelle partagée entre deux switchs. Si le switch maître tombe, le second prend le relais. Le choix entre les deux dépend donc de vos contraintes : le stacking exige souvent des équipements homogènes de la même gamme et du même constructeur, tandis que la solution LACP+VRRP est plus flexible et interopérable.
Pour mieux visualiser, imaginez le stacking comme deux cerveaux fusionnés qui n’en forment plus qu’un, tandis que LACP+VRRP représente deux individus distincts qui ont un plan pour que l’un prenne la relève si l’autre défaille.
Cette distinction est essentielle. Le stacking simplifie l’administration et minimise le temps de basculement, un point crucial pour les applications sensibles à la latence. Comme le note un expert sur le forum de la communauté Meraki :
Stacking provides a bit faster fail-over time than VRRP, also it uses less IP addresses
– Expert Meraki Community, The Meraki Community Forum
Pour faire le bon choix, il faut donc évaluer l’homogénéité du parc, le besoin de contrôle indépendant et la criticité du temps de basculement.
En résumé, le stacking est idéal pour une gestion simplifiée et une performance de basculement maximale dans un environnement homogène, tandis que LACP+VRRP offre une plus grande flexibilité et interopérabilité, au prix d’une configuration légèrement plus complexe et d’un temps de basculement marginalement plus long.
Port Security : comment empêcher le branchement d’un routeur Wi-Fi sauvage par un employé ?
La menace la plus courante pour un réseau d’entreprise ne vient pas toujours d’un pirate informatique à l’autre bout du monde, mais souvent d’une initiative bien intentionnée d’un employé. Un collaborateur qui, pour améliorer le Wi-Fi dans son coin de bureau, branche un petit routeur personnel sur une prise réseau disponible. Cet acte, appelé « Shadow IT », peut créer une porte dérobée béante dans votre infrastructure, contournant le pare-feu et exposant le réseau interne. La solution la plus efficace pour contrer cette menace est une fonctionnalité de base des switchs professionnels : le Port Security. Son principe est simple : contrôler ce qui peut se connecter à chaque port du switch.
La configuration la plus courante consiste à limiter le nombre d’adresses MAC (l’identifiant unique de chaque appareil réseau) autorisées sur un port, souvent à une seule. Ainsi, lorsque l’ordinateur de l’employé est branché, sa MAC est enregistrée. Si quelqu’un débranche l’ordinateur pour y connecter un routeur Wi-Fi (qui présentera sa propre adresse MAC), le switch détecte une violation. L’action à entreprendre en cas de violation est configurable. Le mode « Shutdown » est le plus radical et le plus sécurisé : le port est simplement désactivé et une alerte est envoyée à l’administrateur. D’autres modes comme « Restrict » ou « Protect » se contentent de bloquer le trafic du nouvel appareil sans couper le port, mais sont moins dissuasifs.
Étude de cas : Mise en place du Port Security pour maîtriser le Shadow IT
Une PME de 80 collaborateurs souffrait d’instabilité réseau chronique due à des équipements non autorisés. En implémentant une politique de Port Security stricte, couplée à une authentification 802.1X pour les appareils autorisés, l’entreprise a non seulement éliminé le « Shadow IT », mais a aussi pu réduire significativement les incidents réseau. Cette mesure a amélioré la qualité de service pour tous les utilisateurs et a posé les bases d’une croissance sécurisée de l’infrastructure.
Le Port Security est une première ligne de défense simple, mais extrêmement efficace. Il transforme chaque prise réseau murale non pas en une porte ouverte, mais en un point d’accès contrôlé, garantissant que seuls les appareils légitimes et autorisés peuvent rejoindre le réseau de l’entreprise.
En fin de compte, la sécurité du réseau commence au niveau le plus bas : le port physique. Ignorer cette couche de protection, c’est laisser la porte d’entrée de l’entreprise grande ouverte.
L’erreur de calcul de budget PoE qui fait redémarrer vos téléphones aléatoirement
Le Power over Ethernet (PoE) est une technologie formidable. Comme le confirment les spécifications techniques des switches PoE professionnels, elle permet d’alimenter des équipements comme les téléphones IP, les caméras de sécurité ou les points d’accès Wi-Fi directement via le câble réseau, éliminant le besoin d’une alimentation électrique dédiée. Cependant, cette simplicité apparente cache un piège dans lequel de nombreux administrateurs tombent : le mauvais calcul du budget de puissance. Chaque switch PoE dispose d’un « budget » total, par exemple 370W, qu’il peut distribuer sur l’ensemble de ses ports. L’erreur classique est de faire une simple addition de la consommation nominale des appareils connectés.
Le problème est que la consommation d’un appareil n’est pas constante. Un téléphone IP consomme très peu en veille, mais sa consommation grimpe en flèche lors d’un appel, surtout en mode haut-parleur. Une caméra peut avoir un pic de consommation la nuit lorsqu’elle active ses LED infrarouges. Si trop d’appareils entrent en pic de consommation simultanément, le budget total du switch est dépassé. La réaction du switch est alors prévisible : pour se protéger, il coupe l’alimentation des ports les moins prioritaires. Résultat : des téléphones qui redémarrent en pleine conversation, des caméras qui s’éteignent sans raison apparente, créant des pannes aléatoires et extrêmement frustrantes à diagnostiquer. C’est le symptôme typique d’un budget de puissance « fantôme », où la marge de sécurité n’a pas été correctement anticipée.
Pour éviter cet écueil, il est impératif d’adopter une approche rigoureuse du calcul de la puissance. Il ne s’agit pas d’une simple addition, mais d’une véritable gestion de ressources critiques pour la stabilité du réseau. La checklist suivante formalise cette démarche.
Votre plan d’action pour un budget PoE fiable :
- Recenser tous les équipements PoE (téléphones IP, caméras, points d’accès Wi-Fi) et noter leur classe PoE.
- Noter la consommation maximale de chaque appareil (en watts), indiquée dans sa fiche technique, et non sa consommation moyenne.
- Additionner ces consommations maximales et ajouter une marge de sécurité de 20% pour les pics de consommation et l’ajout futur d’équipements.
- Vérifier que ce total est inférieur à la capacité PoE totale du switch (et non la capacité maximale par port).
- Configurer les priorités PoE sur le switch pour garantir que les équipements critiques (comme les téléphones du standard) soient alimentés en dernier recours.
En conclusion, la gestion du PoE n’est pas une question électrique, mais une composante essentielle de la résilience du réseau. Un calcul rigoureux et l’anticipation des pics sont les seules garanties contre des pannes qui, autrement, semblent totalement aléatoires.
Quand le Spanning Tree bloque tout : comment identifier et résoudre une tempête de broadcast ?
Le Spanning Tree Protocol (STP) est l’un des plus grands « faux-amis » de l’architecte réseau. Son rôle est vital : comme le rappelle ASAP Solutions, « le Spanning Tree Protocol (STP) détecte automatiquement les boucles réseau et les neutralise ». En présence de liens redondants créant une boucle physique, STP bloque intelligemment l’un des chemins pour ne garder qu’une topologie active sans boucle. Sans lui, une simple trame de broadcast serait répliquée à l’infini entre deux switchs, consommant 100% de la bande passante et des ressources CPU en quelques secondes : c’est la tempête de broadcast, qui provoque un déni de service total sur le segment réseau concerné.
Le paradoxe est que STP, conçu pour empêcher ce chaos, peut parfois en être la cause indirecte. Une mauvaise configuration, un changement de topologie non maîtrisé, ou l’élection d’un « Root Bridge » (le switch chef d’orchestre de STP) non optimisé peut entraîner des reconvergences lentes et instables. Pendant ces quelques secondes ou dizaines de secondes où le protocole recalcule les chemins, le réseau peut être totalement gelé. Pire, une instabilité constante (un port qui « flappe ») peut forcer STP à recalculer en permanence, bloquant et débloquant des ports de manière erratique et rendant le réseau inutilisable. Identifier une tempête de broadcast se fait souvent par ses symptômes : les voyants de tous les switchs clignotent frénétiquement à l’unisson, le réseau devient extrêmement lent ou totalement inaccessible, et il est impossible de se connecter à l’interface de gestion des équipements.
La résolution immédiate consiste à débrancher physiquement les câbles pour casser la boucle. Mais la vraie solution est préventive : il faut maîtriser STP. Cela passe par la configuration manuelle du Root Bridge (en lui assignant la plus basse priorité) sur vos switchs de cœur les plus puissants, et l’activation de protections comme « BPDU Guard » sur les ports d’accès (ceux des utilisateurs) pour empêcher qu’un switch non autorisé ne vienne perturber l’élection STP.
En définitive, STP n’est pas un protocole « plug-and-play ». Il doit être considéré comme un outil puissant qui, sans une configuration et une surveillance adéquates, peut se retourner contre l’administrateur et causer précisément le type de panne qu’il est censé prévenir.
802.1Q : comment éviter les erreurs de tagging qui isolent accidentellement des machines ?
Le standard 802.1Q est le mécanisme qui permet de faire voyager plusieurs VLANs sur un seul et même câble physique, via un système d’étiquetage (tagging). C’est le fondement de la segmentation réseau. Cependant, une configuration incorrecte de ce « tagging » est l’une des causes les plus fréquentes et les plus frustrantes de problèmes de connectivité. Une machine qui ne parvient pas à obtenir d’adresse IP, un serveur qui devient subitement injoignable… la cause est souvent une minuscule erreur de configuration VLAN quelque part entre la machine et sa destination. Le défi est que l’erreur peut se situer sur n’importe lequel des switchs traversés.
L’erreur la plus classique est le « VLAN non déclaré » sur un lien trunk (un lien transportant plusieurs VLANs). Si vous créez un VLAN 20 sur un switch A et que vous oubliez de le déclarer sur le switch B, toutes les machines du VLAN 20 sur le switch A seront totalement isolées du reste du réseau. Une autre erreur courante est le « Native VLAN mismatch », où les deux extrémités d’un lien trunk ne sont pas d’accord sur le VLAN qui doit passer sans étiquette. Cela peut non seulement causer des problèmes de connectivité, mais aussi créer une faille de sécurité en faisant « fuiter » du trafic d’un VLAN à l’autre. Le tableau suivant, qui s’appuie sur une analyse des pannes réseau courantes, met en lumière ces pièges.
| Erreur | Symptôme | Solution |
|---|---|---|
| Native VLAN mismatch | Trafic qui fuite entre VLANs | Vérifier cohérence sur tous les trunks |
| VLAN non déclaré | Machines isolées | Ajouter le VLAN à la liste autorisée sur tous les trunks concernés |
| Port en mode access sur trunk | Perte totale de connectivité pour les VLANs | Configurer le port en mode trunk 802.1Q |
| VTP mode server non voulu | Effacement de tous les VLANs | Passer en mode transparent ou client |
Le cas du VTP (VLAN Trunking Protocol) mérite une attention particulière. Ce protocole Cisco, conçu pour propager automatiquement la configuration des VLANs, est un exemple parfait d’effet domino de configuration. Comme le montre cette étude d’incident critique, un switch mal configuré en mode VTP « server » avec un numéro de révision supérieur peut écraser la base de données VLAN de tout le réseau en quelques secondes, causant une panne totale. Dans la plupart des PME, la recommandation est de désactiver VTP ou de le forcer en mode « transparent » sur tous les switchs pour éviter ce risque catastrophique.
La leçon à retenir est que la segmentation par VLAN est un outil puissant, mais qui exige une rigueur absolue. Une documentation claire de la topologie VLAN et des configurations de trunk est le seul rempart contre des heures de dépannage pour une ligne de commande manquante.
Comment identifier un goulot d’étranglement réseau en moins de 30 minutes ?
Quand les utilisateurs se plaignent que « le réseau est lent », c’est le début d’une course contre la montre pour l’ingénieur réseau. Le problème peut venir de n’importe où : un serveur surchargé, une application mal codée, ou un véritable goulot d’étranglement dans l’infrastructure. Avant de blâmer les serveurs ou les développeurs, il est crucial d’exonérer rapidement l’infrastructure réseau. Une méthodologie de diagnostic structurée est essentielle pour ne pas perdre de temps. Il faut se rappeler que, d’après une analyse des causes de pannes réseau en entreprise, quasiment un incident de performance sur trois est lié à une erreur humaine dans la configuration, ce qui signifie que la cause est souvent visible si on sait où regarder.
L’approche consiste à partir des points centraux (les switchs de cœur ou de distribution) et à descendre progressivement vers les extrémités, en vérifiant à chaque étape des indicateurs de santé clés. La première étape est de se connecter en ligne de commande aux switchs principaux et de vérifier leur charge CPU. Un CPU à 100% est souvent le signe d’une tempête de broadcast ou d’un problème de routage. Ensuite, il faut examiner les compteurs d’erreurs sur les interfaces les plus sollicitées (les liens trunk vers d’autres switchs ou vers les serveurs). Un nombre élevé de « drops », « CRC errors » ou « collisions » indique un problème physique (câble défectueux, SFP en fin de vie) ou une saturation du lien.
Si ces vérifications ne révèlent rien, il faut alors passer à des tests plus actifs. Utiliser un outil comme iperf entre deux machines situées de part et d’autre du goulot suspect permet de mesurer la bande passante réelle et de confirmer ou infirmer une hypothèse. En dernier recours, une capture de trafic avec Wireshark sur un port en miroir révélera la vérité, en montrant par exemple un nombre anormalement élevé de retransmissions TCP, signe de paquets perdus en chemin. Cette démarche logique et méthodique permet, dans la majorité des cas, d’isoler la cause en moins de 30 minutes.
- Minute 0-5 : Vérifier la charge CPU/mémoire des switchs de cœur et de distribution avec la commande `show processes cpu`.
- Minute 5-10 : Analyser les compteurs d’erreurs et le taux d’utilisation sur les interfaces trunk avec `show interface`.
- Minute 10-15 : Tester la bande passante de bout en bout avec un outil comme `iperf` entre un client et un serveur.
- Minute 15-20 : Capturer le trafic sur un port miroir avec Wireshark et filtrer les retransmissions TCP (`tcp.analysis.retransmission`).
- Minute 20-25 : Vérifier les tables MAC et ARP sur les switchs pour détecter une éventuelle saturation ou instabilité.
- Minute 25-30 : Analyser les logs systèmes (`syslog`) pour identifier des patterns d’erreurs récurrents, comme des ports qui se désactivent et se réactivent.
Au final, la capacité à identifier rapidement un goulot d’étranglement ne repose pas sur la chance, mais sur une méthode systématique qui permet d’éliminer les causes possibles les unes après les autres, de la plus générale à la plus spécifique.
Points clés à retenir
- Le choix architectural initial (Collapsed Core ou 3-tiers) est la décision la plus impactante pour la résilience et l’évolutivité future d’un réseau de PME.
- Les protocoles de redondance comme Spanning Tree et VTP sont des outils à double tranchant : indispensables mais potentiellement destructeurs s’ils ne sont pas parfaitement maîtrisés.
- La fiabilité d’un réseau se juge sur sa gestion des détails : un budget PoE sous-estimé ou un mauvais tagging VLAN causeront des pannes plus fréquentes et frustrantes qu’une panne matérielle franche.
VLAN : comment segmenter votre réseau pour empêcher un ransomware de traverser toute l’entreprise ?
Dans le contexte actuel de cybermenaces, un réseau « plat » où chaque machine peut communiquer avec toutes les autres est une véritable autoroute pour les ransomwares. Si un seul poste de travail est compromis, l’attaquant peut se déplacer latéralement sur le réseau pour infecter les serveurs, les sauvegardes et les autres postes en quelques minutes. La segmentation via les VLANs (Virtual Local Area Networks) est la stratégie de défense la plus fondamentale et la plus efficace pour contenir une telle attaque. Le principe est de diviser le réseau en plusieurs sous-réseaux logiques isolés les uns des autres, comme si l’on construisait des cloisons coupe-feu à l’intérieur de l’entreprise.
Une bonne stratégie de segmentation consiste à créer des VLANs par fonction et par niveau de confiance. Par exemple : un VLAN pour les utilisateurs, un pour les serveurs de production, un pour la téléphonie IP, un pour les invités (Wi-Fi), et surtout, un VLAN de quarantaine. Ce dernier est un VLAN totalement isolé, sans accès ni au réseau interne, ni à Internet. En cas de détection d’une activité suspecte par un antivirus ou un EDR, la machine peut y être automatiquement basculée, stoppant net toute tentative de propagation. Cette approche proactive transforme la réponse à incident d’une opération de nettoyage coûteuse à une simple action de confinement.
Étude de cas : Confinement d’une attaque par segmentation VLAN
Une entreprise ayant mis en place une architecture segmentée avec des VLANs dédiés (Utilisateurs, Serveurs, IoT, Quarantaine) a pu contenir plusieurs tentatives d’infection. Lorsqu’un poste de travail a montré des signes de compromission (communication vers des adresses IP malveillantes), le système de sécurité a automatiquement changé le port du switch vers le VLAN de quarantaine. L’attaquant s’est retrouvé piégé dans un cul-de-sac numérique, incapable de scanner ou d’infecter d’autres systèmes, prouvant l’efficacité de la segmentation comme mesure de confinement.
Cependant, créer des VLANs ne suffit pas. L’étape cruciale est de définir des règles de filtrage (ACLs – Access Control Lists) très strictes sur le routeur ou le switch de niveau 3 qui gère la communication entre ces VLANs. Par défaut, tout trafic inter-VLAN doit être interdit, et seules les communications absolument nécessaires doivent être autorisées explicitement (par exemple, autoriser les utilisateurs à accéder au serveur de fichiers sur le port SMB, mais rien d’autre). C’est ce principe du « deny-all » qui donne toute sa puissance à la segmentation.
En adoptant cette philosophie de confiance zéro et de micro-segmentation, vous transformez votre réseau d’une plaine ouverte en une forteresse avec des douves et des ponts-levis contrôlés, capable de résister et de contenir les menaces modernes.
Questions fréquentes sur la sécurisation des switchs réseau
Combien d’adresses MAC maximum peut-on autoriser par port ?
La plupart des switchs permettent de configurer entre 1 et 132 adresses MAC autorisées par port, mais en pratique, pour maintenir un haut niveau de sécurité sur les ports d’accès utilisateur, on limite souvent ce nombre à 1 ou 2 adresses.
Que se passe-t-il quand une violation de Port Security est détectée ?
Trois modes sont généralement possibles : ‘Protect’ (ignore les trames de la MAC inconnue sans alerte), ‘Restrict’ (ignore les trames et envoie une alerte/log), et ‘Shutdown’ (désactive complètement le port et envoie une alerte). Le mode ‘Shutdown’ est le plus sécurisé car il nécessite une intervention manuelle pour réactiver le port.
Le Port Security est-il compatible avec le 802.1X ?
Oui, les deux mécanismes sont non seulement compatibles mais aussi complémentaires. Le 802.1X authentifie l’utilisateur ou la machine qui se connecte, tandis que le Port Security peut ensuite limiter le nombre d’appareils pouvant être connectés derrière ce point d’accès authentifié. C’est une excellente stratégie de défense en profondeur.