heim - Windows
Hauptmerkmale von Schaltern. Grundlagen zum Schalten
Leistung, Sind:
  • Frame-Filtergeschwindigkeit;
  • Geschwindigkeit des Personalaufstiegs;
  • Durchsatz;
  • Übertragungsverzögerung rahmen.

Darüber hinaus gibt es mehrere Schaltereigenschaften, die den größten Einfluss auf diese Leistungsspezifikationen haben. Diese beinhalten:

  • Schalttyp;
  • Größe der Bildpuffer;
  • Leistung der Schaltmatrix;
  • Leistung des Prozessors oder der Prozessoren;
  • Größe Schalttische.

Filtergeschwindigkeit und Frame-Fortschrittsgeschwindigkeit

Frame-Filterung und Weiterleitungsgeschwindigkeit sind zwei wichtige Leistungsmerkmale eines Switches. Diese Merkmale sind integrale Indikatoren und hängen nicht von der technischen Umsetzung der Umstellung ab.

Filtrationsgeschwindigkeit

  • Empfangen des Frames in Ihrem Puffer;
  • Verwerfen eines Frames, wenn darin ein Fehler erkannt wird (die Prüfsumme stimmt nicht überein oder der Frame ist weniger als 64 Bytes oder mehr als 1518 Bytes groß);
  • Frame-Drop, um Schleifen im Netzwerk zu vermeiden;
  • Verwerfen des Frames gemäß den am Port konfigurierten Filtern;
  • ansehen Schalttische um den Zielport anhand der MAC-Adresse des Frame-Empfängers zu finden und den Frame zu verwerfen, wenn die sendenden und empfangenden Knoten des Frames mit demselben Port verbunden sind.

Die Filtergeschwindigkeit fast aller Switches ist nicht blockierend – der Switch schafft es, Frames mit der Rate zu verwerfen, mit der sie ankommen.

Weiterleitungsgeschwindigkeit bestimmt die Rate, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

  • Empfangen des Frames in Ihrem Puffer;
  • ansehen Schalttische um den Zielport anhand der MAC-Adresse des Frame-Empfängers zu finden;
  • Übertragung des Frames an das Netzwerk über das gefundene Schalttisch Zielhafen.

Sowohl die Filtergeschwindigkeit als auch die Weiterleitungsgeschwindigkeit werden normalerweise in Bildern pro Sekunde gemessen. Wenn die Eigenschaften des Switches nicht angeben, für welches Protokoll und für welche Framegröße die Filter- und Weiterleitungsgeschwindigkeiten angegeben sind, wird standardmäßig davon ausgegangen, dass diese Indikatoren für das Ethernet-Protokoll und Frames der Mindestgröße angegeben sind, d. Frames mit einer Länge von 64 Byte (ohne Präambel) und einem Datenfeld von 46 Byte. Die Verwendung von Frames mit minimaler Länge als Hauptindikator für die Verarbeitungsgeschwindigkeit eines Switches erklärt sich aus der Tatsache, dass solche Frames im Vergleich zu Frames anderer Formate mit gleichem Durchsatz an übertragenen Benutzerdaten immer den schwierigsten Betriebsmodus für den Switch darstellen. Daher wird beim Testen eines Switches der Modus mit minimaler Framelänge als schwierigster Test verwendet, der die Fähigkeit des Switches überprüfen soll, unter der schlechtesten Kombination von Verkehrsparametern zu funktionieren.

Durchsatz wechseln gemessen an der Menge an Benutzerdaten (in Megabit oder Gigabit pro Sekunde), die pro Zeiteinheit über seine Ports übertragen werden. Da der Switch auf der Datenverbindungsschicht arbeitet, sind seine Benutzerdaten die Daten, die in das Datenfeld der Protokollrahmen der Datenverbindungsschicht übertragen werden – Ethernet, Fast Ethernet usw. Der maximale Wert des Switch-Durchsatzes wird immer bei Frames von erreicht maximale Länge, denn wenn In diesem Fall ist der Anteil der Overhead-Kosten für Frame-Dienstinformationen viel geringer als für Frames mit minimaler Länge, und die Zeit, die der Switch für Frame-Verarbeitungsvorgänge pro Byte Benutzerinformationen ausführt, ist deutlich kürzer. Daher kann ein Switch für Frames mit einer Mindestlänge blockieren, hat aber dennoch einen sehr guten Durchsatz.

Frame-Übertragungsverzögerung (Vorwärtsverzögerung) wird als die Zeit gemessen, die vom Eintreffen des ersten Bytes des Frames am Eingangsport des Switches bis zum Erscheinen dieses Bytes am Ausgangsport vergeht. Die Verzögerung besteht aus der Zeit, die für das Puffern der Frame-Bytes aufgewendet wird, sowie der Zeit, die für die Verarbeitung des Frames durch den Switch, nämlich die Anzeige, aufgewendet wird Schalttische, Weiterleitungsentscheidungen treffen und Zugriff auf die Ausgabeportumgebung erhalten.

Die durch einen Switch verursachte Latenz hängt von der verwendeten Switching-Methode ab. Erfolgt die Umschaltung ohne Pufferung, sind die Verzögerungen in der Regel gering und liegen zwischen 5 und 40 µs, bei voller Frame-Pufferung zwischen 50 und 200 µs (für Frames mit minimaler Länge).

Tischgröße wechseln

Maximale Kapazität Schalttische Definiert die Grenze für die Anzahl der MAC-Adressen, die der Switch gleichzeitig bedienen kann. IN Schalttisch Für jeden Port können sowohl dynamisch erlernte MAC-Adressen als auch statische MAC-Adressen, die vom Netzwerkadministrator erstellt wurden, gespeichert werden.

Die maximale Anzahl von MAC-Adressen, die gespeichert werden können Schalttisch, hängt von der Anwendung des Schalters ab. D-Link-Switches für Arbeitsgruppen und kleine Büros unterstützen normalerweise 1K- bis 8K-MAC-Adresstabellen. Große Arbeitsgruppen-Switches unterstützen eine MAC-Adresstabelle mit einer Kapazität von 8.000 bis 16.000, und Netzwerk-Backbone-Switches unterstützen typischerweise 16.000 bis 64.000 Adressen oder mehr.

Unzureichende Kapazität Schalttische kann dazu führen, dass der Switch langsamer wird und das Netzwerk durch übermäßigen Datenverkehr verstopft wird. Wenn die Switch-Tabelle vollständig gefüllt ist und der Port in einem eingehenden Frame auf eine neue Quell-MAC-Adresse trifft, kann der Switch diese nicht in die Tabelle eintragen. In diesem Fall wird der Antwortrahmen an diese MAC-Adresse über alle Ports (außer dem Quellport) gesendet, d. h. führt zu einer Lawinenübertragung.

Rahmenpufferkapazität

Um Frames vorübergehend zu speichern, wenn diese nicht sofort an den Ausgangsport übertragen werden können, sind Switches je nach implementierter Architektur mit Puffern an Eingangs- und Ausgangsports oder einem gemeinsamen Puffer für alle Ports ausgestattet. Die Puffergröße beeinflusst sowohl die Frame-Übertragungsverzögerung als auch die Paketverlustrate. Je größer der Pufferspeicher ist, desto unwahrscheinlicher ist daher ein Bildverlust.

Typischerweise verfügen Switches, die für den Betrieb in kritischen Teilen des Netzwerks ausgelegt sind, über einen Pufferspeicher von mehreren zehn oder hundert Kilobyte pro Port. Der allen Ports gemeinsame Puffer hat in der Regel eine Kapazität von mehreren Megabyte.

Technische Parameter von Schaltern.

Die wichtigsten technischen Parameter, die zur Bewertung eines Switches verwendet werden können, der auf einer beliebigen Architektur aufgebaut ist, sind Filtergeschwindigkeit und Weiterleitungsgeschwindigkeit.

Die Filtergeschwindigkeit bestimmt die Anzahl der Bilder pro Sekunde, mit denen der Switch die folgenden Vorgänge ausführen kann:

  • Empfangen des Frames in Ihrem Puffer;
  • Finden des Ports für die Zieladresse des Frames in der Adresstabelle;
  • Frame-Zerstörung (der Zielport ist derselbe wie der Quellport).

Die Vorlaufgeschwindigkeit bestimmt analog zum vorherigen Absatz die Anzahl der Bilder pro Sekunde, die mit dem folgenden Algorithmus verarbeitet werden können:

  • Empfangen des Frames in Ihrem Puffer,
  • Finden des Ports für die Zieladresse des Frames;
  • Übertragung des Frames an das Netzwerk über den gefundenen Zielport (unter Verwendung der Adressabgleichstabelle).

Standardmäßig gelten diese Indikatoren als im Ethernet-Protokoll gemessen für Frames mit der Mindestgröße (64 Byte lang). Da die Header-Analyse die meiste Zeit in Anspruch nimmt, ist die Belastung des Prozessors und des Switch-Busses umso größer, je kürzer die übertragenen Frames sind.

Die nächstwichtigsten technischen Parameter des Schalters sind:

  • Durchsatz;
  • Frame-Übertragungsverzögerung.
  • Größe der internen Adresstabelle.
  • Größe der Bildpuffer;
  • Schaltleistung;

Bandbreite gemessen an der Datenmenge, die pro Zeiteinheit über Ports übertragen wird. Je länger der Frame ist (mehr Daten werden an einen Header angehängt), desto größer muss natürlich der Durchsatz sein. Bei einer typischen „Passport“-Geschwindigkeit von 14880 Bildern pro Sekunde für solche Geräte beträgt der Durchsatz also 5,48 Mbit/s bei 64-Byte-Paketen, und die Begrenzung der Datenübertragungsrate wird durch den Switch vorgegeben.

Gleichzeitig beträgt die Weiterleitungsgeschwindigkeit bei der Übertragung von Frames mit maximaler Länge (1500 Byte) 812 Frames pro Sekunde und der Durchsatz 9,74 Mbit/s. Tatsächlich wird die Datenübertragungsgrenze durch die Geschwindigkeit des Ethernet-Protokolls bestimmt.

Frame-Übertragungsverzögerung bezeichnet die Zeit, die vom Beginn der Aufzeichnung des Frames im Puffer des Eingangsports des Switches bis zum Erscheinen am Ausgangsport verstrichen ist. Wir können sagen, dass dies die Zeit ist, die benötigt wird, um einen einzelnen Frame voranzutreiben (Pufferung, Tabellensuche, Entscheidung, ob gefiltert oder weitergeleitet werden soll, und Zugriff auf die Ausgabeportumgebung).

Das Ausmaß der Verzögerung hängt stark von der Art und Weise ab, wie Frames gefördert werden. Bei Verwendung der On-the-fly-Switching-Methode sind die Verzögerungen gering und liegen zwischen 10 µs und 40 µs, bei voller Pufferung zwischen 50 µs und 200 µs (abhängig von der Framelänge).

Wenn der Switch (oder sogar einer seiner Ports) stark ausgelastet ist, stellt es sich heraus, dass selbst beim spontanen Umschalten die meisten eingehenden Frames zwangsweise gepuffert werden müssen. Daher verfügen die komplexesten und teuersten Modelle über die Möglichkeit, den Funktionsmechanismus des Schalters (Anpassung) je nach Auslastung und Art des Verkehrs automatisch zu ändern.

Größe der Adresstabelle (CAM-Tabelle). Definiert die maximale Anzahl von MAC-Adressen, die in der Port- und MAC-Adresszuordnungstabelle enthalten sind. In der technischen Dokumentation wird sie normalerweise pro Port als Anzahl der Adressen angegeben, aber manchmal kommt es vor, dass die Speichergröße für die Tabelle in Kilobyte angegeben wird (ein Eintrag nimmt mindestens 8 kB ein, und das „Ersetzen“ der Zahl ist sehr profitabel für einen skrupellosen Hersteller).

Für jeden Port kann die CAM-Korrespondenztabelle unterschiedlich sein. Wenn sie voll ist, wird der älteste Eintrag gelöscht und der neue Eintrag zur Tabelle hinzugefügt. Wenn daher die Anzahl der Adressen überschritten wird, kann das Netzwerk weiter betrieben werden, gleichzeitig wird jedoch der Betrieb des Switches selbst stark verlangsamt und die mit ihm verbundenen Segmente werden mit übermäßigem Datenverkehr belastet.

Bisher gab es Modelle (z. B. 3com SuperStack II 1000 Desktop), bei denen die Tabellengröße die Speicherung einer oder mehrerer Adressen erlaubte, weshalb man beim Netzwerkdesign sehr vorsichtig sein musste. Mittlerweile verfügen jedoch selbst die billigsten Desktop-Switches über eine Tabelle mit 2-3K-Adressen (und Backbone-Switches sogar noch mehr), und dieser Parameter stellt keinen Engpass mehr in der Technologie dar.

Puffervolumen. Der Switch benötigt es, um Datenrahmen zwischenzuspeichern, falls eine sofortige Übertragung an den Zielport nicht möglich ist. Es ist klar, dass der Verkehr ungleichmäßig ist, es gibt immer Wellen, die geglättet werden müssen. Und je größer das Puffervolumen, desto mehr Last kann es „aufnehmen“.

Einfache Switch-Modelle verfügen über einen Pufferspeicher von mehreren hundert Kilobyte pro Port, bei teureren Modellen erreicht dieser Wert mehrere Megabyte.

Schaltleistung. Zunächst ist zu beachten, dass es sich bei einem Switch um ein komplexes Multiport-Gerät handelt und es einfach unmöglich ist, seine Eignung zur Lösung der gegebenen Aufgabe anhand jedes Parameters einzeln zu beurteilen. Es gibt eine Vielzahl von Traffic-Optionen mit unterschiedlichen Intensitäten, Frame-Größen, Verteilung auf Ports usw. Es gibt noch keine allgemeine Bewertungsmethodik (Referenzverkehr) und es kommen verschiedene „Unternehmenstests“ zum Einsatz. Sie sind recht komplex, und in diesem Buch müssen wir uns auf allgemeine Empfehlungen beschränken.

Ein idealer Switch sollte Frames zwischen Ports mit der gleichen Geschwindigkeit übertragen, mit der die angeschlossenen Knoten sie erzeugen, ohne Verluste und ohne zusätzliche Verzögerungen. Dazu müssen die internen Elemente des Switches (Portprozessoren, Intermodulbus, Zentralprozessor usw.) den eingehenden Datenverkehr verarbeiten.

Gleichzeitig gibt es in der Praxis viele durchaus objektive Einschränkungen der Leistungsfähigkeit von Switches. Der klassische Fall, dass mehrere Hosts intensiv mit einem einzelnen Server interagieren, führt aufgrund der festen Geschwindigkeit des Protokolls unweigerlich zu einer Verschlechterung der tatsächlichen Leistung.

Heutzutage beherrschen die Hersteller die Herstellung von Switches (10/100baseT) vollständig, selbst sehr günstige Modelle verfügen über ausreichende Bandbreite und recht schnelle Prozessoren. Die Probleme beginnen, wenn Sie komplexere Methoden zur Begrenzung der Geschwindigkeit verbundener Knoten (Gegendruck), Filterung und andere unten beschriebene Protokolle anwenden müssen.

Abschließend muss gesagt werden, dass das beste Kriterium immer noch die Praxis ist, wenn der Switch seine Fähigkeiten in einem realen Netzwerk zeigt.

Zusätzliche Funktionen von Schaltern.

Wie oben erwähnt, verfügen moderne Switches über so viele Fähigkeiten, dass herkömmliche Switches (die vor zehn Jahren wie ein technologisches Wunder wirkten) in den Hintergrund geraten. Tatsächlich können Modelle, die zwischen 50 und 5.000 US-Dollar kosten, den Rahmen schnell und relativ effizient wechseln. Der Unterschied liegt gerade in den zusätzlichen Funktionen.

Es ist klar, dass verwaltete Switches über die meisten zusätzlichen Funktionen verfügen. Im Rest der Beschreibung werden speziell Optionen hervorgehoben, die bei benutzerdefinierten Switches normalerweise nicht korrekt implementiert werden können.

Switches zu einem Stack verbinden. Diese zusätzliche Möglichkeit ist eine der einfachsten und in großen Netzwerken am weitesten verbreiteten. Sein Zweck besteht darin, mehrere Geräte mit einem gemeinsamen Hochgeschwindigkeitsbus zu verbinden, um die Leistung des Kommunikationszentrums zu erhöhen. In diesem Fall können teilweise einheitliche Steuerungs-, Überwachungs- und Diagnosemöglichkeiten genutzt werden.

Es ist zu beachten, dass nicht alle Anbieter die Technologie nutzen, Switches über spezielle Ports (Stacking) zu verbinden. In diesem Bereich werden immer häufiger Gigabit-Ethernet-Leitungen eingesetzt oder mehrere (bis zu 8) Ports in einem Kommunikationskanal zusammengefasst.

Spanning Tree Protocol (STP). Bei einfachen LANs ist die Aufrechterhaltung der korrekten Ethernet-Topologie (hierarchischer Stern) während des Betriebs nicht schwierig. Bei einer großen Infrastruktur wird dies jedoch zu einem ernsthaften Problem – eine falsche Kreuzung (das Schließen eines Segments zu einem Ring) kann dazu führen, dass das gesamte Netzwerk oder ein Teil davon nicht mehr funktioniert. Darüber hinaus ist es möglicherweise gar nicht so einfach, den Unfallort zu finden.

Andererseits sind solche redundanten Verbindungen oft praktisch (viele Transportdatennetze sind in Ringarchitektur aufgebaut) und können die Zuverlässigkeit erheblich erhöhen – sofern ein korrekter Svorhanden ist.

Um dieses Problem zu lösen, wird das Spanning Tree Protocol (STP) verwendet, bei dem Switches automatisch eine aktive baumartige Konfiguration von Verbindungen erstellen und diese durch den Austausch von Dienstpaketen (Bridge Protocol Data Unit, BPDU) finden, die im Netzwerk abgelegt werden Datenfeld eines Ethernet-Frames. Dadurch werden die Ports, an denen die Schleifen geschlossen sind, blockiert, können aber automatisch eingeschaltet werden, wenn die Hauptverbindung unterbrochen wird.

Somit bietet die STA-Technologie Unterstützung für Backup-Verbindungen in einem Netzwerk mit komplexer Topologie und die Möglichkeit, diese automatisch ohne Administratorbeteiligung zu ändern. Diese Funktion ist in großen (oder verteilten) Netzwerken mehr als nützlich, wird jedoch aufgrund ihrer Komplexität in benutzerdefinierten Switches selten verwendet.

Möglichkeiten zur Steuerung des eingehenden Flusses. Wie oben erwähnt, ist der Switch bei ungleichmäßiger Auslastung einfach physisch nicht in der Lage, den Datenfluss mit voller Geschwindigkeit zu durchlaufen. Das einfache Verwerfen zusätzlicher Frames aus offensichtlichen Gründen (z. B. zum Unterbrechen von TCP-Sitzungen) ist jedoch höchst unerwünscht. Daher ist es notwendig, einen Mechanismus zur Begrenzung der vom Knoten übertragenen Verkehrsintensität zu verwenden.

Es gibt zwei Möglichkeiten: Aggressive Erfassung des Übertragungsmediums (z. B. hält der Switch möglicherweise nicht die Standardzeitintervalle ein). Allerdings eignet sich dieses Verfahren nur für „allgemeine“ Übertragungsmedien, die im Switched Ethernet selten zum Einsatz kommen. Den gleichen Nachteil hat auch die BackPressure-Methode, bei der fiktive Frames an den Knoten übertragen werden.

Daher ist in der Praxis die Advanced Flow Control-Technologie (beschrieben im IEEE 802.3x-Standard) gefragt, deren Bedeutung darin besteht, dass der Switch spezielle „Pause“-Frames an den Knoten überträgt.

Verkehrsfilterung. Es ist oft sehr nützlich, zusätzliche Frame-Filterbedingungen für eingehende oder ausgehende Frames an Switch-Ports festzulegen. Auf diese Weise können Sie den Zugriff bestimmter Benutzergruppen auf bestimmte Netzwerkdienste mithilfe der MAC-Adresse oder des virtuellen Netzwerktags einschränken.

Filterbedingungen werden in der Regel in Form boolescher Ausdrücke geschrieben, die mit den logischen Operatoren AND und OR gebildet werden.

Eine komplexe Filterung erfordert zusätzliche Rechenleistung des Switches und kann bei unzureichender Leistung die Leistung des Geräts erheblich beeinträchtigen.

Die Filterfähigkeit ist für Netzwerke von großer Bedeutung, in denen es sich bei den Endnutzern um „kommerzielle“ Teilnehmer handelt, deren Verhalten nicht durch administrative Maßnahmen reguliert werden kann. Da sie unbefugt destruktive Aktionen ausführen können (z. B. die IP- oder MAC-Adresse ihres Computers fälschen), ist es ratsam, hierfür ein Minimum an Möglichkeiten bereitzustellen.

Vermittlung der dritten Ebene (Schicht 3). Aufgrund des rasanten Geschwindigkeitswachstums und der weit verbreiteten Verwendung von Switches besteht heute eine sichtbare Lücke zwischen den Fähigkeiten des Switchings und dem klassischen Routing mit Allzweckcomputern. In dieser Situation ist es am logischsten, dem verwalteten Switch die Möglichkeit zu geben, Frames auf der dritten Ebene (gemäß dem 7-Schicht-OSI-Modell) zu analysieren. Durch dieses vereinfachte Routing ist es möglich, die Geschwindigkeit deutlich zu erhöhen und den Datenverkehr in einem großen LAN flexibler zu verwalten.

In Transportdatennetzen ist der Einsatz von Switches jedoch noch sehr begrenzt, obwohl die Tendenz zur Beseitigung ihrer Leistungsunterschiede zu Routern recht deutlich zu erkennen ist.

Verwaltungs- und Überwachungsfunktionen. Zu den umfangreichen Zusatzfunktionen zählen erweiterte und komfortable Bedienelemente. Bisher konnten einfache Geräte mit wenigen Tasten über eine kleine digitale Anzeige oder über einen Konsolenanschluss gesteuert werden. Dies ist jedoch bereits Vergangenheit – neuerdings werden Switches mit Steuerung über einen regulären 10/100baseT-Port mittels Telnet, einem Webbrowser oder über das SNMP-Protokoll hergestellt. Wenn die ersten beiden Methoden im Großen und Ganzen nur eine bequeme Fortsetzung sind Wenn Sie von den üblichen Starteinstellungen abweichen, können Sie den Switch mit SNMP als wirklich universelles Tool nutzen.

Für Ethernet sind nur seine Erweiterungen interessant – RMON und SMON. RMON-I wird im Folgenden beschrieben, zusätzlich gibt es RMON-II (das sich auf höhere OSI-Ebenen auswirkt). Darüber hinaus sind in „Mid-Level“-Switches in der Regel nur die RMON-Gruppen 1-4 und 9 implementiert.

Das Funktionsprinzip ist wie folgt: RMON-Agenten auf Switches senden Informationen an einen zentralen Server, wo spezielle Software (z. B. HP OpenView) die Informationen verarbeitet und sie in einer für die Verwaltung bequemen Form darstellt.

Darüber hinaus lässt sich der Prozess steuern – durch Fernänderung der Einstellungen kann der Netzwerkbetrieb wieder normalisiert werden. Zusätzlich zur Überwachung und Verwaltung können Sie mit SNMP ein Abrechnungssystem aufbauen. Auch wenn dies etwas exotisch aussieht, gibt es bereits Beispiele für die tatsächliche Nutzung dieses Mechanismus.

Der RMON-I MIB-Standard beschreibt 9 Gruppen von Objekten:

  1. Statistiken – aktuelle gesammelte statistische Daten zu Frame-Eigenschaften, Anzahl der Kollisionen, fehlerhaften Frames (mit Details nach Fehlertypen) usw.
  2. Verlauf – statistische Daten, die in bestimmten Abständen zur späteren Analyse von Trends in ihren Änderungen gespeichert werden.
  3. Alarme – Schwellenwerte statistischer Indikatoren, bei deren Überschreitung der RMON-Agent ein bestimmtes Ereignis generiert. Die Implementierung dieser Gruppe erfordert die Implementierung der Ereignisgruppe – Ereignisse.
  4. Host – Daten über Netzwerk-Hosts, die als Ergebnis der Analyse der MAC-Adressen der im Netzwerk zirkulierenden Frames entdeckt wurden.
  5. Host TopN – eine Tabelle mit N Netzwerk-Hosts, die die höchsten Werte der angegebenen statistischen Parameter aufweisen.
  6. Verkehrsmatrix – Statistiken über die Verkehrsintensität zwischen jedem Paar von Netzwerk-Hosts, organisiert in Form einer Matrix.
  7. Filter – Bedingungen für die Paketfilterung; Pakete, die eine bestimmte Bedingung erfüllen, können entweder erfasst werden oder Ereignisse generieren.
  8. Paketerfassung – eine Gruppe von Paketen, die unter Verwendung bestimmter Filterbedingungen erfasst werden.
  9. Veranstaltung – Bedingungen für die Registrierung von Veranstaltungen und die Benachrichtigung über Veranstaltungen.

Eine ausführlichere Diskussion der Fähigkeiten von SNMP würde mindestens so viel Platz wie dieses Buch beanspruchen, daher ist es angebracht, sich auf diese sehr allgemeine Beschreibung dieses komplexen, aber leistungsstarken Tools zu konzentrieren.

Virtuelle Netzwerke (Virtual Local-Area Network, VLAN). Dies ist möglicherweise die wichtigste (insbesondere für Heimnetzwerke) und am weitesten verbreitete Funktion moderner Switches. Es ist zu beachten, dass es mehrere grundsätzlich unterschiedliche Möglichkeiten gibt, virtuelle Netzwerke mithilfe von Switches aufzubauen. Aufgrund ihrer großen Bedeutung für die Ethernet-Bereitstellung erfolgt die detaillierte Beschreibung der Technologie in einem der folgenden Kapitel.

Die Kurzbedeutung besteht darin, mithilfe von Switches (Ebene 2 des OSI-Modells) mehrere virtuelle (von einander unabhängige) Netzwerke auf einem physischen Ethernet-LAN ​​zu erstellen, sodass der zentrale Router Ports (oder Portgruppen) auf Remote-Switches verwalten kann. Dies macht VLAN tatsächlich zu einem sehr komfortablen Mittel zur Bereitstellung von Datenübertragungsdiensten (Providing).

Die Hauptmerkmale eines Schalters, die seine Leistung messen, sind:

Filtrationsgeschwindigkeit (Filterung);

Routing-Geschwindigkeit (Weiterleitung);

Durchsatz;

Frame-Übertragungsverzögerung.

Darüber hinaus gibt es mehrere Schaltereigenschaften, die den größten Einfluss auf diese Leistungsspezifikationen haben. Diese beinhalten:

Größe des Bildpuffers;

Interne Busleistung;

Leistung des oder der Prozessoren;

Größe der internen Adresstabelle.

Filtrationsgeschwindigkeit und Vorlaufgeschwindigkeit

Frame-Filterung und Weiterleitungsgeschwindigkeit sind zwei wichtige Leistungsmerkmale eines Switches. Bei diesen Merkmalen handelt es sich um integrale Indikatoren, sie hängen nicht von der technischen Umsetzung der Umstellung ab.

Die Filterrate bestimmt die Geschwindigkeit, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

Empfangen eines Frames in Ihrem Puffer;

Einen Frame zerstören, weil sein Zielport mit seinem Quellport identisch ist.

Vorwärtsgeschwindigkeit bestimmt die Rate, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

Empfangen eines Frames in Ihrem Puffer;

Sehen Sie sich die Adresstabelle an, um den Port für die Zieladresse des Frames zu finden.

Übertragen eines Frames an das Netzwerk über den in der Adresstabelle gefundenen Zielport.

Sowohl die Filtergeschwindigkeit als auch die Weiterleitungsgeschwindigkeit werden normalerweise in Bildern pro Sekunde gemessen. Wenn die Eigenschaften des Switches nicht angeben, für welches Protokoll und für welche Framegröße die Filter- und Weiterleitungsgeschwindigkeiten angegeben sind, wird standardmäßig davon ausgegangen, dass diese Indikatoren für das Ethernet-Protokoll und Frames der Mindestgröße angegeben sind, d. Frames mit einer Länge von 64 Byte (ohne Präambel) und einem Datenfeld von 46 Byte. Wenn Raten für ein bestimmtes Protokoll angegeben werden, z. B. Token Ring oder FDDI, dann werden sie auch für die Frames mit der Mindestlänge dieses Protokolls angegeben (z. B. 29-Byte-Frames für das FDDI-Protokoll). Die Verwendung von Frames mit minimaler Länge als Hauptindikator für die Geschwindigkeit eines Switches erklärt sich aus der Tatsache, dass solche Frames im Vergleich zu Frames anderer Formate mit gleichem Durchsatz an übertragenen Benutzerdaten immer den schwierigsten Betriebsmodus für den Switch darstellen. Daher wird beim Testen eines Switches der Modus mit minimaler Framelänge als schwierigster Test verwendet, der die Fähigkeit des Switches überprüfen soll, unter der für ihn schlechtesten Kombination von Verkehrsparametern zu arbeiten. Darüber hinaus haben die Filter- und Weiterleitungsgeschwindigkeiten für Pakete mit minimaler Länge einen Maximalwert, was bei der Ankündigung eines Switches von nicht geringer Bedeutung ist.

Bandbreite

Bandbreite wechseln gemessen an der Menge der Benutzerdaten, die pro Zeiteinheit über seine Ports übertragen werden. Da der Switch auf Datenverbindungsebene arbeitet, sind seine Benutzerdaten die Daten, die in das Datenfeld der Protokollrahmen der Datenverbindungsschicht übertragen werden – Ethernet, Token Ring, FDDI usw. Der Maximalwert des Switch-Durchsatzes wird immer bei Frames maximaler Länge erreicht, da in diesem Fall der Anteil der Overhead-Kosten für Frame-Service-Informationen deutlich geringer ist als bei Frames minimaler Länge und die Zeit, die der Switch für Frame-Verarbeitungsvorgänge pro Frame ausführt Byte an Benutzerinformationen ist deutlich geringer.

Die Abhängigkeit des Switch-Durchsatzes von der Größe der übertragenen Frames lässt sich gut am Beispiel des Ethernet-Protokolls veranschaulichen, für das bei der Übertragung von Frames minimaler Länge eine Übertragungsgeschwindigkeit von 14880 Frames pro Sekunde und ein Durchsatz von 5,48 Mbit/s gilt erreicht, und bei der Übertragung von Frames maximaler Länge wird eine Übertragungsgeschwindigkeit von 812 Frames pro Sekunde und ein Durchsatz von 9,74 Mbit/s erreicht. Beim Umschalten auf Frames mit minimaler Länge sinkt der Durchsatz fast um das Doppelte, wobei der Zeitverlust für die Frame-Verarbeitung durch den Switch nicht berücksichtigt ist.

Übertragungsverzögerung

Frame-Übertragungsverzögerung wird als die Zeit gemessen, die vom Eintreffen des ersten Bytes des Frames am Eingangsport des Switches bis zum Erscheinen dieses Bytes am Ausgangsport des Switches vergeht. Die Latenz besteht aus der Zeit, die für das Puffern der Bytes des Frames aufgewendet wird, sowie der Zeit, die für die Verarbeitung des Frames durch den Switch aufgewendet wird – das Durchsuchen der Adresstabelle, das Treffen von Filter- oder Weiterleitungsentscheidungen und der Zugriff auf die Ausgangsportumgebung.

Die durch den Schalter verursachte Verzögerung hängt von seinem Betriebsmodus ab. Wenn die Umschaltung „on the fly“ erfolgt, sind die Verzögerungen in der Regel gering und liegen zwischen 10 µs und 40 µs, bei voller Frame-Pufferung zwischen 50 µs und 200 µs (für Frames mit minimaler Länge).

Ein Switch ist ein Multiport-Gerät, daher ist es üblich, dass er alle oben genannten Eigenschaften (mit Ausnahme der Frame-Übertragungsverzögerung) in zwei Versionen aufweist. Die erste Option ist die Gesamtleistung des Switches bei gleichzeitiger Übertragung von Datenverkehr auf allen seinen Ports, die zweite Option ist die Leistung pro Port.

Da der Verkehr gleichzeitig von mehreren Ports übertragen wird, gibt es eine große Anzahl von Verkehrsoptionen, die sich in der Größe der Frames im Fluss, der Verteilung der durchschnittlichen Intensität der Frameflüsse zwischen Zielports und den Variationskoeffizienten der Intensität unterscheiden Frameflüsse usw. usw., dann muss beim Leistungsvergleich von Switches berücksichtigt werden, für welche Verkehrsvariante die veröffentlichten Leistungsdaten ermittelt wurden. Leider gibt es für Switches (oder auch für Router) keine allgemein anerkannten Traffic-Benchmarks, mit denen vergleichbare Leistungsmerkmale ermittelt werden können, wie dies bei Rechenleistungsmerkmalen wie TPC-A oder SPECint92 der Fall ist. Einige Labore, die Kommunikationsgeräte ständig testen, haben detaillierte Beschreibungen der Testbedingungen für Schalter entwickelt und wenden diese in ihrer Praxis an, aber diese Tests haben sich in der Industrie noch nicht durchgesetzt.

Dieses lokale Netzwerk basiert auf Switches. Daher werden in diesem Kapitel die wichtigsten Leistungsmerkmale von Switches erläutert.

Die Hauptmerkmale eines Schalters, die seine Leistung messen, sind:

  • - Filtrationsgeschwindigkeit;
  • - Routing-Geschwindigkeit (Weiterleitung);
  • - Durchsatz;
  • - Verzögerung der Frame-Übertragung.

Darüber hinaus gibt es mehrere Schaltereigenschaften, die den größten Einfluss auf diese Leistungsspezifikationen haben. Diese beinhalten:

  • - Größe des/der Framepuffer(s);
  • - interne Busleistung;
  • - Leistung des oder der Prozessoren;
  • - Größe der internen Adresstabelle.

Frame-Filterung und Weiterleitungsgeschwindigkeit sind zwei wichtige Leistungsmerkmale eines Switches. Bei diesen Merkmalen handelt es sich um integrale Indikatoren, sie hängen nicht von der technischen Umsetzung der Umstellung ab.

Die Filterrate bestimmt die Geschwindigkeit, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

  • - Empfangen des Frames in Ihrem Puffer;
  • - Zerstörung des Frames, da sein Zielport mit dem Quellport übereinstimmt.

Die Weiterleitungsrate bestimmt die Geschwindigkeit, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

  • - Empfangen des Frames in Ihrem Puffer;
  • - Durchsuchen der Adresstabelle, um den Port für die Zieladresse des Frames zu finden;
  • - Übertragung des Frames an das Netzwerk über den in der Adresstabelle gefundenen Zielport.

Sowohl die Filtergeschwindigkeit als auch die Weiterleitungsgeschwindigkeit werden normalerweise in Bildern pro Sekunde gemessen. Wenn die Eigenschaften des Switches nicht angeben, für welches Protokoll und für welche Framegröße die Filter- und Weiterleitungsgeschwindigkeiten angegeben sind, wird standardmäßig davon ausgegangen, dass diese Indikatoren für das Ethernet-Protokoll und Frames der Mindestgröße angegeben sind, d. Frames mit einer Länge von 64 Byte (ohne Präambel) und einem Datenfeld von 46 Byte. Wenn Raten für ein bestimmtes Protokoll angegeben werden, z. B. Token Ring oder FDDI, dann werden sie auch für die Frames mit der Mindestlänge dieses Protokolls angegeben (z. B. 29-Byte-Frames für das FDDI-Protokoll).

Die Verwendung von Frames mit minimaler Länge als Hauptindikator für die Geschwindigkeit eines Switches erklärt sich aus der Tatsache, dass solche Frames im Vergleich zu Frames anderer Formate mit gleichem Durchsatz an übertragenen Benutzerdaten immer den schwierigsten Betriebsmodus für den Switch darstellen. Daher wird beim Testen eines Switches der Modus mit minimaler Framelänge als schwierigster Test verwendet, der die Fähigkeit des Switches überprüfen soll, unter der für ihn schlechtesten Kombination von Verkehrsparametern zu arbeiten. Darüber hinaus haben die Filter- und Weiterleitungsgeschwindigkeiten für Pakete mit minimaler Länge einen Maximalwert, was bei der Ankündigung eines Switches von nicht geringer Bedeutung ist.

Der Durchsatz eines Switches wird anhand der Menge an Benutzerdaten gemessen, die pro Zeiteinheit über seine Ports übertragen werden. Da der Switch auf Datenverbindungsebene arbeitet, sind seine Benutzerdaten die Daten, die in das Datenfeld der Protokollrahmen der Datenverbindungsschicht übertragen werden – Ethernet, Token Ring, FDDI usw. Der Maximalwert des Switch-Durchsatzes wird immer bei Frames maximaler Länge erreicht, da in diesem Fall der Anteil der Overhead-Kosten für Frame-Service-Informationen deutlich geringer ist als bei Frames minimaler Länge und die Zeit, die der Switch für Frame-Verarbeitungsvorgänge pro Frame ausführt Byte an Benutzerinformationen ist deutlich geringer.

Die Abhängigkeit des Switch-Durchsatzes von der Größe der übertragenen Frames lässt sich gut am Beispiel des Ethernet-Protokolls veranschaulichen, für das bei der Übertragung von Frames minimaler Länge eine Übertragungsgeschwindigkeit von 14880 Frames pro Sekunde und ein Durchsatz von 5,48 Mbit/s gilt erreicht und bei der Übertragung von Frames maximaler Länge eine Übertragungsgeschwindigkeit von 812 Frames pro Sekunde und einen Durchsatz von 9,74 Mbit/s. Beim Umschalten auf Frames mit minimaler Länge sinkt der Durchsatz fast um das Doppelte, wobei der Zeitverlust für die Frame-Verarbeitung durch den Switch nicht berücksichtigt ist.

Die Frame-Übertragungslatenz wird als die Zeit gemessen, die vom Eintreffen des ersten Bytes des Frames am Eingangsport des Switches bis zum Erscheinen dieses Bytes am Ausgangsport des Switches vergeht. Die Latenz besteht aus der Zeit, die für das Puffern der Bytes des Frames aufgewendet wird, sowie der Zeit, die für die Verarbeitung des Frames durch den Switch aufgewendet wird – das Durchsuchen der Adresstabelle, das Treffen von Filter- oder Weiterleitungsentscheidungen und der Zugriff auf die Ausgangsportumgebung.

Die durch den Schalter verursachte Verzögerung hängt von seinem Betriebsmodus ab. Wenn die Umschaltung „on the fly“ erfolgt, sind die Verzögerungen in der Regel gering und liegen zwischen 10 µs und 40 µs, bei voller Frame-Pufferung zwischen 50 µs und 200 µs (für Frames mit minimaler Länge).

Ein Switch ist ein Multiport-Gerät, daher ist es üblich, dass er alle oben genannten Eigenschaften (mit Ausnahme der Frame-Übertragungsverzögerung) in zwei Versionen aufweist. Die erste Option ist die Gesamtleistung des Switches bei gleichzeitiger Übertragung von Datenverkehr auf allen seinen Ports, die zweite Option ist die Leistung pro Port.

Da der Verkehr gleichzeitig von mehreren Ports übertragen wird, gibt es eine große Anzahl von Verkehrsoptionen, die sich in der Größe der Frames im Fluss, der Verteilung der durchschnittlichen Intensität der Frameflüsse zwischen Zielports und den Variationskoeffizienten der Intensität unterscheiden Frameflüsse usw. usw., dann muss beim Leistungsvergleich von Switches berücksichtigt werden, für welche Verkehrsvariante die veröffentlichten Leistungsdaten ermittelt wurden.

Schätzen Sie die erforderliche Gesamtleistung des Switches.

Im Idealfall überträgt ein in einem Netzwerk installierter Switch Frames zwischen Knoten, die mit seinen Ports verbunden sind, mit der Geschwindigkeit, mit der die Knoten diese Frames erzeugen, ohne dass zusätzliche Verzögerungen entstehen oder ein einzelner Frame verloren geht. In der Praxis führt der Switch immer zu Verzögerungen bei der Übertragung von Frames und kann auch dazu führen, dass einige Frames verloren gehen, also nicht an die Empfänger übermittelt werden. Aufgrund der Unterschiede in der internen Organisation verschiedener Switch-Modelle ist es schwierig vorherzusagen, wie ein bestimmter Switch Frames für ein bestimmtes Verkehrsmuster übertragen wird. Das beste Kriterium ist immer noch die Praxis, einen Switch in einem realen Netzwerk zu platzieren und die dadurch verursachte Verzögerung sowie die Anzahl der verlorenen Frames zu messen.

Neben dem Durchsatz einzelner Switch-Elemente wie Port-Prozessoren oder des gemeinsamen Busses wird die Switch-Leistung durch Parameter wie die Größe der Adresstabelle und die Größe des allgemeinen Puffers oder einzelner Port-Puffer beeinflusst.

Größe der Adresstabelle.

Die maximale Kapazität der Adresstabelle bestimmt die maximale Anzahl von MAC-Adressen, die der Switch gleichzeitig verarbeiten kann. Da Switches meist eine dedizierte Verarbeitungseinheit verwenden, um Vorgänge an jedem Port auszuführen, mit eigenem Speicher zum Speichern einer Instanz der Adresstabelle, wird die Größe der Adresstabelle für Switches normalerweise pro Port angegeben. Instanzen der Adresstabelle verschiedener Prozessormodule enthalten nicht unbedingt die gleichen Adressinformationen – höchstwahrscheinlich wird es nicht viele doppelte Adressen geben, es sei denn, die Verteilung des Datenverkehrs auf jedem Port ist unter den anderen Ports völlig gleich. Jeder Port speichert nur die Adresssätze, die er zuletzt verwendet hat.

Die maximale Anzahl an MAC-Adressen, die sich der Port-Prozessor merken kann, hängt von der Anwendung des Switches ab. Arbeitsgruppen-Switches unterstützen normalerweise nur wenige Adressen pro Port, da sie für die Bildung von Mikrosegmenten konzipiert sind. Abteilungs-Switches müssen mehrere hundert Adressen unterstützen, und Netzwerk-Backbone-Switches müssen bis zu mehrere Tausend, normalerweise 4K- bis 8K-Adressen, unterstützen.

Eine unzureichende Kapazität der Adresstabelle kann dazu führen, dass der Switch langsamer wird und das Netzwerk durch übermäßigen Datenverkehr verstopft wird. Wenn die Adresstabelle des Port-Prozessors vollständig gefüllt ist und er in einem eingehenden Paket auf eine neue Quelladresse stößt, muss er alle alten Adressen aus der Tabelle entfernen und an ihrer Stelle eine neue platzieren. Dieser Vorgang selbst wird einige Zeit des Prozessors in Anspruch nehmen, der größte Leistungsverlust wird jedoch beobachtet, wenn ein Frame mit einer Zieladresse ankommt, die aus der Adresstabelle entfernt werden musste. Da die Zieladresse des Frames unbekannt ist, muss der Switch den Frame an alle anderen Ports weiterleiten. Dieser Vorgang verursacht für viele Port-Prozessoren unnötige Arbeit, außerdem landen Kopien dieses Frames in den Netzwerksegmenten, in denen sie völlig unnötig sind.

Einige Switch-Hersteller lösen dieses Problem, indem sie den Algorithmus für die Verarbeitung von Frames mit unbekannter Zieladresse ändern. Einer der Switch-Ports ist als Trunk-Port konfiguriert, an den standardmäßig alle Frames mit unbekannter Adresse gesendet werden. Diese Technik wird seit langem in Routern eingesetzt und ermöglicht es, die Größe von Adresstabellen in Netzwerken zu reduzieren, die nach einem hierarchischen Prinzip organisiert sind.

Ein Frame wird an einen Trunk-Port übertragen, vorausgesetzt, dieser Port ist mit einem Upstream-Switch verbunden, der über ausreichende Adresstabellenkapazität verfügt und weiß, wohin ein Frame gesendet werden soll. Ein Beispiel für eine erfolgreiche Frame-Übertragung bei Verwendung des Trunk-Ports ist in Abbildung 4.1 dargestellt. Der übergeordnete Switch verfügt über Informationen zu allen Netzwerkknoten, daher wird der Frame mit der Zieladresse MAC3, der ihm über den Trunk-Port übermittelt wird, über Port 2 an den Switch übertragen, an den der Knoten mit der MAC3-Adresse angeschlossen ist.

Abbildung 4.1 – Verwendung des Trunk-Ports zur Übermittlung von Frames mit einer unbekannten Zieladresse

Obwohl die Trunk-Port-Methode in vielen Fällen effektiv funktioniert, kann man sich Situationen vorstellen, in denen Frames einfach verloren gehen. Eine solche Situation ist in Abbildung 4.2 dargestellt. Der Downstream-Switch hat die MAC8-Adresse, die an seinem Port 4 angeschlossen ist, aus seiner Adresstabelle entfernt, um Platz für die neue MAC3-Adresse zu schaffen. Wenn ein Frame mit der Zieladresse MAC8 eintrifft, übermittelt der Switch ihn an Trunk-Port 5, über den der Frame zum übergeordneten Switch gelangt. Dieser Switch sieht aus seiner Adresstabelle, dass die MAC8-Adresse zu seinem Port 1 gehört, über den er in den Switch gelangt ist. Daher wird der Frame nicht weiterverarbeitet, sondern lediglich gefiltert und gelangt somit nicht zum Empfänger. Daher ist es zuverlässiger, Switches mit ausreichender Adresstabelle für jeden Port sowie der Unterstützung einer gemeinsamen Adresstabelle durch das Switch-Management-Modul zu verwenden.


Abbildung 4.2 – Frame-Verlust bei Verwendung des Trunk-Ports

Puffervolumen.

Der interne Pufferspeicher des Switches wird benötigt, um Datenrahmen zwischenzuspeichern, falls diese nicht sofort an den Ausgangsport übertragen werden können. Der Puffer dient dazu, kurzfristige Verkehrsstöße auszugleichen. Denn selbst wenn der Verkehr gut ausbalanciert ist und die Leistung der Port-Prozessoren sowie anderer Verarbeitungselemente des Switches ausreicht, um durchschnittliche Verkehrswerte zu übertragen, ist dies keine Garantie dafür, dass ihre Leistung für sehr große Spitzen ausreicht Ladungen. Beispielsweise kann der Datenverkehr innerhalb weniger zehn Millisekunden gleichzeitig an allen Switch-Eingängen ankommen, wodurch er daran gehindert wird, empfangene Frames an Ausgangsports zu übertragen.

Um Frame-Verluste zu verhindern, wenn die durchschnittliche Verkehrsintensität wiederholt für kurze Zeit überschritten wird (und bei lokalen Netzwerken werden häufig Verkehrs-Ripple-Koeffizientenwerte im Bereich von 50 bis 100 gefunden), ist ein großvolumiger Puffer das einzige Mittel. Wie bei Adresstabellen verfügt jedes Portprozessormodul normalerweise über einen eigenen Pufferspeicher zum Speichern von Frames. Je größer das Volumen dieses Speichers ist, desto geringer ist die Wahrscheinlichkeit, dass Frames aufgrund von Überlastungen verloren gehen. Bei unausgeglichenen durchschnittlichen Verkehrswerten kommt es jedoch früher oder später zu einem Überlauf des Puffers.

Typischerweise verfügen Switches, die für den Betrieb in kritischen Teilen des Netzwerks ausgelegt sind, über einen Pufferspeicher von mehreren zehn oder hundert Kilobyte pro Port. Gut ist es, wenn dieser Pufferspeicher auf mehrere Ports umverteilt werden kann, da eine gleichzeitige Überlastung mehrerer Ports unwahrscheinlich ist. Ein zusätzlicher Schutz kann ein Puffer sein, der allen Ports im Switch-Management-Modul gemeinsam ist. Ein solcher Puffer hat üblicherweise eine Kapazität von mehreren Megabyte.

Nachdem die Schalttechnologie allgemeine Aufmerksamkeit erregte und von Fachleuten gute Noten erhielt, begannen viele Unternehmen, diese Technologie in ihren Geräten zu implementieren und nutzten hierfür verschiedene technische Lösungen. Viele Switches der ersten Generation ähnelten Routern, das heißt, sie basierten auf einem Allzweck-Zentralprozessor, der über einen internen Hochgeschwindigkeitsbus mit Schnittstellenports verbunden war. Dabei handelte es sich jedoch eher um Versuchsgeräte, mit denen das Unternehmen die Vermittlungstechnik selbst beherrschen und nicht den Markt erobern sollte.

Der Hauptnachteil solcher Schalter war ihre geringe Geschwindigkeit. Der Universalprozessor konnte die große Menge an Spezialoperationen zum Senden von Frames zwischen Schnittstellenmodulen nicht bewältigen.

Um die Schaltvorgänge zu beschleunigen, waren spezielle Prozessoren mit speziellen Kommunikationsfähigkeiten erforderlich, wie beim ersten Kalpana-Switch, und sie erschienen bald. Switches verwenden jetzt benutzerdefinierte, spezialisierte LSIs, die für die Durchführung grundlegender Schaltvorgänge optimiert sind. Oftmals werden in einem Switch mehrere spezialisierte LSIs verwendet, von denen jeder einen funktional vollständigen Teil der Operationen ausführt.

Derzeit verwenden Switches eines von drei Interaktionsschemata für ihre Blöcke oder Module als Basis:

♦ Schaltmatrix;

♦ gemeinsam genutzter Multi-Input-Speicher;

♦ gemeinsamer Bus.

Oft werden diese drei Kommunikationsmethoden in einem Switch kombiniert.

Fabric-basierte Switches

Die Switching-Matrix ist die wichtigste und schnellste Art der Interaktion zwischen Port-Prozessoren; sie wurde im ersten industriellen lokalen Netzwerk-Switch implementiert. Allerdings ist die Implementierung der Matrix nur für eine bestimmte Anzahl von Ports möglich und die Komplexität der Schaltung steigt proportional zum Quadrat der Anzahl der Switch-Ports.

Die Matrix besteht aus drei Ebenen binärer Schalter, die ihren Eingang abhängig vom Wert des Tag-Bits mit einem von zwei Ausgängen verbinden. Die Schalter der ersten Ebene werden vom ersten Bit des Tags gesteuert, der zweite vom zweiten und der dritte vom dritten.

Die Matrix kann auf andere Weise implementiert werden, basierend auf Kombinationsschaltungen eines anderen Typs, aber ihr Merkmal bleibt immer noch die Technologie der Umschaltung physikalischer Kanäle. Ein bekannter Nachteil dieser Technologie ist die fehlende Datenpufferung innerhalb der Schaltmatrix. Wenn ein zusammengesetzter Kanal aufgrund des ausgelasteten Ausgangsports oder des zwischengeschalteten Schaltelements nicht aufgebaut werden kann, müssen sich die Daten in diesem Fall an ihrer Quelle ansammeln. im Eingabeblock des Ports, der den Frame empfangen hat.

Busschalter

Shared-Bus-Switches nutzen einen Hochgeschwindigkeits-Time-Sharing-Bus für die Kommunikation zwischen Port-Prozessoren. Diese Switch-Architektur basiert auf einem Universalprozessor, unterscheidet sich jedoch dadurch, dass der Bus passiv ist und die aktive Rolle von spezialisierten Port-Prozessoren übernommen wird.

Damit der Bus nicht zum Flaschenhals des Switches wird, muss seine Leistung mindestens N/2-mal höher sein als die Geschwindigkeit der an den Eingangsblöcken der Port-Prozessoren ankommenden Daten. Darüber hinaus muss der Frame in kleinen Teilen von jeweils wenigen Bytes über den Bus übertragen werden, damit die Frameübertragung zwischen mehreren Ports im pseudoparallelen Modus erfolgt, ohne dass es zu Verzögerungen bei der Übertragung des Frames als Ganzes kommt. Die Größe einer solchen Datenzelle wird vom Switch-Hersteller bestimmt. Einige Hersteller, wie LANNET (heute ein Geschäftsbereich von Madge Networks), haben die ATM-Zelle mit ihrem 48-Byte-Datenfeld als Datenstück gewählt, das in einem Busvorgang übertragen wird. Dieser Ansatz erleichtert die Übersetzung von LAN-Protokollen in ATM, wenn der Switch diese Technologien unterstützt.

Der Prozessoreingangsblock platziert ein Tag in einer auf dem Bus übertragenen Zelle, das die Ziel-Portnummer angibt. Jeder Port-Prozessor-Ausgangsblock enthält einen Tag-Filter, der Tags auswählt, die für diesen Port bestimmt sind.

Der Bus kann wie die Schaltmatrix keine Zwischenpufferung durchführen, aber da die Rahmendaten in kleine Zellen unterteilt sind, gibt es bei einem solchen Schema keine Verzögerung beim anfänglichen Warten darauf, dass der Ausgangsport verfügbar ist.

Shared-Memory-Switches

Die dritte grundlegende Port-Kommunikationsarchitektur ist der gemeinsam genutzte Speicher mit zwei Eingängen.

Die Eingangsblöcke der Port-Prozessoren sind mit dem geschalteten Eingang des gemeinsam genutzten Speichers verbunden, und die Ausgangsblöcke derselben Prozessoren sind mit dem geschalteten Ausgang dieses Speichers verbunden. Die Umschaltung der Eingabe und Ausgabe des gemeinsam genutzten Speichers wird vom Ausgabeport-Warteschlangenmanager gesteuert. Im Shared Memory organisiert der Manager mehrere Datenwarteschlangen, eine für jeden Ausgangsport. Prozessoreingangsblöcke senden Anfragen an den Portmanager, Daten in die Warteschlange des Ports zu schreiben, der der Zieladresse des Pakets entspricht. Der Manager wiederum verbindet den Speichereingang mit einem der Prozessoreingangsblöcke und schreibt einen Teil der Frame-Daten in die Warteschlange eines bestimmten Ausgangsports um. Wenn sich die Warteschlangen füllen, verbindet der Manager außerdem abwechselnd die Ausgabe des gemeinsam genutzten Speichers mit den Ausgabeblöcken der Port-Prozessoren und die Daten aus der Warteschlange werden in den Ausgabepuffer des Prozessors zurückgeschrieben.

Der Speicher muss schnell genug sein, um die Geschwindigkeit der Datenübertragung zwischen den N Ports des Switches aufrechtzuerhalten. Durch die Verwendung von gemeinsam genutztem Pufferspeicher, der vom Manager flexibel auf einzelne Ports verteilt wird, reduzieren sich die Anforderungen an die Größe des Pufferspeichers des Port-Prozessors.

Kombinationsschalter

Jede der beschriebenen Architekturen hat ihre eigenen Vor- und Nachteile, sodass diese Architekturen in komplexen Switches häufig in Kombination miteinander verwendet werden.

Der Switch besteht aus Modulen mit einer festen Anzahl von Ports (2–8), die auf der Basis eines speziellen ASIC hergestellt werden, der die Switching-Matrix-Architektur implementiert. Wenn die Ports, zwischen denen der Datenrahmen übertragen werden muss, zum selben Modul gehören, wird der Rahmen von den Modulprozessoren basierend auf der im Modul verfügbaren Schaltmatrix übertragen. Gehören die Ports zu unterschiedlichen Modulen, kommunizieren die Prozessoren über einen gemeinsamen Bus. Bei dieser Architektur erfolgt die Frame-Übertragung innerhalb eines Moduls meist schneller als bei der Übertragung zwischen Modulen, da die Schaltmatrix die schnellste, wenn auch am wenigsten skalierbare Art der Port-Interaktion ist. Die Geschwindigkeit des internen Busses von Switches kann mehrere Gbit/s und bei den leistungsstärksten Modellen bis zu 10-14 Gbit/s erreichen.

Man kann sich andere Arten der Kombination von Architekturen vorstellen, beispielsweise die Nutzung gemeinsam genutzter Speichermodule für die Interaktion.

Modulare und stapelbare Schalter

Strukturell sind Schalter unterteilt in:

♦ eigenständige Switches mit einer festen Anzahl von Ports;

♦ modulare, gehäusebasierte Switches;

♦ Switches mit einer festen Anzahl von Ports, zusammengefasst in einem Stack.

Der erste Schaltertyp ist normalerweise für die Organisation kleiner Arbeitsgruppen konzipiert.

Modulare, gehäusebasierte Switches sind meist für den Einsatz im Netzwerk-Backbone konzipiert. Daher werden sie auf der Grundlage eines kombinierten Schemas durchgeführt, bei dem die Interaktion der Module über einen Hochgeschwindigkeitsbus oder auf der Grundlage eines schnellen gemeinsam genutzten Speichers mit großer Kapazität organisiert wird. Die Module eines solchen Switches werden auf Basis der „Hot-Swap“-Technologie hergestellt, das heißt, sie können im laufenden Betrieb ausgetauscht werden, ohne den Switch auszuschalten, da das zentrale Kommunikationsgerät des Netzwerks keine Betriebsunterbrechungen haben sollte. Für den gleichen Zweck ist das Gehäuse in der Regel mit redundanten Netzteilen und redundanten Lüftern ausgestattet. Im Allgemeinen ähneln solche Switches High-End-Routern oder multifunktionalen Enterprise-Hubs, sodass sie manchmal zusätzlich zu Switch-Modulen auch Repeater- oder Router-Module enthalten.

Aus technischer Sicht sind Stacked Switches von besonderem Interesse. Bei diesen Geräten handelt es sich um Schalter, die autonom arbeiten können, da sie in einem separaten Gehäuse untergebracht sind, aber über spezielle Schnittstellen verfügen, die es ermöglichen, sie zu einem gemeinsamen System zusammenzufassen, das als ein einziger Schalter arbeitet. In diesem Fall bilden die einzelnen Switches einen Stack.

Typischerweise handelt es sich bei dieser speziellen Schnittstelle um einen Hochgeschwindigkeitsbus, der es ermöglicht, einzelne Chassis wie Module in einem gehäusebasierten Switch zu kombinieren. Da die Abstände zwischen den Gehäusen größer sind als zwischen den Modulen auf dem Chassis, ist die Busübertragungsgeschwindigkeit normalerweise niedriger als bei modularen Switches: 200–400 Mbit/s. Nicht sehr hohe Kommunikationsgeschwindigkeiten zwischen Stack-Switches sind auch darauf zurückzuführen, dass Stack-Switches meist eine Zwischenstellung zwischen Switches mit fester Portanzahl und Chassis-basierten Switches einnehmen. Gestapelte Switches werden zum Aufbau von Netzwerken aus Arbeitsgruppen und Abteilungen verwendet, sodass sie nicht wirklich auf die extrem hohen Geschwindigkeiten von Vermittlungsbussen angewiesen sind und nicht ihrer Preisklasse entsprechen.

Cisco hat einen anderen Ansatz zur Organisation des Stacks vorgeschlagen. Sein Catalyst 3000-Switch (früher EtherSwitch Pro Stack genannt) verfügt ebenfalls über eine spezielle 280 MB/s-Hzur Organisation des Stacks, mit deren Hilfe die Switches jedoch nicht untereinander, sondern mit einem separaten Gerät verbunden werden, das einen 8x8-Switch enthält Fabric, das einen leistungsfähigeren Austausch zwischen beliebigen Switch-Paaren organisiert.

Leistungsmerkmale des Schalters

Die Hauptmerkmale eines Schalters, die seine Leistung messen, sind:

♦ Filtrationsgeschwindigkeit;

♦ Routing-Geschwindigkeit (Weiterleitung);

♦ Durchsatz;

♦ Frame-Übertragungsverzögerung.

Darüber hinaus gibt es mehrere Schaltereigenschaften, die den größten Einfluss auf diese Leistungsspezifikationen haben. Diese beinhalten:

♦ Größe der Bildpuffer;

♦ interne Busleistung;

♦ Leistung des Prozessors oder der Prozessoren;

♦ Größe der internen Adresstabelle.

Filtrationsgeschwindigkeit und Vorlaufgeschwindigkeit

Frame-Filterung und Weiterleitungsgeschwindigkeit sind zwei wichtige Leistungsmerkmale eines Switches. Bei diesen Merkmalen handelt es sich um integrale Indikatoren, sie hängen nicht von der technischen Umsetzung der Umstellung ab.

Die Filterrate bestimmt die Geschwindigkeit, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

♦ Empfangen des Frames in Ihrem Puffer,

♦ Zerstörung des Frames, da sein Zielport derselbe ist wie der Quellport.

Die Weiterleitungsrate bestimmt die Geschwindigkeit, mit der der Switch die folgenden Frame-Verarbeitungsschritte ausführt:

♦ Empfangen des Frames in Ihrem Puffer,

♦ Durchsuchen Sie die Adresstabelle, um den Port für die Zieladresse des Frames zu finden.

♦ Senden eines Frames an das Netzwerk über den in der Adresstabelle gefundenen Zielport.

Sowohl die Filtergeschwindigkeit als auch die Weiterleitungsgeschwindigkeit werden normalerweise in Bildern pro Sekunde gemessen. Wenn die Eigenschaften des Switches nicht angeben, für welches Protokoll und für welche Framegröße die Filter- und Weiterleitungsgeschwindigkeiten angegeben sind, wird standardmäßig davon ausgegangen, dass diese Indikatoren für das Ethernet-Protokoll und Frames der Mindestgröße angegeben sind, d. Frames mit einer Länge von 64 Byte (ohne Präambel) und einem Datenfeld von 46 Byte. Wenn Raten für ein bestimmtes Protokoll angegeben werden, z. B. Token Ring oder FDDI, dann werden sie auch für die Frames mit der Mindestlänge dieses Protokolls angegeben (z. B. 29-Byte-Frames für das FDDI-Protokoll). Die Verwendung von Frames mit minimaler Länge als Hauptindikator für die Geschwindigkeit eines Switches erklärt sich aus der Tatsache, dass solche Frames im Vergleich zu Frames anderer Formate mit gleichem Durchsatz an übertragenen Benutzerdaten immer den schwierigsten Betriebsmodus für den Switch darstellen. Daher wird beim Testen eines Switches der Modus mit minimaler Framelänge als schwierigster Test verwendet, der die Fähigkeit des Switches überprüfen soll, unter der für ihn schlechtesten Kombination von Verkehrsparametern zu arbeiten. Darüber hinaus haben die Filter- und Weiterleitungsgeschwindigkeiten für Pakete mit minimaler Länge einen Maximalwert, was bei der Ankündigung eines Switches von nicht geringer Bedeutung ist.

Der Durchsatz eines Switches wird anhand der Menge an Benutzerdaten gemessen, die pro Zeiteinheit über seine Ports übertragen werden. Da der Switch auf Datenverbindungsebene arbeitet, sind seine Benutzerdaten die Daten, die in das Datenfeld der Protokollrahmen der Datenverbindungsschicht übertragen werden – Ethernet, Token Ring, FDDI usw. Der Maximalwert des Switch-Durchsatzes wird immer bei Frames maximaler Länge erreicht, da in diesem Fall der Anteil der Overhead-Kosten für Frame-Service-Informationen deutlich geringer ist als bei Frames minimaler Länge und die Zeit, die der Switch für Frame-Verarbeitungsvorgänge pro Frame ausführt Byte an Benutzerinformationen ist deutlich geringer.

Die Abhängigkeit des Switch-Durchsatzes von der Größe der übertragenen Frames lässt sich gut am Beispiel des Ethernet-Protokolls veranschaulichen, für das bei der Übertragung von Frames minimaler Länge eine Übertragungsgeschwindigkeit von 14880 Frames pro Sekunde und ein Durchsatz von 5,48 Mbit/s gilt erreicht, und bei der Übertragung von Frames maximaler Länge wird eine Übertragungsgeschwindigkeit von 812 Frames pro Sekunde erreicht. Sekunde und Durchsatz 9,74 Mbit/s. Beim Umschalten auf Frames mit minimaler Länge sinkt der Durchsatz fast um das Doppelte, wobei der Zeitverlust für die Frame-Verarbeitung durch den Switch nicht berücksichtigt ist.

Die Frame-Übertragungslatenz wird als die Zeit gemessen, die vom Eintreffen des ersten Bytes des Frames am Eingangsport des Switches bis zum Erscheinen dieses Bytes am Ausgangsport des Switches vergeht. Die Latenz besteht aus der Zeit, die für das Puffern der Bytes des Frames aufgewendet wird, sowie der Zeit, die für die Verarbeitung des Frames durch den Switch aufgewendet wird – das Durchsuchen der Adresstabelle, das Treffen von Filter- oder Weiterleitungsentscheidungen und der Zugriff auf die Ausgangsportumgebung.

Die durch den Schalter verursachte Verzögerung hängt von seinem Betriebsmodus ab. Wenn die Umschaltung „on the fly“ erfolgt, sind die Verzögerungen in der Regel gering und liegen zwischen 10 µs und 40 µs, bei voller Frame-Pufferung zwischen 50 µs und 200 µs (für Frames mit minimaler Länge).

Ein Switch ist ein Multiport-Gerät, daher ist es üblich, dass er alle oben genannten Eigenschaften (mit Ausnahme der Frame-Übertragungsverzögerung) in zwei Versionen aufweist. Die erste Option ist die Gesamtleistung des Switches bei gleichzeitiger Übertragung von Datenverkehr auf allen seinen Ports, die zweite Option ist die Leistung pro Port.

Da der Verkehr gleichzeitig von mehreren Ports übertragen wird, gibt es eine große Anzahl von Verkehrsoptionen, die sich in der Größe der Frames im Fluss, der Verteilung der durchschnittlichen Intensität der Frameflüsse zwischen Zielports und den Variationskoeffizienten der Intensität unterscheiden Frameflüsse usw. usw., dann muss beim Leistungsvergleich von Switches berücksichtigt werden, für welche Verkehrsvariante die veröffentlichten Leistungsdaten ermittelt wurden. Leider gibt es für Switches (oder auch für Router) keine allgemein anerkannten Traffic-Benchmarks, mit denen vergleichbare Leistungsmerkmale ermittelt werden können, wie dies bei Rechenleistungsmerkmalen wie TPC-A oder SPECint92 der Fall ist. Einige Labore, die Kommunikationsgeräte ständig testen, haben detaillierte Beschreibungen der Testbedingungen für Schalter entwickelt und wenden diese in ihrer Praxis an, aber diese Tests haben sich in der Industrie noch nicht durchgesetzt.

Schätzung der erforderlichen Gesamtleistung des Switches

Im Idealfall überträgt ein in einem Netzwerk installierter Switch Frames zwischen Knoten, die mit seinen Ports verbunden sind, mit der Geschwindigkeit, mit der die Knoten diese Frames erzeugen, ohne dass zusätzliche Verzögerungen entstehen oder ein einzelner Frame verloren geht. In der Praxis führt der Switch immer zu Verzögerungen bei der Übertragung von Frames und kann auch dazu führen, dass einige Frames verloren gehen, also nicht an die Empfänger übermittelt werden. Aufgrund der Unterschiede in der internen Organisation verschiedener Switch-Modelle ist es schwierig vorherzusagen, wie ein bestimmter Switch Frames für ein bestimmtes Verkehrsmuster übertragen wird. Das beste Kriterium ist immer noch die Praxis, einen Switch in einem realen Netzwerk zu platzieren und die dadurch verursachten Verzögerungen sowie die Anzahl der verlorenen Frames zu messen. Es gibt jedoch einige einfache Berechnungen, die Ihnen eine Vorstellung davon geben können, wie sich der Schalter in einer realen Situation verhält.

Grundlage für die Beurteilung, wie ein Switch mit der Kommunikation der an seine Ports angeschlossenen Knoten oder Segmente zurechtkommt, sind Daten zur durchschnittlichen Verkehrsintensität zwischen Netzwerkknoten. Das bedeutet, dass wir irgendwie abschätzen müssen, wie viele Frames pro Sekunde ein an Port P2 angeschlossener Knoten durchschnittlich für einen an Port P4 angeschlossenen Knoten (P24-Verkehr), einen an Port R3 angeschlossenen Knoten (P23-Verkehr) usw. generiert , an den Knoten, der an Port P6 angeschlossen ist. Dieser Vorgang muss dann für den Verkehr wiederholt werden, der von Knoten erzeugt wird, die an die Ports 3, 4, 5 und 6 angeschlossen sind. Im Allgemeinen ist die Intensität des von einem Knoten zu einem anderen erzeugten Verkehrs nicht dieselbe wie die Intensität des in die entgegengesetzte Richtung erzeugten Verkehrs .

Das Ergebnis der Verkehrsstudie wird die Erstellung einer Verkehrsmatrix sein. Der Datenverkehr kann sowohl in Frames pro Sekunde als auch in Bits pro Sekunde gemessen werden. Da die erforderlichen Verkehrswerte dann mit den Leistungsindikatoren des Switches verglichen werden, müssen diese in den gleichen Einheiten vorliegen. Der Sicherheit halber gehen wir davon aus, dass im betrachteten Beispiel der Datenverkehr und die Switch-Leistung in Bits pro Sekunde gemessen werden.

Eine ähnliche Matrix wird von RMON MIB-Agenten (Traffic Matrix Variable) erstellt, die in Netzwerkadapter oder andere Kommunikationsgeräte integriert sind.

Damit der Switch die erforderliche Verkehrsmatrix unterstützen kann, müssen mehrere Bedingungen erfüllt sein.

1. Die Gesamtleistung des Switches sollte größer sein
oder gleich der Gesamtintensität des übertragenen Verkehrs.

Wenn diese Ungleichheit nicht erfüllt ist, wird der Switch den Fluss der eingehenden Frames mit Sicherheit nicht bewältigen und diese gehen aufgrund eines Überlaufs der internen Puffer verloren. Da die Formel Durchschnittswerte der Verkehrsintensität enthält, kann kein Betrag, selbst eine sehr große Größe des internen Puffers oder der Switch-Puffer, eine zu langsame Frame-Verarbeitung kompensieren.

Die Gesamtleistung des Switches wird durch die ausreichend hohe Leistung jedes seiner einzelnen Elemente – Portprozessor, Schaltmatrix, gemeinsame Busverbindungsmodule usw. – sichergestellt. Unabhängig von der internen Organisation des Switches und der Art und Weise, wie seine Vorgänge weitergeleitet werden, ist es möglich, ziemlich einfache Leistungsanforderungen für seine Elemente zu bestimmen, die zur Unterstützung einer bestimmten Verkehrsmatrix erforderlich sind. Lassen Sie uns einige davon auflisten.

2. Nominelle maximale Protokollleistung
Jeder Port des Schalters darf nicht unter der durchschnittlichen Intensität liegen
der gesamte Verkehr, der durch den Hafen fließt.

3. Die Prozessorleistung jedes Ports darf nicht geringer sein als die durchschnittliche Intensität des gesamten über den Port fließenden Datenverkehrs. Die Bedingung ähnelt der vorherigen, jedoch muss statt der Nennleistung des unterstützten Protokolls die Leistung des Port-Prozessors genutzt werden.

4. Die Leistung des internen Busses des Switches darf nicht geringer sein als die durchschnittliche Intensität des gesamten Datenverkehrs, der zwischen Ports verschiedener Switch-Module übertragen wird.

Diese Prüfung sollte natürlich nur bei Switches durchgeführt werden, die über eine interne modulare Architektur verfügen und einen gemeinsamen Bus für die Kommunikation zwischen Modulen verwenden. Für Switches mit einer anderen internen Organisation, beispielsweise mit gemeinsam genutztem Speicher, ist es einfach, ähnliche Formeln vorzuschlagen, um die ausreichende Leistung ihrer internen Elemente zu überprüfen.

Die oben genannten Bedingungen sind notwendig, damit der Switch die Aufgabe im Durchschnitt bewältigen kann und nicht ständig Frames verliert. Wenn mindestens eine der oben genannten Bedingungen nicht erfüllt ist, wird der Frameverlust nicht zu einem episodischen Phänomen bei Spitzenverkehrswerten, sondern zu einem konstanten Phänomen, da selbst durchschnittliche Verkehrswerte die Fähigkeiten des Switches überschreiten.

Die Bedingungen 1 und 2 gelten für Switches mit beliebiger interner Organisation, und die Bedingungen 3 und 4 dienen als Beispiel für die Notwendigkeit, die Leistung einzelner Ports zu berücksichtigen.

Da Switch-Hersteller bestrebt sind, ihre Geräte so schnell wie möglich zu machen, übersteigt die interne Gesamtleistung eines Switches oft um einiges die durchschnittliche Menge an Datenverkehr, die gemäß ihren Protokollen an die Switch-Ports gesendet werden kann. Solche Schalter werden als nicht blockierend bezeichnet, was die Tatsache unterstreicht, dass jede Art von Verkehr übertragen wird, ohne seine Intensität zu verringern.

Unabhängig von der Gesamtleistung des Switches können Sie für ihn jedoch immer eine solche Verkehrsverteilung zwischen den Ports festlegen, dass der Switch nicht mehr zurechtkommt und zwangsläufig Frames verliert. Hierzu reicht es aus, dass der gesamte über den Switch übertragene Datenverkehr für einen seiner Ausgangsports die maximale Protokollkapazität dieses Ports überschreitet. Wenn beispielsweise die Ports P4, P5 und P6 jeweils 5 Mbit/s an Port P2 senden, kann Port P2 keinen Datenverkehr mit einer durchschnittlichen Intensität von 15 Mbit/s an das Netzwerk übertragen, selbst wenn der Prozessor dieses Ports über eine solche Leistung verfügt. Der Puffer von Port P2 füllt sich mit einer gewissen Geschwindigkeit

Die Datenmenge beträgt ca. 15 Mbit/s und wird mit einer maximalen Rate von 10 Mbit/s verbraucht, sodass die Menge an Rohdaten mit einer Rate von 5 Mbit/s anwächst, was unweigerlich zu einem Überlauf eines Puffers endlicher Größe und damit zu einem Frameverlust führt .

Aus dem obigen Beispiel wird deutlich, dass Switches ihre hohe interne Leistung nur bei ausgewogenem Verkehr voll ausschöpfen können, wenn die Wahrscheinlichkeit, Frames von einem Port zum anderen zu übertragen, annähernd gleich ist. Im Falle von „Verzerrungen“ des Datenverkehrs, wenn mehrere Ports ihren Datenverkehr überwiegend an einen Port senden, ist der Switch möglicherweise nicht in der Lage, die Aufgabe zu bewältigen, nicht einmal aufgrund der unzureichenden Leistung seiner Port-Prozessoren, sondern aufgrund von Einschränkungen des Port-Protokolls.

Selbst wenn alle oben genannten Bedingungen erfüllt sind, kann der Switch einen großen Prozentsatz an Frames verlieren, da diese notwendig, aber nicht ausreichend für die rechtzeitige Weiterleitung von Frames sind, die an Empfängerports empfangen werden. Diese Bedingungen reichen nicht aus, da sie die Übertragung von Frames über den Switch erheblich vereinfachen. Wenn man sich nur auf die Durchschnittswerte der Flussintensitäten konzentriert, werden Kollisionen, die zwischen den Port- und Netzwerkadaptersendern des Computers entstehen, Verluste beim Warten auf den Zugriff auf das Medium und andere Phänomene, die durch zufällige Momente der Frame-Generierung verursacht werden, nicht berücksichtigt , zufällige Framegrößen und andere zufällige Faktoren, die die tatsächliche Leistungsumschaltung erheblich reduzieren. Dennoch ist die Verwendung dieser Schätzungen nützlich, da sie es uns ermöglicht, Fälle zu identifizieren, in denen die Verwendung eines bestimmten Switch-Modells für ein bestimmtes Netzwerk offensichtlich inakzeptabel ist.

Da es nicht immer möglich ist, die Intensität der Frame-Flüsse zwischen Netzwerkknoten abzuschätzen, stellen wir am Ende dieses Abschnitts eine Beziehung vor, die es uns ermöglicht zu sagen, dass der Switch über genügend interne Leistung verfügt, um Frame-Flüsse zu unterstützen, wenn sie alle seine Ports passieren mit maximaler Intensität. Mit anderen Worten erhalten wir die Bedingung, dass der Switch für einen bestimmten Satz von Ports nicht blockierend ist.

Offensichtlich ist ein Switch nicht blockierend, wenn die gesamte interne Leistung des Switches der Summe der maximalen Protokollkapazitäten aller seiner Ports entspricht.

Das heißt, wenn ein Switch beispielsweise über 12 Ethernet-Ports und 2 Fast Ethernet-Ports verfügt, reicht die interne Leistung von 320 Mbit/s aus, um jede Verteilung des Datenverkehrs zu bewältigen, der über seine Ports in den Switch gelangt. Diese interne Leistung ist jedoch redundant, da der Switch nicht nur für den Empfang von Frames, sondern auch für deren Übertragung an den Zielport ausgelegt ist. Daher können nicht alle Switch-Ports ständig nur Informationen von außen mit maximaler Geschwindigkeit empfangen – die durchschnittliche Intensität der Informationen, die alle Switch-Ports verlassen, muss gleich der durchschnittlichen Intensität der empfangenen Informationen sein. Folglich entspricht die maximale Geschwindigkeit der über den Switch im stabilen Modus übertragenen Informationen der Hälfte des Gesamtdurchsatzes aller Ports – jeder Eingangsrahmen ist ein Ausgangsrahmen für einen Port. Gemäß dieser Aussage reicht es für den normalen Betrieb des Switches aus, dass seine interne Gesamtleistung der Hälfte der Summe der maximalen Protokolldurchsätze aller seiner Ports entspricht.

Für einen Switch mit 12 Ethernet-Ports und 2 Fast-Ethernet-Ports reicht daher eine durchschnittliche Gesamtleistung von 160 Mbit/s völlig aus, um alle Verkehrsverteilungsoptionen, die von seinen Ports übertragen werden können, über einen längeren Zeitraum normal zu übertragen Zeit.

Es muss noch einmal betont werden, dass diese Bedingung nur gewährleistet, dass die internen Elemente des Switches – Portprozessoren, Intermodulbus, Zentralprozessor usw. - mit der Verarbeitung des eingehenden Datenverkehrs zurechtkommen. Eine Asymmetrie in der Verteilung dieses Datenverkehrs auf die Ausgangsports kann immer dazu führen, dass der Datenverkehr aufgrund von Einschränkungen des Portprotokolls nicht rechtzeitig an das Netzwerk gesendet werden kann. Um Frame-Verluste zu verhindern, verwenden viele Switch-Hersteller proprietäre Lösungen, die es ihnen ermöglichen, die Sender der mit dem Switch verbundenen Knoten zu „verlangsamen“, d. h. sie führen Flusskontrollen ein, ohne die Portprotokolle des Endknotens zu ändern. Diese Methoden werden im Folgenden erläutert, wenn die zusätzlichen Funktionen von Schaltern betrachtet werden.

Neben dem Durchsatz einzelner Switch-Elemente wie Port-Prozessoren oder des gemeinsamen Busses wird die Switch-Leistung durch Parameter wie die Größe der Adresstabelle und die Größe des allgemeinen Puffers oder einzelner Port-Puffer beeinflusst.

Größe der Adresstabelle

Die maximale Kapazität der Adresstabelle bestimmt die maximale Anzahl von MAC-Adressen, die der Switch gleichzeitig verarbeiten kann. Da Switches meist eine dedizierte Verarbeitungseinheit verwenden, um Vorgänge an jedem Port auszuführen, mit eigenem Speicher zum Speichern einer Instanz der Adresstabelle, wird die Größe der Adresstabelle für Switches normalerweise pro Port angegeben. Instanzen der Adresstabelle verschiedener Prozessormodule enthalten nicht unbedingt die gleichen Adressinformationen – höchstwahrscheinlich wird es nicht viele doppelte Adressen geben, es sei denn, die Verteilung des Datenverkehrs auf jedem Port ist unter den anderen Ports völlig gleich. Jeder Port speichert nur die Adresssätze, die er zuletzt verwendet hat.

Die maximale Anzahl an MAC-Adressen, die sich der Port-Prozessor merken kann, hängt von der Anwendung des Switches ab. Arbeitsgruppen-Switches unterstützen normalerweise nur wenige Adressen pro Port, da sie für die Bildung von Mikrosegmenten konzipiert sind. Abteilungs-Switches müssen mehrere hundert Adressen unterstützen, und Netzwerk-Backbone-Switches müssen bis zu mehrere Tausend, normalerweise 4K-8K-Adressen, unterstützen.

Eine unzureichende Kapazität der Adresstabelle kann dazu führen, dass der Switch langsamer wird und das Netzwerk durch übermäßigen Datenverkehr verstopft wird. Wenn die Adresstabelle des Port-Prozessors vollständig gefüllt ist und er in einem eingehenden Paket auf eine neue Quelladresse stößt, muss er alle alten Adressen aus der Tabelle entfernen und an ihrer Stelle eine neue platzieren. Dieser Vorgang selbst wird einige Zeit des Prozessors in Anspruch nehmen, der größte Leistungsverlust wird jedoch beobachtet, wenn ein Frame mit einer Zieladresse ankommt, die aus der Adresstabelle entfernt werden musste. Da die Zieladresse des Frames unbekannt ist, muss der Switch den Frame an alle anderen Ports weiterleiten. Dieser Vorgang verursacht für viele Port-Prozessoren unnötige Arbeit, außerdem landen Kopien dieses Frames in den Netzwerksegmenten, in denen sie völlig unnötig sind.

Einige Switch-Hersteller lösen dieses Problem, indem sie den Algorithmus für die Verarbeitung von Frames mit unbekannter Zieladresse ändern. Einer der Switch-Ports ist als Trunk-Port konfiguriert, an den standardmäßig alle Frames mit unbekannter Adresse gesendet werden. Diese Technik wird seit langem in Routern eingesetzt und ermöglicht es, die Größe von Adresstabellen in Netzwerken zu reduzieren, die nach einem hierarchischen Prinzip organisiert sind.

Ein Frame wird an einen Trunk-Port übertragen, vorausgesetzt, dieser Port ist mit einem Upstream-Switch verbunden, der über ausreichende Adresstabellenkapazität verfügt und weiß, wohin ein Frame gesendet werden soll. Ein Beispiel für eine erfolgreiche Frame-Übertragung bei Verwendung des Trunk-Ports ist, dass der übergeordnete Switch über Informationen zu allen Knoten im Netzwerk verfügt, sodass der Frame mit der Ziel-MAIS-Adresse, der über den Trunk-Port an ihn übertragen wird, über Port 2 an übertragen wird der Switch, an dem der Knoten mit der MAIS-Adresse angeschlossen ist.

Obwohl die Trunk-Port-Methode in vielen Fällen effektiv funktioniert, kann man sich Situationen vorstellen, in denen Frames einfach verloren gehen. Eine solche Situation ist die folgende: Ein Downstream-Switch hat die MAC8-Adresse, die an seinem Port 4 angeschlossen ist, aus seiner Adresstabelle entfernt, um Platz für eine neue MAC-Adresse zu schaffen. Wenn ein Frame mit der Zieladresse MAC8 eintrifft, übermittelt der Switch ihn an Trunk-Port 5, über den der Frame zum übergeordneten Switch gelangt. Dieser Switch sieht aus seiner Adresstabelle, dass die MAC8-Adresse zu seinem Port 1 gehört, über den er in den Switch gelangt ist. Daher wird der Frame nicht weiterverarbeitet, sondern lediglich gefiltert und gelangt somit nicht zum Empfänger. Daher ist es zuverlässiger, Switches mit ausreichender Adresstabelle für jeden Port sowie der Unterstützung einer gemeinsamen Adresstabelle durch das Switch-Management-Modul zu verwenden.

Puffervolumen

Der interne Pufferspeicher des Switches wird benötigt, um Datenrahmen zwischenzuspeichern, falls diese nicht sofort an den Ausgangsport übertragen werden können. Der Puffer dient dazu, kurzfristige Verkehrsstöße auszugleichen. Denn selbst wenn der Verkehr gut ausbalanciert ist und die Leistung der Port-Prozessoren sowie anderer Verarbeitungselemente des Switches ausreicht, um durchschnittliche Verkehrswerte zu übertragen, ist dies keine Garantie dafür, dass ihre Leistung für sehr große Spitzen ausreicht Ladungen. Beispielsweise kann der Datenverkehr innerhalb weniger zehn Millisekunden gleichzeitig an allen Switch-Eingängen ankommen, wodurch er daran gehindert wird, empfangene Frames an Ausgangsports zu übertragen.

Um einen Frame-Verlust zu verhindern, wenn die durchschnittliche Verkehrsintensität wiederholt für kurze Zeit überschritten wird (und bei lokalen Netzwerken werden häufig Verkehrs-Ripple-Koeffizientenwerte im Bereich von 50-100 gefunden), ist ein großvolumiger Puffer das einzige Mittel. Wie bei Adresstabellen verfügt jedes Portprozessormodul normalerweise über einen eigenen Pufferspeicher zum Speichern von Frames. Je größer das Volumen dieses Speichers ist, desto geringer ist die Wahrscheinlichkeit, dass Frames aufgrund von Überlastungen verloren gehen. Bei unausgeglichenen durchschnittlichen Verkehrswerten kommt es jedoch früher oder später zu einem Überlauf des Puffers.

Typischerweise verfügen Switches, die für den Betrieb in kritischen Teilen des Netzwerks ausgelegt sind, über einen Pufferspeicher von mehreren zehn oder hundert Kilobyte pro Port. Gut ist es, wenn dieser Pufferspeicher auf mehrere Ports umverteilt werden kann, da eine gleichzeitige Überlastung mehrerer Ports unwahrscheinlich ist. Ein zusätzlicher Schutz kann ein Puffer sein, der allen Ports im Switch-Management-Modul gemeinsam ist. Ein solcher Puffer hat üblicherweise eine Kapazität von mehreren Megabyte.

Zusätzliche Switch-Funktionen

Da es sich bei einem Switch um ein komplexes Computergerät mit mehreren Prozessormodulen handelt, ist es selbstverständlich, ihn neben der Hauptfunktion der Übertragung von Frames von Port zu Port mithilfe eines Bridge-Algorithmus mit einigen zusätzlichen Funktionen auszustatten, die für den Aufbau von Zuverlässigkeit und Flexibilität nützlich sind Netzwerke. Im Folgenden werden die gängigsten erweiterten Switch-Funktionen beschrieben, die von den meisten Herstellern von Kommunikationsgeräten unterstützt werden.

Übersetzung von Link-Layer-Protokollen

Switches können ein Link-Layer-Protokoll in ein anderes übersetzen, beispielsweise Ethernet in FDDI, Fast Ethernet in Token Ring usw. Darüber hinaus arbeiten sie mit denselben Algorithmen wie Broadcasting Bridges, also gemäß den Spezifikationen RFC 1042 und 802.1H, die die Regeln für die Konvertierung von Frame-Feldern verschiedener Protokolle definieren.

Die Übersetzung lokaler Netzwerkprotokolle wird dadurch erleichtert, dass die komplexeste Arbeit, die Router und Gateways bei der Verbindung heterogener Netzwerke häufig leisten, nämlich die Übersetzung von Adressinformationen, in diesem Fall nicht durchgeführt werden muss. Alle Endknoten lokaler Netzwerke verfügen unabhängig vom unterstützten Protokoll über eindeutige Adressen im gleichen Format. Daher wird die Adresse der Ethernet-NIC von der FDDI-NIC verstanden und sie können diese Adressen in den Feldern ihrer Frames verwenden, ohne denken zu müssen, dass der Knoten, mit dem sie kommunizieren, zu einem Netzwerk gehört, das auf einer anderen Technologie läuft.

Daher erstellen Switches bei der Aushandlung lokaler Netzwerkprotokolle keine Host-Adress-Korrespondenztabellen, sondern übertragen Ziel- und Quelladressen vom Rahmen eines Protokolls in den Rahmen eines anderen Protokolls. Die einzige Konvertierung, die möglicherweise durchgeführt werden muss, ist eine Konvertierung der Bitreihenfolge, wenn das Ethernet-Netzwerk an ein Token Ring- oder FDDI-Netzwerk angepasst wird. Dies liegt daran, dass Ethernet-Netzwerke die sogenannte kanonische Form der Adressübertragung über das Netzwerk übernehmen, bei der das niedrigstwertige Bit des höchstwertigen Bytes der Adresse zuerst übertragen wird. In FDDI- und Token-Ring-Netzwerken wird das höchstwertige Bit des höchstwertigen Bytes der Adresse immer zuerst übertragen. Da die lOOVG-AnyLAN-Technologie entweder Ethernet- oder Token-Ring-Frames verwendet, hängt ihre Übersetzung in andere Technologien davon ab, welche Protokollframes in einem bestimmten Segment des lOOVG-AnyLAN-Netzwerks verwendet werden.

Neben der Änderung der Bitreihenfolge bei der Übertragung von Adressbytes erfordert die Übersetzung des Ethernet-Protokolls (und von Fast Ethernet, das das Ethernet-Frame-Format verwendet) in die Protokolle FDDI und Token Ring die Durchführung der folgenden (möglicherweise nicht aller) Vorgänge:

♦ Berechnen Sie die Länge des Frame-Datenfelds und geben Sie diesen Wert in das Feld „Länge“ ein, wenn Sie einen Frame von einem FDDI- oder Token-Ring-Netzwerk an ein 802.3-Ethernet-Netzwerk übertragen (in FDDI- und Token-Ring-Frames gibt es kein Längenfeld).

♦ Ausfüllen von Frame-Statusfeldern beim Übertragen von Frames von einem FDDI- oder Token-Ring-Netzwerk an ein Ethernet-Netzwerk. FDDI- und Token-Ring-Frames verfügen über zwei Bits, die von der Station, für die der Frame bestimmt war, gesetzt werden müssen – das Adresserkennungsbit A und das Frame-Kopierbit C. Beim Empfang eines Frames muss die Station diese beiden Bits setzen, damit die Frame, der entlang des Rings zur Station zurückkehrt. Wer ihn generiert hat, brachte Feedback-Daten. Wenn ein Switch einen Frame an ein anderes Netzwerk überträgt, gibt es keine Standardregeln für das Setzen der A- und C-Bits im Frame, der zur Quellstation zurückgeleitet wird. Daher lösen Schalterhersteller dieses Problem nach eigenem Ermessen.

♦ Verwerfen von Frames, die von FDDI- oder Token-Ring-Netzwerken an ein Ethernet-Netzwerk mit einer Datenfeldgröße von mehr als 1500 Byte gesendet werden, da dies der maximal mögliche Datenfeldwert für Ethernet-Netzwerke ist. Zukünftig ist es möglich, die maximale Datenfeldgröße von FDDI- oder Token-Ring-Netzwerken mithilfe von Protokollen höherer Ebene, beispielsweise TCP, zu beschneiden. Eine andere Lösung für dieses Problem besteht darin, dass der Switch die IP-Fragmentierung unterstützt. Dies erfordert jedoch erstens die Implementierung eines Netzwerkschichtprotokolls im Switch und zweitens die Unterstützung des IP-Protokolls durch die interagierenden Knoten der übersetzten Netzwerke.

♦ Füllen des Typfelds (Protokolltyp im Datenfeld) eines Ethernet II-Frames, wenn Frames aus Netzwerken eintreffen,

Unterstützt FDDI- oder Token-Ring-Frames, die dieses Feld nicht haben. Um Informationen im Feld „Typ“ zu speichern, schlägt der RFC 1042-Standard die Verwendung des Felds „Typ“ des LLC/SNAP-Frame-Headers vor, das in das Datenfeld des MAC-Frames der FDDI- oder Token-Ring-Protokolle eingefügt wird. Die umgekehrte Konvertierung überträgt den Wert aus dem Type-Feld des LLC/SNAP-Headers in das Type-Feld des Ethernet II-Frames.

♦ Neuberechnung der Frame-Prüfsumme entsprechend den generierten Werten der Frame-Service-Felder.

Unterstützung des Spanning Tree-Algorithmus

Der Spanning Tree Algorithmus (STA) ermöglicht es Switches, automatisch die baumartige Konfiguration von Verbindungen im Netzwerk zu bestimmen, wenn sie Ports willkürlich miteinander verbinden. Wie bereits erwähnt, erfordert der normale Betrieb des Switches das Fehlen geschlossener Routen im Netzwerk. Diese Routen können vom Administrator gezielt erstellt werden, um Backup-Verbindungen zu erstellen, oder sie können zufällig entstehen, was durchaus möglich ist, wenn das Netzwerk über zahlreiche Verbindungen verfügt und das Verkabelungssystem schlecht strukturiert oder dokumentiert ist.

Switches, die den STA-Algorithmus unterstützen, erstellen automatisch eine aktive baumartige Konfiguration von Links (d. h. eine verbundene Konfiguration ohne Schleifen) auf der Menge aller Links im Netzwerk. Diese Konfiguration wird Spanning Tree (manchmal auch Spanning Tree oder Core Tree genannt) genannt und gibt dem gesamten Algorithmus seinen Namen.

Switches finden den Spanning Tree adaptiv durch den Austausch von Servicepaketen. Die Implementierung des STA-Algorithmus in einem Switch ist für das Arbeiten in großen Netzwerken sehr wichtig – unterstützt der Switch diesen Algorithmus nicht, muss der Administrator selbstständig ermitteln, welche Ports in einen gesperrten Zustand versetzt werden müssen, um Schleifen zu vermeiden. Darüber hinaus muss der Administrator beim Ausfall einer Verbindung, eines Ports oder Switches erstens die Tatsache des Ausfalls erkennen und zweitens die Folgen des Ausfalls beseitigen, indem er die Backup-Verbindung durch Aktivierung einiger Ports in den Betriebsmodus schaltet.

Grundlegende Definitionen

Das Netzwerk definiert einen Root-Switch, aus dem der Baum aufgebaut wird. Der Root-Switch kann automatisch ausgewählt oder vom Administrator zugewiesen werden. Bei automatischer Auswahl

Der Switch mit der niedrigeren MAC-Adresse seiner Steuereinheit wird zur niedrigeren.

Für jeden Switch wird ein Root-Port definiert – das ist der Port, der im Netzwerk die kürzeste Entfernung zum Root-Switch hat (genauer gesagt zu jedem der Ports des Root-Switches). Anschließend wird für jedes Netzwerksegment ein sogenannter Designated Port ausgewählt – das ist der Port, der von diesem Segment die kürzeste Entfernung zum Root-Switch hat.

Das Konzept der Distanz spielt bei der Konstruktion des Spannbaums eine wichtige Rolle. Anhand dieses Kriteriums wird ein einzelner Port ausgewählt, der jeden Switch mit dem Root-Switch verbindet, und ein einzelner Port, der jedes Netzwerksegment mit dem Root-Switch verbindet. Alle anderen Ports werden in einen Standby-Zustand versetzt, d. h. in einen Zustand, in dem sie keine normalen Datenrahmen übertragen. Es kann nachgewiesen werden, dass bei dieser Wahl der aktiven Ports im Netzwerk Schleifen eliminiert werden und die verbleibenden Links einen Spanning Tree bilden.

Die Entfernung zum Root ist definiert als die gesamte bedingte Zeit für die Datenübertragung vom Port eines bestimmten Switches zum Port des Root-Switches. In diesem Fall wird davon ausgegangen, dass die Zeit der internen Datenübertragung (von Port zu Port) durch den Switch vernachlässigbar ist und nur die Zeit für die Datenübertragung entlang der die Switches verbindenden Netzwerksegmente berücksichtigt wird. Die bedingte Segmentzeit wird als die Zeit berechnet, die für die Übertragung eines Informationsbits in Einheiten von 10 Nanosekunden zwischen Ports aufgewendet wird, die direkt entlang des Netzwerksegments verbunden sind. Für ein Ethernet-Segment beträgt diese Zeit also 10 herkömmliche Einheiten und für ein Token-Ring-Segment mit 16 Mbit/s 6,25. (Der STA-Algorithmus ist keinem bestimmten Link-Layer-Standard zugeordnet; er kann auf Switches angewendet werden, die Netzwerke unterschiedlicher Technologien verbinden.)

Um die anfängliche aktive Konfiguration des Baums automatisch zu bestimmen, beginnen alle Switches im Netzwerk nach ihrer Initialisierung, regelmäßig spezielle Pakete namens Bridge Protocol Data Units (BPDU) auszutauschen, was die Tatsache widerspiegelt, dass der STA-Algorithmus ursprünglich für Bridges entwickelt wurde.

BPDU-Pakete werden im Datenfeld von Link-Layer-Frames wie Ethernet- oder FDDI-Frames platziert. Es ist wünschenswert, dass alle Switches eine gemeinsame Multicast-Adresse unterstützen, über die Frames mit BPDU-Paketen gleichzeitig an alle Switches im Netzwerk übertragen werden können. Andernfalls werden BPDU-Pakete gesendet.

Das BPDU-Paket enthält die folgenden Felder:

♦ STA-Protokollversionskennung – 2 Bytes. Switches müssen dieselbe Version des STA-Protokolls unterstützen, andernfalls kann es zu einer aktiven Schleifenkonfiguration kommen.

♦ BPDU-Typ – 1 Byte. Es gibt zwei Arten von BPDU – eine Konfigurations-BPDU, d hat ein Ereignis erkannt, das eine Neukonfiguration erfordert – Verbindungsfehler, Portfehler, Änderung der Switch- oder Portprioritäten.

♦ Flags – 1 Byte. Ein Bit enthält das Konfigurationsänderungsflag, das zweite Bit enthält das Konfigurationsänderungsbestätigungsflag.

♦ Root-Switch-ID – 8 Bytes.

♦ Abstand zur Wurzel – 2 Bytes.

♦ Switch-ID – 8 Bytes.

♦ Port-ID – 2 Bytes.

♦ Nachrichtenlebensdauer – 2 Bytes. Gemessen in Einheiten von 0,5 s dient es zur Identifizierung veralteter Nachrichten. Wenn ein BPDU-Paket einen Switch passiert, addiert es die Zeit, die es durch diesen Switch verzögert wird, zur Lebensdauer des Pakets.

♦ Die maximale Nachrichtenlebensdauer beträgt 2 Bytes. Wenn die Lebensdauer eines BPDU-Pakets über dem Maximum liegt, wird es von den Switches ignoriert.

♦ Das Hallo-Intervall, in dem BPDU-Pakete gesendet werden.

♦ Statusänderungsverzögerung – 2 Bytes. Mindestzeit für den Übergang von Switch-Ports in den aktiven Zustand. Diese Verzögerung ist notwendig, um die Möglichkeit einer vorübergehenden Entstehung alternativer Routen auszuschließen, wenn sich die Hafenzustände während der Neukonfiguration nicht gleichzeitig ändern.

In der BPDU der Nfehlen alle Felder bis auf die ersten beiden.

Nach der Initialisierung betrachtet sich jeder Switch zunächst als Root-Switch. Daher beginnt es im Hallo-Intervall mit der Generierung von BPDU-Nachrichten vom Konfigurationstyp über alle seine Ports. Darin gibt er seine Kennung als Kennung des Root-Switches (und auch dieses Switches) an, die Entfernung zum Root wird auf 0 gesetzt und die Port-Kennung ist die Kennung des Ports, über den die BPDU übertragen wird. Sobald ein Switch eine BPDU empfängt, die eine Root-Switch-ID enthält, die kleiner als seine eigene ist, stoppt er die Generierung seiner eigenen BPDU-Frames und beginnt, nur die Frames des neuen Kandidaten-Root-Switch weiterzuleiten. Bei der Weiterleitung von Frames wird der Abstand zum Stamm, der in der eingehenden BPDU angegeben ist, um die bedingte Zeit des Segments erhöht, in dem dieser Frame empfangen wurde.

Bei der Weiterleitung von Frames merkt sich jeder Switch für jeden seiner Ports den Mindestabstand zum Root, der in allen von diesem Port empfangenen BPDU-Frames auftritt. Wenn der Vorgang zum Einrichten der Spanning Tree-Konfiguration (rechtzeitig) abgeschlossen ist, findet jeder Switch seinen Root-Port – das ist der Port, der der Wurzel des Baums am nächsten liegt als andere Ports. Darüber hinaus wählen Switches verteilt einen bestimmten Port für jedes Netzwerksegment aus. Dazu schließen sie ihren Root-Port aus der Betrachtung aus und vergleichen für alle verbleibenden Ports die für sie akzeptierten Mindestabstände zum Root mit dem Abstand zum Root ihres Root-Ports. Wenn bei einem Heimathafen diese Entfernung geringer ist als die akzeptierten, bedeutet dies, dass es sich um einen ausgewiesenen Hafen handelt. Alle Ports außer den zugewiesenen werden in einen blockierten Zustand versetzt und damit ist der Aufbau des Spanning Tree abgeschlossen.

Im Normalbetrieb generiert der Root-Switch weiterhin Service-Frames und andere Switches empfangen diese weiterhin an ihren Root-Ports und leiten sie an die dafür vorgesehenen weiter. Wenn der Switch keine designierten Ports hat, empfängt er dennoch Service-Frames auf dem Root-Port. Wenn der Root-Port nach Ablauf des Timeouts keinen Service-Frame empfängt, initiiert er einen neuen Spanning-Tree-Konstruktionsvorgang.

Möglichkeiten zur Steuerung des Frameflusses

Einige Hersteller nutzen in ihren Switches Frame-Flow-Control-Techniken, die in den LAN-Protokollstandards nicht enthalten sind, um Frame-Verluste aufgrund von Überlastung zu verhindern.

Da Verluste auch nur eines kleinen Bruchteils der Frames in der Regel die Nutzleistung des Netzwerks erheblich beeinträchtigen, wäre es bei einer Überlastung des Switches sinnvoll, die Rate der Frames, die von den Endknoten an den Switch-Empfängern ankommen, zu verlangsamen, um Sender zu ermöglichen ihre Puffer schneller entladen zu müssen. Der Algorithmus zum Wechseln von gesendeten und empfangenen Frames (Frame Interleave) muss flexibel sein und es dem Computer in kritischen Situationen ermöglichen, für jeden empfangenen Frame mehrere eigene zu übertragen, wobei die Empfangsintensität nicht unbedingt auf Null, sondern lediglich auf das erforderliche Niveau reduziert wird .

Um einen solchen Algorithmus zu implementieren, muss der Switch über einen Mechanismus verfügen, um die Verkehrsintensität der mit seinen Ports verbundenen Knoten zu reduzieren. Einige LAN-Protokolle wie FDDI, Token Ring oder lOOVG-AnyLAN verfügen über die Möglichkeit, die Portpriorität zu ändern und so dem Switch-Port Vorrang vor dem Computer-Port zu geben. Die Protokolle Ethernet und Fast Ethernet verfügen nicht über diese Fähigkeit, daher verwenden Switch-Hersteller für diese sehr beliebten Technologien zwei Methoden zur Beeinflussung von Endknoten.

Diese Techniken basieren auf der Tatsache, dass Endknoten alle Parameter des Medienzugriffsalgorithmus strikt einhalten, Switch-Ports jedoch nicht.

Die erste Methode zum „Bremsen“ eines Endknotens basiert auf dem sogenannten aggressiven Verhalten des Switch-Ports bei der Beschlagnahme des Mediums nach dem Ende der Übertragung des nächsten Pakets oder nach einer Kollision.

Der Schalter kann diesen Mechanismus adaptiv nutzen und seine Aggressivität je nach Bedarf erhöhen.

Die zweite Technik, die Switch-Entwickler verwenden, besteht darin, Dummy-Frames an den Computer zu übertragen, wenn der Switch keine Frames in seinem Puffer hat, die über einen bestimmten Port übertragen werden könnten. In diesem Fall darf der Switch die Parameter des Zugriffsalgorithmus nicht verletzen und ehrlich mit dem Endknoten um das Recht konkurrieren, seinen Frame zu übertragen. Da das Medium mit gleicher Wahrscheinlichkeit entweder dem Switch oder dem Endknoten zur Verfügung steht, wird die Intensität der Frameübertragung zum Switch im Durchschnitt halbiert. Diese Methode wird Gegendruckmethode genannt. Es kann mit einer aggressiven Medienerfassungstechnik kombiniert werden, um die Endknotenaktivität weiter zu unterdrücken.

Die Gegendruckmethode wird nicht zum Entladen des Prozessorpuffers des Ports verwendet, der direkt mit dem unterdrückten Knoten verbunden ist, sondern zum Entladen entweder des gemeinsam genutzten Puffers des Switches (wenn eine Shared-Memory-Architektur verwendet wird) oder zum Entladen des Prozessorpuffers eines anderen Ports an den dieser Port seine Frames sendet. Darüber hinaus kann die Gegendruckmethode in Fällen verwendet werden, in denen der Portprozessor nicht dafür ausgelegt ist, den maximal möglichen Datenverkehr für das Protokoll zu unterstützen. Eines der ersten Beispiele für die Verwendung der Gegendruckmethode bezieht sich genau auf einen solchen Fall – die Methode wurde von LANNET in den Modulen LSE-1 und LSE-2 verwendet, die für die Vermittlung von Ethernet-Verkehr mit einer maximalen Intensität von 1 MB ausgelegt sind /s bzw. 2 Mbit/s.

Verkehrsfilterfunktionen von Switches

Bei vielen Schaltern können Administratoren zusätzlich zu den standardmäßigen Frame-Filterbedingungen basierend auf Adresstabelleninformationen zusätzliche Frame-Filterbedingungen festlegen. Benutzerdefinierte Filter sollen zusätzliche Barrieren für Frames schaffen, die den Zugriff bestimmter Benutzergruppen auf bestimmte Netzwerkdienste einschränken.

Wenn der Switch keine Netzwerk- und Transportschichtprotokolle unterstützt, in denen es Felder gibt, die angeben, zu welchem ​​Dienst die übertragenen Pakete gehören, muss der Administrator das Feld definieren, nach dessen Wert gefiltert werden soll, und zwar in Form eines „Offsets“. size“-Paar relativ zum Anfang des Datenfelds des Link-Layer-Frames. Um beispielsweise einem bestimmten Benutzer das Drucken seiner Dokumente auf einem bestimmten NetWare-Druckserver zu verbieten, muss der Administrator die Position des Felds „Socket-Nummer“ im IPX-Paket und den Wert dieses Felds für den Druck kennen Dienst und kennen auch die MAC-Adresse des Computers und des Druckservers des Benutzers.

Typischerweise werden Filterbedingungen als boolesche Ausdrücke geschrieben, die mit den logischen Operatoren AND und OR gebildet werden.

Das Auferlegen zusätzlicher Filterbedingungen kann die Switch-Leistung verringern, da die Auswertung boolescher Ausdrücke zusätzliche Berechnungen durch die Portprozessoren erfordert.

Zusätzlich zu allgemeinen Bedingungen können Schalter spezielle Filterbedingungen unterstützen. Eine der sehr beliebten Arten von Spezialfiltern sind Filter, die virtuelle Segmente erstellen.

Eine Besonderheit ist auch der Filter, den viele Hersteller zum Schutz von auf Switches aufgebauten Netzwerken einsetzen.

Direktes oder gepuffertes Umschalten

Die Möglichkeit, zusätzliche Funktionen zu implementieren, wird maßgeblich von der Art der Paketübertragung beeinflusst – „on the fly“ oder mit Pufferung. Wie die folgende Tabelle zeigt, erfordern die meisten erweiterten Switch-Funktionen, dass Frames vollständig gepuffert werden, bevor sie über den Zielport an das Netzwerk gesendet werden.

Die durchschnittliche Latenz von Switches, die „im laufenden Betrieb“ unter hoher Last arbeiten, erklärt sich aus der Tatsache, dass in diesem Fall der Ausgangsport oft damit beschäftigt ist, ein anderes Paket zu empfangen, sodass das neu angekommene Paket für diesen Port noch gepuffert werden muss.

Ein im laufenden Betrieb arbeitender Switch kann die Unrichtigkeit übertragener Frames überprüfen, einen fehlerhaften Frame jedoch nicht aus dem Netzwerk entfernen, da einige seiner Bytes (und in der Regel die meisten) bereits an das Netzwerk übertragen wurden. Gleichzeitig reduziert ein im laufenden Betrieb arbeitender Switch bei geringer Last die Latenz bei der Frame-Übertragung erheblich, was für verzögerungsempfindlichen Datenverkehr wichtig sein kann. Daher verwenden einige Hersteller, wie beispielsweise Cisco, einen Mechanismus zur adaptiven Änderung des Switch-Betriebsmodus. Der Hauptmodus eines solchen Switches ist das On-the-Fly-Switching, aber der Switch überwacht ständig den Datenverkehr und wechselt in den vollständigen Puffermodus, wenn die Intensität fehlerhafter Frames einen bestimmten Schwellenwert überschreitet.

Nutzung verschiedener Serviceklassen

Mit dieser Funktion kann der Administrator verschiedenen Frame-Typen unterschiedliche Verarbeitungsprioritäten zuweisen. In diesem Fall unterstützt der Switch mehrere Warteschlangen mit Rohrahmen und kann beispielsweise so konfiguriert werden, dass er pro 10 Pakete mit hoher Priorität ein Paket mit niedriger Priorität überträgt. Diese Funktion kann besonders auf langsamen Leitungen und in Anwendungen mit unterschiedlichen Latenzanforderungen nützlich sein.

Da nicht alle Link-Layer-Protokolle ein Frame-Prioritätsfeld unterstützen (Ethernet-Frames verfügen beispielsweise nicht über eines), muss der Switch einen zusätzlichen Mechanismus verwenden, um einem Frame seine Priorität zuzuordnen. Die gebräuchlichste Methode besteht darin, Switch-Ports Priorität zuzuweisen. Bei dieser Methode platziert der Switch den Frame in einer Frame-Warteschlange mit der entsprechenden Priorität, je nachdem, über welchen Port der Frame den Switch erreicht hat. Die Methode ist einfach, aber nicht flexibel genug – wenn nicht ein einzelner Knoten, sondern ein Segment an einen Switch-Port angeschlossen wird, erhalten alle Knoten im Segment die gleiche Priorität. Ein Beispiel für einen portbasierten Ansatz zur Zuweisung von Dienstklassen ist die PACE-Technologie von 3Com.

Es ist flexibler, Host-MAC-Adressen Prioritäten zuzuweisen, diese Methode erfordert jedoch viel manuelle Arbeit durch den Administrator.

Unterstützung für virtuelle Netzwerke

Zusätzlich zu seinem Hauptzweck – der Erhöhung der Kommunikationskapazität im Netzwerk – ermöglicht der Switch die Lokalisierung von Informationsflüssen im Netzwerk sowie die Steuerung und Verwaltung dieser Flüsse mithilfe von Benutzerfiltern. Ein benutzerdefinierter Filter kann jedoch die Frame-Übertragung nur an bestimmte Adressen verhindern und den Broadcast-Verkehr an alle Netzwerksegmente übertragen. Dies ist für den Bridge-Betriebsalgorithmus erforderlich, der im Switch implementiert ist. Daher werden Netzwerke, die auf der Basis von Bridges und Switches erstellt werden, manchmal als flach bezeichnet, da es keine Hindernisse für den Broadcast-Verkehr gibt.

Mit der virtuellen Netzwerktechnologie (Virtual LAN, VLAN) können Sie diese Einschränkung überwinden.

Ein virtuelles Netzwerk ist eine Gruppe von Netzwerkknoten, deren Datenverkehr, einschließlich Broadcast-Datenverkehr, auf Datenverbindungsebene vollständig von anderen Netzwerkknoten isoliert ist. Dies bedeutet, dass Frames nicht zwischen verschiedenen virtuellen Segmenten basierend auf einer Link-Layer-Adresse übertragen werden können, unabhängig von der Art der Adresse – eindeutig, Multicast oder Broadcast. Gleichzeitig werden Frames innerhalb eines virtuellen Netzwerks mittels Switching-Technologie übertragen, also nur an den Port, der der Zieladresse des Frames zugeordnet ist.

Ein virtuelles Netzwerk soll eine Broadcast-Verkehrsdomäne bilden, ähnlich der Kollisionsdomäne, die von Ethernet-Repeatern gebildet wird.

Der Zweck der virtuellen Netzwerktechnologie besteht darin, den Prozess der Erstellung unabhängiger Netzwerke zu erleichtern, die dann mithilfe von Netzwerkschichtprotokollen kommunizieren müssen. Um dieses Problem zu lösen, wurden vor dem Aufkommen der virtuellen Netzwerktechnologie separate Repeater verwendet, die jeweils ein unabhängiges Netzwerk bildeten. Diese Netzwerke wurden dann durch Router zu einem einzigen Internetnetzwerk verbunden.

Wenn sich die Zusammensetzung von Segmenten ändert (Benutzerwechsel in ein anderes Netzwerk, Aufteilen großer Segmente), erfordert dieser Ansatz eine physische Neuverbindung der Anschlüsse an den Frontplatten von Repeatern oder in Crossover-Panels, was in großen Netzwerken nicht sehr praktisch ist und viel körperliche Arbeit bedeutet , und es besteht eine hohe Fehlerwahrscheinlichkeit .

Um die Notwendigkeit einer physischen Umschaltung zu vermeiden, begann man daher mit der Verwendung von Multisegment-Repeatern. Bei den fortschrittlichsten Modellen solcher Repeater erfolgt die Zuweisung eines separaten Ports zu einem der internen Segmente programmgesteuert, normalerweise über eine praktische grafische Oberfläche. Beispiele für solche Repeater sind der Distributed 5000 Hub von Bay Networks und der PortSwitch Hub von 3Com. Die softwaremäßige Zuweisung eines Ports zu einem Segment wird oft als statische oder Konfigurationsumschaltung bezeichnet.

Die Lösung des Problems der Änderung der Zusammensetzung von Segmenten mithilfe von Repeatern bringt jedoch einige Einschränkungen für die Netzwerkstruktur mit sich – die Anzahl der Segmente eines solchen Repeaters ist normalerweise gering, sodass die Zuweisung jedes Knotens zu einem eigenen Segment, wie dies mithilfe eines Switches möglich ist, nicht möglich ist unrealistisch. Daher basieren Netzwerke, die mit konfigurationsgesteuerten Repeatern aufgebaut sind, immer noch auf der Aufteilung des Datenübertragungsmediums auf eine große Anzahl von Knoten und weisen daher im Vergleich zu Netzwerken, die mit Switches aufgebaut sind, eine viel geringere Leistung auf.

Beim Einsatz virtueller Netzwerktechnologie in Switches werden zwei Aufgaben gleichzeitig gelöst:

♦ erhöhte Leistung in jedem der virtuellen Netzwerke, da der Switch Frames in einem solchen Netzwerk nur an den Zielknoten überträgt;

♦ Isolieren von Netzwerken voneinander, um Benutzerzugriffsrechte zu verwalten und Schutzbarrieren gegen Broadcast-Stürme zu schaffen.

Die Verbindung virtueller Netzwerke mit dem Internet erfordert die Einbindung der Netzwerkschicht. Es kann in einem separaten Router implementiert werden oder auch als Teil der Switch-Software arbeiten.

Die Technologie zum Aufbau und Betrieb virtueller Netzwerke mithilfe von Switches ist noch nicht standardisiert, obwohl sie in den unterschiedlichsten Switch-Modellen unterschiedlicher Hersteller implementiert ist. Die Situation könnte sich bald ändern, wenn der im Rahmen des SEE-Instituts entwickelte Standard 802.1Q übernommen wird.

Aufgrund des Fehlens eines Standards verfügt jeder Hersteller über eine eigene virtuelle Netzwerktechnologie, die in der Regel nicht mit der Technologie anderer Hersteller kompatibel ist. Daher können virtuelle Netzwerke zunächst auf Geräten eines Herstellers erstellt werden. Die einzigen Ausnahmen sind virtuelle Netzwerke, die auf der LANE-Spezifikation (LAN Emulation) basieren und die Interaktion von ATM-Switches mit herkömmlichen lokalen Netzwerkgeräten sicherstellen sollen.

Beim Erstellen virtueller Netzwerke basierend auf einem einzelnen Switch wird normalerweise ein Mechanismus zum Gruppieren von Switch-Ports in einem Netzwerk verwendet.

Dies ist logisch, da virtuelle Netzwerke, die auf der Basis eines Switches aufgebaut sind, nicht mehr als Ports haben können. Wenn ein auf einem Repeater aufgebautes Segment an einen Port angeschlossen ist, macht es keinen Sinn, Knoten eines solchen Segments in verschiedene virtuelle Netzwerke einzubinden – der Verkehr dieser Knoten wird weiterhin gemeinsam sein.

Das Erstellen virtueller Netzwerke auf Basis der Portgruppierung erfordert für den Administrator keinen großen manuellen Aufwand – es reicht aus, jeden Port mehreren vorab benannten virtuellen Netzwerken zuzuweisen. Normalerweise wird dieser Vorgang ausgeführt, indem die Maus über die Portsymbole auf die Netzwerksymbole gezogen wird.

Die zweite Methode zur Bildung virtueller Netzwerke basiert auf der Gruppierung von MAC-Adressen. Wenn es eine große Anzahl von Knoten im Netzwerk gibt, erfordert diese Methode eine große Anzahl manueller Vorgänge durch den Administrator. Allerdings erweist es sich beim Aufbau virtueller Netzwerke auf Basis mehrerer Switches als flexibler als die Portgruppierungsmethode.

Beim Erstellen virtueller Netzwerke auf Basis mehrerer Switches, die die Portgruppierungstechnik unterstützen, entsteht folgendes Problem: Wenn die Knoten eines virtuellen Netzwerks mit unterschiedlichen Switches verbunden sind, muss ihnen jeweils ein eigenes Portpaar zugewiesen werden, um die Switches zu verbinden solches Netzwerk. Andernfalls gehen Informationen über den Besitz eines Frames eines bestimmten virtuellen Netzwerks verloren, wenn die Switches nur über ein Portpaar verbunden sind, wenn sie von Switch zu Switch übertragen werden. Daher benötigen Port-Trunking-Switches für ihre Verbindung so viele Ports, wie sie virtuelle Netzwerke unterstützen. Ports und Kabel werden bei dieser Methode sehr verschwenderisch genutzt. Darüber hinaus wird bei der Verbindung virtueller Netzwerke über einen Router jedem virtuellen Netzwerk ein eigenes Kabel zugewiesen, was eine vertikale Verkabelung erschwert, insbesondere wenn virtuelle Netzwerkknoten auf mehreren Etagen vorhanden sind.

Durch die Gruppierung von MAC-Adressen in einem Netzwerk auf jedem Switch entfällt die Notwendigkeit, mehrere Ports zu verbinden, es erfordert jedoch viel manuelle Arbeit, um MAC-Adressen auf jedem Switch im Netzwerk zu markieren.

Die beschriebenen beiden Ansätze basieren lediglich auf dem Hinzufügen zusätzlicher Informationen zu den Bridge-Adresstabellen und nutzen nicht die Möglichkeit, Informationen über die Zugehörigkeit des Frames zu einem virtuellen Netzwerk in den übertragenen Frame einzubetten. Andere Ansätze nutzen vorhandene oder zusätzliche Frame-Felder, um Informationen und Frame-Eigentümer bei der Übertragung zwischen Netzwerk-Switches zu bewahren. In diesem Fall muss nicht bei jedem Switch berücksichtigt werden, dass alle MAC-Adressen des Internets zu virtuellen Netzwerken gehören.

Wenn ein zusätzliches Feld verwendet wird, das mit einer virtuellen Netzwerknummer gekennzeichnet ist, wird es nur verwendet, wenn der Frame von Switch zu Switch übertragen wird, und wenn der Frame zum Endknoten übertragen wird, wird er entfernt. In diesem Fall wird das Switch-to-Switch-Interaktionsprotokoll geändert, die Software und Hardware der Endknoten bleibt jedoch unverändert. Es gibt viele Beispiele für solche proprietären Protokolle, sie haben jedoch einen gemeinsamen Nachteil: Sie werden von anderen Herstellern nicht unterstützt. Cisco hat vorgeschlagen, den 802.10-Protokoll-Header als Standardergänzung zu den Frames aller lokalen Netzwerkprotokolle zu verwenden, um die Sicherheitsfunktionen von Computernetzwerken zu unterstützen. Das Unternehmen selbst nutzt diese Methode in Fällen, in denen Switches über das FDDI-Protokoll miteinander verbunden sind. Diese Initiative wurde jedoch von anderen führenden Switch-Herstellern nicht unterstützt, sodass bis zur Einführung des 802.1Q-Standards proprietäre Protokolle zur Kennzeichnung virtueller Netzwerke vorherrschen werden.

Es gibt zwei Möglichkeiten, virtuelle Netzwerke aufzubauen, die vorhandene Felder verwenden, um den Besitz eines virtuellen Netzwerkrahmens zu kennzeichnen. Diese Felder gehören jedoch nicht zu Kanalprotokollrahmen, sondern zu Paketen der Netzwerkschicht oder Zellen der ATM-Technologie.

Im ersten Fall werden virtuelle Netzwerke auf der Grundlage von Netzwerkadressen gebildet, also denselben Informationen, die beim Aufbau von Internetnetzwerken auf herkömmliche Weise verwendet werden – unter Verwendung physisch getrennter Netzwerke, die mit verschiedenen Ports des Routers verbunden sind.

Wenn ein virtuelles Netzwerk basierend auf Netzwerknummern gebildet wird, werden jedem Switch-Port eine oder mehrere Netzwerknummern zugewiesen, beispielsweise IP-Netzwerknummern. Jede IP-Netzwerknummer entspricht einem virtuellen Netzwerk. Auch in diesem Fall müssen die Endknoten das IP-Protokoll unterstützen. Bei der Übertragung von Frames zwischen Knoten, die zum selben virtuellen Netzwerk gehören, senden die Endknoten Daten direkt an die MAC-Adresse des Zielknotens und geben die IP-Adresse ihres virtuellen Netzwerks im Netzwerkschichtpaket an. In diesem Fall überträgt der Switch Frames basierend auf der Ziel-MAC-Adresse in der Adresstabelle und überprüft gleichzeitig die Gültigkeit der Übertragungen, indem er die IP-Netzwerknummer des im Frame enthaltenen Pakets mit der IP-Adresse des Zielports in der Adresstabelle abgleicht . Wenn ein Frame von einem Switch zu einem anderen übertragen wird, wird seine IP-Adresse zusammen mit dem Frame übertragen, was bedeutet, dass die Switches mit nur einem Portpaar verbunden werden können, um virtuelle Netzwerke zu unterstützen, die auf mehrere Switches verteilt sind.

Wenn es notwendig ist, Informationen zwischen Knoten auszutauschen, die zu verschiedenen virtuellen Netzwerken gehören, funktioniert der Endknoten auf die gleiche Weise, als ob er sich in Netzwerken befände, die durch einen regulären Router getrennt sind. Der Zielhost leitet den Frame mit seiner MAC-Adresse im Frame und der IP-Adresse des Zielhosts im Netzwerkschichtpaket an den Standardrouter weiter. Der Standardrouter sollte die interne Einheit des Switches sein, die wie ein herkömmlicher Router über eine bestimmte MAC-Adresse und IP-Adresse verfügt. Darüber hinaus muss es über eine Routing-Tabelle verfügen, die den Ausgangsport für alle im allgemeinen Internet vorhandenen Netzwerknummern angibt.

Im Gegensatz zu herkömmlichen Routern, bei denen jeder Port eine andere Netzwerknummer hat, weisen Switches, die das Netzwerkprotokoll zur Bildung virtueller Netzwerke unterstützen, mehreren Ports dieselbe Netzwerknummer zu. Darüber hinaus kann derselbe Port mehreren Netzwerknummern zugeordnet sein, wenn Switches über ihn kommunizieren.

Switches unterstützen häufig nicht die Funktionen zur automatischen Routing-Tabellenerstellung, die von Routing-Protokollen wie RIP oder OSPF unterstützt werden. Diese Switches werden Layer-3-Switches genannt, um ihren Unterschied zu herkömmlichen Routern hervorzuheben. Beim Einsatz von Layer-3-Switches werden Routing-Tabellen entweder manuell vom Administrator erstellt (dies ist bei wenigen virtuellen Netzwerken und einer Standardroute zu einem vollwertigen Router oft auch akzeptabel) oder vom Router geladen. Nach dem letztgenannten Schema interagiert der Catalist 5000 Switch von Cisco mit Routern desselben Unternehmens.

Wenn der Switch keine Netzwerkschichtfunktionen unterstützt, können seine virtuellen Netzwerke nur über einen externen Router kombiniert werden. Einige Unternehmen stellen spezielle Router für den Einsatz in Verbindung mit Switches her. Ein Beispiel für einen solchen Router ist der Vgate-Router von RND.

Dieser Router verfügt über einen physischen Port zur Kommunikation mit dem Switch-Port, dieser Port kann jedoch bis zu 64 MAC-Adressen unterstützen, sodass der Router bis zu 64 virtuelle Netzwerke zusammenfassen kann.

Die letzte Methode zur Organisation virtueller Netzwerke ist mit der Verwendung von ATM-Switches im Netzwerk verbunden. Diese Methode basiert auf der Verwendung einer separaten virtuellen Verbindung zur Übertragung von Frames für jedes virtuelle Netzwerk über ATM-Switches.

Geschaltetes Netzwerkmanagement

Switches sind komplexe Multifunktionsgeräte, die in modernen Netzwerken eine entscheidende Rolle spielen. Daher ist die Unterstützung zentralisierter Überwachungs- und Verwaltungsfunktionen, die durch das SNMP-Protokoll und zugehörige Agenten implementiert werden, für alle Switch-Klassen nahezu obligatorisch (außer vielleicht Desktop-Switches, die für den Betrieb in sehr kleinen Netzwerken konzipiert sind).

Um die SNMP-Verwaltung zu unterstützen, verfügen Switches über ein Verwaltungsmodul, das einen Agenten enthält, der eine Datenbank mit Verwaltungsinformationen verwaltet. Dieses Modul läuft häufig auf einem separaten leistungsstarken Prozessor, um die Hauptvorgänge des Switches nicht zu verlangsamen.

Verkehrsüberwachung

Da Überlastungen von Port-Prozessoren und anderen Switch-Verarbeitungselementen zu Frame-Verlusten führen können, ist die Überwachung der Verkehrsverteilung in einem Switch-basierten Netzwerk sehr wichtig.

Wenn der Switch selbst jedoch nicht über einen separaten Agenten für jeden seiner Ports verfügt, wird die Aufgabe der Überwachung des Datenverkehrs, die in Netzwerken mit gemeinsam genutzten Medien traditionell durch die Installation eines externen Protokollanalysators im Netzwerk gelöst wird, sehr kompliziert.

Traditionell stellte in herkömmlichen Netzwerken ein Protokollanalysator (z. B. Sniffer von Network General) eine Verbindung zu einem freien Port am Hub her und überwachte den gesamten Datenverkehr zwischen allen Knoten im Netzwerk.

Wenn Sie einen Protokollanalysator an einen freien Port des Switches anschließen, sieht dieser fast nichts, da niemand Frames an ihn sendet und auch die Frames anderer Personen nicht an seinen Port gesendet werden. Der einzige Verkehrstyp, den der Analysator erkennt, ist der Verkehr von Broadcast-Paketen, die an alle Netzwerkknoten übertragen werden. Wenn das Netzwerk in virtuelle Netzwerke unterteilt ist, sieht der Protokollanalysator nur den Broadcast-Verkehr seines virtuellen Netzwerks.

Um sicherzustellen, dass Protokollanalysatoren weiterhin in geswitchten Netzwerken eingesetzt werden können, statten Switch-Hersteller ihre Geräte mit der Möglichkeit aus, den Datenverkehr von jedem Port auf einen speziellen Port zu spiegeln. Ein Protokollanalysator wird an einen speziellen Port angeschlossen und dann wird über sein SNMP-Verwaltungsmodul ein Befehl an den Switch ausgegeben, um den Datenverkehr eines beliebigen Ports dem speziellen Port zuzuordnen.

Das Vorhandensein der Port-Spiegelungsfunktion löst das Problem teilweise, lässt jedoch einige Fragen offen. So können Sie beispielsweise den Datenverkehr von zwei Ports gleichzeitig anzeigen oder den Datenverkehr eines Ports anzeigen, der im Vollduplexmodus arbeitet.

Eine zuverlässigere Möglichkeit, den über Switch-Ports fließenden Datenverkehr zu überwachen, besteht darin, den Protokollanalysator für jeden Switch-Port durch RMON-MIB-Agenten zu ersetzen.

Der RMON-Agent führt alle Funktionen eines guten Protokollanalysators für die Ethernet- und Token-Ring-Protokolle aus, sammelt detaillierte Informationen über die Verkehrsintensität, verschiedene Arten von fehlerhaften Frames und verlorenen Frames und erstellt unabhängig Zeitreihen für jeden aufgezeichneten Parameter. Darüber hinaus kann der RMON-Agent selbstständig Cross-Traffic-Matrizen zwischen Netzwerkknoten erstellen, die für die Analyse der Wirksamkeit des Switches sehr wichtig sind.

Da der RMON-Agent, der alle 9 Ethernet-Objektgruppen implementiert, recht teuer ist, implementieren Hersteller häufig nur die ersten paar Gruppen von RMON-MIBs, um die Kosten des Switches zu senken.

Virtuelle Netzwerkverwaltung

Virtuelle Netzwerke stellen herkömmliche SNMP-basierte Managementsysteme vor Herausforderungen, sowohl bei der Erstellung als auch bei der Überwachung ihres Betriebs.

Für die Erstellung virtueller Netzwerke ist in der Regel eine spezielle Software des Herstellers erforderlich, die auf einer Managementsystemplattform, wie beispielsweise HP Open View, läuft. Die Leitsystemplattformen selbst können diesen Prozess nicht unterstützen, vor allem aufgrund des Fehlens eines Standards für virtuelle Netzwerke. Es besteht die Hoffnung, dass sich die Situation in diesem Bereich durch die Einführung des 802.1Q-Standards ändern wird.

Auch die Überwachung virtueller Netzwerke stellt traditionelle Managementsysteme vor Herausforderungen. Bei der Erstellung einer Netzwerkkarte, die virtuelle Netzwerke umfasst, ist es notwendig, sowohl die physische Struktur des Netzwerks als auch seine logische Struktur entsprechend den Verbindungen einzelner virtueller Netzwerkknoten darzustellen. Gleichzeitig muss das Steuerungssystem auf Wunsch des Administrators in der Lage sein, die Entsprechung logischer und physikalischer Verbindungen im Netzwerk darzustellen, d. h. alle oder einzelne Pfade virtueller Netzwerke müssen auf einem physikalischen Kanal dargestellt werden.

Leider zeigen viele Managementsysteme virtuelle Netzwerke entweder gar nicht oder nur auf sehr umständliche Weise für den Benutzer an.

Typische Schemata für die Verwendung von Schaltern

Switch oder Hub?

Beim Aufbau kleiner Netzwerke, die die untere Hierarchieebene eines Unternehmensnetzwerks bilden, kommt es bei der Frage nach der Verwendung des einen oder anderen Kommunikationsgeräts auf die Frage der Wahl zwischen einem Hub oder einem Switch an.

Bei der Beantwortung dieser Frage sind mehrere Faktoren zu berücksichtigen. Natürlich sind die Kosten pro Port, die Sie bei der Auswahl eines Geräts zahlen müssen, von nicht geringer Bedeutung. Aus technischen Gründen ist zunächst Folgendes zu berücksichtigen

gleichmäßige Verteilung des Datenverkehrs zwischen Netzwerkknoten. Darüber hinaus müssen die Aussichten für die Entwicklung des Netzwerks berücksichtigt werden: ob bald Multimedia-Anwendungen zum Einsatz kommen, ob die Computerbasis modernisiert wird. Wenn ja, dann müssen wir Reserven für den Durchsatz der heute verwendeten Kommunikationsgeräte sicherstellen. Der Einsatz der Intranet-Technologie führt zudem zu einem Anstieg des im Netzwerk zirkulierenden Verkehrsaufkommens, was bei der Geräteauswahl ebenfalls berücksichtigt werden muss.

Bei der Auswahl des Gerätetyps – Hub oder Switch – müssen Sie auch den Protokolltyp bestimmen, den seine Ports unterstützen (oder Protokolle, wenn es sich um einen Switch handelt, da jeder Port ein separates Protokoll unterstützen kann).

Heute wird zwischen zwei Geschwindigkeitsprotokollen gewählt – 10 Mbit/s und 100 Mbit/s. Daher ist es beim Vergleich der Anwendbarkeit eines Hubs oder Switches notwendig, einen Hub mit 10 Mbit/s-Ports, einen Hub mit 100 Mbit/s-Ports und mehrere Switch-Optionen mit unterschiedlichen Geschwindigkeitskombinationen an seinen Ports zu berücksichtigen.

Indem Sie die Cross-Traffic-Matrix-Technik zur Analyse der Leistung eines Switches verwenden, können Sie bewerten, ob ein Switch mit bekannten Portkapazitäten und bekannter Gesamtleistung den durch die durchschnittliche Traffic-Intensitätsmatrix angegebenen Netzwerkverkehr unterstützen kann.

Betrachten wir nun diese Technik, um die Frage nach der Anwendbarkeit eines Switches in einem Netzwerk mit einem Server und mehreren Workstations zu beantworten, die nur mit dem Server interagieren. Diese Netzwerkkonfiguration findet sich häufig in Arbeitsgruppennetzwerken, insbesondere in NetWare-Netzwerken, in denen Standard-Client-Shells nicht miteinander kommunizieren können.

Die Querverkehrsmatrix für ein solches Netzwerk hat eine degenerierte Form. Wenn der Server beispielsweise an Port 4 angeschlossen ist, haben nur die 4. Zeile der Matrix und die 4. Spalte der Matrix Werte ungleich Null. Diese Werte entsprechen dem ausgehenden und eingehenden Datenverkehr des Ports, mit dem der Server verbunden ist. Daher reduzieren sich die Bedingungen für die Anwendbarkeit eines Switches für ein bestimmtes Netzwerk auf die Fähigkeit, den gesamten Netzwerkverkehr über den Switch-Port zu übertragen, mit dem der Server verbunden ist.

Verfügt der Switch über alle Ports mit der gleichen Bandbreite, beispielsweise 10 Mbit/s, dann wird in diesem Fall die Portbandbreite von 10 Mbit/s auf alle Computer im Netzwerk verteilt. Die Fähigkeit des Switches, den gesamten Netzwerkdurchsatz zu steigern, erweist sich bei dieser Konfiguration als unbeansprucht. Trotz der Mikrosegmentierung des Netzwerks ist sein Durchsatz durch den Protokolldurchsatz eines einzelnen Ports begrenzt, wie es bei einem Hub mit 10-Mbit/s-Ports der Fall ist. Ein kleiner Gewinn bei der Verwendung eines Switches wird nur durch die Reduzierung der Anzahl von Kollisionen erzielt – statt Kollisionen werden Frames einfach in die Warteschlange des Senders des Switch-Ports gestellt, mit dem der Server verbunden ist.

Damit der Switch in Netzwerken mit einem dedizierten Server effizienter arbeiten kann, produzieren Switch-Hersteller Modelle mit einem Hochgeschwindigkeits-100-Mbit/s-Port zum Anschluss eines Servers und mehreren langsamen 10-Mbit/s-Ports zum Anschluss von Workstations. In diesem Fall werden 100 Mbit/s auf die Workstations verteilt, was es ermöglicht, je nach Intensität des von ihnen erzeugten Datenverkehrs 10 bis 30 Stationen im nicht blockierenden Modus zu bedienen.

Allerdings kann ein solcher Switch durch einen Hub konkurriert werden, der ein 100-Mbit/s-Protokoll wie Fast Ethernet unterstützt. Seine Kosten pro Port werden etwas niedriger sein als die Kosten pro Port eines Switches mit einem Hochgeschwindigkeits-Port, und die Netzwerkleistung ist ungefähr gleich.

Offensichtlich ist die Auswahl eines Kommunikationsgeräts für ein Netzwerk mit einem dedizierten Server recht kompliziert. Um eine endgültige Entscheidung zu treffen, müssen Sie die Aussichten für die Netzwerkentwicklung in Bezug auf die Entwicklung hin zu einem ausgeglichenen Verkehr berücksichtigen. Wenn es bald zu einer Interaktion zwischen Workstations oder einem zweiten Server im Netzwerk kommen kann, muss die Wahl zugunsten eines Switches getroffen werden, der zusätzlichen Datenverkehr unterstützen kann, ohne den Hauptserver zu beeinträchtigen.

Auch der Entfernungsfaktor kann für den Switch eine Rolle spielen – durch den Einsatz von Switches ist der maximale Netzwerkdurchmesser nicht auf 2500 m bzw. 210 m begrenzt, die bei der Verwendung von Ethernet- und Fast-Ethernet-Hubs die Größe der Kollisionsdomäne bestimmen.

Switch oder Router?

Beim Aufbau der oberen Backbone-Ebenen der Unternehmensnetzwerkhierarchie wird das Wahlproblem anders formuliert – Switch oder Router?

Der Switch überträgt den Datenverkehr zwischen Netzwerkknoten schneller und kostengünstiger, aber der Router filtert den Datenverkehr beim Verbinden von Netzwerken intelligenter, lässt unnötige oder fehlerhafte Pakete nicht durch und schützt Netzwerke außerdem zuverlässig vor Broadcast-Stürmen.

Da Switches der Enterprise-Klasse einige Funktionen auf Netzwerkebene unterstützen können, wird die Entscheidung zunehmend für Switches getroffen. In diesem Fall wird auch der Router verwendet, der jedoch häufig in einer einzigen Kopie im lokalen Netzwerk verbleibt. Dieser Router dient normalerweise dazu, das lokale Netzwerk mit globalen Netzwerken zu verbinden und virtuelle Netzwerke zu kombinieren, die mithilfe von Switches aufgebaut werden.

In der Mitte von Gebäude- und Etagennetzwerken kommen zunehmend Switches zum Einsatz, da nur mit deren Einsatz die Übertragung von mehreren Gigabit an Informationen pro Sekunde zu einem erschwinglichen Preis möglich ist.

Trunk wurde an einem Schalter bis zu einem Punkt gezogen

Bei all den unterschiedlichen Strukturdiagrammen von Netzwerken, die auf Switches aufgebaut sind, verwenden sie alle zwei Grundstrukturen – ein an einen Punkt gezogenes Backbone und ein verteiltes Backbone. Auf Basis dieser Grundstrukturen werden dann vielfältige spezifische Netzwerkstrukturen aufgebaut.

Ein kollabierter Backbone ist eine Struktur, bei der die Vereinigung von Knoten, Segmenten oder Netzwerken auf dem internen Backbone des Switches erfolgt.

Der Vorteil dieser Struktur ist die hohe Leistungsfähigkeit der Autobahn. Da es nicht ungewöhnlich ist, dass ein Switch über eine Leistung von mehreren Gbit/s eines internen Busses oder eines Shared-Memory-Schaltkreises verfügt, der Portmodule kombiniert, kann das Netzwerk-Backbone sehr schnell sein und seine Geschwindigkeit hängt nicht von den verwendeten Protokollen ab des Netzwerks und kann durch den Austausch eines Switch-Modells durch ein anderes erhöht werden.

Ein positives Merkmal dieses Systems ist nicht nur die hohe Geschwindigkeit der Autobahn, sondern auch ihre Protokollunabhängigkeit. Auf dem internen Backbone des Switches können Daten verschiedener Protokolle wie Ethernet, FDDI und Fast Ethernet gleichzeitig in einem unabhängigen Format übertragen werden. Um einen neuen Knoten mit einem neuen Protokoll zu verbinden, ist oft kein Austausch des Switches erforderlich, sondern lediglich das Hinzufügen des entsprechenden Schnittstellenmoduls, das dieses Protokoll unterstützt.

Wenn in einem solchen Schema nur ein Knoten mit jedem Switch-Port verbunden ist, dann entspricht ein solches Schema einem mikrosegmentierten Netzwerk.

Verteilter Backbone auf Switches

In Netzwerken großer Gebäude oder Campusgelände ist der Einsatz einer Struktur mit eingestürztem Rückgrat nicht immer sinnvoll oder möglich. Diese Struktur führt zu umfangreichen Verkabelungssystemen, die die Endknoten oder Switches von Arbeitsgruppennetzwerken mit dem zentralen Switch verbinden, dessen Bus das Rückgrat des Netzwerks bildet. Die hohe Dichte der Kabel und ihre hohen Kosten schränken den Einsatz eines Punkt-zu-Punkt-Backbones in solchen Netzwerken ein. Manchmal, insbesondere in Campus-Netzwerken, ist es aufgrund der durch die Technologie bedingten Verbindungslängenbeschränkungen einfach nicht möglich, alle Kabel in einem Raum zu bündeln (z. B. begrenzen alle Implementierungen von Twisted-Pair-LAN-Technologien die Kabellänge auf 100 m).

Daher wird in lokalen Netzwerken, die große Gebiete abdecken, häufig eine andere Möglichkeit zum Aufbau eines Netzwerks verwendet – mit einem verteilten Backbone.

Ein verteilter Backbone ist ein gemeinsam genutztes Netzwerksegment, das ein bestimmtes Protokoll unterstützt, an das Switches von Arbeitsgruppen- und Abteilungsnetzwerken angeschlossen sind. Im Beispiel ist der verteilte Backbone auf Basis eines doppelten FDDI-Rings aufgebaut, an den Etagenswitches angeschlossen sind. Etagen-Switches verfügen über eine große Anzahl von Ethernet-Ports, deren Datenverkehr bei der Übertragung entlang des Backbones von Etage zu Etage in FDDI-Protokollverkehr übersetzt wird.

Das verteilte Backbone vereinfacht die Kommunikation zwischen Etagen, reduziert die Verkabelungskosten und überwindet Entfernungsbeschränkungen.

Allerdings ist die Trunk-Geschwindigkeit in diesem Fall deutlich geringer als die Trunk-Geschwindigkeit auf dem internen Bus des Switches. Darüber hinaus ist diese Geschwindigkeit festgelegt und beträgt derzeit nicht mehr als 100 Mbit/s. Daher kann ein verteiltes Backbone nur verwendet werden, wenn die Verkehrsintensität zwischen Stockwerken oder Gebäuden gering ist.

Modelle wechseln

Der Schaltermarkt ist heute sehr groß, daher konzentrieren wir uns in diesem kurzen Überblick nur auf einige beliebte Schaltermodelle verschiedener Klassen. Typischerweise werden Switches hauptsächlich nach ihren Anwendungsbereichen in Klassen eingeteilt: Desktop-Switches, Arbeitsgruppen-Switches, Abteilungs-Switches und Backbone-Switches (Enterprise-Switches). Jede Schalterklasse hat ihre eigenen Besonderheiten.

Desktop-Switches

♦ Feste Anzahl von Ports;

♦ Alle Ports arbeiten mit der gleichen Geschwindigkeit;

♦ Wird zur Organisation von Peer-to-Peer-Verbindungen an Hochgeschwindigkeitsarbeitsplätzen verwendet;

♦ Schaltmodus – „on the fly“;

♦ Meistens enthalten sie kein SNMP-Verwaltungsmodul und unterstützen auch nicht den Spanning Tree-Algorithmus.

Beispiel: 3Com LinkSwitch 500.

Arbeitsgruppenschalter

♦ Verfügen über mindestens 1 Hochgeschwindigkeitsanschluss (FDDI, Fast Ethernet, ATM);

♦ Broadcast-Protokolle;

♦ Sie werden in der Regel über SNMP verwaltet und unterstützen den Spanning Tree-Algorithmus;

♦ Schaltmodus – mit Pufferung.

Beispiele: 3Com LinkSwitch-Familie (außer Modell 500), SMC TigerSwitch XE, Bay Networks Ethernet Workgroup Switch.

Abteilungs- und Rechenzentrums-Switches

♦ Modularer Aufbau;

♦ Unterstützt mehrere Protokolle;

♦ Integrierte Fehlertoleranz:

♦ redundante Netzteile;

♦ Hot-Swap-fähige Module.

♦ Benutzerdefinierte Filter;

♦ Unterstützung für virtuelle Segmente;

Beispiele: 3Com LANplex 2500, SMC ES/1, Bay Networks Lattis-Switch System 28115.

Backbone-Switches für Gebäude/Campus

♦ Gleiche Eigenschaften wie Abteilungsschalter;

♦ Gehäuse mit einer großen Anzahl an Steckplätzen (10 - 14);

♦ Interne Bandbreite 1 - 10 Gbit/s;

♦ Unterstützung für 1-2 Routing-Protokolle (lokale Schnittstellen) zur Bildung virtueller Netzwerke.

Beispiele: 3Com LANplex 6000, Cabletron MIAC Plus, LANNET LET-36, Cisco Catalist 5000, Bay Networks System 5000.

Catalyst-Switches von Cisco Systems

Der Catalyst 5000 Switch ist das Topmodell der Catalyst-Familie. Hierbei handelt es sich um eine modulare, mehrschichtige Switching-Plattform, die ein hohes Leistungsniveau bietet und die Möglichkeit bietet, dedizierte Verbindungen in einem Ethernet-Netzwerk mit Geschwindigkeiten von 10 und 100 Mbit/s zu erstellen und die Interaktion mit FDDI- und ATM-Netzwerken zu organisieren.

Das Catalyst 5000-Chassis verfügt über 5 Steckplätze. In einem Steckplatz ist ein Supervisor Engine-Steuermodul installiert, das den Zugriff auf die Switched Matrix steuert, die mehr als 1 Million Pakete pro Sekunde vermitteln kann. Das Modul unterstützt lokale und Remote-Management-Funktionen und verfügt über zwei Fast-Ethernet-Ports, die zum Anschluss von Netzwerkservern oder zur Kaskadierung von Catalyst 5000-Geräten verwendet werden können. Die restlichen Anschlüsse können zur Installation der folgenden Module verwendet werden:

♦ 24 Ports 10Base-T;

♦ 12 Ports 10Base-FL;

♦ 12 Ports 100Base-TX;

♦ 12 Ports 100Base-FX;

♦ 1 DAS-CDDI/FDDI-Port (nicht mehr als 3 Module im Gehäuse);

♦ 1 ATM-Port mit 155 Mbit/s (nicht mehr als 3 Module im Gehäuse).

Ein einzelnes Catalyst 5000-Gerät kann bis zu 96 geschaltete Ethernet-Ports und bis zu 50 geschaltete Fast Ethernet-Ports unterstützen.

Die Bildung virtueller Netzwerke wird sowohl innerhalb eines Catalyst 5000-Geräts als auch für mehrere Geräte basierend auf der Portgruppierung unterstützt. Sie können bis zu 1.000 virtuelle Netzwerke über mehrere Catalyst 5000-Geräte hinweg erstellen, die über Fast Ethernet-, CDDI/FDDI- oder ATM-Schnittstellen verbunden sind. Jede Fast-Ethernet-Schnittstelle kann als InterSwitch Link (ISL)-Schnittstelle konfiguriert werden, um mehrere virtuelle Netzwerke zu unterstützen. Die ISL-Schnittstelle ist eine proprietäre Lösung von Cisco zur Übertragung von Informationen über virtuelle Netzwerke zwischen Switches.

Alle virtuellen Netzwerke unterstützen das IEEE 802.Id Spanning Tree-Protokoll, um fehlertolerante Verbindungen bereitzustellen. Bei Verwendung der ATM-Schnittstelle zur Anbindung von Switches wird die virtuelle Vernetzung auf Basis der LANE-Spezifikation durch virtuelle Verbindungen unterstützt. Die FDDI-Schnittstelle unterstützt virtuelle Netzwerke mit der 802.10-Spezifikation.

Eine Besonderheit von Catalyst-Switches ist die Implementierung des Switchings auf Schicht 3 des OSI-Modells, wodurch Sie virtuelle Netzwerke innerhalb des Geräts kombinieren können (dies erfordert zusätzliche Software).

Das Switch-Management-Modul unterstützt drei Ebenen von Frame-Warteschlangen mit unterschiedlichen Prioritäten, wobei jedem Port separat Prioritäten zugewiesen werden. Dadurch können Sie den Multimedia-Verkehr effizient bedienen.

Ein großer Puffer (192 KB pro Port) gewährleistet die Speicherung und Übertragung von Informationen bei Spitzenlasten.

Das Catalyst 3000-System ist die ursprüngliche Implementierung der Stack-Architektur für Switches. Diese Architektur wird von zwei Gerätetypen unterstützt:

♦ Catalyst 3000-Switch mit 16 10Base-T-Ports, einem AUI-Port und zwei Erweiterungssteckplätzen. Erweiterungsmodule können entweder 1 100Base-TX-Port, 3 10Base-FL-Ports, 4 10Base-T-Ports oder 1 ATM-Port haben. Der Überwachungsport spiegelt jeden Datenport auf einen externen Port.

♦ Catalyst Matrix – eine 8-Port-Switching-Matrix, mit der bis zu 8 Catalyst 3000-Switches gestapelt werden können, um ein einziges Switching-Center zu schaffen.

Catalyst 3000-Switches stellen über dedizierte 280-Mbit/s-Ports eine Verbindung zur Catalyst Matrix her. Die Leistung des Catalyst Matryx-Busses beträgt 3,84 Gbit/s.

Der Switch läuft unter IOS und verwendet zwei Switching-Algorithmen – Cut-Throw und Store-and-Forward.

Der Catalyst 3000-Stack unterstützt bis zu 64 virtuelle Netzwerke und ermöglicht die Filterung des Datenverkehrs nach Quell- und Zieladressen. Die maximale Anzahl an MAC-Adressen beträgt bis zu 10.000 pro Gerät.

Spanning Tree-Algorithmus und SNMP-Management werden unterstützt.

SMC EliteSwitch ES/1

Die SMC Corporation (heute Teil der Switch-Abteilung von Cabletron) hat den EliteSwitch ES/l als effektives Werkzeug für den Aufbau eines mittelgroßen Netzwerk-Backbones entwickelt. Der ES/1-Switch kombiniert die Funktionen eines leistungsstarken Ethernet-/Token-Ring-/FDDI-Switches und eines lokalen Routers und ermöglicht Ihnen so die Erstellung virtueller IP- und IPX-Netzwerke auf Basis virtueller geswitchter Arbeitsgruppen. Somit vereint ein Gerät die Switching- und Internetworking-Funktionen, die für den Aufbau eines strukturierten lokalen Netzwerks auf Basis eines internen Hochgeschwindigkeitsbusses erforderlich sind. Der Switch unterstützt auch globale Verbindungen mit einer Punkt-zu-Punkt-Topologie über T1/E1-Leitungen, so dass Sie mehrere darauf basierende lokale Netzwerke miteinander verbinden können.

Der ES/1-Switch verwendet gepufferte Switching-Technologie, die es ihm ermöglicht, Link-Layer-Protokolle zu übersetzen, benutzerdefinierte Filterung, Statistikerfassung und lokales Routing durchzuführen.

ES/1-Switch-Organisation

Der modulare Hub ES/1 von SMC ist ein Gerät in Form eines Chassisgehäuses mit rückseitiger Kommunikationsplatine, auf der ein interner Bus mit einer Leistung von 800 Mbit/s aufgebaut ist. Die Packet Processing Engine umfasst zwei Prozessormodule, die mit leistungsstarken AMD 29000 RISC-Prozessoren ausgestattet sind. Einer der Prozessoren ist für die Übertragung von Paketen ausgelegt (also für Vermittlungsfunktionen), der andere übernimmt die Verwaltung – Filterung an den Hub-Ports entsprechend vom Administrator eingegebenen Masken und steuert die gesamte Betriebslogik des Konzentrators. Beide Prozessoren haben Zugriff auf einen gemeinsamen Speicher von 4 MB.

Wie bereits erwähnt, basiert das Paketverarbeitungsmodul des ES/1-Switches auf einer Dual-Prozessor-Architektur, wobei jeder Prozessor für seine eigenen Funktionen verantwortlich ist. Fällt jedoch einer von ihnen aus, übernimmt der zweite Prozessor alle Funktionen des ersten. In diesem Fall funktioniert der Switch als Ganzes normal weiter, seine Leistung darf nur geringfügig nachlassen.

In der Hub-Adresstabelle können Sie bis zu 8192 MAC-Adressen speichern.

Die Software, die den Betrieb des ES/1-Hubs steuert, ist in zwei Flash-Speicherbänken dupliziert. Erstens können Sie so neue Softwareversionen aktualisieren, ohne den Hub daran zu hindern, seine Hauptfunktionen der Paketvermittlung auszuführen, und zweitens führt ein Fehler beim Laden neuer Software aus einer Flash-Speicherbank nicht zu einem Ausfall des Hubs, da die Die Software aus der ersten Speicherbank bleibt betriebsbereit und der Hub wird automatisch neu gestartet.

In die Hub-Steckplätze werden Netzwerkkommunikationsmodule eingesetzt und eine automatische Plug-and-Play-Selbstkonfigurationstechnologie implementiert. Jedes Modul ist mit einem eigenen RISC-Prozessor ausgestattet, der eingehende Pakete in eine protokollunabhängige Form umwandelt (d. h. es werden nur der Datenblock, Ziel- und Quelladressen sowie Netzwerkprotokollinformationen gespeichert) und sie intern weiterleitet Bus zur Paketverarbeitungseinheit.

Der fehlertolerante Betrieb der Module wird durch das Vorhandensein eines speziellen Sensors in jedem Modul gewährleistet, der eine Warnung an die Bedienkonsole sendet, wenn sich die Temperatur einem kritischen Niveau nähert. Dies kann beispielsweise durch Staub in den Luftfiltern passieren. Steigt die Temperatur weiter an und überschreitet den zweiten Schwellenwert, wird das Modul automatisch vom Stromnetz getrennt, um einen Ausfall des Elementsockels zu verhindern. Wenn die Temperatur sinkt, läuft das Modul automatisch weiter.

Ein wichtiges Merkmal des ES/1-Hubs ist sein integrierter Schutz gegen Broadcast-Paketstürme. Mit der ES/1-Hub-Software können Sie die Häufigkeit des Eintreffens solcher Pakete an jedem Port des Hubs begrenzen. Wenn diese Grenze überschritten wird, werden Broadcast-Pakete nicht mehr an andere Netzwerksegmente übertragen, wodurch ihre Funktionalität erhalten bleibt.

Filterung und virtuelle Arbeitsgruppen

Mithilfe des Portmaskierungsmechanismus kann der Administrator virtuelle Arbeitsgruppen erstellen, um sich vor unbefugtem Zugriff zu schützen und die LAN-Leistung durch Umverteilung der Informationsflüsse zu verbessern.

Die Filterung kann für eingehende und/oder ausgehende Pakete, nach MAC-Adresse oder nach gesamten Segmenten usw. aktiviert werden. Insgesamt kann die Maske bis zu 20 Bedingungen enthalten, verknüpft durch die booleschen Operanden „AND“ und „OR“. Es ist klar, dass jedes am Switch-Port ankommende Paket zusätzlich auf die Einhaltung von Filterbedingungen überprüft werden muss, was zusätzliche Rechenressourcen erfordert und zu Leistungseinbußen führen kann. Die Tatsache, dass ES/1 über einen der beiden Prozessoren verfügt, der speziell für die Überprüfung der Filterbedingungen zuständig ist, stellt sicher, dass der Switch bei der Eingabe von Masken durch den Administrator eine hohe Leistung beibehält.

Neben Geräteausfällen können Fehler des Wartungspersonals den ordnungsgemäßen Betrieb des LAN stören. Daher erwähnen wir besonders einen weiteren interessanten virtuellen Filtermodus des ES/1-Switches. In diesem Modus ist die Filterung physisch nicht aktiviert, es werden jedoch Statistiken zu Paketen gesammelt, die die Filterbedingungen erfüllen. Dadurch kann der LAN-Administrator seine Aktionen im Voraus vorhersagen, bevor er die Filter physisch einschaltet.

ES/1 Hub-Kommunikationsmodule

ES/1 unterstützt bis zu fünf Module. Sie können beliebige Modulkombinationen für Ethernet, Token Ring und FDDI sowie für die Hochgeschwindigkeitsstrecken T1/E1 und TZ/EZ wählen. Alle Module, einschließlich der Netzteile, können ausgetauscht werden, ohne dass die Verbindung zum Netzwerk getrennt oder die Stromversorgung des Zentralgeräts unterbrochen werden muss. Jedes Modul unterstützt eine Reihe konfigurierbarer Parameter zur Verbesserung der Verwaltbarkeit und sammelt Statistiken.

♦ QEIOM (Quad-Ethernet-I/O-Modul)

An dieses Modul können bis zu vier unabhängige Ethernet-Segmente angeschlossen werden. Jedes Segment kann Informationen mit einem typischen Ethernet-Durchsatz von 14.880 Paketen pro Sekunde senden und empfangen. ES/1 stellt über Bridges und Router Konnektivität zwischen diesen vier Segmenten sowie zum Rest des Netzwerks bereit. Diese Module sind mit verschiedenen Steckertypen ausgestattet: AUI, BNC, RJ-45 (Twisted Pair) und ST (Glasfaserkabel).

♦ QTIOM (Token-Ring-I/O-Modul)

Über das QTIOM-Modul können bis zu vier 4- oder 16-Mbit/s-Token-Ring-Netzwerke verbunden werden. Das Modul unterstützt alle wichtigen Token-Ring-Netzwerkprotokolle – IBM Source Routing, Transparent Bridging und Source Routing Transparent – ​​und sorgt für eine „transparente“ Interaktion von Token-Ring-Netzwerken mit anderen Netzwerktypen wie Ethernet oder FDDI. Das Modul ist in geschirmter und ungeschirmter Twisted-Pair-Version erhältlich.

♦ IFIOM (Intelligentes Dual-Attached FDDI I/O-Modul)

Das IFIOM-Modul verbindet das Glasfasersegment des FDDI-Netzwerks mit ES/1 und sorgt für eine transparente Interaktion zwischen verschiedenen Netzwerktypen. Es unterstützt alle Funktionen einer FDDI Dual Attached Station. Dieses Modul unterstützt auch einen externen optischen Bypass-Schalter, der im Falle eines ES/1-Stromausfalls für eine erhöhte Netzwerkstabilität sorgt. Erhältlich in verschiedenen Modifikationen: für Singlemode- und Multimode-Faser sowie in Kombinationen daraus.

♦ CEIOM24 (24-Port-Konzentrator-Ethernet-E/A-Modul)

Dieses Modul umfasst einen 24-Port-Twisted-Pair-Ethernet-Hub. Es erhöht die Netzwerkleistung zu geringeren Kosten als ein ähnliches externes Gerät. Seine Ports sind in einem einzigen unabhängigen Ethernet-Segment gruppiert und kommunizieren über einen ES/1-Switch/Router mit anderen Modulen.

♦ SHOM (High-Speed ​​Serial Interface I/O Module)

Mit NUM können Sie Netzwerke über Hochgeschwimithilfe des HSSI-Protokolls mit Geschwindigkeiten von bis zu 52 Mbit/s mit entfernten LANs verbinden. Das PPP-Protokoll wird unterstützt.

SNMP-Verwaltbarkeit

Der modulare ES/1-Konzentrator kann mit jedem Standard-Managementsystem basierend auf dem HaSNMP-npo-Protokoll gesteuert werden, einschließlich: HP OpenView, IBM NetView/6000, Sun NetManager usw. Für eine grafische Darstellung der Vorderseite des Konzentrators, speziell Verwaltungskonsolen werden zu den aufgeführten Verwaltungskonsolen SMC-Softwaremodulen der EliteView-Familie hinzugefügt. Darüber hinaus gibt es eine Windows-Version der Überwachungs- und Steuerungssoftware: EliteView für Windows.

Typische Schemata für die Verwendung des ES/1-Hubs

♦ Erstellen eines degenerierten Backbones (Collapsed Backbone)

In großen Unternehmensnetzwerken wird ein degenerierter Backbone innerhalb eines Switches verwendet. An die Ports des Hubs sind mehrere große Segmente des lokalen Netzwerks angeschlossen, dessen Bus in diesem Fall als Haupt-Backbone mit einem Durchsatz von Hunderten Mbit/s fungiert. Mit diesem Ansatz können Sie den Netzwerkdurchsatz im Vergleich zur herkömmlichen Verwendung von Bridges in jedem Netzwerksegment um ein Vielfaches steigern. Gleichzeitig werden die Möglichkeiten der zentralen Verwaltung aller Elemente des Unternehmensnetzwerks deutlich erhöht.

♦ Dedizierter Ethernet-Kanal

Dieses Schema zum Anschließen von Geräten an die Ports von Switch-Hubs wird am häufigsten verwendet, um ein Hochgeschwindigkeits-Backbone (mit einem garantierten Durchsatz von 10 Mbit/s) zwischen dem Hub und einem lokalen Netzwerkserver (normalerweise einem Dateiserver oder Datenbankserver) zu erstellen. . Mit modularen Hubs können Sie bei Bedarf den Anschluss eines Servers über einen Hochgeschwindigkeits-FDDI- oder Fast-Ethernet-Kanal organisieren.

♦ Broadcast-Umschaltung

Das Switching in ES/1 basiert auf der Synchronous Protocol Independent-Technologie, die grundlegende lokale Netzwerktechnologien unterstützt und die Übersetzung zwischen Frames unterschiedlicher Formate ermöglicht. Daher kann der ES/1-Switch zum Verbinden von Netzwerken unterschiedlicher Art verwendet werden – Ethernet, Token Ring, FDDI – und die Übertragung erfolgt mit Switching-Geschwindigkeit und verursacht keine Verkehrsstaus bei Übertragungen zwischen Netzwerken.

♦ Bildung virtueller Gruppen

Standardmäßig arbeitet der Switch im Bridge-Modus, untersucht den über seine Ports fließenden Datenverkehr und erstellt eine Tabelle mit Segmentadressen. Mit der EliteView-Software kann der Administrator in bequemer grafischer Form die Zusammensetzung virtueller Arbeitsgruppen definieren, die entweder lokale Segmente umfassen, wenn ein Hub oder ein Ethernet-Segment über ein Koaxialkabel an den ES/1-Port angeschlossen ist, oder einzelne Workstations , wenn sie an den Port einzeln dedizierten Kanal angeschlossen sind. Virtuelle Arbeitsgruppen können verschiedene Ports an einem oder mehreren ES/1-Switches umfassen.

♦ Virtuelle Netzwerke

Neben der Bildung virtueller isolierter Arbeitsgruppen, die Daten schützen und den Datenverkehr lokalisieren, ist eine sehr nützliche Funktion des Switches die Möglichkeit, diese Gruppen mithilfe der internen Weiterleitung von Paketen zwischen virtuellen Segmenten, die als virtuelle Netzwerke (IP oder IPX) deklariert werden, im Internet zu kombinieren. . In diesem Fall erfolgt die Übertragung von Paketen zwischen Ports, die zu einem Netzwerk gehören, schnell auf Basis der Paketvermittlung, während gleichzeitig Pakete, die für ein anderes Netzwerk bestimmt sind, weitergeleitet werden. Dies stellt die Zusammenarbeit zwischen virtuellen Arbeitsgruppen sicher und erfüllt gleichzeitig alle Funktionen, die Router bieten, um Netzwerke voreinander zu schützen.

3Com LAN-Switches

3Com verfügt über eine starke Präsenz auf dem Switch-Markt und produziert eine breite Palette an Switch-Geräten für alle Anwendungen.

Der Bereich der Switches für Desktop-Anwendungen und Arbeitsgruppen wird durch Switches der Link-Switch-Familie repräsentiert. Switches für Abteilungsnetzwerke und Backbone-Switches werden durch die LANplex-Familie repräsentiert. Das Unternehmen produziert Switches der CELLplex-Familie für ATM-Netzwerke.

Die Switching-Technologie ist ohne den Einsatz spezialisierter LSIs – ASICs, die für die schnelle Durchführung spezieller Operationen optimiert sind – wirkungslos. 3Com baut seine Switches auf mehreren ASICs auf, die für die Vermittlung bestimmter Protokolle konzipiert sind.

♦ ASIC ISE (Intelligent Switching Engine) ist für die Durchführung von Ethernet- und FDDI-Switching-Vorgängen sowie für die Unterstützung von Routing- und Steuerungsfunktionen konzipiert. Wird in LANplex 2500-, LANplex 6000- und LinkSwitch 2200-Switches verwendet.

♦ ASIC TRSE (Token Ri lg Switching Engine) führt die Umschaltung von Token-Ring-Netzwerken durch. Wird in LinkSwitch 2000 TR- und LANplex 6000-Switches verwendet.

♦ ASIC BRASICA führt Ethernet/Fast Ethernet-Switching durch. Unterstützt virtuelle Netzwerktechnologie und die RMON-Spezifikation. Wird in LinkSwitch 1000- und LinkSwitch 3000-Switches verwendet.

♦ Der ZipChip ASIC unterstützt ATM-Switching sowie die Konvertierung von Ethernet-Frames in ATM-Zellen, die in den Switches CELLplex 7000 und LinkSwitch 2700 verwendet werden.

Der LANplex 6012-Switch ist ein High-End-LAN-Switch-Modell, das für den Betrieb auf der Backbone-Ebene eines Unternehmensnetzwerks konzipiert ist.

Der Aufbau des Switches lässt noch die Ausrichtung seiner früheren Versionen auf FDDI/Ethernet-Switching erkennen. Bevor Module an den protokollunabhängigen Hochgeschwindigkeits-HSI-Bus angeschlossen wurden, nutzte der Switch FDDI-Busse für die Kommunikation zwischen Modulen.

Hauptmerkmale des LANplex 6012 Switches:

♦ Das Verwaltungsgerät (separates Modul) unterstützt SNMP, RMON und FDDI SMT;

♦ Virtuelle Netzwerke werden basierend auf Folgendem erstellt:

♦ Gruppierung von Ports;

♦ Gruppieren von MAC-Adressen.

♦ IP- und IPX-Routing (RIP) unterstützt:

♦ mehrere Subnetze pro Port;

♦ mehrere Ports pro Subnetz.

♦ IP-Fragmentierung;

♦ ASIC+RISC-Prozessoren;

♦ Das Vorhandensein der Roving Analysis Port-Funktion ermöglicht Ihnen die Überwachung des Datenverkehrs jedes Switch-Ports;

♦ Unterstützung für den Spanning Tree-Algorithmus;

♦ Filterung von Broadcast-Stürmen.

Beispiele für ATM-Switches für lokale Netzwerke 3Com CELLplex-Switches

Der CELLplex 7000-Switch ist ein modulares, gehäusebasiertes Gerät, das bis zu 16 ATM-Ports (4 Module mit jeweils 4 Ports) schaltet. Es dient zur Bildung eines Hochgeschwindigkeits-ATM-Netzwerk-Backbones durch Verbindung mit anderen ATM-Switches oder zur Verbindung von Hochgeschwindigkeits-ATM-Knoten

zu einem Netzwerk-Backbone, der zu einem Punkt zusammengeführt wird, der auf einem Rechenzentrum mit einem ATM-Port basiert.

Das Switch Center ermöglicht den 16x16-Datenaustausch mithilfe der nicht blockierenden On-the-Fly-Switching-Technologie mit einem Gesamtdurchsatz von 2,56 Gbit/s und unterstützt bis zu 4096 virtuelle Kanäle pro Port.

Der passive interne Bus des Switches bietet Datenübertragungsraten von bis zu 20,48 Gbit/s und ermöglicht so eine zukünftige Migration zu Schnittstellenmodulen mit mehr oder schnelleren Ports.

Ein vollständig redundantes Gehäuse mit zwei Netzteilen, ein redundantes Fabric Center und ein modulares Design machen den CELLplex 7000 zu einem robusten, Backbone-fähigen Switch, der die Anforderungen Ihrer geschäftskritischsten Anwendungen erfüllt.

Es gibt zwei Arten von Schnittstellenmodulen:

♦ Modul mit 4 Ports OS-Zs 155 Mbit/s für Multimode-Glasfaserkabel, bestimmt für lokale Kommunikation;

♦ Modul mit 4 DS-3 45 Mbit/s-Ports – für globale Kommunikation.

Der Switch unterstützt die wichtigsten Spezifikationen der ATM-Technologie: die Einrichtung von Switched Virtual Circuits (SVC) gemäß den Spezifikationen UNI 3.0 und 3.1, Unterstützung für permanente Virtual Circuits (PVC) mithilfe des Managementsystems, Interim Interswitch Signaling Protocol (IISP), LAN Emulation, Management, Überlastungsmanagement.

Das Switch-Management ist für folgende Standards implementiert: SNMP, ILMI, MIB 2, ATM MIB, SONET MIB. Zum Einsatz kommt das Transcend-Steuerungssystem.

Der CELLplex 7200-Switch kombiniert die Funktionalität eines ATM-Switches und eines Ethernet-Switches und beseitigt gleichzeitig Engpässe in Backbone- und Abteilungsnetzwerken.

Der CELLplex 7200 bietet Ethernet-Verbindungen mit voller Geschwindigkeit für gemeinsam genutzte LAN-Segmente, Server und einzelne Workstations, die eine höhere Leistung erfordern.

Darüber hinaus kann der Switch mit ATM-Ports für die Verbindung mit Arbeitsgruppen-Switches, ATM-Servern und Workstations sowie für die Verbindung mit dem ATM-Netzwerk-Backbone konfiguriert werden.

Die ATM-Vermittlungsstelle (8x8) ist mit einem Ethernet/ATM-Vermittlungsprozessor auf einem ZipChip-Chip kombiniert. ZipChip wandelt Ethernet-Datenpakete in Standard-ATM-Zellen um und vermittelt sie anschließend mit Geschwindigkeiten von bis zu 780.000 Zellen pro Sekunde.

Im Gegensatz zum Modell CELLplex 7000 verfügt das Modell CELLplex 7200 nicht über zwei, sondern über vier Arten von Schnittstellenmodulen:

♦ Modul mit zwei ATM-Ports OS-Zs;

♦ Modul mit zwei DS-3-Ports;

♦ Modul mit 12 Ethernet-Ports und einem ATM OS-Zs-Port;

♦ Modul mit 12 Ethernet-Ports und einem ATM DS-3-Port.

Die übrigen Eigenschaften der CELLplex 7200- und CELLplex 7000-Switches sind nahezu gleich.

LattisCell- und EtherCell-ATM-Switches von Bay Networks

Die Produktfamilie von Bay Networks für die ATM-Technologie besteht aus dem LattisCell-Switch (nur ATM-Switching), dem EtherCell-Switch (Ethernet-ATM-Switching), der ATM Connection Management System-Software und der ATM Network Management Application-Software.

Es stehen mehrere ATM-Switch-Modelle zur Verfügung, die jeweils eine spezifische Kombination aus physikalischen Schichten, Übertragungsmedien und Leistungsredundanzfunktionen bieten.

Der EtherCell-Switch wurde entwickelt, um Engpässe in LAN-Arbeitsgruppen mithilfe der herkömmlichen Shared-Ethernet-Technologie zu beseitigen. Mit diesem Switch können Sie Kommunikationswege zu Servern und Routern entlasten. Der 10328 EtherCell verfügt über 12 10Base-T-Ports und direkten Zugriff auf das ATM-Netzwerk. Ethernet-Ports können durch Umschalten eine dedizierte Bandbreite von 10 Mbit/s bereitstellen.

Die ATM Connection Management System (CMS)-Software befindet sich auf der SunSPARCStation-Workstation, um Switch-Verbindungen zu koordinieren und zu verwalten. CMS lernt automatisch die Netzwerktopologie und stellt virtuelle ATM-Verbindungen zwischen kommunizierenden Stationen her.

Die ATM-Netzwsorgt in Verbindung mit dem CMS für die Verwaltung des ATM-Netzwerks an einer zentralen Verwaltungsstation.

Das ATM-Switch-Modell LattisCell 10114A ist für den Einsatz in Campus-Netzwerken (Entfernung zwischen Switches bis zu 2 km) konzipiert und ist ein als eigenständiges Gehäuse konzipiertes Gerät mit einer festen Anzahl von Ports, deren Anzahl 16 beträgt. Jeder Port bietet ein Durchsatz von 155 Mbit/s über Multimode-Glasfaserkabel. Die Funktionen der physikalischen Schicht werden gemäß den Standards SONET/SDH 155 Mbit/s sowie UNI 3.0 implementiert

Die FastMatrix-Architektur bietet eine interne Gesamtdatenübertragungsrate von 5 Gbit/s und ermöglicht das Umschalten aller Ports ohne Blockierung. Broadcast- und Multicast-Funktionen werden unterstützt.

Eine Verbindungsanfrage kann für verschiedene Quality of Service (QoS)-Stufen gestellt werden:

♦ QoS 1 – wird für den CBR-Dienst (konstante Bitrate) verwendet;

♦ QoS 2 – wird für den VBR RT-Dienst (Variable Bit Rate Real Time Applications) verwendet;

♦ QoS 3/4 – wird für den VBR-Dienst verwendet, der für die Übertragung lokaler Netzwerkdaten mithilfe verbindungsbasierter und verbindungsloser Verfahren vorgesehen ist;

♦ QoS 0 – wird für den UBR-Dienst verwendet.

Das Gerät wird außerdem über das CMS-Softwaresystem verwaltet, das Folgendes erfordert: SunSPARCStation 2 oder höher, Sun OS 4.1.3 oder höher für eine nicht dedizierte Ethernet-Verbindung oder Solaris 2.4 für eine direkte ATM-Verbindung.

Andere Modelle von LattisCell-Switches (10114R, 10114A-SM, 10114R-SM, 10114R-SM, 10114-DS3, 10114-EZ, 10115A, 10115R) unterscheiden sich durch das Vorhandensein einer Notstromversorgung sowie durch die Art der Ports (Die Gesamtzahl der Ports in jedem Modell beträgt 16). Neben Multimode-Ports können Switches über Singlemode-Glasfaser-Ports (für Netzwerke mit Entfernungen bis zu 25 km) sowie Ports für Koaxialkabel mit DS-3 (45 Mbit/s) und EZ (34 Mbit) verfügen /s) Schnittstellen für Verbindungen zu globalen Netzwerken über TZ/EZ-Leitungen.

EtherCell-Switch-Modelle (10328-F und 10328-SM) bieten Ethernet-zu-Ethernet- und Ethernet-ATM-Switching. Diese Modelle verfügen über 12 10Base-T RJ-45-Ports und einen 10-Mbit/s-ATM-Direktzugriffsport. 10Base-T-Ports können verwendet werden, um die volle Geschwindigkeit von 10 Mbit/s einer dedizierten Leitung für Hochgeschwindigkeitsserver bereitzustellen oder sie zwischen einem Segment von Arbeitsgruppenstationen zu teilen.

Der EtherCell 10328-F unterstützt Multimode-Glasfaserkabel für die Kommunikation mit einem ATM-Netzwerk über eine Entfernung von bis zu 2 km.

Der EtherCell 10328-SM unterstützt Singlemode-Glasfaserkabel für die Kommunikation mit einem ATM-Netzwerk über eine Entfernung von bis zu 20 km.

Die Switches unterstützen den LAN-Emulationsstandard, der die Interaktion lokaler Netzwerke mit ATM-Netzwerken auf der Ebene von Link-Layer-Protokollen definiert. Darüber hinaus werden die Standard-MIB-Spezifikationen UNI, M1B-P, EtherCell-MIB und Bay Networks unterstützt.

Über den ATM-Port können EtherCell-Switches eine Verbindung zum SONET/SDH-Port des LattisCell-Switches herstellen.

EtherCell-Switches umfassen HSA-Software (Host Signaling Agent), die als Proxy-Agent für Ethernet-Hosts fungiert.

EtherCell-Switches unterstützen die Bildung virtueller Gruppen, die entlang des von LattisCell-Switches gebildeten ATM-Netzwerk-Backbones verteilt sind.

Cisco LightStream 1010-Switch

Der LightStream 1010-Switch ist ein ATM-Switch zum Aufbau von Abteilungs- oder Campus-Netzwerk-Backbones.

Der Switch verfügt über eine Gesamtleistung von 5 Gbit/s und basiert auf einem 5-Slot-Chassis.

Der zentrale Steckplatz beherbergt den ATM Switch Processor (ASP), der über 5 Gbit/s gemeinsamen Speicher, eine vollständig blockierungsfreie Switch-Fabric und einen leistungsstarken MIPS R4600 100 MHz RISC-Prozessor verfügt. Das ASP-Modul führt das Internetworking-Betriebssystem IOS aus, wie Cisco-Router und -Switches. Die Software des ASP-Moduls kann im laufenden Betrieb ausgetauscht werden, d. h. ohne den Wechsel anzuhalten, was im Zusammenhang mit sich häufig ändernden Spezifikationen des ATM-Forums wichtig ist.

Die restlichen 4 Steckplätze dienen der Installation von CAM-Schnittstellenmodulen, die jeweils bis zu 2 RAM-Port-Adaptermodule aufnehmen können. Somit kann der Switch maximal mit bis zu 8 RAM-Modulen aus folgendem Set ausgestattet werden:

♦ 1 ATM-Port 622 Mbit/s (OS12) (Single-Mode);

♦ 1 ATM-Port 622 Mbit/s (OS 12) (Multimodus);

♦ 4 ATM 155 Mbit/s-Ports (OSZs) (Singlemode);

♦ 4 ATM-Ports 155 Mbit/s (OSZs) (Multimode);

♦ 4 ATM-Ports 155 Mbit/s (OSZs) (über ungeschirmtes Twisted Pair UTP Cat 5);

♦ 2 DS3/T3 45 Mbit/s-Ports;

♦ 2 EZ-Ports 34 Mbit/s.

Der LightStream 1010-Switch ist einer der ersten in der Branche, der die PNNI-Phase-1-Routing-Spezifikation unterstützt, die für das Routing von geschalteten Verbindungen (SVC) in heterogenen ATM-Netzwerken unter Berücksichtigung der erforderlichen Dienstqualität erforderlich ist.

Alle vom ATM Forum definierten Verkehrsarten werden unterstützt, einschließlich ABR.

Für Benutzer-zu-Switch-Verbindungen wird das UNI 3.0-Protokoll verwendet (in naher Zukunft wird auch UNI 3.1-Unterstützung erwartet).

Der LightStream 1010-Switch kann als zentraler Switch in einem Campus-Netzwerk fungieren.

Schaltertests

Da Schalter ihren Wirkungsbereich ständig erweitern, nimmt das Interesse verschiedener Prüflabore an ihnen nicht ab. Grundsätzlich werden verschiedene Leistungsmerkmale für typische Netzwerkkonfigurationen getestet.

Die durchgeführten Tests sind in zweierlei Hinsicht interessant. Erstens sind die Testergebnisse selbst interessant, können aber keinesfalls als absolute Werte angesehen werden. Wenn ein Schalter bei einem bestimmten Indikator unter bestimmten Bedingungen einen anderen Schalter um 10 % oder 20 % übertrifft, bedeutet dies keineswegs, dass der zweite Schalter unter anderen Bedingungen nicht um 15 % besser abschneidet. Gleichzeitig sollte ein deutlicher Rückstand gegenüber der Gesamtmasse der Modelle eines Switches seine potenziellen Käufer alarmieren.

Zweitens sind die geschaffenen Prüfbedingungen interessant, da sie in der Regel auf der Grundlage von Erfahrungen mit der Bedienung von Schaltern ausgewählt werden und den härtesten Betriebsbedingungen entsprechen.

Im Folgenden werden die Bedingungen und Ergebnisse der Tests von Switches beschrieben, die gemeinsam vom Testlabor der Zeitschrift Data Communication und European Network Labs durchgeführt wurden. Als die ersten Testergebnisse eintrafen, wurden diese mit Vertretern der Herstellerfirmen besprochen, wodurch bei einigen Modellen Änderungen an der Software vorgenommen wurden, die deren Leistung unter den spezifischen Testbedingungen verbesserten.

Die Switches wurden in einer verteilten Backbone-Konfiguration getestet, bei der eine große Anzahl von 10-Mbit/s-Ethernet-Ports Daten über ein Fast Ethernet- oder FDDI-Backbone austauschen.

Die Netzwerklast wurde durch zwei Smartbits Advanced SMB100-Verkehrsgeneratoren erzeugt, die Verkehr an die 20 Ethernet-Ports jedes der beiden getesteten Switch-Beispiele sendeten. Der an jeden Eingangsport gesendete Datenverkehr wurde in allen Tests mit gleicher Wahrscheinlichkeit über diesen Port an die anderen 39 Switch-Ports weitergeleitet, mit Ausnahme des Einfügungslatenztests, bei dem der Datenverkehr einfach in eine Richtung durch das Backbone gesendet wurde. Es wurden Frames mit einer Mindestgröße von jeweils 64 Byte verwendet.

Verkehrsgeneratoren zählten die Anzahl der Frames, die den Zielport erreichten, und berechneten auf Grundlage dieser Daten quantitative Schätzungen der Qualität der Verkehrsübertragung durch Switches.

Beim ersten Test wurde die Fähigkeit des Switches getestet, kurzfristige Verkehrsstöße verlustfrei zu übertragen.

Experimentbedingungen: Einspeisung eines Pakets mit 24 Frames an jeden Port, eine Pause von 1 Sekunde, Einspeisung eines Pakets mit 62 Frames an jeden Port, eine Pause von 1 Sekunde usw., während die Paketgröße auf 744 Frames erhöht wird. Jeder Burst erzeugte eine 100-prozentige Auslastung an jedem der 40 am Test beteiligten Ethernet-Ports.

Testergebnisse

Während der ersten Tests verlor der LANplex-Switch einen relativ großen Prozentsatz an Frames, woraufhin die 3Com-Spezialisten Anpassungen an seiner Software vornahmen und die Aggressivität der Switch-Ports erhöhten. Dadurch verlor der Switch keine Frames mehr.

Im zweiten Test wurde der maximale Switching-Durchsatz pro Port bei 100 % kurzfristiger Portauslastung getestet.

Experimentelle Bedingungen: Für jeden Port wurde ein Burst von 24 Frames generiert und die maximale Geschwindigkeit der Frame-Übermittlung an den Zielport gemessen.

Testergebnisse

Am besten schnitt der Catalist 5000-Switch ab, der fast 5.000 Bilder pro Sekunde übertrug, mit einem maximalen theoretischen Durchsatz von 7.440 Bildern pro Sekunde (berücksichtigt wurden nur die danach empfangenen Bilder). Die erhebliche Verringerung des tatsächlichen Durchsatzes im Vergleich zum maximal möglichen spiegelt die Schwierigkeit wider, die der Switch im Halbduplexbetrieb beim gleichzeitigen Senden und Empfangen von Frames hat. Der LANplex-Switch blieb etwas hinter dem Spitzenreiter zurück, was die Testexperten auf die zu hohe eingestellte Aggressivität zur Vermeidung von Frame-Verlusten zurückführten. Diese Stufe „verlangsamt“ den Endknoten zu sehr und verhindert so, dass er eine höhere Rate beim Senden von Frames an das Netzwerk entwickelt.

Beim dritten Test wurde die Verzögerung bewertet, die der Switch bei der Übertragung eines Frames über den Backbone verursacht

Experimentelle Bedingungen: Konstanter unidirektionaler Bildfluss durch die Autobahn. Gemessen wurde die Zeit zwischen dem Eintreffen des ersten Bits eines Frames am Eingangs-Ethernet-Port des ersten Switches und dem Erscheinen des ersten Bits desselben Frames am Ausgangs-Ethernet-Port des zweiten Switches.

Testergebnisse

Switches, die einen FDDI-Ring als Backbone verwendeten, führten im Vergleich zu Switches, die über einen Fast-Ethernet-Backbone verbunden waren, zu einer höheren Latenz. Dies ist nicht verwunderlich, da im letzteren Fall keine Frames gesendet wurden.



 


Lesen:



Einen Preis (iPhone) bei einem Wettbewerb gewonnen

Einen Preis (iPhone) bei einem Wettbewerb gewonnen

Ja, fast immer ist dies eine Täuschung und ein Betrug um Geld. Diejenigen, die „Wettbewerbe“, „iPhone-Gewinnspiele“ auf VKontakte, Instagram und anderen sozialen Netzwerken veranstalten ...

Agenzy – Mehrzweck-WordPress-Theme

Agenzy – Mehrzweck-WordPress-Theme

Modernes Webdesign legt großen Wert auf die visuelle Seite der Website. Große animierte Slider, filterbar, spielen hier eine große Rolle ...

So flashen Sie ein Smartphone mit FlashTool

So flashen Sie ein Smartphone mit FlashTool

Heute können Sie Ihr Telefon selbst neu flashen. Das Hochladen neuer Firmware ist entweder nach individueller Anleitung des Geräteherstellers oder... möglich.

Was ist Paypal und wie nutzt man es?

Was ist Paypal und wie nutzt man es?

Dabei handelt es sich um das elektronische Zahlungssystem mit der längsten Geschichte und der größten Nutzerzahl weltweit. Neun von zehn...

Feed-Bild RSS