heim - Computers
Technische Mittel zur Verbindung von Netzwerken. Technische Mittel, die in der Computertechnik verwendet werden

Stammkunden von Computergeschäften, regelmäßige Leser von Chip, Home Computer und anderen auf Computerthemen spezialisierten Zeitschriften und Zeitungen können diesen Absatz überspringen. Es richtet sich an diejenigen, die mit Computerhardware wenig vertraut sind und glauben, dass es an der Zeit ist, diese Lücke in ihrer Ausbildung zu schließen.

Computer(auch bekannt als PC, Computer) ist ein notwendiges und grundlegendes Element der Implementierung jeder Computertechnologie. Um Netzwerktechnologien zu implementieren, müssen mehrere Computer an ein Netzwerk angeschlossen sein. Besteht aus Systemeinheit, Monitor, Tastatur. Bei der Arbeit mit grafischen Betriebssystemen wird das für die Arbeit notwendige technische Werkzeug benötigt Mausmanipulator . Die Computersystemeinheit ist kein einzelnes unteilbares Gerät. Prinzip offene Architektur, implementiert in modernen PCs, ermöglicht es, beim Zusammenbau eines Computers aus einzelnen standardisierten Komponenten die gewünschten technischen Eigenschaften (Prozessorgeschwindigkeit, RAM- und Festplattengröße, Grafikkartenleistung usw.) zu erreichen. Somit bietet der PC die Möglichkeit seiner weiteren Modernisierung sowie des Anschlusses verschiedener Peripheriegeräte, die seine Fähigkeiten erweitern. Die Menge der an einen Computer angeschlossenen Geräte hängt von der Notwendigkeit ab, bestimmte Probleme zu lösen, und kann sehr unterschiedlich sein. Die Basis der Systemeinheit ist Motherboard (oder Systemplatine). , auf dem sie montiert sind CPU , Speicherchips, Steuerungssysteme (Controller) alle PC-Geräte. Interne Modems, Fernseher, FM-Tuner und andere Geräte, die traditionell als Peripheriegeräte eingestuft werden, können in Form separater Platinen sowie in Form separater Blöcke und Geräte in die Systemeinheit eingebaut werden Laufwerke für Disketten und CDs, Diskettenlaufwerke (Festplatten) . Die notwendigen Komponenten der Systemeinheit sind Stromversorgung und Belüftungssystem , bestehend aus einem oder mehreren Ventilatoren.

PC-Monitore dienen dazu, die Ergebnisse des Computerbetriebs visuell darzustellen. Es gibt Monitore mit Kathodenstrahlröhren (CRT) und Monitore mit Flüssigkristallbildschirm (TFT-Monitore). Letztere haben gegenüber CRT-Monitoren folgende Vorteile:

Sie geben keine schädlichen Röntgenstrahlen ab und erzeugen keine elektromagnetischen Felder, die den Betrieb elektronischer Geräte beeinträchtigen.


Sie nutzen die Arbeitsfläche des Bildschirms fast vollständig aus.

Sie haben im Vergleich zu CRT-Monitoren typischerweise einen höheren Kontrast und eine höhere Lichtleistung.

Sie verbrauchen weniger Strom und sind leichter in Gewicht und Abmessungen.

Die Monitorleistung hängt weitgehend von der Leistung ab Grafikkarten Computer und um ein optimales Bildgebungssystem zu erstellen, sind die technischen Eigenschaften beider Geräte wichtig. Von den wichtigsten technischen Merkmalen von Monitoren werden die wichtigsten berücksichtigt Bildschirmgröße(Diagonalen), Auflösung(Anzahl der leuchtenden Punkte – Pixel, auf dem Bildschirm), Bildrate.

Externe Speichergeräte oder Geräte zum Arbeiten mit Wechseldatenträgern (Disketten), CDs (CD-ROM), optischen Datenträgern (DVD-ROM) und anderen Speichermedien dienen der Erstellung von Dateiarchiven und der Übertragung von Informationen von einem Computer auf einen anderen. Kann zur Verbreitung von Informationen (elektronische Veröffentlichungen auf CDs) verwendet werden. Unter modernen Bedingungen sind sie obligatorische Bestandteile der „Standard“-PC-Konfiguration.

Drucker Entwickelt zum Drucken von Dokumenten auf Papier oder anderen Materialien (z. B. Film). Unterscheiden Matrix, Tintenstrahl und Laser Drucker. Mit ersteren können Sie den kostengünstigsten Prozess zum Drucken von Dokumenten organisieren, wenn auch in vielen Fällen mit unzureichender Qualität. Letztere werden für den kostengünstigen Farbdruck, einschließlich des Drucks von Fotos und grafischen Bildern, verwendet. Aufgrund ihrer relativ geringen Kosten sind Tintenstrahldrucker das Hauptgerät zum Drucken von Dokumenten zu Hause. Laserdrucker für den Schwarzweißdruck sind teurer als Tintenstrahldrucker, ermöglichen aber aufgrund der geringen Kosten für Verbrauchsmaterialien (gemessen an der Anzahl der gedruckten Seiten pro Nachfüllung) eine Kostenersparnis im Betrieb. Diese Drucker werden am häufigsten in modernen Büros eingesetzt. Farblaserdrucker werden in Verlagen, Werbeagenturen und anderen Organisationen eingesetzt, wo sich aufgrund der großen Mengen an Farbgrafikdrucken erhebliche Anfangsinvestitionen in die Anschaffung dieser teuren Geräte auszahlen.

Plotter– Geräte für den Großformatdruck. Wird zur Herstellung von Postern, Theaterzetteln, Zeichnungen usw. verwendet.

Scanner- Geräte zur Eingabe grafischer Informationen in einen Computer (Scannen von Dokumenten). Sie werden verwendet, um auf herkömmliche Weise gewonnenes Fotomaterial, handschriftliche Texte und andere Dokumente von Papiermedien auf Computermedien zu übertragen.

Mikrofone, Kopfhörer, Lautsprechersysteme– Geräte, die für die Arbeit mit Ton in Multimediaprogrammen erforderlich sind. Kann zum Aufzeichnen und Wiedergeben von Audioinformationen bei Besprechungen, Präsentationen, beim Ansehen von Videos usw. verwendet werden.


Webcams– ein Gerät zum Aufzeichnen von Videoinformationen im Computerspeicher. Einsetzbar für Videokonferenzen, Videotelefonie sowie für die Durchführung öffentlicher Veranstaltungen.

Digitalkameras– autonome Geräte zum Erhalten fotografischer Bilder auf Computermedien. Die Verwendung grafischer Informationsanzeigeformate, die für die Computerverarbeitung in Digitalkameras traditionell sind, macht die gemeinsame Nutzung von Digitalkameras und einem Computer vielversprechend für die Erstellung hochwertiger Fotomaterialien.

TV, FM – Tuner– Geräte, die den Empfang und die Wiedergabe von Radio- und Fernsehprogrammen auf an einen Computer angeschlossenen Geräten ermöglichen.

Multimedia-Projektoren– Geräte zum Projizieren von Videoinformationen auf den Bildschirm, ähnlich den auf dem Monitor angezeigten Informationen. Sie werden häufig bei Präsentationen, Konferenzen, Treffen des Organisationsteams, bei Ausstellungsaktivitäten usw. verwendet.

Zweck wichtiger Geräte für die Organisation der Arbeit im Netzwerk: Modems, Netzwerkkarten, Hubs, Router und Bridges bereits im Abschnitt über Computernetzwerke besprochen.

Unterbrechungsfreie Stromversorgungen– Geräte, mit denen Sie die Funktionalität von Computern bei plötzlichen Stromausfällen aufrechterhalten können. Notwendig, um die Zuverlässigkeit sowohl einzelner Computer als auch von Computernetzwerken insgesamt zu erhöhen.

Man kann die Unermesslichkeit nicht annehmen. MIDI-Keyboards, Joysticks und eine Reihe anderer Geräte wurden von uns nicht berücksichtigt. Wer sich zu diesem Thema weiter informieren möchte, dem sei die Lektüre der oben bereits erwähnten Zeitschriften und Internetseiten mit Neuigkeiten aus dem Computermarkt empfohlen.

Reis. 1.3. Aufbau einer herkömmlichen Systemeinheit: 1 - Motherboard; 2 - ISA-Erweiterungskarte; 3 - PCI-Erweiterungskarte; 4 - Frontplattenorgane; 5 - Sprecher; 6, 7 Fächer 3" und 5"; 8-fach Netzteil

Ein Computer ist ein Gerät, das in der Lage ist, eine durch ein Programm vorgegebene, klar definierte Abfolge von Vorgängen auszuführen. Der Begriff „Computer“ ist weiter gefasst als der Begriff „elektronischer Computer“ (Computer), da letzterer den Schwerpunkt auf Berechnungen legt. Ein Personal Computer (PC) zeichnet sich dadurch aus, dass er von einer Person genutzt werden kann, ohne auf die Hilfe eines Teams von Servicepersonal zurückgreifen zu müssen und ohne dass ihm ein spezieller Raum mit Geräten zur Klimaerhaltung und einem leistungsstarken Stromversorgungssystem zugewiesen werden muss und andere Eigenschaften großer Computer. Dieser Computer konzentriert sich normalerweise auf die interaktive Interaktion mit einem Benutzer (in Spielen manchmal mit zwei); Darüber hinaus erfolgt die Interaktion über viele Kommunikationsmedien – vom alphanumerischen und grafischen Dialog über Display, Tastatur und Maus bis hin zu Virtual-Reality-Geräten, bei denen es wahrscheinlich noch nicht nur um Gerüche geht.

Der erste Computer, der von Neumanns Prinzipien verkörperte, wurde 1949 vom englischen Forscher Morris Wilkes gebaut. Seitdem sind Computer viel leistungsfähiger geworden, aber die überwiegende Mehrheit von ihnen basiert auf den Prinzipien, die John von Neumann in seinem Bericht von 1945 darlegte.

John von Neumann beschrieb in seinem Bericht, wie ein Computer konstruiert sein muss, damit er ein universelles und effizientes Gerät zur Informationsverarbeitung ist.

Zunächst muss der Computer über die folgenden Geräte verfügen

    Eine arithmetisch-logische Einheit, die arithmetische und logische Operationen ausführt;

    Ein Steuergerät, das den Prozess der Programmausführung organisiert;

    Ein Speichergerät oder Speicher zum Speichern von Programmen und Daten;

    Externe Geräte zur Ein-/Ausgabe von Informationen.

Der Computerspeicher muss aus einer Reihe nummerierter Zellen bestehen, von denen jede Daten oder Programmanweisungen enthalten oder verarbeiten kann. Alle Speicherzellen müssen für andere Computergeräte leicht zugänglich sein.

Die Verbindungen zwischen Computergeräten sind in Abb. dargestellt. 1.1 (einfache Linien zeigen Steuerverbindungen, doppelte Linien zeigen Informationsverbindungen).

Allgemein lässt sich die Funktionsweise eines Computers wie folgt beschreiben. Zunächst wird mit einem externen Gerät ein Programm in den Speicher des Computers eingegeben. Das Steuergerät liest den Inhalt der Speicherzelle, in der sich die erste Anweisung (Befehl) des Programms befindet, und organisiert dessen Ausführung. Dieser Befehl kann arithmetische oder logarithmische Operationen ausführen, Daten aus dem Speicher lesen, um arithmetische oder logische Operationen auszuführen oder deren Ergebnisse in den Speicher zu schreiben, Daten von einem externen Gerät in den Speicher eingeben oder Daten aus dem Speicher an ein externes Gerät ausgeben.

Typischerweise beginnt das Steuergerät nach der Ausführung eines Befehls mit der Ausführung des Befehls aus der Speicherzelle, die sich unmittelbar nach dem gerade ausgeführten Befehl befindet. Die Reihenfolge kann jedoch mithilfe von Befehlen zur Steuerungsübertragung (Sprung) geändert werden. Diese Befehle zeigen dem Steuergerät an, dass es mit der Ausführung des Programms beginnend mit dem an einem anderen Speicherort enthaltenen Befehl fortfahren soll. Ein solcher „Sprung“ oder Übergang in einem Programm wird möglicherweise nicht immer durchgeführt, sondern nur, wenn bestimmte Bedingungen erfüllt sind, beispielsweise wenn einige Zahlen gleich sind, wenn die vorherige arithmetische Operation eine Null ergeben hat usw. Dies ermöglicht es Ihnen, dieselben Befehlssequenzen in einem Programm mehrmals zu verwenden (d. h. eine Schleife zu organisieren), je nach Erfüllung bestimmter Bedingungen unterschiedliche Befehlssequenzen auszuführen usw., d. h. komplexe Programme erstellen.

Somit führt das Steuergerät die Programmanweisungen automatisch aus, ohne dass ein menschliches Eingreifen erforderlich ist. Es kann Informationen mit dem RAM und externen Geräten des Computers austauschen. Da externe Geräte tendenziell viel langsamer laufen als der Rest des Computers, unterbricht das Steuergerät möglicherweise die Programmausführung, bis ein E/A-Vorgang mit dem externen Gerät abgeschlossen ist. Alle Ergebnisse des ausgeführten Programms müssen an ein externes Gerät des Computers ausgegeben werden, woraufhin der Computer auf Signale von externen Geräten wartet.

Es ist zu beachten, dass sich das Design moderner Computer etwas von dem oben genannten unterscheidet. Insbesondere die arithmetisch-logische Einheit und die Steuereinheit sind meist in einem Gerät zusammengefasst – dem Zentralprozessor. Darüber hinaus kann der Programmausführungsprozess für dringende Aktionen im Zusammenhang mit empfangenen Signalen von externen Computergeräten unterbrochen werden. Viele Hochgeschwindigkeitscomputer führen eine parallele Verarbeitung auf mehreren Prozessoren durch. Die meisten modernen Computer folgen jedoch im Wesentlichen den von Neumann dargelegten Prinzipien.

Computer der 40er und 50er Jahre waren sehr große Geräte – riesige Räume waren voller Schränke mit elektronischen Geräten. Das alles war sehr teuer, so dass Computer nur großen Unternehmen und Institutionen zur Verfügung standen. Im Kampf um Käufer versuchten Unternehmen, die für sie Computer und elektronische Geräte herstellten, ihre Produkte jedoch schneller, kompakter und billiger zu machen. Dank der Errungenschaften moderner Technologie konnten auf diesem Weg wirklich beeindruckende Ergebnisse erzielt werden.

Der erste Schritt zur Verkleinerung von Computern wurde mit der Erfindung von Transistoren im Jahr 1948 möglich – elektronische Miniaturgeräte, die Vakuumröhren in Computern ersetzen konnten. Mitte der 50er Jahre wurden kostengünstige Möglichkeiten zur Herstellung von Transistoren gefunden, und in der zweiten Hälfte der 50er Jahre kamen Transistorcomputer auf den Markt. Sie waren hundertmal kleiner als Röhrencomputer gleicher Leistung. Der einzige Teil des Computers, in dem Transistoren Vakuumröhren nicht ersetzen konnten, waren Speichereinheiten, aber anstelle von Röhren begann man, Speicherschaltungen auf Magnetkernen zu verwenden, die zu dieser Zeit erfunden worden waren. Mitte der 60er Jahre erschienen deutlich kompaktere externe Geräte für Computer, was es Digital Equipment ermöglichte, im Jahr 1965 den ersten Minicomputer PDP-8 auf den Markt zu bringen, der die Größe eines Kühlschranks hatte und 20.000 US-Dollar kostete. Aber zu diesem Zeitpunkt war es noch ein Schritt Ein weiterer Schritt zur Miniaturisierung von Computern war die Erfindung integrierter Schaltkreise.

Vor dem Aufkommen integrierter Schaltkreise wurden Transistoren einzeln hergestellt und mussten beim Zusammenbau der Schaltkreise von Hand verbunden und gelötet werden. Im Jahr 1958 fand Jack Kilby heraus, wie man mehrere Transistoren auf einem Halbleiterwafer herstellen kann. Im Jahr 1959 erfand Robert Noyce (zukünftiger Gründer von Intel) eine fortschrittlichere Methode, die es ermöglichte, Transistoren und alle notwendigen Verbindungen zwischen ihnen auf einer Platte zu platzieren. Die daraus resultierenden elektronischen Schaltkreise wurden als integrierte Schaltkreise oder Chips bezeichnet. Anschließend verdoppelte sich die Anzahl der Transistoren, die pro Flächeneinheit eines integrierten Schaltkreises platziert werden konnten, jedes Jahr ungefähr. 1968 brachte Burroughs den ersten Computer mit integrierten Schaltkreisen auf den Markt, und 1970 begann Intel mit dem Verkauf von integrierten Speicherschaltkreisen.

Im selben Jahr wurde ein weiterer wichtiger Schritt auf dem Weg zum Personal Computer getan: Marchian Edward Hoff von derselben Firma Intel entwarf einen integrierten Schaltkreis, der in seinen Funktionen dem Zentralprozessor eines Großrechners ähnelte. So entstand der erste Mikroprozessor Intel-4004, der Ende 1970 auf den Markt kam. Natürlich waren die Fähigkeiten des Intel-4004 viel bescheidener als die des Zentralprozessors eines Großrechners – er arbeitete viel langsamer und konnte nur 4 Bit an Informationen gleichzeitig verarbeiten (Mainframe-Prozessoren verarbeiteten 16 oder 32 Bit gleichzeitig). Doch 1973 brachte Intel den 8-Bit-Mikroprozessor Intel-8008 und 1974 seine verbesserte Version Intel-8080 auf den Markt, der bis Ende der 70er Jahre der Standard für die Mikrocomputerindustrie war.

Zunächst wurden diese Mikroprozessoren nur von Amateur-Elektronikern und in verschiedenen Spezialgeräten verwendet. Doch 1974 kündigten mehrere Unternehmen die Entwicklung eines Computers auf Basis des Intel-8008-Mikroprozessors an, d.h. ein Gerät, das die gleichen Funktionen wie ein Großrechner ausführt. Anfang 1975 erschien der erste kommerziell vertriebene Computer Altair-8800, der auf dem Intel-8080-Mikroprozessor basiert. Dieser von MITS entwickelte Computer wurde für etwa 500 US-Dollar verkauft. Obwohl seine Fähigkeiten sehr begrenzt waren (der RAM betrug nur 256 Byte, es gab weder Tastatur noch Bildschirm), wurde sein Erscheinen mit großer Begeisterung aufgenommen. In den ersten Monaten wurden mehrere tausend Wagensätze verkauft. Käufer dieses Computers haben ihn mit zusätzlichen Einstellungen ausgestattet: einem Monitor zur Anzeige von Informationen, einer Tastatur, Speichererweiterungseinheiten usw. Bald begannen andere Unternehmen, diese Geräte herzustellen. Ende 1975 entwickelten Paul Allen und Bill Gates (zukünftige Gründer von Microsoft) einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, problemlos mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben. Dies trug auch zur Popularität von Computern bei.

Die Verbreitung von Personalcomputern Ende der 70er Jahre führte zu einem leichten Rückgang der Nachfrage nach Großcomputern und Minicomputern. Für IBM (International Business Machines Corporation), ein führendes Unternehmen in der Herstellung großer Computer, wurde dies zu einem ernsten Problem, und 1979 beschloss IBM, sich auf dem Personalcomputermarkt zu versuchen.

Allerdings unterschätzte die Unternehmensleitung die Bedeutung dieses Marktes und betrachtete die Entwicklung eines Computers nur als ein kleines Experiment – ​​so etwas wie eine von Dutzenden Arbeiten, die das Unternehmen zur Entwicklung neuer Geräte durchführte. Um für dieses Experiment nicht zu viel Geld auszugeben, hat die Unternehmensleitung der für dieses Projekt verantwortlichen Einheit größere Freiheiten eingeräumt. Insbesondere durfte er einen Personal Computer nicht von Grund auf entwerfen, sondern Blöcke anderer Unternehmen verwenden.

Als Hauptmikroprozessor des Computers wurde der damals neueste 16-Bit-Mikroprozessor Intel-8080 ausgewählt. Durch seinen Einsatz konnte die Leistungsfähigkeit des Computers deutlich gesteigert werden, da der neue Mikroprozessor das Arbeiten mit 1 MB Speicher ermöglichte und alle damals verfügbaren Computer auf 64 KB begrenzt waren. Der Computer verwendete auch andere Komponenten verschiedener Unternehmen und seine Software wurde von einem kleinen Unternehmen, Microsoft, in Auftrag gegeben.

Im August 1981 wurde ein neuer Computer namens IBM PC offiziell der Öffentlichkeit vorgestellt und erfreute sich bald darauf großer Beliebtheit bei den Benutzern. Nach ein oder zwei Jahren nahm der IBM-PC eine führende Position auf dem Markt ein und verdrängte 8-Bit-Computermodelle. Tatsächlich wurde der IBM-PC zum Standard für Personalcomputer. Mittlerweile machen solche Computer (kompatibel mit IBM PC) etwa 90 % aller weltweit hergestellten Personalcomputer aus.

Daher werden mit dem IBM PC kompatible Personalcomputer in mehrere Generationen (oder Klassen) mit den folgenden charakteristischen Merkmalen unterteilt:

    Das erste IBM-PC-Modell verfügte über einen Intel-8088-Prozessor, 1 MB adressierbaren Speicher, einen ISA-Erweiterungsbus (8 Bit) und Diskettenlaufwerke (FHD) mit bis zu 360 KB.

    IBM PC/XT (Extended Technology) – Festplatten (HDDs) und die Möglichkeit, einen mathematischen Intel-8087-Coprozessor zu installieren, erschienen.

    IBM PC/AT (Advanced Technology – progressive oder „fortgeschrittene“ Technologie): Intel-80286/80287-Prozessor, 16 MB adressierbarer Speicher, 16-Bit-ISA-Bus, 1,2 und 1,44 MB HDD, HDD.

Derzeit entwickelt sich die AT-Maschinenklasse in mehrere Richtungen: Der 16-Bit-Prozessor wird durch einen 32-Bit-Prozessor (386 und älter) ersetzt, der Speicher wird im Raum bis zu 4 und sogar 32 GB adressiert, es gibt effizientere Erweiterungsbusse verwendet (EISA, VLB, PCI) mit Durch die Beibehaltung des 16-Bit-ISA als kostengünstigem Bus, um die Kompatibilität mit älteren Adaptern sicherzustellen, erweitert sich die Palette der Geräte, die Systemunterstützung auf BIOS-Ebene bieten.

IBM-Computer verfügen über eine offene Architektur und bestehen aus einer Reihe von Geräten, mit denen Sie viele Optionen kombinieren können. Im Gegensatz dazu werden die Macintosh-Computer von Apple in einem dicht verschlossenen Gehäuse geliefert und es gibt praktisch keine Möglichkeit, daran etwas zu ändern.

Grundbausteine ​​eines IBM PCs. Normalerweise bestehen IBM PC-Personalcomputer aus drei Teilen (Blöcken):

    Systemeinheit;

    Eine Tastatur, mit der Sie Zeichen in einen Computer eingeben können.

    Monitor (oder Display) – zum Anzeigen von Text- oder Grafikinformationen.

Computer gibt es auch in einer tragbaren Version – als „Laptop“ (Laptop) oder „Notepad“ (Laptop)-Version. Dabei sind Systemeinheit, Monitor und Tastatur in einem Gehäuse untergebracht: Die Systemeinheit ist unter der Tastatur versteckt, der Monitor ist in der Tastaturabdeckung eingebaut.

Obwohl die Systemeinheit von allen Teilen des Computers am wenigsten beeindruckend aussieht, ist sie der „Hauptteil“ des Computers. Es enthält alle Hauptkomponenten des Computers:

    Elektronische Schaltkreise, die den Betrieb des Computers steuern (Mikroprozessor, RAM, Gerätesteuerungen usw., siehe unten);

    Ein Netzteil, das den Netzstrom in Niederspannungs-Gleichstrom umwandelt, der den elektronischen Schaltkreisen des Computers zugeführt wird;

    Laufwerke (oder Laufwerke) zum Lesen und Schreiben auf Disketten (Disketten), CDs, DVDs;

    Ein Festplattenlaufwerk zum Lesen und Schreiben auf eine nicht entfernbare Festplatte (Festplatte).

Zusätzliche Geräte. An die Systemeinheit eines IBM PC-Rechners können Sie verschiedene Ein-/Ausgabegeräte anschließen und so dessen Funktionalität erweitern. Viele Geräte werden über spezielle Buchsen (Anschlüsse) angeschlossen, die sich normalerweise an der Rückwand der Computersystemeinheit befinden. Zu diesen Geräten zählen neben Monitor und Tastatur auch:

    Drucker – zum Drucken von Text- und Grafikinformationen;

    Eine Maus ist ein Gerät, das die Eingabe von Informationen in einen Computer erleichtert.

    Joystick – ein Manipulator in Form eines Griffs, der an einem Scharnier mit Knopf montiert ist und hauptsächlich für Computerspiele verwendet wird.

Der Anschluss dieser Geräte erfolgt über spezielle Drähte (Kabel). Zum Schutz vor Fehlern sind die Kabelstecker unterschiedlich ausgeführt. Einige Kabel (z. B. zum Anschluss eines Monitors oder Druckers) sind mit Schrauben befestigt.

In die Computersystemeinheit können Geräte eingefügt werden, zum Beispiel:

    Modem – zum Austausch von Informationen mit anderen Computern über das Telefonnetz;

    Faxmodem – vereint die Funktionen eines Modems und eines Telefaxes.

Einige Geräte, zum Beispiel viele Arten von Scannern, verwenden eine gemischte Verbindungsmethode: Nur eine elektronische Platine (Controller), die den Betrieb des Geräts steuert, wird in die Computersystemeinheit eingesetzt, und das Gerät selbst wird mit dieser Platine verbunden Kabel.

CPU. Das wichtigste Element eines Computers, sein „Gehirn“, ist der Prozessor, der alle Berechnungen und Informationsverarbeitung durchführt. Der Prozessor kann Hunderte verschiedener Operationen ausführen und erledigt dies mit einer Geschwindigkeit von mehreren zehn oder sogar hunderten Millionen Operationen pro Sekunde. Computer wie IBM PC verwenden Prozessoren von Intel sowie kompatible Prozessoren anderer Unternehmen (AMD, Cyrix, IBM usw.).

Coprozessor. In Fällen, in denen viele mathematische Berechnungen auf einem Computer durchgeführt werden müssen (z. B. bei technischen Berechnungen), wird dem Hauptprozessor ein mathematischer Coprozessor hinzugefügt. Es hilft dem Hauptprozessor, mathematische Operationen mit reellen Zahlen durchzuführen. Die neuesten Intel-Mikroprozessoren führen selbst reelle Zahlenoperationen aus und benötigen daher keinen Coprozessor.

Rom. Das nächste sehr wichtige Element eines Computers ist RAM. Aus ihm nehmen Prozessor und Coprozessor Programme und Ausgangsdaten zur Verarbeitung entgegen und schreiben die Ergebnisse hinein. Dieser Speicher wird „RAM“ genannt, weil er sehr schnell arbeitet, sodass der Prozessor beim Lesen von Daten aus dem Speicher oder beim Schreiben in den Speicher nicht warten muss. Die darin enthaltenen Daten werden jedoch nur bei eingeschaltetem Computer gespeichert; beim Ausschalten des Computers wird der Inhalt des Arbeitsspeichers normalerweise gelöscht.

Controller und Bus. Damit ein Computer funktioniert, muss er über Programme und Daten im RAM verfügen. Und sie gelangen dorthin über verschiedene Computergeräte – Tastaturen, Magnetplattenlaufwerke usw. Normalerweise werden diese Geräte als extern bezeichnet, obwohl sich einige von ihnen möglicherweise nicht außerhalb des Computers befinden, sondern wie oben beschrieben in die Systemeinheit eingebaut sind. Die Ergebnisse der Programmausführung werden auch an externe Geräte ausgegeben – Monitor, Festplatten, Drucker usw.

Damit der Computer funktioniert, ist daher ein Informationsaustausch zwischen RAM und externen Geräten erforderlich. Dieser Austausch wird Input/Output genannt. Dieser Austausch findet jedoch nicht direkt statt: Zwischen einem beliebigen externen Gerät und dem Arbeitsspeicher des Computers gibt es zwei Zwischenverbindungen:

1. Für jedes externe Gerät im Computer gibt es eine elektronische Schaltung, die es steuert. Diese Schaltung wird Controller oder Adapter genannt. Einige Controller (z. B. Festplattencontroller) können mehrere Geräte gleichzeitig steuern.

2. Alle Controller und Adapter interagieren mit dem Prozessor und dem RAM über die Systemdatenübertragungsleitung, die normalerweise als Bus bezeichnet wird.

Elektronische Tafeln. Um den Anschluss von Geräten zu vereinfachen, bestehen die elektronischen Schaltkreise des IBM PCs aus mehreren Modulen – Elektronikplatinen. Die Hauptplatine des Computers – die Systemplatine (Motherboard) – enthält normalerweise den Hauptprozessor, den Coprozessor, den Arbeitsspeicher und die Busse. Schaltkreise, die einige externe und zusätzliche Computergeräte (Controller oder Adapter) steuern, befinden sich auf separaten Platinen, die in standardisierte Anschlüsse (Steckplätze) auf der Hauptplatine gesteckt werden. Über diese Anschlüsse werden Gerätesteuerungen direkt mit der Systemdatenübertragungsleitung im Computer – dem Bus – verbunden. Das Vorhandensein freier Busanschlüsse ermöglicht somit das Hinzufügen neuer Geräte zum Computer. Um ein Gerät durch ein anderes zu ersetzen (z. B. einen veralteten Monitoradapter durch einen neuen), müssen Sie die entsprechende Platine aus dem Anschluss entfernen und an ihrer Stelle eine andere einsetzen.

I/O-Port-Controller. Einer der Controller, der in fast jedem Computer vorhanden ist, ist der I/O-Controller. Diese Ports sind von den folgenden Typen:

    Parallel (bezeichnet als LPT1-LPT4) werden normalerweise Drucker daran angeschlossen;

    Asynchrone serielle Schnittstelle (bezeichnet als COM1-COM3). Über sie werden in der Regel Maus, Modem etc. angeschlossen;

    Game-Port – zum Anschluss eines Joysticks.

Einige Geräte können sowohl an parallele als auch an serielle Anschlüsse angeschlossen werden. Parallele Ports führen Ein- und Ausgaben schneller durch als serielle Ports (aufgrund der Verwendung von mehr Drähten im Kabel).

IBM-Komponenten werden als Einzeleinheiten verkauft. Der Vorteil einer solchen Lieferung ist die Möglichkeit, eine Systemkonfiguration entsprechend Ihren Bedürfnissen zu erstellen. Typischerweise werden Konfigurationsoptionen bevorzugt, die eine größere Systemflexibilität bieten.

Die wichtigsten Komponenten und Parameter, die die Vorzüge eines IBM-Systems bestimmen. Dazu gehören folgende Komponenten:

    Mikroprozessor (Prozessor);

    Taktfrequenz;

    Speicherkapazität und Zugriffsgeschwindigkeit;

    Festplattenspeicherkapazität und Schreib-/Lesegeschwindigkeit.

Geschwindigkeit ist der wichtigste Parameter bei der Verwendung eines Computers in „langsamen“ Prozessen, zu denen auch die Verarbeitung von Veröffentlichungstexten gehört. Vorgänge wie das Ausrichten von Zeilen, das Platzieren von Text auf einer Seite und das Implementieren eines Modus zur gemeinsamen Darstellung von Text und Grafiken erfordern selbst auf den besten modernen Maschinen viel Zeit.

Durch die Erhöhung der Prozessorgeschwindigkeit werden die Fähigkeiten der Maschine erweitert. Somit können 32-Bit-Prozessoren einen Mehrbenutzer- und Mehrprogrammmodus bereitstellen. Dadurch kann der Prozessor auch bei niedrigen I/O-Geschwindigkeiten effizient genutzt werden. Beim Sortieren von Daten wird beispielsweise viel mehr Zeit in Anspruch genommen als die eigentliche Arbeit des Prozessors, indem er die Originaldaten von der Festplatte liest und die sortierten Daten auf die Festplatte schreibt. Die Sortierung selbst besteht aus einer Reihe von Datenaustauschvorgängen zwischen Speicher- und Prozessorregistern und erfolgt mit der maximalen internen Geschwindigkeit der Maschine. Bei der Texteingabe ruht der schnelle Prozessor zwischen den Tastenanschlägen.

Durch die entsprechende Organisation der Prozessorsteuerung können Sie mehrere Probleme gleichzeitig lösen oder mehrere Benutzer bedienen. Die Verteilung der Zeit- und Prozessorressourcen zwischen den Benutzern erfolgt durch das Betriebssystem.

Mit Hilfe eines solchen Systems führt der Prozessor nacheinander Aufgaben aus und gibt jedem Teil seine Zeit. Befindet sich die nächste Aufgabe in der E/A-Phase, überträgt das Betriebssystem den Prozessor, um die nächste Aufgabe oder den nächsten Benutzer zu bedienen. Im Idealfall wird bei optimaler Lastverteilung jede Aufgabe unabhängig von den anderen bearbeitet und jeder Benutzer hat den Eindruck, dass der Prozessor nur ihn bedient. Bei hoher Arbeitsbelastung kommt es für Benutzer zu Unannehmlichkeiten aufgrund der langsamen Ausführung ihrer Aufgaben.

Präsentation von Informationen auf einem Computer. Ein Computer kann nur Informationen verarbeiten, die in numerischer Form vorliegen. Alle anderen Informationen (z. B. Töne, Bilder, Instrumentenwerte usw.) müssen zur Verarbeitung auf einem Computer in numerische Form umgewandelt werden. Um beispielsweise einen Musikklang zu digitalisieren, wird die Intensität des Klangs bei bestimmten Frequenzen in kurzen Abständen gemessen und die Ergebnisse jeder Messung in numerischer Form dargestellt. Mithilfe von Computerprogrammen können Sie die empfangenen Informationen umwandeln, beispielsweise Geräusche aus verschiedenen Quellen übereinander „überlagern“. Das Ergebnis kann dann wieder in Audioform umgewandelt werden.

Textinformationen werden auf einem Computer auf ähnliche Weise verarbeitet. Bei der Eingabe in einen Computer wird jeder Buchstabe mit einer bestimmten Zahl kodiert, und bei der Ausgabe auf ein externes Gerät (Bildschirm oder Ausdruck) werden aus diesen Zahlen entsprechende Buchstabenbilder für die menschliche Wahrnehmung erstellt. Die Entsprechung zwischen einer Reihe von Buchstaben und Zahlen wird als Zeichenkodierung bezeichnet.

In der Regel werden alle Zahlen in einem Computer durch Nullen und Einsen dargestellt (nicht durch zehn Ziffern, wie es bei Menschen üblich ist). Mit anderen Worten: Computer arbeiten normalerweise im binären Zahlensystem, was ihren Aufbau erheblich vereinfacht. Die Eingabe von Zahlen in einen Computer und deren Ausgabe zum menschlichen Lesen kann in der üblichen Dezimalform erfolgen – alle notwendigen Konvertierungen können von Programmen durchgeführt werden, die auf dem Computer ausgeführt werden.

Die Informationseinheit in einem Computer ist ein Bit, d.h. eine binäre Ziffer, die den Wert 0 oder 1 annehmen kann. Normalerweise verarbeiten Computeranweisungen nicht einzelne Bits, sondern acht Bits gleichzeitig. Acht aufeinanderfolgende Bits bilden ein Byte..gif" border="0" align="absmiddle" alt=") und ein Megabyte (abgekürzt als MB) entspricht 1024 KB.

Programme für Computer. Programme für die ersten Computer mussten in Maschinensprache geschrieben werden, d. h. in Codes, die direkt vom Computer wahrgenommen werden. Es war eine sehr harte, wenig produktive und mühsame Arbeit, bei der es leicht zu Fehlern kam. Um den Programmierprozess zu erleichtern, wurden in den frühen 50er Jahren Systeme entwickelt, die es ermöglichten, Programme nicht in Maschinensprache, sondern unter Verwendung mnemonischer Notationen für Maschinenanweisungen zu schreiben. Diese Sprache zum Schreiben von Programmen wird Autocode oder Assemblersprache genannt. Assemblerprogramme lassen sich sehr einfach mit einem speziellen Programm, auch Assembler genannt, in Maschinenanweisungen übersetzen. Assemblersprache wird in der Programmierung immer noch häufig verwendet, wenn es darum geht, maximale Leistung und minimale Größe von Programmen zu erreichen oder die Funktionen des Computers im Programm möglichst vollständig zu berücksichtigen.

Allerdings ist das Schreiben von Programmen in Assemblersprache immer noch sehr arbeitsintensiv. Dazu muss der Programmierer das Befehlssystem des entsprechenden Computers gut kennen und muss sich im Laufe der Arbeit weniger mit der Komplexität des zu lösenden Problems als vielmehr mit der Übersetzung der in der Aufgabe notwendigen Aktionen auseinandersetzen in Maschinenbefehle umwandeln. Daher versuchten viele Forscher auch nach dem Aufkommen von Assemblern weiterhin, den Programmierprozess zu vereinfachen, indem sie Computern „beibrachten“, für den Menschen bequemere Programmiersprachen zu verstehen. Solche Sprachen wurden als Programmiersprachen auf hoher Ebene und Assemblersprachen und andere maschinenorientierte Sprachen als Sprachen auf niedriger Ebene bezeichnet. Programme in Hochsprachen werden entweder in Programme umgewandelt, die aus Maschinenanweisungen bestehen (dies geschieht durch spezielle Programme, sogenannte Übersetzer oder Compiler), oder durch Interpreterprogramme interpretiert werden.

Hochsprachen haben es ermöglicht, das Schreiben von Programmen erheblich zu vereinfachen, da sie auf die Bequemlichkeit der Beschreibung von Befehlen ausgerichtet sind.

Erinnerung. Volumen und Zeitpunkt des Zugriffs. Weit verbreitete dynamische RAM-Designs (Random Access Memory) haben Zugriffszeiten von bis zu 70 ns. Zusammen mit der Taktfrequenz bestimmt dieser Wert die Geschwindigkeitsbegrenzung des Schreib-/Lesevorgangs.

Wenn der Prozessor schneller ist als das Speichergerät, kann die Leistung der Maschine durch den Einsatz einer Technologie namens Cache-Speicher gesteigert werden. Das System kann mit einem kleinen (16 KB) Hochgeschwindigkeits-Cache-Speicher ausgestattet werden, bei dem es sich um statischen RAM handelt. Statische Chips, die teurer sind als dynamische, haben eine Zugriffszeit von etwa 25 ns. Wenn der Computer über „Cache-RAM“ verfügt, gelangen Befehle und verarbeitete Daten, wenn sie an den Mikroprozessor gesendet werden, auch in den Cache-Speicher. In Fällen, in denen der Prozessor diese Informationen erneut verwenden muss, können sie viel schneller aus dem Cache-Speicher abgerufen werden als aus dem regulären Cache-Speicher. Die Ausführung von Vorgängen mit Zyklen wird spürbar schneller.

Die Gesamtmenge des Speichers, auf den zugegriffen wird, wirkt sich auch auf die Geschwindigkeit der Maschine aus. Wenn die Speicherkapazität ausreicht, um alle Arbeitsprogramme vollständig zu laden, ist der Verarbeitungsprozess im Vergleich zu Optionen, die einen periodischen Zugriff auf die Festplatte erfordern, deutlich schneller. Erinnern wir uns an die alten 8-Bit-Maschinen mit 64 KB Speicher. Beim Arbeiten mit zwei Disketten (A und B), von denen eine Programme und die andere die verarbeiteten Daten enthielt, war der Benutzer lange Zeit gezwungen, nur das Ein- und Ausschalten der Signallampen der Laufwerke zu beobachten. Das Gleiche passiert auch beim Einsatz einer Festplatte in modernen Maschinen, allerdings natürlich mit deutlich höherer Geschwindigkeit. Wenn der Computer über einen großen Arbeitsspeicher verfügt, der nicht nur Programme, sondern auch die zu verarbeitenden Daten enthält, ist der Verarbeitungsprozess noch schneller.

Einige beim Desktop-Publishing verwendete Programme laufen auf begrenztem Speicher, selbst wenn ausreichend Speicher verfügbar ist. Um große Dokumente zu verarbeiten, nutzen diese Programme die festplattenbasierte Speichererweiterung, indem sie einen sogenannten Festplattenpuffer erstellen. Wenn der Benutzer den Text betrachtet, erfolgt der notwendige Datenaustausch zwischen Speicher und Festplattenpuffer programmgesteuert (nur direkt im Speicher enthaltene Informationen werden auf dem Bildschirm angezeigt).

Wenn es die Speicherkapazität zulässt, kann aus Bequemlichkeit für den Benutzer eine „RAM-Disk“ verwendet werden, die als das Gegenteil eines Festplattenpuffers betrachtet werden kann. Wenn ein Festplattenpuffer ein Festplattenbereich ist, der vom Prozessor als Speicherbereich wahrgenommen wird, dann ist eine RAM-Disk ein Speicherbereich, der als Festplattenbereich wahrgenommen wird.

Eine RAM-Disk wird mithilfe einer Software erstellt, die einen bestimmten Speicherbereich gezielt zuweist. In Zukunft wird es vom Betriebssystem und anderen Programmen als neue Festplatte wahrgenommen.

Im Vergleich zu normalen Festplatten arbeiten RAM-Festplatten viel schneller; Lese-/Schreibvorgänge werden mit Sausgeführt.

Während ein Festplattenpuffer die für ein Programm verfügbare Speichermenge erhöht, indem er die Leistung verringert, erhöht Festplatten-RAM die Leistung, indem er einen Teil des verfügbaren Speichers nutzt. Wir dürfen nicht vergessen, dass die RAM-Disk Informationen nur speichert, wenn der Computer eingeschaltet ist; nach Abschluss der Arbeit müssen alle Daten von der RAM-Disk auf direkte magnetische Medien kopiert werden.

Ein weiteres „Gerät“, das einer RAM-Disk ähnelt, ist ein Spooler, bei dem es sich um einen Speicherbereich handelt, der zum Speichern von an den Drucker gesendeten Dokumenten reserviert ist. Spooler ermöglichen es dem Drucker, in einem Modus zu arbeiten, der dem von einem Multitasking-Betriebssystem unterstützten Modus ähnelt. Wie RAM-Disks werden Spooler mithilfe von Programmen erstellt, die dem Spooler einen Speicherbereich (manchmal mit einer RAM-Disk) zuweisen. Gedruckte Dokumente werden an den Spooler gesendet, der im Hintergrund den Drucker aktiviert und Druckdaten an ihn sendet, während andere Programme im Vordergrund laufen. In diesem Fall nutzt der Spooler nur ungenutzte Mikroprozessorressourcen, die Arbeit von Vordergrundprogrammen wird nicht verlangsamt. RAM-Disks und Spooler erhöhen die Systemeffizienz, indem sie „überschüssigen“ RAM nutzen.

Anzahl der Wartezustände. Ein weiterer Faktor, der die Leistung etwas beeinflusst, ist die Anzahl der Wartezustände. Wartezustände sind leere Maschinenzyklen bei Speicherzugriffen. Solche Schleifen treten auf, wenn der schnelle Mikroprozessor Daten aus dem Speicher liest und darauf warten muss, dass der langsame Speicher die Daten an den Bus überträgt. Stellen wir uns zum Beispiel vor, dass die Taktfrequenz, mit der der Mikroprozessor arbeitet, 20 MHz beträgt, d.h. Jeder Maschinenzyklus dauert 50 ns. Wenn die Datenübertragung auf den Bus jedoch 150 ns dauert, muss der Prozessor zwei Maschinenzyklen auf jeden Speicherzugriff warten. Wenn wir die Maschine anhand dieser Parameter charakterisieren, können wir die beschriebene Situation als „zwei Wartezustände“ definieren. Erfinderische Ansätze zum Entwurf der Systemarchitektur können Wartezustände reduzieren, selbst wenn der Speicher langsamer als der Mikroprozessor ist. Anbieter von Maschinen, die mehr als einen Wartezustand haben, erwähnen dies lieber nicht.

Es ist unwahrscheinlich, dass die Anzahl der Wartezustände einen entscheidenden Einfluss auf die Wahl der Maschine hat. Es ist jedoch sinnvoll, diese Eigenschaft beim Vergleich der Leistung konkurrierender Maschinen zu berücksichtigen.

Speicherkapazität und Festplattengeschwindigkeit. Die Festplatte ist eines der ständig arbeitenden Elemente des Systems und ihre Leistungsmerkmale wirken sich erheblich auf die Leistungsfähigkeit des Gesamtsystems aus. Textverarbeitungs- und Layoutprogramme greifen häufig auf die Festplatte zu, da weder die Programme noch die zu bearbeitenden Texte in der Regel vollständig in den Speicher passen. Wenn eines der Programme den Festplattenpuffer nutzt, wird die Festplatte zu einer Erweiterung des Systemspeichers und läuft daher ständig. Natürlich hat die Zugriffszeit auf die Festplatte einen erheblichen Einfluss auf die Leistungsfähigkeit des Systems.

Die Zugriffszeit ist definiert als die durchschnittliche Dauer, die benötigt wird, um den Kopf auf die entsprechende Spur zu bewegen und einen Datenblock zu lesen oder zu schreiben. Bei modernen Festplatten beträgt diese Zeit weniger als 10 ms.

Ein weiterer wichtiger Faktor, der die Geschwindigkeit bestimmt, mit der Daten zwischen Festplatte und Speicher übertragen werden, ist die Architektur des Festplattencontrollers. Der Festplattencontroller steuert die Datenübertragung zwischen Festplatte und Speicher. Controller, die eine 1:1-Interaktion unterstützen, sind am schnellsten.

Unabhängig von der Zugriffszeit und Architektur kann die Gesamtleistung durch die Verwendung eines Festplatten-Cache ähnlich dem zuvor beschriebenen Cache-Speicher gesteigert werden. Dazu wird der Cache-Festplatte ein bestimmter Bereich des Festplattenspeichers zugewiesen. Wenn Programmfragmente oder Datensätze in den Speicher geschrieben werden, werden sie auch auf der Cache-Platte abgelegt. Bei nachfolgenden Lesevorgängen wird zunächst auf die Cache-Festplatte zugegriffen, um die erforderlichen Informationen zu finden. Wenn es erkannt wird, wird die Zeit für die Erweiterung auf die Festplatte erheblich verkürzt. Mit Hilfe spezieller Programme kann die Erstellung einer Cache-Platte für jede Maschinenarchitektur organisiert werden. Die Funktionsweise einer Cache-Disk ist der Funktionsweise einer RAM-Disk sehr ähnlich, allerdings bestimmt im zweiten Fall der Benutzer selbst, welche Programme und Daten von der Festplatte auf die RAM-Disk kopiert werden müssen. Die Cache-Disk funktioniert automatisch; das System bestimmt selbst, was auf die Cache-Disk geschrieben werden muss.

Bei der Verwendung in einem Desktop-Publishing-System ist die Gesamtgröße des Festplattenspeichers sehr wichtig. Ein farbiges Halbtonbild, das eine A4-Seite mit einer Auflösung von 300 dpi einnimmt, benötigt etwa 30 MB Speicher. Selbst mit Datenkomprimierungstechniken können mehrere Illustrationen Hunderte Megabyte Speicherplatz beanspruchen.

Die Computerstruktur ist in Abb. dargestellt. 1.2. Beachten Sie, dass der Tastaturcontroller auf der Systemplatine abgebildet ist – dies geschieht normalerweise, da es die Herstellung des Computers vereinfacht. Manchmal befinden sich auch Controller für andere Geräte auf dem Motherboard.

Die Designlösungen des ersten IBM-PC-Modells von 1981 sind bis heute ohne grundlegende Änderungen erhalten geblieben.

In der klassischen Variante besteht ein PC aus einer Systemeinheit, an die eine Tastatur, ein Videomonitor und alle Peripheriegeräte angeschlossen sind.

Die Systemeinheit (Abb. 1.3) enthält eine Systemplatine (Systemplatine oder Hauptplatine – Motherboard), auf der die zentralen Komponenten des Computers installiert sind – ein Prozessor, RAM, Hilfsschaltkreise und Steckplatzanschlüsse, in die Erweiterungskarten eingebaut werden können. Das Gehäuse der Systemeinheit verfügt über Fächer für den Einbau von Festplatten und anderen Peripheriegeräten im Drei- und Fünf-Zoll-Format sowie für ein Netzteil. An der Rückwand des Gehäuses befinden sich Löcher für die Tastaturanschlüsse und einige andere sowie Schlitze, durch die externe Anschlüsse, die auf Erweiterungskarten installiert sind, aus dem Gehäuse herauskommen. Erweiterungskarten (Karten) verfügen über einen auf der Kante aufgedruckten Anschluss, der sie mit den E/A-Bus-Steckplätzen verbindet, sowie über eine Metallklammer, mit der die Karte am Gehäuse befestigt wird (Abb. 1.3). Diese Halterung bietet Platz für externe Anschlüsse. Die Gesamt- und Anschlussmaße der Platinen, die Art ihrer Befestigung und die Ein-/Ausgangsbusse sind vereinheitlicht.

Die Vereinheitlichung von Motherboards, Gehäusen und Erweiterungskarten wird durch folgende Designvereinbarungen sichergestellt:

    Standardisierung der Größen, der Anzahl der Kontakte und der elektrischen Schnittstelle von Erweiterungsbus-Steckplätzen;

    Fester Abstand vom Slot zur Hinterkante der Platine;

    Fester Abstand zwischen benachbarten Steckplätzen sowie deren Bindung an Befestigungspunkte und die Position des Tastaturanschlusses;

    Bestimmen der maximalen Abmessungen (Länge und Höhe) von Erweiterungskarten;

    Bestimmen der Geometrie der Unterkante der Erweiterungsplatine, der Form und Größe des Befestigungswinkels.

Die Länge der Platine kann begrenzt sein, was auf die Eigenschaften des Gehäuses und die Anordnung der Elemente der Systemplatine zurückzuführen ist (manchmal behindern hohe Elemente den Einbau).

Die maximale Länge der Platine beträgt 335 mm und ihre Vorderkante muss in die am Gehäuse installierten Führungsschienen passen. Nur sehr alte oder recht komplexe Adapter verfügen über die volle Länge und Höhe.

Auf der Rückwandseite muss die Adapterplatine über einen Befestigungswinkel aus Metall verfügen, mit dem die Platine mit einer Schraube am Gehäuse befestigt wird. Eine lockere Platine kann wackeln, was zu Wackelkontakt und damit zum Ausfall führen kann. Die Karte mit externen Anschlüssen kann aus dem Steckplatz gezogen werden. Geschieht dies bei eingeschaltetem Strom, können die Systemplatine, die Adapter und das Netzteil zerstört werden.

Ursprünglich wurde die Systemeinheit horizontal auf einem Tisch installiert, ein solcher Gehäusetyp wird Desktop genannt. Die Gehäuse waren recht sperrig, aber im Laufe der Zeit konnte durch die Verkleinerung der Fläche des Motherboards ihre Länge reduziert werden. So entstand das Baby-AT-Gehäuse- (und Motherboard-)Format, und herkömmliche Gehäuse und Boards wurden Full-AT (volle Größe) genannt. Derzeit bezieht sich das DeskTop-Gehäuse auf ein Gehäuse, das etwa 35 cm lang ist (etwas länger als das Baby). Ein Monitor wird oft auf einem Desktop-Gehäuse installiert (obwohl sein Bildschirm zu hoch ist), und eine Tastatur wird vor dem Gehäuse platziert. Diese ganze Komposition nimmt zu viel Platz ein, insbesondere in der Tiefe, und es ist schwierig, sie auf einem normalen Tisch zu platzieren (aus diesem Grund sind neue „Computer“-Möbel aufgetaucht). Später fanden sie heraus, wie man das Gehäuse „stehend“ installiert und dabei die Position der externen Gerätefächer leicht veränderte.

So entstand der Tower-Wohntyp, der derzeit am beliebtesten ist. Es kann Motherboards und Erweiterungskarten in den gleichen Formaten wie im Desktop installieren, ist jedoch aufgrund des starren Skelettgehäuses strukturell besser und praktischer. Vor kurzem wurde ein neuer Standard für das Design des Motherboards und des Gehäuses eingeführt – ATX. Dieses Design entstand im Zusammenhang mit dem Trend, die maximale Anzahl von Peripheriecontrollern auf dem Motherboard zu platzieren, was den Anschluss ihrer externen Anschlüsse erschwerte.

Tower-Gehäuse können unterschiedliche Größen haben, je nachdem, ob sie auf einem Tisch oder neben einem Tisch auf dem Boden oder einer Art Ständer installiert werden. Bei der Installation auf dem Boden kann es zu Problemen mit der Länge der Kabel zwischen Tastatur und Monitor kommen, die jedoch mit Hilfe spezieller Verlängerungskabel gelöst werden können. Grundsätzlich ist es nicht verboten, das Tower-Gehäuse waagerecht auf den Tisch zu legen, dann kann man einen nicht sehr schweren Monitor darauf stellen. Im Gegensatz zum Desktop-Gehäuse sind die Laufwerksschächte jedoch vertikal angeordnet. In dieser Situation treten bei der Verwendung einer CD-ROM Schwierigkeiten auf: Informationen werden höchstwahrscheinlich normal gelesen, ein Wechsel der Datenträger wird jedoch nahezu unmöglich.

Das Mini-Tower-Gehäuse ist der kleinste Tower: Es hat eine Höhe von etwa 35 cm, eine Breite von 17–18 cm (etwas breiter als ein 5-Zoll-Schacht), eine Tiefe von etwa 40 cm und nur zwei 5-Zoll-Schächte. Von den drei oder vier 3-Zoll-Fächern können nur zwei auf der Frontplatte angezeigt werden.

Das Midi-Tower-Gehäuse ist etwas größer: Es ist etwa 40 cm hoch und verfügt über mindestens drei 5-Zoll-Fächer.

Das Big-Tower-Gehäuse hat eine Höhe von etwa 60 cm und fünf bis sechs 5-Zoll-Schächte.

Diese Gehäuse sind normalerweise breiter (für Stabilität und bessere Kühlung der internen Geräte). Es gibt auch Gehäuse mit mehr Platz – Super Big-Tower und andere, die für Servercomputer konzipiert sind.

Die neue Spezifikation für Low-Profile-NLX-Gehäuse verfolgt ungefähr die gleichen Ziele wie ATX. Der Edge-Anschluss des Motherboards gibt Signale von PCI-, ISA- und USB-Bussen, Schnittstellensignale von HDD-Controllern und IDE-Ports, Stromleitungen und Anschlüsse für alle Frontplattenelemente aus. Das Motherboard bietet Platz für einen AGP-Steckplatz, in den Sie eine Grafikkarte mit reduzierter Höhe einbauen können.

Alle oben genannten Gehäusetypen ermöglichen die Verwendung von Standard-Erweiterungskarten und einer ziemlich breiten Palette von Motherboards, d.h. Der „Konstrukteur“ ist universell und die Möglichkeiten der Modernisierung beschränken nicht die Notwendigkeit, Produkte von einem Hersteller zu kaufen. Allerdings gibt es auch „Marken“-Gehäusetypen, in denen nur „native“ Mainboards verbaut werden können. Erweiterungskarten sind in der Regel universell einsetzbar, es gibt jedoch auch in sich geschlossene Systeme.

Es gibt Fälle von exotischen Formen – zum Beispiel in Form eines rechteckigen Zylindersektors, der für den Einbau in einer Ecke konzipiert ist (Packard Bell).

Es gibt auch All-in-One-Computer, bei denen sich Systemeinheit und Monitor in einem gemeinsamen Gehäuse befinden. Es gibt sogenannte Multimedia-Gehäuse mit eingebauten Stereo-Lautsprechersystemen.

Neben stationären PCs werden seit langem auch tragbare Versionen hergestellt. Die ersten davon waren ziemlich umständlich.

Der IBM PC Portable war in einem normalen Desktop-Gehäuse untergebracht, hatte aber auf der Vorderseite einen kleinen Kathodenstrahlröhren-Monitorbildschirm. Die Tastatur war an der Frontplatte befestigt und diente beim Tragen als Abdeckung. Das Gewicht der Maschine war beeindruckend (es wurde durch die robuste Stahlkarosserie bestimmt) und die Stromversorgung erfolgte ausschließlich über das Netz.

Etwas später erschienen Computer der Laptop-Klasse – auf dem Knie montierte Computer, die wie eine kleine Aktentasche eines Diplomaten aussahen. Sie waren bereits mit flachen LCD-Monitoren ausgestattet und konnten mit eingebauten Batterien betrieben werden. Jeder Entwickler hat diese Maschinen auf seine eigene Weise entworfen, und über ihre Offenheit und Aufrüstbarkeit muss nicht gesprochen werden. Sie wurden durch kompaktere Geräte der Notebook-Klasse ersetzt – Notebook-PCs, deren Produktlinien derzeit erfolgreich weiterentwickelt werden. Diese Maschinen haben bereits eine Vereinheitlichung ihrer funktionalen Erweiterungsmodule in Form des PCMCIA-Standards erreicht, der kürzlich in PC Card umbenannt wurde. Notebooks liegen hinsichtlich ihrer Eigenschaften etwas hinter ihren Desktop-Pendants, sind aber um ein Vielfaches teurer.

Karten, Sockel, Steckplätze, Jumper. Die Systemplatine oder Hauptplatine ist die Hauptplatine, auf der der Prozessor, RAM, ROM-BIOS und einige andere Systemkomponenten installiert sind.

Eine Erweiterungskarte oder Erweiterungskarte ist eine Leiterplatte mit einem Randstecker, der in einen Erweiterungssteckplatz passt. Erweiterungskarten, die einem PC eine zusätzliche Schnittstelle hinzufügen, werden als Schnittstellenkarten bezeichnet. Da es sich bei einer Schnittstellenkarte um ein „Gerät“ zum Anschluss eines Gerätes handelt, gilt für sie auch die Bezeichnung „Adapter“. Beispielsweise wird ein Display-Adapter verwendet, um einen Anzeigemonitor anzuschließen. Adapter und Schnittstellenkarte sind fast gleichbedeutend, und beispielsweise wird NIC (Network Interface Card) oft als LAN-Adapter (Local Area Network) übersetzt.

Steckplatz – ein Steckplatzverbinder, in den eine Leiterplatte eingebaut wird. Ein Erweiterungssteckplatz in einem PC ist ein Systembus-Anschluss in Kombination mit einem Steckplatz in der Rückwand des Computergehäuses, d. h. Platz zum Einbau einer Erweiterungskarte. Erweiterungssteckplätze verfügen über ISA/EISA-, PCI-, MCA-, VLB- oder PC-Card-Busanschlüsse (PCMCIA). Interne Steckplätze werden bei einigen PC-Modellen auch zum Einbau von RAM-Modulen (DIMM), Cache-Speicher (COAST) sowie Prozessor- und Speichermodulen verwendet.

Ein Sockel ist ein Sockel, in den Mikroschaltungen eingebaut sind. Seine Kontakte sind für Mikroschaltungen mit Stiftanschlüssen in DIP-, PGA-Gehäusen in allen Modifikationen oder Mikroschaltungen in SQJ- und PLCC-Gehäusen mit Stiften in Form des Buchstabens „J“ ausgelegt. ZIF-Sockel (Zero Insertion Force) ist für eine einfache Installation mit hoher Kontaktzuverlässigkeit konzipiert. Die Buchsen verfügen über ein Schloss, durch dessen Öffnen Sie die Mikroschaltung installieren oder entfernen können, ohne Kraft auf die Anschlüsse auszuüben. Zum Betrieb nach der Installation wird das Schloss geschlossen, wobei die Buchsenkontakte die Stifte des Mikroschaltkreises fest umgreifen.

Ein Jumper ist ein abnehmbarer Jumper, der auf den aus der Leiterplatte herausragenden Stiftkontakten installiert wird. Mithilfe von Jumpern werden verschiedene Komponenten als Schalter oder als Schalter konfiguriert, die keiner Bediensteuerung bedürfen. Sie werden mit einer Pinzette neu angeordnet, was jedoch nur bei ausgeschaltetem Strom empfohlen wird, da die Gefahr besteht, dass sie an der falschen Stelle fallen gelassen werden oder benachbarte Kontakte mit einer Pinzette kurzgeschlossen werden.

DIP-Schalter sind kleine Schalter in einem DIP-Gehäuse, die für die gleichen Zwecke wie Jumper verwendet werden. Ihr Vorteil ist das einfachere Umschalten, was bequem mit einem Kugelschreiber möglich ist. Der Nachteil von Schaltern besteht darin, dass sie im Vergleich zu Jumpern mehr Platz auf der Platine beanspruchen und teurer sind. Außerdem handelt es sich trotz des Namens normalerweise nur um Schalter, was ihre Verwendung weniger flexibel macht als Jumper.

Moderne Komponenten streben danach, die Anzahl der Schalter oder Jumper zu reduzieren und versuchen, alle Konfigurationsfunktionen auf softwaregesteuerte elektronische Komponenten zu übertragen. Komponenten, die nach der Installation automatisch konfiguriert werden, werden als PP (Plug and Play) klassifiziert.

Das architektonische Erscheinungsbild eines PC-kompatiblen Computers wird durch eine Reihe von Eigenschaften bestimmt, die die Fähigkeit zum Betrieb von Software zur Steuerung von Peripheriegeräten gewährleisten. Programme können auf unterschiedliche Weise mit Geräten interagieren:

    Verwendung von Funktionsaufrufen des Betriebssystems (DOS-Interrupts, Windows-API usw.);

    Verwendung grundlegender BIOS-Funktionsaufrufe (Input/Output System);

    Direkte Interaktion mit Registern von Peripheriegeräten oder Schnittstellencontrollern.

Diese Kompatibilität besteht aufgrund der offenen Architektur des IBM PCs. Jeder PC-kompatible Computer weist die folgenden charakteristischen Merkmale auf:

    Prozessor kompatibel mit der x86-Familie von Intel;

    Ein einheitliches System zur Verteilung des Speicheradressraums zwischen Standard-RAM, nicht mehr als 640 KB Servicespeicher von Peripherieadaptern, permanentem und erweitertem RAM;

    Einheitliche Verteilung der I/O-Raumadressen mit fester Position der obligatorischen Ports und Kompatibilität ihres Softwaremodells;

    Ein Hardware-Interrupt-System, das es Peripheriegeräten ermöglicht, dem Prozessor mitzuteilen, dass bestimmte Wartungsvorgänge ausgeführt werden müssen.

    Ein direktes Speicherzugriffssystem, das es Peripheriegeräten ermöglicht, Datenarrays mit dem RAM auszutauschen, ohne den Prozessor zu belasten;

    Eine Reihe von Systemgeräten und Eingabe-/Ausgabeschnittstellen;

    In Design und Schnittstelle einheitliche Erweiterungsbusse (ISA, EISA, MCA, VLB, PCI, PC Card), deren Zusammensetzung je nach Verwendungszweck und Modell des Computers variieren kann;

    Das grundlegende Eingabe-/Ausgabesystem (BIOS), das erste Tests und das Laden des Betriebssystems durchführt und außerdem über eine Reihe von Funktionen verfügt, die die Eingabe-/Ausgabegeräte des Systems bedienen.

Die Standard-PC-Architektur definiert eine Reihe erforderlicher Eingabe-/Ausgabeeinrichtungen und peripherer Unterstützungstools – Hardware-Interrupt-Systeme und direkten Speicherzugriff. Zu den obligatorischen standardisierten Ein-/Ausgabeeinrichtungen gehören:

    Dreikanalzähler;

    Tastatur- und Steuerschnittstelle;

    Audio-Steuerkanal;

    Grafikadapter (MDA, CGA, EGA, VGA, SVGA...).

Ausgehend von den ersten PC-Modellen wurde das Erscheinungsbild von System-Ein-/Ausgabegeräten bestimmt, die zunächst nur eine Tastatur, einen Videoadapter mit Monitor und einen an eine serielle oder parallele Schnittstelle angeschlossenen Drucker umfassten. Das Festplatten-Subsystem entwickelte sich aus den einfachsten Laufwerken auf Disketten, zu denen bald Festplatten hinzukamen, deren Volumen schnell wuchs und weiter wächst. Heutzutage umfasst das Festplattensystem Laufwerke verschiedener Typen, und CD-ROM ist bereits in der Liste der Startgeräte enthalten. Alle diese Geräte verfügen über eine BIOS-Unterstützung, die es Anwendungsprogrammen oder dem Betriebssystem ermöglicht, sie ohne zusätzliche Treiber zu verwenden. Auch die altbewährte „Maus“ ist in der Liste der Standardgeräte enthalten (obwohl das BIOS sie möglicherweise nicht unterstützt). Jetzt umfasst die Liste der Standardgeräte einen digitalen Audiokanal.

Geräte, die früher als Videoadapter bezeichnet wurden, werden heute genauer als Grafikadapter bezeichnet.

Hardware-Interrupts ermöglichen eine Reaktion des Prozessors auf Ereignisse, die asynchron zum ausgeführten Programmcode auftreten.

Zuweisung von Systemressourcen. Die gebräuchlichsten Busse zum Anschluss von PC-Erweiterungskarten sind ISA und PCI. Der PCI-Bus beinhaltete zunächst die Möglichkeit, installierte Adapter automatisch zu konfigurieren. Die traditionelle ISA-Bus-Spezifikation erfordert, dass allen Karten ihre eigenen Systemressourcen zugewiesen werden – Adressbereiche im Speicher und E/A-Räume, Interrupt-Anforderungsleitungen und direkte Speicherzugriffskanäle. Gleichzeitig sollten die Gremien keinen Konflikt hinsichtlich der eingesetzten Ressourcen haben. Im Gegensatz zu MCA-, EISA- und PCI-Bussen verfügt der ISA-Bus nicht über Mechanismen zur automatischen Konfiguration und Ressourcenzuweisung, sodass alle Bedenken hinsichtlich der Konfiguration installierter Adapter und der Lösung von Konflikten beim Benutzer liegen. Die Konfigurationsaufgabe wird auch durch das Fehlen eines gemeinsamen Mechanismus zur automatischen Übertragung eingestellter Parameter an Anwendungs- und Systemsoftware erschwert. Nach der Konfiguration der Adapter, die normalerweise durch Umschalten von Jumpern erfolgt (es ist gut, wenn es eine Dokumentation gibt, die sie beschreibt), werden die eingestellten Parameter in Konfigurationsdateien eingegeben, die für jedes Softwareprodukt spezifisch sind.

Neben „offensichtlich nützlichen“ Geräten unterliegen auch PCI-Busbrücken (PCI Bridge) der Konfiguration – Hardware zur Verbindung des PCI-Busses mit anderen Bussen. Host Bridge – Hauptbrücke – dient zur Verbindung mit dem Systembus (Prozessorbus oder Prozessoren). Peer-to-Peer-Bridge – Peer-to-Peer-Bridge – dient der Verbindung zweier PCI-Busse (zusätzliche PCI-Busse ermöglichen eine Erhöhung der Anzahl angeschlossener Geräte).

Kontrollfragen

1. Welches Gerät in einem PC führt arithmetische und logische Operationen aus (nach dem Neumann-Prinzip)?

2. Welches Gerät in einem PC führt I/O-Vorgänge aus?

3. Welches Gerät im PC organisiert die Ausführung von Programmen?

4. Wann erschien der erste Intel-4004-Mikroprozessor?

5. Wann erschien der erste IBM-PC?

6. Welches Unternehmen ist der Begründer der modernen PC-Architektur?

7. Welche Architektur haben IBM PC-Computer?

8. Welcher PC-Parameter bestimmt maßgeblich seine Leistung?

9. Welches elektronische PC-Gerät steuert das externe Gerät?

10. Mit welchem ​​PC-Gerät werden Informationen über das Telefonnetz mit anderen Computern ausgetauscht?

Die in Abb. 4.1 dargestellte Klassifizierung technischer Mittel zur Verbindung von Netzwerken umfasst:

· passiv technische Mittel zur Zusammenführung einzelner Segmente und zur Erweiterung des LAN, dazu gehören:

Repeater;

Naben;

· aktiv technische Mittel zum Aufbau geografisch verteilter und globaler Netzwerke durch Kombination von LAN und Netzwerken anderer Nicht-LAN-Technologien:

Brücken;

Router;

Schalter;

Tore.

Aktive technische Mittel, im Gegensatz zu passiven, deren Hauptfunktion darin besteht, das übertragene Signal zu verstärken, den Verkehr anhand der Zieladressen der übertragenen Daten zu steuern, d. h. sie arbeiten auf der 2. und höheren Ebene des OSI-Modells. Passive technische Mittel wirken hauptsächlich auf der 1. physischen Ebene.

Brücke– das einfachste Netzwerkgerät, das lokale oder entfernte Segmente vereint und den Durchgang von Frames zwischen ihnen reguliert. Die mit der Bridge verbundenen Segmente bilden ein logisch einheitliches Netzwerk, in dem jede Station die Netzwerkressourcen sowohl ihres eigenen Segments als auch aller über die Bridge zugänglichen Segmente nutzen kann.

Die Brücke funktioniert weiter MAC-Unterebene die zweite Verbindungsschicht und ist für Protokolle höherer Ebenen transparent, d. h. sie trifft eine Entscheidung über die Übertragung eines Frames von einem Segment zu einem anderen basierend auf der physikalischen Adresse (MAC-Adresse) der Zielstation. Zu diesem Zweck bildet sich die Brücke Adresstabelle(TA), das enthält:

· Liste der MAC-Adressen (Zieladressen, EIN) mit der Brücke verbundene Stationen;

· Richtung ( Hafen), mit dem die Station verbunden ist;

· " Alter" seit der letzten Aktualisierung dieses Beitrags.

Da Frames, die für eine Station im selben Segment bestimmt sind, nicht über die Brücke übertragen werden, wird der Datenverkehr innerhalb der Segmente lokalisiert, wodurch die Netzwerklast verringert und die Informationssicherheit erhöht wird. Im Gegensatz zu einem Repeater, der auf physikalischer Ebene arbeitet und lediglich Signale wiederholt und wiederherstellt, handelt es sich bei einer Brücke um einen Repeater analysiert Integrität Personal und Filtert Frames, auch beschädigte.

Bridges belasten andere Netzwerkgeräte nicht mit Arbeit – sie befinden sich in einem großen Netzwerk mit einer einzigen Netzwerkadresse und unterschiedlichen MAC-Adressen.

Um Informationen über Stationsstandorte zu erhalten, lernen Brücken Stationsadressen, indem sie die Adressen aller sie durchlaufenden Frames lesen.

Beim Empfang eines Frames vergleicht die Bridge die Zieladresse mit den Adressen im TA und wenn keine solche Adresse vorhanden ist, überträgt die Bridge den Frame in alle Richtungen (mit Ausnahme des Absenders des Frames). Dieser Übertragungsvorgang wird als „Flutung“ bezeichnet. Wenn die Bridge die Zieladresse im TA findet, vergleicht sie die Portnummer vom TA mit der Portnummer, auf der der Frame angekommen ist.

Ihre Übereinstimmung bedeutet, dass sich Absender- und Empfängeradresse im selben Netzwerksegment befinden, der Frame daher nicht gesendet werden muss und von der Bridge ignoriert wird. Liegen Absender- und Empfängeradresse in unterschiedlichen Segmenten, sendet die Bridge den Frame an das gewünschte Netzwerksegment.

Vorteile Brücken sind:

· relative Einfachheit und niedrige Kosten für den Anschluss eines LAN;

· „lokale“ (lokale) Frames bleiben in diesem Segment und belasten andere Segmente nicht zusätzlich;

· Das Vorhandensein von Brücken ist für Benutzer transparent.

· Bridges passen sich automatisch an Änderungen in der Netzwerkkonfiguration an;

· Brücken können Netzwerke verbinden, die mit unterschiedlichen Netzwerkschichtprotokollen arbeiten.

· Durch Brücken verbundene LANs bilden ein logisch einheitliches Netzwerk, d. h. alle Segmente haben die gleiche Netzwerkadresse; Daher ist zum Verschieben eines Computers von einem Segment in ein anderes keine Änderung seiner Netzwerkadresse erforderlich.

· Brücken sind aufgrund ihrer einfachen Architektur kostengünstige Geräte.

Mängel sind wie folgt:

· zusätzliche Frame-Verzögerung in Bridges;

· keine alternativen Routen nutzen können; Von den möglichen Wegen wird immer einer gewählt, der Rest ist blockiert;

· kann zu erheblichen Verkehrsspitzen im Netzwerk beitragen, beispielsweise wenn ein Frame übertragen wird, dessen Adresse noch nicht in der Bridge-Tabelle enthalten ist; solche Frames werden an alle Segmente übertragen;

· kann „Broadcast Storms“ nicht verhindern;

· nicht über die Möglichkeit verfügen, fehlerhaft funktionierende Segmente zu isolieren.

Es gibt vier Haupttypen von Brücken:

· transparent (durchsichtig);

· Rundfunk (Übersetzen);

· Einkapselung;

· mit Quellenrouting.

Transparente Brücken(Transparente Brücken) dienen zur Verbindung von Netzwerken identische Protokolle auf Datenverbindungs- und physikalischer Ebene, zum Beispiel Ethernet-Ethernet, Token Ring-Token Ring.

Die transparente Bridge ist ein selbstlernendes Gerät: Im Betrieb erstellt sie für jedes angeschlossene Segment automatisch eine Adresstabelle mit den Adressen der im Segment befindlichen Stationen.

Brückenbetriebsalgorithmus:

1) Empfangen eines eingehenden Frames im Brückenpuffer;

2) Analyse der Absenderadresse (AO) und deren Suche in der Adresstabelle (TA);

3) wenn der AO nicht im TA ist, dann werden diese Adresse und die Portnummer, an der der Frame angekommen ist, im TA eingetragen;

4) Analyse der Empfängeradresse (AP) und deren Suche im TA;

5) Wenn der AP im TA gefunden wird und zum selben Segment wie der AO gehört (d. h. die Ausgangsportnummer stimmt mit der Eingangsportnummer überein), wird der Frame aus dem Puffer entfernt;

6) Wenn der AP im TA gefunden wird und zu einem anderen Segment gehört, wird der Frame an dieses Segment (an den entsprechenden Port) übertragen;

7) Wenn sich der AP nicht im TA befindet, wird der Frame an alle Segmente außer dem Segment übertragen, aus dem er kam.

Rundfunkbrücken(Übersetzungsbrücken) dienen zur Verknüpfung von Netzwerken verschiedene Protokolle auf der Datenverbindungs- und physikalischen Ebene, zum Beispiel Ethernet und Token Ring.

Broadcasting Bridges verbinden Netzwerke durch Manipulation von „Umschlägen“: Wenn ein Frame von einem Ethernet-Netzwerk an ein TokenRing-Netzwerk übertragen wird, wird der Header ersetzt ( Z ETh) und Endschalter ( ZU Eth) Ethernet-Frame pro Header ( Z TR) und Endschalter ( ZU TR) TokenRing-Rahmen und umgekehrt.

Da verschiedene Netzwerke Frames unterschiedlicher Länge verwenden und die Broadcast-Bridge Frames nicht in Teile aufteilen kann, muss jedes Netzwerkgerät für die Übertragung von Frames gleicher Länge konfiguriert werden.

Einkapselnde Brücken dienen dazu, Netzwerke mit denselben Datenverbindungs- und Bitübertragungsschichtprotokollen über ein Hochgeschwindigkeits-Backbone-Netzwerk mit anderen Protokollen zu verbinden, beispielsweise 10-Mbit-Ethernet-Netzwerken, die über ein FDDI-Netzwerk miteinander verbunden sind.

Im Gegensatz zu Broadcast-Bridges, die eine Art „Envelope“ in eine andere umwandeln, schließen Kapselungsbrücken die empfangenen Frames zusammen mit einem Header und Trailer in eine andere „Envelope“ ein, die im Backbone verwendet wird (daher der Begriff „Encapsulation“) und überträgt es entlang dieses Backbones. Andere Brücken zur Lieferung an den Zielknoten.

Die Zielbrücke extrahiert den Ethernet-Frame aus dem FDDI-Frame und leitet ihn an das Segment weiter, das das Ziel enthält. Die Länge des Datenfelds eines FDDI-Frames reicht aus, um einen Ethernet-Frame maximaler Länge aufzunehmen.

Source-Routing-Brücken(Source Routing Bridges) basieren auf Informationen, die von der Station, die den Frame sendet, generiert und im Frame-Envelope gespeichert werden. In diesem Fall müssen Bridges nicht über eine Adressdatenbank verfügen.

Jedes Netzwerkgerät bestimmt den Pfad zu seinem Ziel durch einen Prozess namens „Routenerkennung“(Routenerkennung).

Das Prinzip der Routenerkennung lässt sich anhand des folgenden Beispiels vereinfacht veranschaulichen.

Das Quellgerät initiiert die Routenerkennung durch Senden eines speziellen Frames namens "Forschung"(Forscher). Forschungsrahmen verwenden einen speziellen Umschlag, der von Source-Routing-Bridges erkannt wird. Beim Erhalt eines solchen Rahmens wird jede Brücke an einer speziell dafür vorgesehenen Stelle im Rahmen angebracht – Routeneingabefeld(Routing-Informationsfeld) gibt die folgenden Daten ein: die Nummer des Eingangsports, von dem der Frame empfangen wurde, die Bridge-ID (Mi) und die Nummer des Ausgangsports, zum Beispiel: 1,M1,3. Die Bridge sendet diesen Frame dann in alle Richtungen, außer in die Richtung, in der der Frame empfangen wurde.

Dadurch erhält die Zielstation mehrere Rechercherahmen, deren Anzahl durch die Anzahl der möglichen Routen bestimmt wird.

Die Zielstation wählt eine der Routen (schnellste, kürzeste oder andere) und sendet eine Antwort an die Quellstation. Die Antwort enthält Informationen über die Route, über die alle Frames gesendet werden sollen. Die sendende Station merkt sich die Route und verwendet sie immer, um Frames an die Zielstation zu senden. Beim Versenden werden diese Frames in spezielle Umschläge verpackt, die für Bridges mit Source-Routing verständlich sind. Bridges, die diese Umschläge empfangen, finden den entsprechenden Eintrag in der Routenliste und übertragen den Frame in die gewünschte Richtung.

Quellrouting wird von Bridges in Token-Ring-Netzwerken verwendet, um Frames zwischen verschiedenen Ringen zu übertragen.

Informationstechnologie (IT) ist eine Reihe von Mitteln und Methoden zum Sammeln, Verarbeiten und Übertragen von Daten (Primärinformationen), um neue Qualitätsinformationen über den Zustand eines Objekts, Prozesses oder Phänomens (Informationsprodukt) zu erhalten.

Der Zweck der Informationstechnologie ist die Produktion von Informationen für die menschliche Analyse und die darauf basierende Entscheidungsfindung zur Durchführung beliebiger Handlungen.

Die praktische Anwendung von Datenverarbeitungsmethoden und -werkzeugen kann unterschiedlich sein, daher empfiehlt es sich, zwischen globalen Basis- und spezifischen Informationstechnologien zu unterscheiden.

Die globale Informationstechnologie umfasst Modelle, Methoden und Mittel, die die Nutzung der Informationsressourcen der Gesellschaft formalisieren und ermöglichen.

Grundlegende Informationstechnologie ist für eine bestimmte Anwendung (Fertigung, Forschung, Lehre usw.) konzipiert.

Spezifische Informationstechnologien implementieren die Datenverarbeitung bei der Lösung funktionaler Aufgaben der Benutzer (z. B. Buchhaltungs-, Planungs-, Analyseaufgaben).

Wie alle Technologien entwickeln und verbessern sich auch die Informationstechnologien ständig. Dies wird durch das Aufkommen neuer technischer Mittel, die Entwicklung neuer Konzepte, Methoden zur Organisation von Daten, ihrer Übertragung, Speicherung und Verarbeitung sowie Formen der Benutzerinteraktion mit technischen und anderen Komponenten von Informations- und Computersystemen erleichtert.

Die Erweiterung des Personenkreises mit Zugriff auf Informationen und Rechenressourcen von Datenverarbeitungssystemen sowie die Nutzung von Computernetzwerken, die geografisch weit voneinander entfernte Benutzer vereinen, stellen ein besonders akutes Problem dar, die Zuverlässigkeit der Daten zu gewährleisten und sie vor Unbefugten zu schützen Zugang. Moderne Informationstechnologien basieren dabei auf dem Konzept des Einsatzes spezieller Hard- und Software, die die Informationssicherheit gewährleisten

Der nächste Schritt zur Verbesserung der Informationstechnologien im Organisations- und Wirtschaftsmanagement besteht darin, den Anwendungsbereich von Wissensdatenbanken und entsprechenden Systemen der künstlichen Intelligenz zu erweitern.

Die Wissensbasis ist das wichtigste Element des Expertensystems, das am Arbeitsplatz eines Managementspezialisten erstellt wird. Sie fungiert als Wissenssammlerin in einem bestimmten Berufsfeld und als Assistentin bei der Analyse der wirtschaftlichen Situation im Prozess der Entwicklung und Entscheidungsfindung des Managements.

Arten moderner Computer.

Hersteller moderner Computer bieten eine recht große Auswahl an unterschiedlichen Computermodellen an, die sich nicht nur in der Leistung, sondern auch in Aussehen, Größe und Einsatzzweck unterscheiden. Moderne Computer gibt es in den folgenden Typen: Desktops, Laptops, Netbooks, PDAs, Desktop-Minicomputer, Tablet-Computer und Spielekonsolen.

Desktop-Computer (stationär) bestehen in der Regel aus drei separaten Einheiten: einem Monitor, einer Tastatur und einer Systemeinheit. Zur einfacheren Steuerung kann eine Maus verwendet werden. Folgende zusätzliche (Peripherie-)Geräte können an den Computer angeschlossen werden: Webcams, Drucker, Scanner, Lautsprecher, Plotter und andere Geräte.

Desktop-Minicomputer haben eine kleinere Systemeinheit.

Laptops (tragbare Computer) werden in Form flacher tragbarer Geräte hergestellt. Sie eignen sich am besten für Menschen, deren Aktivitäten ständige Bewegung erfordern. Ein Laptop ist eine einzelne Einheit bestehend aus Tastatur, Bildschirm und Systemeinheit. Die hohen Kosten und die Schwierigkeit der Aufrüstung sind die Hauptnachteile des Laptops.

Netbooks ähneln optisch weitgehend Laptops, sind jedoch kleiner und können ein geringeres Aufgabenspektrum ausführen, was ihre Kosten erheblich senkt. Dieser Computertyp ist eher für die Arbeit im Internet konzipiert.

Tablet-Computer sind als flache Touchscreens konzipiert. Um einen Tablet-Computer zu steuern, benötigen Sie einen speziellen Stift – einen Stylus. Taschencomputer (Minicomputer) sind kompakt und können daher in der Tasche einer normalen Hose getragen werden. Mit einem solchen Computer können Sie Musik hören, Videos ansehen, im Internet surfen und Spiele spielen. Hohe Kosten, geringer Stromverbrauch und die Unfähigkeit, mit Computergrafiken zu arbeiten, sind die Hauptnachteile von Taschencomputern.

11. Personal Computer: Zweck, Architektur. Grundlegende PC-Geräte, Zwecke, Funktionen, Eigenschaften.

Ein Computer ist ein multifunktionales elektronisches Gerät zum Speichern, Verarbeiten und Übertragen von Informationen. Unter der Architektur eines Personal Computers versteht man dessen logische Organisation, Struktur und Ressourcen, also die Mittel eines Computersystems, die für einen bestimmten Zeitraum dem Datenverarbeitungsprozess zur Verfügung stehen.

Das Prinzip der Programmsteuerung – ein Programm besteht aus einer Reihe von Befehlen, die vom Prozessor automatisch nacheinander in einer bestimmten Reihenfolge ausgeführt werden.



Das Prinzip der Speicherhomogenität – Programme und andere werden im selben Speicher gespeichert; Sie können mit Befehlen die gleichen Aktionen ausführen wie mit Daten!

Das Prinzip der Adressierung – der Hauptspeicher besteht strukturell aus nummerierten Zellen.

Die Computerarchitektur bestimmt das Funktionsprinzip, die Informationsverbindungen und die Verbindung der wichtigsten logischen Knoten des Computers, darunter:

CPU;

Haupterinnerung;

Externer Speicher;

Peripheriegeräte.

Strukturell sind Personalcomputer in Form einer zentralen Systemeinheit aufgebaut, an die andere Geräte über spezielle Anschlüsse angeschlossen werden. Die Systemeinheit umfasst alle Hauptkomponenten des Computers:

Hauptplatine;

Netzteil;

Festplatte;

Diskettenlaufwerk;

optische Laufwerke;

Anschlüsse für Zusatzgeräte.

Die Systemplatine (Motherboard) wiederum enthält:

Mikroprozessor;

mathematischer Coprozessor;

Taktgenerator;

Speicher Chips;

externe Gerätecontroller;

Sound- und Videokarten;

Die Architektur moderner Personalcomputer basiert auf dem Backbone-Modular-Prinzip. Das Baukastenprinzip ermöglicht es dem Anwender, die von ihm benötigte Computerkonfiguration zusammenzustellen und bei Bedarf aufzurüsten. Der modulare Aufbau des Systems basiert auf dem Hauptprinzip des Informationsaustauschs. Alle Gerätecontroller interagieren mit dem Mikroprozessor und dem RAM über einen Systemdatenbus, den sogenannten Systembus. Der Systembus ist in Form einer gedruckten Brücke auf dem Motherboard ausgeführt.

Ein Mikroprozessor ist die zentrale Einheit eines Personalcomputers, die dazu dient, den Betrieb aller Einheiten der Maschine zu steuern und arithmetische und logische Operationen an Informationen durchzuführen.

Der Systembus ist das Hauptschnittstellensystem eines Computers und stellt die Schnittstelle und Kommunikation aller seiner Geräte untereinander sicher. Der Systembus bietet drei Richtungen der Informationsübertragung:

zwischen Mikroprozessor und Hauptspeicher;

zwischen dem Mikroprozessor und den Ein-/Ausgabeanschlüssen externer Geräte;

zwischen dem Hauptspeicher und den I/O-Ports externer Geräte.

Die Ein-/Ausgabe-Ports aller Geräte werden über die entsprechenden Anschlüsse (Steckplätze) entweder direkt oder über spezielle Controller (Adapter) an den Bus angeschlossen.

Der Hauptspeicher dient der Speicherung und dem schnellen Austausch von Informationen mit anderen Computereinheiten.

Externer Speicher dient der langfristigen Speicherung von Informationen, die später zur Lösung von Problemen verwendet werden können. Ein Netzteil ist eine Einheit, die autonome und netzbetriebene Stromversorgungssysteme für einen Computer enthält.

Ein Timer ist eine in die Maschine eingebaute elektronische Uhr, die eine automatische Aufzeichnung des aktuellen Zeitpunkts ermöglicht. Der Timer ist an eine autonome Stromquelle angeschlossen und läuft weiter, wenn der Computer vom Netzwerk getrennt wird.

Externe Computergeräte sorgen für die Interaktion der Maschine mit der Umgebung: Benutzern, Steuerobjekten und anderen Computern.

Die wichtigsten Funktionsmerkmale eines Personalcomputers sind:

Leistung, Geschwindigkeit, Taktrate.

verfügbare Software und Art des Betriebssystems; Art des Videomonitors und Videoadapters;

Netzwerkhardware- Hierbei handelt es sich um verschiedene Geräte, die die Verbindung von Computern zu einem einzigen Computernetzwerk gewährleisten.

Zu den grundlegenden Komponenten und Technologien im Zusammenhang mit lokalen oder Wkönnen gehören:

· Kabel (Draht)

· Server

· Netzwerkschnittstellenkarten (NIC, Network Interface Card)

· Hubs

· Schalter

· Router (Router, Wide Area Networks)

· Fernzugriffsserver (Remote Server, geografisch verteilte Netzwerke)

· Modems (Wide Area Networks)

Kabel

Daten werden über das Kabel in Form separater Abschnitte übertragen – Pakete, die von einem Netzwerkgerät an ein anderes gesendet werden. Es gibt verschiedene Arten von Kabeln, von denen jede ihre eigenen Vorteile hat.

Strukturierte Verkabelungssysteme(Strukturiertes Verkabelungssystem).

Strukturierte Verkabelung verwendet eine Sternkonfiguration – ein separates Segment eines kostengünstigen Kabels verbindet die Computer jedes Benutzers mit einem zentralen Hub (oder Switch, wenn das Netzwerk große Datenmengen überträgt).

verdrilltes Paar

Twisted-Pair-Kabel (TP, Twisted Pair) gibt es in zwei Arten: geschirmtes Twisted-Pair (STP, Shielded Twisted Pair) und ungeschirmtes Twisted-Pair (UTP, Unshielded Twisted Pair). Beide Kabeltypen bestehen aus einem Paar verdrillter Kupferdrähte.

Dünnes und dickes Koaxialkabel

Diese Kabeltypen ähneln Standard-Fernsehkabeln. Ein Koaxialkabel wird von Computer zu Computer verlegt. Jeder Computer verfügt über einen kleinen Kabelvorrat für den Fall, dass er bewegt werden kann. Ist es erforderlich, einen größeren Bereich mit einem lokalen Netzwerk abzudecken, als die betreffenden Kabelsysteme zulassen, kommen zusätzliche Geräte zum Einsatz – Repeater(Repeater).

Glasfaserkabel

Glasfaserkabel unterstützen Datenübertragungsraten (in Paketform) von 10, 100 oder 1000 Mbit/s. Die Datenübertragung erfolgt mithilfe von Lichtimpulsen, die sich entlang einer optischen Faser bewegen. Dank Verbesserungen in der Glasfasertechnologie wird dieses Kabel immer erschwinglicher.

Server

Ein Server in einem Client/Server-Netzwerk ist ein Computer mit einer Festplatte mit großer Kapazität, auf der Anwendungen und Dateien gespeichert werden können, auf die andere Computer im Netzwerk zugreifen können. Der Server kann auch den Zugriff auf Peripheriegeräte (z. B. Drucker) steuern und dient zur Ausführung eines Netzwerkbetriebssystems (NOS, Network Operating System).

Netzwerkschnittstellenkarten

Netzwerkschnittstellenkarten (NIC, Network Interface Card) werden auf Desktop- und Laptop-Computern installiert. Sie dienen der Interaktion mit anderen Geräten im lokalen Netzwerk. Wenn wir lediglich die Art und Weise betrachten, wie Computer, die mit einem Netzwerk verbunden sind, Daten empfangen und übertragen, spielen moderne Netzwerkkarten (Netzwerkadapter) eine aktive Rolle bei der Verbesserung der Leistung, der Priorisierung kritischen Datenverkehrs (gesendete/empfangene Informationen) und der Überwachung des Datenverkehrs im Netzwerk. Darüber hinaus unterstützen sie Funktionen wie die Fernaktivierung von einem zentralen Arbeitsplatz oder Fernkonfigurationsänderungen, was Administratoren in ständig wachsenden Netzwerken erheblich Zeit und Aufwand spart.

Hubs

Bei einer strukturierten Verkabelungskonfiguration kommunizieren alle Computer im Netzwerk mit einem Hub (oder Switch).

Nabe oder Hub (Hub) – ein Mehrfachzugriffsgerät, das als zentraler Verbindungspunkt in einer „physischen Stern“-Topologie fungiert.

An den Hub angeschlossene Computer bilden ein LAN-Segment. Dieses Design macht es einfach, eine große Anzahl von Benutzern an das Netzwerk anzuschließen, auch wenn diese häufig umziehen. Grundsätzlich besteht die Funktion eines Hubs darin, Benutzer in einem Netzwerksegment zu verbinden.

Traditionelle Hubs unterstützen nur ein Netzwerksegment und stellen allen Benutzern, die sich mit ihnen verbinden, die gleiche Bandbreite zur Verfügung.

Zwei-Gang-Naben(Dual-Speed) kann vorteilhaft zum Aufbau moderner Netzwerke mit gemeinsam genutzten Netzwerksegmenten eingesetzt werden.

Hubs bieten außerdem einen zentralen Punkt für die Verkabelung, Konfigurationsänderungen, Fehlerbehebung und zentrale Verwaltung, wodurch alles einfacher durchzuführen ist.

Schalter

Schalten(Switch) – ein Multiport-Gerät, das eine Hochgeschwindigkeits-Paketvermittlung zwischen Ports ermöglicht. In einem Paketvermittlungsnetzwerk ein Gerät, das Pakete weiterleitet, normalerweise an einen der Knoten im Backbone-Netzwerk. Ein solches Gerät wird auch Datenvermittlungsstelle (Daten-PABX) genannt.

Router

Router können die folgenden einfachen Funktionen ausführen:

· Verbindung lokaler Netzwerke (LAN) mit Weitverkehrsnetzen (WAN).

· Verbindung mehrerer lokaler Netzwerke.

Router hängen vom verwendeten Protokoll ab (z. B. TCP/IP, IPX, AppleTalk). Da ein Router protokollbasiert ist, kann er anhand von Faktoren wie Kosten, Liefergeschwindigkeit usw. über die beste Route zur Datenübermittlung entscheiden. Mit Routern können Sie außerdem den Broadcast-Verkehr effizient verwalten und sicherstellen, dass Daten nur an die erforderlichen Ports gesendet werden.

Fernzugriffsserver

Wenn Sie Remote-Benutzern, die von zu Hause oder auf Reisen eine DFÜ-Verbindung herstellen, Netzwerkzugriff ermöglichen müssen, müssen Sie einen Remote-Zugriffsserver installieren. Mit diesem Gerät können mehrere Benutzer über eine DFÜ-Leitung (durch Wählen einer einzigen Telefonnummer) eine Verbindung zu einem Netzwerk herstellen und auf Netzwerkressourcen zugreifen, genau wie in einer Büroumgebung. Darüber hinaus bieten solche Server möglicherweise Schutz vor unbefugtem Benutzerzugriff.

Modems

Mithilfe von Modems können Computerbenutzer über normale Telefonleitungen Informationen austauschen und eine Verbindung zum Internet herstellen. Der Name „Modem“ ist auf die Funktion des Gerätes zurückzuführen und bedeutet „Modulator/Demodulator“. Ein Modem moduliert die vom Computer kommenden digitalen Signale in analoge Signale, die über das öffentliche Telefonnetz übertragen werden, und ein anderes Modem demoduliert diese Signale auf der Empfangsseite und wandelt sie wieder in digitale Form um.



 


Lesen:



Typisierte Programmiersprache Typ oder Formatbezeichner oder Konvertierungszeichen oder Steuerzeichen

Typisierte Programmiersprache Typ oder Formatbezeichner oder Konvertierungszeichen oder Steuerzeichen

Programmiersprache C++ Letzte Aktualisierung: 28.08.2017 Die Programmiersprache C++ ist eine kompilierte Hochsprache...

Arbeitsplan der russischen Post an den Neujahrsfeiertagen. Postarbeit an den Neujahrsfeiertagen

Arbeitsplan der russischen Post an den Neujahrsfeiertagen. Postarbeit an den Neujahrsfeiertagen

Die russische Post hat sich im 21. Jahrhundert zu einer universellen Institution entwickelt, die nicht nur beim Empfang von Briefen und Paketen hilft. Versorgungsleistungen, Renten,...

Tass: Abkürzung Dekodierung

Tass: Abkürzung Dekodierung

Dieser Begriff kommt vom italienischen abbreviatura und dem lateinischen brevis – kurz. In alten Büchern und Manuskripten war dies die Bezeichnung für eine Abkürzung...

Zertifikatsvorlagen leer, laden Sie die Vorlage „Ehrenurkunde“ zum Ausdrucken herunter

Zertifikatsvorlagen leer, laden Sie die Vorlage „Ehrenurkunde“ zum Ausdrucken herunter

Grüße, lieber Leser! Heute erzähle ich Ihnen, wie Sie einen Brief in Word erstellen. Bei meiner Arbeit musste ich eine große Anzahl von ... aufschreiben.

Feed-Bild RSS