Abschnitte der Website
Die Wahl des Herausgebers:
- HTC One S: „Android im Glamour“
- Telefone mit leistungsstarken Akkus
- Intel Pentium 4-Sockel-Prozessoren
- Der Bildschirm eines Mobilgeräts zeichnet sich durch seine Technologie, Auflösung, Pixeldichte, Diagonallänge, Farbtiefe usw. aus.
- Reparaturbetrieb für Audio- und Videogeräte in Barnaul. Verbesserung des Klangs der Corvette 35 ac 028
- Xiaomi Redmi – Ordner erstellen und Dateien übertragen
- Deutscher Klimenko: Die Partner von Megafon verbinden in aller Stille kostenpflichtige Abonnements mit Abonnenten
- Samsung Galaxy S3: Besitzerbewertungen und Smartphone-Eigenschaften
- Plugins – Webasyst-Dokumentation So installieren Sie ein Plugin
- Gründe, warum Fotos auf Instagram nicht geladen werden Warum Fotos nicht auf Instagram geladen werden
Werbung
Intel Pentium4 LGA775-Prozessoren. Intel Pentium 4-Sockel-Prozessoren |
Einerseits vergeht die Zeit in der IT-Branche so schnell, dass man keine Zeit hat, neue Produkte und Technologien zu bemerken, und andererseits erinnern wir uns, wie viele Jahre wir keinen neuen Kern von Intel gesehen haben? Nicht das Alte mit Modifikationen: Hier wurde die FSB-Frequenz erhöht, dort wurde virtuelles Multiprocessing vom Server-Prozessor auf den Desktop-Prozessor übertragen (eigentlich ließ man letzteren nur ehrlich sagen, dass er es hat), aber wirklich völlig neu? Wenn nicht von Grund auf neu entworfen, dann zumindest nicht geflickt, sondern nach den gleichen Mustern neu genäht, aber mit anderen Rüschen und in der neuesten Mode? Aber es stellt sich heraus, dass es ganze zwei Jahre her sind! Auch mit kleinem Schwanz. Und die ganze Zeit über diskutierten Hitzköpfe über ihr Lieblingsthema: Wie wird der neue Kern aussehen? Sie sagten eine Menge Dinge voraus, einschließlich eines völligen Gräuels für die NetBurst-Architektur und der Herrschaft reiner Banias auf der Desktop-Plattform. Die Wahrheit erwies sich (wie so oft) als weniger fabelhaft: Der neue Kern erwies sich als ehrlicher und konsequenter Nachfolger von Northwood. Natürlich mit einigen architektonischen Neuerungen, aber der Wunsch „auf den Boden und dann“ ist darin nicht sichtbar. Daher kann Prescott rein emotional unterschiedlich beurteilt werden: Einige werden die Intel-Ingenieure für ihre Konsequenz und Entschlossenheit loben, während andere sich im Gegenteil über den Mangel an frischen Ideen beschweren. Emotionen sind jedoch für jeden eine persönliche Angelegenheit, aber wir wenden uns den Fakten zu. Theorie Wesentliche Kernänderungen (Prescott vs. Northwood)Zunächst bieten wir Ihnen eine kleine Tabelle an, die die wichtigsten Unterschiede zwischen den Prescott- und Northwood-Kernen in Bezug auf „Eisen“ (genauer gesagt Silizium und andere „mineralische Bestandteile“) zusammenfasst. Es bleibt nur hinzuzufügen, dass der neue Kern 125 Millionen Transistoren enthält (wo das arme Northwood 55 Millionen hat!), und dass seine Fläche 112 Quadratmeter beträgt. mm (etwas weniger als die Fläche von Northwood 146/131 mm², je nach Revision). Nach einer einfachen arithmetischen Berechnung sehen wir, dass es den Intel-Ingenieuren durch die Erhöhung der Anzahl der Transistoren um das ~2,3-fache aufgrund des neuen technischen Prozesses dennoch gelungen ist, die Kernfläche zu reduzieren. Stimmt, nicht so signifikant – „nur“ 1,3 (1,2) Mal. Was die Technologie des „gespannten“ (manche bevorzugen den Begriff „gestreckten“) Siliziums angeht, ist sie, vereinfacht ausgedrückt, ganz einfach: Um den Abstand zwischen Siliziumatomen zu vergrößern, wird sie auf ein Substrat gelegt, der Abstand zwischen deren Atome größer ist. Um „gut zu sitzen“, müssen sich Siliziumatome daher entsprechend dem vorgeschlagenen Format ausdehnen. Es sieht ungefähr so aus: Um zu verstehen, warum es für Elektronen einfacher ist, durch beanspruchtes Silizium zu gelangen, hilft Ihnen diese einfache Zeichnung: Wie Sie sehen, ist die geometrische Assoziation in diesem Fall durchaus zutreffend: Der Weg des Elektrons wird einfach kürzer. Nun schauen wir uns noch viel mehr interessante Unterschiede an: in der Kernel-Logik. Davon gibt es auch viele. Zunächst wäre es jedoch sinnvoll, sich die Hauptmerkmale der NetBurst-Architektur als solche in Erinnerung zu rufen. Außerdem haben wir das in letzter Zeit nicht sehr oft gemacht. Ein kleiner HintergrundDaher betrachtet Intel selbst einen der Hauptunterschiede zwischen den innerhalb der NetBurst-Architektur entwickelten Kerneln als ein einzigartiges Merkmal, das sich in der Trennung des eigentlichen Prozesses der Dekodierung des x86-Codes in vom Kernel ausgeführte interne Anweisungen (uops) und die Prozeduren ausdrückt für ihre Ausführung. Übrigens löste dieser Ansatz einst viele Kontroversen hinsichtlich der Richtigkeit der Zählung der Pipeline-Stufen im Pentium 4 aus: Wenn wir diesen Prozessor aus klassischer Sicht (vor NetBurst-Ära) betrachten, dann die Decoder-Stufen sollten in die allgemeine Liste aufgenommen werden. Unterdessen enthalten die offiziellen Daten von Intel zur Pipeline-Länge von Pentium-4-Prozessoren ausschließlich Informationen zur Anzahl der Stufen der Ausführungseinheit-Pipeline, wodurch der Decoder seinen Anwendungsbereich sprengt. Einerseits „Aufruhr!“, andererseits spiegelt dies objektiv die Besonderheit der Architektur wider, Intel hat also Recht: Es hat sie entwickelt. Natürlich kann man bis zum blauen Gesicht streiten, aber welchen Unterschied macht das wirklich? Die Hauptsache ist, das Wesentliche des Ansatzes zu verstehen. Gefällt Ihnen nicht, dass der Decoder ausgeschlossen ist? Fügen Sie nun die Stufen zu den „offiziellen“ Stufen hinzu, und Sie erhalten den erforderlichen Wert der Pipeline gemäß dem klassischen Schema zusammen mit dem Decoder. Somit ist die Hauptidee von NetBurst ein asynchron laufender Kernel, bei dem der Befehlsdecoder unabhängig von der Ausführungseinheit arbeitet. Aus Sicht von Intel wäre es deutlich Ö Eine höhere Kernbetriebsfrequenz als die der Konkurrenz kann nur mit einem asynchronen Modell erreicht werden, weil Wenn das Modell synchron ist, steigen die Kosten für die Synchronisierung des Decoders mit der Ausführungseinheit proportional zur Frequenz. Aus diesem Grund verwendet die NetBurst-Architektur anstelle des üblichen L1-Anweisungscache, in dem normaler x86-Code gespeichert wird, den Ausführungs-Trace-Cache, in dem Anweisungen in dekodierter Form (uops) gespeichert werden. Verfolgen Sie, dass dies die Uops-Sequenz ist. Außerdem möchte ich in einem historischen Ausflug endlich mit den Mythen aufräumen, die mit der allzu vereinfachten Formulierung verbunden sind, wonach die ALU des Pentium 4 mit „doppelter Frequenz“ arbeitet. Das ist sowohl wahr als auch nicht wahr. Schauen wir uns jedoch zunächst das Blockschaltbild des Pentium 4-Prozessors (jetzt Prescott) an: Es ist leicht zu erkennen, dass die ALU aus mehreren Teilen besteht: Sie enthält die Blöcke Laden/Speichern, Komplexe Anweisungen und Einfache Anweisungen. Also: Bei doppelter Geschwindigkeit (0,5 Taktzyklen pro Operation) werden nur die Anweisungen verarbeitet, die von den Simple-Instructions-Ausführungsblöcken unterstützt werden. Der ALU-Complex-Instructions-Block, der als komplex klassifizierte Befehle ausführt, kann dagegen bis zu vier Taktzyklen für die Ausführung eines Befehls aufwenden. Das ist eigentlich alles, woran ich Sie über die interne Struktur von Prozessoren erinnern möchte, die auf der NetBurst-Architektur basieren. Kommen wir nun zu den Neuerungen im neuesten NetBurst-Kern von Prescott. Vergrößerung der FörderbandlängeVon einer Verbesserung kann man diese Änderung kaum sprechen, schließlich gilt: Je länger das Förderband, desto mehr Ö Ein Fehler im Vverursacht mehr Overhead und dementsprechend verringert sich die durchschnittliche Geschwindigkeit der Programmausführung. Allerdings konnten die Intel-Ingenieure offenbar keinen anderen Weg finden, das Übertaktungspotenzial des Kerns zu erhöhen. Ich musste auf ein unbeliebtes, aber bewährtes zurückgreifen. Das Ergebnis? Die Prescott-Pipeline wurde jeweils um 11 Stufen erweitert, ihre Gesamtzahl beträgt 31. Ehrlich gesagt haben wir diese „gute Nachricht“ bewusst an den Anfang gebracht: Tatsächlich kann die Beschreibung aller nachfolgenden Innovationen bedingt als „aber“ bezeichnet werden Jetzt erzählen wir Ihnen, wie Intel-Ingenieure mit den Folgen einer einzigen Änderung kämpften, damit sie die Produktivität nicht völlig ruinierte“ :). Verbesserungen an der Verzweigungsvorhersage-EngineIm Wesentlichen wirkte sich die Feinabstimmung auf den Mechanismus zur Vorhersage von Übergängen bei der Arbeit mit Zyklen aus. Wenn umgekehrte Übergänge früher standardmäßig als Zyklus betrachtet wurden, wird jetzt die Übergangslänge analysiert und auf dieser Grundlage versucht der Mechanismus vorherzusagen, ob es sich um einen Zyklus handelt oder nicht. Es wurde außerdem festgestellt, dass für Verzweigungen mit bestimmten Arten von bedingten Verzweigungen, unabhängig von deren Richtung und Entfernung, die Verwendung eines standardmäßigen Vmeist irrelevant ist und daher in diesen Fällen nicht mehr verwendet wird. Zusätzlich zur theoretischen Forschung verachteten die Intel-Ingenieure jedoch nicht die bloße Empirie, d. h. einfach durch Überwachung der Wirksamkeit des Vam Beispiel spezifischer Algorithmen. Hierzu wurde anhand von Beispielen aus dem SPECint_base2000-Test die Anzahl der Fehler im Branch-Prediction-Mechanismus (Fehlvorhersagen) untersucht und anschließend tatsächlich Änderungen am Algorithmus vorgenommen, um diese zu reduzieren. Die Dokumentation liefert folgende Daten (Anzahl Fehler pro 100 Anweisungen):
Beschleunigung der Ganzzahlarithmetik und -logik (ALU)Der ALU wurde ein spezieller Block für die Ausführung von Shift- und Rotationsanweisungen hinzugefügt, der nun die Ausführung dieser Operationen auf einer „schnellen“ ALU (mit zwei Geschwindigkeiten) ermöglicht, im Gegensatz zum Northwood-Kern, wo sie im ALU-Complex-Instructions-Block ausgeführt wurden und erforderlich Ö mehr Zyklen. Darüber hinaus wurde die Ganzzahlmultiplikationsoperation, die zuvor im FPU-Block durchgeführt wurde, beschleunigt. Der neue Kernel verfügt hierfür über einen eigenen Block. Es gibt auch Informationen über das Vorhandensein einer Reihe kleinerer Verbesserungen, die die Verarbeitungsgeschwindigkeit von FPU- (und MMX-)Anweisungen erhöhen werden. Wir werden es jedoch besser im praktischen Teil bei der Analyse der Testergebnisse überprüfen. SpeichersubsystemEiner der Hauptvorteile des neuen Kerns ist natürlich die vergrößerte Größe des L1-Datencaches (2-fach, also bis zu 16 Kilobyte) und des Second-Level-Cache (ebenfalls 2-fach, also bis zu 1 Megabyte). Es gibt jedoch noch eine weitere interessante Funktion: In den Kernel wurde eine spezielle zusätzliche Logik eingeführt, die Seitenfehler in Software-Prefetch-Anweisungen erkennt. Dank dieser Innovation sind Software-Prefetch-Anweisungen nun in der Lage, nicht nur Daten, sondern auch Seitentabelleneinträge vorab abzurufen, d. h. mit anderen Worten, der Prefetch kann nicht auf einer geladenen Seite anhalten, sondern auch Speicherseiten im DTLB aktualisieren. Wer das Problem versteht, wird an diesem Beispiel wahrscheinlich erkennen, dass Intel das Feedback der Programmierer genau beobachtet, auch wenn es nicht jeden entdeckten negativen Faktor, der die Leistung beeinträchtigt, öffentlich bereut. Neue Anweisungen (SSE3)Prescott hat unter anderem Unterstützung für 13 neue Anweisungen hinzugefügt. Dieses Set trägt nach alter Tradition den Namen SSE3. Dazu gehören Befehle zur Datenkonvertierung (x87 in Integer), Arbeiten mit komplexer Arithmetik, Videokodierung (allerdings nur einer), neue Befehle zur Verarbeitung grafischer Informationen (Vertex-Arrays) sowie zwei Befehle zur Synchronisierung von Threads (die Konsequenzen sind eindeutig der Entstehung von Hyper-Threading). Wir werden jedoch bald einen separaten Artikel über SSE3 veröffentlichen, daher werden wir in diesem Material davon absehen, die Fähigkeiten dieses Sets zu diskutieren, um ein ernstes und interessantes Thema nicht durch übermäßige Popularisierung zu verderben. Nun, vielleicht haben wir genug von Theorie und Spezifikationen. Versuchen wir, wie ein berühmter Witz sagte: „Mit all dem durchstarten“ :). Testen Standkonfigurationen und SoftwarePrüfstand
Systemsoftware und Gerätetreiber
Zum Abschluss der Beschreibung möchte ich den Algorithmus zur Auswahl der Testteilnehmer erläutern. Einerseits wäre es falsch, AMD-Prozessoren komplett von den Tests auszuschließen, da diese Plattform sowohl jetzt als auch in absehbarer Zukunft der Hauptkonkurrent von Intel ist. Würde man andererseits in einem Artikel einen Vergleich zweier Generationen des Pentium 4 mit Prozessoren eines anderen Herstellers zusammenfassen, würde das bedeuten, dass man keine der beiden Generationen wirklich vergleicht. Daher haben wir uns im ersten Prescott gewidmeten Material für einen gewissen Kompromiss entschieden: Erstens alle möglichen „extremen“ Optionen in Form des Pentium 4 eXtreme Edition und des Athlon 64 FX vollständig auszuschließen und zweitens nur zu nehmen einer als Vertreter der alternativen Plattform, aber der schnellste der üblichen AMD-Desktop-Prozessoren: Athlon 64 3400+. Und selbst dann werden die Ergebnisse hier im Großen und Ganzen nur als Option dargestellt. In diesem Material interessiert uns vor allem der Vergleich des neuen Intel-Kerns mit dem alten. Wenn man gleichzeitig Informationen darüber erhalten möchte, wie Prescotts Leistung im Vergleich zu seinem engsten Konkurrenten abschneidet, dann werden sie in den Diagrammen dargestellt. Kommentare? Vielleicht sind sie einfach unnötig. Sie werden es selbst sehen. Wenn Sie wissen, wie hoch die Leistung von Prescott und Northwood ist, wenn sie mit der gleichen Frequenz arbeiten, und wie die Leistung von Northwood und den Top-AMD-Prozessoren im Vergleich abschneidet (und wir haben dieses Thema bereits mehrmals behandelt), wissen Sie genug, um alle anderen Schlussfolgerungen unabhängig voneinander zu ziehen . Darüber hinaus möchte ich das Vorhandensein von zwei Balken in den Diagrammen für Prescott 3,2 GHz verdeutlichen. Der Punkt ist einfach, dass wir beschlossen haben, auf Nummer sicher zu gehen. Jeder weiß, dass mit der Veröffentlichung eines Prozessors auf einem anderen Kern sofort ein Aufruhr unter den Motherboard-Herstellern mit BIOS-Updates, allen möglichen Mikrocode-Updates und anderer „hardwareorientierter“ Software beginnt. Es erschien uns logisch, eine solche Ressource aus unserem Testlabor wie „offiziell Prescott-ready“-Motherboards möglichst vollständig zu nutzen, um uns vor den möglichen Folgen einer Fehlbedienung eines bestimmten Modells zu schützen. Wie Sie weiter unten sehen werden, waren die Befürchtungen jedoch vergebens: In den meisten Fällen verhielt sich der neue Prozessor auf beiden Platinen genau gleich. Alle Merkmale des Prescott 2,8A GHz-Programms Natürlich hat sie sich in diesem Fall nicht geirrt Low-Level-Tests in CPU RightMarkZunächst haben wir beschlossen, die Funktionsweise des neuen Kerns in zwei Modi zu testen, traditionell dem besten für Pentium 4-Prozessoren und dem schlechtesten: SSE/SSE2 und MMX/FPU. Beginnen wir mit dem Rechenblock (Math Solving). Die Ergebnisse sind enttäuschend. Der neue Kern ist langsamer als der alte, außerdem ist seine Verzögerung im MMX/FPU-Modus noch größer als bei Verwendung von SSE/SSE2. Wir ziehen die erste Schlussfolgerung: Wenn etwas in der FPU „verdreht“ wurde, dann werden offensichtlich andere Befehle in der RightMark-CPU verwendet. Nun, wie sieht es mit dem Rendern aus? Schauen wir uns zunächst die Optionen zum Ausführen des Rendering-Moduls im Single-Threaded- und Dual-Threaded-Modus mit maximaler Leistung (SSE/SSE2) an. Das Bild ist recht interessant: Wenn ein Stream verwendet wird, ist der Vorteil von Prescott minimal und Northwood, das eine höhere Frequenz hat, überholt ihn leicht. Sobald wir jedoch Hyper-Threading aktivieren, springt Prescott sofort so weit nach vorne, dass er alle anderen Teilnehmer überholt. Es scheint, dass einige Arbeiten am Kernel im Hinblick auf die Verbesserung der Verarbeitung gleichzeitig laufender Threads durchgeführt wurden, und diese bestanden nicht nur in der Erweiterung des Befehlssatzes. Sehen wir uns nun an, wie sich dieselben Prozessoren im MMX/FPU-Modus verhalten. Absolut ähnliches Bild. Wenn wir es außerdem mit der vorherigen vergleichen, können wir deutlich erkennen, dass sich die Gründlichkeit der Analyse bewährt hat: Wenn wir uns beispielsweise darauf beschränkt hätten, das beste (zweisträngige) Ergebnis zu berücksichtigen, könnten wir fälschlicherweise zu dem Schluss kommen, dass das Prescott Der Kern ist schneller in Bezug auf die Befehlsausführung und sogar im MMX/FPU-Modus. Nun ist deutlich zu erkennen, dass die Leistung allein durch die Optimierung der Nutzung virtueller CPU-Ressourcen gestiegen ist. Tests in realen AnwendungenBevor wir uns die Testergebnisse in realen Anwendungen ansehen, geben wir eine kleine einführende Erklärung. Tatsache ist, dass uns der Pentium 4-Prozessor auf dem Prescott-Kern mit einer Frequenz von 3,4 GHz leider immer noch nicht zur Verfügung steht. Was Sie in den Diagrammen als „virtueller“ Prescott-3,4-GHz-Prozessor sehen, ist also nichts anderes als die Annäherung an den Prescott 3,2 GHz-Ergebnisse, berechnet auf der Grundlage idealer Bedingungen für eine Leistungssteigerung proportional zur Frequenz. Einige mögen bemerken, dass dies ein zu ungeschickter Ansatz ist. Sie sagen, es wäre viel richtiger, zum Beispiel die bestehenden Prescott 3,2 GHz zu übertakten, indem man eine höhere FSB-Frequenz einstellt, oder zumindest eine Näherungskurve basierend auf drei Punkten zu erstellen: Prescott 2,8 GHz -> 3,0 GHz -> 3,2 GHz. Das wäre natürlich richtiger. Allerdings „ist Einfachheit genug für jeden klugen Mann“, und achten Sie einfach darauf, welche Änderungen das Vorhandensein selbst des „idealen“ Prescott 3,4 GHz in den Diagrammen für das Gesamtbild bewirkt (und das echte wird entweder gleich oder langsamer sein). ; es gibt keine dritte Option). Auf die Gefahr hin, das Risiko einer vorzeitigen Offenlegung von Geheimnissen einzugehen, sagen wir gleich: Ja, praktisch keine. Wo der Prescott-Kern gewinnt, ist offensichtlich. Und wo verliert es? Selbst die idealisierten 3,4 GHz helfen ihm nicht Arbeiten mit GrafikenDie vorhersehbarsten Ergebnisse sind für Northwood 3,4 GHz (etwas besser als Northwood 3,2 GHz) und Prescott 2,8 GHz (die fehlende Hyper-Threading-Unterstützung machte es sofort zu einem Außenseiter). Der Prescott 3,2 GHz versucht, mindestens auf Augenhöhe mit dem Single-Frequenz-Northwood zu sein, schafft das aber nicht einmal. Nun, unser „virtueller Prescott 3,4 GHz“ wiederum konnte den echten Northwood 3,4 GHz nicht überholen, was auch selbstverständlich ist. Andererseits sieht man, dass alle Prozessoren außer Prescott 2,8 GHz nahezu gleichwertig sind. Dies ist wahrscheinlich kein Argument für ein Upgrade auf Prescott, aber zumindest kein wesentliches Argument gegen den Kauf für diejenigen, die über die Anschaffung eines neuen Systems nachdenken. Bei Lightwave ist die Situation ähnlich, nur Prescott hinkt noch weiter hinterher. An dieser Stelle sei daran erinnert, dass Lightwave (nach dem Vergleich der Ergebnisse des 6. Zweigs mit dem 7. Zweig) sehr sorgfältig und gewissenhaft auf den Pentium 4 zugeschnitten wurde. Wir können davon ausgehen, dass es sich deshalb als so empfindlich gegenüber kleinsten Architekturänderungen im Kernel herausstellte. Wir stellen auch fest, dass der Athlon 64 3400+, den wir in diesem Programm zum ersten Mal getestet haben, zwar nicht die besten, aber durchaus ordentliche Ergebnisse zeigt. Für Photoshop in modernen Prozessorarchitekturen ist offenbar die Cache-Größe der wichtigste Parameter. Wir haben bereits mehrfach darauf hingewiesen, dass dieses Programm sehr geldhungrig ist, und die Ergebnisse von Prescott bestätigen dies. MedienkodierungDa wir im Allgemeinen eine neue (oder, wenn Sie es vorziehen, erheblich geänderte) Architektur testen, kann jede Anwendung für uns zu einer kleinen Entdeckung werden. Tatsächlich ist jetzt Quantität noch wichtiger als Qualität, denn wir müssen einfach so viele Daten wie möglich darüber sammeln, wie sich alte (noch nicht für Prescott optimierte) Programme mit dem neuen Prozessorkern verhalten. Hier das gleiche LAME: Es stellt sich heraus, dass Prescott ein neuer Prozessor ist, denn die Ergebnisse entsprechen in jeder Hinsicht überhaupt nicht dem, was wir bisher über Northwood wussten. Es stimmt, sie sind schlimmer geworden. Nun, es passiert. Wir sammeln weiterhin Ogg Encoder zeigt ein nahezu identisches Bild: Prescott ist allen anderen Prozessoren ausnahmslos deutlich unterlegen, trotz verdoppeltem First-Level- und L2-Datencache. Es bleibt davon auszugehen, dass der Übeltäter die Vergrößerung der Förderbandlänge bei gleichbleibendem Trace-Cash-Volumen ist. Selbst dem DivX-Codec, der sich für die NetBurst-Architektur interessiert, gefiel der neue Kern nicht. Nicht so sehr, aber es gefiel ihm trotzdem nicht. Es besteht jedoch eine gewisse Hoffnung, dass SSE3-DivX-Entwickler verschiedene Optimierungen einfach lieben (zumindest den Ankündigungen nach zu urteilen), sodass die Wahrscheinlichkeit sehr hoch ist, dass die einzige Anweisung zur Beschleunigung der Videokodierung ihren Platz in einer zukünftigen Version finden wird dieses Codecs. Allerdings liegt das alles in der Zukunft, aber vorerst leider
Nun, hier ist der erste Sieg. Wenn wir jedoch auf das Thema Einstellungen für verschiedene Software zurückkommen, können wir feststellen, dass Windows Media Video 9 Hyper-Threading recht gut unterstützt und Daten aus Low-Level-Tests zeigten, dass die Effizienz der Verwendung virtueller CPUs mit dem neuen Kern zunimmt. Dies scheint das erste positive Ergebnis zu sein, das bei Prescott durch eine qualitative und nicht durch eine quantitative Änderung erzielt wurde. In allen vorherigen Fällen ist es ausschließlich aufgrund der großen Cache-Größe „verschwunden“. Sehr, sehr interessantes Ergebnis. Der Mainconcept MPEG Encoder, dem wir die „ungeschickte“ Arbeit mit Hyper-Threading bei der Kodierung in das MPEG1-Format vorgeworfen haben, funktioniert recht gut mit virtuellen Prozessoren, wenn diese von Prescott und nicht von Northwood emuliert werden! Es ist an der Zeit, überhaupt darüber nachzudenken: Vielleicht sind die Programmierer nicht schuld, es gab nur einen „Stecker“ im Prozessorkern, der die Threads falsch parallelisierte? Es ist durchaus möglich, zumindest wenn man sich die Prescott-Ergebnisse ansieht, versteht man, dass diese Annahme auch ein Recht auf Leben hat. Andererseits schnitt der Prescott 2,8A GHz recht gut ab; von Hyper-Threading hatte ich noch nie gehört. Komische Situation. Vielleicht stehen wir kurz vor einer interessanten Entdeckung: Es kommt die Annahme auf, dass die gesamte „Optimierung von Hyper-Threading in Prescott“ auf die Tatsache zurückzuführen ist, dass diese Technologie in Northwood nicht über genügend Cache-Volumen verfügte, um ihr volles Potenzial auszuschöpfen! Und wieder kann man sich über den neuen Kernel freuen: Im Mainconcept MPEG Encoder ist nicht nur der „Fehler“ bei der MPEG1-Kodierung verschwunden, sondern auch die Konvertierung in MPEG2 ist deutlich schneller geworden. Unter Berücksichtigung der Ergebnisse früherer Tests können wir fast eindeutig sagen, dass der Hauptheld des Anlasses die verbesserte Arbeit von Hyper-Threading ist (und vergessen Sie nicht, was es hätte verbessern können, wenn unsere Annahmen richtig wären). Das Interessanteste ist, dass Sie nicht einmal spezielle Befehle brauchten, um Threads aus dem SSE3-Satz zu steuern; der Prozessor selbst hat es perfekt herausgefunden (wir können nicht davon ausgehen, dass SSE3 in dieser Version des Encoders unterstützt wird; sie kam schon vor ziemlich langer Zeit heraus). vor). Aber Canopus ProCoder bemerkte einfach fast nichts. Grundsätzlich gibt es einen leichten Leistungsunterschied, der sogar zugunsten von Prescott ausfällt. Aber in Wirklichkeit sind das ein paar Cent, eine Kleinigkeit. Angesichts der Cache-hungrigen Natur von ProCoder könnte man sogar sagen: Der gesamte große Cache wurde offenbar verwendet, um andere Mängel des neuen Kernels auszugleichen. Er zog Prescott einfach auf die gleiche Höhe wie Northwood, aber leider nicht mehr. ArchivierungWie üblich haben wir 7-Zip sowohl mit als auch ohne aktivierter Multithreading-Unterstützung getestet. Der erwartete Effekt wurde in diesem Programm nicht erreicht: Es fällt nicht auf, dass Multithreading auf Prescott einen viel größeren Effekt hatte als auf Northwood. Und im Allgemeinen gibt es keinen großen Unterschied zwischen dem alten und dem neuen Kernel. Es scheint, dass wir den oben erwähnten Effekt sehen: Die quantitativen Indikatoren von Prescott (L1-Daten- und L2-Cache-Volumen) konnten lediglich die eigene erweiterte Pipeline kompensieren. Übrigens: einer der wenigen Tests, bei denen der Unterschied zwischen den Boards zumindest irgendwie sichtbar ist. Ansonsten ist das Bild immer noch dasselbe: Prescott und Northwood mit der gleichen Frequenz laufen nebeneinander, praktisch ohne Geschwindigkeitsunterschied. Pessimisten werden sagen: „schlecht“, Optimisten: „es könnte schlimmer sein“ :). Wir werden einfach schweigen SpieleDas Bild ist in allen drei Spielen ähnlich, es besteht also kein Grund, etwas Besonderes zu schreiben: Prescott ist immer noch langsamer. Stimmt, nicht viel. Zusammenfassung der ErgebnisseNun, wenn wir aus den im Artikel enthaltenen Tests irgendwelche Schlussfolgerungen ziehen, dann sieht die Situation so aus: Der Prescott-Kern ist im Allgemeinen langsamer als Northwood. Manchmal kann dies kompensiert werden Ö Größerer Cache, wodurch die Leistung auf das Niveau des alten Kernels gebracht wird. Nun, wenn das Programm besonders empfindlich auf die L2-Lautstärke reagiert, kann Prescott sogar gewinnen. Darüber hinaus hat sich die Effizienz des Hyper-Threadings etwas verbessert (der Grund scheint jedoch wiederum in der Vergrößerung des L2-Cache zu liegen). Wenn ein Programm also beide Stärken des neuen Kernels nutzen kann – einen großen Cache und virtuelles Multiprocessing – dann ist der Gewinn spürbar. Im Allgemeinen entspricht die Leistung von Prescott in etwa der von Northwood und ist bei Verwendung mit alter, nicht optimierter Software sogar noch geringer. Leider ist die erwartete Revolution nicht eingetreten. Gab es andererseits einen Jungen? Aber mehr dazu weiter unten. Was den Prescott 2,8A GHz mit 533 MHz Systembus und ohne Hyper-Threading-Unterstützung betrifft, dann ist hier alles ganz klar. Erstens ist dies für Intel einfach eine sehr gute Möglichkeit, aus den Kopien, die im „echten Prescott“-Modus einfach nicht funktionierten, zumindest etwas zu machen. Eine Art „Celeron unter Prescotts“ (obwohl dies offenbar darauf basieren wird). Kern und der offizielle Celeron). Zweitens deutet das Fehlen von Hyper-Threading höchstwahrscheinlich auf die grundsätzliche Zurückhaltung von Intel hin, HT auf einem veralteten Bus mit niedriger Geschwindigkeit zu sehen. Tatsächlich: Der einzige Vertreter von 533 MHz FSB + HT blieb der erste Prozessor, der diese Technologie unterstützte, der Pentium 4 mit 3,06 GHz. Und selbst dann aus einem völlig verständlichen Grund, der ihn entschuldigte: Damals gab es keine CPU mit 800-MHz-Bus. Mögen uns die Intel-Ingenieure diese Freiheit verzeihen, der Pentium 4 2,8A GHz ist „als ob nicht Prescott“. Es handelt sich lediglich um einen relativ preiswerten Pentium 4 mit hoher Frequenz (niemand sonst kann ihn herstellen, weil ihn niemand kaufen wird). Dabei spielt es überhaupt keine Rolle, auf welchem Kern er basiert, darum geht es nicht. Um ehrlich zu sein, war die Versuchung groß, ihn überhaupt nicht in dieses Material einzubeziehen, aber dann beschlossen wir, das Gegenteil zu tun: ihn für diese Stunde einmal und dann noch einmal „strahlen“ zu lassen. bei Kehren Sie nicht zum unteren Prozessor zurück. Aus einem einfachen Vergleich der Single-Frequenz-Kerne von Prescott und Northwood wird deutlich, dass Prescott 2,8 GHz ohne Hyper-Threading hinsichtlich der durchschnittlichen Leistung nicht einmal mit dem Pentium 4 2,8C (800 MHz FSB + HT) mithalten kann Indikatoren. Versionen Ja, genau „Versionen“, nicht „Schlussfolgerungen“. Dieses Material erwies sich als zu zweideutig. Es wäre einfacher, sich auf die Analyse der Diagramme zu beschränken und die offensichtliche Schlussfolgerung zu ziehen, die an der Oberfläche liegt: „Wenn das neue nicht schneller (oder sogar langsamer) als das alte ist, bedeutet es, dass es schlechter ist.“ Schreiben Sie es sozusagen als Aufwand ab. Allerdings ist die einfachste Antwort nicht immer die richtigste. Aus diesem Grund haben wir uns entschieden, auf die Analyse einzugehen und die Ergebnisse von Prescott aus einer historischen Marktperspektive zu betrachten. Es stellte sich heraus, dass die Antworten auf die Frage „Was bringt Intel die Veröffentlichung des Pentium 4 auf dem Prescott-Kern?“ Tatsächlich gibt es mehrere, und jede davon kann logisch argumentiert werden. Version eins oder großer FehlerWarum nicht? Es war einmal ein Unternehmen namens Intel, und es hatte eine Idee: Bei der Entwicklung eines Prozessorkerns lag der Schwerpunkt nicht auf maximaler Effizienz (wenn wir Effizienz als Verhältnis von Leistung zu Frequenz betrachten), sondern auf einfacher Skalierbarkeit. Sie sagen, wenn unsere 2000 MHz gegenüber 1000 MHz eines Konkurrenten verlieren, spielt das keine Rolle, wir werden die Frequenz auf 4 GHz aufholen und alle zurücklassen. Aus rein technischer Sicht ist dies übrigens eine völlig ausreichende Lösung. Ist es wirklich wichtig? Den (gebildeten) Nutzer interessiert immer noch nicht Megahertz, sondern die Leistung. Welchen Unterschied macht das für ihn, wie wird sie erreicht? Die Hauptsache ist, dass die Skalierbarkeit genau das ist, was erreicht werden soll. Und nun stellt sich heraus, dass große Probleme mit der Skalierbarkeit begonnen haben. Wir erreichten 3,4 GHz, stoppten und mussten einen neuen Kern entwickeln, dessen Effizienz noch geringer ist und dessen Frequenz nicht bekannt ist und so weiter. Wir möchten Sie daran erinnern, dass dies eine Version ist. Schauen wir es uns im Vergleich zu realen Fakten genauer an. Ein Fakt, der für diese Version spricht, ist die Zunahme der Häufigkeit von Pentium 4 im vergangenen Jahr 2003. Dennoch sind 200 MHz, und selbst in Bezug auf eine so „frequenzhungrige“ Architektur wie NetBurst, eindeutig nicht genug. Es ist jedoch bekannt, dass es keine sehr gute Vorgehensweise ist, eine Tatsache isoliert von anderen zu betrachten. Hat es Sinn gemacht, die Frequenz des Pentium 4 im letzten Jahr aktiv zu erhöhen? Es scheint nicht, dass der Hauptkonkurrent andere Probleme löst: Er hat eine neue Architektur, einen neuen Kern, er muss die Massenproduktion von Prozessoren auf Basis dieses Kerns organisieren und sie mit der entsprechenden Hardware in Form von Chipsätzen, Motherboards, Software usw. ausstatten. am Ende! Daher klingt eine der Antworten auf die Frage „Warum die Frequenz (und Leistung) des Pentium 4 im Jahr 2003 praktisch nicht gestiegen ist“ einfach: Es hatte keinen besonderen Sinn, sie zu erhöhen. Es scheint niemanden zu geben, der aufholen oder überholen kann. Es besteht also kein Grund, sich zu sehr zu beeilen. Leider können wir immer noch keine Antwort auf die Hauptfrage bekommen: Wie wird der neue Kern „jagen“? Den äußeren Anzeichen nach zu urteilen, gibt es bisher keine Fakten, die die gute Skalierbarkeit von Prescott bestätigen. Allerdings ebenso wie diejenigen, die es widerlegen. 3,4-GHz-Versionen von Prescott und Northwood wurden angekündigt. Northwood 3,4 GHz wird voraussichtlich der letzte Prozessor sein, der auf diesem Kern basiert (obwohl es keine offizielle Bestätigung dieser Annahme gibt). Und die Tatsache, dass Prescott mit 3,4 GHz begann und nicht mit 3,8 oder 4,0, ist auch leicht zu erklären: Warum über die Stufen springen? Zusammenfassend lässt sich sagen: Die „Big Mistake“-Version hat grundsätzlich eine Daseinsberechtigung. Aber wenn die Häufigkeit (und genauer gesagt die Leistung) von Prescott schnell zunimmt, wird dies definitiv seine Inkonsistenz bestätigen. Version zwei oder ÜbergangskernEs ist kein Geheimnis, dass ein Hersteller manchmal ein Gerät herausbringen muss, das an sich ganz gewöhnlich ist (in einer anderen Situation verdient es den Titel eines Release-Produkts überhaupt nicht). Tatsache ist jedoch, dass die Veröffentlichung dieses Geräts notwendig ist, um andere auf dem Markt zu bewerben, die gleichzeitig oder etwas später angekündigt wurden. Dies war der Pentium 4 Willamette, der den Titel „guter und schneller Prozessor“ kaum verdiente, aber er zeigte deutlich, dass einer der größten Player auf dem Prozessormarkt am Ende seines Bestehens auf einen neuen Kern umstieg hat den „mittleren“ Sockel 423 durch einen „langlebigen“ ersetzt. Sockel 478. Was wäre, wenn Prescott eine ähnliche Rolle spielen würde? Jeder weiß bereits, dass mit der Veröffentlichung von Grantsdale-P ein weiterer Prozessorsockel für den Pentium 4 (Socket T / Sockel 775 / LGA775) auf den Markt kommen wird und zunächst Prescott-basierte CPUs verbaut werden Es. Erst später wird der Pentium 4 „Tejas“ beginnen, sie nach und nach zu ersetzen. Und hier ist es ganz logisch, die Frage zu stellen: Wie schnell wird dieser Austausch erfolgen? Da wir immer noch nur Versionen vorlegen, werden wir unserer Fantasie keine Grenzen setzen und davon ausgehen, dass Intel diesen Prozess so weit wie möglich beschleunigen möchte. Mit was? Am wahrscheinlichsten ist es, dass Sockel 478 friedlich am unteren Ende der Leistungstabellen ruht und Sockel 775 zum Symbol einer aktualisierten, leistungsstarken und schnellen Plattform für den Pentium 4 wird. Dann wird alles klar: Prescott wird benötigt, damit es eine gibt Prozessor auf dem Markt, der beide Boards mit Sockel 478 und dem neuen Sockel 775 leisten kann. Tejas wird, wenn unsere Annahmen stimmen, nur im Sockel 775 verbaut und wird damit zum Totengräber sowohl für Prescott als auch für die veraltete Sockel-478-Plattform. Ist es logisch? Wir denken schon. In diesem Fall erscheint auch die folgende Annahme plausibel: Prescotts Leben ist für eine sehr kurze Zeit bestimmt Version drei oder „Wer wird mit dem Schwert zu uns kommen“Es ist kein Geheimnis, dass die Rivalität zwischen den beiden Hauptkonkurrenten Intel und AMD fast immer auf dem Gegensatz zweier Hauptargumente beruhte. Intel: „Unsere Prozessoren sind die schnellsten!“, AMD: „Aber unsere haben ein besseres Preis-Leistungs-Verhältnis!“ Die Rivalität besteht seit langem, ebenso wie die Auseinandersetzungen. Darüber hinaus haben sie sich auch mit der Veröffentlichung von AMD-Prozessoren auf K7/K8-Kernen nicht verändert, obwohl letztere deutlich leistungsstärker sind als der K6. Bisher machte Intel keine Ausnahmen von seiner Grundregel: Seine CPUs mit ähnlicher Leistung wie Konkurrenzprozessoren für etwas mehr zu verkaufen. Der Markt ist mancherorts sehr einfach, daher ist der Grund für dieses Verhalten klar: Wenn die Leute sie bereits kaufen, warum dann den Preis senken? Nochmals: Obwohl Intel an Preiskämpfen teilnehmen musste, hat AMD sie immer gestartet, das hat bereits Tradition. Die dritte Version basiert auf einer offensichtlichen Annahme: Was wäre, wenn Intel dieses Mal beschließen würde, aggressiver als üblich vorzugehen und zuerst einen Preiskampf zu beginnen? Die Liste der Vorteile des neuen Prescott-Kerns umfasst nicht nur Neuheit, Cache-Größen und potenziell gute (wenn auch noch nicht bestätigte) Skalierbarkeit, sondern auch den Preis! Dabei handelt es sich um einen verhältnismäßig günstigen Kern in der Herstellung: Wenn mit der 90-Nanometer-Technologie die Ausbeute an geeigneten Chips mindestens so hoch ist wie die von Northwood, dann kann Intel diesen ohne absoluten Gewinnverlust verkaufen Prozessoren zu einem viel günstigeren Preis. Erinnern wir uns an eine offensichtliche Abhängigkeit: Eine CPU-Eigenschaft wie das „Preis-Leistungs-Verhältnis“ kann nicht nur durch Leistungssteigerung, sondern auch durch Preissenkung verbessert werden. Eigentlich hält dich niemand davon ab, die Leistung noch weiter zu senken (!). Hauptsache, der Preis sinkt noch mehr :). Den inoffiziellen Preisankündigungen für den Pentium 4 Prescott im Internet zufolge werden sie deutlich weniger kosten als der Pentium 4 Northwood. Wir können also davon ausgehen, dass Intel sich für eine Art „Flankierung“ entschieden hat: Während der Hauptkonkurrent auf altmodische Weise immer wieder auf der Jagd nach Leistung ist, wird ihm im Bereich der Middle-End-Systeme ein Schlag versetzt , wo Benutzer genau solche Indikatoren wie Preis / Leistung sorgfältig analysieren. Version vier oder GeheimwaffeHier sollten wir einen kleinen lyrischen und historischen Exkurs für diejenigen machen, die „damals“ verschiedene kleine Nuancen im Prozessorsektor nicht sehr aktiv überwachten. So können wir uns beispielsweise daran erinnern, dass unmittelbar nach dem Erscheinen der ersten Prozessoren mit Hyper-Threading-Unterstützung (und es handelte sich nicht um Pentium 4 „Northwood“ + HT, sondern Xeon „Prestonia“) viele die Frage stellten: „Wenn die.“ Prestonia- und Northwood-Kerne sind sich so ähnlich, dass sie sich in ihren grundlegenden Eigenschaften praktisch nicht unterscheiden, aber Prestonia unterstützt Hyper-Threading und Northwood nicht. Ist es nicht logisch anzunehmen, dass Northwood es auch hat, es ist nur künstlich blockiert? Anschließend wurde diese Annahme indirekt durch die Ankündigung des Pentium 4 3,06 GHz auf demselben Northwood-Kern, jedoch mit Hyper-Threading, bestätigt. Darüber hinaus brachten die Mutigsten eine völlig aufrührerische Idee vor: Hyper-Threading gab es sogar in Willamette! Erinnern wir uns nun an das, was wir kürzlich über die neuen Technologieinitiativen von Intel wussten. Sofort tauchen zwei Namen auf: „La Grande“ und „Vanderpool“. Die erste ist die Technologie des Hardware-Schutzes von Anwendungen vor Eingriffen von außen, die sich kurz mit den Worten beschreiben lässt: „um sicherzustellen, dass eine Software die Funktion einer anderen Software nicht beeinträchtigen kann“. Sie können jedoch auf unserer Website mehr über La Grande erfahren. Über Vanderpool gibt es weniger Informationen, aber anhand der heute verfügbaren Fragmente können wir den Schluss ziehen, dass es sich um eine Variation des Themas der vollständigen PC-Virtualisierung handelt, die ausnahmslos alle Hardwareressourcen umfasst. So (das einfachste, aber auch effektivste Beispiel) können zwei Betriebssysteme parallel auf einem Computer arbeiten und eines davon sogar neu gestartet werden, was jedoch keinerlei Auswirkungen auf den Betrieb des anderen hat. Also: Es besteht ein sehr starker Verdacht, dass sowohl La Grande als auch Vanderpool bereits im Prescott-Kern implementiert, aber (wie zuvor bei Hyper-Threading) noch nicht aktiviert wurden. Wenn diese Annahme wahr ist, wird viel über den Kern selbst klar. Insbesondere, warum es so groß ist, warum die Entwicklung so lange gedauert hat, aber trotzdem in der Geschwindigkeit nicht mit dem Vorgänger mithalten kann. Basierend auf der „Geheimwaffen“-Hypothese können wir davon ausgehen, dass die Hauptressourcen des Entwicklungsteams nicht auf die Erzielung von Leistung, sondern auf das Debuggen neuer Funktionen gerichtet waren. Teilweise hat diese Version auf die eine oder andere Weise etwas mit der zweiten gemeinsam, aber wir haben es mit einem Übergangskern zu tun. Dementsprechend muss es überhaupt nicht perfekt sein, denn das ist nicht sein Hauptzweck. Die zweite und vierte Version werden übrigens auch durch die dritte erfolgreich ergänzt: Der niedrige Preis ist in diesem Fall genau das Bonbon, das dem Endverbraucher die „Transitivitäts“-Pille versüßt. ZusammenfassenNicht umsonst haben wir diesen Artikel „einen halben Schritt nach vorne“ genannt. Prescott erwies sich als komplexer und mehrdeutiger als das erwartete „Northwood mit größerer Cache-Größe und höherer Häufigkeit“ (wie viele es empfanden). Natürlich kann man dem Hersteller die Schuld dafür geben, dass die Geschwindigkeitssteigerung im Durchschnitt nahe Null liegt (und an einigen Stellen negativ ist), für einen weiteren Sprung mit der Unterstützung von Prozessoren, die auf dem neuen Kern auf Motherboards basieren. Und übrigens Es ist durchaus fair, dies zu tun. Das sind schließlich nicht unsere Probleme, und doch sind wir diejenigen, die sich ihnen stellen müssen. Deshalb fügen wir am Ende des Artikels einfach ein „fett gedrucktes Auslassungszeichen“ ein. Das Standbild zeigt nur den Anfang des Schrittes: ein in der Luft schwebendes Bein oder, wenn Sie es vorziehen, ein startendes Flugzeug. Was kommt als nächstes für uns? Wird die „Landung“ (Tejas?...) günstig sein? Im Moment können wir nur raten. Seit mehr als 5 Jahren werden viele Kerne und darauf basierende Pentium 4-Modelle veröffentlicht. Darüber hinaus wurde mit der Veröffentlichung eines neuen Modells entweder ein neuer Buchstabe oder eine andere Zahl zum Namen des Prozessors hinzugefügt, manchmal auch beides; All dies erschwert die Identifizierung eines bestimmten Modells erheblich. Der Pentium 4-Prozessor basiert auf einer völlig neuen Architektur – NetBurst. Nachfolgend sind einige der Besonderheiten der ursprünglichen NetBurst-Architektur aufgeführt (von denen einige inzwischen geändert wurden).
Im Allgemeinen war die Architektur auf den Betrieb bei hohen Frequenzen ausgerichtet, bei denen eine lange Pipeline ihr volles Potenzial entfalten konnte. WillametteDieser Kern wurde erstmals 1998 in der Roadmap von Intel erwähnt. Man ging davon aus, dass es die 1-GHz-Frequenz ablösen und erobern sollte. Auf diesem Kern basierende Prozessoren wurden jedoch erst im Jahr 2000 als Pentium 4 angekündigt. Die in diesem Jahr veröffentlichten Prozessoren wurden im Sockel 423 verbaut und in einem FC-PGA2-Gehäuse hergestellt. Prozessoren für den Sockel 423 waren nicht beliebt, da Intel sofort erklärte, dass es sich bei diesem Sockel um einen Übergangssockel handele; außerdem waren Systeme auf Basis von Pentium 4 sehr teuer (die Prozessoren selbst kosteten zum Zeitpunkt der Ankündigung 644 US-Dollar und 819 US-Dollar für Pentium 4 1.4 und 1.5). GHz). Da der Prozessor mit einer 180-nm-Prozesstechnologie hergestellt wurde, konnten nur 256 KB L2-Cache auf dem Chip untergebracht werden. Die meisten Experten betrachteten die 1,4- und 1,5-GHz-Versionen als mittelmäßig – der Athlon-Prozessor erfreute sich immer größerer Beliebtheit und war dem Pentium III in der Leistung überlegen, eine weitere Verbesserung der Pentium-III-Architektur war noch nicht möglich. Intel hatte nicht die Absicht, Marktanteile zu verlieren, und brachte daher diese Prozessoren auf den Markt („rohe“ Produktionstechnologie erlaubte zu diesem Zeitpunkt nicht die Veröffentlichung schnellerer Modelle). Trotz der Unbeliebtheit der 1,4- und 1,5-GHz-Versionen kündigte Intel die 1,3-GHz-Version des Pentium 4 an, die 409 US-Dollar kostete. In verschiedenen Testtests verloren diese Prozessoren sowohl gegen Pentium III als auch gegen Athlon (und in einigen Fällen Athlon), die mit niedrigeren Frequenzen arbeiteten. Allerdings erschien bereits im April 2001 der Pentium 4 mit einer Frequenz von 1,7 GHz, im August dieses Jahres eine 2-GHz-Version sowie „neue alte“ Prozessoren für Sockel 478, die mehr als 2 Jahre durchhielten Jahre, im selben Monat kommt ein neuer Chipsatz von Intel (i845) auf den Markt. Der neue Chipsatz unterstützte nun PC133-SDRAM-Speicher, was eine deutliche Preissenkung für Systeme auf Basis des Intel Pentium 4 ermöglichte, allerdings reduzierte der Einsatz dieses Speichertyps die Leistung des Systems etwas (manchmal ganz deutlich). Um den Umsatz zu steigern, hat Intel diesen Prozessor aktiv beworben – seine Werbung war sowohl im Fernsehen als auch in Zeitungen/Zeitschriften zu sehen. Die Verkäufe des Pentium 4 stiegen, der Prozessor erfreute sich immer größerer Beliebtheit. Bald stellten viele Hersteller von Systemlogiken ihre Chipsätze für den Pentium 4 mit Speicherunterstützung vor, und Anfang des Jahres veröffentlichte Intel seine Chipsätze mit Unterstützung für diesen Speichertyp. Der Prozessor beginnt den Pentium III abzulösen und liegt leistungsmäßig tatsächlich auf Augenhöhe mit dem Athlon. Intel, das 16 Jahre lang die Spitzenposition innehatte und diese dann schnell wieder verlor, fängt nun an, wieder Fuß zu fassen. Und die Probleme, die mit der mangelnden Produktionskapazität bei AMD und der Veröffentlichung des Pentium 4 auf dem Northwood-Kern auftraten, festigten Intels führende Position, wenn auch nicht für lange.
NorthwoodDie ersten Prozessoren auf Basis dieses Kerns wurden dieses Jahr angekündigt. Der Kern unterscheidet sich nicht wesentlich von seinem Vorgänger, außer dass er einen fortschrittlicheren Technologieprozess verwendet – 130 nm, der es ermöglichte, 512 KB L2-Cache auf dem Chip zu platzieren und die Wärmeableitung des Prozessors zu reduzieren. Durch den Übergang zu einem neuen technischen Verfahren konnte die Taktfrequenz weiter erhöht werden (bis zu 3,4 GHz). Um Prozessoren, die auf dem Northwood-Kern basieren, von ähnlichen Modellen, die auf dem Willamette-Kern basieren, zu unterscheiden, wurde beschlossen, den Buchstaben „A“ am Ende der Namen neuer Prozessoren hinzuzufügen (der Pentium 4 2.0A basiert beispielsweise auf dem Northwood). Kern). PrescottMobiler Pentium 4Die ersten Versionen des Pentium 4 für Notebooks und Laptops wurden letztes Jahr angekündigt, basierten auf dem Northwood-Kern und hießen Mobile Pentium 4-M. Diese Prozessoren unterschieden sich von Desktop-Versionen durch eine niedrigere Versorgungsspannung (1,2–1,3 V) und Unterstützung für Technologie. Die Systembusfrequenz betrug für alle Prozessoren 400 MHz. Es wurden Modelle mit Frequenzen von 1,4 veröffentlicht; 1,5; 1,6; 1,7; 1,8; 1,9; 2,0; 2,2; 2,4; 2,5; 2,6, TDP für das neueste Modell beträgt 35 W. Prescott 2MDie ersten Gerüchte über den neuen Prescott-2-Kern tauchten Anfang 2005 auf. Es wurde davon ausgegangen, dass es über 2 MB L2-Cache und eine FSB-Frequenz von 266 MHz (effektive Frequenz 1066 MHz) verfügen würde. Es wurden Prozessoren angekündigt, die auf diesem Kern basieren. Dieser Kern unterscheidet sich vom Prescott-Kern nur durch das Vorhandensein von 2 MB L2-Cache. Die neuen Prozessoren erhielten auch eine neue Kennzeichnung: 6x0. Am 21. Februar 2005 wurden die Modelle Pentium 4 630, 640, 650, 660 mit Frequenzen 3.0 angekündigt; 3,2; 3,4; 3,6 GHz, später wurde der 670 eingeführt, der mit 3,8 GHz arbeitete. ZedernmühleDie Ankündigung der Prozessoren, die auf dem neuen Kern basieren, ist für die zweite Januarhälfte geplant. Der Cedar Mill-Kernel ist eine Single-Core-Modifikation des Kernels, der unter dem Codenamen bekannt ist. Cedar Mill wird mit der neuesten 65-nm-Technologie hergestellt. Tatsächlich handelt es sich beim Kern um einen Prescott 2M-Kern, die Prozessorserie hat sich nicht einmal geändert, Prozessoren ohne Unterstützung der Vanderpool-Virtualisierungstechnologie tragen die Bezeichnung 6x1, solche mit Vanderpool-Unterstützung tragen die Bezeichnung 6x3. Die Prozessoren werden zunächst Frequenzen zwischen 3,0 GHz und 3,8 GHz haben. Es wird empfohlen, hier mehr über den Grund für die Veröffentlichung von Cedar Mill zu lesen. Der Cedar Mill-Kern ist der letzte in der Pentium 4-Reihe. Die nächsten Prozessorgenerationen, insbesondere Conroe, werden unter einer neuen Marke beworben, deren Name noch nicht bekannt gegeben wurde. Tejas, Jayhawk und andereIntel hatte große Hoffnungen in die NetBurst-Architektur gesetzt. In den Jahren 2001–2003 umfassten die Roadmaps von Intel Kerne wie Tejas, der einen 1066-MHz-Bus verwenden und mit Frequenzen von 4,4 bis 9,2 GHz arbeiten sollte und in der zweiten Hälfte des Jahres 2004 unter dem Namen Pentium 6 auf den Markt kommen sollte. Nehalem, Dieser Prozessor sollte einen 1200-MHz-Systembus verwenden und mit Frequenzen über 10 GHz arbeiten und sollte 2005 in den Handel kommen. Jayhawk, ein Xeon-Prozessor, der über einen 24 KB großen L1-Datencache und 16.000 Mikrooperationen verfügen sollte. Allerdings wurden alle diese Prozessoren im Jahr 2004 eingestellt. Intel beabsichtigte, Prozessoren auf Basis der NetBurst-Architektur zu verwenden, um eine Frequenz von 10 GHz zu erreichen, doch vor dem Erreichen von 4 GHz war diese Architektur mit thermischen Problemen konfrontiert, die bisher (und es scheint nie wieder) lösbar waren. Dieses Problem veranlasste Intel, eine neue Architektur zu entwickeln und alle Projekte zur Entwicklung von Kernen auf Basis der NetBurst-Architektur einzustellen. Rückblickend hinterlässt der Pentium 4 einen zwiespältigen Eindruck. Einerseits war es einer der beliebtesten Prozessoren, seine Promotion im Jahr 2011 und die damit verbundene enorme Beliebtheit bei der Bevölkerung ermöglichten es Intel, lange Zeit einen großen Teil des Marktes zu besetzen. Andererseits verfügte der Pentium 4 nicht über die erfolgreichste Architektur. Seine führende Position in Sachen Leistung konnte er nie festigen; in Sachen TDP (Wärmeableitung) verlor er fast immer gegen Konkurrenz-AMD-Athlon-Prozessoren, ebenso bei den Kosten. Und die Pentium-III-Architektur, die Intel einst als weniger vielversprechend als NetBurst betrachtete, ist bei Prozessoren wieder aufgetaucht. Spezifikationen verschiedener KerneFür alle Modelle relevante Daten
Willamette
Northwood
Neue „Frühlings“-Prozessoren begeistern uns weiterhin mit ihrem Aussehen. Dieses Mal zeichnete sich Intel dadurch aus, dass es auf dem ukrainischen Markt zwei Pentium 4-Prozessoren der Spitzenklasse mit einer Frequenz von 3,4 GHz vorstellte, die jedoch auf unterschiedlichen Kernen basierten – Northwood bzw. Prescott. Wir hoffen, dass dieser Test Ihnen bei der Entscheidung hilft, was solch ähnliche und doch so unterschiedliche CPUs dem Benutzer bieten können.
Prescott wurde ebenfalls zur Kenntnis genommen, in diesem Fall betreffen die Änderungen jedoch ausschließlich
Kernökosystem des Prescott-Prozessors Vielleicht eine der bedeutendsten Errungenschaften Wir stellen auch die langsame Implementierung der SSE3-Unterstützung in modernen Multimedia-Inhalten fest
Der Primordia-Test aus dem Science Mark 2.0-Kit weist, wenn auch indirekt, darauf hin Die übrigen Ergebnisse können unter dem Gesichtspunkt globaler Muster betrachtet werden. Schlussfolgerungen Nach dem eher revolutionären Auftritt der AMD64-Familie, der für Aufsehen sorgte Dennoch werden wir einige Beschwerden über Prescott äußern. Sie bestehen auch darin Übertakten Für eine ernsthafte und stabile Übertaktung neuer Prozessoren von Intel ist dies erforderlich Es scheint, dass der Pentium 4 2,8 GHz erst vor nicht allzu langer Zeit auf den Markt kam, aber das rastlose Intel-Unternehmen ist offenbar so stolz auf die Fähigkeit seines neuen Prozessorkerns, ständig zu „übertakten“, dass es uns mit Ankündigungen immer neuer Prozessoren verfolgt :). Allerdings unterscheidet sich unser heutiger Held nicht nur um rund 200 Megahertz vom bisherigen Spitzenmodell, auch etwas, wovon einige besonders fortgeschrittene Anwender schon lange geträumt haben, ist endlich wahr geworden: die bisherige Technologie, zwei Prozessoren auf einem Prozessorkern zu emulieren Das Eigentum nur ultrateuerer Xeons wurde schließlich „befreit“ und in die „freie Desktop-Navigation“ geschickt. Möchten Sie einen Heimcomputer mit zwei Prozessoren? Wir haben sie! Alle nachfolgenden Pentium 4-Modelle, beginnend mit dem in diesem Material besprochenen, werden Hyper-Threading unterstützen. Allerdings könnte sich jemand durchaus fragen: „Warum brauche ich zu Hause eine Dual-Prozessor-Maschine?“ Ich habe keinen Server!“ Und wirklich, warum? Genau das haben wir im Folgenden zu erklären versucht. Also: Hyper-Threading, was ist das und warum könnte es in normalen PCs benötigt werden? SMP und Hyper-Threading: „im Galopp durch Europa“Stellen wir uns zunächst einmal vor, dass wir „bei Null“ anfangen würden, d. h. dass uns die Funktionsmechanismen von Multiprozessorsystemen unbekannt sind. Wir werden mit diesem Artikel nicht eine Reihe von Monographien zu diesem Thema beginnen :), daher werden wir nicht auf komplexe Themen eingehen, die beispielsweise mit der Virtualisierung von Unterbrechungen und anderen Dingen zusammenhängen. Tatsächlich müssen wir uns nur vorstellen, wie ein klassisches SMP-System (Symmetric Multi-Processor) aus der Sicht der gewöhnlichen Logik funktioniert. Dies ist schon deshalb notwendig, weil es nicht so viele Anwender gibt, die ein gutes Verständnis dafür haben, wie ein SMP-System funktioniert und in welchen Fällen eine echte Leistungssteigerung durch den Einsatz von zwei Prozessoren statt einem zu erwarten ist und in welchen Fällen nicht . Ehrlich gesagt hat einer der Autoren dieses Materials irgendwie anderthalb Stunden seiner Zeit damit verschwendet, seinem, sagen wir, „nicht armen“ Freund zu beweisen, dass Unreal Tournament auf seinem Multiprozessorrechner nicht schneller laufen würde als auf einem normalen :) . Lustig? Ich versichere Ihnen nur von außen. Stellen wir uns also vor, wir hätten beispielsweise zwei Prozessoren (konzentrieren wir uns auf dieses einfachste Beispiel) statt einem. Was bringt uns das? Im Allgemeinen nichts. Denn darüber hinaus benötigen wir auch ein Betriebssystem, das diese beiden Prozessoren nutzen kann. Dieses System muss per Definition multitaskingfähig sein (ansonsten macht es einfach keinen Sinn, zwei CPUs zu haben), aber darüber hinaus muss sein Kernel in der Lage sein, Berechnungen über mehrere CPUs hinweg zu parallelisieren. Ein klassisches Beispiel für ein Multitasking-Betriebssystem, das dies nicht kann, sind alle Microsoft-Betriebssysteme, der Kürze halber üblicherweise „Windows 9x“ genannt 95, 95OSR2, 98, 98SE, Me. Sie können einfach nicht erkennen, dass mehr als ein Prozessor im System vorhanden ist, und tatsächlich gibt es dazu nichts weiter zu erklären :). SMP-Unterstützung bieten Betriebssysteme desselben Herstellers, die auf dem NT-Kernel basieren: Windows NT 4, Windows 2000, Windows XP. Aufgrund ihrer Wurzeln verfügen auch alle Betriebssysteme, die auf der Unix-Ideologie basieren, über diese Unterstützung – alle Arten von Free-Net-BSD, kommerzielles Unix (wie Solaris, HP-UX, AIX) und zahlreiche Linux-Varianten. Ja, übrigens, MS DOS „versteht“ Multiprocessing im Allgemeinen auch nicht :). Wenn dennoch zwei Prozessoren vom System identifiziert werden, ist der weitere Mechanismus zu ihrer Aktivierung im Allgemeinen (auf der „logischen“, wie wir betonen, Ebene!) recht einfach. Wenn zu einem bestimmten Zeitpunkt eine Anwendung ausgeführt wird, werden ihr alle Ressourcen eines Prozessors zugewiesen, während der zweite einfach im Leerlauf ist. Wenn es zwei Anwendungen gibt, wird die zweite zur Ausführung an die zweite CPU übergeben, sodass sich die Ausführungsgeschwindigkeit der ersten theoretisch überhaupt nicht verringern sollte. Es ist primitiv. In Wirklichkeit ist jedoch alles komplizierter. Zunächst einmal läuft möglicherweise nur eine ausführbare Benutzeranwendung, aber die Anzahl der Prozesse (d. h. Fragmente des Maschinencodes, die zur Ausführung einer bestimmten Aufgabe entwickelt wurden) in einem Multitasking-Betriebssystem ist immer viel größer. Beginnen wir mit der Tatsache, dass das Betriebssystem selbst auch eine Anwendung ist. Gehen wir also nicht tiefer – die Logik ist klar. Daher ist die zweite CPU tatsächlich in der Lage, sogar eine einzelne Aufgabe ein wenig zu „unterstützen“, indem sie die Bedienung der vom Betriebssystem generierten Prozesse übernimmt. Apropos Vereinfachungen: Dies ist genau die ideale Möglichkeit, die CPU zwischen der Benutzeranwendung und dem Betriebssystem aufzuteilen. Natürlich wird es immer noch nicht funktionieren, aber zumindest wird der Prozessor, der mit der Ausführung einer „nützlichen“ Aufgabe beschäftigt ist, weniger abgelenkt . Darüber hinaus kann bereits eine Anwendung Threads generieren, die bei mehreren CPUs separat auf diesen ausgeführt werden können. So verhalten sich beispielsweise fast alle Rendering-Programme, sie wurden speziell unter Berücksichtigung der Fähigkeit geschrieben, auf Multiprozessorsystemen zu arbeiten. Daher ist der Nutzen von SMP bei der Verwendung von Threads manchmal recht groß Ö Ich bin sogar in einer „Single-Tasking“-Situation. Tatsächlich unterscheidet sich ein Thread nur in zweierlei Hinsicht von einem Prozess: Erstens wird er niemals vom Benutzer generiert (der Prozess kann sowohl vom System als auch von einer Person gestartet werden, im letzteren Fall ist der Prozess = Anwendung; das Erscheinen eines Thread wird ausschließlich durch den laufenden Prozess initiiert), und zweitens stirbt der Thread zusammen mit dem übergeordneten Prozess, unabhängig von seinem Wunsch. Wenn beispielsweise der übergeordnete Prozess „Störungen aufweist und abstürzt“, betrachtet das Betriebssystem alle von ihm erzeugten Threads als verwaist und „nagelt ab“. ” es selbst, automatisch. Vergessen Sie auch nicht, dass in einem klassischen SMP-System beide Prozessoren jeweils mit ihrem eigenen Cache und Registersatz arbeiten, sich jedoch den Speicher teilen. Wenn also zwei Aufgaben gleichzeitig mit RAM arbeiten, stören sie sich gegenseitig, auch wenn jede über eine eigene CPU verfügt. Und zum Schluss noch das Letzte: In Wirklichkeit haben wir es nicht mit einem, nicht mit zwei, nicht einmal mit drei Prozessen zu tun. In der obigen Collage (dies ist eigentlich eine Collage, da alle Benutzerprozesse, d. h. Anwendungen, die „für die Arbeit“ gestartet wurden) aus dem Screenshot des Task-Managers entfernt wurden, ist deutlich zu erkennen, dass dies beim „nackten“ Windows XP selbst nicht der Fall war Dennoch hat jede gestartete Anwendung bereits 12 Prozesse erzeugt, viele davon auch Multithreading, und die Gesamtzahl der Threads erreicht zweihundertacht (!!!). Daher besteht absolut keine Notwendigkeit, damit zu rechnen, dass wir zum Schema „eigene CPU für jede Aufgabe“ gelangen können und Prozessoren weiterhin zwischen Codefragmenten wechseln – sowohl physischen als auch virtuellen, und selbst wenn sie virtuell sind im Quadrat und jeweils 10 für jeden physischen Kern :). In Wirklichkeit ist jedoch bei gut geschriebenem Code nicht alles so traurig, ein Prozess (oder Thread), der gerade nichts tut, nimmt praktisch keine Prozessorzeit in Anspruch (dies ist auch in der Collage sichtbar). Nachdem wir uns nun mit dem „physischen“ Multiprocessing befasst haben, gehen wir zum Hyper-Threading über. Tatsächlich ist dies auch Multiprocessing, nur virtuell. Denn eigentlich gibt es nur einen Pentium 4-Prozessor – hier steht er in einem Sockel, mit einem darauf geschlagenen Kühler :). Es gibt keine zweite Steckdose. Und das Betriebssystem sieht zwei Prozessoren. Wie ist es? Im Allgemeinen ist es sehr einfach. Schauen wir uns die Zeichnung an. Hier müssen wir noch etwas tiefer in die technischen Details einsteigen, denn sonst lässt sich leider nichts erklären. Wer sich jedoch nicht für diese Details interessiert, kann diesen Absatz einfach überspringen. In unserem Fall wurde also der klassische „Single-Core“-Prozessor mit einem weiteren AS IA-32 Architectural State-Block hinzugefügt. Der Architekturstatus enthält den Status der Register (allgemeiner Zweck, Kontrolle, APIC, Service). Tatsächlich ist AS#1 plus ein einzelner physischer Kern (Zweigvorhersageeinheiten, ALU, FPU, SIMD-Blöcke usw.) ein logischer Prozessor (LP1) und AS#2 plus derselbe physische Kern ist ein zweiter logischer Prozessor (LP2). ). Jeder LP verfügt über einen eigenen Interrupt-Controller (APIC Advanced Programmable Interrupt Controller) und einen Satz Register. Für die korrekte Verwendung von Registern durch zwei LPs gibt es eine spezielle Tabelle RAT (Register Alias Table), anhand derer Sie eine Entsprechung zwischen Allzweckregistern einer physischen CPU herstellen können. Jede LP hat ihre eigene RAT. Als Ergebnis haben wir ein Schema erhalten, bei dem zwei unabhängige Codefragmente frei auf demselben Kern ausgeführt werden können, d. h. de facto ein Multiprozessorsystem! Hyper-Threading-KompatibilitätUm auf das Praktische und Bodenständige zurückzukommen, möchte ich noch auf einen weiteren wichtigen Aspekt eingehen: Nicht alle Betriebssysteme, auch solche, die Multiprocessing unterstützen, können mit einer solchen CPU arbeiten. Dies ist auf einen so „subtilen“ Punkt wie die anfängliche Bestimmung der Anzahl der Prozessoren bei der Initialisierung des Betriebssystems zurückzuführen. Intel sagt direkt, dass ein Betriebssystem ohne ACPI-Unterstützung den zweiten logischen Prozessor nicht sehen kann. Darüber hinaus muss das Motherboard-BIOS auch in der Lage sein, das Vorhandensein eines Prozessors mit Hyper-Threading-Unterstützung zu erkennen und dies dem System zu „melden“. Tatsächlich bedeutet dies beispielsweise in Bezug auf Windows, dass wir „im Flug“ nicht nur die Windows 9x-Reihe haben, sondern auch Windows NT, mit dem letzteres aufgrund der fehlenden ACPI-Unterstützung nicht arbeiten kann ein neuer Pentium 4 wie bei zwei. Das Schöne ist jedoch, dass Windows XP Home Edition trotz der blockierten Fähigkeit, mit zwei physischen Prozessoren zu arbeiten, mit zwei logischen Prozessoren arbeiten kann, die mithilfe von Hyper-Threading erhalten wurden. Und Windows XP Professional „sieht“ übrigens, obwohl die Anzahl der physischen Prozessoren auf zwei begrenzt ist, mit zwei installierten CPUs mit Hyper-Threading-Unterstützung ehrlich gesagt vier :). Nun ein wenig zur Hardware. Dass bei neuen CPUs mit einer Taktung von mehr als 3 GHz möglicherweise ein Austausch des Mainboards erforderlich werden muss, weiß wahrscheinlich schon jeder; die Erde (bzw. das Internet) ist schon lange voller Gerüchte. Leider stimmt das tatsächlich. Trotz der nominellen Beibehaltung des gleichen Sockels 478-Prozessorsockels konnte Intel den Stromverbrauch und die Wärmeableitung der neuen Prozessoren nicht beibehalten – sie verbrauchen mehr und werden dementsprechend heißer. Es kann davon ausgegangen werden (obwohl dies nicht offiziell bestätigt wurde), dass der Anstieg des Stromverbrauchs nicht nur mit einer Erhöhung der Frequenz verbunden ist, sondern auch mit der Tatsache, dass aufgrund der erwarteten Verwendung von „virtuellem Multiprocessing“ die Belastung des Kerns Im Durchschnitt erhöht sich daher der durchschnittliche Stromverbrauch. „Alte“ Mainboards in einigen Fällen möglicherweise mit neuen CPUs kompatibel aber nur, wenn sie „mit Vorbehalt“ durchgeführt wurden. Grob gesagt waren diejenigen Hersteller, die ihre Leiterplatten nach Intels eigenen Empfehlungen hinsichtlich der Leistungsaufnahme des Pentium 4 herstellten, im Nachteil gegenüber denen, die ein wenig „auf Nummer sicher“ gingen, indem sie einen VRM mit einem Spielraum auf die Platine setzten und es entsprechend aufteilen. Aber das ist nicht alles. Zusätzlich zu Betriebssystem, BIOS und Platinenelektronik mit Hyper-Threading-Technologie Auch der Chipsatz muss kompatibel sein. Daher werden nur diejenigen, deren Motherboard auf einem der neuen Chipsätze mit Unterstützung für 533 MHz FSB basiert: i850E, i845E, i845PE/GE, glückliche Besitzer von zwei Prozessoren zum Preis von einem sein :) Der i845G sticht ein wenig heraus, da es sich um die erste Revision dieses Hyper-Threading-Chipsatzes handelt nicht unterstützen, später ist bereits kompatibel. Nun, es scheint, als hätten wir die Theorie und Kompatibilität geklärt. Aber lasst uns nichts überstürzen. OK, wir haben zwei „logische“ Prozessoren, wir haben Hyper-Threading, wow! das ist cool. Aber wie oben erwähnt hatten wir physisch nur einen Prozessor und haben ihn immer noch. Warum ist dann eine so komplexe „Emulations“-Technologie erforderlich, die man verwerfen kann, was man Freunden und Bekannten stolz vorführen kann? Task-Manager mit Diagrammen der Belastung auf zwei CPUs? Hyper-Threading: Warum wird es benötigt?Anders als üblich widmen wir uns in diesem Artikel etwas mehr Aufmerksamkeit als sonst Argumentation also keine technische Prosa (wo im Allgemeinen alles recht eindeutig interpretiert wird und auf der Grundlage der gleichen Ergebnisse völlig unabhängige Menschen am häufigsten dennoch sehr ähnliche Schlussfolgerungen ziehen), sondern „technische Texte“, also ein Versuch zu verstehen, was Intel uns bietet und wie wir es angehen sollten. Ich habe bereits mehrmals in der „Redaktionskolumne“ auf unserer Website geschrieben und möchte hier wiederholen, dass dieses Unternehmen, wenn man genau hinschaut, nie anders war absolut Die Perfektion ihrer Produkte, darüber hinaus erwiesen sich Variationen zu gleichen Themen anderer Hersteller teilweise als viel interessanter und konzeptionell stimmiger. Es stellte sich jedoch heraus, dass es nicht notwendig ist, alles perfekt zu machen; Hauptsache, der Chip repräsentiert eine Idee, und diese Idee kam zur richtigen Zeit und am richtigen Ort. Und auch, damit andere es einfach nicht haben. Dies war beim Pentium der Fall, als Intel den AMD Am5x86 mit einer leistungsstarken FPU dem sehr schnellen Integer-Prozessor gegenüberstellte. Dies war beim Pentium II der Fall, der einen dicken Bus und einen schnellen Second-Level-Cache erhielt, dank dem nicht alle Sockel-7-Prozessoren mithalten konnten. Dies war auch der Fall (naja, zumindest halte ich es für einen vollendete Tatsachen) mit dem Pentium 4, der alle anderen mit der Präsenz der SSE2-Unterstützung und dem rasanten Frequenzanstieg konkurrierte und auch de facto gewann. Jetzt bietet uns Intel Hyper-Threading an. Und wir ermutigen Sie keineswegs dazu, in heiliger Hysterie mit der Stirn gegen die Wand zu schlagen und zu rufen: „Herr, erbarme dich“, „Allah ist groß“ oder „Der Intellekt regiert für immer.“ Nein, wir laden Sie nur dazu ein, darüber nachzudenken, warum ein Hersteller, der für die Kompetenz seiner Ingenieure (kein Wort über Vermarkter! :)) und die enormen Forschungsausgaben bekannt ist, uns diese Technologie anbietet. Hyper-Threading als „nur einen weiteren Marketing-Gimmick“ zu bezeichnen, ist natürlich so einfach wie Birnen schälen. Vergessen Sie jedoch nicht, dass dies der Fall ist Technologie Es erfordert Recherche, Geld für die Entwicklung, Zeit und Mühe. Wäre es nicht einfacher, für einen geringeren Betrag weitere hundert PR-Manager einzustellen oder ein Dutzend schönerer Werbevideos zu erstellen? Anscheinend ist es nicht einfacher. Was bedeutet: „Da ist etwas drin.“ Jetzt werden wir versuchen, nicht einmal zu verstehen, was dabei geschah, sondern vielmehr, was die Entwickler der IAG (Intel Architecture Group) leitete, als sie die Entscheidung trafen (und eine solche Entscheidung wurde wahrscheinlich auch getroffen!), „diese interessante Idee“ weiterzuentwickeln , oder in einer Truhe aufzubewahren für Ideen, die lustig, aber nutzlos sind. Seltsamerweise reicht es aus, zu verstehen, wie ein Multitasking-Betriebssystem funktioniert, um zu verstehen, wie Hyper-Threading funktioniert. Und wirklich gut, es erfüllt irgendwie eins Dutzende Aufgaben gleichzeitig verarbeiten? Dieses „Geheimnis“ ist seit langem jedem bekannt – tatsächlich läuft jeweils nur noch einer (auf einem Einprozessorsystem), der Wechsel zwischen Codeteilen für verschiedene Aufgaben erfolgt nur so schnell, dass die Illusion entsteht Es entsteht eine große Anzahl gleichzeitig laufender Anwendungen. Im Wesentlichen bietet uns Hyper-Threading dasselbe, jedoch in Hardware implementiert, innerhalb der CPU selbst. Es gibt eine Reihe verschiedener Ausführungseinheiten (ALU, MMU, FPU, SIMD) und es gibt zwei „gleichzeitig“ ausgeführte Codefragmente. Ein spezieller Block überwacht, welche Befehle von jedem Fragment gerade ausgeführt werden müssen, und prüft dann, ob sie mit Arbeit geladen sind Alle Prozessorausführungseinheiten. Wenn einer von ihnen untätig ist, und er ist derjenige, der diesen Befehl ausführen kann Es wird an ihn weitergegeben. Selbstverständlich gibt es auch einen Mechanismus, um die Ausführung eines Befehls zu erzwingen, andernfalls könnte ein Prozess den gesamten Prozessor (alle Ausführungseinheiten) übernehmen und die Ausführung des zweiten Codeabschnitts (ausgeführt auf der zweiten „virtuellen CPU“) würde unterbrochen werden. Soweit wir wissen, ist dieser Mechanismus (noch?) nicht intelligent, d. h. er ist nicht funktionsfähig verschieden Prioritäten, sondern wechselt einfach Befehle aus zwei verschiedenen Ketten in der Reihenfolge ihrer Priorität ab, d. h. einfach nach dem Prinzip „Ich habe Ihren Befehl ausgeführt, jetzt geben Sie einem anderen Thread Platz.“ Es sei denn natürlich, es kommt zu einer Situation, in der die Befehle einer Kette hinsichtlich der Ausführungsblöcke nirgends mit den Befehlen einer anderen konkurrieren. In diesem Fall erhalten wir eine wirklich 100 % parallele Ausführung zweier Codefragmente. Lassen Sie uns nun darüber nachdenken, warum Hyper-Threading potenziell gut ist und was nicht. Die offensichtlichste Konsequenz seines Einsatzes ist eine Steigerung der Effizienz des Prozessors. Wenn tatsächlich eines der Programme hauptsächlich Ganzzahlarithmetik verwendet und das zweite Gleitkommaberechnungen durchführt, dann tut die FPU während der Ausführung des ersten einfach nichts, und während der Ausführung des zweiten Programms tut die ALU im Gegenteil einfach nichts Nichts. Es scheint, dass dies das Ende sein könnte. Wir haben jedoch nur die ideale Option (im Hinblick auf die Verwendung von Hyper-Threading) in Betracht gezogen. Schauen wir uns nun etwas anderes an: Beide Programme nutzen die gleichen Prozessorblöcke. Es ist klar, dass es in diesem Fall ziemlich schwierig ist, die Ausführung zu beschleunigen, da sich die physische Anzahl der Ausführungseinheiten aufgrund der „Virtualisierung“ nicht geändert hat. Aber wird es nicht langsamer? Lass es uns herausfinden. Im Fall eines Prozessors ohne Hyper-Threading haben wir einfach eine „ehrliche“ alternative Ausführung zweier Programme auf demselben Kern mit einem Arbiter in Form eines Betriebssystems (das selbst ein anderes Programm ist) und der Gesamtzeit von ihre Wirkungsweise wird bestimmt:
Was haben wir im Fall von Hyper-Threading? Das Schema wird etwas anders:
Es bleibt, das zuzugeben und hier handelt Intel ganz logisch: Nur Punkt Nummer drei konkurriert hinsichtlich der Leistung miteinander, und wenn im ersten Fall die Aktion in Software und Hardware ausgeführt wird (das Betriebssystem steuert den Wechsel zwischen Threads und nutzt dafür Prozessorfunktionen), dann sind wir im zweiten Fall tatsächlich haben vollständig Hardware-Lösung Der Prozessor erledigt alles selbst. Theoretisch ist eine Hardwarelösung immer schneller. Betonen wir: theoretisch. Wir haben noch einen Workshop vor uns. Aber das ist nicht alles. Einer der gravierendsten, nein, keine Mängel, sondern eher unangenehme Momente ist auch, dass Befehle leider nicht im luftleeren Raum ausgeführt werden, sondern der Pentium 4 sich mit klassischem x86-Code auseinandersetzen muss, der aktiv die direkte Adressierung von Zellen und nutzt sogar ganze Arrays, die sich außerhalb des Prozessors im RAM befinden. Und im Allgemeinen liegen dort übrigens am häufigsten die meisten verarbeiteten Daten :). Daher „kämpfen“ unsere virtuellen CPUs untereinander nicht nur um Register, sondern auch um den gemeinsamen Prozessorbus, an dem Daten einfach nicht zur CPU gelangen können. Es gibt jedoch einen subtilen Punkt: Heutzutage befinden sich „ehrliche“ Dual-Prozessor-Systeme auf Pentium III und Xeon in genau der gleichen Situation! Denn unser guter alter AGTL+-Bus, den alle heutigen Intel-Prozessoren vom berühmten Pentium Pro geerbt haben (später wurde er nur noch modifiziert, die Ideologie wurde aber praktisch nicht angetastet), ist IMMER EINS, egal wie viele CPUs im System verbaut sind. Das ist so ein „Prozessorkoaxial“ :). Lediglich AMD hat auf x86 mit seinem Athlon MP versucht, von diesem Schema abzuweichen. AMD 760MP/760MPX wechselt von jedem Prozessor zur Northbridge des Chipsatzes separate Reifen. Aber selbst in einer so „fortgeschrittenen“ Version sind wir nicht weit von Problemen entfernt denn eigentlich haben wir genau einen Speicherbus und in diesem Fall ist es bereits überall (wir erinnern Sie daran, dass es sich um x86-Systeme handelt). Allerdings hat jede Wolke einen Silberstreif am Horizont, und selbst in diesem im Allgemeinen nicht sehr angenehmen Moment kann Hyper-Threading einige Vorteile bringen. Fakt ist, dass wir theoretisch eine deutliche Leistungssteigerung nicht nur dann sehen sollten, wenn mehrere Aufgaben unterschiedliche Funktionsblöcke des Prozessors nutzen, sondern auch, wenn die Aufgaben unterschiedlich mit Daten im RAM arbeiten. Um auf das alte Beispiel in neuer Form zurückzukommen: Wenn eine Anwendung intensiv etwas „intern“ berechnet, während die andere ständig Daten aus dem RAM pumpt, dann sollte sich die Gesamtausführungszeit bei Verwendung von Hyper-Threading theoretisch verringern, selbst wenn Sie verwenden dieselben Befehlsausführungsblöcke, schon allein deshalb, weil Befehle zum Lesen von Daten aus dem Speicher verarbeitet werden können, während unsere erste Anwendung intensiv etwas liest. Zusammenfassend lässt sich sagen: Aus theoretischer Sicht sieht die Hyper-Threading-Technologie sehr gut aus und wir würden sagen: „ausreichend“, das heißt, sie entspricht den heutigen Realitäten. Es ist schon recht selten, dass ein Benutzer ein einsames Fenster auf dem Bildschirm öffnet, in dem jeder gleichzeitig Musik hören, im Internet surfen, CDs mit seinen Lieblings-MP3s brennen und vor diesem Hintergrund vielleicht sogar ein Baller- oder Strategiespiel spielen möchte , die, wie Sie wissen, den Prozessor mit schrecklicher Kraft „lieben“ :). Andererseits ist bekannt, dass eine bestimmte Implementierung mit ihrer „Krümmung“ manchmal jede der besten Ideen zunichte machen kann, und das haben wir auch in der Praxis schon mehr als einmal erlebt. Nachdem wir mit der Theorie fertig sind, gehen wir nun zur Praxis und den Tests über. Sie sollten uns helfen, die zweite Hauptfrage zu beantworten: Ist Hyper-Threading jetzt so gut und nicht als Idee, sondern als konkrete Umsetzung dieser Idee „in Silizium“. Testen Prüfstand:
Software:
Anders als üblich werden wir heute nicht die Leistung des neuen Pentium 4 3,06 GHz im Vergleich zu Vorgängermodellen oder Konkurrenzprozessoren testen. Denn das ist grundsätzlich bedeutungslos. Die Tests, aus denen sich unsere Methodik zusammensetzt, haben sich über einen längeren Zeitraum nicht verändert, und diejenigen, die die notwendigen Vergleiche anstellen möchten, können die Daten aus früheren Materialien verwenden, aber wir werden uns auf das Wesentliche konzentrieren, ohne uns mit den Details zu beschäftigen. Und das Wichtigste in diesem Material ist, wie Sie sich vorstellen können, die Untersuchung der Hyper-Threading-Technologie und ihrer Auswirkungen auf die Leistung Was? Keine so leere Frage, wie sich herausstellt. Lassen wir uns jedoch nicht überstürzen. Beginnen wir mit den traditionellen Tests, durch die wir uns (im Kontext dieses Materials) den wichtigsten Tests reibungslos nähern. WAV in MP3 kodieren (Lahm) |
Beliebt:
Neu
- Telefone mit leistungsstarken Akkus
- Intel Pentium 4-Sockel-Prozessoren
- Der Bildschirm eines Mobilgeräts zeichnet sich durch seine Technologie, Auflösung, Pixeldichte, Diagonallänge, Farbtiefe usw. aus.
- Reparaturbetrieb für Audio- und Videogeräte in Barnaul. Verbesserung des Klangs der Corvette 35 ac 028
- Xiaomi Redmi – Ordner erstellen und Dateien übertragen
- Deutscher Klimenko: Die Partner von Megafon verbinden in aller Stille kostenpflichtige Abonnements mit Abonnenten
- Samsung Galaxy S3: Besitzerbewertungen und Smartphone-Eigenschaften
- Plugins – Webasyst-Dokumentation So installieren Sie ein Plugin
- Gründe, warum Fotos auf Instagram nicht geladen werden Warum Fotos nicht auf Instagram geladen werden
- „Ay-ay-ay, ich werde dich trotzdem finden!