dom - Konfiguracja Internetu
Generacja Celeronów Intela. Linie i oznaczenia współczesnych procesorów Intel

Kupując dysk flash, wiele osób zadaje pytanie: „jak wybrać odpowiedni dysk flash”. Oczywiście wybór dysku flash nie jest taki trudny, jeśli dokładnie wiesz, w jakim celu jest kupowany. W tym artykule postaram się udzielić pełnej odpowiedzi na postawione pytanie. Postanowiłem napisać jedynie o tym na co zwrócić uwagę przy zakupie.

Pendrive (napęd USB) to dysk przeznaczony do przechowywania i przesyłania informacji. Pendrive działa bardzo prosto bez baterii. Wystarczy podłączyć go do portu USB komputera.

1. Interfejs dysku flash

W tej chwili dostępne są 2 interfejsy: USB 2.0 i USB 3.0. Jeśli zdecydujesz się na zakup dysku flash, polecam wziąć dysk flash z interfejsem USB 3.0. Interfejs ten powstał niedawno, jego główną cechą jest duża prędkość przesyłania danych. Porozmawiamy o prędkościach nieco niższych.


Jest to jeden z głównych parametrów, na który należy zwrócić uwagę w pierwszej kolejności. Teraz sprzedawane są dyski flash o pojemności od 1 GB do 256 GB. Koszt dysku flash będzie bezpośrednio zależał od ilości pamięci. Tutaj musisz od razu zdecydować, w jakim celu kupujesz dysk flash. Jeśli zamierzasz przechowywać na nim dokumenty tekstowe, wystarczy 1 GB. Do pobierania i przesyłania filmów, muzyki, zdjęć itp. musisz wziąć im więcej, tym lepiej. Obecnie najpopularniejsze dyski flash mają pojemność od 8 GB do 16 GB.

3. Materiał obudowy



Korpus może być wykonany z tworzywa sztucznego, szkła, drewna, metalu itp. Większość dysków flash jest wykonana z tworzywa sztucznego. Nie mogę tu nic doradzić, wszystko zależy od preferencji kupującego.

4. Szybkość przesyłania danych

Wcześniej pisałem, że istnieją dwa standardy: USB 2.0 i USB 3.0. Teraz wyjaśnię, czym się różnią. Standard USB 2.0 zapewnia prędkość odczytu do 18 Mbit/s i prędkość zapisu do 10 Mbit/s. Standard USB 3.0 zapewnia prędkość odczytu 20-70 Mbit/s i prędkość zapisu 15-70 Mbit/s. Tutaj myślę, że nie trzeba nic wyjaśniać.





Obecnie w sklepach można znaleźć dyski flash o różnych kształtach i rozmiarach. Mogą mieć postać biżuterii, fantazyjnych zwierzątek itp. Tutaj radzę zabrać dyski flash z nasadką ochronną.

6. Ochrona hasłem

Istnieją dyski flash wyposażone w funkcję ochrony hasłem. Taka ochrona odbywa się za pomocą programu znajdującego się na samym dysku flash. Hasło można ustawić zarówno na całym dysku flash, jak i na części znajdujących się na nim danych. Taki pendrive przyda się przede wszystkim osobom przenoszącym na niego informacje firmowe. Według producentów, jeśli je zgubisz, nie musisz się martwić o swoje dane. Nie takie proste. Jeśli taki pendrive wpadnie w ręce wyrozumiałej osoby, to zhakowanie go to tylko kwestia czasu.



Te dyski flash wyglądają bardzo pięknie, ale nie polecam ich zakupu. Ponieważ są bardzo delikatne i często pękają na pół. Ale jeśli jesteś schludną osobą, nie wahaj się tego wziąć.

Wniosek

Jak zauważyłeś, istnieje wiele niuansów. A to dopiero wierzchołek góry lodowej. Moim zdaniem najważniejszymi parametrami przy wyborze są: standard pendrive'a, pojemność i szybkość zapisu i odczytu. I wszystko inne: projekt, materiał, opcje - to osobisty wybór każdego.

Dzień dobry, moi drodzy przyjaciele. W dzisiejszym artykule chcę porozmawiać o tym, jak wybrać odpowiednią podkładkę pod mysz. Kupując dywan, wiele osób nie przywiązuje do tego żadnej wagi. Jak się jednak okazało, temu punktowi należy poświęcić szczególną uwagę, ponieważ... Mata jest jednym ze wskaźników komfortu pracy przy komputerze. Dla zapalonego gracza wybór dywanu to zupełnie inna historia. Przyjrzyjmy się, jakie rodzaje podkładek pod mysz zostały dziś wynalezione.

Opcje maty

1. Aluminium
2. Szkło
3. Plastik
4. Gumowany
5. Dwustronne
6. Hel

A teraz chciałbym omówić każdy typ bardziej szczegółowo.

1. Najpierw chcę rozważyć trzy opcje na raz: plastik, aluminium i szkło. Te dywaniki są bardzo popularne wśród graczy. Na przykład maty plastikowe są łatwiejsze do znalezienia w sprzedaży. Mysz ślizga się szybko i dokładnie po tych matach. A co najważniejsze, te podkładki pod mysz są odpowiednie zarówno dla myszy laserowych, jak i optycznych. Trochę trudniej będzie znaleźć maty aluminiowe i szklane. Tak, i będą dużo kosztować. To prawda, że ​​\u200b\u200bjest ku temu powód - będą służyć przez bardzo długi czas. Tego typu dywany mają drobne wady. Wiele osób twierdzi, że szeleszczą podczas pracy i są nieco chłodne w dotyku, co u niektórych użytkowników może powodować dyskomfort.


2. Maty gumowane (szmaciane) mają miękki poślizg, ale dokładność ich ruchów jest gorsza. Dla zwykłych użytkowników taka mata będzie w sam raz. I są znacznie tańsze niż poprzednie.


3. Podkładki dwustronne to moim zdaniem bardzo ciekawy rodzaj podkładek. Jak sama nazwa wskazuje, dywany te mają dwie strony. Zwykle jedna strona charakteryzuje się dużą szybkością, a druga dużą precyzją. Zdarza się, że każda ze stron jest przeznaczona do konkretnej gry.


4. Maty helowe posiadają silikonową poduszkę. Podobno podtrzymuje rękę i łagodzi jej napięcie. Dla mnie osobiście okazały się najbardziej niewygodne. Zgodnie z przeznaczeniem przeznaczone są dla pracowników biurowych, którzy cały dzień siedzą przy komputerze. Te maty nie są odpowiednie dla zwykłych użytkowników i graczy. Mysz bardzo słabo ślizga się po powierzchni takich podkładek, a ich celność nie jest najlepsza.

Rozmiary mat

Istnieją trzy rodzaje dywanów: duże, średnie i małe. Tutaj wszystko zależy przede wszystkim od gustu użytkownika. Ale jak powszechnie uważa się, duże dywaniki nadają się do zabaw. Małe i średnie zabierane są głównie do pracy.

Projekt dywaników

W tym zakresie nie ma żadnych ograniczeń. Wszystko zależy od tego, co chcesz zobaczyć na swoim dywanie. Na szczęście teraz nie rysują niczego na dywanikach. Najpopularniejsze są loga gier komputerowych, takich jak Dota, Warcraft, Line itp. Jeśli jednak zdarzy się, że nie znajdziesz dywanu z wybranym wzorem, nie martw się. Już teraz możesz zamówić nadruk na dywanie. Ale takie maty mają wadę: po nałożeniu druku na powierzchnię maty jego właściwości ulegają pogorszeniu. Design w zamian za jakość.

Na tym chcę zakończyć artykuł. W swoim imieniu życzę Państwu dokonania właściwego wyboru i bycia z niego zadowolonym.
Każdemu, kto nie posiada myszki lub chce ją wymienić na inną, polecam zapoznać się z artykułem:

Komputery typu all-in-one firmy Microsoft zostały uzupełnione o nowy model typu all-in-one o nazwie Surface Studio. Microsoft zaprezentował niedawno swój nowy produkt na wystawie w Nowym Jorku.


Notatka! Kilka tygodni temu napisałem artykuł, w którym recenzowałem urządzenie Surface all-in-one. Ten batonik został zaprezentowany wcześniej. Aby zobaczyć artykuł kliknij.

Projekt

Microsoft nazywa swój nowy produkt najcieńszym batonikiem na świecie. Ważąc 9,56 kg, grubość wyświetlacza wynosi zaledwie 12,5 mm, pozostałe wymiary to 637,35 x 438,9 mm. Wymiary wyświetlacza to 28 cali przy rozdzielczości większej niż 4K (4500x3000 pikseli) i proporcjach 3:2.


Notatka! Rozdzielczość wyświetlacza 4500x3000 pikseli odpowiada 13,5 milionom pikseli. To o 63% więcej niż rozdzielczość 4K.

Sam wyświetlacz typu „wszystko w jednym” jest wrażliwy na dotyk i mieści się w aluminiowej obudowie. Na takim wyświetlaczu bardzo wygodnie jest rysować rysikiem, co ostatecznie otwiera nowe możliwości wykorzystania batonika. Moim zdaniem ten model batonika przypadnie do gustu osobom kreatywnym (fotografom, projektantom itp.).


Notatka! Osobom wykonującym zawody kreatywne radzę zapoznać się z artykułem, w którym recenzowałem komputery typu all-in-one o podobnej funkcjonalności. Kliknij na podświetlony: .

Do wszystkiego, co napisano powyżej, dodam, że główną cechą batonika będzie jego możliwość błyskawicznej przemiany w tablet o ogromnej powierzchni roboczej.


Notatka! Nawiasem mówiąc, Microsoft ma kolejny niesamowity batonik. Aby się o tym przekonać, przejdź do.

Dane techniczne

Charakterystykę przedstawię w formie zdjęcia.


Z peryferii zauważam: 4 porty USB, złącze Mini-Display Port, port sieci Ethernet, czytnik kart, gniazdo audio 3,5 mm, kamerkę internetową 1080p, 2 mikrofony, system audio 2.1 Dolby Audio Premium, Wi-Fi i Bluetooth 4,0. Batonik obsługuje także kontrolery bezprzewodowe Xbox.





Cena

W przypadku zakupu komputera typu all-in-one zostanie na nim zainstalowana aktualizacja Windows 10 Creators Update. System ten powinien zostać wydany wiosną 2017 roku. Ten system operacyjny będzie miał zaktualizowane programy Paint, Office itp. Cena komputera typu all-in-one będzie wynosić od 3000 dolarów.
Kochani piszcie w komentarzach co myślicie o tym batoniku, zadawajcie pytania. Chętnie porozmawiam!

Firma OCZ zademonstrowała nowe dyski SSD VX 500. Dyski te będą wyposażone w interfejs Serial ATA 3.0 i będą wykonane w formacie 2,5 cala.


Notatka! Wszystkich zainteresowanych tym, jak działają dyski SSD i jak długo działają, można przeczytać w artykule, który napisałem wcześniej:
Nowe produkty wykonane są w technologii 15 nanometrów i będą wyposażone w mikrochipy pamięci flash Tochiba MLC NAND. Kontrolerem w dyskach SSD będzie Tochiba TC 35 8790.
Gama dysków VX 500 będzie obejmować pojemności 128 GB, 256 GB, 512 GB i 1 TB. Według producenta prędkość odczytu sekwencyjnego wyniesie 550 MB/s (dotyczy to wszystkich dysków tej serii), natomiast prędkość zapisu wyniesie od 485 MB/s do 512 MB/s.


Liczba operacji wejścia/wyjścia na sekundę (IOPS) przy blokach danych o rozmiarze 4 KB może osiągnąć 92 000 podczas odczytu i 65 000 podczas zapisu (wszystko to jest losowe).
Grubość dysków OCZ VX 500 wyniesie 7 mm. Umożliwi to zastosowanie ich w ultrabookach.




Ceny nowych produktów będą kształtować się następująco: 128 GB – 64 dolary, 256 GB – 93 dolary, 512 GB – 153 dolary, 1 TB – 337 dolarów. Myślę, że w Rosji będą kosztować więcej.

Na targach Gamescom 2016 firma Lenovo zaprezentowała swój nowy, gamingowy komputer typu all-in-one IdeaCentre Y910.


Notatka! Wcześniej pisałem artykuł, w którym recenzowałem już monobloki gamingowe różnych producentów. Artykuł ten można obejrzeć klikając na ten.


Nowy produkt Lenovo otrzymał bezramkowy wyświetlacz o przekątnej 27 cali. Rozdzielczość wyświetlacza wynosi 2560x1440 pikseli (jest to format QHD), częstotliwość odświeżania wynosi 144 Hz, a czas reakcji 5 ms.


Monoblok będzie miał kilka konfiguracji. Maksymalna konfiguracja obejmuje procesor Intel Core i7 6. generacji i dysk twardy o pojemności do 2 TB lub 256 GB. Ilość pamięci RAM wynosi 32 GB DDR4. Za grafikę odpowiadać będzie karta graficzna NVIDIA GeForce GTX 1070 lub GeForce GTX 1080 z architekturą Pascal. Dzięki takiej karcie graficznej możliwe będzie podłączenie kasku wirtualnej rzeczywistości do batonika.
Z obrzeży batonika wyróżniłbym system audio Harmon Kardon z 5-watowymi głośnikami, modułem Wi-Fi Killer DoubleShot Pro, kamerką internetową, portami USB 2.0 i 3.0 oraz złączami HDMI.


Monoblok IdeaCentre Y910 w podstawowej wersji trafi do sprzedaży we wrześniu 2016 roku w cenie 1800 euro. Ale batonik w wersji „VR-ready” pojawi się w październiku w cenie 2200 euro. Wiadomo, że ta wersja będzie miała kartę graficzną GeForce GTX 1070.

MediaTek zdecydował się na modernizację swojego mobilnego procesora Helio X30. Dlatego teraz programiści z MediaTek projektują nowy procesor mobilny o nazwie Helio X35.


Chciałbym krótko porozmawiać o Helio X30. Procesor ten ma 10 rdzeni, które są połączone w 3 klastry. Helio X30 ma 3 odmiany. Pierwszy – najpotężniejszy – składa się z rdzeni Cortex-A73 o częstotliwości dochodzącej do 2,8 GHz. Dostępne są także bloki z rdzeniami Cortex-A53 o częstotliwości do 2,2 GHz oraz Cortex-A35 o częstotliwości 2,0 GHz.


Nowy procesor Helio X35 również ma 10 rdzeni i jest tworzony w technologii 10 nanometrów. Częstotliwość taktowania tego procesora będzie znacznie wyższa niż u poprzednika i będzie wynosić od 3,0 Hz. Nowy produkt pozwoli na wykorzystanie aż 8 GB pamięci RAM LPDDR4. Za grafikę w procesorze najprawdopodobniej będzie odpowiadał kontroler Power VR 7XT.
Sam dworzec można zobaczyć na zdjęciach w artykule. Widzimy w nich schowki. Jedna zatoka jest wyposażona w gniazdo jack 3,5 cala, a druga w gniazdo 2,5 cala. Dzięki temu do nowej stacji będzie można podłączyć zarówno dysk półprzewodnikowy (SSD), jak i dysk twardy (HDD).


Wymiary stacji dokującej Drive Dock to 160x150x85mm, a waga nie mniejsza niż 970 gramów.
Wiele osób prawdopodobnie ma pytanie dotyczące sposobu podłączania stacji dokującej Drive Dock do komputera. Odpowiadam: dzieje się to poprzez port USB 3.1 Gen 1. Według producenta prędkość odczytu sekwencyjnego wyniesie 434 MB/s, a w trybie zapisu (sekwencyjnego) 406 MB/s. Nowy produkt będzie kompatybilny z systemami Windows i Mac OS.


Urządzenie to będzie bardzo przydatne dla osób, które na profesjonalnym poziomie pracują z materiałami foto i wideo. Drive Dock można także używać do tworzenia kopii zapasowych plików.
Cena za nowe urządzenie będzie akceptowalna – wynosi 90 dolarów.

Notatka! Wcześniej Renduchinthala pracował dla Qualcomma. A od listopada 2015 roku przeniósł się do konkurencyjnej firmy Intel.


W wywiadzie Renduchintala nie mówił o procesorach mobilnych, a jedynie powiedział, cytuję: „Wolę mniej mówić, a więcej robić”.
W ten sposób główny menedżer Intela wywołał wielką intrygę swoim wywiadem. Pozostaje nam tylko czekać na nowe zapowiedzi w przyszłości.

Na początku stycznia Intel oficjalnie wprowadził nową generację procesorów Intel Rdzeń na architekturze Kaby Jezioro. Aktualizacja okazała się dość dziwna, dlatego dzisiaj pominiemy długie dyskusje i porozmawiamy tylko o tym, co naprawdę warto wiedzieć.

Fakt pierwszy: żadnych „tyk-tak”

Przez długi czas Intel stosował prosty schemat aktualizacji procesorów: „tik-tak”. W jednym roku zaktualizowano proces techniczny, a w następnym wypuszczono nową architekturę. Przez pierwsze kilka lat rytm utrzymywał się niemal bezbłędnie, jednak w ostatnich latach schemat zaczął zauważalnie słabnąć. A w przypadku Kaby Lake producent oficjalnie przyznał, że nie da się już żyć z „tik-tak” i dodawany jest do tego kolejny etap, zwany „optymalizacją”, w którym wykończone zostaną już stworzone kryształy. Niestety, właśnie w tę nową fazę wpadło jezioro Kaby.

Trudno powiedzieć, dlaczego Intel zdecydował się na zmianę. Zdaniem samej firmy winne są wysokie koszty przejścia na nowe procesy technologiczne. My jednak uważamy, że większą winę ponosi ogólny spadek sprzedaży na rynku komputerowym – coraz trudniej jest odzyskać pieniądze przy tak krótkich cyklach produkcyjnych.

Fakt drugi: architektura

Pomimo nowej nazwy i solidnego słowa „optymalizacja”, technicznie i strukturalnie Kaby Lake dokładnie kopiuje zeszłoroczne Skylake. Struktura chipów, struktura pamięci, logika działania, zestawy instrukcji – wszystko pozostaje takie samo. Nawet wskaźniki liczbowe nie uległy zmianie: maksymalnie cztery rdzenie, 8 MB pamięci podręcznej i 16 linii PCIe do komunikacji z kartą graficzną. Generalnie poza nazwą nie ma żadnych innowacji.

Fakt trzeci: proces techniczny

Proces techniczny również pozostał niezmieniony. Kaby Lake jest produkowany w tych samych standardach 14 nm. Dopiero teraz do ich nazwy dodano znak plus (14 nm+), co faktycznie ukrywa część aktualizacji. W jeziorze Kaby wysokość żeberek i odległość między nimi nieznacznie wzrosły w przypadku tranzystorów. W rezultacie prądy upływowe i rozpraszanie ciepła nieznacznie spadły, co umożliwiło zwiększenie częstotliwości kryształów.

Fakt czwarty: częstotliwość robocza



Oficjalny rekord częstotliwości dla Core i7-7700K to 7383 MHz. Nawiasem mówiąc, zainstalowany przez rosyjski zespół na płycie głównej ASUS Maximus IX Apex.

W porównaniu do procesorów poprzedniej generacji częstotliwość nowych kryształów wzrosła średnio o 200-300 MHz. Jednocześnie TDP modeli pozostało takie samo. Oznacza to, że przy tym samym 90 W nowy Core i7-7700K podnosi poprzeczkę do 4,5 GHz, podczas gdy i7-6700K wzrósł tylko do 4,2 GHz.

Co więcej, procesory również lepiej się podkręcają. Jeśli średnio udało się wycisnąć 4,4-4,5 GHz ze Skylake, to dla Kaby Lake 4,8 GHz uważa się za normę, a przy udanym splocie okoliczności 5 GHz. I tak, mówimy teraz o pracy pod konwencjonalnymi chłodnicami powietrza.

Od razu zauważmy, że tak jak poprzednio, wszystkie kryształy Intel Core i Pentium można podkręcać na magistrali, a modele z indeksem „K” można również podkręcać na mnożniku. Nawiasem mówiąc, odblokowane kryształy są teraz dostępne nie tylko w seriach Core i5 i Core i7, ale także w Core i3. I rodzina Pentium, najtańsze Kaby Lake, obsługuje teraz Hyper-Threading.

Fakt piąty: wbudowane jądro

Zintegrowana grafika pozostaje również w Kaby Lake. Ale jeśli wcześniej był to Intel HD Graphics 530, teraz tak jest Grafika HD 630 . Ewolucja? Wcale nie, na pokładzie są jeszcze te same 24 bloki o częstotliwości 1150 MHz. Nowy numer w tytule został dodany dzięki zaktualizowanemu silnikowi multimedialnemu. Szybka synchronizacja. Może teraz dekodować wideo H.265 i VP.9 na bieżąco. Innymi słowy, jeśli jesteś zapalonym koneserem filmów 4K lub zamierzasz streamować w tej rozdzielczości, wiedz, że w przypadku Kaby Lake procesor nie będzie już obciążony w 100%.

Jeśli chodzi o samą oprawę graficzną, trudno na nią narzekać. Bez problemu radzi sobie z renderowaniem Windowsa, a jako bonus radzi sobie także z niezbyt wymagającymi grami. Może wioska w Świat Rimów zbudować, a w nim więzienie Architekt więzienia spierdalaj, a nawet wejdź DOTA 2 prowadzić. Ten ostatni w Full HD i na średnich ustawieniach daje całkiem przyzwoite 62 fps.

Fakt szósty: chipsety

Wraz z Kaby Lake, Intel wprowadził także nowe chipsety z serii 200. To prawda, że ​​​​jest w nich tyle samo zmian, co w procesorach. Starsze modele, Z270, otrzymały dodatkowe cztery linie PCIe, do których producenci płyt głównych mogą podłączyć dodatkowe porty USB lub M.2. Szczerze mówiąc, lista nie jest szczególnie intrygująca, ale niedobory w pewnym stopniu rekompensują producenci płyt.

I tak np. w topowych płytach głównych ASUS Apex pojawiła się technologia DIMM.2, która pozwala na montaż dwóch dysków M.2 w gnieździe RAM. Nasz testowy Maximus IX Formula można z łatwością podłączyć do niestandardowego „podgrzewacza wody” w celu usuwania ciepła z obwodów zasilania.

Jeśli jednak żadna z tych nowości nie przypadła Ci do gustu, mamy dla Ciebie przyjemny fakt. Nie zmienili gniazda dla Kaby Lake, pozostawiając znane już LGA 1151. Oznacza to, że nowe procesory świetnie radzą sobie na starych płytach głównych Z170 Express, ale Skylake działa dobrze na Z270.

Fakt siódmy: Produktywność

Wyniki testu
procesor Intel Core i7-7700K Intel Core i7-6700K
Cinebencha R15
Jeden rdzeń 196 175
Wszystkie rdzenie 988 897
Mnożnik 5,05 5,11
WinRar (KB/s)
Jeden rdzeń 2061 1946
Wszystkie rdzenie 11258 10711
TrueCrypt (MB/s)
AES-Twofish-Serpent 336 295
PCMark (praca)
Praca 5429 5281
Powstanie Tomb Raidera
1920x1080, bardzo wysoka 118,1 119
Rainbow Six: Siege Toma Clancy’ego
1920x1080, ultra 115,7 114,9
Oddział Toma Clancy’ego
1920x1080, maks 93 92,6

I na koniec coś najważniejszego: wydajność. Testował nas starszy przedstawiciel linii - Core i7-7700K, który zastąpił Core i7-6600K. Jak już powiedzieliśmy, technicznie kryształy różnią się jedynie częstotliwością: w trybie Turbo Boost nowy produkt wytwarza o 300 MHz więcej, a w standardzie utrzymuje prędkość o 200 MHz wyższą. W rzeczywistości ta różnica w częstotliwości odpowiada za wzrost wydajności. We wszystkich zadaniach i7-7700K jest o około 5-6% szybszy niż jego poprzednik. A przy porównaniu przy tej samej częstotliwości różnica mieści się w błędzie pomiaru.

Jeśli chodzi o temperaturę procesora, tutaj nic się nie zmieniło. Na granicy procesor bez problemu osiąga 80°C. Jednak nasz procesor został skalpowany i nawet przy częstotliwości 4,8 GHz nie nagrzewał się powyżej 70°C.

* * *

Intel Core i7 siódmej generacji trudno nazwać „nowym”. Zasadniczo mamy ten sam Skylake, ale przy nieco wyższych częstotliwościach. Czy to dobrze, czy źle, oceń sam, to jest nasza opinia. Jeśli używasz stosunkowo nowej architektury Intel (Skylake lub Haswell), nie ma sensu aktualizować do Kaby Lake. Ale jeśli budujesz komputer od zera, to do czasu premiery AMD Ryzen siódmy rdzeń jest jedyną słuszną opcją.

Dziękujemy firmie ASUS za dostarczony sprzęt.

Stanowisko badawcze
Chłodzenie Thermalright Macho HR-02
Płyta główna Formuła ASUS ROG Maximus IX
Pamięć 2x 4 GB DDR4-2666 MHz Kingston HyperX Fury
Karta graficzna NVIDIA GeForce GTX 1070
Napędy Toshiba OCZ RD400 (512 GB)
jednostka mocy Hiper K900
Dodatkowo Windows 10 64-bitowy
Sterowniki NVIDIA 378.41

Dane techniczne Core i7
procesor Intel Core i7-7700K Intel Core i7-7700
Architektura Jezioro Kaby Jezioro Kaby
Proces technologiczny 14 nm 14 nm
Gniazdo elektryczne LGA1151 LGA1151
Liczba rdzeni/wątków 4/8 szt. 4/8 szt.
Rozmiar pamięci podręcznej L3 8 MB 8 MB
Standardowa częstotliwość zegara 4,2 GHz 3,6 GHz
4,5 GHz 4,2 GHz
Liczba kanałów pamięci 2 szt. 2 szt.
Obsługiwany typ pamięci DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600
16 16
Pakiet termiczny (TDP) 91 W 65 W
Cena na styczeń 2017r 20700 rubli (345 dolarów) 18 600 rubli (310 dolarów)

Dane techniczne Core i5
procesor Rdzeń i5-7600K Rdzeń i5-7600 Rdzeń i5-7500 Rdzeń i5-7400
Architektura Jezioro Kaby Jezioro Kaby Jezioro Kaby Jezioro Kaby
Proces technologiczny 14 nm 14 nm 14 nm 14 nm
Gniazdo elektryczne LGA1151 LGA1151 LGA1151 LGA1151
Liczba rdzeni/wątków 4/4 szt. 4/4 szt. 4/4 szt. 4/4 szt.
Rozmiar pamięci podręcznej L3 6 MB 6 MB 6 MB 6 MB
Standardowa częstotliwość zegara 3,8 GHz 3,5 GHz 3,4 GHz 3,0 GHz
Maksymalna częstotliwość w trybie Turbo Boost 4,2 GHz 4,1 GHz 3,8 GHz 3,5 GHz
Liczba kanałów pamięci 2 szt. 2 szt. 2 szt. 2 szt.
Obsługiwany typ pamięci DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600
Liczba obsługiwanych linii PCI Express 3.0 16 16 16 16
Pakiet termiczny (TDP) 91 W 65 W 65 W 65 W
Cena na styczeń 2017r 14500 rubli (242 dolarów) 13200 rubli (220 dolarów) 12 000 rubli (200 dolarów) 11100 rubli (185 dolarów)

Specyfikacje Core i3
procesor Rdzeń i3-7350K Rdzeń i3-7320 Rdzeń i3-7300 Rdzeń i3-7100
Architektura Jezioro Kaby Jezioro Kaby Jezioro Kaby Jezioro Kaby
Proces technologiczny 14 nm 14 nm 14 nm 14 nm
Gniazdo elektryczne LGA1151 LGA1151 LGA1151 LGA1151
Liczba rdzeni/wątków 2/4 szt. 2/4 szt. 2/4 szt. 2/4 szt.
Rozmiar pamięci podręcznej L3 4MB 4MB 4MB 3 MB
Standardowa częstotliwość zegara 4,2 GHz 4,1 GHz 4,0 GHz 3,9 GHz
Maksymalna częstotliwość w trybie Turbo Boost -
Liczba kanałów pamięci 2 szt. 2 szt. 2 szt. 2 szt.
Obsługiwany typ pamięci DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600 DDR4-2400/DDR3L-1600
Liczba obsługiwanych linii PCI Express 3.0 16 16 16 16
Pakiet termiczny (TDP) 60 W 51 W 51 W 51 W
Cena na styczeń 2017r 10500 rubli (175 dolarów) 9300 rubli (155 dolarów) 8700 rubli (145 dolarów) 7000 rubli (117 dolarów)

Tabela krótko opisuje główne wczesne etapy rozwoju procesorów Intel i ich analogów. Tutaj przejdziemy do rozważenia procesorów Pentium.

Pentium – MP piątej generacji 22 marca 1993

Pentium to procesor superskalarny z 32-bitową szyną adresową i 64-bitową szyną danych, wyprodukowany w technologii submikronowej z komplementarną strukturą MOS i składający się z 3,1 miliona tranzystorów (na powierzchni 16,25 centymetra kwadratowego). Procesor zawiera następujące bloki.

Tabela z charakterystyką procesorów Intel, Cyrix, AMD

Typ procesora Pokolenie Rok wydania Szerokość magistrali danych Głębia bitowa Podstawowa pamięć podręczna, KB
Zespoły Dane
8088 1 1979 8 20 NIE
8086 1 1978 16 20 NIE
80286 2 1982 16 24 NIE
80386DX 3 1985 32 32 NIE
80386SX 3 1988 16 32 8
80486DX 4 1989 32 32 8
80486SX 4 1989 32 32 8
80486DX2 4 1992 32 32 8
80486DX4 5 1994 32 32 8 8
Pentium 5 1993 64 32 8 8
R-MMH 5 1997 64 32 16 16
Pentium Pro 6 1995 64 32 8 8
Pentium II 6 1997 64 32 16 16
Pentium II Celeron 6 1998 64 32 16 16
Pentium Xeon 6-7 1998
Pentium lll 6 1999 64 32 16 16
Pentium lV 7 2000 64 32 12 8
6 1997-1998 16-32-64 16-32-64 16-64
AMD K6, K6-2 6 1997-1999 16-64 16-64 32 32
AMD K6-3
AMD Athlona 7 1999 64 32 64 64
AMD Athlon 64 8 2003 64 64 64 64
Typ procesora Częstotliwość zegara magistrali, MHz
8088 4.77-8 4.77-8
8086 4.77-8 4.77-8 0.029 3.0
80286 6-20 6-20 0.130 1.5
80386DX 16-33 16-33 0.27 1.0
80386SX 16-33 16-33 0.27 1.0
80486DX 25-50 25-50 1.2 1.0-0.8
80486SX 25-50 25-50 1.1 0.8
80486DX2 25-40 50-80
80486DX4 25-40 75-120
Pentium 60-66 60-200 3.1-3.3 0.8-0.35
R-MMH 66 166-233 4.5 0.6-0.35
Pentium Pro 66 150-200 5.5 0.35
Pentium II 66 233-300 7.5 0.35-0.25
Pentium II Celeron 66/100 266-533 7.5-19 0.25
Pentium Xeon 100 400-1700 0.18
Pentium lll 106 450-1200 9.5-44 0.25-0.13
Pentium lV 400 1,4–3,4 GHz 42-125 0.18-0.09
Cyrix 6 x 86, Media GX, MX, Mll 75 187-233-300-333 3.5 0.35-0.25-0.22-0.18
AMD K6, K6-2 100 166-233- 8.8 0.35-0.25
AMD K63 450-550
AMD Athlona 266 500-2200 22 0.25
AMD Athlon 64 400 2 GHz 54-106 0.13-0.09

Tabela z charakterystyką procesorów Intel

Typ procesora Architektura Rok wydania Kryptonim Liczba tranzystorów w milionach Rdzeń, mm Pamięć podręczna L1, KB Pamięć podręczna L2, KB
Pentium P5 1993 P5 3.1 294 2x8 Zew.
1994-1995 P54 3.3 148 16 Zew.
1995-1996 Р54С 3.3 83-91 16 Zew.
MMH 1996-1997 Р55С 4.5 140-128 2x16 Zew.
ZAWODOWIEC P6 1995-1997 P6 5.5 306-195 2x8 256-1MB
Pentiuma 2 1997 Klamath 7.5 203 2x16 512
1998 Deschutes 7.5 131-118 2x16 512
Pentiuma 2 1999 Katmai 9.5 123 32 512
1999-2000 Kopalnia miedzi 28.1 106-90 32 256
2001-2002 Tualatyna 44.0 95-80 32 256
Pentium IV Wybuch sieci (IA-32e) 2000-2001 Willamette 42.0 217 8+12 256
2002-2004 Northwooda 55.0 146-131 8+12 512
2004-2005 Prescotta 125.0 122 16+12 1024
2005 Prescotta 2M 169 135 12+16 2048
2005-2006 Młyn Cedrowy 188.0 81 12+16 2048
Pentium D Rdzeń Intela 2005 Smithfield (2xPrescott) 230.0 206 12+6x2 2 x 1,0 MB
2006 Presler (2xMłyn Cedrowy) 376.0 162 800 2 x 2,0 MB
Core2 Duo Rdzeń Intela 2006 Allendale 167 111 32x2 2-4 MB
Rdzeń 2 Ekstremalny 2006 Conroe 291 143 32x2 4MB
Xeon P5, P6, Netburst 1998 Rdzeń Pentium2 Zobacz Pentium 2 512-1,0 MB
1999-2000 Garbarz Zobacz Pentium 3 512-2,0 MB
2001 Pielęgnować Zobacz Pentium 4 512-1,0 MB
Celeron P5, P6, Netburst 1998 Covingtona 7.5 131 32 NIE
1998-2000 Mendocino 19.0 154 32 128
2000 Kopalnia miedzi 28.1 105/90 32 128
2002 Tualatyna 44.0 80 32 256
2002 Willamette 42.0 217 8 128
2002-2004 Nordwooda 55.0 131 8 128
Celeron D Wybuch sieci 2004-2006 Prescotta 140.0 120 16 256
2004/2006 Młyn Cedrowy 188.0 81 16 512
Itanium IA-64 1999 Merced/Itanic 30.0-220 2-4 MB L3
Itanium 2 2003 Madison 410.0 6,0 MB L3
Itanium (dwurdzeniowy) 2006 Montecito 1720.0 596 16+16 KB L1 1 MB+256 KB L2 24 MB L3
Typ procesora Minimalny rozmiar struktury, mikrony Częstotliwość zegara magistrali, MHz Częstotliwość zegara procesora, MHz Pobór mocy, W Interfejs
Pentium 0.8 60-66 60-66 14-16 Gniazdo 4
0.6 50-66 75-120 8-12 Gniazdo 5.7
0.35 66 133-200 11-15 Gniazdo 7
MMH 0.28 66 166-233 13-17 Gniazdo 7
ZAWODOWIEC 0.60-0.35 60-66 150-200 37.9 Gniazdo 8
Pentiuma 2 0.35 66 233-300 34-43 Miejsce 1
0.25 66-100 266-450 18-27 Miejsce 1
Pentium 3 0.25 100-133 450-600 28-34 Miejsce 1
0.18 100 650-1,33 GHz 14-37 Gniazdo 1/Gniazdo 370
0.13 133 1,0–1,4 GHz 27-32 S 370
Pentium IV 0.18 400 1,3-2,0 GHz 48-66 Gniazdo 423/478
0,13 C 400-800 1,6–3,4 GHz 38-109 Gniazdo 478
0.09 533-800 2,66-3,8 GHz 89-115 Gniazdo 478/LGA775
0.09 800-1066 2.8-3.73 84-118 LGA775
0.065 800 3.0-3.8 80-86 LGA775
Pentium D 0.09 533-800 2,8-3,2 GHz 115-130 LGA775
0.065 80-1066 3,4 GHz 95-130 LGA775
Core2 Duo 0.065 80-1066 1,8–2,66 GHz 45-65 LGA775
Rdzeń 2 Ekstremalny 0.065 1066 2,9-3,2 GHz 75 LGA775
Xeon 0.18 100 400 Miejsce 2
0.13 100-133 500-733
0.09-0.65 1,4-1,7 GHz
Celeron 0.25 66 266-300 16-18 Miejsce 1
0.25 66 300-533 19-26 Gniazdo 370/gniazdo 1
0.18 100 533-1,1 GHz 11-33 Gniazdo-370
0.13 100 1.0-1.4 27-35 S 370
0.18 400 1,7-1,8 GHz 63-66 S478
0.13 400 2,0–2,8 GHz 59-68 S 478
Celeron D 0.09 533 2,133-3,33 GHz 73-84 S478/LGA775
0.065 533 3,33 GHz 86 LGA775
Itanium 0.18 733-800 800-1,0 GHz
Itanium 2 0.13 1,5 GHz
Itanium (dwurdzeniowy) 0.09 2x667 1,4-1,6 GHz 75-104

Rdzeń

Główny siłownik. Wydajność MP przy częstotliwości zegara 66 MHz wynosi około 112 milionów instrukcji na sekundę (MIPS). Pięciokrotny wzrost (w porównaniu do 80486 DX) został osiągnięty dzięki dwóm potokom, umożliwiającym jednoczesne wykonywanie wielu poleceń. Są to dwa równoległe, 5-stopniowe potoki przetwarzania liczb całkowitych, które umożliwiają jednoczesne odczytywanie, interpretowanie i wykonywanie dwóch poleceń.

  • a - Pentium MMX, interfejs Socket 7;
  • b - Celeron, pakiet procesora Single Edge (SEPP)/gniazdo 1;
  • c - AMD Athlon (format gniazda A);
  • d - główne elementy procesora Pentium.

Instrukcje całkowite mogą być wykonywane w jednym cyklu zegara. Te potoki nie są takie same: rurka w kształcie litery U wykonuje dowolną instrukcję z zestawu instrukcji z rodziny 86; Potok V wykonuje tylko „proste” polecenia, to znaczy polecenia, które są całkowicie wbudowane w obwód MP i nie wymagają sterowania mikrokodem po wykonaniu.

Ciągłe ładowanie tych potoków z pamięci podręcznej wymaga dużej przepustowości. Oczywiście w powyższym przypadku połączone buforowanie poleceń i danych nie jest odpowiednie. Pentium posiada osobny bufor poleceń i danych – dwuwejściowy (atrybut procesorów RISC). Wymiana danych poprzez pamięć podręczną danych odbywa się całkowicie niezależnie od rdzenia procesora, a bufor instrukcji jest do niego podłączony za pomocą szybkiej 256-bitowej magistrali wewnętrznej. Każda pamięć podręczna ma pojemność 8 KB i umożliwia jednoczesne adresowanie. Dlatego w jednym cyklu zegara program może wyodrębnić 32 bajty (256:8=32) poleceń i wykonać dwa dostępy do danych (32x2=64).

Predyktor oddziałów

Próbuje odgadnąć kierunek rozgałęzienia programu i załadować informacje z wyprzedzeniem do bloków pobierania wstępnego i dekodowania poleceń.

Bufor docelowy oddziału VTV

Bufor adresu rozgałęzienia zapewnia dynamiczne przewidywanie rozgałęzień. Poprawia wykonywanie instrukcji poprzez zapamiętywanie ukończonych rozgałęzień (ostatnich 256 rozgałęzień) i proaktywne wykonywanie najbardziej prawdopodobnych rozgałęzień po pobraniu instrukcji rozgałęzienia. Jeśli prognoza się sprawdzi, wydajność wzrasta, jeśli jednak nie, należy całkowicie zresetować przenośnik. Według Intela prawdopodobieństwo prawidłowego przewidzenia rozgałęzień w procesorach Pentium wynosi 75-90%.

Jednostka zmiennoprzecinkowa

Wykonuje przetwarzanie zmiennoprzecinkowe. Przetwarzanie grafiki, aplikacje multimedialne i intensywne wykorzystanie komputera osobistego do rozwiązywania problemów obliczeniowych wymagają dużej wydajności podczas wykonywania operacji zmiennoprzecinkowych. Sprzętowa implementacja (zamiast oprogramowania sprzętowego) podstawowych operacji arytmetycznych (+, x i /) jest wykonywana w niezależnych, wysokowydajnych jednostkach, a 8-stopniowy potok umożliwia generowanie wyników w każdym cyklu zegara.

Pamięć podręczna poziomu 1

Procesor posiada dwa banki pamięci po 8 KB każdy, pierwszy na instrukcje, drugi na dane, które są szybsze niż bardziej pojemna zewnętrzna pamięć podręczna (pamięć podręczna L2).

Interfejs magistrali

Przesyła strumień poleceń i danych do procesora centralnego, a także przesyła dane z procesora centralnego.

W procesorze Pentium wprowadzono SMM (tryb zarządzania systemem). Tryb ten umożliwia realizację bardzo zaawansowanych funkcji systemowych, m.in. zarządzania energią czy bezpieczeństwem, które są transparentne dla systemu operacyjnego i uruchomionych aplikacji.

Pentium Pro (1 listopada 1995)

Pentium Pro (MP szóstej generacji) ma trzy potoki, z których każdy zawiera 14 stopni. Do ciągłego ładowania dostępna jest wysokowydajna pamięć podręczna instrukcji z czterema wejściami i wysokiej jakości system przewidywania rozgałęzień z 512 wejściami. Dodatkowo, w celu poprawy wydajności, zastosowano pamięć buforową drugiego poziomu (cache) o pojemności 256 KB, umieszczoną w osobnym chipie i zamontowaną w centralnej obudowie procesora. W efekcie możliwe stało się efektywne rozładowanie pięciu elementów wykonawczych: dwóch bloków arytmetyki całkowitej; czytaj blok (ładuj); napisz blok (zapisz); FPU (Jednostka zmiennoprzecinkowa - jednostka arytmetyczna zmiennoprzecinkowa).

Pentium P55 (Pentium MMX)

8 stycznia 1997 Pentium MMX - wersja Pentium z dodatkowymi funkcjami. Technologia MMX miała za zadanie dodać/rozszerzyć możliwości multimedialne komputerów. MMH ogłoszono w styczniu 1997 r., częstotliwości taktowania 166 i 200 MHz, a wersja 233 MHz pojawiła się w czerwcu tego samego roku. Proces technologiczny 0,35 μm, 4,5 miliona tranzystorów.

Pentium 2 (7 maja 1997)

Procesor jest modyfikacją Pentium Pro z obsługą możliwości MMX. Zmieniono konstrukcję obudowy - płytkę krzemową ze stykami wymieniono na wkładkę, zwiększono częstotliwość magistrali i częstotliwość zegara oraz rozszerzono polecenia MMX. Pierwsze modele (233-300 MHz) produkowane były w technologii 0,35 µm, kolejne – w technologii 0,25 µm. Modele 333 MHz zostały wypuszczone na rynek w styczniu 1998 roku i zawierały 7,5 miliona tranzystorów. W kwietniu tego samego roku pojawiły się wersje 350 i 400 MHz, a w sierpniu - 450 MHz. Wszystkie P2 mają 512 KB pamięci podręcznej L2. Dostępny jest także model do laptopów - Pentium 2 PE oraz do stacji roboczych - Pentium 2 Xeon 450 MHz.

Pentium 3 (26 lutego 1999)

RZ to jeden z najpotężniejszych i najbardziej produktywnych procesorów Intela, ale swoją konstrukcją niewiele różni się od P2, zwiększono częstotliwość i dodano około 70 nowych poleceń (SSE). Pierwsze modele zostały ogłoszone w lutym 1999 r., częstotliwości taktowania - 450,500, 550 i 600 MHz. Częstotliwość magistrali systemowej 100 MHz, 512 KB pamięci podręcznej drugiego poziomu, technologia procesowa 0,25 μm, 9,5 miliona tranzystorów. W październiku 1999 wypuszczono także wersję na komputery mobilne, wykonaną w technologii 0,18 mikrona i częstotliwościach 400,450, 500,550, 600,650, 700 i 733 MHz. Dla stacji roboczych i serwerów dostępny jest Heon RZ, skoncentrowany na logice systemu GX z pojemnością pamięci podręcznej drugiego poziomu 512 KB, 1 MB lub 2 MB.

Pentium 4 (Willamette, 2000; Northwood, 2002)

Rodziny Pentium 2, Pentium 3 i Celeron mają tę samą strukturę rdzenia, różniąc się głównie rozmiarem i organizacją pamięci podręcznej drugiego poziomu oraz obecnością zestawu instrukcji SSE, który pojawił się w Pentium 3.

Po osiągnięciu częstotliwości 1 GHz Intel napotkał problemy z dalszym zwiększaniem częstotliwości swoich procesorów - Pentium 3 przy 1,13 GHz musiał zostać wycofany ze względu na jego niestabilność.

  • a - Willamette, 0,18 µm;
  • b - Northwood, 0,13 µm;
  • c - Prescott, 0,09 µm;
  • g - Smithfield (2 x Prescott 1M)

Problem polega na tym, że opóźnienia (opóźnienia) występujące podczas uzyskiwania dostępu do niektórych węzłów procesora są już w P6 zbyt duże. Tym samym pojawił się Pentium IV – oparty na architekturze zwanej architekturą Intel NetBurst.

Architektura NetBurst opiera się na kilku innowacjach, które razem pozwalają nam osiągnąć ostateczny cel - zapewnienie rezerw wydajności i przyszłej skalowalności procesorom z rodziny Pentium IV. Kluczowe technologie obejmują:

  • Technologia Hyper Pipelined – potok Pentium IV obejmuje 20 stopni;
  • Advanced Dynamic Execution - ulepszone przewidywanie przejść i wykonanie poleceń ze zmianą ich kolejności (wykonanie poza kolejnością);
  • Trace Cache – specjalna pamięć podręczna służy do buforowania zdekodowanych poleceń w Pentium IV;
  • Rapid Execute Engine – jednostka ALU procesora Pentium IV działa z częstotliwością dwa razy wyższą niż sam procesor;
  • SSE2 - rozszerzony zestaw poleceń do przetwarzania danych strumieniowych;
  • Magistrala systemowa 400 MHz - nowa magistrala systemowa.

Pentium IV Prescott (luty 2004)

Na początku lutego 2004 roku Intel ogłosił cztery nowe procesory Pentium IV (2,8; 3,0; 3,2 i 3,4 GHz) oparte na rdzeniu Prescott, które zawierają szereg innowacji. Wraz z wypuszczeniem czterech nowych procesorów, Intel wprowadził na rynek procesor Pentium IV 3.4 EE (Extreme Edition), oparty na rdzeniu Northwood i posiadający 2 MB pamięci podręcznej L3, a także uproszczoną wersję Pentium IV 2.8 A, opartą na rdzeniu Northwood rdzeń Prescott z ograniczoną częstotliwością magistrali (533 MHz).

Prescott wykonany jest w technologii 90 nm, co pozwoliło zmniejszyć powierzchnię chipa, a liczbę tranzystorów zwiększono ponad 2-krotnie. Podczas gdy rdzeń Northwood ma powierzchnię 145 milimetrów kwadratowych i mieści 55 milionów tranzystorów, rdzeń Prescott ma powierzchnię 122 milimetrów kwadratowych i zawiera 125 milionów tranzystorów.

Wymieńmy kilka charakterystycznych cech procesora.

Nowe polecenia SSE

Firma Intel wprowadziła na targach Prescott nową technologię SSE3, która obejmuje 13 nowych poleceń przesyłania strumieniowego, które poprawią wydajność niektórych operacji, gdy programy zaczną z nich korzystać. SSE3 to nie tylko rozszerzenie SSE2, gdyż dodaje nowe polecenia, ale także pozwala ułatwić i zautomatyzować proces optymalizacji gotowych aplikacji za pomocą kompilatora. Innymi słowy, twórca oprogramowania nie będzie musiał przepisywać kodu programu, a jedynie go ponownie kompilować.

Zwiększony rozmiar pamięci podręcznej

Jednym z najważniejszych (z punktu widzenia wydajności) dodatków jest pamięć podręczna drugiego poziomu powiększona do 1 MB. Zwiększono także objętość pamięci podręcznej pierwszego poziomu do 16 KB.

Ulepszone wstępne pobieranie danych

Rdzeń Prescott ma ulepszony mechanizm wstępnego pobierania danych.

Ulepszona funkcja Hyperthreadin

Nowa wersja zawiera wiele nowych funkcji, które mogą zoptymalizować wielowątkowe wykonywanie różnych operacji. Jedyną wadą nowej wersji jest konieczność ponownej kompilacji oprogramowania i aktualizacji systemu operacyjnego.

Zwiększona długość przenośnika

Aby zwiększyć częstotliwość pracy przyszłych procesorów, rdzeń Prescott ma zwiększoną długość rurociągu z 20 do 31 stopni. Zwiększanie długości rurociągu ma negatywny wpływ na wydajność w przypadku błędnych przewidywań odgałęzień. Aby skompensować zwiększoną długość rurociągu, udoskonalono technologię przewidywania odgałęzień.

Problemy z architekturą NetBurst

Wypuszczenie rdzenia Prescott, w którym Intel zastosował proces 90 nanometrów, ujawniło szereg problemów nie do pokonania. Początkowo NetBurst był ogłaszany przez specjalistów Intela jako architektura ze znacznym marginesem wydajności, który z biegiem czasu można było zrealizować poprzez stopniowe zwiększanie częstotliwości taktowania. W praktyce okazało się jednak, że zwiększenie częstotliwości taktowania procesora pociąga za sobą niedopuszczalny wzrost wydzielania ciepła i zużycia energii. Co więcej, równoległy rozwój technologii produkcji tranzystorów półprzewodnikowych nie pozwolił skutecznie przeciwdziałać wzrostowi właściwości elektrycznych i cieplnych. W rezultacie trzecia generacja procesorów z architekturą NetBurst (Prescott) pozostała w historii procesorów jako jedna z „najgorętszych” (procesory zbudowane na tym rdzeniu mogły zużywać i odpowiednio przydzielać do 160 W, otrzymując przydomek „ekspresy do kawy”), mimo że ich taktowanie nie przekroczyło 3,8 GHz. Wysokie wytwarzanie ciepła i zużycie energii spowodowały wiele powiązanych problemów. Procesory Prescott wymagały zastosowania specjalnych płyt głównych z ulepszonymi regulatorami napięcia i specjalnymi układami chłodzenia o zwiększonej wydajności.

Problemy z dużym odprowadzaniem ciepła i poborem prądu nie byłyby tak zauważalne, gdyby nie fakt, że mimo to procesory Prescott nie potrafiły wykazać się wysoką wydajnością, przez co można było przymknąć oko na wspomniane niedociągnięcia. Poziom wydajności wyznaczony przez konkurencyjne procesory AMD Athlon 64 okazał się dla Prescotta praktycznie nieosiągalny, w efekcie czego dane centralnego procesora zaczęto postrzegać jako porażkę Intela.

Nie było zatem szczególnie zaskakujące, gdy okazało się, że następcy NetBursta będą bazować na zasadzie efektywnego zużycia energii przyjętej w mikroarchitekturze mobilnej Intela i ucieleśnionej w rodzinie procesorów Pentium M.

Smithfielda

Zasadniczo rdzeń procesora Smithfield to nic innego jak para połączonych ze sobą matryc Prescott 1M (90 nm). Każdy rdzeń ma własną pamięć podręczną L2 (1 MB), do której inny rdzeń może uzyskać dostęp za pośrednictwem specjalnej magistrali interfejsu. Rezultatem jest kryształ o powierzchni 206 milimetrów kwadratowych zawierający 230 milionów tranzystorów.

Oczekuje się, że wszystkie dwurdzeniowe układy do komputerów stacjonarnych będą obsługiwać technologie wprowadzone w ostatnich miesiącach 2004 roku jako innowacje Pentium 4 Extreme Edition - EM64T, E1ST, XD bit i Vandepool:

  • Technologia Enhanced Memory 64 (EM64T) zapewnia 64-bitowe rozszerzenia architektury x86; Enhanced Intel SpeedSTep (EIST) jest identyczny z mechanizmem zaimplementowanym w procesorach mobilnych komputerów osobistych Intel, który pozwala procesorowi zmniejszyć prędkość zegara, gdy nie jest wymagane duże obciążenie, znacznie zmniejszając w ten sposób zużycie ciepła i energii procesora; Bit XD - technologia „bitów niemożliwych” Bit blokujący EXecute - bity NX;
  • Technologia Intel Vandepool (znana również jako technologia wirtualizacji - VT) umożliwia jednoczesne działanie wielu systemów operacyjnych i aplikacji na niezależnych sekcjach pamięci, przy czym pojedynczy system komputerowy działa jako wiele maszyn wirtualnych.

W maju 2005 roku wypuszczono na rynek trzy procesory Pentium D Smithfield o częstotliwościach 2,8, 3,0 i 3,2 GHz i numerach modeli odpowiednio 820.830 i 840.

Pentium D. Pierwsze chipy Pentium D, wprowadzone na rynek w maju 2005 roku, zostały zbudowane w oparciu o technologię 90 nanometrów firmy Intel i miały numery modeli z serii 800. Najszybszy wypuszczony na rynek procesor centralny miał prędkość 3,2 GHz. Na początku 2006 roku wypuszczono na rynek próbkę Pentium D o numerze 900 i nazwie kodowej „Presler”, wyprodukowaną w 65-nanometrowym procesie Intela.

Chipsy Preslera zawierają parę rdzeni Cedar Mill. Jednak w przeciwieństwie do poprzedniego Pentium D Smithfield, tutaj oba rdzenie są fizycznie oddzielone. Dołączenie dwóch oddzielnych matryc w jednym opakowaniu zapewnia elastyczność produkcyjną, umożliwiając użycie tej samej matrycy zarówno w jednordzeniowym procesorze Cedar Mill, jak i dwurdzeniowym procesorze Presler. Ponadto koszty produkcji ulegają obniżeniu, ponieważ w przypadku wykrycia wady wyrzucana jest tylko jedna matryca, a nie pakiet dwurdzeniowy.

  • a - Smithfielda;
  • 6 - Preslera.

Nowa technologia umożliwiła zwiększenie nie tylko częstotliwości zegara, ale także liczby tranzystorów w chipie. W rezultacie Presler ma 376 milionów tranzystorów w porównaniu do 230 milionów Smithfielda. Jednocześnie zmniejszono rozmiar kryształów z 206 do 162 milimetrów kwadratowych. Dzięki temu możliwe było zwiększenie pamięci podręcznej L2 Presler. Podczas gdy jego poprzednik korzystał z dwóch pamięci podręcznych L2 o pojemności 1 MB, procesory Presler zawierają moduły pamięci podręcznej L2 o pojemności 2 MB. Umieszczenie wielu rdzeni procesora w jednym chipie ma tę zaletę, że pamięć podręczna może pracować ze znacznie wyższymi częstotliwościami.

Wiosną 2006 roku najszybszym ogłoszonym głównym procesorem Pentium D był model 950 3,4 GHz. Uważa się, że Pentium D jest ostatnim procesorem sygnowanym marką Pentium, flagowym produktem Intela od 1993 roku.

Procesory Pentium Xeon

W czerwcu 1998 roku Intel rozpoczął produkcję centralnego procesora Pentium 11 Xeon, pracującego z częstotliwością 400 MHz. Technicznie rzecz biorąc, Xeon był połączeniem technologii Pentium Pro i Pentium 2 i został zaprojektowany w celu zapewnienia zwiększonej wydajności wymaganej w aplikacjach stacji roboczych i serwerów o znaczeniu krytycznym. Korzystając z interfejsu Slot 2, Xeony były prawie dwukrotnie większe od Pentium 2, głównie ze względu na większą pamięć podręczną L2.

We wczesnych próbkach chip był wyposażony w pamięć podręczną L2 o pojemności 512 KB lub 1 MB. Pierwsza opcja przeznaczona była na rynek stacji roboczych, druga na serwery. Wersja 2 MB pojawiła się później, w 1999 r. Podobnie jak procesor Pentium 2 pracujący z częstotliwością 350–400 MHz, magistrala FSB (podstawowa magistrala) pracowała z częstotliwością 100 MHz.

Istotnym ulepszeniem w stosunku do Pentium 2 było to, że pamięć podręczna L2 działała z szybkością rdzenia procesora, w przeciwieństwie do konfiguracji opartych na gnieździe 1, które ograniczały pamięć podręczną L2 do połowy szybkości procesora, umożliwiając firmie Intel używanie tańszej pamięci Burst SRAM jako pamięci podręcznej zamiast zwykłego SRAM.

Kolejnym ograniczeniem, które zostało pokonane przez Slot 2, był „limit dwóch procesorów”. Korzystając z architektury SMP (symetryczny wieloprocesor), procesor Pentium 2 nie był w stanie obsługiwać systemów zawierających więcej niż dwie jednostki centralne, podczas gdy systemy oparte na Pentium 2 Xeon mogły łączyć cztery, osiem lub więcej procesorów.

Następnie opracowano różne płyty główne i chipsety dla stacji roboczych i serwerów - model 440GX został zbudowany na podstawowej architekturze chipsetu 440BC i był przeznaczony dla stacji roboczych, natomiast model 450NX został opracowany głównie na rynek serwerowy.

Krótko po wydaniu Pentium 3, wiosną 1999 roku wypuszczono Pentium 3 Xeon (nazwa kodowa Tanner). Był to podstawowy Pentium Xeop z dodatkiem nowego zestawu instrukcji Streaming SIMD Extensions (SSE). Przeznaczony na rynek serwerów i stacji roboczych, Pentium 3 Heop został początkowo wypuszczony z częstotliwością 500 MHz i 512 KB (lub 1,0–2,0 MB) pamięci podręcznej L2. Jesienią 1999 r. zaczęto wprowadzać na rynek procesory Xeon z rdzeniem Cascade (0,18 mikrona), których prędkości wzrosły z początkowych 667 MHz do 1 GHz pod koniec 2000 r.

Wiosną 2001 roku wypuszczono na rynek pierwszy Xeon oparty na Pentium IV o częstotliwościach 1,4, 1,5 i 1,7 GHz. Oparty na rdzeniu Foster, był identyczny ze standardem Pentium IV, z wyjątkiem złącza microPGA Socket 603.

Itanium (architektura IA-64)

Architektura ta została ogłoszona przez firmę Intel w maju 1999 roku. Typowym przedstawicielem tej architektury jest procesor centralny Itanium. Procesory IA-64 dysponują potężnymi zasobami obliczeniowymi, w tym 128 rejestrami całkowitymi, 128 rejestrami zmiennoprzecinkowymi i 64 rejestrami predykcyjnymi, a także wieloma rejestrami specjalnego przeznaczenia. Polecenia muszą być pogrupowane w celu równoległego wykonania przez różne moduły funkcjonalne. Zestaw instrukcji jest zoptymalizowany pod kątem obsługi potrzeb obliczeniowych związanych z kryptografią, kodowaniem wideo i innymi funkcjami coraz bardziej wymaganymi przez następną generację serwerów i stacji roboczych. Procesory IA-64 obsługują także i rozwijają technologie MMX oraz rozszerzenia SIMD.

Architektura IA-64 nie jest ani 64-bitową wersją architektury Intel IA-32, ani adaptacją proponowanej przez firmę Hewlett-Packard 64-bitowej architektury PA-RISC, ale jest projektem całkowicie oryginalnym. IA-64 to kompromis pomiędzy CISC i RISC, próba ich kompatybilności - istnieją dwa tryby dekodowania instrukcji - VLIW i CISC. Programy automatycznie przełączają się do wymaganego trybu wykonywania.

Kluczowe innowacje IA-64: długie słowa instrukcji (LIW), przewidywanie instrukcji, eliminacja rozgałęzień, ładowanie spekulatywne i inne sztuczki mające na celu „wydobycie większej równoległości” » z kodu programu.

Tabela głównych różnic pomiędzy architekturami IA-32 i IA-64

Głównym problemem architektury IA-64 jest brak wbudowanej kompatybilności z kodem x86, co nie pozwala procesorom IA-64 efektywnie współpracować z oprogramowaniem rozwijanym przez ostatnie 20-30 lat. Intel wyposaża swoje procesory IA-64 (Itanium, Itanium 2 itp.) w dekoder, który konwertuje instrukcje x86 na instrukcje IA-64.

Wybierając procesor Intela pojawia się pytanie: jaki chip tej korporacji wybrać? Procesory mają wiele cech i parametrów, które wpływają na ich wydajność. I zgodnie z nią i niektórymi cechami mikroarchitektury producent podaje odpowiednią nazwę. Naszym zadaniem jest nagłośnienie tego problemu. W tym artykule dowiesz się, co dokładnie oznaczają nazwy procesorów Intel, a także poznasz mikroarchitekturę chipów tej firmy.

Notatka

Należy z góry zauważyć, że rozwiązania sprzed 2012 roku nie będą tutaj brane pod uwagę, ponieważ technologia rozwija się w szybkim tempie, a chipy te mają zbyt małą wydajność przy dużym zużyciu energii, a także trudno je kupić w nowym stanie. Również rozwiązania serwerowe nie będą tutaj brane pod uwagę, ponieważ mają one określony zakres i nie są przeznaczone na rynek konsumencki.

Uwaga, podana poniżej nomenklatura może nie obowiązywać w przypadku procesorów starszych niż okres wskazany powyżej.

A jeśli napotkasz jakiekolwiek trudności, możesz odwiedzić stronę internetową. I przeczytaj ten artykuł, który mówi o. A jeśli chcesz wiedzieć o zintegrowanej grafice firmy Intel, powinieneś to zrobić.

TIK Tak

Intel ma specjalną strategię wypuszczania swoich „kamieni”, zwaną Tik-Tak. Polega na corocznych, konsekwentnych udoskonaleniach.

  • Tik oznacza zmianę w mikroarchitekturze, co prowadzi do zmiany gniazda, poprawy wydajności i optymalizacji zużycia energii.
  • Oznacza to, że prowadzi to do zmniejszenia zużycia energii, możliwości umieszczenia większej liczby tranzystorów na chipie, ewentualnego zwiększenia częstotliwości i wzrostu kosztów.

Tak wygląda ta strategia dla modeli komputerów stacjonarnych i laptopów:

MODEL „TICK-TAK” W PROCESORACH STACJONARNYCH
MIKROARCHITEKTURASCENAWYJŚCIEPROCES TECHNICZNY
NehalemWięc2009 45 nm
Westmere'aTek2010 32 nm
Piaskowy MostWięc2011 32 nm
Most BluszczowyTek2012 22 nm
HaswellaWięc2013 22 nm
BroadwellaTek2014 14 nm
SkylakeWięc2015 14 nm
Jezioro KabyWięc+2016 14 nm

Natomiast w przypadku rozwiązań o niskim poborze mocy (smartfony, tablety, netbooki, nettopy) platformy wyglądają następująco:

MIKROARCHITEKTURY PROCESORÓW MOBILNYCH
KATEGORIAPLATFORMARDZEŃPROCES TECHNICZNY
Netbooki/Nettopy/NotebookiBraswellaAirmont14 nm
Bay Trail-D/MSilvermonta22 nm
Najlepsze tabletyWierzbowy SzlakGoldmonta14 nm
Wiśniowy SzlakAirmont14 nm
Zatoka Tral-TSilvermonta22 nm
Szlak CloweraSatwella32 nm
Smartfony/tablety z najwyższej/średniej półkiMorganfieldaGoldmonta14 nm
MoorefieldaSilvermonta22 nm
MerrifieldaSilvermonta22 nm
Szlak Clowera+Satwella32 nm
MedfieldaSatwella32 nm
Smartfony/tablety średniej klasy/budżetoweBinghamtonaAirmont14 nm
RivertonaAirmont14 nm
SlaytonaSilvermonta22 nm

Warto zaznaczyć, że Bay Trail-D jest przeznaczony dla komputerów stacjonarnych: Pentium i Celeron z indeksem J. Natomiast Bay Trail-M jest rozwiązaniem mobilnym i także wśród Pentium i Celerona będzie oznaczany literą N.

Sądząc po najnowszych trendach firmy, sama wydajność postępuje dość powoli, natomiast efektywność energetyczna (wydajność na jednostkę zużytej energii) rośnie z roku na rok, a już niedługo laptopy będą miały takie same wydajne procesory jak duże pecety (choć tacy przedstawiciele nadal istnieją) .

Historia procesorów Intel | Pierworodny – Intel 4004

Intel sprzedał swój pierwszy mikroprocesor w 1971 roku. Był to 4-bitowy chip o nazwie kodowej 4004. Został zaprojektowany do współpracy z trzema innymi mikrochipami: ROM 4001, RAM 4002 i rejestrem przesuwnym 4003. 4004 wykonał rzeczywiste obliczenia, a pozostałe komponenty były krytyczne dla działania procesor. Chipy 4004 były używane głównie w kalkulatorach i podobnych urządzeniach i nie były przeznaczone do komputerów. Jego maksymalna częstotliwość taktowania wynosiła 740 kHz.

Po modelu 4004 pojawił się podobny procesor o nazwie 4040, który był zasadniczo ulepszoną wersją 4004 z rozszerzonym zestawem instrukcji i wyższą wydajnością.

Historia procesorów Intel | 8008 i 8080

Dzięki modelowi 4004 Intel umocnił swoją pozycję na rynku mikroprocesorów i aby wykorzystać tę sytuację, wprowadził nową serię procesorów 8-bitowych. Chipy 8008 pojawiły się w 1972 r., następnie 8080 w 1974 r. i 8085 w 1975 r. Chociaż procesor 8008 jest pierwszym 8-bitowym mikroprocesorem firmy Intel, nie był tak dobrze znany jak jego poprzednik lub następca, model 8080. przetwarzający dane w formacie 8 -bitowych blokach, 8008 był szybszy niż 4004, ale miał raczej skromne taktowanie 200-800 kHz i nie przyciągał szczególnie uwagi projektantów systemów. Model 8008 został wyprodukowany w technologii 10 mikrometrów.

Znacznie większy sukces odniósł Intel 8080. Projekt architektoniczny chipów 8008 został zmieniony w związku z dodaniem nowych instrukcji i przejściem na tranzystory 6 mikrometrów. Pozwoliło to Intelowi na ponad dwukrotne zwiększenie częstotliwości taktowania, a najszybsze procesory 8080 w 1974 roku pracowały z częstotliwością 2 MHz. Procesory 8080 były używane w niezliczonej liczbie urządzeń, co spowodowało, że kilku twórców oprogramowania, takich jak nowo utworzona firma Microsoft, skupiło się na oprogramowaniu dla procesorów Intel.

Ostatecznie późniejsze mikrochipy 8086 miały tę samą architekturę co 8080, aby zachować kompatybilność wsteczną z napisanym dla nich oprogramowaniem. W rezultacie kluczowe bloki sprzętowe procesorów 8080 były obecne w każdym kiedykolwiek wyprodukowanym procesorze opartym na architekturze x86. Oprogramowanie dla 8080 może technicznie działać również na dowolnym procesorze x86.

Procesory 8085 były zasadniczo tańszą wersją 8080 z wyższą częstotliwością taktowania. Odniosły ogromny sukces, choć pozostawiły mniejszy ślad w historii.

Historia procesorów Intel | 8086: początek ery x86

Pierwszym 16-bitowym procesorem Intela był 8086. Miał on znacznie większą wydajność niż 8080. Oprócz zwiększonej częstotliwości taktowania, procesor miał 16-bitową magistralę danych i sprzętowe jednostki wykonawcze, które umożliwiały 8086 jednoczesne wykonywanie dwóch ośmio-bitowych procesorów. instrukcje bitowe. Ponadto procesor mógł wykonywać bardziej złożone operacje 16-bitowe, ale większość programów w tamtym czasie była tworzona dla procesorów 8-bitowych, więc obsługa operacji 16-bitowych nie była tak istotna jak wielozadaniowość procesora. Szerokość magistrali adresowej została rozszerzona do 20 bitów, co dało procesorowi 8086 dostęp do 1 MB pamięci i zwiększoną wydajność.

Model 8086 był także pierwszym procesorem x86. Wykorzystał pierwszą wersję zestawu instrukcji x86, który od czasu wprowadzenia chipa zasila prawie każdy procesor AMD i Intel.

Mniej więcej w tym samym czasie Intel wypuścił chip 8088. Był oparty na 8086, ale miał wyłączoną połowę magistrali adresowej i był ograniczony do operacji 8-bitowych. Miał jednak dostęp do 1 MB pamięci RAM i działał na wyższych częstotliwościach, dzięki czemu był szybszy od poprzednich 8-bitowych procesorów Intela.

Historia procesorów Intel | 80186 i 80188

Po 8086 Intel wprowadził kilka innych procesorów, z których wszystkie korzystały z podobnej architektury 16-bitowej. Pierwszym był układ 80186. Został opracowany w celu uproszczenia projektowania gotowych systemów. Firma Intel przeniosła do procesora niektóre elementy sprzętowe, które normalnie znajdowałyby się na płycie głównej, w tym generator zegara, kontroler przerwań i timer. Dzięki integracji tych komponentów z procesorem, 80186 stał się wielokrotnie szybszy niż 8086. Intel zwiększył także częstotliwość taktowania chipa, aby jeszcze bardziej poprawić wydajność.

Procesor 80188 również miał wiele komponentów sprzętowych zintegrowanych z chipem, ale radził sobie z 8-bitową magistralą danych, taką jak 8088, i był oferowany jako rozwiązanie budżetowe.

Historia procesorów Intel | 80286: więcej pamięci, większa wydajność

Po wydaniu 80186, w tym samym roku pojawił się 80286. Miał prawie identyczne właściwości, z wyjątkiem magistrali adresowej rozszerzonej do 24-bitów, co w tzw. Trybie chronionym procesora umożliwiało mu współpracę z Pamięć RAM do 16MB.

Historia procesorów Intel | iAPX432

iAPX 432 był wczesną próbą Intela odejścia od architektury x86 w zupełnie innym kierunku. Według obliczeń Intela iAPX 432 powinien być kilkukrotnie szybszy od pozostałych rozwiązań firmy. Ale ostatecznie procesor zawiódł z powodu znaczących wad konstrukcyjnych. Podczas gdy procesory x86 uważano za stosunkowo złożone, iAPx 432 przeniósł złożoność CISC na zupełnie nowy poziom. Konfiguracja procesora była dość nieporęczna, co zmusiło firmę Intel do wyprodukowania procesora na dwóch oddzielnych matrycach. Procesor został również zaprojektowany do dużych obciążeń i nie mógł działać dobrze, gdy przepustowość magistrali lub przepływ danych były niewystarczające. iAPX 432 był w stanie przewyższyć procesory 8080 i 8086, ale szybko został przyćmiony przez nowsze procesory x86 i ostatecznie został porzucony.

Historia procesorów Intel | i960: pierwszy procesor RISC firmy Intel

W 1984 roku Intel stworzył swój pierwszy procesor RISC. Nie był bezpośrednim konkurentem procesorów opartych na architekturze x86, gdyż był przeznaczony do bezpiecznych rozwiązań wbudowanych. Układy te wykorzystywały 32-bitową architekturę superskalarną, w której zastosowano koncepcję projektową Berkeley RISC. Pierwsze procesory i960 miały stosunkowo niskie taktowanie (młodszy model pracował na poziomie 10 MHz), jednak z biegiem czasu architekturę udoskonalono i przeniesiono na cieńsze procesy techniczne, co umożliwiło podniesienie częstotliwości do 100 MHz. Obsługiwały także 4 GB pamięci chronionej.

Model i960 był szeroko stosowany w systemach wojskowych, a także w segmencie korporacyjnym.

Historia procesorów Intel | 80386: przejście z wersji x86 na wersję 32-bitową

Pierwszym 32-bitowym procesorem x86 firmy Intel był 80386, który pojawił się w 1985 roku. Jego kluczową zaletą była 32-bitowa magistrala adresowa, która umożliwiała zaadresowanie aż 4 GB pamięci systemowej. Chociaż w tamtych czasach praktycznie nikt nie używał tak dużej ilości pamięci, ograniczenia pamięci RAM często szkodziły wydajności poprzednich procesorów x86 i konkurencyjnych procesorów. W przeciwieństwie do nowoczesnych procesorów, kiedy wprowadzono 80386, zwiększenie ilości pamięci RAM prawie zawsze oznaczało zwiększenie wydajności. Firma Intel wdrożyła także szereg ulepszeń architektonicznych, które pomogły poprawić wydajność powyżej poziomów 80286, nawet gdy oba systemy wykorzystywały tę samą ilość pamięci RAM.

Aby dodać do linii produktów bardziej przystępne modele, Intel wprowadził model 80386SX. Procesor ten był prawie identyczny z 32-bitowym 80386, ale był ograniczony do 16-bitowej magistrali danych i obsługiwał tylko do 16 MB pamięci RAM.

Historia procesorów Intel | i860

W 1989 roku Intel podjął kolejną próbę odejścia od procesorów x86. Stworzyła nowy procesor o architekturze RISC o nazwie i860. W przeciwieństwie do i960, ten procesor został zaprojektowany jako model o wysokiej wydajności na rynek komputerów stacjonarnych, ale konstrukcja procesora miała pewne wady. Najważniejszym z nich było to, że aby osiągnąć wysoką wydajność, procesor całkowicie polegał na kompilatorach oprogramowania, które musiały umieszczać instrukcje w kolejności ich wykonywania w momencie tworzenia pliku wykonywalnego. Pomogło to firmie Intel w utrzymaniu rozmiaru kości i zmniejszeniu złożoności chipa i860, ale podczas kompilowania programów prawie niemożliwe było uzyskanie kolejności poszczególnych instrukcji od początku do końca. Zmusiło to procesor do spędzenia większej ilości czasu na przetwarzaniu danych, co drastycznie zmniejszyło jego wydajność.

Historia procesorów Intel | 80486: Integracja FPU

Procesor 80486 był kolejnym dużym krokiem Intela pod względem wydajności. Kluczem do sukcesu była ściślejsza integracja komponentów z procesorem. Model 80486 był pierwszym procesorem x86 z pamięcią podręczną L1 (pierwszego poziomu). Pierwsze próbki 80486 miały 8 KB pamięci podręcznej w chipie i zostały wyprodukowane przy użyciu technologii procesu 1000 nm. Ale wraz z przejściem na 600 nm rozmiar pamięci podręcznej L1 wzrósł do 16 KB.

Intel umieścił także w procesorze FPU, który wcześniej był oddzielną funkcjonalną jednostką przetwarzającą. Przenosząc te komponenty do centralnego procesora, Intel znacznie zmniejszył opóźnienia między nimi. Aby zwiększyć przepustowość, procesory 80486 wykorzystywały również szybszy interfejs FSB. Aby poprawić szybkość przetwarzania danych zewnętrznych, wprowadzono wiele ulepszeń w jądrze i innych komponentach. Zmiany te znacząco zwiększyły wydajność procesorów 80486, które były wielokrotnie szybsze od starego 80386.

Pierwsze procesory 80486 osiągały prędkość 50 MHz, a późniejsze modele, produkowane w procesie 600 nm, mogły pracować z częstotliwością do 100 MHz. Dla kupujących z mniejszym budżetem Intel wypuścił wersję 80486SX, w której FPU zostało zablokowane.

Historia procesorów Intel | P5: pierwszy procesor Pentium

Pentium pojawił się na rynku w 1993 roku i był pierwszym procesorem Intel x86, który nie stosował systemu numeracji 80x86. Pentium wykorzystywało architekturę P5, pierwszą superskalarną mikroarchitekturę x86 firmy Intel. Chociaż Pentium był ogólnie szybszy niż 80486, jego główną cechą był znacznie ulepszony FPU. Oryginalny procesor FPU Pentium był ponad dziesięciokrotnie szybszy niż stara jednostka 80486. Znaczenie tego ulepszenia wzrosło dopiero, gdy Intel wypuścił Pentium MMX. Procesor ten pod względem mikroarchitektury jest identyczny z pierwszym Pentium, jednak obsługuje zestaw instrukcji Intel MMX SIMD, co pozwala znacząco zwiększyć szybkość poszczególnych operacji.

W porównaniu do 80486, Intel zwiększył pojemność pamięci podręcznej L1 w nowych procesorach Pentium. Pierwsze modele Pentium miały 16 KB pamięci podręcznej pierwszego poziomu, a Pentium MMX otrzymało już 32 KB. Naturalnie chipy te działały z wyższymi częstotliwościami taktowania. Pierwsze procesory Pentium wykorzystywały tranzystory 800 nm i osiągały jedynie 60 MHz, ale kolejne wersje zbudowane w procesie Intela 250 nm osiągały 300 MHz (rdzeń Tillamook).

Historia procesorów Intel | P6: Pentium Pro

Krótko po pierwszym Pentium Intel planował wypuścić Pentium Pro oparty na architekturze P6, ale napotkał problemy techniczne. Pentium Pro wykonywał operacje 32-bitowe znacznie szybciej niż oryginalny Pentium z powodu wykonywania instrukcji poza kolejnością. Procesory te miały mocno przeprojektowaną architekturę wewnętrzną, która dekodowała instrukcje w mikrooperacje wykonywane na modułach ogólnego przeznaczenia. Ze względu na dodatkowy sprzęt dekodujący, Pentium Pro korzystał również ze znacznie rozszerzonego 14-poziomowego potoku.

Ponieważ pierwsze procesory Pentium Pro były przeznaczone na rynek serwerowy, Intel ponownie rozszerzył magistralę adresową do 36-bitowej i dodał technologię PAE, umożliwiając zaadresowanie do 64 GB pamięci RAM. To znacznie więcej, niż potrzebował przeciętny użytkownik, ale dla klientów serwerów niezwykle ważna była możliwość obsługi dużych ilości pamięci RAM.

Przeprojektowano także system pamięci podręcznej procesora. Pamięć podręczna L1 była ograniczona do dwóch segmentów o wielkości 8 KB, jednego na instrukcje i jednego na dane. Aby zrekompensować deficyt 16 KB pamięci w porównaniu z Pentium MMX, Intel dodał 256 KB do 1 MB pamięci podręcznej L2 w oddzielnym chipie dołączonym do pakietu procesora. Został podłączony do procesora za pomocą wewnętrznej magistrali danych (BSB).

Początkowo Intel planował sprzedaż Pentium Pro zwykłym użytkownikom, ale ostatecznie ograniczył jego premierę do modeli dla systemów serwerowych. Pentium Pro miał kilka rewolucyjnych funkcji, ale nadal konkurował z Pentium i Pentium MMX pod względem wydajności. Dwa starsze procesory Pentium były znacznie szybsze przy operacjach 16-bitowych, a wówczas dominowało oprogramowanie 16-bitowe. Procesor zyskał także obsługę zestawu instrukcji MMX, w rezultacie Pentium MMX przewyższał Pentium Pro w programach zoptymalizowanych pod kątem MMX.

Pentium Pro miał szansę utrzymać się na rynku konsumenckim, ale był dość drogi w produkcji ze względu na oddzielny chip zawierający pamięć podręczną L2. Najszybszy procesor Pentium Pro osiągnął częstotliwość taktowania 200 MHz i został wyprodukowany w procesach produkcyjnych 500 i 350 nm.

Historia procesorów Intel | P6: Pentium II

Intel nie porzucił architektury P6 i w 1997 roku wprowadził Pentium II, który naprawił prawie wszystkie niedociągnięcia Pentium Pro. Podstawowa architektura była podobna do Pentium Pro. Wykorzystywał również 14-warstwowy potok i miał pewne ulepszenia jądra, które zwiększały szybkość wykonywania instrukcji. Zwiększono rozmiar pamięci podręcznej L1 - 16 KB na dane plus 16 KB na instrukcje.

Aby obniżyć koszty produkcji, Intel zdecydował się również na tańsze układy pamięci podręcznej dołączane do większego procesora. Był to skuteczny sposób na obniżenie ceny Pentium II, ale moduły pamięci nie mogły pracować z maksymalną szybkością procesora. W rezultacie pamięć podręczna L2 była taktowana tylko o połowę szybciej niż procesor, ale w przypadku wczesnych modeli procesorów było to wystarczające, aby poprawić wydajność.

Intel dodał także zestaw instrukcji MMX. Rdzenie procesora Pentium II, o nazwach kodowych „Klamath” i „Deschutes”, były również sprzedawane pod zorientowanymi na serwer markami Xeon i Pentium II Overdrive. Modele o najwyższej wydajności miały 512 KB pamięci podręcznej L2 i taktowania do 450 MHz.

Historia procesorów Intel | P6: Pentium III i walka o 1 GHz

Po Pentium II Intel planował wypuścić procesor oparty na architekturze Netburst, ale nie był on jeszcze gotowy. Dlatego w Pentium III firma ponownie zastosowała architekturę P6.

Pierwszy procesor Pentium III nosił nazwę kodową „Katmai” i był bardzo podobny do Pentium II: wykorzystywał uproszczoną pamięć podręczną L2, która działała z szybkością tylko o połowę mniejszą niż procesor. Podstawowa architektura uległa znaczącym zmianom, w szczególności kilka części 14-poziomowego rurociągu zostało połączonych w 10 etapów. Dzięki zaktualizowanemu potokowi i zwiększonej częstotliwości taktowania, pierwsze procesory Pentium III były zwykle nieco szybsze niż Pentium II.

Katmai został wyprodukowany w technologii 250 nm. Jednak po przejściu na proces produkcyjny 180 nm Intelowi udało się znacznie zwiększyć wydajność Pentium III. Zaktualizowana wersja o nazwie kodowej „Coppermine” przeniosła pamięć podręczną L2 do procesora i zmniejszyła jej rozmiar o połowę (do 256 KB). Ponieważ jednak mógł działać z szybkością procesora, poziom wydajności nadal się poprawiał.

Coppermine ścigał się z AMD Athlon na 1 GHz i radził sobie dobrze. Intel później próbował wypuścić model procesora 1,13 GHz, ale ostatecznie został on wycofany Dr Thomas Pabst z Tom's Hardware odkrył niestabilność w swojej pracy. W rezultacie chip 1 GHz pozostał najszybszym procesorem Pentium III opartym na Coppermine.

Najnowsza wersja rdzenia Pentium III nosiła nazwę „Tualatin”. Przy jego tworzeniu wykorzystano technologię procesową 130 nm, która umożliwiła osiągnięcie częstotliwości taktowania 1,4 GHz. Zwiększono pamięć podręczną L2 do 512 KB, co również pozwoliło na niewielki wzrost wydajności.

Historia procesorów Intel | P5 i P6: Celeron i Xeon

Wraz z Pentium II Intel wprowadził także linie procesorów Celeron i Xeon. Używali rdzenia Pentium II lub Pentium III, ale z różną ilością pamięci podręcznej. Pierwsze procesory marki Celeron, oparte na Pentium II, w ogóle nie miały pamięci podręcznej L2, a wydajność była straszna. Późniejsze modele oparte na Pentium III miały o połowę mniejszą pojemność pamięci podręcznej L2. Otrzymaliśmy zatem procesory Celeron, które korzystały z rdzenia Coppermine i miały zaledwie 128 KB pamięci podręcznej L2, a późniejsze modele oparte na Tualatin miały już 256 KB.

Wersje z pół pamięcią podręczną nazywano także Coppermine-128 i Tualatin-256. Częstotliwość tych procesorów była porównywalna z Pentium III i pozwalała konkurować z procesorami AMD Duron. Microsoft zastosował w konsoli do gier Xbox procesor Celeron Coppermine-128 733 MHz.

Pierwsze procesory Xeon również były oparte na Pentium II, ale miały więcej pamięci podręcznej L2. W przypadku modeli podstawowych jego objętość wynosiła 512 KB, podczas gdy starsi bracia mogli mieć aż do 2 MB.

Historia procesorów Intel | Netburst: premiera

Przed omówieniem architektury Intel Netburst i Pentium 4 ważne jest, aby zrozumieć zalety i wady jego długiego rozwoju. Koncepcja potoku odnosi się do przepływu instrukcji przez rdzeń. Każdy etap potoku wykonuje wiele zadań, ale czasami może być realizowana tylko jedna funkcja. Potok można rozbudowywać dodając nowe bloki sprzętowe lub dzieląc jeden etap na kilka. Można go również zmniejszyć, usuwając bloki sprzętowe lub łącząc kilka etapów przetwarzania w jeden.

Długość lub głębokość potoku ma bezpośredni wpływ na opóźnienia, IPC, prędkość zegara i przepustowość. Dłuższe potoki zazwyczaj wymagają większej przepustowości z innych podsystemów, a jeśli potok stale otrzymuje wymaganą ilość danych, żaden etap potoku nie będzie bezczynny. Ponadto procesory z długimi potokami mogą zwykle działać z wyższymi częstotliwościami taktowania.

Wadą długiego potoku jest zwiększone opóźnienie wykonania, ponieważ dane przechodzące przez potok są zmuszone „zatrzymywać się” na każdym etapie przez określoną liczbę cykli. Ponadto procesory, które mają długi potok, mogą mieć niższy IPC, dlatego używają wyższych częstotliwości taktowania, aby poprawić wydajność. Z biegiem czasu procesory stosujące podejście łączone okazały się skuteczne bez znaczących wad.

Historia procesorów Intel | Netburst: Pentium 4 Willamette i Northwood

W 2000 roku architektura Netburst firmy Intel była wreszcie gotowa i ujrzała światło dzienne w procesorach Pentium 4, dominując przez następne sześć lat. Pierwsza wersja jądra nosiła nazwę „Willamette”, pod którą Netburst i Pentium 4 istniały przez dwa lata. Był to jednak trudny okres dla Intela i nowy procesor miał trudności z dotrzymaniem kroku Pentium III. Mikroarchitektura Netburst pozwalała na wyższe częstotliwości, a procesory oparte na Willamette były w stanie osiągnąć 2 GHz, ale w niektórych zadaniach Pentium III przy 1,4 GHz był szybszy. W tym okresie procesory AMD Athlon miały większą przewagę wydajnościową.

Problem z Willamette polegał na tym, że Intel rozszerzył swój rurociąg do 20 stopni i planował osiągnąć częstotliwość 2 GHz, ale ze względu na ograniczenia mocy i ciepła nie był w stanie osiągnąć swoich celów. Sytuacja poprawiła się wraz z pojawieniem się mikroarchitektury Intela „Northwood” i zastosowaniem nowej technologii procesowej 130 nm, która zwiększyła taktowanie do 3,2 GHz i podwoiła pamięć podręczną L2 z 256 KB do 512 KB. Jednak problemy z poborem energii i odprowadzaniem ciepła architektury Netburst nie zniknęły. Jednak wydajność Northwooda była znacznie wyższa i mogła konkurować z nowymi chipami AMD.

W procesorach z najwyższej półki Intel wprowadził technologię Hyper-Threading, która zwiększa efektywność wykorzystania zasobów rdzenia podczas wielozadaniowości. Korzyści z Hyper-Threading w chipach Northwood nie były tak duże, jak we współczesnych procesorach Core i7 – wzrost wydajności wyniósł zaledwie kilka procent.

Rdzenie Willamette i Northwood zastosowano także w procesorach z serii Celeron i Xeon. Podobnie jak w przypadku poprzednich generacji procesorów Celeron i Xeon, Intel odpowiednio zmniejszył i zwiększył rozmiar pamięci podręcznej L2, aby różnicować je pod względem wydajności.

Historia procesorów Intel | P6: Pentium-M

Mikroarchitektura Netburst została zaprojektowana dla wysokowydajnych procesorów Intel, więc była dość energochłonna i nieodpowiednia dla systemów mobilnych. Dlatego w 2003 roku Intel stworzył swoją pierwszą architekturę przeznaczoną wyłącznie dla laptopów. Procesory Pentium-M bazowały na architekturze P6, ale z dłuższymi potokami 12-14 poziomów. Dodatkowo jako pierwsza zaimplementowała potok o zmiennej długości – jeśli do pamięci podręcznej załadowano już informacje niezbędne do wykonania instrukcji, instrukcje mogły zostać wykonane po przejściu przez 12 etapów. W przeciwnym razie musieli przejść dwa dodatkowe kroki, aby pobrać dane.

Pierwszy z tych procesorów został wyprodukowany w procesie technologicznym 130 nm i zawierał 1 MB pamięci podręcznej L2. Osiągał częstotliwość 1,8 GHz przy poborze mocy zaledwie 24,5 W. Późniejsza wersja o nazwie „Dothan” z tranzystorami 90 nm została wypuszczona w 2004 roku. Przejście na cieńszy proces produkcyjny pozwoliło firmie Intel zwiększyć pamięć podręczną L2 do 2 MB, co w połączeniu z pewnymi ulepszeniami rdzenia znacznie zwiększyło wydajność na taktowanie. Ponadto maksymalna częstotliwość procesora wzrosła do 2,27 GHz przy niewielkim wzroście zużycia energii do 27 W.

Architektura procesora Pentium-M została następnie wykorzystana w mobilnych chipach Stealey A100, które zostały zastąpione procesorami Intel Atom.

Historia procesorów Intel | Netburst: Prescott

Rdzeń Northwood o architekturze Netburst przetrwał na rynku od 2002 do 2004 roku, po czym Intel wprowadził rdzeń Prescott z licznymi ulepszeniami. Podczas produkcji wykorzystano technologię procesową 90 nm, która pozwoliła Intelowi zwiększyć pamięć podręczną L2 do 1 MB. Intel wprowadził także nowy interfejs procesora LGA 775, który miał obsługę pamięci DDR2 i czterokrotnie rozszerzoną magistralę FSB. Dzięki tym zmianom Prescott miał większą przepustowość niż Northwood, co było konieczne do poprawy wydajności Netbursta. Ponadto, bazując na Prescott, Intel pokazał pierwszy 64-bitowy procesor x86 z dostępem do większej pamięci RAM.

Intel spodziewał się, że procesory Prescott odniosą największy sukces spośród chipów opartych na Netburst, ale zamiast tego zawiodły. Intel ponownie rozszerzył potok wykonywania instrukcji, tym razem do 31 etapów. Firma miała nadzieję, że wzrost taktowania wystarczy, aby zrekompensować dłuższy potok, ale udało się osiągnąć jedynie 3,8 GHz. Procesory Prescott były zbyt gorące i zużywały zbyt dużo energii. Intel miał nadzieję, że przejście na technologię procesową 90 nm wyeliminuje ten problem, ale zwiększona gęstość tranzystorów tylko utrudniła chłodzenie procesorów. Osiągnięcie wyższych częstotliwości nie było możliwe, a zmiany w rdzeniu Prescott miały negatywny wpływ na ogólną wydajność.

Nawet przy wszystkich ulepszeniach i dodatkowej pamięci podręcznej Prescott w najlepszym przypadku dorównywał Northwood pod względem losowości na zegar. W tym samym czasie procesory AMD K8 również przeszły na cieńszą technologię procesową, co umożliwiło zwiększenie ich częstotliwości. AMD przez pewien czas dominowało na rynku procesorów do komputerów stacjonarnych.

Historia procesorów Intel | Netburst: Pentium D

W 2005 roku dwóch głównych producentów rywalizowało o to, aby jako pierwsi wprowadzić na rynek konsumencki procesor dwurdzeniowy. AMD jako pierwsze ogłosiło dwurdzeniowy Athlon 64, ale przez długi czas nie było go w magazynie. Intel chciał pokonać AMD, stosując moduł wielordzeniowy (MCM) zawierający dwa rdzenie Prescott. Firma ochrzciła swój dwurdzeniowy procesor Pentium D, a pierwszy model otrzymał nazwę kodową „Smithfield”.

Jednak Pentium D był krytykowany, ponieważ miał te same problemy, co oryginalne chipy Prescott. Rozpraszanie ciepła i pobór mocy przez dwa rdzenie oparte na technologii Netburst ograniczyły częstotliwość do 3,2 GHz (w najlepszym przypadku). A ponieważ wydajność architektury w dużym stopniu zależała od obciążenia rurociągu i szybkości napływu danych, IPC Smithfielda zauważalnie spadło, gdy przepustowość kanału została podzielona pomiędzy dwa rdzenie. Poza tym fizyczne wykonanie dwurdzeniowego procesora nie należało do eleganckich (w rzeczywistości są to dwa kryształy pod jedną osłoną). A dwa rdzenie w jednym chipie w procesorze AMD uznano za bardziej zaawansowane rozwiązanie.

Po Smithfieldzie przyszedł Presler, który został przeniesiony do technologii procesowej 65 nm. Moduł wielordzeniowy zawierał dwa kryształy Ceder Mill. Pomogło to zmniejszyć wytwarzanie ciepła i zużycie energii procesora, a także podnieść częstotliwość do 3,8 GHz.

Istniały dwie główne wersje Preslera. Ten pierwszy miał wyższe TDP na poziomie 125 W, natomiast drugi model ograniczono do 95 W. Dzięki zmniejszonemu rozmiarowi kości Intel był także w stanie podwoić pojemność pamięci podręcznej L2, w wyniku czego każda kostka miała 2 MB pamięci. Niektóre modele dla entuzjastów obsługiwały również technologię Hyper-Threading, umożliwiając procesorowi wykonywanie zadań w czterech wątkach jednocześnie.

Wszystkie procesory Pentium D obsługiwały oprogramowanie 64-bitowe i ponad 4 GB pamięci RAM.

W drugiej części: procesory Core 2 Duo, Core i3, i5, i7 aż do Skylake.



 


Czytać:



Po co laptopowi mały dysk SSD i czy warto instalować na nim Windowsa?

Po co laptopowi mały dysk SSD i czy warto instalować na nim Windowsa?

Jak ważny jest dysk SSD w grach, na co wpływa i jaka jest przydatność tej technologii – o tym porozmawiamy w naszym artykule. Stan stały...

Naprawa dysku flash za pomocą programów Jak naprawić port USB w laptopie

Naprawa dysku flash za pomocą programów Jak naprawić port USB w laptopie

Jak naprawić port USB? Odpowiedź technika: Podczas korzystania z komputera porty USB często się psują. Przede wszystkim ponoszą porażkę...

Struktura dysku jest uszkodzona, odczyt jest niemożliwy, co mam zrobić?

Struktura dysku jest uszkodzona, odczyt jest niemożliwy, co mam zrobić?

Komputery osobiste użytkowników często przechowują ważne informacje - dokumenty, zdjęcia, filmy, ale tworzenie kopii zapasowych danych jest zwykle...

Z czego składa się komputer?

Z czego składa się komputer?

Opublikowano: 14.01.2017 Witajcie przyjaciele, dzisiaj szczegółowo rozważymy projekt jednostki systemowej komputera. Dowiedzmy się, co...

obraz kanału RSS