Sekcje witryny
Wybór redaktorów:
- Sprawdzanie szybkości Internetu: przegląd metod Jak sprawdzić rzeczywistą prędkość Internetu od swojego dostawcy
- Trzy sposoby otwierania Edytora rejestru systemu Windows Otwieranie rejestru za pomocą wyszukiwania
- Jak podzielić dysk twardy
- Dysk twardy dzielimy na partycje
- Komputer wydaje sygnał dźwiękowy po włączeniu
- Prawidłowa zmiana rozszerzeń plików w systemie Windows Jak zmienić rozszerzenie archiwum
- Blokowanie reklam na YouTube YouTube bez reklam
- TeamViewer - zdalne sterowanie komputerem Pobierz program umożliwiający komunikację z innym komputerem
- Jak sprawdzić cechy swojego komputera w systemie Windows: metody systemowe i programy specjalne
- Aktualizujemy przeglądarki na różnych urządzeniach: komputerze, tablecie, smartfonie Zainstaluj zaktualizowaną przeglądarkę gdzie i jak
Reklama
Generacja Celeronów Intela. Linie i oznaczenia współczesnych procesorów Intel |
Kupując dysk flash, wiele osób zadaje pytanie: „jak wybrać odpowiedni dysk flash”. Oczywiście wybór dysku flash nie jest taki trudny, jeśli dokładnie wiesz, w jakim celu jest kupowany. W tym artykule postaram się udzielić pełnej odpowiedzi na postawione pytanie. Postanowiłem napisać jedynie o tym na co zwrócić uwagę przy zakupie. Pendrive (napęd USB) to dysk przeznaczony do przechowywania i przesyłania informacji. Pendrive działa bardzo prosto bez baterii. Wystarczy podłączyć go do portu USB komputera. 1. Interfejs dysku flashW tej chwili dostępne są 2 interfejsy: USB 2.0 i USB 3.0. Jeśli zdecydujesz się na zakup dysku flash, polecam wziąć dysk flash z interfejsem USB 3.0. Interfejs ten powstał niedawno, jego główną cechą jest duża prędkość przesyłania danych. Porozmawiamy o prędkościach nieco niższych.Jest to jeden z głównych parametrów, na który należy zwrócić uwagę w pierwszej kolejności. Teraz sprzedawane są dyski flash o pojemności od 1 GB do 256 GB. Koszt dysku flash będzie bezpośrednio zależał od ilości pamięci. Tutaj musisz od razu zdecydować, w jakim celu kupujesz dysk flash. Jeśli zamierzasz przechowywać na nim dokumenty tekstowe, wystarczy 1 GB. Do pobierania i przesyłania filmów, muzyki, zdjęć itp. musisz wziąć im więcej, tym lepiej. Obecnie najpopularniejsze dyski flash mają pojemność od 8 GB do 16 GB. 3. Materiał obudowyKorpus może być wykonany z tworzywa sztucznego, szkła, drewna, metalu itp. Większość dysków flash jest wykonana z tworzywa sztucznego. Nie mogę tu nic doradzić, wszystko zależy od preferencji kupującego. 4. Szybkość przesyłania danychWcześniej pisałem, że istnieją dwa standardy: USB 2.0 i USB 3.0. Teraz wyjaśnię, czym się różnią. Standard USB 2.0 zapewnia prędkość odczytu do 18 Mbit/s i prędkość zapisu do 10 Mbit/s. Standard USB 3.0 zapewnia prędkość odczytu 20-70 Mbit/s i prędkość zapisu 15-70 Mbit/s. Tutaj myślę, że nie trzeba nic wyjaśniać.Obecnie w sklepach można znaleźć dyski flash o różnych kształtach i rozmiarach. Mogą mieć postać biżuterii, fantazyjnych zwierzątek itp. Tutaj radzę zabrać dyski flash z nasadką ochronną. 6. Ochrona hasłemIstnieją dyski flash wyposażone w funkcję ochrony hasłem. Taka ochrona odbywa się za pomocą programu znajdującego się na samym dysku flash. Hasło można ustawić zarówno na całym dysku flash, jak i na części znajdujących się na nim danych. Taki pendrive przyda się przede wszystkim osobom przenoszącym na niego informacje firmowe. Według producentów, jeśli je zgubisz, nie musisz się martwić o swoje dane. Nie takie proste. Jeśli taki pendrive wpadnie w ręce wyrozumiałej osoby, to zhakowanie go to tylko kwestia czasu.Te dyski flash wyglądają bardzo pięknie, ale nie polecam ich zakupu. Ponieważ są bardzo delikatne i często pękają na pół. Ale jeśli jesteś schludną osobą, nie wahaj się tego wziąć. WniosekJak zauważyłeś, istnieje wiele niuansów. A to dopiero wierzchołek góry lodowej. Moim zdaniem najważniejszymi parametrami przy wyborze są: standard pendrive'a, pojemność i szybkość zapisu i odczytu. I wszystko inne: projekt, materiał, opcje - to osobisty wybór każdego.Dzień dobry, moi drodzy przyjaciele. W dzisiejszym artykule chcę porozmawiać o tym, jak wybrać odpowiednią podkładkę pod mysz. Kupując dywan, wiele osób nie przywiązuje do tego żadnej wagi. Jak się jednak okazało, temu punktowi należy poświęcić szczególną uwagę, ponieważ... Mata jest jednym ze wskaźników komfortu pracy przy komputerze. Dla zapalonego gracza wybór dywanu to zupełnie inna historia. Przyjrzyjmy się, jakie rodzaje podkładek pod mysz zostały dziś wynalezione. Opcje maty1. Aluminium2. Szkło 3. Plastik 4. Gumowany 5. Dwustronne 6. Hel A teraz chciałbym omówić każdy typ bardziej szczegółowo. 1. Najpierw chcę rozważyć trzy opcje na raz: plastik, aluminium i szkło. Te dywaniki są bardzo popularne wśród graczy. Na przykład maty plastikowe są łatwiejsze do znalezienia w sprzedaży. Mysz ślizga się szybko i dokładnie po tych matach. A co najważniejsze, te podkładki pod mysz są odpowiednie zarówno dla myszy laserowych, jak i optycznych. Trochę trudniej będzie znaleźć maty aluminiowe i szklane. Tak, i będą dużo kosztować. To prawda, że \u200b\u200bjest ku temu powód - będą służyć przez bardzo długi czas. Tego typu dywany mają drobne wady. Wiele osób twierdzi, że szeleszczą podczas pracy i są nieco chłodne w dotyku, co u niektórych użytkowników może powodować dyskomfort.
Rozmiary matIstnieją trzy rodzaje dywanów: duże, średnie i małe. Tutaj wszystko zależy przede wszystkim od gustu użytkownika. Ale jak powszechnie uważa się, duże dywaniki nadają się do zabaw. Małe i średnie zabierane są głównie do pracy.Projekt dywanikówW tym zakresie nie ma żadnych ograniczeń. Wszystko zależy od tego, co chcesz zobaczyć na swoim dywanie. Na szczęście teraz nie rysują niczego na dywanikach. Najpopularniejsze są loga gier komputerowych, takich jak Dota, Warcraft, Line itp. Jeśli jednak zdarzy się, że nie znajdziesz dywanu z wybranym wzorem, nie martw się. Już teraz możesz zamówić nadruk na dywanie. Ale takie maty mają wadę: po nałożeniu druku na powierzchnię maty jego właściwości ulegają pogorszeniu. Design w zamian za jakość.Na tym chcę zakończyć artykuł. W swoim imieniu życzę Państwu dokonania właściwego wyboru i bycia z niego zadowolonym. Komputery typu all-in-one firmy Microsoft zostały uzupełnione o nowy model typu all-in-one o nazwie Surface Studio. Microsoft zaprezentował niedawno swój nowy produkt na wystawie w Nowym Jorku. Notatka! Kilka tygodni temu napisałem artykuł, w którym recenzowałem urządzenie Surface all-in-one. Ten batonik został zaprezentowany wcześniej. Aby zobaczyć artykuł kliknij. ProjektMicrosoft nazywa swój nowy produkt najcieńszym batonikiem na świecie. Ważąc 9,56 kg, grubość wyświetlacza wynosi zaledwie 12,5 mm, pozostałe wymiary to 637,35 x 438,9 mm. Wymiary wyświetlacza to 28 cali przy rozdzielczości większej niż 4K (4500x3000 pikseli) i proporcjach 3:2.Notatka! Rozdzielczość wyświetlacza 4500x3000 pikseli odpowiada 13,5 milionom pikseli. To o 63% więcej niż rozdzielczość 4K. Sam wyświetlacz typu „wszystko w jednym” jest wrażliwy na dotyk i mieści się w aluminiowej obudowie. Na takim wyświetlaczu bardzo wygodnie jest rysować rysikiem, co ostatecznie otwiera nowe możliwości wykorzystania batonika. Moim zdaniem ten model batonika przypadnie do gustu osobom kreatywnym (fotografom, projektantom itp.). Notatka! Osobom wykonującym zawody kreatywne radzę zapoznać się z artykułem, w którym recenzowałem komputery typu all-in-one o podobnej funkcjonalności. Kliknij na podświetlony: . Do wszystkiego, co napisano powyżej, dodam, że główną cechą batonika będzie jego możliwość błyskawicznej przemiany w tablet o ogromnej powierzchni roboczej. Notatka! Nawiasem mówiąc, Microsoft ma kolejny niesamowity batonik. Aby się o tym przekonać, przejdź do. Dane techniczneCharakterystykę przedstawię w formie zdjęcia.
CenaW przypadku zakupu komputera typu all-in-one zostanie na nim zainstalowana aktualizacja Windows 10 Creators Update. System ten powinien zostać wydany wiosną 2017 roku. Ten system operacyjny będzie miał zaktualizowane programy Paint, Office itp. Cena komputera typu all-in-one będzie wynosić od 3000 dolarów.Kochani piszcie w komentarzach co myślicie o tym batoniku, zadawajcie pytania. Chętnie porozmawiam! Firma OCZ zademonstrowała nowe dyski SSD VX 500. Dyski te będą wyposażone w interfejs Serial ATA 3.0 i będą wykonane w formacie 2,5 cala. Notatka! Wszystkich zainteresowanych tym, jak działają dyski SSD i jak długo działają, można przeczytać w artykule, który napisałem wcześniej:Nowe produkty wykonane są w technologii 15 nanometrów i będą wyposażone w mikrochipy pamięci flash Tochiba MLC NAND. Kontrolerem w dyskach SSD będzie Tochiba TC 35 8790. Gama dysków VX 500 będzie obejmować pojemności 128 GB, 256 GB, 512 GB i 1 TB. Według producenta prędkość odczytu sekwencyjnego wyniesie 550 MB/s (dotyczy to wszystkich dysków tej serii), natomiast prędkość zapisu wyniesie od 485 MB/s do 512 MB/s.
Na targach Gamescom 2016 firma Lenovo zaprezentowała swój nowy, gamingowy komputer typu all-in-one IdeaCentre Y910. Notatka! Wcześniej pisałem artykuł, w którym recenzowałem już monobloki gamingowe różnych producentów. Artykuł ten można obejrzeć klikając na ten. Nowy produkt Lenovo otrzymał bezramkowy wyświetlacz o przekątnej 27 cali. Rozdzielczość wyświetlacza wynosi 2560x1440 pikseli (jest to format QHD), częstotliwość odświeżania wynosi 144 Hz, a czas reakcji 5 ms.
MediaTek zdecydował się na modernizację swojego mobilnego procesora Helio X30. Dlatego teraz programiści z MediaTek projektują nowy procesor mobilny o nazwie Helio X35.
Na początku stycznia Intel oficjalnie wprowadził nową generację procesorów Intel Rdzeń na architekturze Kaby Jezioro. Aktualizacja okazała się dość dziwna, dlatego dzisiaj pominiemy długie dyskusje i porozmawiamy tylko o tym, co naprawdę warto wiedzieć. Fakt pierwszy: żadnych „tyk-tak”Przez długi czas Intel stosował prosty schemat aktualizacji procesorów: „tik-tak”. W jednym roku zaktualizowano proces techniczny, a w następnym wypuszczono nową architekturę. Przez pierwsze kilka lat rytm utrzymywał się niemal bezbłędnie, jednak w ostatnich latach schemat zaczął zauważalnie słabnąć. A w przypadku Kaby Lake producent oficjalnie przyznał, że nie da się już żyć z „tik-tak” i dodawany jest do tego kolejny etap, zwany „optymalizacją”, w którym wykończone zostaną już stworzone kryształy. Niestety, właśnie w tę nową fazę wpadło jezioro Kaby. Trudno powiedzieć, dlaczego Intel zdecydował się na zmianę. Zdaniem samej firmy winne są wysokie koszty przejścia na nowe procesy technologiczne. My jednak uważamy, że większą winę ponosi ogólny spadek sprzedaży na rynku komputerowym – coraz trudniej jest odzyskać pieniądze przy tak krótkich cyklach produkcyjnych. Fakt drugi: architekturaPomimo nowej nazwy i solidnego słowa „optymalizacja”, technicznie i strukturalnie Kaby Lake dokładnie kopiuje zeszłoroczne Skylake. Struktura chipów, struktura pamięci, logika działania, zestawy instrukcji – wszystko pozostaje takie samo. Nawet wskaźniki liczbowe nie uległy zmianie: maksymalnie cztery rdzenie, 8 MB pamięci podręcznej i 16 linii PCIe do komunikacji z kartą graficzną. Generalnie poza nazwą nie ma żadnych innowacji. Fakt trzeci: proces technicznyProces techniczny również pozostał niezmieniony. Kaby Lake jest produkowany w tych samych standardach 14 nm. Dopiero teraz do ich nazwy dodano znak plus (14 nm+), co faktycznie ukrywa część aktualizacji. W jeziorze Kaby wysokość żeberek i odległość między nimi nieznacznie wzrosły w przypadku tranzystorów. W rezultacie prądy upływowe i rozpraszanie ciepła nieznacznie spadły, co umożliwiło zwiększenie częstotliwości kryształów. Fakt czwarty: częstotliwość robocza
W porównaniu do procesorów poprzedniej generacji częstotliwość nowych kryształów wzrosła średnio o 200-300 MHz. Jednocześnie TDP modeli pozostało takie samo. Oznacza to, że przy tym samym 90 W nowy Core i7-7700K podnosi poprzeczkę do 4,5 GHz, podczas gdy i7-6700K wzrósł tylko do 4,2 GHz. Co więcej, procesory również lepiej się podkręcają. Jeśli średnio udało się wycisnąć 4,4-4,5 GHz ze Skylake, to dla Kaby Lake 4,8 GHz uważa się za normę, a przy udanym splocie okoliczności 5 GHz. I tak, mówimy teraz o pracy pod konwencjonalnymi chłodnicami powietrza. Od razu zauważmy, że tak jak poprzednio, wszystkie kryształy Intel Core i Pentium można podkręcać na magistrali, a modele z indeksem „K” można również podkręcać na mnożniku. Nawiasem mówiąc, odblokowane kryształy są teraz dostępne nie tylko w seriach Core i5 i Core i7, ale także w Core i3. I rodzina Pentium, najtańsze Kaby Lake, obsługuje teraz Hyper-Threading. Fakt piąty: wbudowane jądroZintegrowana grafika pozostaje również w Kaby Lake. Ale jeśli wcześniej był to Intel HD Graphics 530, teraz tak jest Grafika HD 630 . Ewolucja? Wcale nie, na pokładzie są jeszcze te same 24 bloki o częstotliwości 1150 MHz. Nowy numer w tytule został dodany dzięki zaktualizowanemu silnikowi multimedialnemu. Szybka synchronizacja. Może teraz dekodować wideo H.265 i VP.9 na bieżąco. Innymi słowy, jeśli jesteś zapalonym koneserem filmów 4K lub zamierzasz streamować w tej rozdzielczości, wiedz, że w przypadku Kaby Lake procesor nie będzie już obciążony w 100%. Jeśli chodzi o samą oprawę graficzną, trudno na nią narzekać. Bez problemu radzi sobie z renderowaniem Windowsa, a jako bonus radzi sobie także z niezbyt wymagającymi grami. Może wioska w Świat Rimów zbudować, a w nim więzienie Architekt więzienia spierdalaj, a nawet wejdź DOTA 2 prowadzić. Ten ostatni w Full HD i na średnich ustawieniach daje całkiem przyzwoite 62 fps. Fakt szósty: chipsetyWraz z Kaby Lake, Intel wprowadził także nowe chipsety z serii 200. To prawda, że jest w nich tyle samo zmian, co w procesorach. Starsze modele, Z270, otrzymały dodatkowe cztery linie PCIe, do których producenci płyt głównych mogą podłączyć dodatkowe porty USB lub M.2. Szczerze mówiąc, lista nie jest szczególnie intrygująca, ale niedobory w pewnym stopniu rekompensują producenci płyt. I tak np. w topowych płytach głównych ASUS Apex pojawiła się technologia DIMM.2, która pozwala na montaż dwóch dysków M.2 w gnieździe RAM. Nasz testowy Maximus IX Formula można z łatwością podłączyć do niestandardowego „podgrzewacza wody” w celu usuwania ciepła z obwodów zasilania. Jeśli jednak żadna z tych nowości nie przypadła Ci do gustu, mamy dla Ciebie przyjemny fakt. Nie zmienili gniazda dla Kaby Lake, pozostawiając znane już LGA 1151. Oznacza to, że nowe procesory świetnie radzą sobie na starych płytach głównych Z170 Express, ale Skylake działa dobrze na Z270. Fakt siódmy: Produktywność
I na koniec coś najważniejszego: wydajność. Testował nas starszy przedstawiciel linii - Core i7-7700K, który zastąpił Core i7-6600K. Jak już powiedzieliśmy, technicznie kryształy różnią się jedynie częstotliwością: w trybie Turbo Boost nowy produkt wytwarza o 300 MHz więcej, a w standardzie utrzymuje prędkość o 200 MHz wyższą. W rzeczywistości ta różnica w częstotliwości odpowiada za wzrost wydajności. We wszystkich zadaniach i7-7700K jest o około 5-6% szybszy niż jego poprzednik. A przy porównaniu przy tej samej częstotliwości różnica mieści się w błędzie pomiaru. Jeśli chodzi o temperaturę procesora, tutaj nic się nie zmieniło. Na granicy procesor bez problemu osiąga 80°C. Jednak nasz procesor został skalpowany i nawet przy częstotliwości 4,8 GHz nie nagrzewał się powyżej 70°C. * * *Intel Core i7 siódmej generacji trudno nazwać „nowym”. Zasadniczo mamy ten sam Skylake, ale przy nieco wyższych częstotliwościach. Czy to dobrze, czy źle, oceń sam, to jest nasza opinia. Jeśli używasz stosunkowo nowej architektury Intel (Skylake lub Haswell), nie ma sensu aktualizować do Kaby Lake. Ale jeśli budujesz komputer od zera, to do czasu premiery AMD Ryzen siódmy rdzeń jest jedyną słuszną opcją. Dziękujemy firmie ASUS za dostarczony sprzęt.
Tabela krótko opisuje główne wczesne etapy rozwoju procesorów Intel i ich analogów. Tutaj przejdziemy do rozważenia procesorów Pentium. Pentium – MP piątej generacji 22 marca 1993Pentium to procesor superskalarny z 32-bitową szyną adresową i 64-bitową szyną danych, wyprodukowany w technologii submikronowej z komplementarną strukturą MOS i składający się z 3,1 miliona tranzystorów (na powierzchni 16,25 centymetra kwadratowego). Procesor zawiera następujące bloki. Tabela z charakterystyką procesorów Intel, Cyrix, AMD
Tabela z charakterystyką procesorów Intel
RdzeńGłówny siłownik. Wydajność MP przy częstotliwości zegara 66 MHz wynosi około 112 milionów instrukcji na sekundę (MIPS). Pięciokrotny wzrost (w porównaniu do 80486 DX) został osiągnięty dzięki dwóm potokom, umożliwiającym jednoczesne wykonywanie wielu poleceń. Są to dwa równoległe, 5-stopniowe potoki przetwarzania liczb całkowitych, które umożliwiają jednoczesne odczytywanie, interpretowanie i wykonywanie dwóch poleceń.
Instrukcje całkowite mogą być wykonywane w jednym cyklu zegara. Te potoki nie są takie same: rurka w kształcie litery U wykonuje dowolną instrukcję z zestawu instrukcji z rodziny 86; Potok V wykonuje tylko „proste” polecenia, to znaczy polecenia, które są całkowicie wbudowane w obwód MP i nie wymagają sterowania mikrokodem po wykonaniu. Ciągłe ładowanie tych potoków z pamięci podręcznej wymaga dużej przepustowości. Oczywiście w powyższym przypadku połączone buforowanie poleceń i danych nie jest odpowiednie. Pentium posiada osobny bufor poleceń i danych – dwuwejściowy (atrybut procesorów RISC). Wymiana danych poprzez pamięć podręczną danych odbywa się całkowicie niezależnie od rdzenia procesora, a bufor instrukcji jest do niego podłączony za pomocą szybkiej 256-bitowej magistrali wewnętrznej. Każda pamięć podręczna ma pojemność 8 KB i umożliwia jednoczesne adresowanie. Dlatego w jednym cyklu zegara program może wyodrębnić 32 bajty (256:8=32) poleceń i wykonać dwa dostępy do danych (32x2=64). Predyktor oddziałówPróbuje odgadnąć kierunek rozgałęzienia programu i załadować informacje z wyprzedzeniem do bloków pobierania wstępnego i dekodowania poleceń. Bufor docelowy oddziału VTVBufor adresu rozgałęzienia zapewnia dynamiczne przewidywanie rozgałęzień. Poprawia wykonywanie instrukcji poprzez zapamiętywanie ukończonych rozgałęzień (ostatnich 256 rozgałęzień) i proaktywne wykonywanie najbardziej prawdopodobnych rozgałęzień po pobraniu instrukcji rozgałęzienia. Jeśli prognoza się sprawdzi, wydajność wzrasta, jeśli jednak nie, należy całkowicie zresetować przenośnik. Według Intela prawdopodobieństwo prawidłowego przewidzenia rozgałęzień w procesorach Pentium wynosi 75-90%. Jednostka zmiennoprzecinkowaWykonuje przetwarzanie zmiennoprzecinkowe. Przetwarzanie grafiki, aplikacje multimedialne i intensywne wykorzystanie komputera osobistego do rozwiązywania problemów obliczeniowych wymagają dużej wydajności podczas wykonywania operacji zmiennoprzecinkowych. Sprzętowa implementacja (zamiast oprogramowania sprzętowego) podstawowych operacji arytmetycznych (+, x i /) jest wykonywana w niezależnych, wysokowydajnych jednostkach, a 8-stopniowy potok umożliwia generowanie wyników w każdym cyklu zegara. Pamięć podręczna poziomu 1Procesor posiada dwa banki pamięci po 8 KB każdy, pierwszy na instrukcje, drugi na dane, które są szybsze niż bardziej pojemna zewnętrzna pamięć podręczna (pamięć podręczna L2). Interfejs magistraliPrzesyła strumień poleceń i danych do procesora centralnego, a także przesyła dane z procesora centralnego. W procesorze Pentium wprowadzono SMM (tryb zarządzania systemem). Tryb ten umożliwia realizację bardzo zaawansowanych funkcji systemowych, m.in. zarządzania energią czy bezpieczeństwem, które są transparentne dla systemu operacyjnego i uruchomionych aplikacji. Pentium Pro (1 listopada 1995)Pentium Pro (MP szóstej generacji) ma trzy potoki, z których każdy zawiera 14 stopni. Do ciągłego ładowania dostępna jest wysokowydajna pamięć podręczna instrukcji z czterema wejściami i wysokiej jakości system przewidywania rozgałęzień z 512 wejściami. Dodatkowo, w celu poprawy wydajności, zastosowano pamięć buforową drugiego poziomu (cache) o pojemności 256 KB, umieszczoną w osobnym chipie i zamontowaną w centralnej obudowie procesora. W efekcie możliwe stało się efektywne rozładowanie pięciu elementów wykonawczych: dwóch bloków arytmetyki całkowitej; czytaj blok (ładuj); napisz blok (zapisz); FPU (Jednostka zmiennoprzecinkowa - jednostka arytmetyczna zmiennoprzecinkowa). Pentium P55 (Pentium MMX)8 stycznia 1997 Pentium MMX - wersja Pentium z dodatkowymi funkcjami. Technologia MMX miała za zadanie dodać/rozszerzyć możliwości multimedialne komputerów. MMH ogłoszono w styczniu 1997 r., częstotliwości taktowania 166 i 200 MHz, a wersja 233 MHz pojawiła się w czerwcu tego samego roku. Proces technologiczny 0,35 μm, 4,5 miliona tranzystorów. Pentium 2 (7 maja 1997)Procesor jest modyfikacją Pentium Pro z obsługą możliwości MMX. Zmieniono konstrukcję obudowy - płytkę krzemową ze stykami wymieniono na wkładkę, zwiększono częstotliwość magistrali i częstotliwość zegara oraz rozszerzono polecenia MMX. Pierwsze modele (233-300 MHz) produkowane były w technologii 0,35 µm, kolejne – w technologii 0,25 µm. Modele 333 MHz zostały wypuszczone na rynek w styczniu 1998 roku i zawierały 7,5 miliona tranzystorów. W kwietniu tego samego roku pojawiły się wersje 350 i 400 MHz, a w sierpniu - 450 MHz. Wszystkie P2 mają 512 KB pamięci podręcznej L2. Dostępny jest także model do laptopów - Pentium 2 PE oraz do stacji roboczych - Pentium 2 Xeon 450 MHz. Pentium 3 (26 lutego 1999)RZ to jeden z najpotężniejszych i najbardziej produktywnych procesorów Intela, ale swoją konstrukcją niewiele różni się od P2, zwiększono częstotliwość i dodano około 70 nowych poleceń (SSE). Pierwsze modele zostały ogłoszone w lutym 1999 r., częstotliwości taktowania - 450,500, 550 i 600 MHz. Częstotliwość magistrali systemowej 100 MHz, 512 KB pamięci podręcznej drugiego poziomu, technologia procesowa 0,25 μm, 9,5 miliona tranzystorów. W październiku 1999 wypuszczono także wersję na komputery mobilne, wykonaną w technologii 0,18 mikrona i częstotliwościach 400,450, 500,550, 600,650, 700 i 733 MHz. Dla stacji roboczych i serwerów dostępny jest Heon RZ, skoncentrowany na logice systemu GX z pojemnością pamięci podręcznej drugiego poziomu 512 KB, 1 MB lub 2 MB. Pentium 4 (Willamette, 2000; Northwood, 2002)Rodziny Pentium 2, Pentium 3 i Celeron mają tę samą strukturę rdzenia, różniąc się głównie rozmiarem i organizacją pamięci podręcznej drugiego poziomu oraz obecnością zestawu instrukcji SSE, który pojawił się w Pentium 3. Po osiągnięciu częstotliwości 1 GHz Intel napotkał problemy z dalszym zwiększaniem częstotliwości swoich procesorów - Pentium 3 przy 1,13 GHz musiał zostać wycofany ze względu na jego niestabilność.
Problem polega na tym, że opóźnienia (opóźnienia) występujące podczas uzyskiwania dostępu do niektórych węzłów procesora są już w P6 zbyt duże. Tym samym pojawił się Pentium IV – oparty na architekturze zwanej architekturą Intel NetBurst. Architektura NetBurst opiera się na kilku innowacjach, które razem pozwalają nam osiągnąć ostateczny cel - zapewnienie rezerw wydajności i przyszłej skalowalności procesorom z rodziny Pentium IV. Kluczowe technologie obejmują:
Pentium IV Prescott (luty 2004)Na początku lutego 2004 roku Intel ogłosił cztery nowe procesory Pentium IV (2,8; 3,0; 3,2 i 3,4 GHz) oparte na rdzeniu Prescott, które zawierają szereg innowacji. Wraz z wypuszczeniem czterech nowych procesorów, Intel wprowadził na rynek procesor Pentium IV 3.4 EE (Extreme Edition), oparty na rdzeniu Northwood i posiadający 2 MB pamięci podręcznej L3, a także uproszczoną wersję Pentium IV 2.8 A, opartą na rdzeniu Northwood rdzeń Prescott z ograniczoną częstotliwością magistrali (533 MHz). Prescott wykonany jest w technologii 90 nm, co pozwoliło zmniejszyć powierzchnię chipa, a liczbę tranzystorów zwiększono ponad 2-krotnie. Podczas gdy rdzeń Northwood ma powierzchnię 145 milimetrów kwadratowych i mieści 55 milionów tranzystorów, rdzeń Prescott ma powierzchnię 122 milimetrów kwadratowych i zawiera 125 milionów tranzystorów. Wymieńmy kilka charakterystycznych cech procesora. Nowe polecenia SSEFirma Intel wprowadziła na targach Prescott nową technologię SSE3, która obejmuje 13 nowych poleceń przesyłania strumieniowego, które poprawią wydajność niektórych operacji, gdy programy zaczną z nich korzystać. SSE3 to nie tylko rozszerzenie SSE2, gdyż dodaje nowe polecenia, ale także pozwala ułatwić i zautomatyzować proces optymalizacji gotowych aplikacji za pomocą kompilatora. Innymi słowy, twórca oprogramowania nie będzie musiał przepisywać kodu programu, a jedynie go ponownie kompilować. Zwiększony rozmiar pamięci podręcznejJednym z najważniejszych (z punktu widzenia wydajności) dodatków jest pamięć podręczna drugiego poziomu powiększona do 1 MB. Zwiększono także objętość pamięci podręcznej pierwszego poziomu do 16 KB. Ulepszone wstępne pobieranie danychRdzeń Prescott ma ulepszony mechanizm wstępnego pobierania danych. Ulepszona funkcja HyperthreadinNowa wersja zawiera wiele nowych funkcji, które mogą zoptymalizować wielowątkowe wykonywanie różnych operacji. Jedyną wadą nowej wersji jest konieczność ponownej kompilacji oprogramowania i aktualizacji systemu operacyjnego. Zwiększona długość przenośnikaAby zwiększyć częstotliwość pracy przyszłych procesorów, rdzeń Prescott ma zwiększoną długość rurociągu z 20 do 31 stopni. Zwiększanie długości rurociągu ma negatywny wpływ na wydajność w przypadku błędnych przewidywań odgałęzień. Aby skompensować zwiększoną długość rurociągu, udoskonalono technologię przewidywania odgałęzień. Problemy z architekturą NetBurstWypuszczenie rdzenia Prescott, w którym Intel zastosował proces 90 nanometrów, ujawniło szereg problemów nie do pokonania. Początkowo NetBurst był ogłaszany przez specjalistów Intela jako architektura ze znacznym marginesem wydajności, który z biegiem czasu można było zrealizować poprzez stopniowe zwiększanie częstotliwości taktowania. W praktyce okazało się jednak, że zwiększenie częstotliwości taktowania procesora pociąga za sobą niedopuszczalny wzrost wydzielania ciepła i zużycia energii. Co więcej, równoległy rozwój technologii produkcji tranzystorów półprzewodnikowych nie pozwolił skutecznie przeciwdziałać wzrostowi właściwości elektrycznych i cieplnych. W rezultacie trzecia generacja procesorów z architekturą NetBurst (Prescott) pozostała w historii procesorów jako jedna z „najgorętszych” (procesory zbudowane na tym rdzeniu mogły zużywać i odpowiednio przydzielać do 160 W, otrzymując przydomek „ekspresy do kawy”), mimo że ich taktowanie nie przekroczyło 3,8 GHz. Wysokie wytwarzanie ciepła i zużycie energii spowodowały wiele powiązanych problemów. Procesory Prescott wymagały zastosowania specjalnych płyt głównych z ulepszonymi regulatorami napięcia i specjalnymi układami chłodzenia o zwiększonej wydajności. Problemy z dużym odprowadzaniem ciepła i poborem prądu nie byłyby tak zauważalne, gdyby nie fakt, że mimo to procesory Prescott nie potrafiły wykazać się wysoką wydajnością, przez co można było przymknąć oko na wspomniane niedociągnięcia. Poziom wydajności wyznaczony przez konkurencyjne procesory AMD Athlon 64 okazał się dla Prescotta praktycznie nieosiągalny, w efekcie czego dane centralnego procesora zaczęto postrzegać jako porażkę Intela. Nie było zatem szczególnie zaskakujące, gdy okazało się, że następcy NetBursta będą bazować na zasadzie efektywnego zużycia energii przyjętej w mikroarchitekturze mobilnej Intela i ucieleśnionej w rodzinie procesorów Pentium M. SmithfieldaZasadniczo rdzeń procesora Smithfield to nic innego jak para połączonych ze sobą matryc Prescott 1M (90 nm). Każdy rdzeń ma własną pamięć podręczną L2 (1 MB), do której inny rdzeń może uzyskać dostęp za pośrednictwem specjalnej magistrali interfejsu. Rezultatem jest kryształ o powierzchni 206 milimetrów kwadratowych zawierający 230 milionów tranzystorów. Oczekuje się, że wszystkie dwurdzeniowe układy do komputerów stacjonarnych będą obsługiwać technologie wprowadzone w ostatnich miesiącach 2004 roku jako innowacje Pentium 4 Extreme Edition - EM64T, E1ST, XD bit i Vandepool:
W maju 2005 roku wypuszczono na rynek trzy procesory Pentium D Smithfield o częstotliwościach 2,8, 3,0 i 3,2 GHz i numerach modeli odpowiednio 820.830 i 840. Pentium D. Pierwsze chipy Pentium D, wprowadzone na rynek w maju 2005 roku, zostały zbudowane w oparciu o technologię 90 nanometrów firmy Intel i miały numery modeli z serii 800. Najszybszy wypuszczony na rynek procesor centralny miał prędkość 3,2 GHz. Na początku 2006 roku wypuszczono na rynek próbkę Pentium D o numerze 900 i nazwie kodowej „Presler”, wyprodukowaną w 65-nanometrowym procesie Intela. Chipsy Preslera zawierają parę rdzeni Cedar Mill. Jednak w przeciwieństwie do poprzedniego Pentium D Smithfield, tutaj oba rdzenie są fizycznie oddzielone. Dołączenie dwóch oddzielnych matryc w jednym opakowaniu zapewnia elastyczność produkcyjną, umożliwiając użycie tej samej matrycy zarówno w jednordzeniowym procesorze Cedar Mill, jak i dwurdzeniowym procesorze Presler. Ponadto koszty produkcji ulegają obniżeniu, ponieważ w przypadku wykrycia wady wyrzucana jest tylko jedna matryca, a nie pakiet dwurdzeniowy.
Nowa technologia umożliwiła zwiększenie nie tylko częstotliwości zegara, ale także liczby tranzystorów w chipie. W rezultacie Presler ma 376 milionów tranzystorów w porównaniu do 230 milionów Smithfielda. Jednocześnie zmniejszono rozmiar kryształów z 206 do 162 milimetrów kwadratowych. Dzięki temu możliwe było zwiększenie pamięci podręcznej L2 Presler. Podczas gdy jego poprzednik korzystał z dwóch pamięci podręcznych L2 o pojemności 1 MB, procesory Presler zawierają moduły pamięci podręcznej L2 o pojemności 2 MB. Umieszczenie wielu rdzeni procesora w jednym chipie ma tę zaletę, że pamięć podręczna może pracować ze znacznie wyższymi częstotliwościami. Wiosną 2006 roku najszybszym ogłoszonym głównym procesorem Pentium D był model 950 3,4 GHz. Uważa się, że Pentium D jest ostatnim procesorem sygnowanym marką Pentium, flagowym produktem Intela od 1993 roku. Procesory Pentium XeonW czerwcu 1998 roku Intel rozpoczął produkcję centralnego procesora Pentium 11 Xeon, pracującego z częstotliwością 400 MHz. Technicznie rzecz biorąc, Xeon był połączeniem technologii Pentium Pro i Pentium 2 i został zaprojektowany w celu zapewnienia zwiększonej wydajności wymaganej w aplikacjach stacji roboczych i serwerów o znaczeniu krytycznym. Korzystając z interfejsu Slot 2, Xeony były prawie dwukrotnie większe od Pentium 2, głównie ze względu na większą pamięć podręczną L2. We wczesnych próbkach chip był wyposażony w pamięć podręczną L2 o pojemności 512 KB lub 1 MB. Pierwsza opcja przeznaczona była na rynek stacji roboczych, druga na serwery. Wersja 2 MB pojawiła się później, w 1999 r. Podobnie jak procesor Pentium 2 pracujący z częstotliwością 350–400 MHz, magistrala FSB (podstawowa magistrala) pracowała z częstotliwością 100 MHz. Istotnym ulepszeniem w stosunku do Pentium 2 było to, że pamięć podręczna L2 działała z szybkością rdzenia procesora, w przeciwieństwie do konfiguracji opartych na gnieździe 1, które ograniczały pamięć podręczną L2 do połowy szybkości procesora, umożliwiając firmie Intel używanie tańszej pamięci Burst SRAM jako pamięci podręcznej zamiast zwykłego SRAM. Kolejnym ograniczeniem, które zostało pokonane przez Slot 2, był „limit dwóch procesorów”. Korzystając z architektury SMP (symetryczny wieloprocesor), procesor Pentium 2 nie był w stanie obsługiwać systemów zawierających więcej niż dwie jednostki centralne, podczas gdy systemy oparte na Pentium 2 Xeon mogły łączyć cztery, osiem lub więcej procesorów. Następnie opracowano różne płyty główne i chipsety dla stacji roboczych i serwerów - model 440GX został zbudowany na podstawowej architekturze chipsetu 440BC i był przeznaczony dla stacji roboczych, natomiast model 450NX został opracowany głównie na rynek serwerowy. Krótko po wydaniu Pentium 3, wiosną 1999 roku wypuszczono Pentium 3 Xeon (nazwa kodowa Tanner). Był to podstawowy Pentium Xeop z dodatkiem nowego zestawu instrukcji Streaming SIMD Extensions (SSE). Przeznaczony na rynek serwerów i stacji roboczych, Pentium 3 Heop został początkowo wypuszczony z częstotliwością 500 MHz i 512 KB (lub 1,0–2,0 MB) pamięci podręcznej L2. Jesienią 1999 r. zaczęto wprowadzać na rynek procesory Xeon z rdzeniem Cascade (0,18 mikrona), których prędkości wzrosły z początkowych 667 MHz do 1 GHz pod koniec 2000 r. Wiosną 2001 roku wypuszczono na rynek pierwszy Xeon oparty na Pentium IV o częstotliwościach 1,4, 1,5 i 1,7 GHz. Oparty na rdzeniu Foster, był identyczny ze standardem Pentium IV, z wyjątkiem złącza microPGA Socket 603. Itanium (architektura IA-64)Architektura ta została ogłoszona przez firmę Intel w maju 1999 roku. Typowym przedstawicielem tej architektury jest procesor centralny Itanium. Procesory IA-64 dysponują potężnymi zasobami obliczeniowymi, w tym 128 rejestrami całkowitymi, 128 rejestrami zmiennoprzecinkowymi i 64 rejestrami predykcyjnymi, a także wieloma rejestrami specjalnego przeznaczenia. Polecenia muszą być pogrupowane w celu równoległego wykonania przez różne moduły funkcjonalne. Zestaw instrukcji jest zoptymalizowany pod kątem obsługi potrzeb obliczeniowych związanych z kryptografią, kodowaniem wideo i innymi funkcjami coraz bardziej wymaganymi przez następną generację serwerów i stacji roboczych. Procesory IA-64 obsługują także i rozwijają technologie MMX oraz rozszerzenia SIMD. Architektura IA-64 nie jest ani 64-bitową wersją architektury Intel IA-32, ani adaptacją proponowanej przez firmę Hewlett-Packard 64-bitowej architektury PA-RISC, ale jest projektem całkowicie oryginalnym. IA-64 to kompromis pomiędzy CISC i RISC, próba ich kompatybilności - istnieją dwa tryby dekodowania instrukcji - VLIW i CISC. Programy automatycznie przełączają się do wymaganego trybu wykonywania. Kluczowe innowacje IA-64: długie słowa instrukcji (LIW), przewidywanie instrukcji, eliminacja rozgałęzień, ładowanie spekulatywne i inne sztuczki mające na celu „wydobycie większej równoległości” » z kodu programu. Tabela głównych różnic pomiędzy architekturami IA-32 i IA-64Głównym problemem architektury IA-64 jest brak wbudowanej kompatybilności z kodem x86, co nie pozwala procesorom IA-64 efektywnie współpracować z oprogramowaniem rozwijanym przez ostatnie 20-30 lat. Intel wyposaża swoje procesory IA-64 (Itanium, Itanium 2 itp.) w dekoder, który konwertuje instrukcje x86 na instrukcje IA-64. Wybierając procesor Intela pojawia się pytanie: jaki chip tej korporacji wybrać? Procesory mają wiele cech i parametrów, które wpływają na ich wydajność. I zgodnie z nią i niektórymi cechami mikroarchitektury producent podaje odpowiednią nazwę. Naszym zadaniem jest nagłośnienie tego problemu. W tym artykule dowiesz się, co dokładnie oznaczają nazwy procesorów Intel, a także poznasz mikroarchitekturę chipów tej firmy. NotatkaNależy z góry zauważyć, że rozwiązania sprzed 2012 roku nie będą tutaj brane pod uwagę, ponieważ technologia rozwija się w szybkim tempie, a chipy te mają zbyt małą wydajność przy dużym zużyciu energii, a także trudno je kupić w nowym stanie. Również rozwiązania serwerowe nie będą tutaj brane pod uwagę, ponieważ mają one określony zakres i nie są przeznaczone na rynek konsumencki. Uwaga, podana poniżej nomenklatura może nie obowiązywać w przypadku procesorów starszych niż okres wskazany powyżej. A jeśli napotkasz jakiekolwiek trudności, możesz odwiedzić stronę internetową. I przeczytaj ten artykuł, który mówi o. A jeśli chcesz wiedzieć o zintegrowanej grafice firmy Intel, powinieneś to zrobić. TIK TakIntel ma specjalną strategię wypuszczania swoich „kamieni”, zwaną Tik-Tak. Polega na corocznych, konsekwentnych udoskonaleniach.
Tak wygląda ta strategia dla modeli komputerów stacjonarnych i laptopów:
Natomiast w przypadku rozwiązań o niskim poborze mocy (smartfony, tablety, netbooki, nettopy) platformy wyglądają następująco:
Warto zaznaczyć, że Bay Trail-D jest przeznaczony dla komputerów stacjonarnych: Pentium i Celeron z indeksem J. Natomiast Bay Trail-M jest rozwiązaniem mobilnym i także wśród Pentium i Celerona będzie oznaczany literą N. Sądząc po najnowszych trendach firmy, sama wydajność postępuje dość powoli, natomiast efektywność energetyczna (wydajność na jednostkę zużytej energii) rośnie z roku na rok, a już niedługo laptopy będą miały takie same wydajne procesory jak duże pecety (choć tacy przedstawiciele nadal istnieją) .
Historia procesorów Intel | Pierworodny – Intel 4004
Intel sprzedał swój pierwszy mikroprocesor w 1971 roku. Był to 4-bitowy chip o nazwie kodowej 4004. Został zaprojektowany do współpracy z trzema innymi mikrochipami: ROM 4001, RAM 4002 i rejestrem przesuwnym 4003. 4004 wykonał rzeczywiste obliczenia, a pozostałe komponenty były krytyczne dla działania procesor. Chipy 4004 były używane głównie w kalkulatorach i podobnych urządzeniach i nie były przeznaczone do komputerów. Jego maksymalna częstotliwość taktowania wynosiła 740 kHz. Po modelu 4004 pojawił się podobny procesor o nazwie 4040, który był zasadniczo ulepszoną wersją 4004 z rozszerzonym zestawem instrukcji i wyższą wydajnością. Historia procesorów Intel | 8008 i 8080
Dzięki modelowi 4004 Intel umocnił swoją pozycję na rynku mikroprocesorów i aby wykorzystać tę sytuację, wprowadził nową serię procesorów 8-bitowych. Chipy 8008 pojawiły się w 1972 r., następnie 8080 w 1974 r. i 8085 w 1975 r. Chociaż procesor 8008 jest pierwszym 8-bitowym mikroprocesorem firmy Intel, nie był tak dobrze znany jak jego poprzednik lub następca, model 8080. przetwarzający dane w formacie 8 -bitowych blokach, 8008 był szybszy niż 4004, ale miał raczej skromne taktowanie 200-800 kHz i nie przyciągał szczególnie uwagi projektantów systemów. Model 8008 został wyprodukowany w technologii 10 mikrometrów. Znacznie większy sukces odniósł Intel 8080. Projekt architektoniczny chipów 8008 został zmieniony w związku z dodaniem nowych instrukcji i przejściem na tranzystory 6 mikrometrów. Pozwoliło to Intelowi na ponad dwukrotne zwiększenie częstotliwości taktowania, a najszybsze procesory 8080 w 1974 roku pracowały z częstotliwością 2 MHz. Procesory 8080 były używane w niezliczonej liczbie urządzeń, co spowodowało, że kilku twórców oprogramowania, takich jak nowo utworzona firma Microsoft, skupiło się na oprogramowaniu dla procesorów Intel. Ostatecznie późniejsze mikrochipy 8086 miały tę samą architekturę co 8080, aby zachować kompatybilność wsteczną z napisanym dla nich oprogramowaniem. W rezultacie kluczowe bloki sprzętowe procesorów 8080 były obecne w każdym kiedykolwiek wyprodukowanym procesorze opartym na architekturze x86. Oprogramowanie dla 8080 może technicznie działać również na dowolnym procesorze x86. Procesory 8085 były zasadniczo tańszą wersją 8080 z wyższą częstotliwością taktowania. Odniosły ogromny sukces, choć pozostawiły mniejszy ślad w historii. Historia procesorów Intel | 8086: początek ery x86
Pierwszym 16-bitowym procesorem Intela był 8086. Miał on znacznie większą wydajność niż 8080. Oprócz zwiększonej częstotliwości taktowania, procesor miał 16-bitową magistralę danych i sprzętowe jednostki wykonawcze, które umożliwiały 8086 jednoczesne wykonywanie dwóch ośmio-bitowych procesorów. instrukcje bitowe. Ponadto procesor mógł wykonywać bardziej złożone operacje 16-bitowe, ale większość programów w tamtym czasie była tworzona dla procesorów 8-bitowych, więc obsługa operacji 16-bitowych nie była tak istotna jak wielozadaniowość procesora. Szerokość magistrali adresowej została rozszerzona do 20 bitów, co dało procesorowi 8086 dostęp do 1 MB pamięci i zwiększoną wydajność. Model 8086 był także pierwszym procesorem x86. Wykorzystał pierwszą wersję zestawu instrukcji x86, który od czasu wprowadzenia chipa zasila prawie każdy procesor AMD i Intel. Mniej więcej w tym samym czasie Intel wypuścił chip 8088. Był oparty na 8086, ale miał wyłączoną połowę magistrali adresowej i był ograniczony do operacji 8-bitowych. Miał jednak dostęp do 1 MB pamięci RAM i działał na wyższych częstotliwościach, dzięki czemu był szybszy od poprzednich 8-bitowych procesorów Intela. Historia procesorów Intel | 80186 i 80188
Po 8086 Intel wprowadził kilka innych procesorów, z których wszystkie korzystały z podobnej architektury 16-bitowej. Pierwszym był układ 80186. Został opracowany w celu uproszczenia projektowania gotowych systemów. Firma Intel przeniosła do procesora niektóre elementy sprzętowe, które normalnie znajdowałyby się na płycie głównej, w tym generator zegara, kontroler przerwań i timer. Dzięki integracji tych komponentów z procesorem, 80186 stał się wielokrotnie szybszy niż 8086. Intel zwiększył także częstotliwość taktowania chipa, aby jeszcze bardziej poprawić wydajność. Procesor 80188 również miał wiele komponentów sprzętowych zintegrowanych z chipem, ale radził sobie z 8-bitową magistralą danych, taką jak 8088, i był oferowany jako rozwiązanie budżetowe. Historia procesorów Intel | 80286: więcej pamięci, większa wydajność
Po wydaniu 80186, w tym samym roku pojawił się 80286. Miał prawie identyczne właściwości, z wyjątkiem magistrali adresowej rozszerzonej do 24-bitów, co w tzw. Trybie chronionym procesora umożliwiało mu współpracę z Pamięć RAM do 16MB. Historia procesorów Intel | iAPX432
iAPX 432 był wczesną próbą Intela odejścia od architektury x86 w zupełnie innym kierunku. Według obliczeń Intela iAPX 432 powinien być kilkukrotnie szybszy od pozostałych rozwiązań firmy. Ale ostatecznie procesor zawiódł z powodu znaczących wad konstrukcyjnych. Podczas gdy procesory x86 uważano za stosunkowo złożone, iAPx 432 przeniósł złożoność CISC na zupełnie nowy poziom. Konfiguracja procesora była dość nieporęczna, co zmusiło firmę Intel do wyprodukowania procesora na dwóch oddzielnych matrycach. Procesor został również zaprojektowany do dużych obciążeń i nie mógł działać dobrze, gdy przepustowość magistrali lub przepływ danych były niewystarczające. iAPX 432 był w stanie przewyższyć procesory 8080 i 8086, ale szybko został przyćmiony przez nowsze procesory x86 i ostatecznie został porzucony. Historia procesorów Intel | i960: pierwszy procesor RISC firmy Intel
W 1984 roku Intel stworzył swój pierwszy procesor RISC. Nie był bezpośrednim konkurentem procesorów opartych na architekturze x86, gdyż był przeznaczony do bezpiecznych rozwiązań wbudowanych. Układy te wykorzystywały 32-bitową architekturę superskalarną, w której zastosowano koncepcję projektową Berkeley RISC. Pierwsze procesory i960 miały stosunkowo niskie taktowanie (młodszy model pracował na poziomie 10 MHz), jednak z biegiem czasu architekturę udoskonalono i przeniesiono na cieńsze procesy techniczne, co umożliwiło podniesienie częstotliwości do 100 MHz. Obsługiwały także 4 GB pamięci chronionej. Model i960 był szeroko stosowany w systemach wojskowych, a także w segmencie korporacyjnym. Historia procesorów Intel | 80386: przejście z wersji x86 na wersję 32-bitową
Pierwszym 32-bitowym procesorem x86 firmy Intel był 80386, który pojawił się w 1985 roku. Jego kluczową zaletą była 32-bitowa magistrala adresowa, która umożliwiała zaadresowanie aż 4 GB pamięci systemowej. Chociaż w tamtych czasach praktycznie nikt nie używał tak dużej ilości pamięci, ograniczenia pamięci RAM często szkodziły wydajności poprzednich procesorów x86 i konkurencyjnych procesorów. W przeciwieństwie do nowoczesnych procesorów, kiedy wprowadzono 80386, zwiększenie ilości pamięci RAM prawie zawsze oznaczało zwiększenie wydajności. Firma Intel wdrożyła także szereg ulepszeń architektonicznych, które pomogły poprawić wydajność powyżej poziomów 80286, nawet gdy oba systemy wykorzystywały tę samą ilość pamięci RAM. Aby dodać do linii produktów bardziej przystępne modele, Intel wprowadził model 80386SX. Procesor ten był prawie identyczny z 32-bitowym 80386, ale był ograniczony do 16-bitowej magistrali danych i obsługiwał tylko do 16 MB pamięci RAM. Historia procesorów Intel | i860
W 1989 roku Intel podjął kolejną próbę odejścia od procesorów x86. Stworzyła nowy procesor o architekturze RISC o nazwie i860. W przeciwieństwie do i960, ten procesor został zaprojektowany jako model o wysokiej wydajności na rynek komputerów stacjonarnych, ale konstrukcja procesora miała pewne wady. Najważniejszym z nich było to, że aby osiągnąć wysoką wydajność, procesor całkowicie polegał na kompilatorach oprogramowania, które musiały umieszczać instrukcje w kolejności ich wykonywania w momencie tworzenia pliku wykonywalnego. Pomogło to firmie Intel w utrzymaniu rozmiaru kości i zmniejszeniu złożoności chipa i860, ale podczas kompilowania programów prawie niemożliwe było uzyskanie kolejności poszczególnych instrukcji od początku do końca. Zmusiło to procesor do spędzenia większej ilości czasu na przetwarzaniu danych, co drastycznie zmniejszyło jego wydajność. Historia procesorów Intel | 80486: Integracja FPU
Procesor 80486 był kolejnym dużym krokiem Intela pod względem wydajności. Kluczem do sukcesu była ściślejsza integracja komponentów z procesorem. Model 80486 był pierwszym procesorem x86 z pamięcią podręczną L1 (pierwszego poziomu). Pierwsze próbki 80486 miały 8 KB pamięci podręcznej w chipie i zostały wyprodukowane przy użyciu technologii procesu 1000 nm. Ale wraz z przejściem na 600 nm rozmiar pamięci podręcznej L1 wzrósł do 16 KB. Intel umieścił także w procesorze FPU, który wcześniej był oddzielną funkcjonalną jednostką przetwarzającą. Przenosząc te komponenty do centralnego procesora, Intel znacznie zmniejszył opóźnienia między nimi. Aby zwiększyć przepustowość, procesory 80486 wykorzystywały również szybszy interfejs FSB. Aby poprawić szybkość przetwarzania danych zewnętrznych, wprowadzono wiele ulepszeń w jądrze i innych komponentach. Zmiany te znacząco zwiększyły wydajność procesorów 80486, które były wielokrotnie szybsze od starego 80386. Pierwsze procesory 80486 osiągały prędkość 50 MHz, a późniejsze modele, produkowane w procesie 600 nm, mogły pracować z częstotliwością do 100 MHz. Dla kupujących z mniejszym budżetem Intel wypuścił wersję 80486SX, w której FPU zostało zablokowane. Historia procesorów Intel | P5: pierwszy procesor Pentium
Pentium pojawił się na rynku w 1993 roku i był pierwszym procesorem Intel x86, który nie stosował systemu numeracji 80x86. Pentium wykorzystywało architekturę P5, pierwszą superskalarną mikroarchitekturę x86 firmy Intel. Chociaż Pentium był ogólnie szybszy niż 80486, jego główną cechą był znacznie ulepszony FPU. Oryginalny procesor FPU Pentium był ponad dziesięciokrotnie szybszy niż stara jednostka 80486. Znaczenie tego ulepszenia wzrosło dopiero, gdy Intel wypuścił Pentium MMX. Procesor ten pod względem mikroarchitektury jest identyczny z pierwszym Pentium, jednak obsługuje zestaw instrukcji Intel MMX SIMD, co pozwala znacząco zwiększyć szybkość poszczególnych operacji. W porównaniu do 80486, Intel zwiększył pojemność pamięci podręcznej L1 w nowych procesorach Pentium. Pierwsze modele Pentium miały 16 KB pamięci podręcznej pierwszego poziomu, a Pentium MMX otrzymało już 32 KB. Naturalnie chipy te działały z wyższymi częstotliwościami taktowania. Pierwsze procesory Pentium wykorzystywały tranzystory 800 nm i osiągały jedynie 60 MHz, ale kolejne wersje zbudowane w procesie Intela 250 nm osiągały 300 MHz (rdzeń Tillamook). Historia procesorów Intel | P6: Pentium Pro
Krótko po pierwszym Pentium Intel planował wypuścić Pentium Pro oparty na architekturze P6, ale napotkał problemy techniczne. Pentium Pro wykonywał operacje 32-bitowe znacznie szybciej niż oryginalny Pentium z powodu wykonywania instrukcji poza kolejnością. Procesory te miały mocno przeprojektowaną architekturę wewnętrzną, która dekodowała instrukcje w mikrooperacje wykonywane na modułach ogólnego przeznaczenia. Ze względu na dodatkowy sprzęt dekodujący, Pentium Pro korzystał również ze znacznie rozszerzonego 14-poziomowego potoku. Ponieważ pierwsze procesory Pentium Pro były przeznaczone na rynek serwerowy, Intel ponownie rozszerzył magistralę adresową do 36-bitowej i dodał technologię PAE, umożliwiając zaadresowanie do 64 GB pamięci RAM. To znacznie więcej, niż potrzebował przeciętny użytkownik, ale dla klientów serwerów niezwykle ważna była możliwość obsługi dużych ilości pamięci RAM. Przeprojektowano także system pamięci podręcznej procesora. Pamięć podręczna L1 była ograniczona do dwóch segmentów o wielkości 8 KB, jednego na instrukcje i jednego na dane. Aby zrekompensować deficyt 16 KB pamięci w porównaniu z Pentium MMX, Intel dodał 256 KB do 1 MB pamięci podręcznej L2 w oddzielnym chipie dołączonym do pakietu procesora. Został podłączony do procesora za pomocą wewnętrznej magistrali danych (BSB). Początkowo Intel planował sprzedaż Pentium Pro zwykłym użytkownikom, ale ostatecznie ograniczył jego premierę do modeli dla systemów serwerowych. Pentium Pro miał kilka rewolucyjnych funkcji, ale nadal konkurował z Pentium i Pentium MMX pod względem wydajności. Dwa starsze procesory Pentium były znacznie szybsze przy operacjach 16-bitowych, a wówczas dominowało oprogramowanie 16-bitowe. Procesor zyskał także obsługę zestawu instrukcji MMX, w rezultacie Pentium MMX przewyższał Pentium Pro w programach zoptymalizowanych pod kątem MMX. Pentium Pro miał szansę utrzymać się na rynku konsumenckim, ale był dość drogi w produkcji ze względu na oddzielny chip zawierający pamięć podręczną L2. Najszybszy procesor Pentium Pro osiągnął częstotliwość taktowania 200 MHz i został wyprodukowany w procesach produkcyjnych 500 i 350 nm. Historia procesorów Intel | P6: Pentium II
Intel nie porzucił architektury P6 i w 1997 roku wprowadził Pentium II, który naprawił prawie wszystkie niedociągnięcia Pentium Pro. Podstawowa architektura była podobna do Pentium Pro. Wykorzystywał również 14-warstwowy potok i miał pewne ulepszenia jądra, które zwiększały szybkość wykonywania instrukcji. Zwiększono rozmiar pamięci podręcznej L1 - 16 KB na dane plus 16 KB na instrukcje. Aby obniżyć koszty produkcji, Intel zdecydował się również na tańsze układy pamięci podręcznej dołączane do większego procesora. Był to skuteczny sposób na obniżenie ceny Pentium II, ale moduły pamięci nie mogły pracować z maksymalną szybkością procesora. W rezultacie pamięć podręczna L2 była taktowana tylko o połowę szybciej niż procesor, ale w przypadku wczesnych modeli procesorów było to wystarczające, aby poprawić wydajność. Intel dodał także zestaw instrukcji MMX. Rdzenie procesora Pentium II, o nazwach kodowych „Klamath” i „Deschutes”, były również sprzedawane pod zorientowanymi na serwer markami Xeon i Pentium II Overdrive. Modele o najwyższej wydajności miały 512 KB pamięci podręcznej L2 i taktowania do 450 MHz. Historia procesorów Intel | P6: Pentium III i walka o 1 GHz
Po Pentium II Intel planował wypuścić procesor oparty na architekturze Netburst, ale nie był on jeszcze gotowy. Dlatego w Pentium III firma ponownie zastosowała architekturę P6. Pierwszy procesor Pentium III nosił nazwę kodową „Katmai” i był bardzo podobny do Pentium II: wykorzystywał uproszczoną pamięć podręczną L2, która działała z szybkością tylko o połowę mniejszą niż procesor. Podstawowa architektura uległa znaczącym zmianom, w szczególności kilka części 14-poziomowego rurociągu zostało połączonych w 10 etapów. Dzięki zaktualizowanemu potokowi i zwiększonej częstotliwości taktowania, pierwsze procesory Pentium III były zwykle nieco szybsze niż Pentium II. Katmai został wyprodukowany w technologii 250 nm. Jednak po przejściu na proces produkcyjny 180 nm Intelowi udało się znacznie zwiększyć wydajność Pentium III. Zaktualizowana wersja o nazwie kodowej „Coppermine” przeniosła pamięć podręczną L2 do procesora i zmniejszyła jej rozmiar o połowę (do 256 KB). Ponieważ jednak mógł działać z szybkością procesora, poziom wydajności nadal się poprawiał. Coppermine ścigał się z AMD Athlon na 1 GHz i radził sobie dobrze. Intel później próbował wypuścić model procesora 1,13 GHz, ale ostatecznie został on wycofany Dr Thomas Pabst z Tom's Hardware odkrył niestabilność w swojej pracy. W rezultacie chip 1 GHz pozostał najszybszym procesorem Pentium III opartym na Coppermine. Najnowsza wersja rdzenia Pentium III nosiła nazwę „Tualatin”. Przy jego tworzeniu wykorzystano technologię procesową 130 nm, która umożliwiła osiągnięcie częstotliwości taktowania 1,4 GHz. Zwiększono pamięć podręczną L2 do 512 KB, co również pozwoliło na niewielki wzrost wydajności. Historia procesorów Intel | P5 i P6: Celeron i Xeon
Wraz z Pentium II Intel wprowadził także linie procesorów Celeron i Xeon. Używali rdzenia Pentium II lub Pentium III, ale z różną ilością pamięci podręcznej. Pierwsze procesory marki Celeron, oparte na Pentium II, w ogóle nie miały pamięci podręcznej L2, a wydajność była straszna. Późniejsze modele oparte na Pentium III miały o połowę mniejszą pojemność pamięci podręcznej L2. Otrzymaliśmy zatem procesory Celeron, które korzystały z rdzenia Coppermine i miały zaledwie 128 KB pamięci podręcznej L2, a późniejsze modele oparte na Tualatin miały już 256 KB. Wersje z pół pamięcią podręczną nazywano także Coppermine-128 i Tualatin-256. Częstotliwość tych procesorów była porównywalna z Pentium III i pozwalała konkurować z procesorami AMD Duron. Microsoft zastosował w konsoli do gier Xbox procesor Celeron Coppermine-128 733 MHz. Pierwsze procesory Xeon również były oparte na Pentium II, ale miały więcej pamięci podręcznej L2. W przypadku modeli podstawowych jego objętość wynosiła 512 KB, podczas gdy starsi bracia mogli mieć aż do 2 MB. Historia procesorów Intel | Netburst: premiera
Przed omówieniem architektury Intel Netburst i Pentium 4 ważne jest, aby zrozumieć zalety i wady jego długiego rozwoju. Koncepcja potoku odnosi się do przepływu instrukcji przez rdzeń. Każdy etap potoku wykonuje wiele zadań, ale czasami może być realizowana tylko jedna funkcja. Potok można rozbudowywać dodając nowe bloki sprzętowe lub dzieląc jeden etap na kilka. Można go również zmniejszyć, usuwając bloki sprzętowe lub łącząc kilka etapów przetwarzania w jeden. Długość lub głębokość potoku ma bezpośredni wpływ na opóźnienia, IPC, prędkość zegara i przepustowość. Dłuższe potoki zazwyczaj wymagają większej przepustowości z innych podsystemów, a jeśli potok stale otrzymuje wymaganą ilość danych, żaden etap potoku nie będzie bezczynny. Ponadto procesory z długimi potokami mogą zwykle działać z wyższymi częstotliwościami taktowania. Wadą długiego potoku jest zwiększone opóźnienie wykonania, ponieważ dane przechodzące przez potok są zmuszone „zatrzymywać się” na każdym etapie przez określoną liczbę cykli. Ponadto procesory, które mają długi potok, mogą mieć niższy IPC, dlatego używają wyższych częstotliwości taktowania, aby poprawić wydajność. Z biegiem czasu procesory stosujące podejście łączone okazały się skuteczne bez znaczących wad. Historia procesorów Intel | Netburst: Pentium 4 Willamette i Northwood
W 2000 roku architektura Netburst firmy Intel była wreszcie gotowa i ujrzała światło dzienne w procesorach Pentium 4, dominując przez następne sześć lat. Pierwsza wersja jądra nosiła nazwę „Willamette”, pod którą Netburst i Pentium 4 istniały przez dwa lata. Był to jednak trudny okres dla Intela i nowy procesor miał trudności z dotrzymaniem kroku Pentium III. Mikroarchitektura Netburst pozwalała na wyższe częstotliwości, a procesory oparte na Willamette były w stanie osiągnąć 2 GHz, ale w niektórych zadaniach Pentium III przy 1,4 GHz był szybszy. W tym okresie procesory AMD Athlon miały większą przewagę wydajnościową. Problem z Willamette polegał na tym, że Intel rozszerzył swój rurociąg do 20 stopni i planował osiągnąć częstotliwość 2 GHz, ale ze względu na ograniczenia mocy i ciepła nie był w stanie osiągnąć swoich celów. Sytuacja poprawiła się wraz z pojawieniem się mikroarchitektury Intela „Northwood” i zastosowaniem nowej technologii procesowej 130 nm, która zwiększyła taktowanie do 3,2 GHz i podwoiła pamięć podręczną L2 z 256 KB do 512 KB. Jednak problemy z poborem energii i odprowadzaniem ciepła architektury Netburst nie zniknęły. Jednak wydajność Northwooda była znacznie wyższa i mogła konkurować z nowymi chipami AMD. W procesorach z najwyższej półki Intel wprowadził technologię Hyper-Threading, która zwiększa efektywność wykorzystania zasobów rdzenia podczas wielozadaniowości. Korzyści z Hyper-Threading w chipach Northwood nie były tak duże, jak we współczesnych procesorach Core i7 – wzrost wydajności wyniósł zaledwie kilka procent. Rdzenie Willamette i Northwood zastosowano także w procesorach z serii Celeron i Xeon. Podobnie jak w przypadku poprzednich generacji procesorów Celeron i Xeon, Intel odpowiednio zmniejszył i zwiększył rozmiar pamięci podręcznej L2, aby różnicować je pod względem wydajności. Historia procesorów Intel | P6: Pentium-M
Mikroarchitektura Netburst została zaprojektowana dla wysokowydajnych procesorów Intel, więc była dość energochłonna i nieodpowiednia dla systemów mobilnych. Dlatego w 2003 roku Intel stworzył swoją pierwszą architekturę przeznaczoną wyłącznie dla laptopów. Procesory Pentium-M bazowały na architekturze P6, ale z dłuższymi potokami 12-14 poziomów. Dodatkowo jako pierwsza zaimplementowała potok o zmiennej długości – jeśli do pamięci podręcznej załadowano już informacje niezbędne do wykonania instrukcji, instrukcje mogły zostać wykonane po przejściu przez 12 etapów. W przeciwnym razie musieli przejść dwa dodatkowe kroki, aby pobrać dane. Pierwszy z tych procesorów został wyprodukowany w procesie technologicznym 130 nm i zawierał 1 MB pamięci podręcznej L2. Osiągał częstotliwość 1,8 GHz przy poborze mocy zaledwie 24,5 W. Późniejsza wersja o nazwie „Dothan” z tranzystorami 90 nm została wypuszczona w 2004 roku. Przejście na cieńszy proces produkcyjny pozwoliło firmie Intel zwiększyć pamięć podręczną L2 do 2 MB, co w połączeniu z pewnymi ulepszeniami rdzenia znacznie zwiększyło wydajność na taktowanie. Ponadto maksymalna częstotliwość procesora wzrosła do 2,27 GHz przy niewielkim wzroście zużycia energii do 27 W. Architektura procesora Pentium-M została następnie wykorzystana w mobilnych chipach Stealey A100, które zostały zastąpione procesorami Intel Atom. Historia procesorów Intel | Netburst: Prescott
Rdzeń Northwood o architekturze Netburst przetrwał na rynku od 2002 do 2004 roku, po czym Intel wprowadził rdzeń Prescott z licznymi ulepszeniami. Podczas produkcji wykorzystano technologię procesową 90 nm, która pozwoliła Intelowi zwiększyć pamięć podręczną L2 do 1 MB. Intel wprowadził także nowy interfejs procesora LGA 775, który miał obsługę pamięci DDR2 i czterokrotnie rozszerzoną magistralę FSB. Dzięki tym zmianom Prescott miał większą przepustowość niż Northwood, co było konieczne do poprawy wydajności Netbursta. Ponadto, bazując na Prescott, Intel pokazał pierwszy 64-bitowy procesor x86 z dostępem do większej pamięci RAM. Intel spodziewał się, że procesory Prescott odniosą największy sukces spośród chipów opartych na Netburst, ale zamiast tego zawiodły. Intel ponownie rozszerzył potok wykonywania instrukcji, tym razem do 31 etapów. Firma miała nadzieję, że wzrost taktowania wystarczy, aby zrekompensować dłuższy potok, ale udało się osiągnąć jedynie 3,8 GHz. Procesory Prescott były zbyt gorące i zużywały zbyt dużo energii. Intel miał nadzieję, że przejście na technologię procesową 90 nm wyeliminuje ten problem, ale zwiększona gęstość tranzystorów tylko utrudniła chłodzenie procesorów. Osiągnięcie wyższych częstotliwości nie było możliwe, a zmiany w rdzeniu Prescott miały negatywny wpływ na ogólną wydajność. Nawet przy wszystkich ulepszeniach i dodatkowej pamięci podręcznej Prescott w najlepszym przypadku dorównywał Northwood pod względem losowości na zegar. W tym samym czasie procesory AMD K8 również przeszły na cieńszą technologię procesową, co umożliwiło zwiększenie ich częstotliwości. AMD przez pewien czas dominowało na rynku procesorów do komputerów stacjonarnych. Historia procesorów Intel | Netburst: Pentium D
W 2005 roku dwóch głównych producentów rywalizowało o to, aby jako pierwsi wprowadzić na rynek konsumencki procesor dwurdzeniowy. AMD jako pierwsze ogłosiło dwurdzeniowy Athlon 64, ale przez długi czas nie było go w magazynie. Intel chciał pokonać AMD, stosując moduł wielordzeniowy (MCM) zawierający dwa rdzenie Prescott. Firma ochrzciła swój dwurdzeniowy procesor Pentium D, a pierwszy model otrzymał nazwę kodową „Smithfield”. Jednak Pentium D był krytykowany, ponieważ miał te same problemy, co oryginalne chipy Prescott. Rozpraszanie ciepła i pobór mocy przez dwa rdzenie oparte na technologii Netburst ograniczyły częstotliwość do 3,2 GHz (w najlepszym przypadku). A ponieważ wydajność architektury w dużym stopniu zależała od obciążenia rurociągu i szybkości napływu danych, IPC Smithfielda zauważalnie spadło, gdy przepustowość kanału została podzielona pomiędzy dwa rdzenie. Poza tym fizyczne wykonanie dwurdzeniowego procesora nie należało do eleganckich (w rzeczywistości są to dwa kryształy pod jedną osłoną). A dwa rdzenie w jednym chipie w procesorze AMD uznano za bardziej zaawansowane rozwiązanie. Po Smithfieldzie przyszedł Presler, który został przeniesiony do technologii procesowej 65 nm. Moduł wielordzeniowy zawierał dwa kryształy Ceder Mill. Pomogło to zmniejszyć wytwarzanie ciepła i zużycie energii procesora, a także podnieść częstotliwość do 3,8 GHz. Istniały dwie główne wersje Preslera. Ten pierwszy miał wyższe TDP na poziomie 125 W, natomiast drugi model ograniczono do 95 W. Dzięki zmniejszonemu rozmiarowi kości Intel był także w stanie podwoić pojemność pamięci podręcznej L2, w wyniku czego każda kostka miała 2 MB pamięci. Niektóre modele dla entuzjastów obsługiwały również technologię Hyper-Threading, umożliwiając procesorowi wykonywanie zadań w czterech wątkach jednocześnie. Wszystkie procesory Pentium D obsługiwały oprogramowanie 64-bitowe i ponad 4 GB pamięci RAM. W drugiej części: procesory Core 2 Duo, Core i3, i5, i7 aż do Skylake. |
Nowy
- Trzy sposoby otwierania Edytora rejestru systemu Windows Otwieranie rejestru za pomocą wyszukiwania
- Jak podzielić dysk twardy
- Dysk twardy dzielimy na partycje
- Komputer wydaje sygnał dźwiękowy po włączeniu
- Prawidłowa zmiana rozszerzeń plików w systemie Windows Jak zmienić rozszerzenie archiwum
- Blokowanie reklam na YouTube YouTube bez reklam
- TeamViewer - zdalne sterowanie komputerem Pobierz program umożliwiający komunikację z innym komputerem
- Jak sprawdzić cechy swojego komputera w systemie Windows: metody systemowe i programy specjalne
- Aktualizujemy przeglądarki na różnych urządzeniach: komputerze, tablecie, smartfonie Zainstaluj zaktualizowaną przeglądarkę gdzie i jak
- Jak nasmarować chłodnicę procesora, karty graficznej, zasilacza i komputera