Главная - Софт
Какие из перечисленных процессоров выпущены компанией intel. Классификация, именование и краткие параметры процессоров

Компания Intel прошла очень длинный путь развития, от небольшого производителя микросхем до мирового лидера по производству процессоров. За это время было разработано множество технологий производства процессоров, очень сильно оптимизирован технологический процесс и характеристики устройств.

Множество показателей работы процессоров зависит от расположения транзисторов на кристалле кремния. Технологию расположения транзисторов называют микроархитектурой или просто архитектурой. В этой статье мы рассмотрим какие архитектуры процессора Intel использовались на протяжении развития компании и чем они отличаются друг от друга. Начнем с самых древних микроархитектур и рассмотрим весь путь до новых процессоров и планов на будущее.

Как я уже сказал, в этой статье мы не будем рассматривать разрядность процессоров. Под словом архитектура мы будем понимать микроархитектуру микросхемы, расположение транзисторов на печатной плате, их размер, расстояние, технологический процесс, все это охватывается этим понятием. Наборы инструкций RISC и CISC тоже трогать не будем.

Второе, на что нужно обратить внимание, это поколения процессора Intel. Наверное, вы уже много раз слышали - этот процессор пятого поколения, тот четвертого, а это седьмого. Многие думают что это обозначается i3, i5, i7. Но на самом деле нет i3, и так далее - это марки процессора. А поколение зависит от используемой архитектуры.

С каждым новым поколением улучшалась архитектура, процессоры становились быстрее, экономнее и меньше, они выделяли меньше тепла, но вместе с тем стоили дороже. В интернете мало статей, которые бы описывали все это полностью. А теперь рассмотрим с чего все начиналось.

Архитектуры процессора Intel

Сразу говорю, что вам не стоит ждать от статьи технических подробностей, мы рассмотрим только базовые отличия, которые будут интересны обычным пользователям.

Первые процессоры

Сначала кратко окунемся в историю чтобы понять с чего все началось. Не будем углубятся далеко и начнем с 32-битных процессоров. Первым был Intel 80386, он появился в 1986 году и мог работать на частоте до 40 МГц. Старые процессоры имели тоже отсчет поколений. Этот процессор относиться к третьему поколению, и тут использовался техпроцесс 1500 нм.

Следующим, четвертым поколением был 80486. Используемая в нем архитектура так и называлась 486. Процессор работал на частоте 50 МГц и мог выполнять 40 миллионов команд в секунду. Процессор имел 8 кб кэша первого уровня, а для изготовления использовался техпроцесс 1000 нм.

Следующей архитектурой была P5 или Pentium. Эти процессоры появились в 1993 году, здесь был увеличен кэш до 32 кб, частота до 60 МГц, а техпроцесс уменьшен до 800 нм. В шестом поколении P6 размер кэша составлял 32 кб, а частота достигла 450 МГц. Тех процесс был уменьшен до 180 нм.

Дальше компания начала выпускать процессоры на архитектуре NetBurst. Здесь использовалось 16 кб кэша первого уровня на каждое ядро, и до 2 Мб кэша второго уровня. Частота выросла до 3 ГГц, а техпроцесс остался на том же уровне - 180 нм. Уже здесь появились 64 битные процессоры, которые поддерживали адресацию большего количества памяти. Также было внесено множество расширений команд, а также добавлена технология Hyper-Threading, которая позволяла создавать два потока из одного ядра, что повышало производительность.

Естественно, каждая архитектура улучшалась со временем, увеличивалась частота и уменьшался техпроцесс. Также существовали и промежуточные архитектуры, но здесь все было немного упрощено, поскольку это не является нашей основной темой.

Intel Core

На смену NetBurst в 2006 году пришла архитектура Intel Core. Одной из причин разработки этой архитектуры была невозможность увеличения частоты в NetBrust, а также ее очень большое тепловыделение. Эта архитектура была рассчитана на разработку многоядерных процессоров, размер кэша первого уровня был увеличен до 64 Кб. Частота осталась на уровне 3 ГГц, но зато была сильно снижена потребляемая мощность, а также техпроцесс, до 60 нм.

Процессоры на архитектуре Core поддерживали аппаратную виртуализацию Intel-VT, а также некоторые расширения команд, но не поддерживали Hyper-Threading, поскольку были разработаны на основе архитектуры P6, где такой возможности еще не было.

Первое поколение - Nehalem

Дальше нумерация поколений была начата сначала, потому что все следующие архитектуры - это улучшенные версии Intel Core. Архитектура Nehalem пришла на смену Core, у которой были некоторые ограничения, такие как невозможность увеличить тактовую частоту. Она появилась в 2007 году. Здесь используется 45 нм тех процесс и была добавлена поддержка технологии Hyper-Therading.

Процессоры Nehalem имеют размер L1 кэша 64 Кб, 4 Мб L2 кэша и 12 Мб кєша L3. Кэш доступен для всех ядер процессора. Также появилась возможность встраивать графический ускоритель в процессор. Частота не изменилась, зато выросла производительность и размер печатной платы.

Второе поколение - Sandy Bridge

Sandy Bridge появилась в 2011 году для замены Nehalem. Здесь уже используется техпроцесс 32 нм, здесь используется столько же кэша первого уровня, 256 Мб кэша второго уровня и 8 Мб кэша третьего уровня. В экспериментальных моделях использовалось до 15 Мб общего кэша.

Также теперь все устройства выпускаются со встроенным графическим ускорителем. Была увеличена максимальная частота, а также общая производительность.

Третье поколение - Ivy Bridge

Процессоры Ivy Bridge работают быстрее чем Sandy Bridge, а для их изготовления используется техпроцесс 22 нм. Они потребляют на 50% меньше энергии чем предыдущие модели, а также дают на 25-60% высшую производительность. Также процессоры поддерживают технологию Intel Quick Sync, которая позволяет кодировать видео в несколько раз быстрее.

Четвертое поколение - Haswell

Поколение процессора Intel Haswell было разработано в 2012 году. Здесь использовался тот же техпроцесс - 22 нм, изменен дизайн кэша, улучшены механизмы энергопотребления и немного производительность. Но зато процессор поддерживает множество новых разъемов: LGA 1150, BGA 1364, LGA 2011-3, технологии DDR4 и так далее. Основное преимущество Haswell в том, что она может использоваться в портативных устройствах из-за очень низкого энергопотребления.

Пятое поколение - Broadwell

Это улучшенная версия архитектуры Haswell, которая использует техпроцесс 14 нм. Кроме того, в архитектуру было внесено несколько улучшений, которые позволили повысить производительность в среднем на 5%.

Шестое поколение - Skylake

Следующая архитектура процессоров intel core - шестое поколение Skylake вышла в 2015 году. Это одно из самых значительных обновлений архитектуры Core. Для установки процессора на материнскую плату используется сокет LGA 1151, теперь поддерживается память DDR4, но сохранилась поддержка DDR3. Поддерживается Thunderbolt 3.0, а также шина DMI 3.0, которая дает в два раза большую скорость. И уже по традиции была увеличенная производительность, а также снижено энергопотребление.

Седьмое поколение - Kaby Lake

Новое, седьмое поколение Core - Kaby Lake вышло в этом году, первые процессоры появились в середине января. Здесь было не так много изменений. Сохранен техпроцесс 14 нм, а также тот же сокет LGA 1151. Поддерживаются планки памяти DDR3L SDRAM и DDR4 SDRAM, шины PCI Express 3.0, USB 3.1. Кроме того, была немного увеличена частота, а также уменьшена плотность расположения транзисторов. Максимальная частота 4,2 ГГц.

Выводы

В этой статье мы рассмотрели архитектуры процессора Intel, которые использовались раньше, а также те, которые применяются сейчас. Дальше компания планирует переход на техпроцесс 10 нм и это поколение процессоров intel будет называться CanonLake. Но пока что Intel к этому не готова.

Поэтому в 2017 планируется еще выпустить улучшенную версию SkyLake под кодовым именем Coffe Lake. Также, возможно, будут и другие микроархитектуры процессора Intel пока компания полностью освоит новый техпроцесс. Но обо всем этом мы узнаем со временем. Надеюсь, эта информация была вам полезной.

Об авторе

Основатель и администратор сайта сайт, увлекаюсь открытым программным обеспечением и операционной системой Linux. В качестве основной ОС сейчас использую Ubuntu. Кроме Linux интересуюсь всем, что связано с информационными технологиями и современной наукой.

ВведениеЭтим летом компания Intel совершила странное: она умудрилась сменить целых два поколения процессоров, ориентированных на общеупотребительные персональные компьютеры. Сначала на смену Haswell пришли процессоры с микроархитектурой Broadwell, но затем в течение буквально пары месяцев они утратили свой статус новинки и уступили место процессорам Skylake, которые будут оставаться наиболее прогрессивными CPU как минимум ещё года полтора. Такая чехарда со сменой поколений произошла главным образом в связи с проблемами Intel, возникшими при внедрении нового 14-нм техпроцесса, который применяется при производстве и Broadwell, и Skylake. Производительные носители микроархитектуры Broadwell по пути в настольные системы сильно задержались, а их последователи вышли по заранее намеченному графику, что привело к скомканности анонса процессоров Core пятого поколения и серьёзному сокращению их жизненного цикла. В результате всех этих пертурбаций, в десктопном сегменте Broadwell заняли совсем узкую нишу экономичных процессоров с мощным графическим ядром и довольствуются теперь лишь небольшим уровнем продаж, свойственным узкоспециализированным продуктам. Внимание же передовой части пользователей переключилось на последователей Broadwell – процессоры Skylake.

Надо заметить, что в последние несколько лет компания Intel совсем не радует своих поклонников ростом производительности предлагаемых продуктов. Каждое новое поколение процессоров прибавляет в удельном быстродействии лишь по несколько процентов, что в конечном итоге приводит к отсутствию у пользователей явных стимулов к модернизации старых систем. Но выход Skylake – поколения CPU, по пути к которому Intel, фактически, перепрыгнула через ступеньку – внушал определённые надежды на то, что мы получим действительно стоящее обновление самой распространённой вычислительной платформы. Однако, ничего подобного так и не случилось: Intel выступила в своём привычном репертуаре. Broadwell был представлен общественности в качестве некого ответвления от основной линии процессоров для настольных систем, а Skylake оказались быстрее Haswell в большинстве приложений совсем незначительно .

Поэтому несмотря на все ожидания, появление Skylake в продаже вызвало у многих скептическое отношение. Ознакомившись с результатами реальных тестов, многие покупатели попросту не увидели реального смысла в переходе на процессоры Core шестого поколения. И действительно, главным козырем свежих CPU выступает прежде всего новая платформа с ускоренными внутренними интерфейсами, но не новая процессорная микроархитектура. И это значит, что реальных стимулов к обновлению основанных систем прошлых поколений Skylake предлагает немного.

Впрочем, мы бы всё-таки не стали отговаривать от перехода Skylake всех без исключения пользователей. Дело в том, что пусть Intel и наращивает производительность своих процессоров очень сдержанными темпами, с момента появления Sandy Bridge, которые всё ещё трудятся во многих системах, сменилось уже четыре поколения микроархитектуры. Каждый шаг по пути прогресса вносил свой вклад в увеличение производительности, и к сегодняшнему дню Skylake способен предложить достаточно существенный прирост в производительности по сравнению со своими более ранними предшественниками. Только чтобы увидеть это, сравнивать его надо не с Haswell, а с более ранними представителями семейства Core, появившимися до него.

Собственно, именно таким сравнением мы сегодня и займёмся. Учитывая всё сказанное, мы решили посмотреть, насколько выросла производительность процессоров Core i7 с 2011 года, и собрали в едином тесте старшие Core i7, относящиеся к поколениям Sandy Bridge, Ivy Bridge, Haswell, Broadwell и Skylake. Получив же результаты такого тестирования, мы постараемся понять, обладателям каких процессоров целесообразно затевать модернизацию старых систем, а кто из них может повременить до появления последующих поколений CPU. Попутно мы посмотрим и на уровень производительности новых процессоров Core i7-5775C и Core i7-6700K поколений Broadwell и Skylake, которые до настоящего момента в нашей лаборатории ещё не тестировались.

Сравнительные характеристики протестированных CPU

От Sandy Bridge до Skylake: сравнение удельной производительности

Для того, чтобы вспомнить, как же менялась удельная производительность интеловских процессоров в течение последней пятилетки, мы решили начать с простого теста, в котором сопоставили скорость работы Sandy Bridge, Ivy Bridge, Haswell, Broadwell и Skylake, приведённых к одной и той же частоте 4,0 ГГц. В этом сравнении нами были использованы процессоры линейки Core i7, то есть, четырёхъядерники, обладающие технологией Hyper-Threading.

В качестве основного тестового инструмента был взят комплексный тест SYSmark 2014 1.5, который хорош тем, что воспроизводит типичную пользовательскую активность в общеупотребительных приложениях офисного характера, при создании и обработке мультимедийного контента и при решении вычислительных задач. На следующих графиках отображены полученные результаты. Для удобства восприятия они нормированы, за 100 процентов принята производительность Sandy Bridge.



Интегральный показатель SYSmark 2014 1.5 позволяет сделать следующие наблюдения. Переход от Sandy Bridge к Ivy Bridge увеличил удельную производительность совсем незначительно – примерно на 3-4 процента. Дальнейший шаг к Haswell оказался гораздо более результативным, он вылился в 12-процентное улучшение производительности. И это – максимальный прирост, который можно наблюдать на приведённом графике. Ведь дальше Broadwell обгоняет Haswell всего лишь на 7 процентов, а переход от Broadwell к Skylake и вовсе наращивает удельную производительность лишь на 1-2 процента. Весь же прогресс от Sandy Bridge до Skylake выливается в 26-процентное увеличение производительности при постоянстве тактовых частот.

Более подробную расшифровку полученных показателей SYSmark 2014 1.5 можно посмотреть на трёх следующих графиках, где интегральный индекс производительности разложен по составляющим по типу приложений.









Обратите внимание, наиболее заметно с вводом новых версий микроархитектур прибавляют в скорости исполнения мультимедийные приложения. В них микроархитектура Skylake превосходит Sandy Bridge на целых 33 процента. А вот в счётных задачах, напротив, прогресс проявляется меньше всего. И более того, при такой нагрузке шаг от Broadwell к Skylake даже оборачивается небольшим снижением удельной производительности.

Теперь, когда мы представляем себе, что же происходило с удельной производительностью процессоров Intel в течение последних нескольких лет, давайте попробуем разобраться, чем наблюдаемые изменения были обусловлены.

От Sandy Bridge до Skylake: что изменилось в процессорах Intel

Сделать точкой отсчёта в сравнении разных Core i7 представителя поколения Sandy Bridge мы решили не просто так. Именно данный дизайн подвёл крепкий фундамент под всё дальнейшее совершенствование производительных интеловских процессоров вплоть до сегодняшних Skylake. Так, представители семейства Sandy Bridge стали первыми высокоинтегрированными CPU, в которых в одном полупроводниковом кристалле были собраны и вычислительные, и графическое ядра, а также северный мост с L3-кешем и контроллером памяти. Кроме того, в них впервые стала использоваться внутренняя кольцевая шина, посредством которой была решена задача высокоэффективного взаимодействия всех структурных единиц, составляющих столь сложный процессор. Этим заложенным в микроархитектуре Sandy Bridge универсальным принципам построения продолжают следовать все последующие поколения CPU без каких бы то ни было серьёзных корректив.

Немалые изменения в Sandy Bridge претерпела внутренняя микроархитектура вычислительных ядер. В ней не только была реализована поддержка новых наборов команд AES-NI и AVX, но и нашли применение многочисленные крупные улучшения в недрах исполнительного конвейера. Именно в Sandy Bridge был добавлен отдельный кеш нулевого уровня для декодированных инструкций; появился абсолютно новый блок переупорядочивания команд, основанный на использовании физического регистрового файла; были заметно улучшены алгоритмы предсказания ветвлений; а кроме того, два из трёх исполнительных порта для работы с данными стали унифицированными. Такие разнородные реформы, проведённые сразу на всех этапах конвейера, позволили серьёзно увеличить удельную производительность Sandy Bridge, которая по сравнению с процессорами предыдущего поколения Nehalem сразу выросла почти на 15 процентов. К этому добавился 15-процентный рост номинальных тактовых частот и отличный разгонный потенциал, в результате чего в сумме получилось семейство процессоров, которое до сих пор ставится в пример Intel, как образцовое воплощение фазы «так» в принятой в компании маятниковой концепции разработки.

И правда, подобных по массовости и действенности улучшений в микроархитектуре после Sandy Bridge мы уже не видели. Все последующие поколения процессорных дизайнов проводят куда менее масштабные усовершенствования в вычислительных ядрах. Возможно, это является отражением отсутствия реальной конкуренции на процессорном рынке, возможно причина замедления прогресса кроется в желании Intel сосредоточить усилия на совершенствовании графических ядер, а может быть Sandy Bridge просто оказался настолько удачным проектом, что его дальнейшее развитие требует слишком больших трудозатрат.

Отлично иллюстрирует произошедший спад интенсивности инноваций переход от Sandy Bridge к Ivy Bridge. Несмотря на то, что следующее за Sandy Bridge поколение процессоров и было переведено на новую производственную технологию с 22-нм нормами, его тактовые частоты совсем не выросли. Сделанные же улучшения в дизайне в основном коснулись ставшего более гибким контроллера памяти и контроллера шины PCI Express, который получил совместимость с третьей версией данного стандарта. Что же касается непосредственно микроархитектуры вычислительных ядер, то отдельные косметические переделки позволили добиться ускорения выполнения операций деления и небольшого увеличения эффективности технологии Hyper-Threading, да и только. В результате, рост удельной производительности составил не более 5 процентов.

Вместе с тем, внедрение Ivy Bridge принесло и то, о чём теперь горько жалеет миллионная армия оверклокеров. Начиная с процессоров этого поколения, Intel отказалась от сопряжения полупроводникового кристалла CPU и закрывающей его крышки посредством бесфлюсовой пайки и перешла на заполнение пространства между ними полимерным термоинтерфейсным материалом с очень сомнительными теплопроводящими свойствами. Это искусственно ухудшило частотный потенциал и сделало процессоры Ivy Bridge, как и всех их последователей, заметно менее разгоняемыми по сравнению с очень бодрыми в этом плане «старичками» Sandy Bridge.

Впрочем, Ivy Bridge – это всего лишь «тик», а потому особых прорывов в этих процессорах никто и не обещал. Однако никакого воодушевляющего роста производительности не принесло и следующее поколение, Haswell, которое, в отличие от Ivy Bridge, относится уже к фазе «так». И это на самом деле немного странно, поскольку различных улучшений в микроархитектуре Haswell сделано немало, причём они рассредоточены по разным частям исполнительного конвейера, что в сумме вполне могло бы увеличить общий темп исполнения команд.

Например, во входной части конвейера была улучшена результативность предсказания переходов, а очередь декодированных инструкций стала делиться между параллельными потоками, сосуществующими в рамках технологии Hyper-Threading, динамически. Попутно произошло увеличение окна внеочередного исполнения команд, что в сумме должно было поднять долю параллельно выполняемого процессором кода. Непосредственно в исполнительном блоке были добавлены два дополнительных функциональных порта, нацеленных на обработку целочисленных команд, обслуживание ветвлений и сохранение данных. Благодаря этому Haswell стал способен обрабатывать до восьми микроопераций за такт – на треть больше предшественников. Более того, новая микроархитектура удвоила и пропускную способность кеш-памяти первого и второго уровней.

Таким образом, улучшения в микроархитектуре Haswell не затронули лишь скорость работы декодера, который, похоже, на данный момент стал самым узким местом в современных процессорах Core. Ведь несмотря на внушительный список улучшений, прирост удельной производительности у Haswell по сравнению с Ivy Bridge составил лишь около 5-10 процентов. Но справедливости ради нужно оговориться, что на векторных операциях ускорение заметно гораздо сильнее. А наибольший выигрыш можно увидеть в приложениях, использующих новые AVX2 и FMA-команды, поддержка которых также появилась в этой микроархитектуре.

Процессоры Haswell, как и Ivy Bridge, сперва тоже не особенно понравились энтузиастам. Особенно если учесть тот факт, что в первоначальной версии никакого увеличения тактовых частот они не предложили. Однако спустя год после своего дебюта Haswell стали казаться заметно привлекательнее. Во-первых, увеличилось количество приложений, обращающихся к наиболее сильным сторонам этой архитектуры и использующих векторные инструкции. Во-вторых, Intel смогла исправить ситуацию с частотами. Более поздние модификации Haswell, получившие собственное кодовое наименование Devil’s Canyon, смогли нарастить преимущество над предшественниками благодаря увеличению тактовой частоты, которая, наконец, пробила 4-гигагерцовый потолок. Кроме того, идя на поводу у оверклокеров, Intel улучшила полимерный термоинтерфейс под процессорной крышкой, что сделало Devil’s Canyon более подходящими объектами для разгона. Конечно, не такими податливыми, как Sandy Bridge, но тем не менее.

И вот с таким багажом Intel подошла к Broadwell. Поскольку основной ключевой особенностью этих процессоров должна была стать новая технология производства с 14-нм нормами, никаких значительных нововведений в их микроархитектуре не планировалось – это должен был быть почти самый банальный «тик». Всё необходимое для успеха новинок вполне мог бы обеспечить один только тонкий техпроцесс с FinFET-транзисторами второго поколения, в теории позволяющий уменьшить энергопотребление и поднять частоты. Однако практическое внедрение новой технологии обернулось чередой неудач, в результате которых Broadwell досталась лишь экономичность, но не высокие частоты. В итоге те процессоры этого поколения, которые Intel представила для настольных систем, вышли больше похожими на мобильные CPU, чем на продолжателей дела Devil’s Canyon. Тем более, что кроме урезанных тепловых пакетов и откатившихся частот они отличаются от предшественников и уменьшившимся в объёме L3-кешем, что, правда, несколько компенсируется появлением расположенного на отдельном кристалле кэша четвёртого уровня.

На одинаковой с Haswell частоте процессоры Broadwell демонстрируют примерно 7-процентное преимущество, обеспечиваемое как добавлением дополнительного уровня кеширования данных, так и очередным улучшением алгоритма предсказания ветвлений вместе с увеличением основных внутренних буферов. Кроме того, в Broadwell реализованы новые и более быстрые схемы выполнения инструкций умножения и деления. Однако все эти небольшие улучшения перечёркиваются фиаско с тактовыми частотами, относящими нас в эпоху до Sandy Bridge. Так, например, старший оверклокерский Core i7-5775C поколения Broadwell уступает по частоте Core i7-4790K целых 700 МГц. Понятно, что ожидать какого-то роста производительности на этом фоне бессмысленно, лишь бы обошлось без её серьёзного падения.

Во многом именно из-за этого Broadwell и оказался непривлекательным для основной массы пользователей. Да, процессоры этого семейства отличаются высокой экономичностью и даже вписываются в тепловой пакет с 65-ваттными рамками, но кого это, по большому счёту, волнует? Разгонный же потенциал первого поколения 14-нм CPU оказался достаточно сдержанным. Ни о какой работе на частотах, приближающихся к 5-гигагерцовой планке речь не идёт. Максимум, которого можно добиться от Broadwell при использовании воздушного охлаждения пролегает в окрестности величины 4,2 ГГц. Иными словами, пятое поколение Core вышло у Intel, как минимум, странноватым. О чём, кстати, микропроцессорный гигант в итоге и пожалел: представители Intel отмечают, что поздний выход Broadwell для настольных компьютеров, его сокращённый жизненный цикл и нетипичные характеристики отрицательно сказались на уровне продаж, и больше компания на подобные эксперименты пускаться не планирует.

Новейший же Skylake на этом фоне представляется не столько как дальнейшее развитие интеловской микроархитектуры, сколько своего рода работа над ошибками. Несмотря на то, что при производстве этого поколения CPU используется тот же 14-нм техпроцесс, что и в случае Broadwell, никаких проблем с работой на высоких частотах у Skylake нет. Номинальные частоты процессоров Core шестого поколения вернулись к тем показателям, которые были свойственны их 22-нм предшественникам, а разгонный потенциал даже немного увеличился. На руку оверклокерам здесь сыграл тот факт, что в Skylake конвертер питания процессора вновь перекочевал на материнскую плату и снизил тем самым суммарное тепловыделение CPU при разгоне. Жаль только, что Intel так и не вернулась к использованию эффективного термоинтерфейса между кристаллом и процессорной крышкой.

Но вот что касается базовой микроархитектуры вычислительных ядер, то несмотря на то, что Skylake, как и Haswell, представляет собой воплощение фазы «так», нововведений в ней совсем немного. Причём большинство из них направлено на расширение входной части исполнительного конвейера, остальные же части конвейера остались без каких-либо существенных изменений. Перемены касаются улучшения результативности предсказания ветвлений и повышения эффективности блока предварительной выборки, да и только. При этом часть оптимизаций служит не столько для улучшения производительности, сколько направлена на очередное повышение энергоэффективности. Поэтому удивляться тому, что Skylake по своей удельной производительности почти не отличается от Broadwell, не следует.

Впрочем, существуют и исключения: в отдельных случаях Skylake могут превосходить предшественников в производительности и более заметно. Дело в том, что в этой микроархитектуре была усовершенствована подсистема памяти. Внутрипроцессорная кольцевая шина стала быстрее, и это в конечном итоге расширило полосу пропускания L3-кэша. Плюс к этому контроллер памяти получил поддержку работающей на высоких частотах памяти стандарта DDR4 SDRAM.

Но в итоге тем не менее получается, что бы там не говорила Intel о прогрессивности Skylake, с точки зрения обычных пользователей это – достаточно слабое обновление. Основные улучшения в Skylake сделаны в графическом ядре и в энергоэффективности, что открывает перед такими CPU путь в безвентиляторные системы планшетного форм-фактора. Десктопные же представители этого поколения отличаются от тех же Haswell не слишком заметно. Даже если закрыть глаза на существование промежуточного поколения Broadwell, и сопоставлять Skylake напрямую с Haswell, то наблюдаемый рост удельной производительности составит порядка 7-8 процентов, что вряд ли можно назвать впечатляющим проявлением технического прогресса.

Попутно стоит отметить, что не оправдывает ожиданий и совершенствование технологических производственных процессов. На пути от Sandy Bridge дo Skylake компания Intel сменила две полупроводниковых технологии и уменьшила толщину транзисторных затворов более чем вдвое. Однако современный 14-нм техпроцесс по сравнению с 32-нм технологией пятилетней давности так и не позволил нарастить рабочие частоты процессоров. Все процессоры Core последних пяти поколений имеют очень похожие тактовые частоты, которые если и превышают 4-гигагерцовую отметку, то совсем незначительно.

Для наглядной иллюстрации этого факта можно посмотреть на следующий график, на котором отображена тактовая частота старших оверклокерских процессоров Core i7 разных поколений.



Более того, пик тактовой частоты приходится даже не на Skylake. Максимальной частотой могут похвастать процессоры Haswell, относящиеся к подгруппе Devil’s Canyon. Их номинальная частота составляет 4,0 ГГц, но благодаря турбо-режиму в реальных условиях они способны разгоняться до 4,4 ГГц. Для современных же Skylake максимум частоты – всего лишь 4,2 ГГц.

Всё это, естественно, сказывается на итоговой производительности реальных представителей различных семейств CPU. И далее мы предлагаем посмотреть, как всё это отражается на быстродействии платформ, построенных на базе флагманских процессоров каждого из семейств Sandy Bridge, Ivy Bridge, Haswell, Broadwell и Skylake.

Как мы тестировали

В сравнении приняли участие пять процессоров Core i7 разных поколений: Core i7-2700K, Core i7-3770K, Core i7-4790K, Core i7-5775C и Core i7-6700K. Поэтому список комплектующих, задействованных в тестировании, получился достаточно обширным:

Процессоры:

Intel Core i7-2600K (Sandy Bridge, 4 ядра + HT, 3,4-3,8 ГГц, 8 Мбайт L3);
Intel Core i7-3770K (Ivy Bridge, 4 ядра + HT, 3,5-3,9 ГГц, 8 Мбайт L3);
Intel Core i7-4790K (Haswell Refresh, 4 ядра + HT, 4,0-4,4 ГГц, 8 Мбайт L3);
Intel Core i7-5775C (Broadwell, 4 ядра, 3,3-3,7 ГГц, 6 Мбайт L3, 128 Мбайт L4).
Intel Core i7-6700K (Skylake, 4 ядра, 4,0-4,2 ГГц, 8 Мбайт L3).

Процессорный кулер: Noctua NH-U14S.
Материнские платы:

ASUS Z170 Pro Gaming (LGA 1151, Intel Z170);
ASUS Z97-Pro (LGA 1150, Intel Z97);
ASUS P8Z77-V Deluxe (LGA1155, Intel Z77).

Память:

2x8 Гбайт DDR3-2133 SDRAM, 9-11-11-31 (G.Skill F3-2133C9D-16GTX);
2x8 Гбайт DDR4-2666 SDRAM, 15-15-15-35 (Corsair Vengeance LPX CMK16GX4M2A2666C16R).

Видеокарта: NVIDIA GeForce GTX 980 Ti (6 Гбайт/384-бит GDDR5, 1000-1076/7010 МГц).
Дисковая подсистема: Kingston HyperX Savage 480 GB (SHSS37A/480G).
Блок питания: Corsair RM850i (80 Plus Gold, 850 Вт).

Тестирование выполнялось в операционной системе Microsoft Windows 10 Enterprise Build 10240 с использованием следующего комплекта драйверов:

Intel Chipset Driver 10.1.1.8;
Intel Management Engine Interface Driver 11.0.0.1157;
NVIDIA GeForce 358.50 Driver.

Производительность

Общая производительность

Для оценки производительности процессоров в общеупотребительных задачах мы традиционно используем тестовый пакет Bapco SYSmark, моделирующий работу пользователя в реальных распространённых современных офисных программах и приложениях для создания и обработки цифрового контента. Идея теста очень проста: он выдаёт единственную метрику, характеризующую средневзвешенную скорость компьютера при повседневном использовании. После выхода операционной системы Windows 10 этот бенчмарк в очередной раз обновился, и теперь мы задействуем самую последнюю версию – SYSmark 2014 1.5.



При сравнении Core i7 разных поколений, когда они работают в своих номинальных режимах, результаты получаются совсем не такие, как при сопоставлении на единой тактовой частоте. Всё-таки реальная частота и особенности работы турбо-режима оказывает достаточно существенное влияние на производительность. Например, согласно полученным данным, Core i7-6700K быстрее Core i7-5775C на целых 11 процентов, но при этом его преимущество над Core i7-4790K совсем незначительно – оно составляет всего лишь порядка 3 процентов. При этом нельзя обойти вниманием и то, что новейший Skylake оказывается существенно быстрее процессоров поколений Sandy Bridge и Ivy Bridge. Его преимущество над Core i7-2700K и Core i7-3770K достигает 33 и 28 процентов соответственно.

Более глубокое понимание результатов SYSmark 2014 1.5 способно дать знакомство с оценками производительности, получаемое в различных сценариях использования системы. Сценарий Office Productivity моделирует типичную офисную работу: подготовку текстов, обработку электронных таблиц, работу с электронной почтой и посещение Интернет-сайтов. Сценарий задействует следующий набор приложений: Adobe Acrobat XI Pro, Google Chrome 32, Microsoft Excel 2013, Microsoft OneNote 2013, Microsoft Outlook 2013, Microsoft PowerPoint 2013, Microsoft Word 2013, WinZip Pro 17.5 Pro.



В сценарии Media Creation моделируется создание рекламного ролика с использованием предварительно отснятых цифровых изображений и видео. Для этой цели применяются популярные пакеты Adobe Photoshop CS6 Extended, Adobe Premiere Pro CS6 и Trimble SketchUp Pro 2013.



Сценарий Data/Financial Analysis посвящён статистическому анализу и прогнозированию инвестиций на основе некой финансовой модели. В сценарии используются большие объёмы численных данных и два приложения Microsoft Excel 2013 и WinZip Pro 17.5 Pro.



Результаты, полученные нами при различных сценариях нагрузки, качественно повторяют общие показатели SYSmark 2014 1.5. Обращает на себя внимание лишь тот факт, что процессор Core i7-4790K совсем не выглядит устаревшим. Он заметно проигрывает новейшему Core i7-6700K только в расчётном сценарии Data/Financial Analysis, а в остальных случаях либо уступает своему последователю на совсем малозаметную величину, либо вообще оказывается быстрее. Например, представитель семейства Haswell опережает новый Skylake в офисных приложениях. Но процессоры более старых годов выпуска, Core i7-2700K и Core i7-3770K, выглядят уже несколько устаревшими предложениями. Они проигрывают новинке в разных типах задач от 25 до 40 процентов, и это, пожалуй, является вполне достаточным основанием, чтобы Core i7-6700K можно было рассматривать в качестве достойной им замены.

Игровая производительность

Как известно, производительность платформ, оснащенных высокопроизводительными процессорами, в подавляющем большинстве современных игр определяется мощностью графической подсистемы. Именно поэтому при тестировании процессоров мы выбираем наиболее процессорозависимые игры, а измерение количества кадров выполняем дважды. Первым проходом тесты проводятся без включения сглаживания и с установкой далеко не самых высоких разрешений. Такие настройки позволяют оценить, насколько хорошо проявляют себя процессоры с игровой нагрузкой в принципе, а значит, позволяют строить догадки о том, как будут вести себя тестируемые вычислительные платформы в будущем, когда на рынке появятся более быстрые варианты графических ускорителей. Второй проход выполняется с реалистичными установками – при выборе FullHD-разрешения и максимального уровня полноэкранного сглаживания. На наш взгляд такие результаты не менее интересны, так как они отвечают на часто задаваемый вопрос о том, какой уровень игровой производительности могут обеспечить процессоры прямо сейчас – в современных условиях.

Впрочем, в этом тестировании мы собрали мощную графическую подсистему, основанную на флагманской видеокарте NVIDIA GeForce GTX 980 Ti. И в результате в части игр частота кадров продемонстрировала зависимость от процессорной производительности даже в FullHD-разрешении.

Результаты в FullHD-разрешении с максимальными настройками качества


















Обычно влияние процессоров на игровую производительность, особенно если речь идёт о мощных представителях серии Core i7, оказывается незначительным. Однако при сопоставлении пяти Core i7 разных поколений результаты получаются совсем не однородными. Даже при установке максимальных настроек качества графики Core i7-6700K и Core i7-5775C демонстрируют наивысшую игровую производительность, в то время как более старые Core i7 от них отстают. Так, частота кадров, которая получена в системе с Core i7-6700K превышает производительность системы на базе Core i7-4770K на малозаметный один процент, но процессоры Core i7-2700K и Core i7-3770K представляются уже ощутимо худшей основой геймерской системы. Переход с Core i7-2700K или Core i7-3770K на новейший Core i7-6700K даёт прибавку в числе fps величиной в 5-7 процентов, что способно оказать вполне заметное влияние на качество игрового процесса.

Увидеть всё это гораздо нагляднее можно в том случае, если на игровую производительность процессоров посмотреть при сниженном качестве изображения, когда частота кадров не упирается в мощность графической подсистемы.

Результаты при сниженном разрешении


















Новейшему процессору Core i7-6700K вновь удаётся показать наивысшую производительность среди всех Core i7 последних поколений. Его превосходство над Core i7-5775C составляет порядка 5 процентов, а над Core i7-4690K – около 10 процентов. В этом нет ничего странного: игры достаточно чутко реагируют на скорость подсистемы памяти, а именно по этому направлению в Skylake были сделаны серьёзные улучшения. Но гораздо заметнее превосходство Core i7-6700K над Core i7-2700K и Core i7-3770K. Старший Sandy Bridge отстаёт от новинки на 30-35 процентов, а Ivy Bridge проигрывает ей в районе 20-30 процентов. Иными словами, как бы ни ругали Intel за слишком медленное совершенствование собственных процессоров, компания смогла за прошедшие пять лет на треть повысить скорость работы своих CPU, а это – очень даже ощутимый результат.

Тестирование в реальных играх завершают результаты популярного синтетического бенчмарка Futuremark 3DMark.









Вторят игровым показателям и те результаты, которые выдаёт Futuremark 3DMark. При переводе микроархитектуры процессоров Core i7 c Sandy Bridge на Ivy Bridge показатели 3DMark выросли на величину от 2 до 7 процентов. Внедрение дизайна Haswell и выпуск процессоров Devil’s Canyon добавил к производительности старших Core i7 дополнительные 7-14 процентов. Однако потом появление Core i7-5775C, обладающего сравнительно невысокой тактовой частотой, несколько откатило быстродействие назад. И новейшему Core i7-6700K, фактически, пришлось отдуваться сразу за два поколения микроархитектуры. Прирост в итоговом рейтинге 3DMark у нового процессора семейства Skylake по сравнению с Core i7-4790K составил до 7 процентов. И на самом деле это не так много: всё-таки самое заметное улучшение производительности за последние пять лет смогли привнести процессоры Haswell. Последние же поколения десктопных процессоров, действительно, несколько разочаровывают.

Тесты в приложениях

В Autodesk 3ds max 2016 мы тестируем скорость финального рендеринга. Измеряется время, затрачиваемое на рендеринг в разрешении 1920x1080 с применением рендерера mental ray одного кадра стандартной сцены Hummer.



Ещё один тест финального рендеринга проводится нами с использованием популярного свободного пакета построения трёхмерной графики Blender 2.75a. В нём мы измеряем продолжительность построения финальной модели из Blender Cycles Benchmark rev4.



Для измерения скорости фотореалистичного трёхмерного рендеринга мы воспользовались тестом Cinebench R15. Maxon недавно обновила свой бенчмарк, и теперь он вновь позволяет оценить скорость работы различных платформ при рендеринге в актуальных версиях анимационного пакета Cinema 4D.



Производительность при работе веб-сайтов и интернет-приложений, построенных с использованием современных технологий, измеряется нами в новом браузере Microsoft Edge 20.10240.16384.0. Для этого применяется специализированный тест WebXPRT 2015, реализующий на HTML5 и JavaScript реально использующиеся в интернет-приложениях алгоритмы.



Тестирование производительности при обработке графических изображений происходит в Adobe Photoshop CC 2015. Измеряется среднее время выполнения тестового скрипта, представляющего собой творчески переработанный Retouch Artists Photoshop Speed Test, который включает типичную обработку четырёх 24-мегапиксельных изображений, сделанных цифровой камерой.



По многочисленным просьбам фотолюбителей мы провели тестирование производительности в графической программе Adobe Photoshop Lightroom 6.1. Тестовый сценарий включает пост-обработку и экспорт в JPEG с разрешением 1920x1080 и максимальным качеством двухсот 12-мегапиксельных изображений в RAW-формате, сделанных цифровой камерой Nikon D300.



В Adobe Premiere Pro CC 2015 тестируется производительность при нелинейном видеомонтаже. Измеряется время рендеринга в формат H.264 Blu-Ray проекта, содержащего HDV 1080p25 видеоряд с наложением различных эффектов.



Для измерения быстродействия процессоров при компрессии информации мы пользуемся архиватором WinRAR 5.3, при помощи которого с максимальной степенью сжатия архивируем папку с различными файлами общим объёмом 1,7 Гбайт.



Для оценки скорости перекодирования видео в формат H.264 используется тест x264 FHD Benchmark 1.0.1 (64bit), основанный на измерении времени кодирования кодером x264 исходного видео в формат MPEG-4/AVC с разрешением 1920x1080@50fps и настройками по умолчанию. Следует отметить, что результаты этого бенчмарка имеют огромное практическое значение, так как кодер x264 лежит в основе многочисленных популярных утилит для перекодирования, например, HandBrake, MeGUI, VirtualDub и проч. Мы периодически обновляем кодер, используемый для измерений производительности, и в данном тестировании приняла участие версия r2538, в которой реализована поддержка всех современных наборов инструкций, включая и AVX2.



Кроме того, мы добавили в список тестовых приложений и новый кодер x265, предназначенный для транскодирования видео в перспективный формат H.265/HEVC, который является логическим продолжением H.264 и характеризуется более эффективными алгоритмами сжатия. Для оценки производительности используется исходный 1080p@50FPS Y4M-видеофайл, который перекодируется в формат H.265 с профилем medium. В этом тестировании принял участие релиз кодера версии 1.7.



Преимущество Core i7-6700K над ранними предшественниками в различных приложениях не подлежит сомнению. Однако больше всего выиграли от произошедшей эволюции два типа задач. Во-первых, связанные с обработкой мультимедийного контента, будь то видео или изображения. Во-вторых, финальный рендеринг в пакетах трёхмерного моделирования и проектирования. В целом, в таких случаях Core i7-6700K превосходит Core i7-2700K не менее, чем на 40-50 процентов. А иногда можно наблюдать и гораздо более впечатляющее улучшение скорости. Так, при перекодировании видео кодеком x265 новейший Core i7-6700K выдаёт ровно вдвое более высокую производительность, чем старичок Core i7-2700K.

Если же говорить о том приросте в скорости выполнения ресурсоёмких задач, которую может обеспечить Core i7-6700K по сравнению с Core i7-4790K, то тут уже столь впечатляющих иллюстраций к результатам работы интеловских инженеров привести нельзя. Максимальное преимущество новинки наблюдается в Lightroom, здесь Skylake оказался лучше в полтора раза. Но это скорее – исключение из правила. В большинстве же мультимедийных задач Core i7-6700K по сравнению с Core i7-4790K предлагает лишь 10-процентное улучшение производительности. А при нагрузке иного характера разница в быстродействии и того меньше или же вообще отсутствует.

Отдельно нужно сказать пару слов и о результате, показанном Core i7-5775C. Из-за небольшой тактовой частоты этот процессор медленнее, чем Core i7-4790K и Core i7-6700K. Но не стоит забывать о том, что его ключевой характеристикой является экономичность. И он вполне способен стать одним из лучших вариантов с точки зрения удельной производительности на каждый ватт затраченной электроэнергии. В этом мы легко убедимся в следующем разделе.

Энергопотребление

Процессоры Skylake производятся по современному 14-нм технологическому процессу с трёхмерными транзисторами второго поколения, однако, несмотря на это, их тепловой пакет вырос до 91 Вт. Иными словами, новые CPU не только «горячее» 65-ваттных Broadwell, но и превосходят по расчётному тепловыделению Haswell, выпускаемые по 22-нм технологии и уживающиеся в рамках 88-ваттного теплового пакета. Причина, очевидно, состоит в том, что изначально архитектура Skylake оптимизировалась с прицелом не на высокие частоты, а на энергоэффективность и возможность использования в мобильных устройствах. Поэтому для того, чтобы десктопные Skylake получили приемлемые тактовые частоты, лежащие в окрестности 4-гигагерцевой отметки, пришлось задирать напряжение питания, что неминуемо отразилось на энергопотреблении и тепловыделении.

Впрочем, процессоры Broadwell низкими рабочими напряжениями тоже не отличались, поэтому существует надежда на то, что 91-ваттный тепловой пакет Skylake получили по каким-то формальным обстоятельствам и, на самом деле, они окажутся не прожорливее предшественников. Проверим!

Используемый нами в тестовой системе новый цифровой блок питания Corsair RM850i позволяет осуществлять мониторинг потребляемой и выдаваемой электрической мощности, чем мы и пользуемся для измерений. На следующем ниже графике приводится полное потребление систем (без монитора), измеренное «после» блока питания и представляющее собой сумму энергопотребления всех задействованных в системе компонентов. КПД самого блока питания в данном случае не учитывается. Для правильной оценки энергопотребления мы активировали турборежим и все имеющиеся энергосберегающие технологии.



В состоянии простоя качественный скачок в экономичности настольных платформ произошёл с выходом Broadwell. Core i7-5775C и Core i7-6700K отличаются заметно более низким потреблением в простое.



Зато под нагрузкой в виде перекодирования видео самыми экономичными вариантами CPU оказываются Core i7-5775C и Core i7-3770K. Новейший же Core i7-6700K потребляет больше. Его энергетические аппетиты находятся на уровне старшего Sandy Bridge. Правда, в новинке, в отличие от Sandy Bridge, есть поддержка инструкций AVX2, которые требуют достаточно серьёзных энергетических затрат.

На следующей диаграмме приводится максимальное потребление при нагрузке, создаваемой 64-битной версией утилиты LinX 0.6.5 с поддержкой набора инструкций AVX2, которая базируется на пакете Linpack, отличающемся непомерными энергетическими аппетитами.



И вновь процессор поколения Broadwell показывает чудеса энергетической эффективности. Однако если смотреть на то, сколько электроэнергии потребляет Core i7-6700K, то становится понятно, что прогресс в микроархитектурах обошёл стороной энергетическую эффективность настольных CPU. Да, в мобильном сегменте с выходом Skylake появились новые предложения с чрезвычайно соблазнительным соотношением производительности и энергопотребления, однако новейшие процессоры для десктопов продолжают потреблять примерно столько же, сколько потребляли их предшественники за пять лет до сегодняшнего дня.

Выводы

Проведя тестирование новейшего Core i7-6700K и сравнив его с несколькими поколениями предшествующих CPU, мы вновь приходим к неутешительному выводу о том, что компания Intel продолжает следовать своим негласным принципам и не слишком стремится наращивать быстродействие десктопных процессоров, ориентированных на высокопроизводительные системы. И если по сравнению со старшим Broadwell новинка предлагает примерно 15-процентное улучшение производительности, обусловленное существенно лучшими тактовыми частотами, то в сравнении с более старым, но более быстрым Haswell она уже не кажется столь же прогрессивной. Разница в производительности Core i7-6700K и Core i7-4790K, несмотря на то, что эти процессоры разделяет два поколения микроархитектуры, не превышает 5-10 процентов. И это очень мало для того, чтобы старший десктопный Skylake можно было бы однозначно рекомендовать для обновления имеющихся LGA 1150-систем.

Впрочем, к столь незначительным шагам Intel в деле повышения скорости работы процессоров для настольных систем стоило бы давно привыкнуть. Прирост быстродействия новых решений, лежащий примерно в таких пределах, – давно сложившаяся традиция. Никаких революционных изменений в вычислительной производительности интеловских CPU, ориентированных на настольные ПК, не происходит уже очень давно. И причины этого вполне понятны: инженеры компании заняты оптимизацией разрабатываемых микроархитектур для мобильных применений и в первую очередь думают об энергоэффективности. Успехи Intel в адаптации собственных архитектур для использования в тонких и лёгких устройствах несомненны, но адептам классических десктопов при этом только и остаётся, что довольствоваться небольшими прибавками быстродействия, которые, к счастью, пока ещё не совсем сошли на нет.

Однако это совсем не значит, что Core i7-6700K можно рекомендовать лишь для новых систем. Задуматься о модернизации своих компьютеров вполне могут обладатели конфигураций, в основе которых лежит платформа LGA 1155 с процессорами поколений Sandy Bridge и Ivy Bridge. В сравнении с Core i7-2700K и Core i7-3770K новый Core i7-6700K выглядит очень неплохо – его средневзвешенное превосходство над такими предшественниками оценивается в 30-40 процентов. Кроме того, процессоры с микроархитектурой Skylake могут похвастать поддержкой набора инструкций AVX2, который к настоящему моменту нашел достаточно широкое применение в мультимедийных приложениях, и благодаря этому в некоторых случаях Core i7-6700K оказывается быстрее гораздо сильнее. Так, при перекодировании видео мы даже видели случаи, когда Core i7-6700K превосходил Core i7-2700K в скорости работы более чем в два раза!

Есть у процессоров Skylake и целый ряд других преимуществ, связанных с внедрением сопутствующей им новой платформы LGA 1151. И дело даже не столько в появившейся в ней поддержке DDR4-памяти, сколько в том, что новые наборы логики сотой серии наконец-то получили действительно скоростное соединение с процессором и поддержку большого количества линий PCI Express 3.0. В результате, передовые LGA 1151-системы могут похвастать наличием многочисленных быстрых интерфейсов для подключения накопителей и внешних устройств, которые лишены каких-либо искусственных ограничений по пропускной способности.

Плюс к тому, оценивая перспективы платформы LGA 1151 и процессоров Skylake, в виду нужно иметь и ещё один момент. Intel не будет спешить с выводом на рынок процессоров следующего поколения, известных как Kaby Lake. Если верить имеющейся информации, представители этой серии процессоров в вариантах для настольных компьютеров появятся на рынке только в 2017 году. Так что Skylake будет с нами ещё долго, и система, построенная на нём, сможет оставаться актуальной в течение очень продолжительного промежутка времени.

Многие при покупке flash-накопителя задаются вопросом: «как правильно выбрать флешку». Конечно, флешку выбрать не так уж и трудно, если точно знать для каких целей она приобретается. В этой статье я постараюсь дать полный ответ на поставленный вопрос. Я решил писать только о том, на что надо смотреть при покупке.

Flash-накопитель (USB-накопитель) – это накопитель, предназначенный для хранения и переноса информации. Работает флешка очень просто без батареек. Всего лишь нужно ее подключить к USB порту Вашего ПК.

1. Интерфейс флешки

На данный момент существует 2 интерфейса это: USB 2.0 и USB 3.0. Если Вы решили купить флешку, то я рекомендую брать флешку с интерфейсом USB 3.0. Данный интерфейс был сделан недавно, его главной особенностью является высокая скорость передачи данных. О скоростях поговорим чуть ниже.


Это один из главных параметров, на который нужно смотреть в первую очередь. Сейчас продаются флешки от 1 Гб до 256 Гб. Стоимость флеш-накопителя напрямую будет зависеть от объема памяти. Тут нужно сразу определиться для каких целей покупается флешка. Если вы собираетесь на ней хранить текстовые документы, то вполне хватит и 1 Гб. Для скачивания и переноски фильмов, музыки, фото и т.д. нужно брать чем больше, тем лучше. На сегодняшний день самыми ходовыми являются флешки объемом от 8Гб до 16 Гб.

3. Материал корпуса



Корпус может быть сделан из пластика, стекла, дерева, метала и т.д. В основном флешки делают из пластика. Тут я советовать нечего не могу, все зависит от предпочтений покупателя.

4. Скорость передачи данных

Ранее я писал, что существует два стандарта USB 2.0 и USB 3.0. Сейчас объясню, чем они отличаются. Стандарт USB 2.0 имеет скорость чтения до 18 Мбит/с, а записи до 10 Мбит/с. Стандарт USB 3.0 имеет скорость чтения 20-70 Мбит/с, а записи 15-70 Мбит/с. Тут, я думаю, объяснять ничего не надо.





Сейчас в магазинах можно найти флешки разных форм и размеров. Они могут быть в виде украшений, причудливых животных и т.д. Тут я бы посоветовал брать флешки, у которых есть защитный колпачок.

6. Защита паролем

Есть флешки, которые имеют функцию защиты паролем. Такая защита осуществляется при помощи программы, которая находится в самой флешке. Пароль можно ставить как на всю флешку, так и на часть данных в ней. Такая флешка в первую очередь будет полезна людям, которые переносят в ней корпоративную информацию. Как утверждают производители, потеряв ее можно не беспокоиться о своих данных. Не все так просто. Если такая флешка попадет в руки понимающего человека, то ее взлом это всего лишь дело времени.



Такие флешки внешне очень красивы, но я бы не рекомендовал их покупать. Потому что они очень хрупкие и часто ломаются пополам. Но если Вы аккуратный человек, то смело берите.

Вывод

Нюансов, как Вы заметили, много. И это только вершина айсберга. На мой взгляд, самые главные параметры при выборе: стандарт флешки, объем и скорость записи и чтения. А все остальное: дизайн, материал, опции – это всего лишь личный выбор каждого.

Добрый день, мои дорогие друзья. В сегодняшней статье я хочу поговорить о том, как правильно выбрать коврик для мыши. При покупке коврика многие не придают этому никакого значения. Но как оказалось, этому моменту нужно уделять особое внимание, т.к. коврик определяют один из показателей комфорта во время работы за ПК. Для заядлого геймера выбор коврика это вообще отдельная история. Рассмотрим, какие варианты ковриков для мыши придуманы на сегодняшний день.

Варианты ковриков

1. Алюминиевые
2. Стеклянные
3. Пластиковые
4. Прорезиненные
5. Двухсторонние
6. Гелиевые

А теперь я бы хотел поговорить о каждом виде поподробнее.

1. Сначала хочу рассмотреть сразу три варианта: пластиковые, алюминиевые и стеклянные. Такие коврики пользуются большой популярностью у геймеров. Например, пластиковые коврики легче найти в продаже. По таким коврикам мышь скользит быстро и точно. И самое главное такие коврики подходят как для лазерных, так и для оптических мышей. Алюминиевые и стеклянные коврики найти будет немного сложнее. Да и стоить они будут немало. Правда есть за что – служить они будут очень долго. Коврики данных видов имеют маленькие недостатки. Многие говорят, что при работе они шуршат и наощупь немного прохладные, что может вызывать у некоторых пользователей дискомфорт.


2. Прорезиненные (тряпичные) коврики имеют мягкое скольжение, но при этом точность движений у них хуже. Для обычных пользователей такой коврик будет в самый раз. Да и стоят они намного дешевле предыдущих.


3. Двухсторонние коврики, на мой взгляд, очень интересная разновидность ковриков для мыши. Как понятно из названия у таких ковриков две стороны. Как правило, одна сторона является скоростной, а другая высокоточной. Бывает так, что каждая сторона рассчитана на определенную игру.


4. Гелиевые коврики имеют силиконовую подушку. Она якобы поддерживает руку и снимает с нее напряжение. Лично для меня они оказались самыми неудобными. По назначению они рассчитаны для офисных работников, поскольку те целыми днями сидят за компьютером. Для обычных пользователей и геймеров такие коврики не подойдут. По поверхности таких ковриков мышь скользит очень плохо, да и точность у них не самая хорошая.

Размеры ковриков

Существует три вида ковриков: большие, средние и маленькие. Тут все в первую очередь зависит от вкуса пользователя. Но как принято считать большие коврики хорошо подходят для игр. Маленькие и средние берут в основном для работы.

Дизайн ковриков

В этом плане, нет ни каких ограничений. Все зависит от того что Вы хотите видеть на своем коврике. Благо сейчас на ковриках что только не рисуют. Наиболее популярными являются логотипы компьютерных игр, таких как дота, варкрафт, линейка и т.д. Но если случилось, что Вы не смогли найти коврик с нужным Вам рисунком, не стоит огорчаться. Сейчас можно заказать печать на коврик. Но у таких ковриков есть минус: при нанесении печати на поверхность коврика его свойства ухудшаются. Дизайн в обмен на качество.

На этом я хочу закончить статью. От себя желаю сделать Вам правильный выбор и быть им довольным.
У кого нет мышки или хочет её заменить на другую советую посмотреть статью: .

Моноблоки компании Microsoft пополнились новой моделью моноблока под названием Surface Studio. Свою новинку Microsoft представил совсем недавно на выставке в Нью-Йорке.


На заметку! Я пару недель назад писал статью, где рассматривал моноблок Surface. Этот моноблок был представлен ранее. Для просмотра статьи кликайте по .

Дизайн

Компания Microsoft свою новинку называет самым тонким в мире моноблоком. При весе в 9,56 кг толщина дисплея составляет всего лишь 12,5 мм, остальные габариты 637,35х438,9 мм. Размеры дисплея составляют 28 дюймов с разрешением больше чем 4К (4500х3000 пикселей), соотношение сторон 3:2.


На заметку! Разрешение дисплея 4500х3000 пикселей соответствует 13,5 млн пикселей. Это на 63% больше, чем у разрешения 4К.

Сам дисплей моноблока сенсорный, заключенный в алюминиевый корпус. На таком дисплее очень удобно рисовать стилусом, что в итоге открывает новые возможности использования моноблоком. По моему мнению эта модель моноблока будет по нраву творческим людям (фотографы, дизайнеры и т. д.).


На заметку! Для людей творческих профессий я советую посмотреть статью, где я рассматривал моноблоки подобного функционала. Кликаем по выделенному: .

Ко всему выше написанному я бы добавил, что главной фишкой моноблока будет его возможность мгновенно превращаться в планшет с огромной рабочей поверхностью.


На заметку! Кстати, у компании Microsoft есть еще один удивительный моноблок. Чтобы узнать о нем, переходите по .

Технические характеристики

Характеристики я представлю в виде фотографии.


Из периферии отмечу следующее: 4 порта USB, разъем Mini-Display Port, сетевой порт Ethernet, card-reader, аудио гнездо 3,5 мм, веб-камера с 1080р, 2 микрофона, аудиосистема 2.1 Dolby Audio Premium, Wi-Fi и Bluetooth 4.0. Так же моноблок поддерживает беспроводные контроллеры Xbox.





Цена

При покупке моноблока на нем будет установлена ОС Windows 10 Creators Update. Данная система должна выйти весной 2017 года. В данной операционной системе будет обновленный Paint, Office и т. д. Цена на моноблок будет составлять от 3000 долларов.
Дорогие друзья, пишите в комментариях, что вы думаете об этом моноблоке, задавайте интересующие вопросы. Буду рад пообщаться!

Компания OCZ продемонстрировала новые SSD-накопители VX 500. Данные накопители будут оснащаться интерфейсом Serial ATA 3.0 и сделаны они в 2.5-дюймовом форм-факторе.


На заметку! Кому интересно, как работает SSD-диски и сколько они живут, можно прочитать в ранее мною написанной статье: .
Новинки выполнены по 15-нанометровой технологии и будут оснащаться микрочипами флеш-памяти Tochiba MLC NAND. Контроллер в SSD-накопителях будет использоваться Tochiba TC 35 8790.
Модельный ряд накопителей VX 500 будет состоять из 128 Гб, 256 Гб, 512 Гб и 1 Тб. По заявлению производителя последовательна скорость чтения будет составлять 550 Мб/с (это у всех накопителей этой серии), а вот скорость записи составит от 485 Мб/с до 512 Мб/с.


Количество операций ввода/вывода в секунду (IOPS) с блоками данных размером 4 кбайта может достигать 92000 при чтении, а при записи 65000 (это все при произвольном).
Толщина накопителей OCZ VX 500 будет составлять 7 мм. Это позволит использовать их в ультрабуках.




Цены новинок будут следующими: 128 Гб — 64 доллара, 256 Гб — 93 доллара, 512 Гб — 153 доллара, 1 Тб — 337 долларов. Я думаю, в России они будут стоить дороже.

Компания Lenovo на выставке Gamescom 2016 представила свой новый игровой моноблок IdeaCentre Y910.


На заметку! Ранее я писал статью, где уже рассматривал игровые моноблоки разных производителей. Данную статью можно посмотреть, кликнув по этой .


Новинка от Lenovo получила безрамочный дисплей размером 27 дюймов. Разрешение дисплея составляет 2560х1440 пикселей (это формат QHD), частота обновлений равна 144 Гц, а время отклика 5 мс.


У моноблока будет несколько конфигураций. В максимальной конфигурации предусмотрен процессор 6 поколения Intel Core i7, объем жесткого диска до 2 Тб или объемом 256 Гб. Объем оперативной памяти равен 32 Гб DDR4. За графику будет отвечать видеокарта NVIDIA GeForce GTX 1070 либо GeForce GTX 1080 с архитектурой Pascal. Благодаря такой видеокарте к моноблоку можно будет подключить шлем виртуальной реальности.
Из периферии моноблока я бы выделил аудиосистему Harmon Kardon с 5-ваттными динамиками, модуль Killer DoubleShot Pro Wi-Fi, веб-камеру, USB порты 2.0 и 3.0, разъемы HDMI.


В базовом варианте моноблок IdeaCentre Y910 появиться в продаже в сентябре 2016 года по цене от 1800 евро. А вот моноблок с версией «VR-ready» появится в октябре по цене от 2200 евро. Известно, что в этой версии будет стоять видеокарта GeForce GTX 1070.

Компания MediaTek решила модернизировать свой мобильный процессор Helio X30. Так что теперь разработчики из MediaTek проектируют новый мобильный процессор под названием Helio X35.


Я бы хотел вкратце рассказать о Helio X30. Данный процессор имеет 10 ядер, которые объединены в 3 кластера. У Helio X30 есть 3 вариации. Первый - самый мощный состоит из ядер Cortex-A73 с частотой до 2,8 ГГц. Так же есть блоки с ядрами Cortex-A53 с частотой до 2,2 ГГц и Cortex-A35 с частотой 2,0 ГГц.


Новый процессор Helio X35 тоже имеет 10 ядер и создается он по 10-нанометровой технологии. Тактовая частота в этом процессоре будет намного выше, чем у предшественника и составляет от 3,0 Гц. Новинка позволит задействовать до 8 Гб LPDDR4 оперативной памяти. За графику в процессоре скорее всего будет отвечать контроллер Power VR 7XT.
Саму станцию можно увидеть на фотографиях в статье. В них мы можем наблюдать отсеки для накопителей. Один отсек с разъемом 3,5 дюймов, а другой с разъемом 2,5 дюймов. Таким образом к новой станции можно будет подключить как твердотельный диск (SSD), так и жесткий диск (HDD).


Габариты станции Drive Dock составляют 160х150х85мм, а вес ни много ни мало 970 граммов.
У многих, наверное, возникает вопрос, как станция Drive Dock подключается к компьютеру. Отвечаю: это происходит через USB порт 3.1 Gen 1. По заявлению производителя скорость последовательного чтения будет составлять 434 Мб/сек, а в режиме записи (последовательного) 406 Мб/с. Новинка будет совместима с Windows и Mac OS.


Данное устройство будет очень полезным для людей, которые работают с фото и видео материалами на профессиональном уровне. Так же Drive Dock можно использовать для резервных копий файлов.
Цена на новое устройство будет приемлемой — она составляет 90 долларов.

На заметку! Ранее Рендучинтала работал в компании Qualcomm. А с ноября 2015 года он перешел в конкурирующую компанию Intel.


В своем интервью Рендучинтала не стал говорить о мобильных процессорах, а лишь сказал следующее, цитирую: «Я предпочитаю меньше говорить и больше делать».
Таким образом, топ-менеджер Intel своим интервью внес отличную интригу. Нам остается ждать новых анонсов в будущем.

Практически вся современная техника не может существовать без процессора - ядра электронной составляющей. Несмотря на достаточное многообразие современных производителей - наиболее популярными являются процессоры Intel, история которых насчитывает уже почти полвека.

Первые CPU появились еще в 40-х годах прошлого века, но лишь в 1964 году с выходом на рынок вычислительных устройств IBM System/360 можно было утверждать о начале эпохи компьютеров.

4-х битные процессоры

В 1971 году Intel представила первый 4-битный процессор, имеющий маркировку 4004 и изготовленный с применением 10 мкм технологии. Количество транзисторов в составе чипа составляло 2300, а тактовая частота - 740 кГц.

В 1974 году был произведен апгрейд до модели 4040. При этом количество транзисторов выросло до 3000 с сохранением максимальной тактовой частоты.

Обе модели применялись фирмой Nippon при изготовлении калькуляторов.

8-битные процессоры

Пришли на смену 4-х битным процессорам и имели маркировку 8008, 8080, 8085. Выпуск был начат в 1972 году, а последняя модель появилась на рынке в 1976 году. С появлением этих моделей началось заметное повышение тактовой частоты процессора от 500 кГц до 5 МГц. При этом, количество транзисторов увеличилось с 3500 до 6500. При производстве применялись 3, 6 и 10 мкм технологии.

16-битные процессоры

Производство 16-битных процессоров началось в 1978 году и изначально рассматривалась как промежуточный этап перед началом разработки и запуском в производство 32-битной архитектуры, как наиболее полно отвечающей современным требованиям, тем более, что возрастающая конкуренция требовала более новые и мощные модели процессоров для производителей электроники.

Выпуск 16-битных процессоров начался с модели 8086, созданной при помощи 3мкм технологии и имеющей тактовую частоту до 10МГц. Разработка этого типа процессоров закончилась в 1982 году с выпуском модели 80286, имеющей максимальную тактовую частоту 16МГц. Из особенностей можно отметить возможность использования аппаратной защиты для многозадачных систем.

32-битные процессоры

Старт разработки 32-битных процессоров положил началу разработки и широкому внедрению ЭВМ. Именно они послужили основой для создания персональных компьютеров, так широко используемых в настоящее время. Стоит также отметить, что еще имеется достаточно большое количество рабочих компьютеров, работающих под управлением процессоров 32-битной архитектуры.

В состав 32-битной архитектуры входят несколько линеек и микроархитектур:

  • He-x86 процессоры
  • линии 80386 и 80486
  • архитектура и микроархитектура Pentium, Celeron и Xeon
  • микроархитектура NetBurst

В 1981 годы впервые был представлен iAPX 432 как первый 32-битный He-x86 процессор от компании Intel. Обладал рабочей частотой до 8МГц. Дальнейшее развитие этой линейки включает в себя процессоры i860 и i960, выпущенные в 1988-89 годах. В эту же линейку входила и серия процессоров XScale, представленная на суд покупателей в 2000 году. Широкое распространение процессоры XScale получили в производстве карманных компьютеров.

Линии 80386 и 80486 были представлены в 1985 и в 1989 годах соответственно. Чаще всего обозначались как 386 и 486 процессоры. Тактовые частоты начинались с 20МГц, а в производстве использовалась 1мкм технология.

Впервые Pentium был представлен в 1993 году и представлял собой процессор с тактовой частотой от 75 Мгц, изготовленный по 0,6мкм процессу. Производство всех Pentium, а также более простых моделей Celeron продолжалось вплоть до 2006 года. Последней моделью представленной линейки является Pentium Dual-Core, изготовленный по 65нм технологии и обладающий тактовой частотой 1,86ГГц.

Микроархитектура NetBurst впервые была представлена в 2000 году моделью Pentium 4 с тактовой частотой 1,3МГц. В результате дальнейшей модернизации частота поднялась до 3,6ГГц, а используемый технологический процесс от 0,18 до 0,13 мкм.

64-битные процессоры

Включает в свой состав несколько микроархитектур:

  • NetBurst
  • IntelCore
  • Intel Atom
  • Nehalem
  • Sandy Bridge
  • Ivy Bridge
  • Haswell
  • Broadwell
  • Skylake
  • Kaby Lake

Начало производства 64-битных процессоров в Intel началось в 2004 году, а в 2005 году был выпущен Pentium 4D, предназначенный для широкого применения. При его производстве использовался 90нм процесс, а частота составляла 2,66ГГц. Дальнейшее развитие включает в себя модели 955 EE и 965 EE с частотами 3,46 и 3,73ГГц.

IntelCore включает в себя процессоры, изготовленные по 65нм технологическому процессу. Впервые представлены в 2006 году и обладают частотами от 1,86 ГГц до 3,33 ГГц с разными размерами кеша и частотой шины.

Серия IntelAtom производится с 2008 года и выполнена по 45нм технологическому процессу. Обладает частотой от 800Мгц до 2,13ГГц. Достаточно простые и дешевые процессоры, используемые в производстве нетбуков.

Серия Nehalem представлена на суд покупателей в 2010 году. Процессоры серии обладают тактовыми частотами от 1,07ГГц до 3,6ГГц и включает в себя процессоры с 2, 4 и 6 ядрами.

SandyBridge и IvyBridge выпускаются с 2011 года и включают в себя модели от 1-ядерных до 15-ядерных с частотами от 1,6ГГц до 3,6ГГц.

Haswell, Broadwell, Skylake и Kaby Lake включают в себя модели с 2, 4 и 6 ядрами с частотами от 3 ГГц до 4,4 ГГц.

История процессоров Intel | Первенец – Intel 4004

Свой первый микропроцессор Intel продала в 1971 году. Это был 4-битный чип с кодовым названием 4004. Он предназначался для совместной работы с тремя другими микрочипами, ПЗУ 4001, ОЗУ 4002 и сдвиговым регистром 4003. 4004 выполнял непосредственно вычисления, а остальные компоненты имели критическое значение для работы процессора. Чипы 4004 главным образом использовались в калькуляторах и прочих подобных устройствах, и не предназначались для компьютеров. Его максимальная тактовая частота составляла 740 кГц.

За 4004 последовал похожий процессор под названием 4040, который, по сути, представлял улучшенную версию 4004 с расширенной системой команд и более высокой производительностью.

История процессоров Intel | 8008 и 8080

С помощью 4004 Intel заявила о себе на рынке микропроцессоров, и чтобы извлечь выгоду из ситуации представила новую серию 8-битных процессоров. Чипы 8008 появились в 1972 году, затем в 1974 году появились процессоры 8080, а в 1975 году – чипы 8085. Хотя 8008 является первым 8-битным микропроцессоров Intel, он был не так известен, как его предшественник или преемник – модель 8080. Благодаря возможности обрабатывать данные 8-битными блоками 8008 был быстрее, чем 4004, но имел довольно скромную тактовую частоту 200-800 кГц и не особо привлекал внимание проектировщиков систем. 8008 производился по 10-микрометровой технологии.

Intel 8080 оказался намного более успешным. Архитектурный дизайн чипов 8008 был изменен ввиду добавления новых инструкций и перехода к 6-микрометровым транзисторам. Это позволило Intel более чем вдвое повысить тактовые частоты, и самые быстрые процессоры 8080 в 1974 году работали при частоте 2 МГц. ЦП 8080 использовались в бесчисленном множестве устройств, в связи с чем несколько разработчиков программного обеспечения, например, недавно сформированная Microsoft, сосредоточились на программном обеспечении для процессоров Intel.

В конечном счете, появившиеся позже микрочипы 8086 имели общую архитектуру с 8080, чтобы сохранить обратную совместимость с ПО, написанным для них. В результате ключевые аппаратные блоки процессоров 8080 присутствовали во всех когда-либо произведенных процессорах на базе x86. Программное обеспечение для 8080 технически также может работать на любом процессоре с архитектурой x86.

Процессоры 8085, по сути, представляли удешевленный вариант 8080 с повышенной тактовой частой. Они были очень успешны, хотя оставили меньший след в истории.

История процессоров Intel | 8086: начало эры x86

Первым 16-битным процессором Intel был 8086. Он имел существенно большую производительность по сравнению с 8080. Кроме повышенной тактовой частоты процессор обладал 16-разрядной шиной данных и аппаратными исполнительными блоками, позволяющими 8086 одновременно выполнять две восьмибитные инструкции. Кроме того процессор мог выполнять более сложные 16-битные операции, но основная масса программ того времени была разработана для 8-битных процессоров, поэтому поддержка 16-битных операций была не так актуальна, как многозадачность процессора. Разрядность адресной шины была расширена до 20-бит, что дало процессору 8086 доступ к 1 Мбайт памяти и увеличило производительность.

8086 также стал первым процессором на архитектуре x86. Он использовал первую версию набора команд x86, на которой базируются почти все процессоры AMD и Intel с момента появления этого чипа.

Примерно в то же время Intel выпускала чип 8088. Он был построен на базе 8086, но у него была отключена половина адресной шины, и он ограничивался исполнением 8-битных операций. Тем не менее, он имел доступ к 1 Мбайт ОЗУ и работал при более высоких частотах, поэтому был быстрее предыдущих 8-битных процессоров Intel.

История процессоров Intel | 80186 и 80188

После 8086 Intel представила несколько других процессоров, все они использовали схожую 16-битную архитектуру. Первым был чип 80186. Он разрабатывался с целью упрощения проектирования готовых систем. Intel переместила некоторые аппаратные элементы, которые обычно располагались на системной плате, в ЦП, включая генератор тактовых импульсов, контроллер прерываний и таймер. Благодаря интеграции этих компонентов в ЦП 80186 стал во много раз быстрее, чем 8086. Intel также увеличила тактовую частоту чипа, чтобы еще больше повысить производительность.

Процессор 80188 также имел ряд аппаратных компонентов, интегрированных в чип, но обходился 8-битной шиной данных, как 8088, и предлагался в качестве бюджетного решения.

История процессоров Intel | 80286: больше памяти, больше производительности

После выхода 80186 в том же году появился 80286. Он имел почти идентичные характеристики, за исключением расширенной до 24-бит адресной шины, которая, в так называемом защищенном режиме работы процессора, позволяла ему работать с оперативной памятью объемом до 16 Мбайт.

История процессоров Intel | iAPX 432

iAPX 432 был ранней попыткой Intel уйти от архитектуры x86 в совершенно другую сторону. По расчетам Intel iAPX 432 должен быть в несколько раз быстрее, чем другие решения компании. Но, в конечном счете, процессор потерпел неудачу из-за существенных просчетов в архитектуре. Хотя процессоры x86 считались относительно сложными, iAPx 432 поднял сложность CISC на совершенно новый уровень. Конфигурация процессора была довольно громоздкой, что вынудило Intel выпускать ЦП на двух отдельных кристаллах. Процессор также был рассчитан на высокие нагрузки и не мог хорошо работать в условиях недостатка пропускной способности шин или поступления данных. iAPX 432 смог обогнать 8080 и 8086, но его быстро затмили более новые процессоры на архитектуре x86, и в итоге от него отказались.

История процессоров Intel | i960: первый RISC-процессор Intel

В 1984 Intel создала свой первый RISC-процессор. Он не являлся прямым конкурентом процессорам на базе x86, поскольку предназначался для безопасных встраиваемых решений. В этих чипах использовалась 32-битная суперскалярная архитектура, в которой применялись концепция дизайна Berkeley RISC. Первые процессоры i960 имели относительно низкие тактовые частоты (младшая модель работала на 10 МГц), но со временем архитектура была улучшена и переведена на более тонкие техпроцессы, что позволило поднять частоту до 100 МГц. Также они поддерживали 4 Гбайт защищенной памяти.

i960 широко использовался в военных системах а также в корпоративном сегменте.

История процессоров Intel | 80386: переход x86 на 32-бита

Первым 32-битным процессором на архитектуре x86 от Intel стал 80386, который появился в 1985 году. Его ключевым преимуществом являлась 32-битная адресная шина, которая позволяла адресовать до 4 Гбайт системной памяти. Хотя в те времени столько памяти практически никто не использовал, ограничения ОЗУ часто вредили производительности предшествующих процессоров x86 и конкурирующих ЦП. В отличие от современных ЦП, на момент появления 80386 увеличение объема ОЗУ почти всегда означало увеличение производительности. Также Intel реализовала ряд архитектурных усовершенствований, которые помогали повысить производительность выше уровня 80286, даже когда обе системы использовали одинаковый объем ОЗУ.

Чтобы добавить в продуктовую линейку более доступные модели, Intel представила 80386SX. Этот процессор был практически идентичен 32-битному 80386, но ограничивался 16-битной шиной данных и поддерживал работу с ОЗУ объемом лишь до 16 Мбайт.

История процессоров Intel | i860

В 1989 году Intel предприняла еще одну попытку уйти от процессоров x86. Она создала новый ЦП с архитектурой RISC под названием i860. В отличие от i960 этот ЦП разрабатывался как модель с высокой производительностью для рынка настольных ПК, но процессорный дизайн имел некоторые недостатки. Главный из них заключался в том, что для достижения высокой производительности процессор полностью полагался на программные компиляторы, которые должны были размещать инструкции в порядке их выполнения в момент создания исполняемого файла. Это помогло Intel сохранить размер кристалла и уменьшить сложность чипа i860, но при компиляции программ было практически невозможно корректно расположить каждую инструкцию с начала и до конца. Это вынуждало ЦП тратить больше времени на обработку данных, что резко снижало его производительность.

История процессоров Intel | 80486: интеграция FPU

Процессор 80486 стал следующим большим шагом Intel с точки зрения производительности. Ключом к успеху являлась более плотная интеграция компонентов в ЦП. 80486 был первым процессором x86 с кэшем L1 (первого уровня). Первые образцы 80486 имели на кристалле 8 Кбайт кэш-памяти и изготавливались с применением техпроцесса 1000 нм. Но с переходом на 600 нм объем кэша L1 увеличился до 16 Кбайт.

Intel также включила в ЦП блок FPU, который до этого являлся отдельным функциональным блоком обработки данных. Переместив эти компоненты в центральный процессор, Intel заметно снизила задержку между ними. Чтобы увеличить пропускную способность процессоры 80486 также использовали более быстрый интерфейс FSB. Для повышения скорости обработки внешних данных было произведено множество усовершенствований в ядре и других компонентах. Эти изменения значительно подняли производительность процессоров 80486, которые в разы обгоняли старые 80386.

Первые процессоры 80486 достигали частоты 50 МГц, а более поздние модели, произведенные по техпроцессу 600 нм, могли работать на частоте до 100 МГц. Для покупателей с меньшим бюджетом Intel выпускала версию 80486SX, в которой был заблокирован блок FPU.

История процессоров Intel | P5: первый процессор Pentium

Pentium появился в 1993 году и был первым процессором x86 Intel, который не следовал системе нумерации 80x86. Pentium использовал архитектуру P5 – первую суперскалярную микроархитектуру x86 Intel. Хотя Pentium в целом был быстрее 80486, его главной особенностью был существенно улучшенный блок FPU. FPU оригинального Pentium был более чем в десять раз быстрее старого блока в 80486. Значение этого усовершенствования лишь усилилось, когда Intel выпустила Pentium MMX. В плане микроархитектуры этот процессор идентичен первому Pentium, но он поддерживал набор команд Intel MMX SIMD, который мог значительно повышать скорость отдельных операций.

По сравнению с 80486 Intel увеличила в новых процессорах Pentium объема кэша L1. Первые модели Pentium имели 16 Кбайт кэша первого уровня, а Pentium MMX получил уже 32 Кбайт. Естественно, эти чипы работали при более высоких тактовых частотах. Первые процессоры Pentium использовали транзисторы с техпроцессом 800 нм и достигали только 60 МГц, но последующие версии, созданные с использованием производственного процесса Intel 250 нм, достигали уже 300 МГц (ядро Tillamook).

История процессоров Intel | P6: Pentium Pro

Вскоре после первого Pentium Intel планировала выпустить Pentium Pro, основанный на архитектуре P6, но столкнулась с техническими трудностями. Pentium Pro выполнял 32-битные операции значительно быстрее оригинального Pentium благодаря внеочередному исполнению команд. Эти процессоры имели сильно переработанную внутреннюю архитектуру, которая декодировала инструкции в микрооперации, которые выполнялись на модулях общего назначения. В связи с дополнительными аппаратными средствами декодирования Pentium Pro также использовал значительно расширенный 14-уровневый конвейер.

Поскольку первые процессоры Pentium Pro были предназначены для рынка серверов, Intel снова расширила адресную шину до 36-бит и добавила технологию PAE, позволяющую адресовать до 64 Гбайт ОЗУ. Это гораздо больше, чем было нужно среднему пользователю, но возможность поддержки большого объема ОЗУ была крайне важна для заказчиков серверов.

Также была переработана система кэш-памяти процессора. Кэш L1 был ограничен двумя сегментами по 8 Кбайт, один для инструкций и один для данных. Чтобы восполнить дефицит 16 Кбайт памяти по сравнению с Pentium MMX, Intel добавила от 256 Кбайт до 1 Мбайт кэша L2 на отдельной микросхеме, присоединенной к корпусу ЦП. Она соединялась с ЦП с помощью внутренней шины передачи данных (BSB).

Изначально Intel планировала продавать Pentium Pro простым пользователям, но, в конечном счете, ограничила его выпуск моделями для серверных систем. Pentium Pro имел несколько революционных функций, но продолжал конкурировать с Pentium и Pentium MMX в плане производительности. Два более старых процессора Pentium были значительно быстрее при выполнении 16-битных операций, а в то время 16-битное ПО было преобладающим. Процессору также нахватало поддержки набора команд MMX, в результате Pentium MMX обгонял Pentium Pro в оптимизированных под MMX программах.

У Pentium Pro был шанс удержаться на потребительском рынке, но он был довольно дорогим в производстве из-за отдельной микросхемы, содержащей кэш L2. Самый быстрый процессор Pentium Pro достигал тактовой частоты 200 МГц и производился по техпроцессам 500 и 350 нм.

История процессоров Intel | P6: Pentium II

Intel не отступилась от архитектуры P6 и в 1997 году представила Pentium II, в которым были исправлены почти все недостатки Pentium Pro. Лежащая в основе архитектура была похожа на Pentium Pro. Он также использовал 14-уровневый конвейер и имел некоторые улучшения ядра, повышающие скорость выполнения инструкций. Объем кэша L1 вырос – 16 Кбайт для данных плюс 16 Кбайт для инструкций.

Для снижения стоимости производства Intel также перешла к более дешевым чипам кэш-памяти, присоединенным к более крупному корпусу процессора. Это был эффективный способ сделать Pentium II дешевле, но модули памяти не могли работать на максимальной скорости ЦП. В результате частота работы кэша L2 составляла лишь половину от процессорной, но для ранних моделей ЦП этого было достаточно, чтобы увеличить производительность.

Intel также добавила набор команд MMX. Ядра ЦП в Pentium II под кодовым названием "Klamath" и "Deschutes" также продавалась под брендами Xeon и Pentium II Overdrive, ориентированными на сервера. Модели с самой высокой производительностью имели 512 Кбайт кэша L2 и тактовую частоту до 450 МГц.

История процессоров Intel | P6: Pentium III и схватка за 1 ГГц

После Pentium II Intel планировала выпустить процессор, основанный на архитектуре Netburst, но она была еще не готова. Поэтому в Pentium III компания снова использовала архитектуру P6.

Первый процессор Pentium III носил кодовое имя "Katmai" и был очень похож на Pentium II: он использовал упрощенный кэш L2, работающий лишь на половине скорости ЦП. Базовая архитектура получила существенные изменения, в частности, несколько частей 14-уровневого конвейера были объединены между собой до 10 ступеней. Благодаря обновленному конвейеру и увеличению тактовой частоты первые процессоры Pentium III, как правило, немного обгоняли Pentium II.

Katmai производился по технологии 250 нм. Однако, после перехода на производственный процесс 180 нм, Intel смогла значительно увеличить производительность Pentium III. В обновленной версии под кодовым названием "Coppermine" кэш L2 был перемещен в ЦП, а его объем был снижена наполовину (до 256 Кбайт). Но поскольку он мог работать на частоте процессора, уровень производительности все равно повысился.

Coppermine участвовал в гонке с AMD Athlon за частотой 1 ГГц и преуспел. Позднее Intel попыталась выпустить модель процессора 1,13 ГГц, но в конечном счете она была отозвана после того, как доктор Томас Пабст из Tom"s Hardware обнаружил нестабильности в его работе . В итоге чип с частотой 1 ГГц остался самым быстрым процессором Pentium III на базе Coppermine.

Последняя версия ядра Pentium III называлась "Tualatin". При ее создании использовался техпроцесс 130 нм, который позволил добиться тактовой частоты 1,4 ГГц. Кэш L2 был увеличен до 512 Кбайт, что также позволило немного повысить производительность.

История процессоров Intel | P5 и P6: Celeron и Xeon

Вместе с Pentium II Intel также представила линейки процессоров Celeron и Xeon. Они использовали ядро Pentium II или Pentium III, но с разным объемом кэш-памяти. У первых моделей процессоров под брендом Celeron, основанных на базе Pentium II, вообще не было кэша L2, и производительность была ужасной. Более поздние модели на базе Pentium III имели половину от его объема кэша L2. Таким образом мы получили процессоры Celeron, которые использовали ядро Coppermine и имели только 128 Кбайт кэша L2, а более поздние модели, на базе Tualatin уже 256 Кбайт.

Версии с половиной кэша также называли Coppermine-128 и Tualatin-256. Частота этих процессоров была сопоставима с Pentium III и позволяла конкурировать с процессорами AMD Duron. Microsoft использовала процессор Celeron Coppermine-128 с частотой 733 МГц в игровой консоли Xbox.

Первые процессоры Xeon тоже были основаны на Pentium II, но имели больше кэша второго уровня. У моделей начального уровня его объем составлял 512 Кбайт, тогда как у старших собратьев могло быть до 2 Мбайт.

История процессоров Intel | Netburst: премьера

Прежде чем обсуждать архитектуру Intel Netburst и Pentium 4, важно понимать, в чем преимущества и недостатки ее длинного конвейера. Под понятием конвейера подразумевается перемещение инструкций через ядро. На каждом этапе конвейера выполняется множество задач, но иногда может выполняться только одна единственная функция. Конвейер можно увеличить путем добавлением новых аппаратных блоков или разделением одного этапа на несколько. А также можно уменьшить за счет удаления аппаратных блоков или объединения нескольких этапов обработки в один.

Длина или глубина конвейера имеет прямое влияние на задержку, IPC, тактовую частоту и пропускную способность. Более длинные конвейеры обычно требуют большей пропускной способности от других подсистем, и если конвейер постоянно получает необходимый объем данных, то каждый этап конвейера не будет простаивать вхолостую. Также процессоры с длинными конвейерами обычно могут работать при более высоких тактовых частотах.

Недостатком длинного конвейера является повышенная задержка исполнения, поскольку данные, проходящие через конвейер, вынуждены «останавливаться» на каждом этапе на определенное число тактов. Кроме того, процессоры, имеющие длинный конвейер, могут иметь более низкий показатель IPC, поэтому для повышения скорости работы они используют более высокие тактовые частоты. Со временем процессоры, использующие комбинированный подход, доказали свою эффективность без существенных недостатков.

История процессоров Intel | Netburst: Pentium 4 Willamette и Northwood

В 2000 году архитектура Intel Netburst, наконец, была готова и увидела свет в процессорах Pentium 4, доминировав в течение последующих шести лет. Первая версия ядра называлась "Willamette", под которой Netburst и Pentium 4 просуществовали два года. Однако это было трудное время для Intel, и новый процессор с трудом обгонял Pentium III. Микроархитектура Netburst позволяла использовать более высокие частоты, и процессоры на базе Willamette смогли достичь 2 ГГц, но в некоторых задачах Pentium III с частотой 1,4 ГГц оказывался быстрее. В этот период процессоры AMD Athlon имели большее преимущество в производительности.

Проблема Willamette состояла в том, что Intel расширила конвейер до 20 этапов и планировала побить планку частоты 2 ГГц, но из-за ограничений, накладываемых энергопотреблением и тепловыделением, она не смогла достигнуть поставленных целей. Ситуация улучшилась с появлением микроархитектуры Intel "Northwood" и использованием нового техпроцесса 130 нм, который позволил увеличить тактовую частоту до 3,2 ГГц и удвоить объем кэша L2 с 256 Кбайт до 512 Кбайт. Впрочем, проблемы с потребляемой мощностью и тепловыделением архитектуры Netburst никуда не делись. Однако производительность Northwood была значительно выше, и он мог конкурировать с новыми чипами AMD.

В процессорах класса high-end Intel внедрила технологию Hyper-Threading, увеличивающую эффективность использования ресурсов ядра в условиях многозадачности. Польза от Hyper-Threading в чипах Northwood была не так велика, как в современных процессорах Core i7 – прирост производительности составлял несколько процентов.

Ядра Willamette и Northwood также использовались в процессорах серии Celeron и Xeon. Как и в предыдущих поколениях ЦП Celeron и Xeon, Intel соответственно уменьшала и увеличивала размер кэша второго уровня, чтобы дифференцировать их по производительности.

История процессоров Intel | P6: Pentium-M

Микроархитектура Netburst разрабатывалась для высокопроизводительных процессоров Intel, поэтому она была довольно энергоемкой и не подходила для мобильных систем. Поэтому в 2003 году Intel создала свою первую архитектуру, разработанную исключительно для ноутбуков. Процессоры Pentium-M базировались на архитектуре P6, но с более длинными 12-14-уровневыми конвейерами. Кроме того в ней впервые был реализован конвейер переменной длины – если необходимая для команды информация уже была загружена в кэш, инструкции могли выполняться после прохождения 12 этапов. В противном случае им нужно было пройти еще два дополнительных этапа, чтобы загрузить данные.

Первый из таких процессоров выпускался по техпроцессу 130 нм и содержал 1 Мбайт кэш-памяти L2. Он достигал частоты 1,8 ГГц при потребляемой мощности всего 24,5 Вт. Более поздняя версия под именем "Dothan" с 90-нанометровыми транзисторами была выпущена в 2004 году. Переход на более тонкий производственный процесс позволял Intel увеличить кэш второго уровня L2 до 2 Мбайт, который в сочетании с некоторыми улучшениями ядра заметно увеличивал производительность из расчета на такт. Кроме того максимальная частота ЦП поднялась до 2,27 ГГц при небольшом повышении энергопотребления до 27 Вт.

Архитектура процессоров Pentium-M впоследствии использовалась в мобильных чипах Stealey A100, на замену которых пришли процессоры Intel Atom.

История процессоров Intel | Netburst: Prescott

Ядро Northwood с архитектурой Netburst продержалось на рынке с 2002 по 2004 год, после чего Intel представила ядро Prescott с многочисленными улучшениями. При производстве использовался техпроцесс 90 нм, позволивший Intel увеличить кэш L2 до 1 Мбайт. Также Intel представила новый процессорный интерфейс LGA 775, который обладал поддержкой памяти DDR2 и расширенной в четыре раза шиной FSB. Благодаря этим изменениям Prescott обладал большей пропускной способностью, чем Northwood, а это было необходимо для повышения производительности Netburst. Кроме того на базе Prescott Intel показала первый 64-битный процессор x86, имеющий доступ к ОЗУ большего объема.

Intel рассчитывала, что процессоры Prescott станут самыми успешными среди чипов на базе архитектуры Netburst, но вместо этого они потерпели фиаско. Intel снова расширила конвейер выполнения команд, на сей раз до 31 этапа. В компании надеялись, что увеличения тактовых частот будет достаточно, чтобы компенсировать наличие более длинного конвейера, но им удалось достичь только 3,8 ГГц. Процессоры Prescott были слишком горячими и потребляли слишком много энергии. В Intel рассчитывали, что переход на техпроцесс 90 нм устранит эту проблему, однако повышенная плотность транзисторов лишь усложнила охлаждение процессоров. Добиться более высокой частоты было невозможно, и изменения ядра Prescott негативно сказались на общей производительности.

Даже со всеми улучшениями и дополнительным кэшем Prescott, в лучшем случае, выходил на один уровень с Northwood по части произвольности на такт. В то же время процессоры AMD K8 также осуществили переход на более тонкий техпроцесс, что позволило повысить их частоты. AMD некоторое время доминировала на рынке ЦП для настольных компьютеров.

История процессоров Intel | Netburst: Pentium D

В 2005 году два основных производителя соревновались за первенство в анонсе двухъядерного процессора для потребительского рынка. AMD первой анонсировала двухъядерный Athlon 64, но он долго отсутствовал в продаже. Intel стремилась обойти AMD, используя многоядерный модуль (MCM), содержащий два ядра Prescott. Компания окрестила свой двухъядерный процессор Pentium D, а первая модель носила кодовое имя "Smithfield".

Однако Pentium D подвергся критике, поскольку имел те же проблемы, что и оригинальные чипы Prescott. Тепловыделение и энергопотребление двух ядер на базе Netburst ограничивали таковую частоту на уровне 3,2 ГГц (в лучшем случае). И поскольку эффективность архитектуры сильно зависела от загруженности конвейера и скорости поступления данных, показатель IPC у Smithfield заметно снизился, поскольку пропускная способность канала делилась между двумя ядрами. Кроме того физическая реализация двухъядерного процессора не отличалась изящностью (по сути это два кристалла под одной крышкой). И два ядра на одном кристалле в ЦП AMD считались более продвинутым решением.

После Smithfield появился Presler, который был переведен на 65 нм техпроцесс. Многоядерный модуль содержал два кристалла Ceder Mill. Это помогло уменьшить тепловыделение и потребляемую мощность процессора, а также поднять таковую частоту до 3,8 ГГц.

Существовало две основных версии Presler. Первая имела более высокий тепловой пакет 125 Вт, а более поздняя модель ограничивалась значением 95 Вт. Благодаря уменьшенному размеру кристалла Intel также смогла удвоить объема кэша L2, в итоге каждый кристалл имел по 2 Мбайт памяти. Некоторые модели для энтузиастов также поддерживали технологию Hyper-Threading, позволяющую ЦП выполнять задачи в четыре потока одновременно.

Все процессоры Pentium D поддерживали 64-битное ПО и ОЗУ объемом более 4 Гбайт.

Во второй части: процессоры Core 2 Duo, Core i3, i5, i7 вплоть до Skylake.



 


Читайте:



Ключ активации smart defrag 5

Ключ активации smart defrag 5

Smart Defrag 5.8.6 – является отличным бесплатным дефрагментатором, который наилучшим образом оптимизирует жесткий диск вашего компьютера....

Как набирать городские номера

Как набирать городские номера

Экономия времени при связи сотрудников компании с клиентами и между собой — важный фактор эффективности коммуникаций. Поэтому все популярнее...

Средство просмотра фотографий Windows не может открыть это изображение

Средство просмотра фотографий Windows не может открыть это изображение

В операционной системе Windows 10 для просмотра изображений используется приложение Фотографии, а не Просмотр фотографий Windows. После клика по...

Как уменьшить размер pdf, подробная инструкция

Как уменьшить размер pdf, подробная инструкция

PDF-файлы с обилием графических элементов смотрятся симпатично, однако передавать их по электронной почте – сплошное мучение из-за больших размеров...

feed-image RSS