Menu
Jest wolny
rejestracja
Dom  /  Nawigatorzy/ Procesor Intel Core i7 pierwszej generacji. Pięć generacji Core i7: od Sandy Bridge do Skylake

Procesor Intel Core i7 pierwszej generacji. Pięć generacji Core i7: od Sandy Bridge do Skylake

WPROWADZENIE Tego lata Intel zrobił dziwną rzecz: zdołał zastąpić dwie całe generacje procesorów skoncentrowane na komputerach osobistych głównego nurtu. Początkowo Haswell został zastąpiony procesorami z mikroarchitekturą Broadwell, ale potem w ciągu zaledwie kilku miesięcy straciły status nowości i ustąpiły miejsca procesorom Skylake, które pozostaną najbardziej postępowymi procesorami przez co najmniej kolejne półtora roku . Ten przeskok wraz ze zmianą pokoleń nastąpił głównie z powodu problemów Intela, które pojawiły się przy wprowadzaniu nowego 14-nm procesu technicznego, który jest wykorzystywany w produkcji zarówno Broadwella, jak i Skylake'a. Wydajni nosiciele mikroarchitektury Broadwell w drodze do systemów stacjonarnych byli znacznie opóźnieni, a ich zwolennicy pojawili się zgodnie z wcześniej zaplanowanym harmonogramem, co doprowadziło do zmiętego ogłoszenia o procesorach Core piątej generacji i poważnego skrócenia ich cyklu życia. W wyniku tych wszystkich perturbacji, w segmencie komputerów stacjonarnych, Broadwell zajęło bardzo wąską niszę ekonomicznych procesorów z potężnym rdzeniem graficznym i obecnie zadowala się jedynie niewielkim poziomem sprzedaży związanym z wysoce wyspecjalizowanymi produktami. Uwaga zaawansowanej części użytkowników zwróciła się na zwolenników Broadwella - procesorów Skylake.

Należy zauważyć, że w ciągu ostatnich kilku lat Intel wcale nie cieszył swoich fanów wzrostem wydajności oferowanych produktów. Każda nowa generacja procesorów dodaje tylko kilka procent do określonej szybkości, co ostatecznie prowadzi do braku wyraźnych zachęt dla użytkowników do uaktualniania starych systemów. Jednak wydanie Skylake – generacji procesorów, do której Intel przeskoczył o krok, dało nadzieję, że otrzymamy naprawdę wartościową aktualizację najpopularniejszej platformy obliczeniowej. Jednak nic takiego się nie wydarzyło: Intel występował w swoim zwykłym repertuarze. Broadwell został zaprezentowany publicznie jako rodzaj odgałęzienia głównej linii procesorów do komputerów stacjonarnych, a Skylake był tylko nieznacznie szybszy niż Haswell w większości aplikacji.

Dlatego wbrew wszelkim oczekiwaniom pojawienie się Skylake w sprzedaży wywołało wśród wielu sceptycyzm. Po przejrzeniu wyników rzeczywistych testów wielu kupujących po prostu nie widziało sensu przejścia na procesory Core szóstej generacji. Rzeczywiście, głównym atutem świeżych procesorów jest przede wszystkim nowa platforma z przyspieszonymi interfejsami wewnętrznymi, ale nie nowa mikroarchitektura procesora. A to oznacza, że ​​Skylake oferuje niewiele prawdziwych zachęt do aktualizowania systemów opartych na poprzednich generacjach.

Jednak nadal nie odwodzimy wszystkich użytkowników bez wyjątku od przejścia na Skylake. Faktem jest, że chociaż Intel zwiększa wydajność swoich procesorów w bardzo umiarkowanym tempie, od czasu pojawienia się Sandy Bridge, które wciąż działają w wielu systemach, zmieniły się już cztery generacje mikroarchitektury. Każdy krok na ścieżce postępu przyczynił się do wzrostu produktywności, a teraz Skylake jest w stanie zaoferować całkiem znaczny wzrost wydajności w stosunku do swoich wcześniejszych poprzedników. Aby to zobaczyć, trzeba to porównać nie z Haswellem, ale z wcześniejszymi przedstawicielami rodziny Core, którzy pojawili się przed nim.

Właściwie jest to dokładnie takie porównanie, jakie zamierzamy zrobić dzisiaj. Biorąc to wszystko pod uwagę, postanowiliśmy sprawdzić, jak bardzo wzrosła wydajność procesorów Core i7 od 2011 roku i zebraliśmy w jednym teście starsze Core i7 należące do generacji Sandy Bridge, Ivy Bridge, Haswell, Broadwell i Skylake. Po otrzymaniu wyników takich testów postaramy się zrozumieć, którzy właściciele procesorów powinni rozpocząć modernizację starych systemów, a które mogą poczekać na pojawienie się kolejnych generacji procesorów. Po drodze przyjrzymy się poziomowi wydajności nowych procesorów Core i7-5775C i Core i7-6700K generacji Broadwell i Skylake, które nie zostały jeszcze przetestowane w naszym laboratorium.

Charakterystyka porównawcza testowanych procesorów

Od Sandy Bridge do Skylake: szczegółowe porównanie wydajności

Aby przypomnieć sobie, jak zmieniała się konkretna wydajność procesorów Intela w ciągu ostatnich pięciu lat, postanowiliśmy rozpocząć od prostego testu, w którym porównaliśmy prędkość operacyjną Sandy Bridge, Ivy Bridge, Haswell, Broadwell i Skylake, sprowadzonych do ta sama częstotliwość 4 , 0 GHz. W tym porównaniu zastosowaliśmy procesory Core i7, czyli czterordzeniowe procesory z technologią Hyper-Threading.

Jako główne narzędzie testowe przyjęto złożony test SYSmark 2014 1.5, co jest dobre, ponieważ odtwarza typową aktywność użytkownika w typowych aplikacjach biurowych, podczas tworzenia i przetwarzania treści multimedialnych oraz podczas rozwiązywania problemów obliczeniowych. Uzyskane wyniki przedstawiają poniższe wykresy. Dla ułatwienia percepcji są one znormalizowane, a wydajność Sandy Bridge przyjmuje się jako 100 procent.



Zintegrowany wskaźnik SYSmark 2014 1.5 umożliwia dokonanie następujących obserwacji. Przejście z Sandy Bridge do Ivy Bridge tylko nieznacznie zwiększyło produktywność - o około 3-4 procent. Kolejny krok w kierunku Haswell okazał się znacznie bardziej produktywny, co zaowocowało 12-procentową poprawą wydajności. I to jest maksymalne wzmocnienie, które można zaobserwować na danym wykresie. W końcu dalszy Broadwell wyprzedza Haswell tylko o 7 procent, a przejście z Broadwell do Skylake zwiększa konkretną produktywność tylko o 1-2 procent. Cały postęp od Sandy Bridge do Skylake przekłada się na 26% wzrost wydajności przy stałych częstotliwościach zegara.

Bardziej szczegółową interpretację uzyskanych wskaźników SYSmark 2014 1.5 można zobaczyć na poniższych trzech wykresach, na których integralny wskaźnik wydajności jest rozłożony na składniki według typu aplikacji.









Zwróć uwagę, najbardziej zauważalnie wraz z wprowadzeniem nowych wersji mikroarchitektur, aplikacje multimedialne zwiększają szybkość wykonywania. Pod tym względem mikroarchitektura Skylake przewyższa Sandy Bridge aż o 33 procent. Natomiast przy obliczaniu zadań postęp jest najmniej widoczny. Co więcej, przy takim obciążeniu krok z Broadwell do Skylake zmienia się nawet w niewielki spadek określonej wydajności.

Teraz, gdy mamy już wyobrażenie o tym, co stało się z konkretną wydajnością procesorów Intela w ciągu ostatnich kilku lat, spróbujmy dowiedzieć się, co spowodowało obserwowane zmiany.

Od Sandy Bridge do Skylake: co się zmieniło w procesorach Intel

Nie bez powodu postanowiliśmy uczynić przedstawiciela generacji Sandy Bridge punktem odniesienia w porównywaniu różnych Core i7. To właśnie ten projekt położył solidny fundament pod wszelkie dalsze ulepszenia wydajnych procesorów Intela, aż do dzisiejszego Skylake. Tym samym przedstawiciele rodziny Sandy Bridge stali się pierwszymi wysoce zintegrowanymi procesorami, w których zarówno rdzenie obliczeniowe i graficzne, jak również mostek północny z pamięcią podręczną L3 i kontrolerem pamięci, zostały zebrane w jednym krysztale półprzewodnikowym. Ponadto po raz pierwszy zaczęto stosować wewnętrzną magistralę pierścieniową, dzięki której rozwiązano problem wysoce wydajnego współdziałania wszystkich jednostek strukturalnych składających się na tak złożony procesor. Wszystkie kolejne generacje procesorów nadal stosują te uniwersalne zasady konstrukcji, osadzone w mikroarchitekturze Sandy Bridge, bez żadnych poważnych zmian.

Wewnętrzna mikroarchitektura rdzeni obliczeniowych przeszła znaczące zmiany w Sandy Bridge. Nie tylko przyniósł obsługę nowych zestawów instrukcji AES-NI i AVX, ale także znalazł wiele istotnych ulepszeń w głębi potoku wykonawczego. To właśnie w Sandy Bridge dodano oddzielną pamięć podręczną poziomu zerowego dla dekodowanych instrukcji; pojawił się zupełnie nowy blok zmiany kolejności poleceń, oparty na wykorzystaniu fizycznego pliku rejestru; algorytmy przewidywania gałęzi zostały zauważalnie ulepszone; ponadto ujednolicono dwa z trzech portów wykonawczych do pracy z danymi. Takie heterogeniczne reformy, przeprowadzane od razu na wszystkich etapach rurociągu, pozwoliły znacząco zwiększyć wydajność Sandy Bridge, która w porównaniu z poprzednią generacją procesorów Nehalem natychmiast wzrosła o prawie 15 proc. Do tego dochodzi 15% wzrost nominalnych częstotliwości taktowania i doskonały potencjał podkręcania, co daje rodzinę procesorów, którą Intel wciąż cytuje jako przykładowe ucieleśnienie fazy „tak” w koncepcji projektu wahadła firmy.

Rzeczywiście, nie widzieliśmy takich ulepszeń w mikroarchitekturze po Sandy Bridge pod względem skali masowej i wydajności. Wszystkie kolejne generacje konstrukcji procesorów wprowadziły znacznie mniejsze ulepszenia w rdzeniach obliczeniowych. Być może jest to odzwierciedlenie braku realnej konkurencji na rynku procesorów, być może przyczyną spowolnienia jest chęć skupienia się Intela na ulepszaniu rdzeni graficznych, a może Sandy Bridge okazał się po prostu tak udanym projektem, że jego dalszy rozwój wymaga zbyt wiele pracy.

Przejście z Sandy Bridge do Ivy Bridge ilustruje niedawny spadek intensywności innowacji. Pomimo tego, że następna generacja procesorów po Sandy Bridge została przeniesiona do nowej technologii produkcji z normami 22 nm, jej częstotliwości taktowania w ogóle nie wzrosły. Ulepszenia dokonane w projekcie dotyczyły głównie bardziej elastycznego kontrolera pamięci oraz kontrolera magistrali PCI Express, który uzyskał zgodność z trzecią wersją tego standardu. Jeśli chodzi o samą mikroarchitekturę rdzeni obliczeniowych, pewne kosmetyczne zmiany umożliwiły przyspieszenie wykonywania operacji podziału i nieznaczne zwiększenie wydajności technologii Hyper-Threading i to wszystko. W rezultacie wzrost wydajności właściwej wyniósł nie więcej niż 5 proc.

Jednocześnie wprowadzenie Ivy Bridge przyniosło coś, czego milionowa armia podkręcania teraz gorzko żałuje. Począwszy od procesorów tej generacji, Intel odmówił łączenia półprzewodnikowego chipa procesora i pokrywającej go pokrywy za pomocą lutowania beztopnikowego i przeszedł na wypełnianie przestrzeni między nimi polimerowym materiałem termoprzewodzącym o bardzo wątpliwych właściwościach przewodzenia ciepła . To sztucznie pogorszyło potencjał częstotliwości i sprawiło, że procesory Ivy Bridge, podobnie jak wszyscy ich następcy, były zauważalnie mniej przetaktowane w porównaniu z bardzo energicznym pod tym względem Sandy Bridge.

Jednak Ivy Bridge to tylko „kleszcz”, dlatego nikt nie obiecywał specjalnych przełomów w tych procesorach. Jednak następna generacja, Haswell, która w przeciwieństwie do Ivy Bridge jest już w fazie „tak”, również nie przyniosła zachęcających wzrostów wydajności. I to jest właściwie trochę dziwne, ponieważ w mikroarchitekturze Haswell wprowadzono wiele różnych ulepszeń, które są rozproszone po różnych częściach potoku wykonawczego, co w sumie może znacznie zwiększyć ogólne tempo wykonywania poleceń.

Na przykład w wejściowej części potoku poprawiono wydajność przewidywania rozgałęzień, a kolejka dekodowanych instrukcji została dynamicznie podzielona między równoległe wątki współistniejące w ramach technologii Hyper-Threading. Po drodze zwiększyło się okno wykonywania poleceń poza kolejnością, co w sumie powinno podnieść udział kodu wykonywanego równolegle przez procesor. Bezpośrednio w jednostce wykonawczej dodano dwa dodatkowe porty funkcjonalne, służące do przetwarzania rozkazów całkowitych, obsługi gałęzi i zapisywania danych. Dzięki temu Haswell jest w stanie przetwarzać do ośmiu mikrooperacji na takt – o jedną trzecią więcej niż jego poprzednicy. Co więcej, nowa mikroarchitektura podwoiła przepustowość pamięci podręcznej pierwszego i drugiego poziomu.

Tym samym usprawnienia w mikroarchitekturze Haswella wpłynęły nie tylko na szybkość dekodera, który wydaje się być w tej chwili wąskim gardłem nowoczesnych procesorów Core. Rzeczywiście, pomimo imponującej listy ulepszeń, wzrost wydajności Haswell w porównaniu z Ivy Bridge wyniósł tylko około 5-10 procent. Ale uczciwie należy zauważyć, że przyspieszenie operacji wektorowych jest znacznie silniejsze. A największy zysk widać w aplikacjach korzystających z nowych poleceń AVX2 i FMA, których wsparcie pojawiło się również w tej mikroarchitekturze.

Procesory Haswell, podobnie jak Ivy Bridge, nie były początkowo szczególnie popularne wśród entuzjastów. Zwłaszcza biorąc pod uwagę fakt, że w oryginalnej wersji nie oferowały żadnego wzrostu częstotliwości taktowania. Jednak rok po debiucie Haswell zaczął wydawać się zauważalnie atrakcyjniejszy. Po pierwsze, wzrosła liczba aplikacji, które odwołują się do najsilniejszych punktów tej architektury i wykorzystują instrukcje wektorowe. Po drugie, Intel był w stanie naprawić sytuację dotyczącą częstotliwości. Późniejsze modyfikacje Haswell, które otrzymały własny kryptonim Devil's Canyon, były w stanie zwiększyć przewagę nad poprzednikami dzięki zwiększeniu częstotliwości taktowania, które ostatecznie przebiło pułap 4 GHz. Poza tym, idąc za przykładem overclockerów, Intel ulepszył polimerowy interfejs termiczny pod pokrywą procesora, co sprawiło, że Devil's Canyon bardziej nadaje się do overclockingu. Z pewnością nie tak plastyczny jak Sandy Bridge, niemniej jednak.

I z tym bagażem Intel zwrócił się do Broadwell. Ponieważ główną, kluczową cechą tych procesorów miała być nowa technologia produkcji z normami 14 nm, nie planowano żadnych znaczących innowacji w ich mikroarchitekturze – musiał to być niemal najczęstszy „tick”. Wszystko, co niezbędne do sukcesu nowych produktów, mógłby zapewnić tylko jeden cienki proces techniczny z tranzystorami drugiej generacji FinFET, który teoretycznie pozwala na zmniejszenie zużycia energii i podniesienie częstotliwości. Jednak praktyczne wdrożenie nowej technologii przerodziło się w szereg niepowodzeń, w wyniku których Broadwell uzyskał tylko oszczędności, ale nie wysokie częstotliwości. W rezultacie te procesory tej generacji, które Intel wprowadził do komputerów stacjonarnych, bardziej przypominały procesory mobilne niż następcy diabelskiego kanionu. Co więcej, oprócz zredukowanych pakietów termicznych i obniżonych częstotliwości, różnią się one od swoich poprzedników i mają mniejszą pamięć podręczną L3, co jest jednak nieco kompensowane pojawieniem się pamięci podręcznej czwartego poziomu umieszczonej na osobnym krysztale.

Przy tej samej częstotliwości co Haswell, procesory Broadwell wykazują około 7% przewagę, zapewnianą zarówno przez dodanie dodatkowego poziomu buforowania danych, jak i przez kolejne ulepszenie algorytmu przewidywania rozgałęzień wraz ze zwiększeniem głównych buforów wewnętrznych. Ponadto Broadwell wprowadza nowe i szybsze schematy wykonywania instrukcji mnożenia i dzielenia. Jednak wszystkie te drobne ulepszenia zostały zniweczone przez fiasko z zegarami sięgającymi czasów sprzed Sandy Bridge. Tak więc, na przykład, starszy Core i7-5775C generacji Broadwell ma gorszą częstotliwość od Core i7-4790K aż o 700 MHz. Oczywiste jest, że nie ma sensu oczekiwać na tym tle jakiegokolwiek wzrostu produktywności, gdyby tylko obywało się to bez poważnego spadku.

Głównie z tego powodu Broadwell okazał się nieatrakcyjny dla większości użytkowników. Tak, procesory z tej rodziny są bardzo ekonomiczne i mieszczą się nawet w pakiecie termicznym z 65-watową ramą, ale kogo to obchodzi? Potencjał podkręcania pierwszej generacji procesora 14 nm okazał się raczej ograniczony. Nie mówimy o żadnej pracy na częstotliwościach zbliżających się do paska 5 GHz. Maksimum, jakie można osiągnąć z Broadwella przy zastosowaniu chłodzenia powietrzem, leży w okolicach 4,2 GHz. Innymi słowy, Core piątej generacji wyszedł od Intela, co najmniej dziwnie. Czego, nawiasem mówiąc, gigant mikroprocesorowy ostatecznie żałował: przedstawiciele Intela zauważają, że późne wydanie Broadwella na komputery stacjonarne, jego skrócony cykl życia i nietypowe cechy negatywnie wpłynęły na poziom sprzedaży, a firma nie planuje już rozpoczynać takich eksperymentów .

Najnowszy Skylake na tym tle to nie tyle dalszy rozwój mikroarchitektury Intela, ile swego rodzaju praca nad błędami. Pomimo tego, że produkcja tej generacji procesorów wykorzystuje tę samą technologię procesu 14 nm, co w przypadku Broadwell, Skylake nie ma problemów z pracą na wysokich częstotliwościach. Nominalne częstotliwości procesorów Core szóstej generacji powróciły do ​​wskaźników, które były charakterystyczne dla ich poprzedników 22 nm, a potencjał podkręcania nawet nieznacznie wzrósł. Overclockerzy wzięli pod uwagę fakt, że w Skylake konwerter mocy procesora ponownie przeniósł się na płytę główną, zmniejszając w ten sposób całkowite rozpraszanie ciepła przez procesor podczas przetaktowywania. Szkoda, że ​​Intel nie powrócił do stosowania wydajnego interfejsu termicznego między kostką a pokrywą procesora.

Ale jeśli chodzi o podstawową mikroarchitekturę rdzeni obliczeniowych, pomimo tego, że Skylake, podobnie jak Haswell, jest ucieleśnieniem fazy „tak”, jest w niej bardzo mało innowacji. Ponadto większość z nich ma na celu poszerzenie wejściowej części przenośnika wykonawczego, podczas gdy reszta przenośnika pozostała bez istotnych zmian. Zmiany dotyczą poprawy wydajności przewidywania gałęzi i zwiększenia wydajności prefetchera i nic więcej. Jednocześnie niektóre optymalizacje służą nie tyle poprawie wydajności, co ponownej poprawie efektywności energetycznej. Dlatego nie należy się dziwić, że Skylake niewiele różni się od Broadwella w swoim specyficznym wykonaniu.

Są jednak wyjątki: w niektórych przypadkach Skylake może przewyższyć swoich poprzedników pod względem wydajności i bardziej zauważalnie. Faktem jest, że w tej mikroarchitekturze poprawiono podsystem pamięci. Wbudowana magistrala pierścieniowa stała się szybsza, co ostatecznie zwiększyło przepustowość pamięci podręcznej L3. Ponadto kontroler pamięci otrzymał obsługę pamięci SDRAM DDR4 o wysokiej częstotliwości.

Ale ostatecznie okazuje się, że bez względu na to, co Intel mówi o progresywności Skylake, z punktu widzenia zwykłych użytkowników jest to dość słaba aktualizacja. Główne ulepszenia w Skylake dotyczą rdzenia graficznego i efektywności energetycznej, co otwiera drogę takim procesorom do bezwentylatorowych systemów typu tablet. Przedstawiciele desktopów tej generacji nie różnią się zbytnio od Haswella. Nawet jeśli przymkniemy oczy na istnienie Broadwella pośredniego pokolenia i porównamy Skylake bezpośrednio z Haswellem, to obserwowany wzrost produktywności właściwej wyniesie około 7-8 proc., co trudno nazwać imponującym przejawem postępu technologicznego.

Po drodze warto zauważyć, że doskonalenie technologicznych procesów produkcyjnych nie spełnia oczekiwań. Od Sandy Bridge do Skylake, Intel zmienił dwie technologie półprzewodnikowe i zmniejszył o ponad połowę grubość bramek tranzystorów. Jednak nowoczesny proces techniczny 14 nm, w porównaniu do technologii 32 nm sprzed pięciu lat, nie pozwolił na zwiększenie częstotliwości pracy procesorów. Wszystkie procesory Core ostatnich pięciu generacji mają bardzo podobne częstotliwości taktowania, które, jeśli przekraczają znak 4 GHz, są dość nieznaczne.

Aby wyraźnie zilustrować ten fakt, można spojrzeć na poniższy wykres, który pokazuje częstotliwość taktowania starszych podkręcanych procesorów Core i7 różnych generacji.



Co więcej, taktowanie nie osiąga nawet szczytu w Skylake. Procesory Haswell należące do podgrupy Devil's Canyon mogą pochwalić się maksymalną częstotliwością. Ich nominalna częstotliwość to 4,0 GHz, ale dzięki trybowi turbo w rzeczywistych warunkach są w stanie rozpędzić się do 4,4 GHz. W przypadku nowoczesnych Skylakes maksymalna częstotliwość wynosi tylko 4,2 GHz.

Wszystko to oczywiście wpływa na ostateczną wydajność prawdziwych przedstawicieli różnych rodzin procesorów. A potem proponujemy zobaczyć, jak to wszystko wpływa na wydajność platform zbudowanych na flagowych procesorach każdej z rodzin Sandy Bridge, Ivy Bridge, Haswell, Broadwell i Skylake.

Jak testowaliśmy

W porównaniu wzięło udział pięć różnych generacji procesorów Core i7: Core i7-2700K, Core i7-3770K, Core i7-4790K, Core i7-5775C oraz Core i7-6700K. Dlatego lista komponentów biorących udział w testach okazała się dość obszerna:

Procesory:

Intel Core i7-2600K (Sandy Bridge, 4 rdzenie + HT, 3,4-3,8 GHz, 8 MB L3);
Intel Core i7-3770K (Ivy Bridge, 4 rdzenie + HT, 3,5-3,9 GHz, 8 MB L3);
Intel Core i7-4790K (Haswell Refresh, 4 rdzenie + HT, 4,0-4,4 GHz, 8 MB L3);
Intel Core i7-5775C (Broadwell, 4 rdzenie, 3,3-3,7 GHz, 6 MB L3, 128 MB L4).
Intel Core i7-6700K (Skylake, 4 rdzenie, 4,0-4,2 GHz, 8 MB L3).

Chłodnica procesora: Noctua NH-U14S.
Płyty główne:

ASUS Z170 Pro Gaming (LGA 1151, Intel Z170);
ASUS Z97-Pro (LGA 1150, Intel Z97);
ASUS P8Z77-V Deluxe (LGA1155, Intel Z77).

Pamięć:

2x8 GB DDR3-2133 SDRAM, 9-11-11-31 (G.Skill F3-2133C9D-16GTX);
2x8 GB DDR4-2666 SDRAM, 15-15-15-35 (Corsair Vengeance LPX CMK16GX4M2A2666C16R).

Karta graficzna: NVIDIA GeForce GTX 980 Ti (6 GB/384-bit GDDR5, 1000-1076/7010 MHz).
Podsystem dyskowy: Kingston HyperX Savage 480 GB (SHSS37A / 480G).
Zasilacz: Corsair RM850i ​​(80 Plus Gold, 850W).

Testy przeprowadzono w systemie Microsoft Windows 10 Enterprise Build 10240 przy użyciu następującego zestawu sterowników:

Sterownik chipsetu Intel 10.1.1.8;
Sterownik interfejsu Intel Management Engine 11.0.0.1157;
Sterownik NVIDIA GeForce 358.50.

Wydajność

Całkowita wydajność

Aby ocenić wydajność procesorów w typowych zadaniach, tradycyjnie używamy zestawu testowego Bapco SYSmark, który symuluje pracę użytkownika w rzeczywistych, popularnych nowoczesnych programach biurowych i aplikacjach do tworzenia i przetwarzania treści cyfrowych. Idea testu jest bardzo prosta: generuje pojedynczą metrykę, która charakteryzuje średnią ważoną prędkość komputera podczas codziennego użytkowania. Po wydaniu systemu operacyjnego Windows 10 ten test porównawczy został ponownie zaktualizowany i teraz używamy najnowszej wersji - SYSmark 2014 1.5.



Porównując Core i7 różnych generacji, gdy pracują w swoich trybach nominalnych, wyniki wcale nie są takie same, jak przy porównywaniu przy pojedynczej częstotliwości taktowania. Jednak rzeczywista częstotliwość i funkcje trybu turbo mają znaczący wpływ na wydajność. Przykładowo, według uzyskanych danych, Core i7-6700K jest szybszy od Core i7-5775C aż o 11 proc., ale jego przewaga nad Core i7-4790K jest dość nieznaczna - to tylko około 3 proc. Jednocześnie nie można pominąć faktu, że najnowszy Skylake okazuje się znacznie szybszy od procesorów generacji Sandy Bridge i Ivy Bridge. Jego przewaga nad Core i7-2700K i Core i7-3770K sięga odpowiednio 33 i 28 proc.

Głębsze zrozumienie wyników SYSmark 2014 1.5 może zapewnić wgląd w wyniki wydajności uzyskane w różnych przypadkach użycia systemu. Skrypt Office Productivity symuluje typową pracę biurową: przygotowywanie tekstu, przetwarzanie arkuszy kalkulacyjnych, pracę z pocztą e-mail i surfowanie po Internecie. Skrypt wykorzystuje następujący zestaw aplikacji: Adobe Acrobat XI Pro, Google Chrome 32, Microsoft Excel 2013, Microsoft OneNote 2013, Microsoft Outlook 2013, Microsoft PowerPoint 2013, Microsoft Word 2013, WinZip Pro 17.5 Pro.



Scenariusz Media Creation symuluje tworzenie reklamy przy użyciu gotowych cyfrowych obrazów i wideo. Służą do tego popularne pakiety Adobe Photoshop CS6 Extended, Adobe Premiere Pro CS6 i Trimble SketchUp Pro 2013.



Scenariusz Dane/Analiza Finansowa poświęcony jest analizie statystycznej i prognozowaniu inwestycji w oparciu o określony model finansowy. Scenariusz wykorzystuje duże ilości danych liczbowych oraz dwie aplikacje Microsoft Excel 2013 i WinZip Pro 17.5 Pro.



Wyniki uzyskane przez nas w różnych scenariuszach obciążenia są jakościowo podobne do ogólnych wskaźników SYSmark 2014 1.5. Na uwagę zasługuje fakt, że procesor Core i7-4790K wcale nie wygląda na przestarzały. Jest zauważalnie gorszy od najnowszego Core i7-6700K tylko w scenariuszu kalkulacyjnym Dane/Analiza finansowa, a w innych przypadkach jest albo gorszy od swojego następcy o zupełnie niepozorną kwotę, albo generalnie okazuje się szybszy. Na przykład członek rodziny Haswell wyprzedza nowy Skylake w aplikacjach biurowych. Ale starsze procesory, takie jak Core i7-2700K i Core i7-3770K, wydają się nieco przestarzałe. Przegrywają z nowym produktem w różnego rodzaju zadaniach od 25 do 40 procent i to być może jest wystarczającym powodem, by Core i7-6700K uznać za godnego ich zamiennika.

Wydajność w grach

Jak wiadomo, wydajność platform wyposażonych w wysokowydajne procesory w zdecydowanej większości współczesnych gier jest zdeterminowana mocą podsystemu graficznego. Dlatego podczas testowania procesorów wybieramy gry najbardziej zależne od procesora i dwukrotnie mierzymy liczbę klatek. W pierwszym przejściu testy przeprowadzane są bez włączania antyaliasingu iz ustawieniami dalekimi od najwyższych rozdzielczości. Ustawienia te pozwalają ocenić, jak w zasadzie procesory radzą sobie z obciążeniem w grach, co oznacza, że ​​pozwalają zgadywać, jak będą się zachowywać testowane platformy obliczeniowe w przyszłości, gdy na rynku pojawią się szybsze opcje akceleratorów graficznych. Drugie przejście odbywa się z realistycznymi ustawieniami - przy wyborze rozdzielczości FullHD i maksymalnym poziomie pełnoekranowego antyaliasingu. Naszym zdaniem takie wyniki są nie mniej interesujące, ponieważ odpowiadają na często zadawane pytanie o to, jaki poziom wydajności procesorów w grach mogą zapewnić teraz - w nowoczesnych warunkach.

Jednak w tych testach zestawiliśmy potężny podsystem graficzny oparty na flagowej karcie graficznej NVIDIA GeForce GTX 980 Ti. W rezultacie w niektórych grach liczba klatek na sekundę wykazywała zależność od wydajności procesora, nawet w rozdzielczości FullHD.

Wyniki FullHD z maksymalnymi ustawieniami jakości


















Zazwyczaj wpływ procesorów na wydajność w grach, zwłaszcza w przypadku potężnych przedstawicieli serii Core i7, jest znikomy. Jednak porównując pięć Core i7 różnych generacji, wyniki wcale nie są jednolite. Nawet przy maksymalnych ustawieniach jakości grafiki, Core i7-6700K i Core i7-5775C wykazują najwyższą wydajność w grach, podczas gdy starsze Core i7 pozostają w tyle. Tak więc liczba klatek na sekundę uzyskana w systemie z Core i7-6700K przekracza wydajność systemu opartego na Core i7-4770K o nieznaczny jeden procent, ale procesory Core i7-2700K i Core i7-3770K wydają się być zauważalnie gorsza podstawa systemu do gier. Przejście z Core i7-2700K lub Core i7-3770K do najnowszego Core i7-6700K daje wzrost fps o 5-7 procent, co może mieć bardzo zauważalny wpływ na jakość procesu grania.

Widać to znacznie wyraźniej, jeśli spojrzysz na wydajność procesorów w grach o obniżonej jakości obrazu, gdy liczba klatek na sekundę nie jest ograniczona mocą podsystemu graficznego.

Wyniki w obniżonej rozdzielczości


















Najnowszy procesor Core i7-6700K po raz kolejny pokazuje najwyższą wydajność spośród wszystkich najnowszych generacji Core i7. Jego przewaga nad Core i7-5775C wynosi około 5 procent, a nad Core i7-4690K - około 10 procent. Nie ma w tym nic dziwnego: gry są dość wrażliwe na szybkość podsystemu pamięci i właśnie w tym kierunku dokonano poważnych usprawnień w Skylake. Ale przewaga Core i7-6700K nad Core i7-2700K i Core i7-3770K jest znacznie bardziej zauważalna. Senior Sandy Bridge pozostaje w tyle za nowym produktem o 30-35 proc., a Ivy Bridge traci z nim w okolicach 20-30 proc. Innymi słowy, bez względu na to, jak bardzo Intel był krytykowany za zbyt powolne ulepszanie własnych procesorów, firmie udało się zwiększyć szybkość swoich procesorów o jedną trzecią w ciągu ostatnich pięciu lat, a to bardzo namacalny wynik.

Testy w prawdziwych grach uzupełniają wyniki popularnego syntetycznego benchmarku Futuremark 3DMark.









Odzwierciedlają wydajność gier i wyniki, które podaje Futuremark 3DMark. Wraz z przeniesieniem mikroarchitektury procesorów Core i7 z Sandy Bridge do Ivy Bridge, wyniki 3DMark wzrosły o 2 do 7 procent. Wprowadzenie projektu Haswella i wydanie procesorów Devil's Canyon dodało dodatkowe 7-14 procent do wydajności starszych Core i7. Jednak wtedy pojawienie się Core i7-5775C, który ma stosunkowo niską częstotliwość taktowania, nieco obniżyło wydajność. A najnowszy Core i7-6700K w rzeczywistości musiał wziąć pod uwagę dwie generacje mikroarchitektury. Wzrost ostatecznej oceny 3DMark dla nowego procesora z rodziny Skylake w porównaniu z Core i7-4790K wyniósł nawet 7 procent. I w rzeczywistości to nie tyle: w końcu najbardziej zauważalną poprawę wydajności w ciągu ostatnich pięciu lat przyniosły procesory Haswell. Najnowsze generacje procesorów do komputerów stacjonarnych są rzeczywiście nieco rozczarowujące.

Testy w aplikacji

W Autodesk 3ds max 2016 testujemy ostateczną prędkość renderowania. Mierzy czas potrzebny na renderowanie w rozdzielczości 1920x1080 przy użyciu renderera mental ray dla jednej klatki standardowej sceny Hummera.



Kolejny test ostatecznego renderowania przeprowadzamy za pomocą popularnego darmowego pakietu grafiki 3D Blender 2.75a. W nim mierzymy czas budowy finalnego modelu z Blender Cycles Benchmark rev4.



Wykorzystaliśmy benchmark Cinebench R15 do pomiaru szybkości fotorealistycznego renderowania 3D. Maxon niedawno zaktualizował swój benchmark, a teraz ponownie pozwala ocenić wydajność różnych platform podczas renderowania w najnowszych wersjach pakietu animacji Cinema 4D.



Mierzymy wydajność serwisów i aplikacji webowych zbudowanych w nowoczesnych technologiach za pomocą nowej przeglądarki Microsoft Edge 20.10240.16384.0. W tym celu wykorzystywany jest specjalistyczny test WebXPRT 2015, który implementuje algorytmy faktycznie wykorzystywane w aplikacjach internetowych w HTML5 i JavaScript.



Testowanie wydajności pod kątem obróbki grafiki odbywa się w programie Adobe Photoshop CC 2015. Średni czas wykonania skryptu testowego, który jest twórczo przerobionym Retouch Artists Photoshop Speed ​​Test, który obejmuje typowe przetwarzanie czterech 24-megapikselowych zdjęć uchwyconych aparatem cyfrowym , jest mierzony.



Na liczne prośby fotografów-amatorów przeprowadziliśmy testy wydajności w programie graficznym Adobe Photoshop Lightroom 6.1. Scenariusz testowy obejmuje obróbkę i eksport do formatu JPEG z rozdzielczością 1920x1080 i maksymalną jakością dwustu 12-megapikselowych zdjęć RAW wykonanych aparatem cyfrowym Nikon D300.



Wydajność nieliniowej edycji wideo została przetestowana w programie Adobe Premiere Pro CC 2015. Mierzy czas renderowania do H.264 projektu Blu-Ray zawierającego materiał HDV 1080p25 z różnymi nakładkami efektów.



Aby zmierzyć szybkość procesorów podczas kompresji informacji, używamy archiwizatora WinRAR 5.3, za pomocą którego archiwizujemy folder z różnymi plikami o łącznej objętości 1,7 GB z maksymalnym współczynnikiem kompresji.



Do oceny szybkości transkodowania wideo do formatu H.264 wykorzystuje się test x264 FHD Benchmark 1.0.1 (64bit), polegający na pomiarze czasu kodowania przez koder x264 źródła wideo do formatu MPEG-4/AVC z Rezolucja [e-mail chroniony] i ustawienia domyślne. Należy zauważyć, że wyniki tego testu mają ogromne znaczenie praktyczne, ponieważ koder x264 jest sercem wielu popularnych narzędzi do transkodowania, na przykład HandBrake, MeGUI, VirtualDub itp. Okresowo aktualizujemy koder używany do pomiarów wydajności, a w tych testach wzięła udział wersja r2538, która implementuje obsługę wszystkich nowoczesnych zestawów instrukcji, w tym AVX2.



Dodatkowo do listy testowych aplikacji dodaliśmy nowy koder x265 przeznaczony do transkodowania wideo do obiecującego formatu H.265/HEVC, który jest logiczną kontynuacją H.264 i charakteryzuje się wydajniejszymi algorytmami kompresji. Aby ocenić wydajność, oryginał [e-mail chroniony] Plik wideo Y4M transkodowany do H.265 o średnim profilu. W testach wzięło udział wydanie kodera w wersji 1.7.



Przewaga Core i7-6700K nad jego wcześniejszymi poprzednikami w różnych zastosowaniach jest niekwestionowana. Jednak dwa rodzaje zadań skorzystały najbardziej na ewolucji, która miała miejsce. Po pierwsze, związane z przetwarzaniem treści multimedialnych, czy to wideo, czy obrazów. Po drugie, ostateczny rendering w pakietach do modelowania i projektowania 3D. Ogólnie rzecz biorąc, w takich przypadkach Core i7-6700K przewyższa Core i7-2700K o nie mniej niż 40-50 procent. Czasami można zauważyć znacznie bardziej radykalną poprawę szybkości. Tak więc podczas transkodowania wideo za pomocą kodeka x265 najnowszy Core i7-6700K zapewnia dokładnie dwa razy wyższą wydajność niż stary Core i7-2700K.

Jeśli mówimy o zwiększeniu szybkości wykonywania zadań wymagających dużej ilości zasobów, które może zapewnić Core i7-6700K w porównaniu z Core i7-4790K, to są już tak imponujące ilustracje wyników pracy inżynierów Intela. Maksymalną przewagę nowości obserwujemy w Lightroomie, tutaj Skylake jest półtora raza lepszy. Ale to raczej wyjątek od reguły. W większości zadań multimedialnych Core i7-6700K oferuje tylko 10% poprawę wydajności w stosunku do Core i7-4790K. A przy obciążeniu o innym charakterze różnica w wydajności jest jeszcze mniejsza lub nawet nie występuje.

Osobno trzeba powiedzieć kilka słów o wyniku, jaki pokazał Core i7-5775C. Ze względu na niskie taktowanie procesor ten jest wolniejszy od Core i7-4790K i Core i7-6700K. Ale nie zapominaj, że jego kluczową cechą jest ekonomia. I może stać się jedną z najlepszych opcji pod względem określonej wydajności na wat zużytej energii elektrycznej. Z łatwością zweryfikujemy to w następnej sekcji.

Zużycie energii

Procesory Skylake są produkowane w nowoczesnej technologii 14 nm z tranzystorami 3D drugiej generacji, jednak mimo to ich pakiet termiczny wzrósł do 91 watów. Innymi słowy, nowe procesory są nie tylko „gorętsze” niż 65-watowe Broadwelle, ale także przewyższają Haswella pod względem obliczonego rozpraszania ciepła, wyprodukowane przy użyciu technologii 22-nm i radzące sobie w ramach 88-watowego pakietu termicznego. Powodem jest oczywiście to, że początkowo architektura Skylake była zoptymalizowana nie pod kątem wysokich częstotliwości, ale pod kątem energooszczędności i możliwości wykorzystania jej w urządzeniach mobilnych. Dlatego, aby desktopowy Skylake uzyskał akceptowalne częstotliwości taktowania, leżące w okolicach znaku 4 GHz, należało podnieść napięcie zasilania, co nieuchronnie wpłynęło na pobór mocy i rozpraszanie ciepła.

Jednak procesory Broadwell nie różniły się również niskimi napięciami roboczymi, więc istnieje nadzieja, że ​​91-watowy pakiet termiczny Skylake został odebrany z jakiegoś formalnego powodu i w rzeczywistości nie będą bardziej żarłoczne niż ich poprzednicy. Sprawdź to!

Nowy zasilacz cyfrowy Corsair RM850i, który zastosowaliśmy w systemie testowym, pozwala nam na monitorowanie pobieranej i wyprowadzanej mocy elektrycznej, którą wykorzystujemy do pomiarów. Poniższy wykres przedstawia całkowite zużycie energii przez system (bez monitora) mierzone „za” zasilaniem, które jest sumą zużycia energii przez wszystkie elementy systemu. Wydajność samego zasilacza nie jest w tym przypadku brana pod uwagę. Uruchomiliśmy tryb turbo i wszystkie dostępne technologie energooszczędne, aby prawidłowo oszacować zużycie energii.



W stanie spoczynku, wraz z wydaniem Broadwell, nastąpił milowy krok w ekonomii platform desktopowych. Core i7-5775C oraz Core i7-6700K mają zauważalnie mniejsze zużycie w trybie bezczynności.



Ale pod obciążeniem w postaci transkodowania wideo najbardziej ekonomicznymi opcjami procesora są Core i7-5775C i Core i7-3770K. Najnowszy Core i7-6700K zużywa więcej. Jego energiczne apetyty są na równi z seniorem Sandy Bridge. To prawda, że ​​nowy produkt, w przeciwieństwie do Sandy Bridge, obsługuje instrukcje AVX2, które wymagają dość poważnych kosztów energii.

Poniższy diagram pokazuje maksymalne obciążenie pod obciążeniem stworzone przez 64-bitową wersję LinX 0.6.5 z obsługą zestawu instrukcji AVX2, który jest oparty na pakiecie Linpack, który ma wygórowany apetyt na energię.



Po raz kolejny procesor generacji Broadwell pokazuje cuda w zakresie efektywności energetycznej. Jeśli jednak spojrzysz na to, ile energii zużywa Core i7-6700K, staje się jasne, że postęp w mikroarchitekturach ominął energooszczędność procesorów stacjonarnych. Tak, Skylake wprowadził nowe produkty o niezwykle kuszącym stosunku wydajności do mocy w segmencie urządzeń mobilnych, ale najnowsze procesory do komputerów stacjonarnych nadal zużywają mniej więcej tyle samo, co ich poprzednicy pięć lat wcześniej.

wnioski

Po przetestowaniu najnowszego Core i7-6700K i porównaniu go z kilkoma generacjami poprzednich procesorów, ponownie dochodzimy do rozczarowującego wniosku, że Intel nadal trzyma się swoich niewypowiedzianych zasad i nie jest zbyt chętny do zwiększania szybkości procesorów desktopowych nastawionych na wysoką wydajność systemy. A jeśli w porównaniu ze starszym Broadwellem nowość oferuje około 15% poprawę wydajności dzięki wyraźnie lepszym częstotliwościom taktowania, to w porównaniu ze starszym, ale szybszym Haswellem nie wydaje się już tak progresywna. Różnica w wydajności między Core i7-6700K a Core i7-4790K, mimo że te procesory dzielą dwie generacje mikroarchitektury, nie przekracza 5-10 proc. A to bardzo mało, aby starszy komputer stacjonarny Skylake był jednoznacznie zalecany do aktualizacji istniejących systemów LGA 1150.

Jednak dużo czasu zajęłoby przyzwyczajenie się do tak nieistotnych kroków Intela w zwiększaniu szybkości procesorów dla systemów stacjonarnych. Wzrost wydajności nowych rozwiązań, który w przybliżeniu mieści się w takich granicach, to długa tradycja. Procesory Intela zorientowane na komputery stacjonarne od bardzo dawna nie rewolucjonizują wydajności obliczeniowej. A przyczyny tego są całkiem zrozumiałe: inżynierowie firmy zajęci są optymalizacją opracowanych mikroarchitektur dla aplikacji mobilnych, a przede wszystkim myślą o efektywności energetycznej. Sukces Intela w dostosowywaniu własnych architektur do zastosowania w cienkich i lekkich urządzeniach jest niezaprzeczalny, ale zwolennicy klasycznych komputerów stacjonarnych mogą zadowolić się jedynie niewielkim wzrostem wydajności, który na szczęście jeszcze całkowicie nie zniknął.

Nie oznacza to jednak wcale, że Core i7-6700K można polecić tylko dla nowych układów. Posiadacze konfiguracji opartych na platformie LGA 1155 z procesorami generacji Sandy Bridge i Ivy Bridge mogą dobrze pomyśleć o modernizacji swoich komputerów. W porównaniu z Core i7-2700K oraz Core i7-3770K nowy Core i7-6700K prezentuje się bardzo dobrze – jego średnią ważoną przewagę nad takimi poprzednikami szacuje się na 30-40 proc. Ponadto procesory z mikroarchitekturą Skylake mogą pochwalić się obsługą zestawu instrukcji AVX2, który znalazł szerokie zastosowanie w aplikacjach multimedialnych, dzięki czemu w niektórych przypadkach Core i7-6700K okazuje się znacznie mocniejszy. Tak więc podczas transkodowania wideo widzieliśmy nawet przypadki, w których Core i7-6700K był ponad dwa razy szybszy niż Core i7-2700K!

Procesory Skylake mają też szereg innych zalet związanych z wprowadzeniem towarzyszącej im nowej platformy LGA 1151. I chodzi nie tyle o obsługę pamięci DDR4, która się w niej pojawiła, ale o to, że nowe zestawy logiki setna seria w końcu otrzymała naprawdę szybkie połączenie z procesorem i obsługę dużej liczby linii PCI Express 3.0. W rezultacie wiodące systemy LGA 1151 mogą pochwalić się licznymi szybkimi interfejsami do podłączania urządzeń pamięci masowej i urządzeń zewnętrznych, które są wolne od jakichkolwiek sztucznych ograniczeń przepustowości.

Dodatkowo, oceniając perspektywy platformy LGA 1151 i procesorów Skylake, należy mieć na uwadze jeszcze jedną kwestię. Intel nie spieszy się z wprowadzeniem na rynek procesorów nowej generacji, znanych jako Kaby Lake. Według dostępnych informacji przedstawiciele tej serii procesorów w wersjach desktopowych pojawią się na rynku dopiero w 2017 roku. Tak więc Skylake będzie z nami przez długi czas, a zbudowany na nim system będzie mógł pozostać aktualny przez bardzo długi czas.

Wydaje nam się jednak, że te dwa materiały są nadal niewystarczające do pełnego ujawnienia tematu. Pierwszym „subtelnym punktem” są częstotliwości taktowania – wszak wraz z wydaniem Haswell Refresh firma już sztywno podzieliła linię „zwykłych” Core i7 i „podkręcanych”, podkręcając te ostatnie fabrycznie (co nie było takie proste). trudne, ponieważ takie procesory na ogół wymagają trochę , więc nie jest trudno wybrać wymaganą ilość wymaganych kryształów). Pojawienie się Skylake nie tylko zachowało stan rzeczy, ale także go pogorszyło: Core i7-6700 i i7-6700K to generalnie bardzo różne procesory, różniące się poziomem TDP. Dlatego nawet przy tych samych częstotliwościach modele te mogą działać inaczej pod względem wydajności, a częstotliwości wcale nie są takie same. Generalnie niebezpiecznie jest wyciągać wnioski na podstawie starszego modelu, ale w zasadzie był on badany wszędzie i tylko w nim. „Młodszy” (i bardziej poszukiwany) do niedawna nie był zepsuty uwagą laboratoriów badawczych.

A po co to jest? Tylko dla porównania z „szczytami” poprzednich rodzin, zwłaszcza że zwykle nie było tak dużego rozrzutu częstotliwości. Czasami w ogóle go nie było - na przykład pary 2600/2600K i 4771/4770K są identyczne pod względem części procesorowej w trybie normalnym. Oczywiste jest, że 6700 jest bardziej analogiczny do modeli nienazwanych, ale do 2600S, 3770S, 4770S i 4790S, ale ... Jest to ważne tylko z technicznego punktu widzenia, który na ogół nie jest interesujący dla ktokolwiek. Pod względem rozpowszechnienia, łatwości nabycia i innych istotnych (w przeciwieństwie do szczegółów technicznych) cech, jest to po prostu „zwykła” rodzina, której przyjrzy się większość posiadaczy „starego” Core i7. Albo potencjalni właściciele – o ile aktualizacja jest jeszcze czasami czymś przydatnym, większość użytkowników procesorów z niższych rodzin procesorów, jeśli zajdzie potrzeba zwiększenia wydajności, patrzy przede wszystkim na urządzenia dla platformy, które są już w ich rękach, a dopiero potem rozważa (lub robi nie brać pod uwagę) pomysł na jego zastąpienie. Testy pokażą, czy to podejście jest poprawne, czy nie.

Konfiguracja stanowiska testowego

procesorIntel Core i7-2700KIntel Core i7-3770Intel Core i7-4770KIntel Core i7-5775CIntel Core i7-6700
Nazwa jądraPiaszczysty mostMost z bluszczuHaswellBroadwellSkylake
Poszukiwana technologia32 nm22 mil22 mil14 mil morskich14 mil morskich
Częstotliwość rdzenia std / max, GHz3,5/3,9 3,4/3,9 3,5/3,9 3,3/3,7 3,4/4,0
Liczba rdzeni / wątków4/8 4/8 4/8 4/8 4/8
Pamięć podręczna L1 (suma), I / D, KB128/128 128/128 128/128 128/128 128/128
Pamięć podręczna L2, KB4 × 2564 × 2564 × 2564 × 2564 × 256
Pamięć podręczna L3 (L4), MiB8 8 8 6 (128) 8
Baran2 × DDR3-13332 × DDR3-16002 × DDR3-16002 × DDR3-16002 × DDR4-2133
TDP, W95 77 84 65 65
GrafikaHDG 3000HDG 4000HDG 4600IPG 6200HDG 530
Liczba UE12 16 20 48 24
Częstotliwość standardowa/maksymalna, MHz850/1350 650/1150 350/1250 300/1150 350/1150
CenaT-7762352T-7959318T-10384297T-12645073T-12874268

Aby uczynić go bardziej akademickim, sensowne byłoby przetestowanie Core i7-2600 i i7-4790, a nie w ogóle 2700K i 4770K, ale pierwszy z nich jest już trudny do znalezienia w naszych czasach, podczas gdy 2700K znalazło się pod ręką i było testowane w jednym czasie. Badano również 4770K, a w „zwykłej” rodzinie ma on pełne (4771) i bliskie (4770) analogi, a cała wspomniana trójca różni się nieznacznie od 4790, więc postanowiliśmy nie zaniedbywać możliwości zminimalizowania ilości pracy. W rezultacie, nawiasem mówiąc, procesory Core drugiej, trzeciej i czwartej generacji okazały się być jak najbliżej siebie w oficjalnym zakresie częstotliwości taktowania, a 6700 różni się od nich tylko nieznacznie. Broadwella też można było „podciągnąć” do tego poziomu, biorąc wyniki nie z i7-5775C, ale z Xeona E3-1285 v4, ale tylko po to, by zaostrzyć, a nie całkowicie wyeliminować różnicę. Dlatego zdecydowaliśmy się na użycie masywniejszego procesora (na szczęście większość pozostałych uczestników jest taka sama), a nie egzotycznego procesora.

Jeśli chodzi o pozostałe warunki testowe, były one równe, ale nie takie same: częstotliwość pamięci operacyjnej była maksymalną obsługiwaną przez specyfikacje. Ale jego objętość (8 GB) i pamięć systemowa (Toshiba THNSNH256GMCT o pojemności 256 GB) były takie same dla wszystkich badanych.

Technika testowania

Aby ocenić wydajność, wykorzystaliśmy naszą metodologię pomiaru wydajności za pomocą testów porównawczych i iXBT Game Benchmark 2015. Znormalizowaliśmy wszystkie wyniki testów w pierwszym benchmarku względem wyników systemu referencyjnego, który w tym roku będzie taki sam dla laptopów, jak i dla wszystkich innych komputerów, co ma ułatwić czytelnikom dokonanie trudnego porównania i wyboru :

Benchmark aplikacji iXBT 2015

Jak pisaliśmy już nie raz, rdzeń wideo ma w tej grupie niemałe znaczenie. Jednak nie wszystko jest tak proste, jak można by sądzić tylko po charakterystyce technicznej - na przykład i7-5775C jest nadal wolniejszy od i7-6700, chociaż pierwszy ma znacznie mocniejszy procesor graficzny. Jeszcze bardziej odkrywcze jest jednak porównanie 2700K i 3770, które zasadniczo różnią się wykonaniem kodu OpenCL – ten pierwszy w ogóle nie jest w stanie wykorzystać do tego GPU. Drugi jest zdolny. Ale robi to tak wolno, że nie ma przewagi nad swoim poprzednikiem. Z drugiej strony wyposażenie takich możliwości w „najmasywniejsze GPU na rynku” doprowadziło do tego, że zaczęły być one stopniowo wykorzystywane przez producentów oprogramowania, co było widoczne już w momencie wejścia na rynek kolejnych generacji Core. A wraz z drobnymi ulepszeniami i rdzeniami procesora może to prowadzić do dość zauważalnego efektu.

Jednak nie wszędzie – tak jest akurat wtedy, gdy wzrost z pokolenia na pokolenie jest zupełnie niewidoczny. Jest jednak, ale taki, że łatwiej nie zwracać na niego uwagi. Ciekawostką jest być może fakt, że miniony rok umożliwił połączenie takiego wzrostu wydajności ze znacznie mniej rygorystycznymi wymaganiami dotyczącymi układu chłodzenia (co otwiera segment systemów kompaktowych na zwykły desktopowy Core i7), ale to nieprawda we wszystkich przypadkach.

A oto przykład, kiedy znaczna część obciążenia została już przeniesiona na GPU. Jedyne, co może „ocalić” w tym przypadku stary Core i7, to dyskretna karta graficzna, ale efekt przesyłania danych przez magistralę psuje, więc i7-2700K w tym przypadku niekoniecznie dogoni i7-6700 , ale 3770 jest w stanie to zrobić, ale nie nadąża ani dla 4790K lub 6700K, ani dla 5775C z jakimkolwiek wideo. Właściwie odpowiedź na zdumiewające pytanie, które czasem pojawia się wśród niektórych użytkowników – dlaczego Intel przywiązuje tak dużą wagę do zintegrowanej grafiki, skoro wciąż nie wystarcza do gier, ale do innych celów od dawna wystarcza? Jak widać, to nie jest zbyt „wystarczające”, jeśli najszybszy jest czasami (jak tutaj) procesor z daleką od najpotężniejszej części „procesorowej”. I już z góry zastanawiam się, co możemy uzyskać od Skylake w modyfikacji GT4e ;)

Niesamowita jednomyślność, sprawiła, że ​​program ten nie wymaga nowych zestawów instrukcji ani cudów w zakresie zwiększania wydajności wielowątkowej. Nadal istnieje niewielka różnica między generacjami procesorów. Ale możesz go szukać tylko z dokładnie taką samą częstotliwością zegara. A kiedy znacznie się różni (to, co mamy w i7-5775С, który w trybie jednowątkowym pozostaje w tyle za wszystkimi o 10%) - nie musisz tego szukać :)

Przesłuchanie "może" mniej więcej wszystko. Chyba że są mu raczej obojętne dodatkowe wątki obliczeń, ale wie, jak je wykorzystać. Co więcej, sądząc po wynikach, na Skylake robi to lepiej niż było to charakterystyczne dla poprzednich architektur: przewaga 4770K nad 4690K wynosi około 15%, ale 6700 omija 6600K o 20% (pomimo faktu, że częstotliwości są w przybliżeniu równe dla wszystkich ). Generalnie najprawdopodobniej w nowej architekturze czeka nas o wiele więcej odkryć. Mały, ale czasami kumulacyjny.

Podobnie jak w przypadku rozpoznawania tekstu, gdzie dokładnie 6700 odrywa się od swoich poprzedników najbardziej „żywo”. Choć w sumie bezwzględnej jest to nieistotne, zbyt optymistycznie byłoby a priori czekać na taki wzrost na stosunkowo starych i dopracowanych algorytmach, biorąc pod uwagę fakt, że tak naprawdę dysponujemy procesorem energooszczędnym (wg. swoją drogą, 6700K naprawdę radzi sobie z tym zadaniem znacznie szybciej)... Nie spodziewaliśmy się. A praktyka okazała się ciekawsza niż założenia a priori :)

Wszystkie topowe procesory bardzo dobrze radzą sobie z archiwizatorami niezależnie od generacji. Pod wieloma względami wydaje nam się, że dla nich to zadanie jest już bardzo proste. Właściwie odliczanie trwa już sekundy, więc radykalne poprawienie czegoś tutaj jest prawie niemożliwe. Choćby po to, by przyspieszyć działanie systemu pamięci, ale DDR4 ma większe opóźnienia niż DDR3, więc gwarantowany wynik daje tylko zwiększenie pamięci podręcznej. Dlatego najszybszy był jedyny spośród testowanych procesorów z GPU GT3e - pamięć podręczna czwartego poziomu jest wykorzystywana nie tylko przez rdzeń wideo. Z drugiej strony zysk z dodatkowej kostki nie jest tak duży, więc archiwizatory są właśnie takim obciążeniem, czego w przypadku oczywiście szybkich systemów (a nie niektórych mini-PC) nie można dłużej ignorować.

Plus minus pół łyka od Słońca, co ogólnie potwierdza również, że wszystkie topowe procesory radzą sobie z takimi zadaniami w ten sam sposób, kontrolery w chipsetach trzech serii są w przybliżeniu identyczne, więc znacząca różnica może być spowodowane tylko przez napęd.

Ale w tak banalnym scenariuszu, jak zwykłe kopiowanie plików, także z pakietem termicznym: modele ze zmniejszonym „podkręcaniem” są raczej ociężałe (na szczęście formalnie i za nic), co prowadzi do nieco niższych wyników niż mogłyby. Ale generalnie tak nie jest, ze względu na to, że może istnieć chęć zmiany platformy.

Co w końcu otrzymujemy? Wszystkie procesory są mniej więcej identyczne. Tak, oczywiście różnica między najlepszym a najgorszym to ponad 10%, ale nie zapominajmy, że są to różnice, które kumulowały się przez ponad trzy lata (a gdybyśmy wzięli i7-2600, byłoby 15% na prawie pięć). W związku z tym nie ma praktycznego sensu zastępowanie jednej platformy drugą, gdy stara działa. Naturalnie, jeśli mówimy o LGA1155 i jego następcach – jak już widzieliśmy, „różnica” między LGA1156 i LGA1155 jest znacznie bardziej zauważalna i to nie tylko pod względem wydajności. Na najnowszych platformach Intela można coś wycisnąć, używając „steroidowego” Core i7 (jeśli nadal skupiasz się na tej drogiej rodzinie), ale nie tak bardzo: pod względem integralnej wydajności i7-6700K przewyższa i7-6700 o 15%, tak że jego przepaść z jakiegoś i7-2700K wzrasta do prawie 30%, co jest już bardziej znaczące, ale wciąż nieistotne.

Aplikacje do gier

Z oczywistych względów dla systemów komputerowych tego poziomu ograniczamy się do trybu jakości minimum i to nie tylko w „pełnej” rozdzielczości, ale także z jej zmniejszeniem do 1366×768: Mimo oczywistego postępu w dziedzinie zintegrowanej grafiki, nie jest jeszcze w stanie zaspokoić wymagającej jakości obrazu gracza. I postanowiliśmy w ogóle nie testować 2700K na standardowym zestawie do gier: oczywiste jest, że właściciele, którzy używają zintegrowanego rdzenia wideo, w ogóle nie są zainteresowani grami. Ktokolwiek jest zainteresowany w jakikolwiek sposób, z pewnością znalazł i zainstalował przynajmniej jakąś „wtyczkę do gniazda” w binach, ponieważ nasze testy według poprzedniej wersji metodologii wykazały, że HD Graphics 3000 nie jest lepszy niż nawet Radeon HD 6450 i jedno i drugie praktycznie na nic nie starczy. Interesujące są HDG 4000 i nowsze IGP.

Na przykład w Aliens vs. W Predator można grać na dowolnym z badanych procesorów, ale tylko w niższej rozdzielczości. W przypadku FHD nadaje się tylko GT3e i nie ma znaczenia, który - po prostu w wersji z gniazdem ta konfiguracja jest obecnie dostępna tylko dla Broadwell ze wszystkim, co to oznacza.

Ale „tancerze” przy minimalnych pensjach już „biegają” na wszystkim tak dobrze, że smukły obraz tylko w wysokiej rozdzielczości i „tańczy”: na niskim nawet nie jest jasne – kto jest lepszy, a kto gorszy.

Grid2 ze wszystkimi swoimi słabymi wymaganiami dotyczącymi części wideo nadal ustawia procesory ściśle według wielkości. Ale szczególnie wyraźnie widać to ponownie w FHD, gdzie przepustowość pamięci jest już ważna. W rezultacie już teraz można nie obniżać rozdzielczości na i7-6700. Na i7-5775C tym bardziej, a wyniki bezwzględne są znacznie wyższe, więc jeśli interesuje Cię ten obszar zastosowania, a użycie dyskretnej karty graficznej jest z jakiegoś powodu niepożądane, nadal nie ma alternatywy dla tej linii procesorów. W którym nie ma nic nowego.

Jedynie starsze Haswelle „rysują” grę przynajmniej w niskiej rozdzielczości, a Skylake robi to bez zastrzeżeń. Nie komentujemy Broadwella - nie jest to przewaga architektoniczna, ale powiedzmy ilościowa.

Na pierwszy rzut oka starsza gra z serii jest podobna, ale między Haswell a Skylake nie ma ilościowych różnic.

W Hitmanie są też zauważalne, ale nadal nie ma przejścia od ilości do jakości.

Jak i tutaj, gdzie nawet tryb niskiej rozdzielczości może tylko „wyciągnąć” procesor z GT3e. Reszta ma znaczny, ale wciąż niewystarczający postęp nawet jak na takie „wyczyny”.

Tryb minimalnych ustawień w tej grze jest bardzo delikatny ze wszystkimi słabymi procesorami graficznymi, chociaż HDG 4000 wciąż był tylko „wystarczający” dla HD, ale nie FHD.

I znowu trudna sprawa. Mniej „ciężki” niż Thief, ale wystarczający, aby wyraźnie pokazać, że żadnej zintegrowanej grafiki nie można uznać za rozwiązanie do gier.

Chociaż w niektóre gry można grać ze względnym komfortem. Jednak może to być zauważalne tylko wtedy, gdy skomplikujemy IGP i zwiększymy ilościowo wszystkie bloki funkcjonalne. Właściwie to w lekkich trybach postęp w dziedzinie procesorów graficznych Intela jest najbardziej zauważalny – mniej więcej dwa razy w ciągu trzech lat (nie ma już sensu poważnie traktować starszych rozwiązań). Nie oznacza to jednak, że z biegiem czasu zintegrowana grafika będzie w stanie łatwo i naturalnie dogonić dyskretną grafikę w podobnym wieku. Najprawdopodobniej „parzystość” zostanie ustalona z drugiej strony – mając na uwadze ogromną bazę zainstalowanych rozwiązań o niskiej wydajności, będą się nią kierować producenci tych samych gier. Dlaczego nie zrobiłeś tego wcześniej? Ogólnie rzecz biorąc, zrobili - jeśli weźmiemy pod uwagę nie tylko gry 3D, ale ogólnie rynek, ogromna liczba bardzo popularnych projektów gier została zaprojektowana po prostu do normalnej pracy na dość archaicznych platformach. Ale zawsze istniał pewien segment programów, które „poruszały rynek” i to właśnie ten segment przyciągał maksymalną uwagę prasy i nie tylko. Teraz proces wyraźnie zbliża się do punktu nasycenia, ponieważ po pierwsze park różnego sprzętu komputerowego jest już bardzo duży, a chętnych na stałe modernizacje jest coraz mniej. Po drugie, „multiplatforma” to teraz nie tylko specjalistyczne konsole do gier, ale także różne smartfony, gdzie oczywiście wydajność jest jeszcze gorsza niż komputerów „dorosłych”, niezależnie od stopnia integracji tych ostatnich platform. Aby jednak ten trend zapanował, konieczne jest jednak, jak nam się wydaje, osiągnięcie pewnego poziomu gwarantowanej produktywności. Który nie jest jeszcze dostępny. Ale wszyscy producenci pracują nad tym problemem bardziej niż aktywnie, a Intel nie jest wyjątkiem.

Całkowity

Co widzimy na końcu? W zasadzie, jak już nie raz mówiono, ostatnia znacząca zmiana w rdzeniach procesorów z rodziny Core miała miejsce prawie pięć lat temu. Na tym etapie udało się już osiągnąć taki poziom, że żaden z konkurentów nie może bezpośrednio „zaatakować”. Dlatego głównym zadaniem Intela jest poprawa sytuacji, powiedzmy, w powiązanych obszarach, a także zwiększanie wskaźników ilościowych (ale nie jakościowych) tam, gdzie ma to sens. Co więcej, rosnąca popularność komputerów przenośnych, które już dawno wyprzedziły komputery stacjonarne pod względem tego wskaźnika i stają się coraz bardziej przenośne, ma poważny wpływ na rynek masowy (kilka lat temu np. laptop o wadze 2 kg był jeszcze uważane za „stosunkowo lekkie”, a obecnie sprzedaż transformatorów aktywnie rośnie., w którym to przypadku duża masa zabija całą rację bytu ich istnienia). Ogólnie rzecz biorąc, rozwój platform komputerowych od dawna nie przebiega drogą najlepszego zaspokojenia potrzeb nabywców dużych komputerów stacjonarnych. W najlepszym razie nie ze szkodą dla nich. Dlatego fakt, że generalnie w tym segmencie wydajność systemów nie spada, a nawet trochę rośnie, jest już powodem do radości - mogło być gorzej :) Jedyne złe jest to, że ze względu na zmiany w funkcjonalności urządzeń peryferyjnych, trzeba ciągle zmieniać same platformy: jest to taka tradycyjna zaleta komputerów modułowych, że łatwość konserwacji mocno podważa, ale nic na to nie można poradzić - próby utrzymania kompatybilności za wszelką cenę nie przynoszą nic dobrego (ci, którzy wątpią, mogą spójrz na przykład na AMD AM3+).

Prawie zawsze pod każdą publikacją, która w taki czy inny sposób dotyka wydajności nowoczesnych procesorów Intela, prędzej czy później pojawia się kilka komentarzy rozgniewanych czytelników, że postęp w rozwoju chipów Intela już dawno się zatrzymał i nie ma sensu zmieniać z "starego dobrego Core i7-2600K" Za coś nowego. W takich uwagach najprawdopodobniej irytujące będzie wspominanie o wzroście wydajności na niematerialnym poziomie „nie więcej niż pięć procent rocznie”; o niskiej jakości wewnętrznym interfejsie termicznym, który nieodwracalnie zepsuł nowoczesne procesory Intela; lub o tym, że w nowoczesnych warunkach kupować procesory z taką samą liczbą rdzeni jak kilka lat temu to los krótkowzrocznych amatorów, którzy nie mają niezbędnych podstaw na przyszłość.

Nie ulega wątpliwości, że wszystkie takie uwagi nie są bezpodstawne. Jednak jest bardzo prawdopodobne, że wielokrotnie wyolbrzymiają istniejące problemy. Laboratorium 3DNews szczegółowo testuje procesory Intela od 2000 roku i nie możemy zgodzić się z tezą, że jakikolwiek ich rozwój dobiegł końca, a tego, co dzieje się z mikroprocesorowym gigantem w ostatnich latach, nie można nazwać inaczej niż stagnacją. Tak, niektóre fundamentalne zmiany rzadko występują w procesorach Intela, niemniej jednak są one systematycznie ulepszane. Dlatego układy z serii Core i7, które można dziś kupić, są z pewnością lepsze od modeli oferowanych kilka lat temu.

Rdzeń generacji Kryptonim Proces techniczny Stadium rozwoju Czas wyjścia
2 Piaszczysty most 32 nm Więc (architektura) I kwartał. 2011
3 BluszczMost 22 mil Zaznacz (proces) II kwartał. 2012
4 Haswell 22 mil Więc (architektura) II kwartał. 2013
5 Broadwell 14 mil morskich Zaznacz (proces) II kwartał. 2015
6 Skylake 14 mil morskich Więc
(Architektura)
III kwartał. 2015
7 Kabyjezioro 14+ nm Optymalizacja I kwartał. 2017
8 Kawajezioro 14 ++ Optymalizacja IV kwartał. 2017

Właściwie ten materiał jest tylko kontrargumentem dla argumentowania o daremności wybranej przez Intela strategii stopniowego rozwoju procesorów konsumenckich. Postanowiliśmy zebrać w jednym teście starsze procesory Intela dla platform głównego nurtu w ciągu ostatnich siedmiu lat i zobaczyć w praktyce, jak przedstawiciele serii Kaby Lake i Coffee Lake poszli naprzód w odniesieniu do „referencyjnego” Sandy Bridge, który na przestrzeni lat hipotetycznych porównań i mentalnych kontrastów w umysłach zwykłych ludzi stało się prawdziwą ikoną projektowania procesorów.

⇡ Co się zmieniło w procesorach Intela od 2011 do chwili obecnej

Mikroarchitektura jest uważana za punkt wyjścia w najnowszej historii procesorów Intela. PiaszczystyMost... I to nie przypadek. Pomimo faktu, że pierwsza generacja procesorów pod marką Core została wydana w 2008 roku w oparciu o mikroarchitekturę Nehalem, prawie wszystkie główne cechy, które są nieodłączne w nowoczesnych masowych procesorach giganta mikroprocesorowego, weszły do ​​użytku nie wtedy, ale kilka lat później, kiedy następna generacja stała się powszechna, konstrukcja procesora, Sandy Bridge.

Teraz Intel nauczył nas otwarcie, niespiesznego postępu w rozwoju mikroarchitektury, kiedy innowacji jest bardzo mało i prawie nie prowadzą one do zwiększenia wydajności rdzeni procesorów. Ale jeszcze siedem lat temu sytuacja była radykalnie inna. W szczególności przejście z Nehalem do Sandy Bridge charakteryzowało się 15-20% wzrostem IPC (liczby instrukcji wykonywanych w cyklu zegara), co było spowodowane głębokim przeprojektowaniem logicznej konstrukcji rdzeni z myślą o zwiększenie ich wydajności.

Sandy Bridge był oparty na wielu zasadach, które nie zmieniły się od tamtego czasu i stały się standardem dla większości współczesnych procesorów. Na przykład pojawiła się tam osobna pamięć podręczna zerowego poziomu dla dekodowanych mikrooperacji i zaczęto używać fizycznego pliku rejestru, co zmniejsza zużycie energii, gdy działają algorytmy wykonywania instrukcji w kolejności.

Ale być może najważniejszą innowacją było to, że Sandy Bridge został zaprojektowany jako zunifikowany system-on-a-chip, zaprojektowany jednocześnie dla wszystkich klas aplikacji: serwerowych, stacjonarnych i mobilnych. Najprawdopodobniej opinia publiczna umieściła to w pradziadku współczesnego Coffee Lake, a nie w jakimś Nehalem, a już na pewno nie w Penrynie, właśnie ze względu na tę cechę. Jednak suma wszystkich zmian w głębi mikroarchitektury Sandy Bridge również okazała się dość znacząca. Ostatecznie ten projekt stracił wszystkie stare powiązania z P6 (Pentium Pro), które pojawiały się tu i tam we wszystkich poprzednich procesorach Intela.

Mówiąc o ogólnej konstrukcji, trzeba też pamiętać, że po raz pierwszy w historii procesorów Intela w kryształ procesora Sandy Bridge wbudowano pełnoprawny rdzeń graficzny. Blok ten trafił do procesora po kontrolerze pamięci DDR3 współdzielonym przez pamięć podręczną L3 i kontroler magistrali PCI Express. Aby połączyć rdzenie obliczeniowe i wszystkie inne części „nadrdzeniowe”, inżynierowie Intela wdrożyli nową skalowalną magistralę pierścieniową w Sandy Bridge, która do dziś jest używana do organizowania interakcji między jednostkami strukturalnymi w kolejnych procesorach głównego nurtu.

Jeśli zejdziemy do poziomu mikroarchitektury Sandy Bridge, to jedną z jej kluczowych cech jest obsługa rodziny instrukcji SIMD, AVX, zaprojektowanej do pracy z wektorami 256-bitowymi. Do tej pory takie instrukcje stały się powszechne i nie wydają się niczym niezwykłym, ale ich implementacja w Sandy Bridge wymagała rozbudowy części obliczeniowych urządzeń wykonawczych. Inżynierowie Intela starali się, aby praca z 256-bitowymi danymi była tak szybka, jak praca z mniejszymi wektorami. Dlatego wraz z implementacją pełnoprawnych 256-bitowych urządzeń wykonawczych wymagane było również zwiększenie szybkości procesora wraz z pamięcią. Siłowniki logiczne do ładowania i zapisywania danych w Sandy Bridge uzyskały dwukrotnie większą wydajność, dodatkowo przepustowość pamięci podręcznej L1 podczas odczytu została symetrycznie zwiększona.

Nie można nie wspomnieć o dramatycznych zmianach w funkcjonowaniu jednostki predykcyjnej oddziałów, która dokonała się w Sandy Bridge. Dzięki optymalizacji zastosowanych algorytmów oraz zwiększeniu rozmiarów buforów, architektura Sandy Bridge pozwoliła zmniejszyć odsetek błędnych prognoz gałęzi o prawie połowę, co nie tylko znacząco wpłynęło na wydajność, ale także pozwoliło na dalsze zmniejszenie poboru mocy tego projekt.

Ostatecznie, z dzisiejszej perspektywy, procesory Sandy Bridge można by nazwać przykładowym wcieleniem fazy „tak” w zasadzie „tick-tak” Intela. Podobnie jak ich poprzednicy, procesory te nadal opierały się na technologii procesowej 32 nm, ale oferowany przez nie wzrost wydajności okazał się bardziej niż przekonujący. Napędzała go nie tylko zaktualizowana mikroarchitektura, ale także zwiększenie częstotliwości taktowania o 10-15 procent, a także wprowadzenie bardziej agresywnej wersji technologii Turbo Boost 2.0. Biorąc to wszystko pod uwagę, jasne jest, dlaczego wielu entuzjastów wciąż pamięta Sandy Bridge w ich najcieplejszych słowach.

Starszą ofertą w rodzinie Core i7 w momencie wydania mikroarchitektury Sandy Bridge był Core i7-2600K. Procesor ten ma taktowanie 3,3 GHz z możliwością automatycznego przetaktowania przy częściowym obciążeniu do 3,8 GHz. Jednak przedstawiciele Sandy Bridge w 32 nm wyróżniali się nie tylko stosunkowo wysokimi jak na tamte czasy częstotliwościami taktowania, ale także dobrym potencjałem do przetaktowywania. Wśród Core i7-2600K często można było znaleźć egzemplarze zdolne do pracy na częstotliwościach 4,8-5,0 GHz, co w dużej mierze wynikało z zastosowania w nich wysokiej jakości wewnętrznego interfejsu termicznego - lutu beztopnikowego.

Dziewięć miesięcy po premierze Core i7-2600K, w październiku 2011 r., Intel zaktualizował ofertę seniorów w ofercie i zaoferował nieco przyspieszony model Core i7-2700K, którego częstotliwość nominalna została zwiększona do 3,5 GHz, a częstotliwość maksymalna w trybie turbo dochodziło do 3,9 GHz.

Jednak cykl życia Core i7-2700K okazał się krótki – w kwietniu 2012 roku Sandy Bridge został zastąpiony zaktualizowaną konstrukcją. BluszczMost... Nic specjalnego: Ivy Bridge należał do fazy „tykania”, czyli było przeniesieniem starej mikroarchitektury na nowe półprzewodnikowe szyny. I pod tym względem postęp był naprawdę poważny – kryształy Ivy Bridge zostały wyprodukowane w 22-nanometrowym procesie technologicznym opartym na trójwymiarowych tranzystorach FinFET, które w tamtym czasie dopiero wchodziły do ​​użytku.

Jednocześnie stara mikroarchitektura Sandy Bridge na niskim poziomie pozostała praktycznie nienaruszona. Wprowadzono tylko kilka kosmetycznych poprawek, które sprawiły, że Ivy Bridge był szybszy i nieco wydajniejszy dzięki funkcji Hyper-Threading. To prawda, że ​​po drodze komponenty „pozajądrowe” zostały nieco ulepszone. Kontroler PCI Express uzyskał kompatybilność z trzecią wersją protokołu, a kontroler pamięci zwiększył swoje możliwości i zaczął obsługiwać szybką pamięć podkręcania DDR3. Ostatecznie jednak wzrost specyficznej produktywności podczas przejścia z Sandy Bridge do Ivy Bridge wyniósł nie więcej niż 3-5 procent.

Nowy proces technologiczny również nie dawał poważnych powodów do radości. Niestety, wprowadzenie standardów 22-nm nie pozwoliło w jakiś sposób zasadniczo zwiększyć częstotliwości zegara Ivy Bridge. Starsza wersja Core i7-3770K otrzymała częstotliwość nominalną 3,5 GHz z możliwością podkręcania w trybie turbo do 3,9 GHz, czyli z punktu widzenia formuły częstotliwości okazała się nie szybsza niż Core i7-2700K. Poprawiła się tylko wydajność energetyczna, ale użytkownicy komputerów stacjonarnych tradycyjnie nie mają większego zainteresowania tym aspektem.

Wszystko to oczywiście można łatwo przypisać temu, że na etapie „tykania” nie powinny nastąpić żadne przełomy, ale pod pewnymi względami Ivy Bridge okazał się jeszcze gorszy od swoich poprzedników. Chodzi o podkręcanie. Wprowadzając na rynek nośniki tego projektu, Intel zdecydował się zrezygnować z używania nakładki rozpraszacza ciepła na kryształ półprzewodnikowy w końcowym montażu procesorów z lutowaniem bezgalowym. Począwszy od Ivy Bridge, banalna pasta termiczna została wykorzystana do uporządkowania wewnętrznego interfejsu termicznego, co natychmiast osiągnęło maksymalne osiągalne częstotliwości. Potencjał podkręcania Ivy Bridge zdecydowanie się pogorszył, w wyniku czego przejście z Sandy Bridge na Ivy Bridge stało się jednym z najbardziej kontrowersyjnych momentów w najnowszej historii konsumenckich procesorów Intela.

Dlatego do kolejnego etapu ewolucji Haswell wiązano szczególne nadzieje. W tym pokoleniu, w fazie „tak”, miały pojawić się poważne ulepszenia mikroarchitektoniczne, od których oczekiwano zdolności przynajmniej do przyspieszenia zatrzymanego postępu. I do pewnego stopnia tak się stało. Wprowadzone latem 2013 r. procesory Core czwartej generacji rzeczywiście dokonały zauważalnych ulepszeń w swojej wewnętrznej strukturze.

Najważniejsze: teoretyczna moc jednostek wykonawczych Haswell, wyrażona w liczbie mikrooperacji wykonywanych w cyklu zegara, wzrosła o jedną trzecią w porównaniu do poprzednich procesorów. Nowa mikroarchitektura nie tylko zrównoważyła istniejące urządzenia wykonawcze, ale także dodała dwa dodatkowe porty wykonawcze do operacji na liczbach całkowitych, rozgałęzień i generowania adresów. Ponadto mikroarchitektura uzyskała kompatybilność z rozszerzonym zestawem wektorowych 256-bitowych instrukcji AVX2, co dzięki trójoperandowym instrukcjom FMA podwoiło szczytową przepustowość architektury.

Oprócz tego inżynierowie Intela zrewidowali pojemność buforów wewnętrznych i, w razie potrzeby, zwiększyli je. Okno planisty urosło. Ponadto zwiększono pliki rejestrów całkowitych i rzeczywistych, co poprawiło zdolność procesora do zmiany kolejności wykonywania instrukcji. Oprócz tego znacząco zmienił się również podsystem pamięci podręcznej. Pamięci podręczne L1 i L2 w Haswell mają dwukrotnie szerszą szynę.

Wydawałoby się, że wymienione usprawnienia powinny wystarczyć, aby zauważalnie podnieść specyficzną wydajność nowej mikroarchitektury. Ale bez względu na to, jak to jest. Problem z projektem Haswella polegał na tym, że pozostawił niezmienioną część wejściową potoku wykonawczego, a dekoder x86 zachował tę samą wydajność, co poprzednio. Oznacza to, że maksymalna szybkość dekodowania kodu x86 w mikroinstrukcji pozostała na poziomie 4-5 instrukcji na cykl zegara. W rezultacie, porównując Haswell i Ivy Bridge przy tej samej częstotliwości i pod obciążeniem, które nie korzysta z nowych instrukcji AVX2, wzrost wydajności wyniósł tylko 5-10 procent.

Wizerunek mikroarchitektury Haswella zepsuła też pierwsza fala procesorów wydanych na jej podstawie. Opierając się na tej samej technologii 22 nm, co Ivy Bridge, nowe produkty nie były w stanie zaoferować wysokich częstotliwości. Na przykład starszy Core i7-4770K ponownie otrzymał częstotliwość podstawową 3,5 GHz i maksymalną częstotliwość w trybie turbo na poziomie 3,9 GHz, czyli w porównaniu z poprzednimi generacjami Core nie nastąpił żaden postęp.

W tym samym czasie, wraz z wprowadzeniem kolejnego procesu technologicznego z normami 14 nm, Intel zaczął borykać się z różnego rodzaju trudnościami, więc rok później, latem 2014 roku, nie wprowadzono na rynek kolejnej generacji procesorów Core, ale druga faza Haswell, która nosiła kryptonim Haswell Refresh, lub, jeśli mówimy o flagowych modyfikacjach, to Devil's Canyon. W ramach tej aktualizacji Intelowi udało się zauważalnie zwiększyć taktowanie procesora 22 nm, co naprawdę tchnęło w nie nowe życie. Jako przykład możemy przytoczyć nowy starszy procesor Core i7-4790K, który przyjął oznaczenie 4,0 GHz przy częstotliwości nominalnej i uzyskał maksymalną częstotliwość, biorąc pod uwagę tryb turbo, przy 4,4 GHz. Co zaskakujące, takie półgigahercowe przyspieszenie osiągnięto bez żadnych technicznych reform procesu, a jedynie dzięki prostym kosmetycznym zmianom w obwodzie zasilania procesora i poprawie właściwości przewodzących ciepło pasty termoprzewodzącej zastosowanej pod osłoną procesora.

Jednak nawet przedstawiciele rodziny z Diabelskiego Kanionu nie mogli stać się propozycjami, na które szczególnie narzekali entuzjaści. Na tle wyników Sandy Bridge ich podkręcanie nie było wybitne, poza tym osiągnięcie wysokich częstotliwości wymagało skomplikowanego „skalpowania” – demontażu obudowy procesora, a następnie zastąpienia standardowego interfejsu termicznego jakimś materiałem o lepszej przewodności cieplnej.

Ze względu na trudności, jakie nastąpiły po Intelu w przejściu masowej produkcji na standardy 14 nm, wydajność kolejnej, piątej generacji procesorów Core, Broadwell, okazał się bardzo pomięty. Przez długi czas firma nie mogła się zdecydować, czy w ogóle warto wprowadzać na rynek procesory desktopowe o tej konstrukcji, ponieważ przy próbie produkcji dużych kryształów półprzewodnikowych wskaźnik defektów przekraczał dopuszczalne wartości. Ostatecznie pojawiły się czterordzeniowe procesory Broadwell przeznaczone dla komputerów stacjonarnych, ale po pierwsze stało się to dopiero latem 2015 roku – z dziewięciomiesięcznym opóźnieniem w stosunku do pierwotnie planowanej daty, a po drugie, dwa miesiące po ich zapowiedzi Intel zaprezentował zaprojektuj nową generację, Skylake.

Niemniej jednak z punktu widzenia rozwoju mikroarchitektury Broadwell trudno nazwać rozwojem wtórnym. Co więcej, ta generacja procesorów do komputerów stacjonarnych wykorzystywała rozwiązania, z których Intel nigdy nie korzystał ani wcześniej, ani później. Wyjątkowość komputerów stacjonarnych Broadwell była zdeterminowana faktem, że zostały one przeniknięte przez produktywny zintegrowany rdzeń graficzny Iris Pro z poziomu GT3e. A to oznacza nie tylko, że procesory z tej rodziny miały najmocniejszy w tamtych czasach zintegrowany rdzeń wideo, ale także, że zostały wyposażone w dodatkowy 22-nm Crystall Well crystal, czyli pamięć podręczną czwartego poziomu opartą na eDRAM.

Powód dodania oddzielnego układu szybkiej zintegrowanej pamięci do procesora jest dość oczywisty i wynika z potrzeb wydajnego zintegrowanego rdzenia graficznego w buforze ramki o niskim opóźnieniu i dużej przepustowości. Jednak pamięć eDRAM zainstalowana w Broadwell została zaprojektowana architektonicznie jako pamięć podręczna ofiar, a rdzenie obliczeniowe procesora również mogły z niego korzystać. W rezultacie komputer stacjonarny Broadwell stał się jedynym w swoim rodzaju procesorem masowym z 128 MB pamięci podręcznej L4. To prawda, że ​​\u200b\u200bobjętość pamięci podręcznej L3 znajdującej się w chipie procesora trochę ucierpiała, która została zmniejszona z 8 do 6 MB.

Pewne ulepszenia zostały również włączone do podstawowej mikroarchitektury. Chociaż Broadwell był w fazie tiku, przeróbka dotknęła wlotu potoku wykonawczego. Powiększono okno harmonogramu wykonywania poza kolejnością, półtora raza zwiększyła się objętość tablicy asocjacyjnej translacji adresów drugiego poziomu, a dodatkowo cały schemat translacji pozyskał drugą procedurę obsługi błędów, dzięki której możliwe jest równoległe przetwarzanie dwóch operacji translacji adresów. Podsumowując, wszystkie innowacje zwiększyły efektywność wykonywania poleceń poza kolejnością i przewidywania złożonych gałęzi kodu. Po drodze usprawniono mechanizmy wykonywania operacji mnożenia, które w Broadwell zaczęły być przetwarzane w znacznie szybszym tempie. W rezultacie Intel mógł nawet argumentować, że ulepszenia w mikroarchitekturze zwiększyły wydajność Broadwella w porównaniu z Haswellem o około pięć procent.

Ale mimo to nie można było mówić o żadnej znaczącej przewadze pierwszych 14-nm procesorów do komputerów stacjonarnych. Zarówno pamięć podręczna L4, jak i zmiany mikroarchitektoniczne próbowały jedynie zrekompensować główną wadę Broadwella - niskie częstotliwości taktowania. Ze względu na problemy z procesem technologicznym, bazowa częstotliwość starszego członka rodziny, Core i7-5775C, została ustawiona tylko na 3,3 GHz, a częstotliwość turbo nie przekraczała 3,7 GHz, co okazało się gorsze od charakterystyki Diabelskiego Kanionu aż o 700 MHz.

Podobna historia miała miejsce w przypadku podkręcania. Maksymalne częstotliwości, do których można było nagrzać pulpit Broadwella bez użycia zaawansowanych metod chłodzenia, mieściły się w zakresie 4,1-4,2 GHz. Nic więc dziwnego, że konsumenci byli sceptycznie nastawieni do wydania Broadwella, a procesory z tej rodziny pozostały dziwnym rozwiązaniem niszowym dla tych, którzy byli zainteresowani produktywnym zintegrowanym rdzeniem graficznym. Pierwszy pełnoprawny chip 14 nm do komputerów stacjonarnych, który był w stanie przyciągnąć uwagę szerokich warstw użytkowników, był dopiero kolejnym projektem giganta mikroprocesorowego - Skylake.

Skylake, podobnie jak procesory poprzedniej generacji, został wyprodukowany w technologii 14 nm. Jednak tutaj Intel był już w stanie osiągnąć normalne częstotliwości taktowania i podkręcanie: starsza stacjonarna wersja Skylake, Core i7-6700K, otrzymała częstotliwość nominalną 4,0 GHz i automatyczne przetaktowanie w trybie turbo do 4,2 GHz. To nieco niższe wartości w porównaniu z Devil's Canyon, ale nowsze procesory są zdecydowanie szybsze od swoich poprzedników. Faktem jest, że Skylake jest „tak” w nomenklaturze Intela, co oznacza znaczące zmiany w mikroarchitekturze.

I naprawdę są. Na pierwszy rzut oka nie było wielu ulepszeń w projekcie Skylake, ale wszystkie były celowe i pozwoliły wyeliminować istniejące słabości w mikroarchitekturze. Krótko mówiąc, Skylake otrzymał większe bufory wewnętrzne, co zapewnia głębsze wykonywanie instrukcji poza kolejnością i większą przepustowość pamięci podręcznej. Wprowadzono ulepszenia w bloku przewidywania rozgałęzień i wejściowej części potoku wykonawczego. Zwiększono również szybkość wykonywania instrukcji dzielenia oraz zbalansowano mechanizmy wykonywania instrukcji dodawania, mnożenia i FMA. Na domiar złego programiści pracowali nad poprawą wydajności technologii Hyper-Threading. W sumie zaowocowało to około 10-procentową poprawą wydajności na zegar w porównaniu z poprzednimi generacjami procesorów.

Ogólnie rzecz biorąc, Skylake można scharakteryzować jako wystarczająco głęboką optymalizację oryginalnej architektury Core, aby nie pozostały żadne wąskie gardła w konstrukcji procesora. Z jednej strony, dzięki zwiększeniu mocy dekodera (z 4 do 5 mikrooperacji na takt) oraz szybkości pamięci podręcznej mikrooperacji (z 4 do 6 mikrooperacji na takt), znacząco wzrosła szybkość dekodowania instrukcji. Z drugiej strony wzrosła wydajność przetwarzania powstałych mikrooperacji, czemu sprzyjało pogłębienie algorytmów wykonywania poza kolejnością oraz redystrybucja możliwości portów wykonawczych wraz z poważną rewizją szybkości wykonywania wielu zwykłych poleceń, SSE i AVX.

Na przykład Haswell i Broadwell miały po dwa porty do wykonywania mnożenia i operacji FMA na liczbach rzeczywistych, ale tylko jeden port był przeznaczony do dodawania, co nie odpowiadało dobrze rzeczywistemu kodowi programu. W Skylake ta nierównowaga została wyeliminowana i zaczęto wprowadzać dodatki na dwóch portach. Ponadto liczba portów zdolnych do obsługi instrukcji wektorów całkowitych wzrosła z dwóch do trzech. Ostatecznie wszystko to doprowadziło do tego, że dla prawie każdego rodzaju operacji w Skylake zawsze istnieje kilka alternatywnych portów. Oznacza to, że w mikroarchitekturze udało się ostatecznie wyeliminować prawie wszystkie możliwe przyczyny przestoju rurociągu.

Zauważalne zmiany dotknęły również podsystem buforowania: zwiększono przepustowość pamięci podręcznej L2 i L3. Ponadto zmniejszono asocjatywność pamięci podręcznej L2, co ostatecznie umożliwiło poprawę jej wydajności i zmniejszenie kary przy przetwarzaniu chybień.

Istotne zmiany zaszły również na wyższym poziomie. Tak więc w Skylake przepustowość magistrali pierścieniowej, która łączy wszystkie jednostki procesora, podwoiła się. Ponadto w tej generacji procesorów zadomowił się nowy kontroler pamięci, który otrzymał kompatybilność z DDR4 SDRAM. Oprócz tego do połączenia procesora z chipsetem zastosowano nową magistralę DMI 3.0 o podwójnej przepustowości, co umożliwiło wdrożenie szybkich linii PCI Express 3.0, w tym przez chipset.

Jednak, podobnie jak wszystkie poprzednie wersje architektury Core, Skylake był kolejną odmianą oryginalnego projektu. Oznacza to, że w szóstej generacji mikroarchitektury Core programiści Intela nadal stosowali taktykę stopniowego wdrażania ulepszeń w każdym cyklu rozwojowym. Generalnie nie jest to zbyt imponujące podejście, które nie pozwala od razu dostrzec żadnych znaczących zmian w wydajności – porównując procesory z sąsiednich generacji. Ale z drugiej strony modernizując stare systemy nietrudno zauważyć wymierny wzrost wydajności. Na przykład sam Intel chętnie porównywał Skylake do Ivy Bridge, demonstrując jednocześnie, że w ciągu trzech lat szybkość procesorów wzrosła o ponad 30 proc.

I faktycznie był to dość poważny postęp, bo wtedy wszystko stało się znacznie gorsze. Po Skylake wszelka poprawa wydajności rdzeni procesora całkowicie się zatrzymała. Obecnie dostępne na rynku procesory nadal korzystają z mikroarchitektonicznej konstrukcji Skylake, mimo że od jej wprowadzenia do procesorów do komputerów stacjonarnych minęły już prawie trzy lata. Nieoczekiwany przestój spowodowany był tym, że Intel nie był w stanie poradzić sobie z implementacją kolejnej wersji procesu półprzewodnikowego z normami 10 nm. W rezultacie cała zasada „tick-tak” upadła, zmuszając giganta mikroprocesorowego do wyjścia i zaangażowania się w wielokrotne ponowne wydawanie starych produktów pod nowymi nazwami.

Procesory generacji Kabyjezioro, który pojawił się na rynku na samym początku 2017 roku, stał się pierwszym i bardzo efektownym przykładem prób Intela, by po raz drugi sprzedać ten sam Skylake klientom. Bliskie więzy rodzinne między dwiema generacjami procesorów nie były specjalnie ukrywane. Intel uczciwie powiedział, że Kaby Lake nie jest już „tick” lub „tak”, ale prostą optymalizacją poprzedniego projektu. Jednocześnie słowo „optymalizacja” oznaczało pewne ulepszenia w konstrukcji 14-nm tranzystorów, co otworzyło możliwość zwiększenia częstotliwości taktowania bez zmiany ramki pakietu termicznego. Dla zmodyfikowanego procesu technicznego ukuto nawet specjalny termin „14+ nm”. Dzięki tej technologii produkcyjnej, starszy główny procesor desktopowy Kaby Lake, nazwany Core i7-7700K, był w stanie zaoferować użytkownikom nominalną częstotliwość 4,2 GHz i 4,5 GHz turbo.

Tak więc wzrost częstotliwości Kaby Lake w porównaniu z oryginalnym Skylake wyniósł około 5 procent i to wszystko, co szczerze mówiąc, podważa legalność przypisania Kaby Lake do następnej generacji rdzenia. Do tego momentu każda kolejna generacja procesorów, bez względu na to, czy należała do fazy „tykania” czy „takowania”, zapewniała przynajmniej pewien wzrost wskaźnika IPC. Tymczasem w Kaby Lake nie było w ogóle żadnych ulepszeń mikroarchitektonicznych, więc bardziej logiczne byłoby uznanie tych procesorów za drugi krok w Skylake.

Jednak nowa wersja 14-nm procesu technicznego wciąż zdołała się pod pewnymi względami sprawdzić: potencjał przetaktowania Kaby Lake w porównaniu do Skylake wzrósł o około 200-300 MHz, dzięki czemu procesory tej serii zostały ciepło przyjęte przez entuzjastów. To prawda, że ​​Intel nadal używał pasty termicznej pod pokrywą procesora zamiast lutowania, więc skalpowanie było konieczne do pełnego przetaktowania Kaby Lake.

Intel nie poradził sobie z uruchomieniem technologii 10 nm na początku tego roku. Dlatego pod koniec zeszłego roku wprowadzono na rynek kolejny rodzaj procesorów opartych na tej samej mikroarchitekturze Skylake - Kawajezioro... Ale mówienie o Coffee Lake jako trzecim przebraniu Skylake nie jest całkowicie poprawne. Miniony rok był okresem radykalnej zmiany paradygmatu na rynku procesorów. AMD powróciło do „wielkiej gry”, która była w stanie przełamać utarte tradycje i stworzyć popyt na procesory masowe z więcej niż czterema rdzeniami. Nagle Intel znalazł się w nadrabianiu zaległości, a wydanie Coffee Lake było nie tyle próbą wypełnienia luki przed długo wyczekiwanym pojawieniem się procesorów 10 nm Core, ile raczej reakcją na premierę sześcio- i ośmiordzeniowe procesory AMD Ryzen.

W rezultacie procesory Coffee Lake otrzymały ważną różnicę strukturalną od swoich poprzedników: liczba rdzeni w nich została zwiększona do sześciu, co było pierwszym razem z platformą głównego nurtu Intel. Jednak jednocześnie nie wprowadzono żadnych zmian na poziomie mikroarchitektury: Coffee Lake to w zasadzie sześciordzeniowy Skylake, zmontowany na podstawie dokładnie tych samych rdzeni obliczeniowych pod względem struktury wewnętrznej, które wyposażone są w powiększoną pamięć podręczną L3 do 12 MB (zgodnie ze standardową zasadą 2 MB na rdzeń) i są połączone zwykłą magistralą pierścieniową.

Jednak pomimo tego, że tak łatwo pozwalamy sobie na mówienie o Coffee Lake „nic nowego”, nie do końca sprawiedliwe jest stwierdzenie, że nie było żadnych zmian. Choć w mikroarchitekturze znowu nic się nie zmieniło, specjaliści Intela musieli włożyć sporo wysiłku, aby sześciordzeniowe procesory zmieściły się na standardowej platformie desktopowej. A wynik był dość przekonujący: sześciordzeniowe procesory pozostały wierne zwykłemu pakietowi termicznemu, a ponadto wcale nie zwalniały częstotliwości taktowania.

W szczególności starszy przedstawiciel generacji Coffee Lake, Core i7-8700K, otrzymał częstotliwość podstawową 3,7 GHz, a w trybie turbo może przyspieszyć do 4,7 GHz. Jednocześnie potencjał podkręcania Coffee Lake, pomimo masywniejszego kryształu półprzewodnika, okazał się jeszcze lepszy niż wszystkich jego poprzedników. Core i7-8700K są często sprowadzane przez zwykłych właścicieli na linię 5 GHz, a takie podkręcanie może być realne nawet bez skalpowania i wymiany wewnętrznego interfejsu termicznego. A to oznacza, że ​​Coffee Lake, choć rozległe, to znaczący krok naprzód.

Wszystko to stało się możliwe wyłącznie dzięki kolejnemu udoskonaleniu procesu technologicznego 14 nm. W czwartym roku jego stosowania do masowej produkcji chipów desktopowych Intelowi udało się osiągnąć naprawdę imponujące wyniki. Zaimplementowana trzecia wersja kodu 14-nm („14++ nm” w oznaczeniach producenta) oraz rearanżacja kryształu półprzewodnikowego pozwoliły znacznie poprawić wydajność pod względem każdego zużytego wata i podnieść całkowitą moc obliczeniową. Być może wraz z wprowadzeniem sześciordzeniowego procesora Intel był w stanie zrobić jeszcze większy krok naprzód niż jakiekolwiek poprzednie ulepszenia mikroarchitektury. A dziś Coffee Lake wygląda na bardzo kuszącą opcję modernizacji starych systemów opartych na wcześniejszych nośnikach mikroarchitektury Core.

Kryptonim Proces techniczny Liczba rdzeni GPU Pamięć podręczna L3, MB Liczba tranzystorów, miliard Powierzchnia kryształu, mm 2
Piaszczysty most 32 nm 4 GT2 8 1,16 216
Most z bluszczu 22 mil 4 GT2 8 1,2 160
Haswell 22 mil 4 GT2 8 1,4 177
Broadwell 14 mil morskich 4 GT3e 6 nie dotyczy ~ 145 + 77 (eDRAM)
Skylake 14 mil morskich 4 GT2 8 nie dotyczy 122
Jezioro Kaby 14+ nm 4 GT2 8 nie dotyczy 126
Jezioro kawy 14 ++ 6 GT2 12 nie dotyczy 150

⇡ Procesory i platformy: specyfikacje

Aby porównać ostatnie siedem generacji Core i7, wzięliśmy starszych przedstawicieli w odpowiednich seriach – po jednym z każdego projektu. Główne cechy tych procesorów przedstawiono w poniższej tabeli.

Rdzeń i7-2700K Rdzeń i7-3770K Rdzeń i7-4790K Rdzeń i7-5775C Rdzeń i7-6700K Rdzeń i7-7700K Rdzeń i7-8700K
Kryptonim Piaszczysty most Most z bluszczu Haswell (Diabelski Kanion) Broadwell Skylake Jezioro Kaby Jezioro kawy
Technologia produkcji, nm 32 22 22 14 14 14+ 14++
Data wydania 23.10.2011 29.04.2012 2.06.2014 2.06.2015 5.08.2015 3.01.2017 5.10.2017
Jądra / wątki 4/8 4/8 4/8 4/8 4/8 4/8 6/12
Częstotliwość podstawowa, GHz 3,5 3,5 4,0 3,3 4,0 4,2 3,7
Częstotliwość Turbo Boost, GHz 3,9 3,9 4,4 3,7 4,2 4,5 4,7
Pamięć podręczna L3, MB 8 8 8 6 (+128 MB pamięci eDRAM) 8 8 12
Obsługa pamięci DDR3-1333 DDR3-1600 DDR3-1600 DDR3L-1600 DDR4-2133 DDR4-2400 DDR4-2666
Rozszerzenia zestawu instrukcji AVX AVX AVX2 AVX2 AVX2 AVX2 AVX2
Zintegrowana karta graficzna HD 3000 (12 UE) HD 4000 (16 UE) HD 4600 (20 UE) Iris Pro 6200 (48 EU) HD 530 (24 UE) HD 630 (24 UE) UHD 630 (24 UE)
Maks. częstotliwość rdzenia graficznego, GHz 1,35 1,15 1,25 1,15 1,15 1,15 1,2
Wersja PCI Express 2.0 3.0 3.0 3.0 3.0 3.0 3.0
Linie PCI Express 16 16 16 16 16 16 16
TDP, W 95 77 88 65 91 91 95
Gniazdo elektryczne LGA1155 LGA1155 LGA1150 LGA1150 LGA1151 LGA1151 LGA1151v2
Oficjalna cena $332 $332 $339 $366 $339 $339 $359

Co ciekawe, w ciągu siedmiu lat od premiery Sandy Bridge Intel nie był w stanie zauważalnie zwiększyć częstotliwości taktowania. Pomimo tego, że proces produkcji technologicznej zmienił się dwukrotnie, a mikroarchitektura została poważnie zoptymalizowana dwa razy, dzisiejszy Core i7 nie posunął się zbytnio pod względem częstotliwości pracy. Najnowszy Core i7-8700K ma nominalną częstotliwość 3,7 GHz, czyli tylko o 6 procent wyższą niż częstotliwość Core i7-2700K z 2011 roku.

Takie porównanie nie jest jednak do końca poprawne, bo Coffee Lake ma półtora raza więcej rdzeni przetwarzających. Jeśli skupisz się na czterordzeniowym Core i7-7700K, wzrost częstotliwości wygląda jeszcze bardziej przekonująco: ten procesor przyspieszył w stosunku do 32-nm Core i7-2700K o dość znaczące 20 procent w przeliczeniu na megaherce. Choć i tak trudno nazwać to imponującym przyrostem: w wartościach bezwzględnych przekłada się to na wzrost o 100 MHz rocznie.

Nie ma też przełomów w innych cechach formalnych. Intel nadal dostarcza wszystkim swoim procesorom indywidualną pamięć podręczną L2 o wielkości 256 KB na rdzeń, a także współdzieloną pamięć podręczną L3 dla wszystkich rdzeni, której wielkość określana jest na 2 MB na rdzeń. Innymi słowy, głównym czynnikiem, który poczynił największy postęp, jest liczba rdzeni. Rozwój rdzeni rozpoczął się od procesorów czterordzeniowych, a doszedł do procesorów sześciordzeniowych. Co więcej, wiadomo, że to nie koniec, a w niedalekiej przyszłości zobaczymy ośmiordzeniowe wersje Coffee Lake (lub Whisky Lake).

Jednak, jak łatwo zauważyć, polityka cenowa Intela pozostaje prawie niezmieniona od siedmiu lat. Nawet sześciordzeniowy Coffee Lake wzrósł tylko o sześć procent w porównaniu z poprzednimi czterordzeniowymi flagowcami. Cała reszta starszych procesorów klasy Core i7 dla platformy masowej zawsze kosztowała konsumentów około 330-340 USD.

Ciekawe, że największe zmiany zaszły nawet nie z samymi procesorami, ale z ich obsługą pamięci RAM. Przepustowość dwukanałowej pamięci SDRAM podwoiła się od czasu premiery Sandy Bridge do dziś: z 21,3 GB/s do 41,6 GB/s. I to jest kolejna ważna okoliczność, która decyduje o przewadze nowoczesnych systemów kompatybilnych z szybkimi pamięciami DDR4.

W każdym razie przez te wszystkie lata reszta platformy ewoluowała wraz z procesorami. Jeśli mówimy o głównych kamieniach milowych w rozwoju platformy, to oprócz zwiększenia szybkości kompatybilnej pamięci, chciałbym również zwrócić uwagę na pojawienie się wsparcia dla interfejsu graficznego PCI Express 3.0. Wydaje się, że szybka pamięć i szybka magistrala graficzna, wraz z postępem w częstotliwościach i architekturze procesorów, są potężnymi powodami, dla których nowoczesne systemy są lepsze i szybsze niż w przeszłości. Obsługa DDR4 SDRAM pojawiła się w Skylake, a przeniesienie magistrali procesora PCI Express na trzecią wersję protokołu miało miejsce w Ivy Bridge.

Ponadto zauważalny został rozwój towarzyszących procesorom zestawów logiki systemowej. Rzeczywiście, dzisiejsze chipsety Intela z trzysetnej serii mogą oferować znacznie ciekawsze funkcje w porównaniu z Intel Z68 i Z77, które były używane w płytach głównych LGA1155 dla procesorów generacji Sandy Bridge. Łatwo to sprawdzić na podstawie poniższej tabeli, w której zebraliśmy cechy flagowych chipsetów Intela dla platformy masowej.

P67 / Z68 Z77 Z87 Z97 Z170 Z270 Z370
Kompatybilność procesora Piaszczysty most
Most z bluszczu
Haswell Haswell
Broadwell
Skylake
Jezioro Kaby
Jezioro kawy
Berło DMI 2.0 (2 GB/s) DMI 3.0 (3,93 GB/s)
Standard PCI Express 2.0 3.0
Linie PCI Express 8 20 24
Obsługa PCIe M.2 Nie
Jest
Tak, do 3 urządzeń
Obsługa PCI Jest Nie
SATA 6 Gb/s 2 6
SATA 3 Gb/s 4 0
USB 3.1 Gen2 0
USB 3.0 0 4 6 10
USB 2.0 14 10 8 4

W nowoczesnych zestawach logicznych możliwości łączenia szybkich nośników danych znacznie się rozwinęły. Co najważniejsze, dzięki przejściu chipsetów na magistralę PCI Express 3.0, dziś w wysokowydajnych zespołach można używać szybkich dysków NVMe, które nawet w porównaniu z dyskami SATA SSD mogą oferować zauważalnie lepszą responsywność oraz szybsze prędkości odczytu i zapisu . Już samo to może stać się mocnym argumentem na rzecz modernizacji.

Ponadto nowoczesne zestawy logiki systemowej zapewniają znacznie bogatsze możliwości podłączania dodatkowych urządzeń. I nie mówimy tylko o znacznym wzroście liczby linii PCI Express, co zapewnia obecność kilku dodatkowych gniazd PCIe na płytach, zastępujących konwencjonalne PCI. Po drodze dzisiejsze chipsety mają również natywną obsługę portów USB 3.0, a wiele nowoczesnych płyt głównych jest wyposażonych w porty USB 3.1 Gen2.

⇡ Opis systemów testowych i metod testowania

Aby przetestować siedem zasadniczo różnych procesorów Intel Core i7 wydanych w ciągu ostatnich siedmiu lat, musieliśmy złożyć cztery platformy z gniazdami procesorów LGA1155, LGA1150, LGA1151 i LGA1151v2. Zestaw komponentów, które okazały się do tego niezbędne, opisuje poniższa lista:

  • Procesory:
    • Intel Core i7-8700K (Coffee Lake, 6 rdzeni + HT, 3,7-4,7 GHz, 12 MB L3);
    • Intel Core i7-7700K (Kaby Lake, 4 rdzenie + HT, 4,2-4,5 GHz, 8 MB L3);
    • Intel Core i7-6700K (Skylake, 4 rdzenie, 4,0-4,2 GHz, 8 MB L3);
    • Intel Core i7-5775C (Broadwell, 4 rdzenie, 3,3-3,7 GHz, 6 MB L3, 128 MB L4);
    • Intel Core i7-4790K (Haswell Refresh, 4 rdzenie + HT, 4,0-4,4 GHz, 8 MB L3);
    • Intel Core i7-3770K (Ivy Bridge, 4 rdzenie + HT, 3,5-3,9 GHz, 8 MB L3);
    • Intel Core i7-2700K (Sandy Bridge, 4 rdzenie + HT, 3,5-3,9 GHz, 8 MB L3).
    • Chłodnica procesora: Noctua NH-U14S.
  • Płyty główne:
    • ASUS ROG Maximus X Hero (LGA1151v2, Intel Z370);
    • ASUS ROG Maximus IX Hero (LGA1151, Intel Z270);
    • ASUS Z97-Pro (LGA1150, Intel Z97);
    • ASUS P8Z77-V Deluxe (LGA1155, Intel Z77).
  • Pamięć:
    • 2 × 8 GB DDR3-2133 SDRAM, 9-11-11-31 (G.Skill TridentX F3-2133C9D-16GTX);
    • 2 × 8 GB DDR4-3200 SDRAM, 16-16-16-36 (G.Skill Trident Z RGB F4-3200C16D-16GTZR).
    • Karta graficzna: NVIDIA Titan X (GP102, 12 GB/384-bit GDDR5X, 1417-1531/10000 MHz).
    • Podsystem dyskowy: Samsung 860 PRO 1TB (MZ-76P1T0BW).
    • Zasilacz: Corsair RM850i ​​(80 Plus Gold, 850W).

Testy przeprowadzono w systemie Microsoft Windows 10 Enterprise (v1709) kompilacja 16299 przy użyciu następującego zestawu sterowników:

  • Sterownik chipsetu Intel 10.1.1.45;
  • Sterownik interfejsu Intel Management Engine 11.7.0.1017;
  • Sterownik NVIDIA GeForce 391.35.

Opis narzędzi wykorzystywanych do pomiaru wydajności obliczeniowej:

Złożone testy porównawcze:

  • Futuremark PCMark 10 Professional Edition 1.0.1275 - Testowanie w scenariuszach Niezbędne (typowa praca przeciętnego użytkownika: uruchamianie aplikacji, surfowanie po Internecie, wideokonferencje), Produktywność (praca biurowa z edytorem tekstu i arkuszami kalkulacyjnymi), Tworzenie treści cyfrowych (treści cyfrowe tworzenie: edycja zdjęć, nieliniowa edycja wideo, renderowanie i wizualizacja modeli 3D). Akceleracja sprzętowa OpenCL została wyłączona podczas testów.
  • Futuremark 3DMark Professional Edition 2.4.4264 - testowanie na scenie Time Spy Extreme 1.0.

Aplikacje:

  • Adobe Photoshop CC 2018 - testowanie wydajności przetwarzania grafiki. Mierzy średni czas wykonania skryptu testowego, który jest twórczo przerobionym testem szybkości Retouch Artists Photoshop, który obejmuje typowe przetwarzanie czterech 24-megapikselowych zdjęć zrobionych aparatem cyfrowym.
  • Adobe Photoshop Lightroom Classic CC 7.1 - testowanie wydajności do przetwarzania wsadowego serii obrazów w formacie RAW. Scenariusz testowy obejmuje przetwarzanie końcowe i eksport JPEG w rozdzielczości 1920 × 1080 oraz maksymalną jakość dwustu obrazów RAW 16 MP wykonanych aparatem cyfrowym Fujifilm X-T1.
  • Adobe Premiere Pro CC 2018 — Testy wydajności pod kątem nieliniowej edycji wideo. Mierzy czas renderowania do H.264 projektu Blu-Ray zawierającego materiał HDV 1080p25 z różnymi nakładkami efektów.
  • Blender 2.79b - testowanie szybkości końcowego renderowania w jednym z popularnych darmowych pakietów do tworzenia grafiki trójwymiarowej. Mierzony jest czas potrzebny do zbudowania ostatecznego modelu z Blender Cycles Benchmark rev4.
  • Corona 1.3 - testowanie szybkości renderowania za pomocą renderera o tej samej nazwie. Mierzy szybkość kompilacji standardowej sceny BTR używanej do pomiaru wydajności.
  • Google Chrome 65.0.3325.181 (64-bit) - testowanie wydajności aplikacji internetowych zbudowanych przy użyciu nowoczesnych technologii. Wykorzystywany jest specjalistyczny test WebXPRT 3, który implementuje algorytmy faktycznie wykorzystywane w aplikacjach internetowych w HTML5 i JavaScript.
  • Microsoft Visual Studio 2017 (15.1) - mierzący czas kompilacji dużego projektu MSVC - profesjonalny pakiet do tworzenia grafiki trójwymiarowej Blender w wersji 2.79b.
  • Sztokfisz 9 - testowanie prędkości popularnego silnika szachowego. Mierzona jest szybkość wyliczania opcji w pozycji „1q6 / 1r2k1p1 / 4pp1p / 1P1b1P2 / 3Q4 / 7P / 4B1P1 / 2R3K1 w”;
  • V-Ray 3.57.01 - testowanie wydajności popularnego systemu renderowania przy użyciu standardowej aplikacji V-Ray Benchmark;
  • VeraCrypt 1.22.9 - testowanie wydajności kryptograficznej. Używany jest benchmark wbudowany w program, który wykorzystuje potrójne szyfrowanie Kuznyechik-Serpent-Camellia.
  • WinRAR 5.50 - testowanie szybkości archiwizacji. Mierzony jest czas potrzebny archiwizatorowi do skompresowania katalogu z różnymi plikami o łącznej objętości 1,7 GB. Stosowany jest maksymalny stopień kompresji.
  • x264 r2851 - testowanie szybkości transkodowania wideo do formatu H.264/AVC. Aby ocenić wydajność, oryginał [e-mail chroniony] Plik wideo AVC o przepływności około 30 Mb/s.
  • x265 2,4 + 14 8bpp - testowanie szybkości transkodowania wideo do obiecującego formatu H.265/HEVC. Aby ocenić wydajność, używany jest ten sam plik wideo, co w teście szybkości transkodowania x264.

Gry:

  • Popioły Osobliwości. Rozdzielczość 1920 × 1080: DirectX 11, profil jakości = wysoka, MSAA = 2x. Rozdzielczość 3840 x 2160: DirectX 11, profil jakości = ekstremalny, MSAA = wyłączony.
  • Assassin's Creed: Początek. Rozdzielczość 1920 × 1080: Jakość grafiki = Bardzo wysoka. Rozdzielczość 3840 × 2160: Jakość grafiki = Bardzo wysoka.
  • Pole bitwy 1. Rozdzielczość 1920 × 1080: DirectX 11, jakość grafiki = Ultra. Rozdzielczość 3840x2160: DirectX 11, jakość grafiki = Ultra.
  • Cywilizacja VI. Rozdzielczość 1920 x 1080: DirectX 11, MSAA = 4x, Wpływ na wydajność = Ultra, Wpływ na pamięć = Ultra. Rozdzielczość 3840x2160: DirectX 11, MSAA = 4x, wpływ na wydajność = Ultra, wpływ na pamięć = Ultra.
  • Far Cry 5. Rozdzielczość 1920 × 1080: Jakość grafiki = Ultra, Antyaliasing = TAA, Rozmycie ruchu = Wł. Rozdzielczość 3840 x 2160: Jakość grafiki = Ultra, Antyaliasing = TAA, Rozmycie ruchu = Wł.
  • Grand Theft Auto V. Rozdzielczość 1920 × 1080: Wersja DirectX = DirectX 11, FXAA = Wył., MSAA = x4, NVIDIA TXAA = Wył., Gęstość zaludnienia = Maksimum, Zróżnicowanie populacji = Maksimum, Skalowanie odległości = Maksimum, Jakość tekstury = Bardzo wysoka, Jakość cieniowania = bardzo wysoka, jakość cieni = bardzo wysoka, jakość odbicia = ultra, odbicie MSAA = x4, jakość wody = bardzo wysoka, jakość cząstek = bardzo wysoka, jakość trawy = ultra, miękki cień = najdelikatniejszy, post FX = ultra, In Efekty głębi pola w grze = włączone, filtrowanie anizotropowe = x16, okluzja otoczenia = wysoka, teselacja = bardzo wysoka, długie cienie = włączone, cienie o wysokiej rozdzielczości = włączone, strumieniowanie o dużej szczegółowości podczas lotu = włączone, rozszerzone skalowanie odległości = maksymalna, rozszerzone Odległość cieni = maksymalna. Rozdzielczość 3840x2160: Wersja DirectX = DirectX 11, FXAA = Wył., MSAA = Wył., NVIDIA TXAA = Wył., Gęstość zaludnienia = Maksimum, Zróżnicowanie populacji = Maksimum, Skalowanie odległości = Maksimum, Jakość tekstury = Bardzo wysoka, Jakość cieniowania = Bardzo wysoka, Cień Jakość = bardzo wysoka, jakość odbicia = ultra, odbicie MSAA = x4, jakość wody = bardzo wysoka, jakość cząstek = bardzo wysoka, jakość trawy = ultra, miękki cień = najdelikatniejszy, post FX = ultra, efekty głębi ostrości w grze = Włączone, Filtrowanie anizotropowe = x16, Okluzja otoczenia = Wysoka, Teselacja = Bardzo duża, Długie cienie = Włączone, Cienie o wysokiej rozdzielczości = Włączone, Strumieniowanie o dużej szczegółowości podczas lotu = Włączone, Rozszerzone skalowanie odległości = Maksimum, Rozszerzona odległość cieni = Maksimum.
  • Wiedźmin 3: Dziki Gon. Rozdzielczość 1920 × 1080, wstępne ustawienie grafiki = Ultra, wstępne ustawienie postprocessingu = wysokie. Rozdzielczość 3840 × 2160, wstępne ustawienie grafiki = Ultra, wstępne ustawienie postprocessingu = wysokie.
  • Total War: Warhammer II. Rozdzielczość 1920 × 1080: DirectX 12, Jakość = Ultra. Rozdzielczość 3840 x 2160: DirectX 12, Jakość = Ultra.
  • Watch Dogs 2. Rozdzielczość 1920 × 1080: Pole widzenia = 70 °, Gęstość pikseli = 1,00, Jakość grafiki = Ultra, Dodatkowe szczegóły = 100%. Rozdzielczość 3840x2160: pole widzenia = 70 °, gęstość pikseli = 1,00, jakość grafiki = Ultra, dodatkowe szczegóły = 100%.

We wszystkich testach gier wyniki to średnia liczba klatek na sekundę, a także 0,01-kwantyl (pierwszy percentyl) dla wartości fps. Zastosowanie 0,01-kwantyla zamiast wskaźników minimalnych fps wynika z chęci oczyszczenia wyników z losowych skoków wydajności, które zostały wywołane przyczynami niezwiązanymi bezpośrednio z działaniem głównych komponentów platformy.

⇡ Wydajność w złożonych benchmarkach

Kompleksowy test PCMark 8 pokazuje średnią ważoną wydajność systemu podczas pracy w typowych, powszechnych aplikacjach różnego rodzaju. I dobrze ilustruje postęp, jaki procesory Intela przechodziły na każdym etapie zmian konstrukcyjnych. Jeśli mówimy o podstawowym scenariuszu Essentials, to średni przyrost prędkości dla każdej generacji nie przekracza osławionych 5 procent. Wyróżnia się jednak na ogólnym tle Core i7-4790K, który dzięki ulepszeniom w mikroarchitekturze i zwiększeniu częstotliwości taktowania był w stanie zapewnić dobry skok wydajności poza przeciętny poziom. Ten skok widać w scenariuszu Productivity, zgodnie z którym szybkość Core i7-4790K jest porównywalna z wydajnością starszych procesorów z rodzin Skylake, Kaby Lake i Coffee Lake.

Trzeci scenariusz, Digital Content Creation, który łączy zadania twórcze wymagające dużej ilości zasobów, daje zupełnie inny obraz. Tutaj świeży Core i7-8700K może pochwalić się 80-procentową przewagą nad Core i7-2700K, który można uznać za więcej niż godny wynik siedmiu lat ewolucji mikroarchitektury. Oczywiście znaczną część tej przewagi tłumaczy wzrost liczby rdzeni obliczeniowych, ale nawet jeśli porównamy wydajność czterordzeniowego Core i7-2700K i Core i7-7700K, to w tym przypadku wzrost prędkości osiąga solidne 53 proc.

Syntetyczny benchmark gier 3DMark jeszcze bardziej podkreśla zalety nowych procesorów. Korzystamy ze scenariusza Time Spy Extreme, który ma ulepszone optymalizacje dla architektur wielordzeniowych, a ostateczna ocena Core i7-8700K jest prawie trzykrotnie wyższa niż Core i7-2700K. Ale podwójną przewagę nad Sandy Bridge wykazuje także przedstawiciel generacji Kaby Lake, która, podobnie jak wszyscy jej poprzednicy, ma cztery rdzenie przetwarzające.

Co ciekawe, najbardziej udaną poprawę oryginalnej mikroarchitektury, sądząc po wynikach, należy uznać za przejście z Ivy Bridge do Haswell - na tym etapie, według 3D Mark, wydajność wzrosła o 34 procent. Jednak Coffee Lake oczywiście też ma się czym pochwalić, jednak procesory Intela z lat 2017-2018 mają dokładnie taką samą mikroarchitekturę jak Skylake i wyróżniają się wyłącznie rozbudowanym wzmocnieniem – wzrostem liczby rdzeni.

⇡ Wydajność w aplikacjach wymagających dużej ilości zasobów

Ogólnie wydajność aplikacji znacznie wzrosła w ciągu ostatnich siedmiu lat ewolucji procesorów firmy Intel. I tu nie mówimy o tych pięciu procentach rocznie, o których w szeregach intelektualistów-nienawidzi się zwyczajowo żartować. Dzisiejsze Core i7 są ponad dwukrotnie większe od swoich poprzedników z 2011 roku. Oczywiście dużą rolę odegrało tutaj przejście na system sześciordzeniowy, ale ulepszenia mikroarchitektoniczne i wzrost częstotliwości taktowania wniosły znaczący wkład. Najskuteczniejszym projektem pod tym względem był Haswell. Znacząco zwiększyło to częstotliwość, a także pojawiło się wsparcie dla instrukcji AVX2, które stopniowo stawało się silniejsze w aplikacjach do pracy z treściami multimedialnymi oraz w zadaniach renderowania.

Warto zauważyć, że w wielu przypadkach modernizacja procesorów w systemach, na których rozwiązywane są zadania zawodowe, może zapewnić naprawdę przełomową poprawę szybkości działania. W szczególności trzykrotny wzrost wydajności podczas przechodzenia z Sandy Bridge do Coffee Lake można uzyskać podczas transkodowania wideo za pomocą nowoczesnych koderów, a także podczas końcowego renderowania przy użyciu V-Ray. Odnotowano również dobry wzrost w przypadku nieliniowej edycji wideo w programie Adobe Premiere Pro. Jednak nawet jeśli Twoja działalność nie jest bezpośrednio związana z rozwiązywaniem takich problemów, w żadnej z testowanych przez nas aplikacji wzrost wyniósł co najmniej 50 proc.

Wykonanie:

Obróbka zdjęć:

Przetwarzanie wideo:

Transkodowanie wideo:

Kompilacja:

Archiwizacja:

Szyfrowanie:

Szachy:

Przeglądanie Internetu:

Aby lepiej wyobrazić sobie, jak zmieniła się moc procesorów Intela wraz ze zmianą ostatnich siedmiu generacji mikroarchitektury, przygotowaliśmy specjalną tabelę. Pokazuje wartości procentowe średniego przyrostu wydajności w aplikacjach wymagających dużej ilości zasobów, uzyskanego przy zmianie z jednego flagowego procesora z serii Core i7 na inny.

Jak widać, Coffee Lake okazała się być najważniejszą aktualizacją projektową dla głównych procesorów Intela. 1,5-krotny wzrost liczby rdzeni daje znaczne przyspieszenie prędkości, dzięki czemu przy przejściu na Core i7-8700K można uzyskać bardzo zauważalne przyspieszenie nawet z procesorami ostatnich generacji. Porównywalny wzrost wydajności Intel odnotował od 2011 roku tylko raz - wraz z wprowadzeniem konstrukcji procesora Haswell (ulepszonej przez Devil's Canyon). Potem było to spowodowane poważnymi zmianami w mikroarchitekturze, które zostały przeprowadzone jednocześnie z zauważalnym wzrostem częstotliwości zegara.

⇡ Wydajność w grach

Użytkownicy aplikacji intensywnie korzystających z zasobów dobrze dostrzegają fakt, że wydajność procesorów Intela stale rośnie. Jednak wśród graczy jest inne zdanie. Mimo to gry, nawet te najnowocześniejsze, nie wykorzystują zestawów instrukcji wektorowych, są słabo zoptymalizowane pod kątem wielowątkowości i generalnie skalują swoją wydajność w znacznie wolniejszym tempie ze względu na to, że oprócz zasobów obliczeniowych również potrzebują grafika. Więc czy ma sens uaktualnianie procesorów dla tych, którzy używają komputerów głównie do gier?

Spróbujmy odpowiedzieć również na to pytanie. Na początek wyniki testów prezentujemy w rozdzielczości FullHD, gdzie zależność od procesora manifestuje się silniej, ponieważ karta graficzna nie jest poważnym ograniczeniem dla wskaźnika fps i pozwala procesorom wyraźniej zademonstrować swoje możliwości.

Sytuacja jest podobna w różnych grach, więc przyjrzyjmy się średnim relatywnym wskaźnikom wydajności gier w FullHD. Są one podsumowane w poniższej tabeli, która pokazuje zyski uzyskane przy przejściu z jednego flagowego procesora z serii Core i7 na inny.

Rzeczywiście, wydajność gier skaluje się znacznie mniej, gdy wypuszczane są nowe generacje procesorów, niż w aplikacjach. Gdyby można było powiedzieć, że w ciągu ostatnich siedmiu lat procesory Intela podwoiły się, to pod względem aplikacji do gier Core i7-8700K jest tylko o 36 procent szybszy niż Sandy Bridge. A jeśli porównać najnowszego Core i7 z jakimś Haswellem, to przewaga Core i7-8700K wyniesie tylko 11 procent, mimo 1,5-krotnego wzrostu liczby rdzeni przetwarzających. Wygląda na to, że gracze, którzy nie chcą aktualizować swoich systemów LGA1155, mają poniekąd rację. Nie zbliżą się nawet do zdobycia tylu twórców treści, co twórcy treści.

Różnica w wynikach jest dość słaba, ogólna sytuacja wygląda następująco.

Okazuje się, że gracze 4K – posiadacze procesorów Core i7-4790K i późniejszych – nie mają się teraz czym martwić. Dopóki na rynek nie wejdzie nowa generacja akceleratorów graficznych, z obciążeniem w grach w ultrawysokich rozdzielczościach, takie procesory nie okażą się wąskim gardłem, a wydajność jest całkowicie ograniczona przez kartę graficzną. Modernizacja procesora może mieć sens tylko dla systemów wyposażonych w retroprocesory Sandy Bridge lub Ivy Bridge, ale nawet w tym przypadku wzrost liczby klatek na sekundę nie przekroczy 6-9 proc.

⇡ Pobór mocy

Interesujące byłoby uzupełnienie testów wydajności o pomiary zużycia energii. W ciągu ostatnich siedmiu lat Intel dwukrotnie i sześciokrotnie zmieniał standardy technologiczne – deklarowany zakres pakietu termicznego. Ponadto procesory Haswell i Broadwell, w przeciwieństwie do innych, wykorzystywały zasadniczo inny schemat zasilania i były wyposażone w zintegrowany konwerter napięcia. Wszystko to oczywiście w jakiś sposób wpłynęło na realną konsumpcję.

Zastosowany przez nas w systemie testowym cyfrowy zasilacz Corsair RM850i ​​pozwala nam kontrolować pobieraną i emitowaną moc elektryczną, którą wykorzystujemy do pomiarów. Poniższy wykres przedstawia całkowite zużycie energii przez system (bez monitora) mierzone „za” zasilaniem, które jest sumą zużycia energii przez wszystkie komponenty biorące udział w systemie. Wydajność samego zasilacza nie jest w tym przypadku brana pod uwagę.

W stanie bezczynności sytuacja zasadniczo się zmieniła wraz z wprowadzeniem konstrukcji Broadwell, kiedy Intel przeszedł na technologię procesową 14 nm i wprowadził do obiegu głębsze tryby oszczędzania energii.

Podczas renderowania okazuje się, że wzrost liczby rdzeni przetwarzających w Coffee Lake ma znaczący wpływ na jego pobór mocy. Ten procesor stał się znacznie bardziej żarłoczny niż jego poprzednicy. Najbardziej ekonomicznymi przedstawicielami serii Core i7 są nośniki mikroarchitektur Broadwell i Ivy Bridge, co jest dość zgodne z charakterystyką TDP, którą deklaruje im Intel.

Co ciekawe, przy najwyższych obciążeniach zużycie Core i7-8700K jest podobne do zużycia przez procesor Devil's Canyon i nie wydaje się już tak szokujące. Ogólnie rzecz biorąc, apetyty energetyczne procesorów Core i7 różnych generacji różnią się bardzo wyraźnie, a nowsze modele procesorów nie zawsze stają się bardziej ekonomiczne niż ich poprzednicy. Duży krok w poprawie charakterystyki zużycia i rozpraszania ciepła został wykonany w generacji Ivy Bridge, ponadto Kaby Lake nie jest pod tym względem zły. Teraz jednak wydaje się, że poprawa efektywności energetycznej flagowych procesorów do komputerów stacjonarnych nie jest już ważnym zadaniem dla Intela.

Dodatek: wydajność przy tej samej częstotliwości zegara

Testy porównawcze masowych procesorów Core i7 różnych generacji mogą być interesujące, nawet jeśli wszyscy uczestnicy są doprowadzeni do jednej częstotliwości zegara. Często wydajność nowszych przedstawicieli jest wyższa ze względu na fakt, że Intel zwiększa w nich częstotliwości taktowania. Testy z tą samą częstotliwością pozwalają wyizolować z wyniku ogólnego, tylko pośrednio, składową częstotliwościową, która zależy od mikroarchitektury i skoncentrować się na kwestiach „intensyfikacji”.

Wydajność mierzona bez względu na częstotliwość taktowania może również zainteresować entuzjastów, którzy używają procesorów poza trybami nominalnymi, przy częstotliwościach bardzo różniących się od wartości nominalnych. Kierując się tymi rozważaniami, postanowiliśmy dodać do praktycznego porównania dodatkową dyscyplinę – testy wszystkich procesorów na tej samej częstotliwości 4,5 GHz. Ta wartość częstotliwości została wybrana ze względu na fakt, że podkręcenie do niej prawie każdego procesora Intela z ostatnich lat nie jest trudne. Z takiego porównania trzeba było wykluczyć tylko przedstawiciela generacji Broadwell, ponieważ potencjał podkręcania Core i7-5775C jest niezwykle ograniczony i nie można było nawet marzyć o przejmowaniu częstotliwości 4,5 GHz. Pozostałe sześć procesorów przeszło kolejny cykl testowy.

Nawet jeśli pominiemy fakt, że częstotliwości procesorów Intela rosną przynajmniej powoli, Core i7 z każdą nową generacją jest coraz lepszy tylko dzięki zmianom konstrukcyjnym i optymalizacji w mikroarchitekturze. Oceniając wydajność aplikacji do tworzenia i przetwarzania treści cyfrowych, możemy stwierdzić, że średni wzrost określonej produktywności na każdym etapie wynosi około 15 procent.

Jednak w grach, w których optymalizacja kodu programu dla nowoczesnych mikroarchitektur następuje z dużym opóźnieniem, sytuacja ze wzrostem wydajności jest nieco inna:

Gry wyraźnie pokazują, jak rozwój mikroarchitektur Intela zatrzymał się na generacji Skylake, a nawet wzrost liczby rdzeni obliczeniowych w Coffee Lake w niewielkim stopniu wpływa na zwiększenie wydajności w grach.

Oczywiście brak wzrostu wydajności w grach nie oznacza, że ​​nowsze Core i7 są nieciekawe dla graczy. Na koniec należy pamiętać, że powyższe wyniki dotyczą liczby klatek na sekundę dla procesorów pracujących z tą samą częstotliwością zegara, a nowsze procesory mają nie tylko wyższe częstotliwości nominalne, ale także znacznie lepiej podkręcają niż stare. Oznacza to, że overclockerzy mogą być zainteresowani przejściem na Coffee Lake nie ze względu na jej mikroarchitekturę, która nie zmieniła się od czasów Skylake, a nie z powodu sześciu rdzeni, które dają minimalny wzrost szybkości w grach, ale z innego powodu. dzięki możliwościom overclockingu. W szczególności przejęcie linii 5-gigahercowej dla Coffee Lake jest dość wykonalnym zadaniem, czego nie można powiedzieć o jego poprzednikach.

⇡ Wniosek

Tak się złożyło, że zwyczajowo krytykuje się Intela za strategię wyważonego i niespiesznego wdrażania ulepszeń w architekturze rdzenia, która została wybrana w ostatnich latach, co daje niezbyt zauważalny wzrost wydajności przy przechodzeniu do każdej kolejnej generacji Procesory. Szczegółowe testy pokazują jednak, że generalnie rzeczywista wydajność nie rośnie w tak powolnym tempie. Musisz tylko wziąć pod uwagę dwie kwestie. Po pierwsze, wiele ulepszeń dodawanych do nowych procesorów nie ujawnia się od razu, a dopiero po pewnym czasie, gdy oprogramowanie uzyska odpowiednie optymalizacje. Po drugie, aczkolwiek niewielka, ale stopniowa poprawa produktywności występująca co roku w sumie daje bardzo istotny efekt, jeśli rozpatrzymy sytuację w kontekście dłuższych okresów czasu.

Na potwierdzenie wystarczy przytoczyć jeden bardzo miarodajny fakt: najnowszy Core i7-8700K jest ponad dwukrotnie szybszy od swojego poprzednika z 2011 roku. I nawet jeśli porównamy nowy produkt z procesorem Core i7-4790K, który ukazał się w 2014 roku, okazuje się, że w ciągu czterech lat wydajność zdołała wzrosnąć przynajmniej półtora raza.

Musisz jednak zrozumieć, że powyższe wskaźniki wzrostu dotyczą aplikacji wymagających dużej ilości zasobów do tworzenia i przetwarzania treści cyfrowych. I na tym kończy się przełom: profesjonalni użytkownicy, którzy używają swoich systemów do pracy, czerpią znacznie większe korzyści z ulepszania procesorów niż ci, którzy używają komputera wyłącznie do rozrywki. I chociaż dla twórców treści częste aktualizacje platformy i procesora są więcej niż znaczącym krokiem w kierunku zwiększenia produktywności, rozmowa o graczach jest zupełnie inna.

Gaming to bardzo konserwatywna branża, która bardzo wolno reaguje na wszelkie zmiany w architekturze procesora. Ponadto wydajność gier jest bardziej zależna od wydajności kart graficznych, a nie procesorów. Okazuje się zatem, że użytkownicy systemów do gier widzą rozwój procesorów Intela, jaki dokonał się w ostatnich latach w zupełnie inny sposób. Tam, gdzie „zawodowcy” zgłaszają dwukrotny wzrost wydajności, gracze uzyskują w najlepszym razie tylko 35% wzrost liczby klatek na sekundę. A to oznacza, że ​​pogoń za nowymi generacjami procesorów Intela praktycznie nie ma sensu. Nawet starsze procesory z serii Sandy Bridge i Ivy Bridge mają wystarczającą moc, aby uwolnić potencjał karty graficznej klasy GeForce GTX 1080 Ti.

Tym samym natomiast graczy w nowe procesory może przyciągnąć nie tyle wzrost wydajności, ile nowe możliwości. Mogą to być dodatkowe funkcje, które pojawiają się na nowych platformach, na przykład obsługa szybkich napędów. Albo najlepszy potencjał do przetaktowywania, którego granice, mimo problemów Intela z opanowaniem nowych procesów technologicznych, wciąż są stopniowo przesuwane w coraz bardziej odległe granice. Aby jednak gracze otrzymali wyraźny i zrozumiały sygnał do modernizacji, przede wszystkim musi nastąpić zauważalny wzrost prędkości GPU do gier. Do tego czasu nawet posiadacze procesorów Intela sprzed siedmiu lat nadal będą czuli się całkowicie niepozbawieni wydajności procesora.

Niemniej jednak ta sytuacja jest w stanie zmienić procesory generacji Coffee Lake. Wzrost liczby rdzeni obliczeniowych, który w nich wystąpił (do sześciu, a w przyszłości do ośmiu sztuk) niesie ze sobą potężny ładunek emocjonalny. Z tego powodu Core i7-8700K wydaje się być bardzo udanym upgradem dla niemal każdego użytkownika peceta, ponieważ wielu uważa, że ​​sześciordzeniowe, ze względu na tkwiący w nich potencjał, może pozostać odpowiednią opcją na dłuższy czas. Czy rzeczywiście tak jest, trudno teraz powiedzieć. Ale podsumowując wszystkie powyższe, możemy potwierdzić, że modernizacja systemu z przejściem na Coffee Lake w każdym przypadku ma znacznie większy sens niż opcje aktualizacji, które do tej pory oferował gigant mikroprocesorowy.

Wyprodukowano na mikroarchitekturach Nehalem, Bloomfield i Gulftown. W tym przypadku częstotliwość zegara wewnętrznego oscyluje wokół 3000 MHz. Zintegrowana grafika nie jest obsługiwana przez wszystkie modele. Częstotliwość magistrali danych zwykle nie przekracza 5 GHz na sekundę.

Niektóre konfiguracje są wyposażone w odblokowane mnożniki. Aby dowiedzieć się więcej o procesorach, powinieneś rozważyć Intel Processors Core i7 w określonych mikroarchitekturach.

Procesor w mikroarchitekturze Nehalem

Procesor Core ma taktowanie 2,8 GHz. W tym przypadku dostarczane są cztery rdzenie. Częstotliwość magistrali procesora sięga 2400 MHz. Układ wytrzymuje maksymalne napięcie 1,4 V. Model Intel Core wypuszczany jest na czterech rdzeniach. Ma częstotliwość taktowania 2,53 GHz. Mnożnik procesora jest typu odblokowanego. Główna częstotliwość magistrali oscyluje wokół 2400 MHz. Core i7 2700K jest taktowany 2,93 GHz. Podana modyfikacja dla czterech rdzeni ma gniazdo LGA. Sama częstotliwość magistrali nie przekracza 2400 MHz.

Skład Bloomfield

4720 ma cztery rdzenie. W tym przypadku powierzchnia wióra wynosi 263 mm 2. Sama częstotliwość zegara to 2,6 GHz. Core i7 4730 jest skonfigurowany z czterema rdzeniami. Łącznie zaangażowanych jest w to 731 milionów tranzystorów, a taktowanie procesora wynosi 2,8 GHz. Modyfikacja Intela jest oceniana na 3,07 GHz. W tym przypadku powierzchnia wióra wynosi 263 mm 2. Sam autobus jest dostępny na 213 MHz.

Procesor w mikroarchitekturze Gulftown

Model Core i7 970 jest wypuszczany przez producenta na sześć rdzeni. Jego częstotliwość taktowania nie przekracza 3,2 GHz. Magistrala jest dostępna dla modelu 2660 MHz. Core i7 980 jest taktowany dokładnie 3,3 GHz. Powierzchnia wiórów w tej sytuacji wynosi 239 mm2. Sama magistrala jest dostarczana z częstotliwością 2660 MHz. Procesor tranzystorowy Core i7 990 ma 1170 milionów jednostek. Częstotliwość zegara modelu nie przekracza 3,4 GHz. W tym przypadku obsługiwane jest złącze LGA.

Główne funkcje

Obszar szybkich pamięci w procesorach opartych na mikroarchitekturze Gulftown jest bardzo obszerny, dlatego Intel Core i7 zasługuje na dobre recenzje od właścicieli. Pamięć podręczna jest bezpośrednio związana z architekturą. Jądra modelu są używane dynamicznie. Dzięki temu system zapewnia wysoką wydajność. Jeśli weźmiemy pod uwagę Intel Core i7 4790, to magistrala IM w tym przypadku jest przewidziana dla 5 MHz. Odgrywa ważną rolę w wymianie informacji.

Magistrala systemowa w procesorze mikroarchitektury Gulftown jest używana przez CB. Idealnie nadaje się do przesyłania danych do jednostki sterującej. Interfejs jest dostarczany przez producenta z obsługą MI. Bezpośrednie połączenie odbywa się przez płytę główną. Obsługiwane są przez nią wszystkie główne polecenia operacyjne.

Wydajność

Laptop Intel Core i7 może obsługiwać maksymalnie cztery wątki. W tym przypadku parametr częstotliwości podstawowej jest dość wysoki. Do zamawiania instrukcji dostarczany jest program IP. Samo przetwarzanie danych nie zajmuje dużo czasu. Należy również zauważyć, że parametr częstotliwości taktowania zależy bezpośrednio od szybkości cykli obliczeniowych.

Obliczona moc w procesorach Intel jest podawana za pomocą kropki. Maksymalne ustawienie częstotliwości to 38 GHz. Bezpośrednio moc procesora w mikroarchitekturze Gulftown jest na poziomie 83 watów. Podczas pracy na częstotliwości podstawowej wszystkie rdzenie są używane w procesorze.

Specyfikacje modułów pamięci

Procesor Intel Core i7 w mikroarchitekturze Gulftown może pochwalić się dużą ilością pamięci. W tym przypadku jest obsługiwany w różnych formatach. Liczba kanałów bezpośrednio wpływa na wydajność systemu. W tej modyfikacji są dwa. Należy również wspomnieć, że procesor Intel obsługuje pamięć flex.

Przepustowość jest na bardzo wysokim poziomie. W takim przypadku odczytanie danych nie zajmuje dużo czasu. Zostało to w dużej mierze osiągnięte dzięki obsłudze pamięci dwukanałowej. Kolejną zaletą tego systemu jest duża szybkość przechowywania danych. Pamięć ECC jest obsługiwana przez procesory. Zainstalowany jest standardowy chipset.

Specyfikacje grafiki

W mikroarchitekturze Gulftown parametr częstotliwości grafiki jest na poziomie 350 MHz. W tym przypadku ważne jest również, aby wziąć pod uwagę szybkość renderowania. Dość silnie wpływa na częstotliwość podstawową. Bezpośrednio podsystem graficzny może znacznie zwiększyć renderowanie.

Wsparcie dla formatu NS jest zapewnione dla modeli Intel. Jeśli weźmiemy pod uwagę Intel Core i7 2600K, maksymalny rozmiar systemu wynosi 1,7 GB. Ta metryka jest bardzo ważna dla obsługi interfejsu. Wpływa również na dostępność pamięci. Aby zwiększyć interakcję komputera osobistego z procesorem, stosowany jest system PPC. Jego rozdzielczość to 4096 x 2304 pikseli.

Bezpośrednie wsparcie

Warto wspomnieć o wsparciu „Direct”. W tym przypadku brane są pod uwagę określone kolekcje programów użytkowych. Seria „Direct” 11.1 doskonale nadaje się do przetwarzania plików systemowych. Jeśli mówimy o komponencie graficznym, należy wspomnieć o systemie „Open Graph”. Dość silnie wpływa na obliczanie zadań. W tym przypadku wiele zależy od obsługi plików multimedialnych.

System Libera przeznaczony jest do wyświetlania grafiki dwuwymiarowej. Jeśli mówimy o technologii „Quick Video”, to w tym przypadku należy wziąć pod uwagę szybkość konwersji. Według ekspertów system normalnie współpracuje z przenośnymi odtwarzaczami multimedialnymi. Inna technologia „Quick Video” wpływa na szybkość edycji wideo. Ponadto zapewnia umieszczenie w sieci ważnych informacji dotyczących bezpieczeństwa pracy. Tworzenie filmów za pomocą tej technologii jest bardzo łatwe.

Opcje rozbudowy

Komputer Intel Core i7 korzysta z edycji Express do przesyłania danych. Obecnie istnieje wiele jego wersji, które w rzeczywistości nie różnią się zbytnio. Ogólnie jednak edycja Express jest bardzo ważna, jeśli chodzi o podłączanie różnych urządzeń do komputera osobistego.

Jeśli mówimy o wersji 1.16, to jest w stanie znacznie zwiększyć prędkość przesyłania danych. Określony system może działać tylko z urządzeniami typu PC. Bezpośrednio kanały pozwala na odtwarzanie do 16. W tym przypadku podstawowy modulator centralnego procesora nie jest zaangażowany w przetwarzanie danych.

Technologia ochrony danych

Technologia ta pozwala na pracę z systemem AE, który jest zestawem komend. Dzięki temu możesz szybko wykonać szyfrowanie danych. W takim przypadku proces jest bezpieczny. System AE służy również do odszyfrowywania danych. Zestaw narzędzi programu pozwala na rozwiązywanie szerokiego zakresu zadań. W szczególności system AE jest zdolny do pracy z danymi kryptograficznymi. Dość szybko rozwiązuje problemy z aplikacjami.

Sama technologia „Data Project” została stworzona do odszyfrowywania liczb losowych. Za ich pośrednictwem odbywa się uwierzytelnianie. Dodatkowo należy zauważyć, że technologia „Projekt danych” obejmuje system „Klucz”. Jest przeznaczony do generowania liczb losowych. Bardzo pomaga w tworzeniu unikalnych kombinacji. Ponadto system Kay jest zaangażowany w algorytmy dekodowania. Działa dobrze w celu poprawy szyfrowania danych.

Technologia ochrony platformy

Technologia "Platforms Protection" w CPU "Intel" jest przewidziana dla serii 10.1. Mówiąc o tym, przede wszystkim warto wspomnieć o systemie „Guard”. Został zaprojektowany do bezpiecznej pracy z różnymi aplikacjami. W takim przypadku można z nimi wykonać różne operacje.

System „Guard” służy również do łączenia mikroukładów. Program Trusted służy bezpośrednio do ochrony platform. Pozwala na pracę z cyfrowym biurem. Funkcja mierzalnego uruchamiania jest obsługiwana przez technologię Platform Protection.

Dostępna jest również opcja bezpiecznego wykonywania poleceń. W szczególności system jest w stanie wyizolować niektóre wątki. Jednocześnie uruchomione aplikacje nie mają na nie wpływu. System Anti-Tef służy do anulowania programów sprzętowych. W takim przypadku podatność procesora jest znacznie zmniejszona. System Anti-Tef jest również przeznaczony do walki ze złośliwym oprogramowaniem.