Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

@Rapier (02.09.2019 10:54): Pekné, 3700X je vydarený procesor. 3800X oproti tomu vyzerá ako špatný vtip, takmer dvojnásobná spotreba a identický výkon, v článku ktorý linkuješ bol 3800X pri niektorých hrách dokonca slabší!
Na základě Obrova vysoce odborného článku to byl vtip! jsem si dovolil stáhnout nový BIOS F4 (předtím F4i) na Gigabyte Auros Pro desku, který má opět Update AGESA 1.0.0.3 ABB, stejně jako F4i).

Výsledky měření s IF=1800 Mhz, RAM na 3600 Mhz CL16 jsou zde.
Dovolím si jen připomenout, že opět mám max. boost na 1 core "jen" 4367 Mhz místo 4400 Mhz se stock chladičem v normal profilu, a také fakt, že se zapnutým PBO na enabled se lehce zvedl multicore výkon, s PBO na auto (default) je multicore výkon o chlup horší. Výsledky z měření jsem vždy dělal v pořadí nejprve zahřát procesor v multicore a ihned poté v single core testu.

Co je zajímavé ale ne překvapivé: s RAM na 3400 Mhz a CL16 + IF=1700 jsem dosahoval dle Aida64 latence pamětí okolo 74-75ns.
s RAM na 3600 Mhz a CL16 + IF=1800 sice Cinebench na single core ukazuje skoro stejné výsledky ale zlepšil se výkon v multicore a to hlavně díky sníženým latencím. Nyní dle Aida64 latecne pamětí jsou okolo 70-71ns, což je sakra rozdíl.

Kdybych měl vzít Obrův článek do huby tak se mi výkon po update BIOSu nesnížil, naopak je stále stejný nebo jsem jen možná měl štěstí v sillicon lottery a můj Ryzen zvládne maximum nebo skoro maximum. S lepším chladičem bych nejspíš v single core dal rovnou 4400 Mhz, možná časem až si ho jednou pořídím.

Co byla ale pecka bylo zjištění, že se zapnutým PBO nešlo všech 8 cores pod 4,3 Ghz v Cinebench R20 multicore testu a fakt, že pouze při zátěži všech 8 jader si Ryzen vzal 100% z 88W dle AMD Ryzen Master utility, při všech single core testech jen okolo 45-50% z 88W.
Teploty v single core max. 60 stupňů celsia, v multicore max. 71 stupňů celsia se stock chladičem v normal profilu.
Tak jsem otestoval na "novém HW" , rozuměj: přetaktovaný Intel Core i5-2400@3,6Ghz, 16GB RAM DDR3 1600 Mhz CL9, GTX 760 2GB, HDD 7200 ot/m SATA II náročný a vizuálně ohromující letecký simulátor DCS World v poslední verzi 2.5.x.
Graficky je simulátor naprostá špička, a tomu také odpovídají krvavé HW nároky, a to nejen v multiplayeru který dokáže vyždímat z PC i poslední kapku. Ostatně posuďte sami.

Když jsem před nějakou dobou řešil problém s HW rovnicí , rozuměj: přetaktovaný Intel Core i5-2400@3,6Ghz, 12GB RAM DDR3 1600 Mhz CL9, a moderní Pascal GPU GTX 1060 6GB, SSHD 7200/ot min SATA III, tak dle testů byl jednoznačně bottleneck na straně CPU. Výkonná GPU, bez ohledu na rozlišení, tzn. Full HD nebo 1440p byla konfrontována s příliš slabým CPU.
Projevovalo se to brutálními FPS dropy, které nakonec vyřešila koupě SSD disku Crucial MX500 500GB.
FPS dropy zmizely, protože přístup k disku byl v porovnání s SSHD ultra rychlý ale přesto všechno, FPS dokázaly jít klidně i pod 20 (je hezké že průměrné FPS byly okolo 45-55, minima jsou to co letce trápí, když se totiž akce ve vzduchu skoro zastaví není to příjemné) ve velmi náročných misích s mnoha AI objekty v pohybu (rozuměj: pozemní a letecká technika) na mapě (v terminologii výrobce heavy mission). MSI Afterburner příliš často v náročných scénách ukazoval vytížení CPU na 100% po relativně dlouhou dobu.

O to více mě překvapilo, že v dnešním testu jsem na starším HW netrpěl FPS dropy (až na čestné výjimky), přestože mapa (preload radius 60 km) se načítala z obyčejného HDD, navíc jen SATA II (300MB/sec), a to vše ve Full HD rozlišení na High Detailech (tak jak je hra sama navolí).
S vypnutými zpětnými zrcátky FPS mezi 40-50, minima někde okolo 30, překvapivě to s horší GPU bylo hratelnější než se silnější. Proč? Protože bottleneck byl na straně GPU, zdaleka ne na straně CPU.
MSI Afterburner ukazoval permanentně 99% zátěž GPU, power limit, občas i temperature limit a nikdy CPU v misi nešlo k 80+% vytížení. Obvykle se vytížení CPU pohybovalo mezi 40-60%.

Co mě lehce šokovalo bylo využití RAM. Věděl jsem že DCS World potřebuje hodně RAM.
Bez SSD disku, dlouho, předlouho trvalo než se celá mise s mapou načetla do RAM a když se tak stalo, RAM se zastavila na ukazateli 13,5 GB! Ta mise byla první v pořadí free flight s SU-25T (testoval jsem jen volně stažitelné DCS World 2.5 ze stránek výrobce bez placených modulů) kde ve vzduchu bylo asi tak odhadem do 10 letadel max. + poměrně dost techniky na zemi, a pochopitelně mnoho statických objektů na mapě.

Aby toho nebylo málo, překvapilo mě také jak je GTX 760 výkonná na to jak je stará, dostal jsem darem Zotac s referenčním chlazením. Battlefield 4 kampaň ve Full HD na ultra detaily mezi 40-50 fps. Dirt Rally ve Full HD na ultra detaily minima nešly pod 60. Arma II opět ve Full HD na nejvyšší detaily a dohlednost 3,6 km okolo 45-55 fps. Teď už chápu proč GTX 760 2GB stačí stále i na dnešní hry, a proč se za 1+ tis prodává na marketplace. :)

Každopádně aby to nezapadlo. Min. u leteckých simulátorů je lepší mít bottleneck na straně GPU, ne na straně CPU. Z toho tedy plyne, že se vyplatí upgrade CPU před GPU, jak jsem tady nedávno rozebíral.

EDIT: málem bych zapomněl. Úplně stejný problém jako v DCS World jsem měl i s Falcon BMS 4, přesněji řečeno s verzí BMS 4.34 z tohoto roku. Na startu v dynamické kampani v Soulu šly FPS ke 30! Bez ohledu na výkonnou GPU GTX 1060 6GB, bez ohledu na Full HD nebo 1440p rozlišení. Když jsem dnes Falcona testoval na té nové sestavě s GTX 760 2GB ve Full HD, tak FPS v kampani na startu od 35-40, ihned po vzletu okolo 45-55!
Dodatečné náklady na koupi chlazení, to je přesně důvod proč vždy kupuji GPU s výkonným a tichým chlazením.

@Samariel (01.09.2019 08:47): ten test je fajn a hezky ukazuje jak v schizofrenní pozici se GPU dnešní doby ocitly. Rozuměj: vysoké ceny, referenční Nvidia modely za opravdu dobré ceny reálně nesehnatelné, nové Navi s průměrnými chladiči z hlediska chlazení i hluku + opět velké příplatky za nijak zvlášť extra nereferenční verze chladiče.

Když je nějaká GPU na úrovni (nejen výkonem samotné GPU ale i výkonným a tichým chlazením) tak stojí obvykle o + 2 tis navíc, jako např. Gainward RTX 2070 Super (15,6k).
@Gordon (01.09.2019 10:05): Není co, je to jen karta. Pravděpodobnost výskytu červích děr s tím taky nebudu provádět :-D Jinak není tak úplně pravda, že mě to nic nestálo. Musel jsem koupit výkonnější zdroj, ale zase ten jsem měl v plánu vícemeně dřív nebo později stejně. No, a teď si hraju s myšlenkou na to accelero. Slyšel jsem o případech, kdy dotyčným ochladil kartu až o 20°. Nebo jestli tam dát rovnou vodníka....No, uvidime.
@Chuck (01.09.2019 09:20): Jo, hele z pohledu poměr cena/HERNÍ výkon to je nejhorší kousek na trhu :-D Tady nvidia sází na to, že ten grafický čip je unikátní v tom, že to můžeš využít naprosto kdekoliv a proto ji dali označení profi, takže cenu si mohli našroubovat. Oni to měli na nějaké výpočty, kde ta karta v době pořízení neměla konkurenci. Jinak ve hrách se to dá porovnat s RTX 2080....
V basic nastavení mi to dokonce dalo pro crossfire:
Load Wattage: 483 W
Recommended PSU Wattage: 533 W

a s jednou RX570:
Load Wattage: 354 W
Recommended PSU Wattage: 404 W
i5 9600K na defaultní zátěž (85%?:)
zkoušel jsem pak i max, ale to už bylo postnutý
zkusil jsem na této prima stránce:
https://outervision.com/power-supply-calculator
zadat procesor, paměti, ssd + hdd, klávesu i myšici, nějaký 120mm? větrák a
pro 2x RX 570 v crossfire mi to hodí:
Load Wattage: 496 W
Recommended UPS rating: 1000 VA
Recommended PSU Wattage: 546 W
Amperage (combined)
+3.3V +5V +12V
10.7 A 8.2 A 34.9 A
77 W 419 W

pro 1x RX 570 mi to hodí:
Load Wattage: 367 W
Recommended UPS rating: 700 VA
Recommended PSU Wattage: 417 W
Amperage (combined)
+3.3V +5V +12V
9.6 A 8.2 A 24.5 A
73 W 294 W

bez grafiky mi to hodí:
Load Wattage: 245 W
Recommended UPS rating: 500 VA
Recommended PSU Wattage: 295 W
Amperage (combined)
+3.3V +5V +12V
8.5 A 8.2 A 14.6 A
70 W 175 W

...na mě to působí, že by možná druhá grafika za 2000,- se stávajícím zdrojem zkusit šla, ale lepší by byl alespoň 550 kW.

Teď je otázka, zda Fortron Hyper M500 dává co slíbil nebo i trošku víc....nebo je to šitka (ale známý co to stavěl říkal, že je slušný...Alzák říká certifikace 80 PLUS Bronze :)
Tak jsem právě přemontoval komponenty do druhého PC (MB Gibabyte GA-P67A-D3-B3, Intel Core i5-2400@3,6Ghz Sandy Bridge, 16 GB DDR3 CL9, SB X-Fi, 500W Seasonic Bronz) a schválně dal do něj ZOTAC GTX 760, přesně tuto verzi.. Překvapuje mě, že pode GPU Z jsou otáčky v OS jen 1050-1080 RPM (30% fan speed), na to že to referenční Nvidia chlazení, tak je takřka neslyšitelné (no trochu to teď v noci za úplného ticha slyším).

Co mě ale překvapilo znovu je starý dobrý Sandy Bridge Intel Core i5-2400@3,6Ghz (ano všechny 4 cores taktované z 3,1 Ghz na 3,6 Ghz). Ze srandy jsem si udělal CPU-Z test a nevěřím vlastním očím.
To jako mám single core výsledek jako Ryzen 5 1600? Wow! Já mám snad vlčí mlhu.
@Toaleťák (30.08.2019 20:15): Na graf se nekoukej. Zkoušel jsem s tím šudlat :)
MSI Afterburner ukazuje 4007 MHz, tedy dvojnásobek té hodnoty "od výrobce".

@Garion (30.08.2019 20:13): Beru to tak, že jeden z těch údajů je špatně. A netuším který.
Ty hodnoty na stránce GPU-Z jsou různé kvůli tomu, že to není v zátěži a VRAM jede na nižší frekvenci.

@Luky_Luk (30.08.2019 20:17): Tohle vypadá jako schopná "utilita" :) odkaz
@Rapier (30.08.2019 17:10): Tak Armor byly použitelné vždy jen na grafikách s nízkým TDP do cca 120 W, tzn. max GTX 1060 nebo max 1660 Ti na Turingu.

Co se týče DLSS vs Sharpeningu co popisuješ, tak tady naprosto souhlasím.
@Kwoky (30.08.2019 19:22): Odpovedi se asi muzou lisit, jednu z nich jsem nasel treba tady. Obecne to vypada (ale presny popis jsem nenasel, jen vyjadreni ruznych uzivatelu), ze hodnoty v tabu "Graphics Card" jsou nactene defaultni hodnoty od vyrobce a hodnoty v tabu "Sensors" jsou aktualni hodnoty. Na oficialni strance GPUZ to taky maji jinak.
Dotaz na znalce.
V GPU-Z mi to ukazuje, že defaultní frekvence VRAM je 2002 MHz (což efektivně odpovídá 8008 MHz a tak je to správně podle výrobce). Když ale překliknu na záložku Sensors, tak to ukazuje "Memory clock" jen 1901,2 MHz.
odkaz
Odpovědi jsem se nedogooglil.
@valcik (28.08.2019 09:04):
@Toaleťák (28.08.2019 10:28):
Jenže podle toho co jsem četl tak utilita Sapphire TrixX na to jde fikaně. Zvolíš si kvalitu, řekněme 80% (rozsah je volitelný) z 4K, 1440p nebo 1080p a ve skutečnosti ve hře zvolíš nižší rozlišení (tedy 80% nativu) a zbytek dopočítá RIS. Ve střílečkách to vypadá skoro jako nativ a musel bys doslova hledat ručně rozdíly v kvalitě, v automobilových hrách je kvalita RIS horší kvůli už tak v dáli rozostřeným objektům ale celkově FPS ve všech 3 běžných rozlišeních jdou dost radikálně nahoru co jsem měl možnost vidět v zahraničních recenzích.

A ano, můžeš upscalovat obraz z 1440p na 4K ale za cenu horší, tedy 50%, kvality, tam pochopitelně bude asi rozdíl mezi DLSS a RIS horší. Jenže DLSS znamená, že musíš počkat na to až vývojář pošle hru do Nvidia kde to super počítač přepočítá a tady to máš okamžitě k dispozici. Neříkám tím, že to je perfektní ale velmi efektní a efektivní, naprosto easy na použití. Škoda je, že to zatím nepodporuje DX11 hry ale jen DX9/12 a Vulkan ale už to samo o sobě je hodně cool.
Už tak výkon velmi blízko RTX 2070 Super jde touto feature dohnat/předehnat(?!).

@marwel (30.08.2019 16:07): souhlasím, jen jsem tím chtěl říct, že Gaming/Armor edice na RTX Super nejsou totéž co bývali na Pascalech a ten jejich Ventus/Mech na Nvidia RTX/ADM RX to je síla. Proti tomu je Pulse od Sapphire na RX ještě přijatelně dobrý.
@Rapier (30.08.2019 15:39): Podivej se na graf hlucnosti. MSI si zabralo pro sebe pet nejlepsich vysledku, takze zase tak moc se casy nemeni. Oni proste produkuji spatne "levne" verze karet. Evoke a Mech jsou toho dukazem. Nejspis uspechane navrhy, podobne jako to udelali treba lide od Gigabyte s levnymi 2060. Vzdy je potreba se na navrhy chlazeni koukat individualne. Neco clovek odhadne z toho, jak velky je pasiv, jak huste ma zebrovani, jak velke a jak kvalitni jsou ventilatory a, logicky, kolik jich je. Armor 2070 vs. 2060 Super xD
@Kwoky (30.08.2019 14:20): bývala doba kdy MSI Armor a Gaming edice patřily na Pascalech k tomu nejlepší co se chlazení a ticha dalo sehnat za rozumnou cenu. Dnes má pravděpodobně nejlepší (rozuměj: nejúčinnější a nejtišší) chladiče Gainward co jsem tak za poslední týden studoval. :) Časy se mění.
MSI si může být jisté, že až budu kupovat příští "high end" grafiku, MSI to nebude. DODO (DOdělej DOma) za 12k+ fakt ne. odkaz
@Luky_Luk (30.08.2019 11:49): podle mě je totální blbost dávat 2x RX 570 do SLI (2x 4,5 tis). AMD pomalu ustupuje od CrossFire a Nvidia taky bude brzy kašlat na podporu SLI, je to jen otázka času.
Kup si raději AMD Navi RX 5700 (bez XT) novou za 10,5 a máš výkonu na rendering i hraní na rozdávání!

V klidu mě nic nerozhodí a kartu za 20k mít fakt nebudu. :) I když bych na ni měl peníze znám užitečnější věci.
Máte s tím někdo zkušenost ve smyslu uživatelského rozhraní? Věnoval jsem se tomu jen chvilku a pochopil z toho, že se propojí nějakým kabílkem.....ale jestli softwarový ovladač umožní jednu vypnout, případně kdybych tam měl jednu 8GB a druhou 4GB, mohl bych si je přepínat a testovat tak chování enginu/scény s kapacitní nebo nekapacitní VRAM?
Jsem ve vývojářským týmu jednoho free simu a postupně se bude připravovat nový terén a mě by se taková fíčura asi hodila.
Pro lidi co si klepou na čelo - přecházím z integrované na CPU, se kterou jsem spokojený. Takže pro mě to bude nárůst 700% i s jednou :)

P.S. jakože bych měl testovací mašinu s CPU630, RX570 4GB, RX5708GB a crossfire dělem simulujícím něco dražšího (mohl bych obtěžovat programátora podporou Vulcan s crossfire a zároveň nasrat Rapiera s jeho kartou za dvacku :-P...mš by to stálo 4,5 tisíce)
@Luky_Luk (30.08.2019 11:59): Fakt bych ti doporučoval na to zapomenout. Dvě grafiky znamenají vyšší průměrné FPS, ale taky velké kolísání, softwarové problémy (ne každá hra to umí využít) a hlavně nesmyslně vysokou spotřebu.
fakt jsem v tomto greenhorn, ale nevyrovnají se v určitých aspektech 2 (nyní už lowendy) jedné kartě za 15 táců, o které píšeš?
koneckonců silné grafiky taky žerou 250W - 1080 Ti nebo 2080+ ano. Ale tak vysoko asi nemíříš.
zní to jako ptákovina, chvi vzít jednu za pár šušňů (tu silnější)...ale třeba za dva roky

já ten komp za celý léto pustil snad dvakrát a dělám furt na starým laptopu, ale chci na něj postupně migrovat práci a některý rendery taky podporují crossfire....koneckonců silné grafiky taky žerou 250W