Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

@Rapier (27.08.2019 15:32): DLSS je zcela separátní funkce a s raytracingem nemá nic společnýho. Lze to mít zaplý či vyplý nezávisle. Kvalita pak záleží na implementaci a kolik času na tom ta jejich AI stráví. V Metru to zezačátku vypadalo blbě, pak vydali patch a DLSS už vypadá parádně. V Shadow of the Tomb Raider jakbysmet. Pro raytracing se to hodí, protože to vyvažuje ten performance hit.
@Rapier (27.08.2019 16:17): Tak tedy má úvaha. Mám monitor s FullHD rozlišením, 60 Hz, jde mu vnutit bez problému 69 Hz. Větší frekvence nedává. To už se začíná na obrazovce tvořit bordel. Při nižším rozlišení, ostatně jako mnohé jiné monitory však podporuje vyšší frekvenci. Třeba při 1024x768 podporuje nativně jak 60, tak 75 Hz. To je dále důležité. Další důležitou věcí je v nVidia Control Panelu položka "Přizpůsobení velikosti a pozice plochy" a v ní volba "Provést směnu měřítka na:" a volby jsou buďto Monitor nebo GPU.

Je jasné, že pokud zvolíme změnu měřítka na monitoru, tak grafika do monitoru posílá přes kabel obraz přesně v takovém rozlišení, jaké jsme si navolili.

Nicméně při změně měřítka na GPU by teoreticky měla grafika posílat obraz fyzicky do monitoru v jeho nativním rozlišení. V tom případě by ale nesměla dosáhnout v mém případě na 75 Hz při 1024x768 a vlastně by při tomto rozlišení měla dosáhnout v mém případě přesně 69 Hz, stejně jako dosahuje při nativním FullHD. Tak jsem to zkusil a výsledek?

Tak první nápovědou je vůbec to, že při volbě změny měřítka na GPU už Control Panel najednou ani tuto vyšší frekvenci (75 Hz) při 1024x768 nenabízí. Musel jsem ji níže tedy vnutit.

1024x768 -> 75 Hz -> brutální artefakty na monitoru stejně jako při vnuceném FullHd a 75 Hz
1024x768 -> 70 Hz -> občasné artefakty na monitoru stejně jako při vnuceném FullHd a 70 Hz
1024x768 -> 69 Hz -> žádné artefakty na monitoru stejně jako při vnuceném FullHd a 69 Hz

Domněnka se tedy potvrdila.

Z toho plyne, že obraz se vyrenderuje v požadovaném rozlišení (v mém pokusu 1024x768), grafika si ho následně nejspíše zinterpoluje nějakým primitivním filtrem do nativního rozlišení monitoru (V mém případě FullHD) se zvoleným scalingem (ale to je teď vedlejší) a dále pak by se měl použít onen sharpening filtr. Následně tedy je do monitoru v mém případě poslán po kabelu normálně FullHD obraz. Byť zdrojem je ono 1024x768.

Ale ber to jako nepotvrzenou teorii. Googlil jsem a nic rozumného jsem nevygooglil. Ještě zbývá možnost, že bych nainstaloval GFE a vyzkoušel to, ale přiznám se, ten hnus nechci instalovat tak dlouho, jak to jen půjde :D.
@Rapier (27.08.2019 16:17): 2060 Super je slabsi nez 2070 o nejake to procento. 2070 Strix je o litr levnejsi a je rychlejsi, takze je lepsi volba nez 2060 Super od Gainwardu, byt ta je, co jsem cetl, take dobra co se tyce chlazeni.
Tu Strixu 2070 mám a v Q mode extrémně tichá ... doporučuji za tu cenu, AMD bych asi nebral i když tam furt bude poměr cena/výkon lepší ...
@Rapier (27.08.2019 16:06): Pokud to nevadí, že musíš mít nainstalované GFE, tak je to tak jak říkáš. Jen taková poznámka, nVidia ten sharpening už tam nějaký ten pátek měla jenom to bylo trochu HW náročnější, teď ten algoritmus trochu přepracovali. Takže vlastně nic moc neokopírovali.
@marwel (27.08.2019 15:45): aha takže nejen Intel musel začít reagovat na AMD ale už i Nvidia.... takže vlastně převzali RIS, dodělali k tomu momentálně lepší user interface a fakticky pohřbili DLSS. Chápu to tedy dobře možnost kterou jsem níže popisoval u Radeonu tedy hrát v FHD+RIS (nebo jak se to Nviidia jmenuje) mám nyní na výběr u Nvidia taky?

@Bursoft (27.08.2019 15:57): no já mám taky podobný pocit. A to mi věř že bych si tu RX 5700 XT rád koupil. Ano, pravděpodobně je to drivery.
@Rapier (27.08.2019 15:04): Já koukal na nějaké recenze na YT a dost lidí si stěžovalo na problémy s ovladači, možná je to jen SW problém.

Osobně bych šel na jistotu do 2060S nebo nějaké výprodejové 2070, na mě ty Radeony působí dost rozpačitě a na rychlo vydané..
V soucasnosti tezko vybirat.. Osobne bych asi uvazoval o tehle, ale take by me dost lakala referencni RX 5700 za 8,5. Jenze ten hluk no. Nebo muzes vzit Strix 2070 za 12. To se zda byt jako asi nejlepsi volba.
@Toaleťák (27.08.2019 15:18): teď jsem se bavil se známým, co je na Nvidie. Sám mě doporučuje momentálně koupi RX 5700 XT. Teď řeknu možná něco co není pravda (tak mě prosím opravte), říkal mě, že pokud to správně chápe tak Ray Tracing funguje jen při zapnutel DLSS, tzn. že obraz se zmenší na nižší rozlišení, započítá se Ray Tracing a pak se obraz vylepší aby vypadal jako v nativu. Důvod je výkon, bez DLSS by byl mnohem nižší, než už i tak je.

U AMD ta technologie Radeon Image Sharpening prý funguje i na 1440p panelech, obraz se zmenší na FHD a pak se přepočítá jako by byl v 1440p. Což by znamenalo, pokud to chápu dobře, že pokud by Radeon v 1440p nestíhal (protože vyjdou později nové náročné hry) tak uživateli nic nebrání hrát v FHD (soudím dle foto z tohoto webu - Sapphire TriXX boost) přepočítaných na 1440p prakticky bez ztráty výkonu. Údajně je také ten obraz ostřejší (kvalitnější) než u DLSS.
@Rapier (27.08.2019 15:04): Já bych PULSE určitě vzal. To co tam píše ten člověk je nějaké pochybné, i to že mu Control Center padal a tak. Tam bych viděl fakt nějaký nestandardní problém kdoví na jaké straně. Vždyť při nejhorším to v 14 denní lhůtě vrátíš. Jako o RTX 2060 bych určitě neuvažoval. Podle mě to je nejzbytečnější karta. Na RayTracing to je gumové, tak proč nevzít 1660 Ti mnohem levněji nebo, a to bych volil jako alternativu, pokud by 5700 XT sklamala, vzal bych RTX 2070.

edit: tak se dívám, ta SUPER verze 2600 je docela dobrá oproti normální, takže bych ji klidně vzal :-). Takže předchozí text jsou vlastně dost bludy :-D. Omlouvám se.
Co si myslíte o Sapphire Radeon PULSE RX 5700 XT 8G, 8GB GDDR6? Trochu mě straší před koupí (aktuálně skladem u zeleneho mužika) to co napsal jeden človíček do diskuze..... jsem rozhodnutý něco koupit ale tohle níže mě straší:

Milanek120. 8. 2019 15:34 nahlásit
@repa6: Hluk se dá poladit, nicméně ani tak to není moc tiché, ale ani vyloženě špatné, což je na základní model normální. Mám ve skříni poměrně dobrý airflow, i5 9400f se uchladí s chladičem fera 3 pasivně při gamingu a s 5700xt se mi ticha docílit nepodařilo.
Víc mi vadilo velké kolísání frekvencí grafického jádra a samotné využití GPU usage. Tím samozřejmě přijde i ne moc stabilní FPS (hraji v 1440p)
V testech se dočtete, že má karta na sobě kůču všemožných čidel pro udržení maximálního stabilního boostu a já z toho měl pocit, že se mezi sebou nějak ne a ne dohodnout. Trošku pomůže zvýšení power limitu, ale i tak to není dobré a kartu neustále něco škrtí (asi limit spotřeby) , místy až moc a frekvence padá až třeba na 1400 MHz a vzápětí vyleze přes 2 GHz sáhne si třeba i na 250w a trada dolů atp.
Na 7nm proces fakt nic moc, konkurence je zcela někde jinde . Jediný způsob jak to vyřešit je asi úprava v registrech, kdy povolíte kartě +95% power limit a tam už to vypadá hezky, ale to bych s tímto chladičem určitě nedělal a karta pak žere kolem 300w.
Software od Sapphiru Trixx nešel ani spustit a neustále padal. Radeon Control Centre mi dvakrát způsobil pád systému. Předchozí gtx 1070 gaming X byla tichá a bez problémů.
Celkově na mě karta působila nedoladěná a zanechala ve mě rozporuplné pocity. Nemám chuť něco někde upravovat a ladit jen proto, aby to mělo fungovat tak, jak má když za to dám tolik peněz. Třeba ještě dozraje a bude všechno v pořádku, ale to už budu mít nejspíš v bedně 2070 super.

+
Milanek120. 8. 2019 16:49 nahlásit
@GreenT: To je pravda, zatím není od uživatelů moc ohlasů, nicméně se mi jich pár podařilo najít (nevím už kde přesně) a víceméně psali buď o artefaktech nebo o
"gpu clock flying" jinými slovy o tom samém.
Tím nepíšu, že karta je špatná nebo dobrá, píšu pouze mou zkušenost. Pár karet jsem už měl, má první byla GeForce 2, tak snad něco dokážu zhodnotit :D

+
Milanek120. 8. 2019 17:49 nahlásit
@NEHARIA: K tomuto kroku, tedy k úpravě registrů za účelem udělat z karty nenažranou bestii jsem se neuchýlil. Píšu o tom jen jako o možnosti. Těchto informací jsem při mém víkendu s novou kartou našel dost, lze to snadno vygooglit. Byl jsem z karty rozčarován a tak jsem hledal informace jak na Google tak na YouTube.
Jinak hluk bych ještě asi snesl (možná), ale kolísání frekvencí ne a celkové lehce zběsilé chování power limiteru už vůbec ne a čekat na nápravu v podobě ovladačů jsem prostě nechtěl.
To, že karta náráží na limit spotřeby je normální, nějaké mírnější kolísání frekvence taky, ale tohle byla horská dráha.


Díval jsem se na zahraniční recenze, docela tu kartu chválí. Tak nevím zdali nejít do dobře chlazené RTX 2060 Super OC (která dožene na taktech XT) ale za příplatek s dobrým chladičem jako tento model.
Takže když si koupím modulární kablík zvlášť, protože mi třeba nevystačily, tak si můžu odpálit komponentu? Super!
@Garion (27.08.2019 13:32): Moc nerozumím otázce. Výrobce může použít vodiče jaké chce. Nejhorší zdroj, co mám ve svém okolí, mám v pracovním PC :) Až ho vypnu, tak se kouknu, co je napsáno na izolaci.
@Kwoky (27.08.2019 12:22): Ohledne toho prurezu - videl jsi to ve skutecnosti nekde u zdroju v praxi? Predpokladam, ze je to (pripadne) zalezitost jenom tech pridavnych napajeni (6, 6+2, 8-pin), cekal bych, ze zbytek bude standard.
Není nic jednoduššího, než vzít multimetr a kabely propípat (pkud nemám multimetr, použít metodu oční „kam ten drát vede“). Bohužel až to zjistíš, budeš mít ty kabely stejně už vyndaný a můžeš tam vložit nový. :D

BTW: Vždycky mě fascinovalo, že na tohle ještě někdo nevytvořil standard. Většina výrobců používá stejný konektory, takže „strčit tam jdou“, ale každej si je zapojuje autisticky jak je napadne. Kdyby aspoň každej použil jinej konektor, ať to tam strčit nejde. To je jak kdyby někdo speciálně pro svůj mobil vytvořil USB nabíječku, co má prohozený datový a napájecí piny jen tak for fun bez důvodu, abys po zapojení jiný značky spolehlivě konkurenci odpálil.
@Korbitch (27.08.2019 11:45): odkaz

Pokud jsou zdroje od různých výrobců, tak důrazně NEDOPORUČUJI prohazovat kabely. Můžou tam být jiná napětí na jednotlivých pinech, protože konektory na straně zdroje nejsou sjednocené.

V tvém případě je dost velká pravděpodobnost, že to bude v pohodě. Oba zdroje jsou od stejného výrobce a jsou i řekněme podobného výkonu (aby nenastal problém s průřezem vodičů). Já bych do toho ale nešel. Děláš to na vlastní riziko.

@samorost (27.08.2019 12:09): Jsou. Mají různé průměry. Označují se jako 16AWG, 18AWG a podobně. Čím menší číslo, tím vyšší proud to snese. odkaz
@Korbitch (27.08.2019 11:45): Po 3 vterinach premysleni v tom nevidim nejaky zasadni problem, pokud maji ty kabely stejne koncovky (a novy zdroj ma stejne nebo vice vsech potrebnych zdirek). Vzdyt je to jen kupa dratu.
Dnes mě čeká operace. Vyndat starý zdroj a vložit nový. Fuj, už teď je mi blbě. Oba jsou moduláry Seasonic. Starý je plus bronz 520w a nový plus gold 650w. Vycvakat kabely ze starého a nacvakat je do nového je asi píčovina, co... Ale zase by to bylo hned :-D
@Toaleťák (26.08.2019 06:24): Lock On byl v době vydání neskutečně náročný na HW. Měl jsem Athlon 3200+ (Barton) a high end GPU ATI Radeon 9800 a stále to nestačilo na max. detaily.
S tím rozlišením máš pravdu, já to nicméně pozoroval i v 1440p u leteckých simulátorů.
@Rapier (25.08.2019 23:02): To jo, alespoň co jsem se díval na Steam, tak ta hra vypadá fakt dost dobře. Kdysi jsem ještě zkoušel Lock On, jak vyšel, no moc na ty simulátory nejsem, tak jsem snad ani pořádně nevzlétl :-D. Snad jediná letadlová hra, co jsem dohrál byla Crimson Skies :-D. Co se týče toho GPU bottlenecku, tak to ti tady nikdo nerozporuje, vždyť to je léta známý teorém, že CPU by mělo umět krmit grafiku. Spíše jde o to, že zatímco v jedné hře může být CPU bottleneckem, tak v jiné to tak být nemusí. Záleží také v jakém hraješ rozlišení že, čím větší rozlišení, tím menší CPU bottleneck, vzáno obecně.
@Toaleťák (25.08.2019 21:18): jednoduše, obrovská mapa osazena mnoha objekty, stunning grafika (pokud si ji nastavíš na max. včetně trávy a stromů kam oko dohlédne), AI (na zemi, na moři, ve vzduchu), výpočty (fyzika letu tvého stroje a protivníků, fyzika letu raket, avionika), výbuchy, stíny, atd. Není to tak že by CPU jelo permanentně na 100% výkonu ale když ten výkon potřebuješ musíš ho mít, páč jinak padají FPS radipně dolů. To jsem osobně zažíval s i5-2400 + GTX 1060 6GB často, příliš často.
V multiplayeru se navíc nároky na lepší CPU zvyšují (podobně jako u MMORPG nebo Battlefield sérii).

@valcik (25.08.2019 21:33): DCS World ve verzi 2.5 zatím neumí využít více než 2 cores (reálně) bez ohledu na to co zobrazuje MSI AfterBurner, apod. Pracuje se na implementaci Vulkanu. A ano zatím podobně jako u Arma série platí silné 2/4 cores s co nejvyšším IPC/taktem.

@Thellwin (25.08.2019 20:58): přelož si to jak je libo, letecké simulátory, respektive simulátory obecně jsou dost náročné. Ždímou obvykle max. ze všeho co máš v PC a nezáleží moc na tom zdali je to civilní X-Plane 11 nebo bojový DCS World 2.5.
BTW Marwell už tady zmínil proč ta kombinace je lepší.
@Toaleťák (25.08.2019 21:18): DCS nehrám, ale na reddite maníci odporúčajú štvorjadrá. Je tam pár testov, podľa ktorých generuje hra na štvorjadre, šesťjadre alebo osemjadre s rovnakým taktom rovnaký počet snímkov. Vysoké IPC pre štyri programové vlákna je pri DCS dôležitejšie, ako šesť alebo osem pomalších jadier: http://i.imgur.com/RUfcN9z.png
@Thellwin (25.08.2019 20:58): No právě :D. Ale jako Rapiera a jeho nadšení chápu :-). Přece jenom ty nové Ryzeny jsou prostě pecka.

@Rapier (25.08.2019 20:56): A jak je možné že DCS ždíme CPU a zárověň GPU na 100%? To je zajímavě vyvážené nastavení hry :-). Nebo CPU, popř. GPU ve volných chvilkách počítá nějaké spešl fraktálové algoritmy?
@Rapier (25.08.2019 20:56): Asi úplně neumím číst, zkus mi tedy nějak vyložit tuto větu -> Z toho tedy plnyne, že VŽDY JE lepší mít kombinaci silnější CPU než GPU, neboť takto bude bottleneck vždy na straně GPU a ne CPU. <- tak aby z ní vyplynulo to, co jsi právě napsal -> na základě hry která využije jako CPU, tak GPU na 100% výkonu se snažím ukázat, že kombinace výkonná GPU (novější generace) a slabší CPU (starší generace) NENÍ VŽDY úplně vhodná <- ... šlo by?
@Thellwin (25.08.2019 20:50): na základě hry která využije jako CPU, tak GPU na 100% výkonu se snažím ukázat, že kombinace výkonná GPU (novější generace) a slabší CPU (starší generace) není vždy úplně vhodná. Toť vše.

Chápu, že jsou hry kde se CPU nehraje takovou roli a z větší části to leží na výkonu GPU.

@Gordon (25.08.2019 20:54): to nemyslíš vážně že? Neznám nic tak náročného jako je DCS World na max. detailech, 1440p a multiplayeru kde přeteče i 16 GB RAM na velkých mapách.
@Thellwin (25.08.2019 20:50): DCS btw jede úplně na pohodu na mainstream kartě 1060 a průměrném procáku, na tu hru fakt NASA pc netřeba. Víc náročný mi přijde například Kerbal Space Program, tam ale notnou dávkou přispívá omezení enginu a tudíž neoptimilizace.
Však výsledek "výzkumu" se vždy dá udělat tak, aby byl zadavatel spokojený, jde jen o správný výběr dat :)
@Toaleťák (25.08.2019 17:59):
@Bursoft (25.08.2019 17:53): záměrně jsem vybral extrémně náročný letecký simulátor, který vyždíme každou komponentu v herním PC až na krev.
Dokáži si velmi dobře představit Tvůj shock po přechodu s GTX 760 2GB (právě ji doma mám rozebranou a čistím :) ) na GTX 1060 6GB. Už mezi GTX 960 2GB a GTX 1060 6GB byl jednou takový rozdíl ve výkonu!

Nevím jaké máš přesně CPU, tím grafem jsem chtěl hlavně poukázat na to jak Hasswell i7K = Unlocked CPU (přetaktované all cores na 4,4Ghz) může výrazně brzdit výkon poměrně výkonné GTX 1080, ačkoliv by se majiteli mohlo zdát, že má stále dobré CPU.
@Chuck (25.08.2019 19:19): Tak GTAcko je taky open world hra, kde holt CPU počítá opravdu hodně věcí. Ale já třeba s nějakým stutteringem neměl problém ani na starší grafice a s tou 1060 to mám fakt ohulený hodně a jede krásně plynule.

@marwel (25.08.2019 19:24): Já jsem asi nezažil hru, kde bych stahoval detaily a jela pořád stejně blbě (tzn. 100% CPU bottleneck). Možná pořád nemám ještě dost starý CPU, abych to mohl hodnotit. Ale kdykoliv jsem kdekoliv upgradoval GPU, vždy to bylo poznat..
GPU bottleneck je urcite lepsi. Pokud je limit CPU, tak zpusobuje stuttering, pokud je limit GPU, tak proste mate mene snimku za sekundu ale hrani bude plynule.