Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

Cywe, si pamatuji, jak jsem smutně zjišťoval, že danou hru nerozjedu, protože jsem měl jen 128 mb paměti v grafice místo 256... :-)
Kdo při hraní nutně potřebuje Ultra textury, tak ať si za tu horu paměti klidně připlatí. My ostatní si snížíme textury z Ultra na Very high :)
@Bursoft (30.10.2020 12:22): Souhlasím s Tebou, nicméně, nároky půjdou nahoru a her, jako je Doom Eternal, zhlediska nároků na VRAM, bude přibývat. Ve 4K je 8GB málo do budoucna na jistotu, v 1440p bude těch 8 GB nedostačovat také, ne zítra, ale bude. Netvrdím, že ty hry využijí rovnou 16 GB, ale třeba 10 - 12 GB v tomto rozlišení časem využívané bude. A kupovat grafiku za 20K s 8 GB VRAM, mi prostě nepřijde dobrý nápad.
@marwel (30.10.2020 05:52): Těch 8 GB je z mého pohledu na grafice do budoucna určitě málo. Dost často si z her dělám screenshoty, včetně obsazení RAM, VRAM, zatížení procesoru, grafické karty apod. A prošel jsem si je teď, abych se podíval a našel následující:

Obsazená VRAM na RX 5700 XT 8 GB během hraní:
- Far Cry: Primal - 7 989 MB (1440p - Ultra detaily)
- Trine 4: The Nightmare Prince - 7 671 MB (1440p - Ultra detaily)
- Far Cry 5 - 7 633 MB (1440p - Ultra detaily)
- Mass Effect: Andromeda - 6 832 MB (1440p - Ultra detaily)
- Tom Clancy's Ghost Recon: Wildlands - 6 632 MB (1440p - Ultra detaily)

Našel jsem, takto v rychlosti, jenom pár her, ale obsazenost VRAM se i u starších titulů pohybuje na hraně kapacity 8 GB, nebo lehce pod. Nedělám si iluze, že by novější hry, které budou vznikat primárně na nové herní konzole, kde budou optimalizované na RDNA2 architekturu, vyžadovali méně VRAM na GPU. Myslím si tedy opak, že 8/16GB VRAM do budoucnosti rozdíl hrát bude.
ad nove grafiky, jsem zvedavy, zda se v ceskych eshopech objevi drive nove AMD karty bez nove GeForce i presto, ze ma nVidie asi dva mesice naskok s uvedenim. :D Jinak pro me stale nejatraktivnejsi koupi zustava 3070. Tech 16 GB RAM u 6800 (XT) je sice fajn, ale nemyslim si, ze by to v blizke budoucnosti pri hrani ve 1440p hralo velkou roli. 6800 tak vyhodne nevypada. Ale je fajn videt AMD takto optimisticke ohledne cen. Vypada to, ze na vykonu novych grafik neco bude, ze nepujde jen o vyber toho nejlepsiho do prvnich benchmark grafu. Aby si AMD trouflo zadat 80 dolaru/euro vic nez za 3070 znaci, ze musi byt vykonejsi celkove. Ty grafy AMD ale zkresluji kdyz v nich bylo pouzito Smart Access Memory i Rrrrrrage Mode (!!!).
pěkný, moc pěkný.....demoscénu žeru....si pamatuju, jak jsem se na přelomu milénia dostal k jednomu RL radiozity demu na PC...ještě ho mám někde na 3,5 disketě - původní český engine studenta z FELu. Makalo mi to na celeronu 333 jak o život.

bylo to nejspíš tohle (možná trošku jinej exáč a scéna):
http://www.pouet.net/prod.php?which=894
tady asi něco novějšího:
https://www.youtube.com/watch?v=gAPJ8BENM_s
to jo, ale mě na 2D stačil Prince s fixní obrazovkou a jinak jsem byl ouchyl na vektory všech barev i rozlišení...
@Jab (29.10.2020 23:19): U mobilů je to těžké. Osobně třeba nechci žádnou značku, která je čínská. A doby Ericssonů, Siemensů, Alcatelů, Sagemů (ok, Sagem nebrat :) ), Boschů apod. jsou nenávratně pryč. Tehdy byl výběr z tvarů, funkcí, stylů ovládání apod., tam jsem věrnost chápal.

Dneska je to všechno jenom placka s displejem a stejným, či velmi podobným, ovládáním. Přesto, některé značky jsou v něčem odlišné. A tam, třeba pokud jsi zvyklý si roky psát poznámky pomocí S-Penu u Samsungu, tak prostě jinou volbu nemáš. Takže, v tomto případě věrnost i u mobilů chápu. Ale vím, kam jsi tím mířil, a až na výjimky s Tebou souhlasím.
No tak to rozlousknem. Amiga vladne vsem. Lepsi jak ty 8 bit fosilie a samo lepsi jak PC sve doby. Nazdar, slava vyletu :o)
@ZephyrCZ (29.10.2020 20:18): Jak někdo vtipně poznamenal na YT. AMD je jako chapík, co byl léta ve škole šikanován a poslední roky začal chodit do posilky :) Válčit proti gigantům na dvou frontách a ani na jedné nezaostávat, to je teda výkon hodný uznání.

Jinak pokud k těm novým kartám budou mít svou vlastní verzi DLSS, myslím, že bude pro mě po dlouhé době AMD combo, pokud tomu tak nebude beru 3080.
tvl to jsou problemy , pred osmi lety sem si koupil vybehovou GTX 750Ti za 3600 , dva mesice na to prisla za podobnou cenu RX 460 :( a za dalsi dva mesice na to o 4 stovky drazsi 1050Ti :(( , dnes po 8 letech se na cenu 3700 dostala GTX 1650 s dvojnasobnym vykonem 750ti diky tomu ze mezitim prisla krize, tezebni horecka a pak jeste covid a ceny grafickych karet delaly do roku 2019 psi kusy, karty za 20k+ jdou absolutne mimo me , doufam ze si pred vanocema koupi novou grafarnu spousta lidi co jeste porad sedi na 1060 6gb abych ji mohl v praze odlovit do 3000 na bazaru :)
Hlavně, diskuze na českých stránkách věnovaných HW mezi sebou vede pár postižených děcek s dojmem, že jim patří svět, všechno ví a od všeho mají klíče, přičemž opak je samozřejmě pravdou. Level toxického odpadu dosahuje často sta procent.

Taky, pokud tyhle diskuze člověk sleduje pár let, si nelze nevšimnout přelétavost diskutujících dle aktuálních trendů.

- Když AMD vydali Buldozer procesory, mohli se jít zahrabat (hahaha (ehm...)).
- Když nVidia vydala GTX 970 s 3,5 GB RAM, byla firma označená za zloděje, to si nikdo nekoupí.
- Když AMD oznámilo nové procesory s neznámým jménem Ryzen, mohli se jít pořád zahrabat. Intel Forever voe!
- Když AMD oznámilo Radeony RX 5xx, a pak i vydalo, byla to banda amatérů. nVidia RULEZZZZZZ
- Když nVidia vydala 2080Ti, na AMD sedal prach, protože to je banda neschopných idiotů. nVidia pořád RULEZZZ
- Když AMD oznámilo Ryzen 5000, jsou to borci. Intel umírá (hmm) a AMD s ním vytírá podlahu.
- Když nVidia ukázala GeForce RTX 3xxx, pěli se oslavné ódy. AMD tohle nikdy (jako nikdy bro) nemůže dohnat.
- Když AMD RTX 3xxx na pohodu dohnalo, vytírá opět již vytřenou podlahu, nyní s nVidií...

Jak děti na pískovišti, kdo má větší bábovičku.

Sám se klaním k AMD a vždy jsem to tak měl (mám slabost pro slabší :) ), což mi nebránilo v tom, abych si koupil Intel a nVidii, když to pro mě bylo jednoduše výhodnější.

Jedna věc je psát jako hulvát do diskuzí a sledovat jistého a tajemného DD, nebo hrát doma cosplay s koženou bundou, druhá věc je být nad věcí a prostě si vybrat dle sebe a netlačit své rozumy do ostatních lidí, pokud si o radu neřeknou. On tak nějak má každej z nás má jiné potřeby, jiné hodnoty a jiné finanční možnosti. Bohužel, v toxickém českém netu, a vlastně i společnosti, je tohle těžko obhajitelné, protože vysvětlit pitomci, že je pitomej, jednoduše nejde.
@Rapier (29.10.2020 18:35): Pff, ja nevim ale fakt jsou lidi, co fandi jedne PCB desce s vetrackem od jedne firmy a lidi co fandi druhe? To je nejaky vykonstruovany. Toto nejsou konzole, kde je to jinak tez nafoukly, ze by nejake bitky mezi obema tabory byly.

Akorat je par lidi frustrovanych nebo naopak utvrzenych v tom, co ma doma za kompa nebo konzoli a pak se takhle musi uklidnovat. To je podle me vsechno.

A tihle znami a kamaradi, co tu vzdycky nekdo vytahne. To me uz ani nekotli snad. Jeste, jak tu psal kdysi Gordy, reknete na jaky strane ma ikonky na plose a jakej ma presne build Windows a jakou tramvaji zrovna jel.
@Rapier (29.10.2020 18:35): Minecraft má možnost RT pouze na Windows verzi napsané v jiném jazyce. Problém je, že většina hráčů hraje Java edici, tyto verze jsou neslučitelné. Navíc je to v některých ohledech velmi pofiderní.
Srry nebudu to číst, je to moc dlouhý a prvního a půl odstavce mě nepřesvědčilo pokračovat.

Bursoft to srhnul přesně, děcka se hádaj o hovnech ... koho to zajímá? :)
@Rapier (29.10.2020 18:35): Sorry, ale fakt nechápu, proč sem taháš ten trash z diitů a cnewsů a podobných webů, kde se děcka hádají o nesmyslech. To, že ty nebo nějakej tvůj kámoš nemáte dost zajímavých titulů neznamená, že ostatní to tak mají taky. Mně osobně se trefují do vkusu dost.
Celý internet řeší RT v nových Radeonech RX 6000. Fanoušci Nvidia se předhánějí v konstatování faktu, že RT na RX 6000 nedosahuje hodnot jakých dosahuje na RTX 3000, a tudíž že se nevyplatí čekat na nový Radeony. Paul to někde níže hezky shrnul. RT výkon na nových RX 6000 vyšší než na RTX 2000 ale nižší než na nových RTX 3000.

Další fanoušci Nvidia konstatují fakt, že RX 6800 je drazší než RTX 3070 a jak si to může AMD dovolit, zvlášť když má pomalejší RT a navíc nemá DLSS 2.0. Třeba můj "oblíbený" komplikátor se může v diskuzích strhat. RT Nvidia fans reprezentují jako MUST HAVE feature, ačkoliv je počet skutečně zajímavých RT titulů stále jako šafránu. Počítejte se mnou (za mě je to jen) : Cyberpunk 2077 (k tomu se ještě vrátím) + Minecraft (upřímně nevím zdali to reálně vyšlo nebo bylo jen tech demo) a no řekněme Control. Tři hry co mě asi tak nejvíce zaujaly.

Oblíbený Komplikátor (Jirka Kocman) argumentuje, HLE AMD má TDP u RX 6800 neuvěřitelných 250W, a že prej Navi 1 RX 5700 XT má papírově 225W a reálně spíše 260W TDP, takže hejtovaní nových RTX 3000 není na místě!
No nevím kde Jirka K. ty informace sbíral ale reálně má Sapphire RX 5700 XT Nitro + dle měření člověka co má na to výbavu dělá pouhých 194W v Silent mode BIOS a jen 215W v Performance mode BIOS (bavím se tu o TDP GPU nikoliv celé sestavy). To má stále dost daleko ke zmíněným 260W. Viz. rozklikněte si graf a vyberte spotřebu GPU
Takže za mě: 50% výkonu navíc proti Navi 1 a jen o 50W navíc vyšší spotřeba je sakra dobré hodnocení!

No ale zpět k tomu RT. Dnes mě volal kamarád. Hardcore pařan PC, především RPG, her. Co má takřka stejnou sestavu jako já ale s Ryzen R5 3600 a RTX 2070 Super. Že je zklamaný z odložení Cyberpunk 2077 a má 16 dnů dovolené co musí vybrat do konce roku.
Chvíli vedeme takovou neutrální řeč a pak přijde má otázka co říká jako majitel RTX 2070 Super na RT a DLSS 2.0.
Odpověď mě (ne-)překvapila:
1. slabý výkon RT v QHD a 4k (on má 4k herní monitor)
2. viditelné artefakty v DLSS 2.0 v Control (vlasy,atd.), nechápe jak tohle můžou Nvidia fans akceptovat. Preferuje nativní rozlišení nebo snižuje rozlišení na QHD (render) a místo doostření v ovladačích používá doostření na monitoru (G sync comptible 4k, značku nevím).
3. doslova mi řekl na co RTX 3080 když ani RTX 3090 v novém Watch Dogs Legion není shopna na max. detailech s RT dát o moc více než 30 fps ve 4k! Že se mu upgrade na novou RTX 3080, smutně konstatoval kdyby vůbec byla k dostání, nevyplatí, že těch 30% výkonu navíc není adekvátní ceně.

Suma sumárum: není to zdaleka první majitel RTX 2070 Super/2080 Super co mě tohle říká, v podobném duchu se na mini Ostravském srazu vyjadřoval Garret a Svatý Karbenátek. :)

Trochu jsme pokecali o novém Cyberpunk 2077, shodli jsme se na tom že ať už s RTX 2070 Super tak s RX 5700 XT si hru oba užijeme v QHD naplno na max. detailech bez RT. Tedy on může zapnout RT ale je dost po reálně ukázce Watch Dogs Legion skeptický že neonové město poběží v rozumných FPS s RT. No a pokud náhodou hra bude pekelně náročná, tak já osobně poprvé v životě vyzkouším na své Sapphire AMD RIS (Radeon Image Sharpering) a on si to doostří na monitoru. :)

Mazar může být v klidu. Uklidnil mě že Watch Dogs Legion měla prý podobné HW specification jako má nyní Cyberpunk 2077 ale v reálu je hra pekelně náročná.

A to jsem se dnes výjimečně rozkecal. Tolik ke Gordonově AMD plnohodnotném RT a úvaze jakou grafiku koupit/nekoupit v budoucnu. :)
Ale neboj Gordy, jednou ty GPU od AMD i Nvidia RT zvládnou a bude to masově rozšířená feature, jednou... v budoucnu, vzdáleném budoucnu to i bude vypadat realisticky jako venku. :)
@Kwoky (29.10.2020 13:11): Dík, ten OCCT vypadá jako přesně co potřebuju.

Začínám bejt přesvědčenej, že s tím nic není. Nechal jsme puštěnou Forzu 4, Rocket League, video na Yuu Tube a prokládal jsme to Cinebench, 3D Markem a Super Pi. Všechno běželo naráz, byť samozřejmě na liště a komp drží.

Nechám to projet tím OCCT a kašlu na to.
Testuju to PC, kde měl bejt možná problém s napájením (GK, zdroj). Běží to tři hodiny a nic...

Není nějakej benchmark, který by běžel třeba tři hodiny a dal tomu kompu záhul. Ale aby to běželo dloho a nemusel jsme u toho být. Nevíte o něčem?

Jinak mám asi takovou debilní teorii. Ten komp mi přinesli s totálně nechutným, ještě béžovým, nápájecím kabelem. Prý ho používaj. Kouknul jsme na něj a u koncovky co se strká do kompu už je odrbaná / zlámaná vnější izolace. Ta vnitřní tam asi je, ale jak je na tom kabel vevnitř netuším. Mylsíte si, že je možný, že by ty problémy byly způsobené vadným napájecím kabelem nebo třeba vadnou zásuvkou? Jako je to hodně velká spekulace vim...
@marwel (29.10.2020 08:22): Koupil jsem ROG Strix kvůli velmi dobré zkušenosti z minulosti. Sice u nVidie, ale provedení karty a její tichý provoz mě udržel u značky Asus i nadále. A nelitoval jsem, karta drží fajn teploty a hlučnost je i v zátěži minimální. Takže spokojenost. U méně náročných her využívám z Radeon ovladačů funkci Radeon Chill, která velmi snižuje spotřebu díky omezení/uzamčení fps na úroveň schopností monitoru.

Pokud půjdu do RX 6000, budu určitě také koukat na dvorního dodavatele AMD grafik - Sapphire.
@ZephyrCZ (28.10.2020 22:57): U RDNA1 frekvence nehrala prilis roli, resp. ten zakladni setting frekvence byl nejvyssi efektivni, pretaktovani prinaselo minimalni benefit. Osobne kdyz jsem na to koukal, tak bych paradoxne Strix nikdy nekoupil ne kvuli cene, ale prave kvuli frekvenci, ktera je zbytecne vysoka a zbytecne zvysuje spotrebu jen s minimalnim ziskem vykonu navic. Ocekavam, ze v pripade RDNA2 to bude podobne, tj. zadny nebo minimalni zisk pretaktovanim GPU a nejspis, kvuli infinity cache i minimalni zisky pretaktovanim pameti. Ale uvidime.
@mazar1234 (28.10.2020 22:46): Současná RX 5700 XT má 40× CU (2 560 stream procesorů). Konečné frekvence se hodně liší, u běžných RX 5700 XT končíš někde kolem 1 850 Mhz, můj Asus ROG Strix RX 5700 XT točí bez problémů 2 100 Mhz. Ale je to RDNA1, takže to nelze s novými Radeony RX 6000 srovnávat (jiné IPC, chybí Infinity cache atd, atd...)
Teď mi to došlo. Tím, že používají nové konzole také RDNA2 grafiky (Radeony 6000), lze si udělat relativní pohled na jejich výkon, minimálně v grafické části.

Radeon RX 6900XT - 80× CU (5 120 stream procesorů) - 2 250 Mhz
Radeon RX 6800XT - 72× CU (4 608 stream procesorů) - 2 250 Mhz
Radeon RX 6800 - 60× CU (3 840 stream procesorů) - 2 105 Mhz

Xbox Series X - 52× CU (3 328 stream procesorů) - 1 825 Mhz
Playstation 5 - 36× CU (2 304 stream procesorů) - 2 230 Mhz
Xbox Series S - 20× CU (1 280 stream procesorů) - 1 550 Mhz

Jinými slovy řečeno, z hlediska GPU nejsilnější konzole nové generace, Xbox Series X, bude méně výkonná jak základní, z nově představených karet, Radeon RX 6800.

Nechci tím nic říct, pouze konstatuji, napadlo mě to takto hodit dohromady, :)
Doufám že tu je nějaký konzolový odborník. Mám cca 3 roky Xbox One S a začíná mě blnout jeden controller. Projevuje se to tak, že ať použiji analogový klobouček nebo ten kříž (digital) tak mě prostě v menu přeskakuje z pozice 1 na 3 a úplně vynechá druhou pozici. Občas když ovladač vypnu a zapnu nebo vypnu a zapnu konzoli se to na chvíli zázračně samo spraví. Druhý controller tuhle vadu nemá. Zkoušel jsem i synchronizaci s konzolí (rozbliká se rychle tlačítko na ovladači i konzoli) a žádný efekt. Vadný HW? Nebo to jde nějak spravit?

Hm něco o tom problému píši zde odkaz

EDIT: tak to je fakt u Microsoftu funny. Ten problém je fakt jen v menu konzole jakmile spustím hru nebo jakoukoliv aplikaci ovladač funguje správně. Proč?!
Jako je pravda, že se tím herním HW to bude marný. Konzole vyprodaný, GeForcky se dodávají po pár kusech, Radeony přijdou relativně pozdě před Vánocema, ze začátku bude taky dost utaženej počet, takže vyloženě k Vánocům si myslím, že si za normální peníze nic nekoupíme.

Přeplácet nesmyslný peníze jen kvůli nedostatku mi přijde jako hrozná ujetost, ale za to si můžou lidi sami, když honem rychle rozprodali svoje karty pod cenou a teď sedí s vykuchaným komplem a čmuchají po bazarech :D