Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

< >
@Garion (18.01.2021 22:23): Těch deset procent byl příklad :). Když si děláš vlastní konvoluční neuronku na rozpoznávání obrazu nebo zpracování jazyka, tak si to můžeš nastavit. Co a jak přesně dělá DLSS, nevím. Trochu jsem doufal, že se tady vynoří nějaký reálný expert, který nás trochu uvede na pravou míru :D.
@AiMLEzZz (18.01.2021 19:06): Zalezi, cemu rikas podobny vysledek - pokud to bude ukrajovat z vykonu pro bezne vypocty, muze se hodit pomalu kazde procento. Ale nerikam, ze to neni nemozne, uvidime. Treba to bude rychlejsi a lepsi, treba to bude stejne rychle, ale horsi, treba to bude pomalejsi, ale lepsi. Nvidia aktualne take mluvi o DLSS 3.0 (myslim?), ktere uz bude univerzalni a nebude potreba podpory v enginu, potom se to asi bude delat jinak. Nebo to byl hoax, neoveroval jsem :)

Tohle si myslim, ze mozna dela v podobnem principu DLSS, proto potrebuje podporu v enginu hry. Ale nejsem si tim uplne jisty, protoze v dnesni dobe uz bude spousta her, ve kterych u spousty lokaci bude potreba to delat temer na vsechno, aby ten vysledek vypadal opravdu dobre, a tim padem si tam usetrenim moc nepomuzes (ale i tak mi to snizeni o rad prijde prilis, to bys mohl rozumne vylepsit 10% obrazu a tech zbylych 90% skoro nechat byt; pokud by to bylo 50%, snizis zase tu obtiznost jen na polovinu a to se na vysledne slozitosti skoro neprojevi).
Pokud tuhle diskuzi někdo čte, reálně ho zajímá, co jsou Tensorcores a, stejně jako mně, se mu nechce sledovat pětiminutové video, tak tady to máte v TLDR verzi.
@Garion (18.01.2021 17:05): Aha, to jsme si možná úplně neporozuměli. Moje pointa byla, že ty tensorcores se při tom forward passu tolik neprojeví, páč je to řádově jednodušší operace než backward pass (v podstatě dosazení do dlouhé rovnice). Chtěl jsem tím naznačit, že v AMD by podle mě měli být schopní i bez tensorcores dosáhnout podobného výsledku, byť jasně, bez dedikovaných jader to bude logicky pomalejší, ale nemyslím si, že to bude v řádech desítek procent. Ale vzhledem k tomu, že tímto jsem svoje znalosti tensorcores de facto vyčerpal, tak nechci moc kecat, protože už bych jen teoretizoval.

K tomu upscalingu - taky neznám podrobnosti, ale není celá pointa v tom, že ušetříš výkon z vykreslování částí obrazu, které nevyžadují velké detaily (typicky rozmazaná silnice v závodních hrách, nebe, kde bývají minimální barevné přechody, tma atp.)? Předpokládám, že ten upscaling se nedělá v celém obraze rovnoměrně. Právě v těch nedetailních částech podle mě není úplně nerealistické, že by se to dělalo po větších blocích. Když máš, řekněme na 30% obrazovky tmu v pár odstínech, tak by podle mě mohlo jít slučovat bloky pixelů, podobně jako se to dělá při JPEG kompresi.
@AiMLEzZz (18.01.2021 15:35): Beru, muze byt (overovat nebudu), kazdopadne to neznamena, ze ten forward pass neni nenarocny. Porad si myslim, ze u (velkych) siti muze davat smysl na to mit specializovany hardware, obzvlast, pokud chces pocitat velke vstupy v realnem case (60FPS) - realita je, ze akceleratory tensorflow se objevovaly uz pred par lety v jistem hardware, ve kterem by to clovek necekal (minimalne v konceptech/prototypech, vic nemuzu rict, NDA). S cim dale souhlasim je to, ze karta neuci model v realnem case (a k tomu treba vykresluje hru), coz je ale irelevantni, pokud je akcelerovan i forward pass, ktery se pouziva v obou rezimech (a tedy ma specializovany hardware smysl i pro koncove uzivatele). Dale souhlasim s tim, ze se to uci hodiny (a to je jeste rychle).

S cim spise nesouhlasim je to, ze se to nedela na beznych GPU, respektive zalezi na definici bezne GPU. My na to mame treba Titany v quad-SLI, coz se cenou hodne blizi(lo) aktualnim "beznym" GPU jako RTX3080 nebo RTX3090.

A co je pro me tezke uverit je, ze by se 4x upscale (z 1080p na 4k) delal tak, ze se vezme vyrazne mene pixelu (10%) a z toho se dopocita obraz, ktery je vlastne 40x vetsi, a vysledek je vyrazne lepsi nez nejake bezne algoritmy (co ja vim, linearni aproximace). Myslim si, ze redukce stupnich pixelu se pouziva spise v ukolech jako rozpoznani obrazu, coz je ale uplne jina uloha.
@Garion (18.01.2021 14:38): "funguje to tak (pokud vim, nejsem v tom v zadnem pripade expert), ze vypocetne je uceni (training) a vyhodnocovani (inference) prakticky stejne narocne"

No, právě že to není ani zdaleka výpočetně stejně náročné. Ten backward pass je právě ta výpočetně supernáročná část. Když učíš NN, tak se snažíš aproximovat nějakou funkci, která ti převádí vstupní hodnoty na výslednou hodnotu. Nejprve pošleš vstupní hodnoty, uvidíš, co ti to vyhodí a spočítáš chybu vůči kýžené hodnotě. A na základě toho upravíš váhy v jednotlivých neuronech (kterých u reálných modelů může být řádově klidně desítky tisíc), třeba pomocí metody sestupného gradientu. A to děláš pro každý vstup (resp. vstupy obvykle chodí v dávkách, aby se ušetřil čas, ale i tak). Naproti tomu ten forward pass je jen to dosazení vstupních hodnot do funkce, kterou máš, což je z hlediska výpočetního času úplně někde jinde.

Jen pro představu, profesionální modely se vůbec netrénují na běžných consumer GPUs, ale třeba na P100, což jsou karty co stojí od dvou tisíc dolarů výš. A na těch to trvá hodiny. Pro zpracování obrazu se sice vstupy různě zjednodušují pomocí konvoluce (v podstatě se shluky pixelů slučují na jednu hodnotu, takže u obrazu v FHD místo 2 milionů vstupních pixelů máš třeba 250 000), ale i tak je podle mě úplně nereálné, že by se karta něco učila v reálném čase a ještě zvládala vykreslovat hru.
@AiMLEzZz (18.01.2021 12:47): Treba tenhle diagram (shodou okolnosti take z webu Nvidia) by ti to mohl trochu objasnit - https://developer.nvidia.com/blog/infere ... rated-deep-learning/

Aniz bych hodnotil, zda to ma Nvidia vymyslene dobre nebo ne, funguje to tak (pokud vim, nejsem v tom v zadnem pripade expert), ze vypocetne je uceni (training) a vyhodnocovani (inference) prakticky stejne narocne, u uceni je tam navic jen ta ucici (feedback) funkce. Ta stejna cast je o tom, ze das na vstup data, ta projdou mnoha vrstvami neuronu (funkci, napriklad a*x^b, kde x je vstup a a/b trenujes) a nakonec se z toho urci vysledek.

Dokazu si predstavit, ze pro prepocitani obrazu napriklad z 1080p na 4k bude potreba spocitat minimalne kazdy pixel v tom nizsim rozliseni, tedy 1920*1080 = 2073600 pixeu, pro jednoduchost 2 miliony. Pokud by byl model velky rekneme 100x100 (absolutne netusim, jestli je to realisticke), je to radove 10000 operaci. Pokud chces, aby to jelo, pro jednoduchost, 100FPS, vypadne z toho "2 miliony*10 tisic*sto"=2 teraoperace za vterinu (2 biliony operaci za vterinu), coz je obecny pripad bez nejakych vychytavek, ale proto to nikdo aktualne nedela, neda se to na beznem pocitaci upocitat (i kdyby to bylo jen 10x10, je to porad 20 gigaoperaci za vterinu, coz uz je snaze predstavitelne, kdyz dnesni procesory maji treba 8 jader na 4Ghz, tedy teoreticky nejakych 32 gigaoperaci za vterinu, tedy alespon radove uz dostavame nekam do realneho sveta).

A ted k tem tensorcores, respektive specializovanemu hardwaru obecne (netusim, jak presne tensorcores funguji) - obecne se specializovany hardware pouziva ze dvou duvodu - byva levnejsi na vyrobeni a/nebo zvladne specificke operace rychleji nez genericky hardware (napriklad CPU). Pokud by napriklad dany hardware zvladnul spocitat 10x10 neuronovou sit v jednom taktu a bylo by jich tam napriklad 100, snizi se to z 20 gigaoperaci za vterinu zpet na ty cca 2 miliony operaci (tedy pocet pixelu), coz jsou 2 megaoperace (tedy "neco jako 2MHz").

To je samozrejme obecny priklad, jak je to presne s DLSS a tensorcores netusim, pravdepodobne se nebude prepocitavat kazdy pixel, ale bude za tim nejaka chytristika, protoze tam je, mam dojem, i nutna podpora v enginu hry. Kazdopadne dedikovany hardware dava obecne smysl, viz vznik grafickych karet/grafickych akceleratoru obecne, driv to take pocital jen procesor :)

A ted doufam, ze neprijde nejaky (D)NN/ML expert a neudela ze me uplneho hlupaka :)
@Paul (18.01.2021 12:22): Zkrátka chceš říct, že je lepší mít na kartě jádra, která jsou dedikovaná na určitou činnost, v tomto případě učení neuronové sítě, ne? K tomu tensor cores jsou. Ale je rozdíl učit neuronovou síť (tj. vytvářet model NN) a používat ji. Když učíš neuronku, tak pomocí učebních dat hledáš nějakou funkci, která převádí vstup na kýžený výstup (např. ten vstupní zvuk se šumem na výstupní zvuk bez šumu), což je výpočetně dost náročný problém. I pro jednoduché modely toto učení trvá řádově minuty. Ale tohle, předpokládám, není něco, co by se dělo v reálném čase, když hraješ hru s DLSS. Ty používáš už nějakou předučenou neuronku, do které jenom vhazuješ data (tj. využíváš tu funkci nalezenou učením k převodu jednoho čísla na druhé), což je výpočetně nesrovnatelně méně náročné. To, cos citoval, je docela vágní, tak nechci kecat, ale předpokládám, že ta tensor cores jsou tam spíše pro vývojaře, kteří učí neuronku používat DLSS, zatímco pro tebe jakožto koncového uživatele nemají velký význam.
@AiMLEzZz (18.01.2021 09:22): Potřeba pro funkčnost nejsou. Pro akceleraci jo. Stejně jako raytracing jde počítat na cuda jádrech i na GTX 1XXX řadě, ale pro reálnou funkčnost je potřeba to akcelerovat přes hardware. Z nvidia whitepaperu

Tensor Cores accelerate the matrix-matrix multiplication at the heart of neural network training and inferencing functions. Inference computations are at the core of most AI-based graphics applications, in which useful and relevant information can be inferred and delivered by a trained deep neural network (DNN) based on a given input. Examples of inference include enhancing graphics qualities through DLSS (Deep Learning Super Sampling), AI-based denoising, removing background noise of in-game voice chats through RTX Voice, AI-based green-screen ef f ects in NVIDIA RTX Broadcast engine, and many more.
@Paul (18.01.2021 00:35): Já teda o DLSS nevím nic a AI je dost široký pojem (nebo spíš buzzword), ale pokud je to neuronka, tak předpokládám, že žádná tensor cores nepotřebuje. Řekl bych, že karta se nic za běhu neučí (seriózní učení neuronek se provádí na řádově jiném HW a rozhodně ne real time), spíš jen využívá existující model, na což žádná speciální jádra nejsou potřeba.
@Messersch (17.01.2021 14:18): https://www.hotelpodlipkami.cz/ubytovani/ bohate by ti mela stacit gtx 750ti/RX 550 a nebo cokoliv silnejsiho , 1060 si myslim ze uz asi nema cenu kdyz stejne budes kupovat novy komp , ale mohlo by byt vyhodny si grafarnu do novyho kompu koupit uz ted , sice se bude flakat ,ale uz ji budes mit a pak ji jen prehodis do novyho kompu, 4gb navicby to jeste chtelo, staci chvili sledovat bazay, najdou se , i kdyz mozna uz se vyplati koupit novy s 10letou nebo dozivotni zarukou , jinak ja na X4 II 640 +GTX 750Ti svistel world of warships ve fhd v pohode
@AiMLEzZz (17.01.2021 22:03): 3090 protože VRAM, která se může hodit do profi segmentu. Čistě na hraní je to asi jedno. S RTX fičurama je to tak, že pokud ti padnou do vkusu hry, co je podporují, určitě bych šel do GeForcky. Minulou generaci těch 100 dolarů příplatek byl dost, ale co se týče 3080 vs 6800 XT, těch 50 dolarů navíc u RTX karty už je tak malej rozdíl, že to stojí za zkoušku. Her s RT vychází čím dál víc a ještě víc jich podporuje DLSS. A AMD moc dobře ví, že pokud chce konkurovat v RT výkonu, tak nutně musí dokutit ten jejich "Super resolution", což má být to stejný, co DLSS.
@AiMLEzZz (17.01.2021 22:03): ani jednu. Pokud by si měl vybrat tak RX 6800 XT kvůli více VRAM. Karta není o moc slabší než předražený RX 6900/RTX 3090.
Upřímně nevěřím, i podle toho jak funguje (z hlediska výkonu) RT na předcházející generaci RTX 2000, že by mělo smysl připlácet si za Ray Tracing od Nvidie. Ty karty budou mít stěží dost výkonu v RT v titulech co přijdou za 2-3 roky, když už teď bez DLSS 2.0 nejsou schopny zvládnou Cyberpunk 2077 + další tituly s přehledem. Možná další generace na tom bude lépe. Možná také ne.
Ne, že by asi v nejbližší době hrozilo, že přijdou na trh, ale jak si podle vás stojí RX 6900 XT oproti RTX 3090? Teď jsem letmo mrknul na nějaký benchmark a překvapilo mě, že Radeon byl o pár bodíků nad GeForce. Ale jak je to v praxi? Četl jsem, že díky DLSS mají karty od nVidie ještě o něco navrch, na druhou stranu DLSS musí podporovat engine hry, není to tak? Není to univerzální řešení. Co ray-tracing? AMD má prý nějaké vlastní řešení přes Vulkan, ale moc se o něm nepíše, tak nevím, jestli je to srovnatelné. Jinými slovy, kdybychom chvilku neřešili cenu a dostupnost a měli byste vybrat momentálně nejlepší GPU na trhu, kterou byste brali?
Dotaz kolegy v SW sekci mě navedl zabrouzdat do zobrazení stavu RAMky. Windows ukazují frekvenci 2400 MHz, ačkoliv by měly RAMky dosahovat 3000. To jsem jenom něco na začátku nepřepnul v Biosu?
@Messersch (17.01.2021 14:18): Je to čtyřjádrový procesor, ten by mohl ještě nějakou dobu sloužit. Když do toho dáš nějakou levnou grafiku z bazaru (něco tak do dvou tisíc) a rozšíříš RAM na 8 GB, bude to tak akorát. Víc peněz bych do toho necpal.
@Messersch (17.01.2021 14:18): určitě bych zachoval. Tyhle AMD Phenom II/Athlon II sice nemají instrukce AVX, takže existují moderní hry které na tom CPU už nespustíš (to jsem slyšel), reálně jsem na žádnou takovou nenarazil čím neříkám že neexistují.

RAM DDR3 1600/1833 koupíš za hubičku 2x4 nebo 2x8GB.

Na Phenoma pokud nemáš rozumný chladič, kup CPU chladič SilentiumPC Fera 3 HE1224. Naprosto s přehledem uchladí i přetaktovaného X4 955 na 4Ghz.
S tím souvisí, pohrej si v BIOS si jen s násobičem (ale nezvyšuj napětí CPU) a přetaktuj toho X4 955 ideálně na 4Ghz all cores (je dost velká šance že dáš okolo 3,8-3,9Ghz stabilně, a s trochou štěstí na křemík i ty 4Ghz.
Hodně to pomůže, single core (a částečně i multicore) výkon rapidně stoupne ačkoliv bude stále pod přetaktovaným Intel Core i5-2400 Sandy Bridge, což byla tenkrát přímá konkurence AMD Phenom II CPU.

Jako vhodnou GK by koupil až bude dostupná GTX 1650 Super nebo AMD RX 5500 XT. Obě mají shodný výkon, ačkoliv to CPU je dost legacy, a k nějaké ztrátě FPS dojde (cca 15-25% podle taktování) stále je to použitelné. Případně pokud chceš ušetřit, osobně to tak má u i5-2400 výše, kup GT 1030 2GB GDDR5 (důležité aby GPU nemělo DDR4). CPU nebude v žádném případě brzdou. Starší GTX 1060 6GB Pascal v bazaru okolo 3-3,5 tis CZK je taky dobrá volba, nebo třeba bazarové GTX 1070/1070Ti za rozumné ceny.

Co se týče té GPU stále bych preferoval co rozumnou cenu novou GTX 1650 Super/RX 5500 XT, obě mají vyšší výkon než GTX 1060 6GB. Problém je že nyní žádnou novou nekoupíš (pravděpodobně). Jediné co je dostupné jsou ty GT 1030 2GB GDDR5 Pascal GPU. Na hry z roku 2015 v FHD v pohodě, asi to nebude na plné detaily s plným vyhlazováním apod.

TIP: pokud by jsi náhodou kupoval GT 1030 v silent provedení, tzn. pasiv (rovný) a dej na něj prostě nějaký starší větrák z CPU a skrz redukci můžeš řídit otáčky. Já tak mám z AMD socket A CPU větrák, přidělaný jen gumičkami k pasivu, krásně to chladí, především v létě a GPU nikdy nenarazí na temp limit. :)
Ahoj, mám u rodičů delší dobu nevyužívané PC. Zajímalo by mě, zda by se upgradem mohl stát aspoň na nějakou dobu použitelným, než pořídím PC nové.

Obsahuje:
CPU - AMD Phenom II X4 955
GK - integrovaná
Motherboard - ASUSek M4A88T-V EVO/USB3
RAM - 4GB DDR3

Původně myslím obsahoval GK nVidia GeForce GTX 460, která shořela.

Jinak hraji většinou hry do roku 2015 na 1080p.

Takže, má cenu jej vzkřísit nebo raději poslat do křemíkového nebe?

Určitě by potřeboval upgrade RAM + GK, vím že tu hojně doporučujete bazarovou GF 1060, ale ty jsou teď taky nedostatkové a přepálené.
@MCZ (16.01.2021 15:19): Já mám BT dongle za 150 Kč a Series ovladač a bez problémů, hraju jenom wireless. Jakmile to spáruješ poprvé, tak další párování je do 5 sekund.

Každopádně jsem zjistil, že series ovladač, jak má o jedno tlačítko víc jak předchozí, tak v některých hrách (zatím jsem přišel na 2) se chová divně (jedno tlačítko stiskne 2 apod.). Zatím to vždy vyřešil Steam input.
@MCZ (16.01.2021 15:19): kupoval si ho nedávno známej pro děti. Kupoval ten novej k series s/x. Jen tu verzi s Bluetooth. Žádnej dongle. Ze začátku prý byly nějaké problémy že se odpojoval, ale tomu bych váhu moc nepřikladal. Teď už prý v pohodě.

Já ho měl na zkoušku v ruce a musím říct že mi dost sednul. Do budoucna si ho určitě koupím.
@MCZ (16.01.2021 15:35): Používám to tedy bez toho dongle. Nebyl ten k předchozím verzím controlleru a hlavně windows? Na win 10 jen zapnu bluetooth a ono se to spáruje bez ničeho dalšího. Mám tedy ten controller, co byl k Xbox One S/X. Ale ta nová verze je tuším téměř stejná. A bude tedy fungovat také bez problémů.

P. S. A jo takhle. Počítač asi nepočítá s vlastním bluetooth. Jak mám notebook, tak mi to nedošlo. ;)
Jinak hlásím úspěch se svým předchozím problémem (http://dbher.cz/dp303592) - podařilo se mi úspěšně naklonovat SSD a převést jej z MBR na moderní GPT; konkrétně jsem migroval z tohoto 120 GB Corsairu na tento 480GB Corsair (jsem zvědav na tu životnost - těch 800 TBW je docela impresivních). Dva m.2 sloty na desce se každopádně hodí.

Použil jsem nakonec AOMEI Partition Assistant (a koupil si teda licenci, naštěstí trikem docela výhodně a taky permanentně, takže se ta investice snad vrátí). Bylo to zase pár pokusů a omylů, ale nakonec byl trik v tom nejprve převést cílový disk na GPT a až poté na něj naklonovat systém. A pak už jen přepnout z legacy na UEFI. Kdyby to tedy někoho zajímalo.
@Garret (16.01.2021 15:32): Právě proto mě zajímá, jak to s nimi je. :-)

Já si teď dongle koupil kvůli sluchátkům, takže bych ho rád využil více. Krom toho, varianta ovladače bez dongle je tak o 500 Kč levnější, což není málo.
@MCZ (16.01.2021 15:19): S oficiálním Blůtůčkem je to naprosto v pohodě, prostě jen zapneš ovladač a okamžitě ho to detekuje i ve hře a jedeš. Je to dobré především na hry, kde chceš například jezdit na koni/autem s větší citlivostí ale nechceš se ochudit o míření myší.
Zdravím, máte někdo zkušenosti s provozováním Xbox ovladače na Windows 10 přes Bluetooth? Je to použitelné?
@mrazikcomp (13.01.2021 07:19): jasné, Sandy Bridge/Ivy Bridge je na tom lépe ale já dostal celý komp zadarmo.
Jediné co mi shází je nějaká dedikované PCI-E grafika abych měl 4 GB RAM.
Nahodil jsem tam na HDD ATA 133 Windows 10 64 bit. Překvapivě to šlape obstojně! Jako trvá než se vše načte do RAM ale pak se s tím dá normálně pracovat Pro důchodce na chatu, na naučení se pracovat s PC/internetem, office, apod. ideál.
@AiMLEzZz (14.01.2021 12:04): znam jednoho myho kamose, kryptomenoveho milionare, kterej s tim zacal z nuly relativne pozde, skocil do toho nekdy tusim 2014-15 a loni jsme meli *velikou parbu kterou svolal, ze uz se dostal na milion dolaru na svym uctu (parba byla fenomenalni .. asi po trech dnech mel na uctu 995k nebo neco podobnyho)
@AiMLEzZz (14.01.2021 18:09): tak samozřejmě že není mrtvý. Pro kancelářské použití a jako zobrazovadlo k přístrojům je výhodný. Typická kombinace 3:4 a vedle toho 16:10/9 natočený na výšku se u nás vyskytuje na mnoha stolech.
jakoze kdyz to porovnam tak do sirky to je obrovsky rozdil ale do te vysky jen kousek, takze pocitam ze s 27 palcovym ten rozdil bude stejny primoumerne k tomu 24 palcovemu, cimz si moc nepomuzu. Ten 17 palcovy je totiz ctverec oproti obdelniku a tim ze ten vyskovy rozdil je minimalni tak pusobi kompaktneji, to se nedelaji monitory ktere by byly i do vysky vetsi?
tak monitor uz mam doma a teda obaval sem se zbytecne ze 24 palcu je nejak moc, cekal sem vetsi kravu teda, oproti tomu 17 palcovemu je to vetsi jen sirkou, ale do vysky jen asi o 1 - 2 cm. Este ze sem nevybral ten 21.5 palce, sem klidne moh vybrat i vetsi kdybych toto vedel, ale nad 24 palcu uz se to nehodi na Full HD prej
Jinak mam tento https://www.datart.sk/g2490vxa-g2490vxa.html
@Gordon (14.01.2021 14:05): No, tak křehké ty systémy určitě nejsou, aby tě nějaký lokální blackout musel trápit. Ale je fakt, že ta virtualita je zajímavé téma. To ostatně platí i pro celou společnost. Ta stojí jen na tom, že všichni uznáváme, že každý člověk má určitou autoritu, která je ale převážně fiktivní. Kdyby se všichni naráz, nebo alespoň nadpoloviční většina lidí, rozhodli nedodržovat nějaká pravidla, tak s tím sebevětší autorita nic moc neudělá.

Diskutující (8)