Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

@Rapier (29.08.2019 13:51): Tak na konzolích je velmi pravděpodobný, že budou targetovat 30fps, což jim hodně usnadní život.

@kuler91 (29.08.2019 13:55): tak jsi asi slepý (sorry) :) Pokud stojíš prakticky v jakémkoliv interiéru kam dopadá světlo z venku, tak je rozdíl vidět. Ikdyž je ten rozdíl často velmi "subtle", ale zvyšuje realismus scény.

@Rapier (29.08.2019 14:17): v tom videu cos postoval říká, že v Metru dělá RT jen stíny. To není pravda, stíny tam přes RT nejsou, RT tam řeší global illumination a je poznat jen venku na povrchu v interiérech - tam, kde je svit slunce. V tunelech skutečně nemá v Metru RT žádnej efekt. Nemůže se divit že nepozná rozdíl, když kouká tam kde není :)

A taky to není tak, že by v Q2 byly "implementovaný všechny efekty" - Q2 RTX zkrátka jede komplet přes pathtracing, není to o efektech ale o komplet renderingu všeho na scéně. A jo, rendering všeho přes raytracing není u moderních her zatím možný, není na to výkon a pár let ještě nebude. Proto se u moderních her RT zatím používá selektivně (a v tom je ta revolučnost RTX architektury, že dokáže kombinovat rasterizaci a raytracing v jednom snímku).
@kuler91 (29.08.2019 13:55): pokud jsem dobře poslouchal to video níže, tak tam borec říkal, že žádná z nových her nemá implementované plné RTX efekty ale jen něco (u Tomb Ridera např. jen stíny), že u Metra prakticky nerozezná žádný rozdíl mezi RT on nebo off, a jediná hra kde jsou prý implementovány všechny RT efekty je Quake 2.

Opravdu by mě zajímalo jak to AMD udělá, když v konzolích bude Navi RX 5700. To tam jako dají specializovaný HW na RT nebo to bude jen software podpora? Je reálně že RX 5700 bude mít také software podporu pro RT?
EDIT: aha takže softwarově:
PS5 or XBOX/What ever both Microsoft(DX12) and The Khronos Group(Vulkan and the other Open standards APIs) will be providing an alternative code path for any GPU that has shader cores but lack Ray Tracing Cores, and ditto for Tensor Cores(Matrix Math Units).

So Shader cores can be used to accelerate Ray Tracing and AI workloads but just not as efficiently or in an as low latency manner compared to Hardware Based Ray Tracing Units/Cores or Tensor Cores.

It's all math anyways it's just a matter of the efficiency/latency of and shader cores methods versus dedicated hardware unit methods. BVH(Bounding Volume Hierarchy) calculations for Ray Tracing can be done on CPU cores as well in addition to many other pre and post processing workloads. AI's can be run using CPU cores as well but it's just not as efficient as GPU shader cores or Dedicated Tensor Cores(More efficient than Shader cores) where AIs can be run more efficiently with lower latency as well.

Some of Intel's mobile focused CPU cores designs are getting Neural processing functional blocks and I'd imagine that AMD will have to have some of that as well for any Laptop mobile market competition. Look for everyone's graphics to be getting Tensor Cores/Neural cores as well as some form of Ray Tracing BVH acceleration IP in their GPU/Graphics hardware over the next 3 or so years.

AMD's Console API semi-custom IP R&D will be used in its PC/Laptop focused offerings as well and even some IP from those government Exascale Systems will work it's was down rather quickly into the consumer market as well from all the CPU/GPU makers.

I'm looking forward to some Samsung Gaming Phones/Tablets that make use of Custom ARM cores(Mongoose M4 or better) paired with Navi-2 graphics and the M4 cores are just as wide order superscalar as Apple's A series cores with the M4 being even wider on the middle and back end than even Apple's offerings. Maybe some future ARM cores with SMT enabled as well for better core execution resources utilization compared to non SMT enabled CPU cores. Ditto for Graphics Tablets with Navi-2 graphics.

Welcome to the second age of MOAR Cores, be that CPU, Shader, Tensor, Or Ray Tracing cores. But really folks need to pay more attention to those TMUs and ROPs and those GigaTexel and GigaPixel performance metrics as well. TechPowerUp's GPU Database is definitely a go to resource for that info!
@Paul (29.08.2019 12:01): Skvěle ? :) Nic ve zlém, ale během běžného hraní Metra jsem prostě rozdíl prakticky neviděl :( .... Control je hnusné samo o sobě a těch pár naleštěných podlah je z toho žádnou pecku neudělá. Já jsem z toho zatím poměrně zklamaný, ale tak jsou to teprve první hry .... 2077 a novější hry se s tím popasují snad lépe.
Zajímavý názor na Ray Tracing.

Také si myslím, že nové hry jej budou podporovat, obzvláště pokud se tím chlubí Sony a Microsoft u nové generace konzolí, je zajímavé že tam bude NAVI ale asi i nějaký další HW na RT. Nedokáži si sice představit Ray Tracing v hratelných FPS u Cyberpanku, protože mapa má být takřka tak velká jakou Witcher 3 ale s tím, že to bude jedno velké město a navíc několika úrovňové. By mě fakt zajímalo jak se to vůbec reálně bude hýbat bez, natož pak s RTX, když člověk bude stát někde nahoře s výhledem na skoro celé město.... když vyšel Witcher 3 prý se hýbal nadmíru dobře i na normálním HW ale to byla relativně prázdná mapa.....
@kuler91 (29.08.2019 11:55): když je to tak o ničem, proč to cpou do konzolí? Už teď je pár her kde to vypadá skvěle, a hlavně v době vydání Cyberpunku bych nechtěl mít hardware co to neumí.
Na Ray se s prominutím vyser ... Je do o ničem zatím, maximálně žrout výkonu .. vypadá to i nepřirozeně ... 2060/2070 to navíc solidně ani neutáhnou.
Nvida marketing umí moc dobře, přeci jen se nechtějí vzdát brutálních zisků a osekávat ceny za GPU, tak tohle byla asi nejlepší možnost, jak se na lidech napapat ...
Jako pořád bych dával asi přednost Nvidii, ale určitě ne kvůli Ray tracingu.
@Bursoft (29.08.2019 10:35): v tom videu níže je RTX 2060 Super, takže prakticky totéž co RTX 2070 a ve FullHD v Metro s Extrem details a Ray Tracing na Ultra ukazuje mezi 65-70 fps. Zajímal by mě ale výsledek v 1440p.

EDIT
Aha tak zde je výsledek:
1440p + RTX on Ultra min 29, avg 34
1440p + RTX on Ultra + DLSS on min 34, avg 40
Těchto FPS dosáhne RTX 2060 Super/2070 (bez super) v Metru. Hm nic moc, je to na hraně.

EDIT2: hmm The biggest downside here is still AMD’s drivers. The issue where the screen flashes various colors on install seems to be fixed, finally, so at least users don’t get that as their out-of-box experience. That’s a good improvement, but it never should have been broken to begin with. Overclocking and fan changes are still broken:

Setting a fan speed does not apply under idle, so if you want the fan to spin at 40% at all times, it won’t actually start spinning until there’s GPU load. We view this as unexpected behavior for software. If the user sets a fan speed override, by nature of being an override, the fan should spin at that speed at all times. For fan noise testing, we actually had to run 3DMark in the background just to change the fan speeds. Normally, we can do it idle from desktop.
Setting a higher fan speed does not allow it to come back down. If you set a fan speed of 90% and then try to back it down to 80%, you basically have to restart to change the fan speed, or wait a very long time – long enough that, after a few minutes, we gave up and just restarted. This has been a bug since Vega: Frontier Edition and is incredibly annoying. It exists in Afterburner and WattMan, so must be an API issue.
The new driver has black screen hard crash/lock issues that resemble OCP when attempting overclocking in some games, even though the overclock validates as stable.
Overall, the drivers are good enough that most people won’t notice the many minor annoyances that exist. You’ll probably be able to game without encountering issues, it’s just the hardware tuners who should be advised of these concerns.
@Toaleťák (29.08.2019 10:17): Nevím jak v Rapierovo 2k rozlišení, ale kamarád má RTX 2070 a ve full HD Battlefield 5 nebo poslední Tomb Raider mu jede plynule se všema RTX efektama, co jdou zapnout. Teď máme oba ten microsoftí game pass, tak bude testovat i Metro, který je zatím nejnáročnější, tak potom můžu napsat, až to testneme někdy..
@Bursoft (29.08.2019 10:03): To jsem si naběhl co? :-D:-D. Jako v reálu si myslím, že než si to rapier koupí, budou drivery OK :-D. No osobně bych dal tomu šanci, vždyť kdykoli to můžu ve 14 denní lhůtě vrátit, kdyby už tak. Trochu mě sice mrzí, že u AMD přijdu o RayTracing , na druhou stranu, pokud bych se měl rozhodovat mezi 5700XT a 2060S, tak stejně ten RayTracing je na té 2060 docela nepoužitelný.
@Toaleťák (29.08.2019 09:46): Jakože všichni ti youtubeři zaměření na techniku mají zavirované komply, když dělají recenze? :D Zrovna v recenzi toho Sapphiru si na Gamer Nexus stěžoval na neodladěný drivery (i když podstatně vyladěnější než při releasu).
@Rapier (29.08.2019 09:05): No já mám teď nVidii, ale dal jsem si na ni vlastní chladič. Předtím jsem měl od AMD 280X a s ovladači jsem taky problémy neměl. Podle mě většině to jede v pohodě a ozývá se pár lidí, kde často problém nemusí ani v samotných ovladačích být. Jako když někdo napíše že mu to blbne a padá Control Center, tak je holt buďto smůla na špatný kus, ale s větší pravděpodobností bude mít nějakého chrobáka ve Winech. A tím nemyslím nějakého vyloženě vira, ale kdo ví co mu beží na pozadí, nějaké cleanery, antiviry na antivirech jiných antivirů které kdoví co zrovna injektují atd.

Co se týče chladiče, tak Noctua je kvalitka, o tom žádná :-). Osobně dávám v dané cenové relaci Ninju 5. Je tišší, taky že má nižší otáčky větráků a chladí rekl bych stejně, možná krapet lépe.
@Toaleťák (29.08.2019 08:47): jj moc pěkná ta sekce o AM4 Vcore VRM Ratings, na to jsem narazil před časem když jsem hledal info jak bezpečně taktovat R7 3700X. Zatím po poslední sérii článku o změnách v AGESA 1.0.0.3 jsem dospěl k názoru, že by to chtělo už tu Noctuu, protože zdá se že k dosažení max. boostu nebo přetaktování mě chybí hlavně účinné chlazení. Vidím to na koupi NOCTUA NH-U12S SE-AM4, ten chladič ještě stojí přijatelnou sumu.

Horší je to ale s koupi GPU, nemohu se rozhodnout mezi RX 5700 XT od Sapphire nebo nějakou lépe chlazenou RTX 2060 Super. Pokud jsem pochopil recenze správně tak 5700XT má o 10% vyšší výkon v 1440p v průměru, což je dost rozdíl. Straší mě ty ovladače. V minulosti jsem měl hodně Radeonu a přiznám se, že jsem si na ten komfort u Nvidia zvykl. Jako myslím tím fakt, že jsem s GTX 960/1060 neměl žádné problémy. A když myslím žádné, tak opravdu nulové.
Samozřejmě bral bych všemi deseti RTX 2070 Super ale 15-16 tis s účinným chlazením, to už se mi zdá moc. Podle stoupajících cen GPU (především na straně Nvidia) se mi nezdá, že by začala nějaká cenová válka mezi Nvidia a AMD.
Možná se to zdejším HW nadšencům bude hodit. Aktualizované tabulky s dost detailním popisem všech možných parametrů:

X570/X470/X370/B450/B350/A320 Motherboards (AM4-socket for AMD Ryzen CPUs) Comparison + AM4 Vcore VRM Ratings

Z390/Z370/H370/B365/B360/H310 Motherboards (LGA1151v2 for Intel 9th & 8th-Gen Coffee Lake CPUs) Comparison

X399 Motherboards (TR4-socket for AMD Threadripper CPUs) Comparison

Graphics Card Comparison Table

PSU (Power Supply Unit) Comparison
@valcik (28.08.2019 09:04): Ono v ideálních podmínkách by měla být kvalita resp. věrnost obrazu blížící se nativnímu 4k renderu asi taková, seřazeno vzestupně, pokud renderujeme z 1440p:

1. 4k z 1440p + RIS
2. 4k z 1440p + DLSS
3. 4k nativně

RIS prostě více informací, než obraz v 1440p nemá, čili nemůže si věrohodně domýšlet něco, co jde vidět jen v nativním 4k.

DLSS tyto informace (jejich podmnožinu) má a tím pádem může být obraz obohacen o detaily, které náleží nativnímu 4k. Otázka je však do jaké míry. Pokud bychom šli ad absurdum, tak dejme tomu že databáze naučených dat je prázdná, tam DLSS může fungovat, ale nic vlastně nebude dělat, takže výsledný obraz bude horší než u RIS. To je přehnaně řečeno případ první implementace do Metra. DLSS mělo k dispozici asi málo dat a výsledek byl značně žalostný. Horší než RIS. Teď však je už implementace do metra updatnutá a jde vidět že ten obraz už je lepší ve smyslu věrnosti nativní 4k předloze než RIS čistě proto, že DLSS má dost dat.

Co se týče toho sharpeningu u nVidie, tak zásadní otázkou je to, jestli ten sharpening probíhá před nebo po případném upscalu s bilineárním filtrem. Pokud to funguje na principu reshadu, který se aplikuje před GPU upscalem, tak je to úplně k ničemu oproti RIS, pokud to chceme využít na zlepšení obrazu renderovaného v nenativním rozlišení monitoru. Pokud to je opačně, tak by to bylo skvělé :-).
@Rapier (27.08.2019 21:53): např. v Shadow of the Tomb Raider jsem měl raytracing vyplej, protože je tam použit jen na stíny, a ty vypadaj dostatečně slušně i v tý fake implementaci co tam maj, ten rozdíl je blbě znatelnej. Ale DLSS jsem měl zaplý, protože mi umožnovalo 4K@60fps bez dropů. Za to v Metru jsem měl zaplej raytracing (protože je použit na global illumination, tzn. všechny interiéry kam dopadá světlo z venku jsou tím ovlivněný) i DLSS a hezky se to doplňuje.
@Rapier (27.08.2019 15:32): DLSS je zcela separátní funkce a s raytracingem nemá nic společnýho. Lze to mít zaplý či vyplý nezávisle. Kvalita pak záleží na implementaci a kolik času na tom ta jejich AI stráví. V Metru to zezačátku vypadalo blbě, pak vydali patch a DLSS už vypadá parádně. V Shadow of the Tomb Raider jakbysmet. Pro raytracing se to hodí, protože to vyvažuje ten performance hit.
@Rapier (27.08.2019 16:17): Tak tedy má úvaha. Mám monitor s FullHD rozlišením, 60 Hz, jde mu vnutit bez problému 69 Hz. Větší frekvence nedává. To už se začíná na obrazovce tvořit bordel. Při nižším rozlišení, ostatně jako mnohé jiné monitory však podporuje vyšší frekvenci. Třeba při 1024x768 podporuje nativně jak 60, tak 75 Hz. To je dále důležité. Další důležitou věcí je v nVidia Control Panelu položka "Přizpůsobení velikosti a pozice plochy" a v ní volba "Provést směnu měřítka na:" a volby jsou buďto Monitor nebo GPU.

Je jasné, že pokud zvolíme změnu měřítka na monitoru, tak grafika do monitoru posílá přes kabel obraz přesně v takovém rozlišení, jaké jsme si navolili.

Nicméně při změně měřítka na GPU by teoreticky měla grafika posílat obraz fyzicky do monitoru v jeho nativním rozlišení. V tom případě by ale nesměla dosáhnout v mém případě na 75 Hz při 1024x768 a vlastně by při tomto rozlišení měla dosáhnout v mém případě přesně 69 Hz, stejně jako dosahuje při nativním FullHD. Tak jsem to zkusil a výsledek?

Tak první nápovědou je vůbec to, že při volbě změny měřítka na GPU už Control Panel najednou ani tuto vyšší frekvenci (75 Hz) při 1024x768 nenabízí. Musel jsem ji níže tedy vnutit.

1024x768 -> 75 Hz -> brutální artefakty na monitoru stejně jako při vnuceném FullHd a 75 Hz
1024x768 -> 70 Hz -> občasné artefakty na monitoru stejně jako při vnuceném FullHd a 70 Hz
1024x768 -> 69 Hz -> žádné artefakty na monitoru stejně jako při vnuceném FullHd a 69 Hz

Domněnka se tedy potvrdila.

Z toho plyne, že obraz se vyrenderuje v požadovaném rozlišení (v mém pokusu 1024x768), grafika si ho následně nejspíše zinterpoluje nějakým primitivním filtrem do nativního rozlišení monitoru (V mém případě FullHD) se zvoleným scalingem (ale to je teď vedlejší) a dále pak by se měl použít onen sharpening filtr. Následně tedy je do monitoru v mém případě poslán po kabelu normálně FullHD obraz. Byť zdrojem je ono 1024x768.

Ale ber to jako nepotvrzenou teorii. Googlil jsem a nic rozumného jsem nevygooglil. Ještě zbývá možnost, že bych nainstaloval GFE a vyzkoušel to, ale přiznám se, ten hnus nechci instalovat tak dlouho, jak to jen půjde :D.
@Rapier (27.08.2019 16:17): 2060 Super je slabsi nez 2070 o nejake to procento. 2070 Strix je o litr levnejsi a je rychlejsi, takze je lepsi volba nez 2060 Super od Gainwardu, byt ta je, co jsem cetl, take dobra co se tyce chlazeni.
Tu Strixu 2070 mám a v Q mode extrémně tichá ... doporučuji za tu cenu, AMD bych asi nebral i když tam furt bude poměr cena/výkon lepší ...
@Rapier (27.08.2019 16:06): Pokud to nevadí, že musíš mít nainstalované GFE, tak je to tak jak říkáš. Jen taková poznámka, nVidia ten sharpening už tam nějaký ten pátek měla jenom to bylo trochu HW náročnější, teď ten algoritmus trochu přepracovali. Takže vlastně nic moc neokopírovali.
@marwel (27.08.2019 15:45): aha takže nejen Intel musel začít reagovat na AMD ale už i Nvidia.... takže vlastně převzali RIS, dodělali k tomu momentálně lepší user interface a fakticky pohřbili DLSS. Chápu to tedy dobře možnost kterou jsem níže popisoval u Radeonu tedy hrát v FHD+RIS (nebo jak se to Nviidia jmenuje) mám nyní na výběr u Nvidia taky?

@Bursoft (27.08.2019 15:57): no já mám taky podobný pocit. A to mi věř že bych si tu RX 5700 XT rád koupil. Ano, pravděpodobně je to drivery.
@Rapier (27.08.2019 15:04): Já koukal na nějaké recenze na YT a dost lidí si stěžovalo na problémy s ovladači, možná je to jen SW problém.

Osobně bych šel na jistotu do 2060S nebo nějaké výprodejové 2070, na mě ty Radeony působí dost rozpačitě a na rychlo vydané..
V soucasnosti tezko vybirat.. Osobne bych asi uvazoval o tehle, ale take by me dost lakala referencni RX 5700 za 8,5. Jenze ten hluk no. Nebo muzes vzit Strix 2070 za 12. To se zda byt jako asi nejlepsi volba.
@Toaleťák (27.08.2019 15:18): teď jsem se bavil se známým, co je na Nvidie. Sám mě doporučuje momentálně koupi RX 5700 XT. Teď řeknu možná něco co není pravda (tak mě prosím opravte), říkal mě, že pokud to správně chápe tak Ray Tracing funguje jen při zapnutel DLSS, tzn. že obraz se zmenší na nižší rozlišení, započítá se Ray Tracing a pak se obraz vylepší aby vypadal jako v nativu. Důvod je výkon, bez DLSS by byl mnohem nižší, než už i tak je.

U AMD ta technologie Radeon Image Sharpening prý funguje i na 1440p panelech, obraz se zmenší na FHD a pak se přepočítá jako by byl v 1440p. Což by znamenalo, pokud to chápu dobře, že pokud by Radeon v 1440p nestíhal (protože vyjdou později nové náročné hry) tak uživateli nic nebrání hrát v FHD (soudím dle foto z tohoto webu - Sapphire TriXX boost) přepočítaných na 1440p prakticky bez ztráty výkonu. Údajně je také ten obraz ostřejší (kvalitnější) než u DLSS.
@Rapier (27.08.2019 15:04): Já bych PULSE určitě vzal. To co tam píše ten člověk je nějaké pochybné, i to že mu Control Center padal a tak. Tam bych viděl fakt nějaký nestandardní problém kdoví na jaké straně. Vždyť při nejhorším to v 14 denní lhůtě vrátíš. Jako o RTX 2060 bych určitě neuvažoval. Podle mě to je nejzbytečnější karta. Na RayTracing to je gumové, tak proč nevzít 1660 Ti mnohem levněji nebo, a to bych volil jako alternativu, pokud by 5700 XT sklamala, vzal bych RTX 2070.

edit: tak se dívám, ta SUPER verze 2600 je docela dobrá oproti normální, takže bych ji klidně vzal :-). Takže předchozí text jsou vlastně dost bludy :-D. Omlouvám se.
Co si myslíte o Sapphire Radeon PULSE RX 5700 XT 8G, 8GB GDDR6? Trochu mě straší před koupí (aktuálně skladem u zeleneho mužika) to co napsal jeden človíček do diskuze..... jsem rozhodnutý něco koupit ale tohle níže mě straší:

Milanek120. 8. 2019 15:34 nahlásit
@repa6: Hluk se dá poladit, nicméně ani tak to není moc tiché, ale ani vyloženě špatné, což je na základní model normální. Mám ve skříni poměrně dobrý airflow, i5 9400f se uchladí s chladičem fera 3 pasivně při gamingu a s 5700xt se mi ticha docílit nepodařilo.
Víc mi vadilo velké kolísání frekvencí grafického jádra a samotné využití GPU usage. Tím samozřejmě přijde i ne moc stabilní FPS (hraji v 1440p)
V testech se dočtete, že má karta na sobě kůču všemožných čidel pro udržení maximálního stabilního boostu a já z toho měl pocit, že se mezi sebou nějak ne a ne dohodnout. Trošku pomůže zvýšení power limitu, ale i tak to není dobré a kartu neustále něco škrtí (asi limit spotřeby) , místy až moc a frekvence padá až třeba na 1400 MHz a vzápětí vyleze přes 2 GHz sáhne si třeba i na 250w a trada dolů atp.
Na 7nm proces fakt nic moc, konkurence je zcela někde jinde . Jediný způsob jak to vyřešit je asi úprava v registrech, kdy povolíte kartě +95% power limit a tam už to vypadá hezky, ale to bych s tímto chladičem určitě nedělal a karta pak žere kolem 300w.
Software od Sapphiru Trixx nešel ani spustit a neustále padal. Radeon Control Centre mi dvakrát způsobil pád systému. Předchozí gtx 1070 gaming X byla tichá a bez problémů.
Celkově na mě karta působila nedoladěná a zanechala ve mě rozporuplné pocity. Nemám chuť něco někde upravovat a ladit jen proto, aby to mělo fungovat tak, jak má když za to dám tolik peněz. Třeba ještě dozraje a bude všechno v pořádku, ale to už budu mít nejspíš v bedně 2070 super.

+
Milanek120. 8. 2019 16:49 nahlásit
@GreenT: To je pravda, zatím není od uživatelů moc ohlasů, nicméně se mi jich pár podařilo najít (nevím už kde přesně) a víceméně psali buď o artefaktech nebo o
"gpu clock flying" jinými slovy o tom samém.
Tím nepíšu, že karta je špatná nebo dobrá, píšu pouze mou zkušenost. Pár karet jsem už měl, má první byla GeForce 2, tak snad něco dokážu zhodnotit :D

+
Milanek120. 8. 2019 17:49 nahlásit
@NEHARIA: K tomuto kroku, tedy k úpravě registrů za účelem udělat z karty nenažranou bestii jsem se neuchýlil. Píšu o tom jen jako o možnosti. Těchto informací jsem při mém víkendu s novou kartou našel dost, lze to snadno vygooglit. Byl jsem z karty rozčarován a tak jsem hledal informace jak na Google tak na YouTube.
Jinak hluk bych ještě asi snesl (možná), ale kolísání frekvencí ne a celkové lehce zběsilé chování power limiteru už vůbec ne a čekat na nápravu v podobě ovladačů jsem prostě nechtěl.
To, že karta náráží na limit spotřeby je normální, nějaké mírnější kolísání frekvence taky, ale tohle byla horská dráha.


Díval jsem se na zahraniční recenze, docela tu kartu chválí. Tak nevím zdali nejít do dobře chlazené RTX 2060 Super OC (která dožene na taktech XT) ale za příplatek s dobrým chladičem jako tento model.
Takže když si koupím modulární kablík zvlášť, protože mi třeba nevystačily, tak si můžu odpálit komponentu? Super!
@Garion (27.08.2019 13:32): Moc nerozumím otázce. Výrobce může použít vodiče jaké chce. Nejhorší zdroj, co mám ve svém okolí, mám v pracovním PC :) Až ho vypnu, tak se kouknu, co je napsáno na izolaci.
@Kwoky (27.08.2019 12:22): Ohledne toho prurezu - videl jsi to ve skutecnosti nekde u zdroju v praxi? Predpokladam, ze je to (pripadne) zalezitost jenom tech pridavnych napajeni (6, 6+2, 8-pin), cekal bych, ze zbytek bude standard.
Není nic jednoduššího, než vzít multimetr a kabely propípat (pkud nemám multimetr, použít metodu oční „kam ten drát vede“). Bohužel až to zjistíš, budeš mít ty kabely stejně už vyndaný a můžeš tam vložit nový. :D

BTW: Vždycky mě fascinovalo, že na tohle ještě někdo nevytvořil standard. Většina výrobců používá stejný konektory, takže „strčit tam jdou“, ale každej si je zapojuje autisticky jak je napadne. Kdyby aspoň každej použil jinej konektor, ať to tam strčit nejde. To je jak kdyby někdo speciálně pro svůj mobil vytvořil USB nabíječku, co má prohozený datový a napájecí piny jen tak for fun bez důvodu, abys po zapojení jiný značky spolehlivě konkurenci odpálil.
@Korbitch (27.08.2019 11:45): odkaz

Pokud jsou zdroje od různých výrobců, tak důrazně NEDOPORUČUJI prohazovat kabely. Můžou tam být jiná napětí na jednotlivých pinech, protože konektory na straně zdroje nejsou sjednocené.

V tvém případě je dost velká pravděpodobnost, že to bude v pohodě. Oba zdroje jsou od stejného výrobce a jsou i řekněme podobného výkonu (aby nenastal problém s průřezem vodičů). Já bych do toho ale nešel. Děláš to na vlastní riziko.

@samorost (27.08.2019 12:09): Jsou. Mají různé průměry. Označují se jako 16AWG, 18AWG a podobně. Čím menší číslo, tím vyšší proud to snese. odkaz
@Korbitch (27.08.2019 11:45): Po 3 vterinach premysleni v tom nevidim nejaky zasadni problem, pokud maji ty kabely stejne koncovky (a novy zdroj ma stejne nebo vice vsech potrebnych zdirek). Vzdyt je to jen kupa dratu.
Dnes mě čeká operace. Vyndat starý zdroj a vložit nový. Fuj, už teď je mi blbě. Oba jsou moduláry Seasonic. Starý je plus bronz 520w a nový plus gold 650w. Vycvakat kabely ze starého a nacvakat je do nového je asi píčovina, co... Ale zase by to bylo hned :-D