Pro pohodlnější navigaci i přístup k pokročilým funkcím Databáze-her.cz doporučujeme povolit si ve svém prohlížeči JavaScript.

Hardware

@MCZ (21.01.2021 14:43): Obecně si myslím, že napsat výrobci o nový kabel není problém. Případně pokud si poškodíš stávající. Jediný nový konektor co vyšel v poslední době byl ten 12pin od NVidie, ale ta dávala k FE svých grafik, které to používaly, redukce tuším. Možná že někteří výrobci nabízejí i svoje redukce na tenhle konektor. Jinak jsou ty konektory už roky stejné a spíš jde jen o počet konkrétních konketorů, které člověk potřebuje. takže pokud má člověk hodně věcí na SATA power konektor, tak si pohlídat, zda jich je ke zdroji dost. Stejně tak nekteré méně výkonné zdroje nemusejí mít třeba tři 8piny pro grafiku.

Jinak co se týče kabelů v rámci značky, tak já třeba když jsem teď měnil Focus Plus za GX tak i když konektory měly stejné, stejně jsem se s tím raději jebal skoro hodinu a kabely vyměnil taky, protože mimojiné je v popisku u výrobce toto, nevím jestli by to mělo vliv, ale nechtěl jsem nic riskovat.

"Seasonic engineers have made improvements to the popular series such as removing the inline capacitors on the supplied cables"
K těm zdrojům... koukám na svůj nemodulární 550W Corsair. :-)

Každopádně vzhledem k tomu, že provádím větší upgrade jednou za pár let, tak jsem nikdy o dlouhodobých rezervách nepřemýšlel. Až bude ale k sehnání nějaká nová grafická karta za rozumné peníze, tak klidně zainvestuji do modulárního. Jak je to ale s těmi kabely? Má třeba někdo zkušenost s tím, že se objevil nějaký nový konektor a Seasonic/Corsair pak ke svým zdrojům pak doplnil možnost dokoupit kabel zvlášť? A jak je to vůbec s interoperabilitou kabelů v rámci jedné značky?

Jinak Xbox Series Controller mám doma. A krásně funguje i s Bluetooth 4 dongle jiného výrobce.
Ono to podle mě moc neklesne. Jedna věc je, že ke konci minulého roku v podstatě žádné zdroje 750+ W ani nebyly k sehnání, teď v půlce ledna se toho objevilo dost. Já měl štěstí, že jsem na CZC chytil Seasonic Focus GX 850W za 3499,- za dva dny byl vyprodaný a teď už tam je o 200,- dráž. Alza ten samý zdroj prodává dokonce rovnou za 4k a za 3500,- nabízí "jen" 750W verzi. Lepší Corsairy HX(i) RMx nebo RMi jsou taky přes 4k v 850W verzích.
@Chuck (21.01.2021 13:03): Seasonicem a Corsairem nic nezkazíš. Ale spíš bych to řešil, až to bude aktuální, momentálně mi ty zdroje přijdou hrozně předražený a grafiky stejnak nekoupíš.
@Chuck (21.01.2021 13:03): Jakože podle názvu značky si myslíš, že budou tišší? :D

Seasonic má na sobě tlačítko, kterým se zapíná semi-pasivní režim. Do určité zátěže se větrák netočí vůbec.
@Thellwin (21.01.2021 11:17): Já souhlasím, že rezerva "watáže" může být do budoucna jen k dobru, zvlášť jestli budoucí GPU budou nenažrané. Já si teda myslel, že RTX 2060 Super je moje poslední, ale....no uvidíme. ;-) Jinak moje tipy ohledně značek jsou víceméně stejné, ten Be quiet! a SilentiumPC mi přišlo, že by třeba mohly být tišší.

@Gordon (21.01.2021 11:29): Přišlo mi, že těch je o něco méně než plně modulárních.
@Jab (21.01.2021 10:02): Tak to ale se vzdáleností přece taky souvisí.. zkus se nalepil na 24" monitor třeba 10 cm od něj, taky to není nic příjemného. A myslím si, že i rychlé pohyby v zobrazovadle nemusí dělat hlavě dobře, pokud jej máš moc blízko, aspoň mně by se dělalo blivno sedět takovej kousek od 40"+ monitorů..
@Chuck (21.01.2021 10:06): Seasonic Focus GX v případě, že by jsi chtěl jít do 750 W ... Corsair RM je taky ok. Do těhle dvou značek bych šel já. Otázka "Watáže" je složitější. Já osobně preferuji mít radši víc, než top stavet na míru současné potřebe. Tyhle zdroje mívají záruku třeba 10 let, což znamená, že s tebou může vydržet fakt dlouho a řešit třeba po 3 letech problém, kdy chceš upgradnout na něco co je žravější a zdroj pojede pod zybtečně vysokou zátěží = konec s pasivním chodem je otrava.

Když má zdroj vysoký výkon tak může jet dost často v úplně pasivním režimu nebo větrák točí jen pomalu. Radši budu provozovat sestavu co má odběr 450 W na zdrojí co má výkon 850 W a pojede na půlku výkonu, než to cpát na něco, co nemá moc velkou rezervu.

Něco z vlastní zkušenosti. Před třemi lety jsem vyměnil nějaký Enermax za Seasonic Focux Plus 750 W. Tenkrát to byl overkill, kvalitní 600/650ka by bohatě stačila. V loni na podzim jsem to ocenil, když jsem upgradoval na RTX 3080. Před týdnem jsem si koupil novej Seasonic Focus GX 850 W, protože jsem měl v plánu lepší edici RTX 3080, ale jinak byla ta 750ka úplně v pohodě a asi by dala i tu lepší RTX 3080, nicméně jsem chtěl mít jistotu.
Poprosil bych o malou radu. Včera jsem svoji tzv. méně herní PC sestavu (viz můj profil) odvezl a věnoval do nové rodiny, kde ji bude používat 12-letý kluk. Ten sice doteď hrál poměrně málo, ale věřím, že až dohraje rozehraný HL2, těžko se hrami skončí. :-) No a jelikož je v onom PC jen grafika nVidia GTX 650, předpokládám, že v dohledné době bude chtít jít do grafiky lepší. Jediný problém, který by mohl vzniknout, by byl tento zdroj, který sestava má. Proto jsem si říkal, že by se mohl bohatě spokojit s tímto zdrojem, který mám momentálně ve svojí hlavní sestavě, a já bych šel tím pádem do jiného. Myslím, že ten nový by měl mít minimálně 650W, ne-li dokonce víc, a tak tu mám pár tipů, které mne zaujaly a poprosil bych o vaše názory. Můj finanční strop je kolem 3k, když je přešvihnu, nezhroutím se. Jinak bych rád, aby se uměly vypínat při nízké zátěži jako ten můj Seasonic, ale doufám, že to už umí většina z nich. Samozřejmě, čím tišší, tím líp. Moje tipy jsou tyto.
@Bursoft (21.01.2021 09:50): Proč by v tom velikost panelu měla hrát roli? Větší vzdálenost od většího zobrazovače je imho primárně prostě z toho důvodu, aby člověk viděl celou obrazovku. Hlava jej tedy podle mého bolela z jiných důvodů. Sám bych dal na první místa jas a kontrast.
@Jab (21.01.2021 09:28): Tak to video je spíš z ranku "no shit Sherlock". Jako sedět ani ne metr od 48" TV je úlet, to se nedivím, že ho bolela hlava. Tipuju, že od toho existují gauče a gamepady :D
@Guldy (20.01.2021 23:42): Hele je to složité. Ta herní... Je fakt, že často to je zvukově dost hrůza. Ale najdou se výjimky. Dobrý youtube kanál obecně ke sluchátkům je Z Reviews. Deimos je obecně místní kapacita a v případě neherních sluchátek určitě poradí vhodnou kombinaci normálních a externího/připojitelného mikrofonu. Já osobně mám první generaci sluchátek Audio Technica MSR7 (ještě s jednou šňůrou), které tak šly připojit k V-Moda BoomPro mikrofonu, který je za tu cenu velmi dobrý. Dnes má ale většina sluchátek nějaké úchylně specifické konektory a tak do nich připojit nejdou.

I ten "Z" výše ale doporučoval z herních Cooler Master MasterPulse MH751 (či MH752), které cenově rovnou z fleku bezpečně vychází v tom tvém rozpětí. Jako minimálně fajn se označují i všemožné HyperX Cloud varianty, neb HyperX zkopíroval normální sluchátka (nějaké Takstar).

Vyloženě na domácí použití z neherních se doporučovaly Audio-Technica ATH-AVC500. (I) na ven naopak Audio-Technica ATH-M40x. Zase obé z fleku hned v tom tvém finančním rozmezí a ještě zbyde na mikrofon.

Ale Deimos bude umět poradit více (kdyžtak si jej sem zkus "přivolat" přes pm). Sám jsem dlouho po nových sluchátkách nekoukal a on by měl mít stávající relevantní informace či bude umět doporučit jinam. Sám mám s jeho asistencí ty MSR7. ;)
@Guldy (20.01.2021 23:42): Az neco najdes, ozvi se :) Bohuzel uz me asi brzo take ceka vymena. Nedavno jsem zkousel nekolik novych modelu z ruznych cenovych hladin a bohuzel jsem nebyl spokojeny s zadnymi. Kvalita reprodukce u me nehraje zasadni roli (ocekavam, ze u sluchatek za nekolik tisic a vyse bude vzdy alespon na urovni "dobra"), komfort je pro me nejdulezitejsi. Co me prekvapilo byl fakt, ze spousta sluchatek ma suboptimalne vyreseny hlavovy most, ktery po delsim noseni (nekolik hodin) zpusobuje v danem miste bolest hlavy, coz je dost neprijemne. Zatim asi nejpohodlnejsi sluchatka, ktera jsem mel na hlave, byla SteelSeries Siberia v2. Polstrovani je z pametove peny, takze me z nej neboli usi, ackoliv jsou na nich castecne nasazene. Vetsina sily, ktera je potreba, aby sluchatka drzela na hlave, je vedena tim externim hlavovym mostem, interni hlavovy most je temer jen "latkovy" (je to nejaka kozenka) a na hlavu prakticky vubec netlaci, takze jsou pohodlna i po 8 hodinach noseni.
Doporucil by mi nekdo herni sluchatka? Cena idealne do 3k. Co od toho cekam: pohodlny sluchatka, aby me nikdy nebolely usi, tzn. ani po 40 hodinach nonstop hrani. Sluchatka musi byt teda v tom stylu, aby bylo cely ucho uvnitr v mekkym matrosi, ne aby sluchatko bylo na uchu - pak to boli. I kdyz delaji se i takovy, kde mate ucho v tom, ale je to tvrdy. Taky na prd. To jsou vetsinou kusy za par stovek.

Uvedu priklad, co mi vyhohovalo a pouzival jsem asi 10 let (2x po sobe) - Razer Carcharias. Mozna to bude pro nekoho shit, mne to slouzilo a bylo pohodlny (coz od toho cekam nejvic). A na ruznych teamspeacich a ventrillech jsem byl vzdycky slyset snad nejlip. Tak nevim, jestli to bylo mikrofonem nebo tim, ze ostatni mluvili z kuchyne. Takze neco podobnyho hledam. Recenze na ruznych alzach a czc se moc nedaji cist, mi prijde. Nevi nekdo o necem?
@AiMLEzZz (17.01.2021 22:03): to je přesně to o čem jsem mluvil odkaz. Už je oznámeno pár novým RT titulů a nestíhá ani Nvidia která má před AMD náskok. Na 60 fps mohou PC hráči zapomenout. Možná později s DLSS 2.0.

"The complete PC requirements have been revealed for Bloober Team’s upcoming horror game The Medium, and you’re going to need a pretty beefy rig if you want to see the game at its best – a RTX 3080 is going to be required for 4K/30fps and ray tracing. Really, the game is pretty demanding across the board, with 1440p/30ps and no ray tracing requiring an RTX 2060 Super or Radeon 5700 XT."
@Garion (18.01.2021 22:23): Těch deset procent byl příklad :). Když si děláš vlastní konvoluční neuronku na rozpoznávání obrazu nebo zpracování jazyka, tak si to můžeš nastavit. Co a jak přesně dělá DLSS, nevím. Trochu jsem doufal, že se tady vynoří nějaký reálný expert, který nás trochu uvede na pravou míru :D.
@AiMLEzZz (18.01.2021 19:06): Zalezi, cemu rikas podobny vysledek - pokud to bude ukrajovat z vykonu pro bezne vypocty, muze se hodit pomalu kazde procento. Ale nerikam, ze to neni nemozne, uvidime. Treba to bude rychlejsi a lepsi, treba to bude stejne rychle, ale horsi, treba to bude pomalejsi, ale lepsi. Nvidia aktualne take mluvi o DLSS 3.0 (myslim?), ktere uz bude univerzalni a nebude potreba podpory v enginu, potom se to asi bude delat jinak. Nebo to byl hoax, neoveroval jsem :)

Tohle si myslim, ze mozna dela v podobnem principu DLSS, proto potrebuje podporu v enginu hry. Ale nejsem si tim uplne jisty, protoze v dnesni dobe uz bude spousta her, ve kterych u spousty lokaci bude potreba to delat temer na vsechno, aby ten vysledek vypadal opravdu dobre, a tim padem si tam usetrenim moc nepomuzes (ale i tak mi to snizeni o rad prijde prilis, to bys mohl rozumne vylepsit 10% obrazu a tech zbylych 90% skoro nechat byt; pokud by to bylo 50%, snizis zase tu obtiznost jen na polovinu a to se na vysledne slozitosti skoro neprojevi).
Pokud tuhle diskuzi někdo čte, reálně ho zajímá, co jsou Tensorcores a, stejně jako mně, se mu nechce sledovat pětiminutové video, tak tady to máte v TLDR verzi.
@Garion (18.01.2021 17:05): Aha, to jsme si možná úplně neporozuměli. Moje pointa byla, že ty tensorcores se při tom forward passu tolik neprojeví, páč je to řádově jednodušší operace než backward pass (v podstatě dosazení do dlouhé rovnice). Chtěl jsem tím naznačit, že v AMD by podle mě měli být schopní i bez tensorcores dosáhnout podobného výsledku, byť jasně, bez dedikovaných jader to bude logicky pomalejší, ale nemyslím si, že to bude v řádech desítek procent. Ale vzhledem k tomu, že tímto jsem svoje znalosti tensorcores de facto vyčerpal, tak nechci moc kecat, protože už bych jen teoretizoval.

K tomu upscalingu - taky neznám podrobnosti, ale není celá pointa v tom, že ušetříš výkon z vykreslování částí obrazu, které nevyžadují velké detaily (typicky rozmazaná silnice v závodních hrách, nebe, kde bývají minimální barevné přechody, tma atp.)? Předpokládám, že ten upscaling se nedělá v celém obraze rovnoměrně. Právě v těch nedetailních částech podle mě není úplně nerealistické, že by se to dělalo po větších blocích. Když máš, řekněme na 30% obrazovky tmu v pár odstínech, tak by podle mě mohlo jít slučovat bloky pixelů, podobně jako se to dělá při JPEG kompresi.
@AiMLEzZz (18.01.2021 15:35): Beru, muze byt (overovat nebudu), kazdopadne to neznamena, ze ten forward pass neni nenarocny. Porad si myslim, ze u (velkych) siti muze davat smysl na to mit specializovany hardware, obzvlast, pokud chces pocitat velke vstupy v realnem case (60FPS) - realita je, ze akceleratory tensorflow se objevovaly uz pred par lety v jistem hardware, ve kterem by to clovek necekal (minimalne v konceptech/prototypech, vic nemuzu rict, NDA). S cim dale souhlasim je to, ze karta neuci model v realnem case (a k tomu treba vykresluje hru), coz je ale irelevantni, pokud je akcelerovan i forward pass, ktery se pouziva v obou rezimech (a tedy ma specializovany hardware smysl i pro koncove uzivatele). Dale souhlasim s tim, ze se to uci hodiny (a to je jeste rychle).

S cim spise nesouhlasim je to, ze se to nedela na beznych GPU, respektive zalezi na definici bezne GPU. My na to mame treba Titany v quad-SLI, coz se cenou hodne blizi(lo) aktualnim "beznym" GPU jako RTX3080 nebo RTX3090.

A co je pro me tezke uverit je, ze by se 4x upscale (z 1080p na 4k) delal tak, ze se vezme vyrazne mene pixelu (10%) a z toho se dopocita obraz, ktery je vlastne 40x vetsi, a vysledek je vyrazne lepsi nez nejake bezne algoritmy (co ja vim, linearni aproximace). Myslim si, ze redukce stupnich pixelu se pouziva spise v ukolech jako rozpoznani obrazu, coz je ale uplne jina uloha.
@Garion (18.01.2021 14:38): "funguje to tak (pokud vim, nejsem v tom v zadnem pripade expert), ze vypocetne je uceni (training) a vyhodnocovani (inference) prakticky stejne narocne"

No, právě že to není ani zdaleka výpočetně stejně náročné. Ten backward pass je právě ta výpočetně supernáročná část. Když učíš NN, tak se snažíš aproximovat nějakou funkci, která ti převádí vstupní hodnoty na výslednou hodnotu. Nejprve pošleš vstupní hodnoty, uvidíš, co ti to vyhodí a spočítáš chybu vůči kýžené hodnotě. A na základě toho upravíš váhy v jednotlivých neuronech (kterých u reálných modelů může být řádově klidně desítky tisíc), třeba pomocí metody sestupného gradientu. A to děláš pro každý vstup (resp. vstupy obvykle chodí v dávkách, aby se ušetřil čas, ale i tak). Naproti tomu ten forward pass je jen to dosazení vstupních hodnot do funkce, kterou máš, což je z hlediska výpočetního času úplně někde jinde.

Jen pro představu, profesionální modely se vůbec netrénují na běžných consumer GPUs, ale třeba na P100, což jsou karty co stojí od dvou tisíc dolarů výš. A na těch to trvá hodiny. Pro zpracování obrazu se sice vstupy různě zjednodušují pomocí konvoluce (v podstatě se shluky pixelů slučují na jednu hodnotu, takže u obrazu v FHD místo 2 milionů vstupních pixelů máš třeba 250 000), ale i tak je podle mě úplně nereálné, že by se karta něco učila v reálném čase a ještě zvládala vykreslovat hru.
@AiMLEzZz (18.01.2021 12:47): Treba tenhle diagram (shodou okolnosti take z webu Nvidia) by ti to mohl trochu objasnit - https://developer.nvidia.com/blog/infere ... rated-deep-learning/

Aniz bych hodnotil, zda to ma Nvidia vymyslene dobre nebo ne, funguje to tak (pokud vim, nejsem v tom v zadnem pripade expert), ze vypocetne je uceni (training) a vyhodnocovani (inference) prakticky stejne narocne, u uceni je tam navic jen ta ucici (feedback) funkce. Ta stejna cast je o tom, ze das na vstup data, ta projdou mnoha vrstvami neuronu (funkci, napriklad a*x^b, kde x je vstup a a/b trenujes) a nakonec se z toho urci vysledek.

Dokazu si predstavit, ze pro prepocitani obrazu napriklad z 1080p na 4k bude potreba spocitat minimalne kazdy pixel v tom nizsim rozliseni, tedy 1920*1080 = 2073600 pixeu, pro jednoduchost 2 miliony. Pokud by byl model velky rekneme 100x100 (absolutne netusim, jestli je to realisticke), je to radove 10000 operaci. Pokud chces, aby to jelo, pro jednoduchost, 100FPS, vypadne z toho "2 miliony*10 tisic*sto"=2 teraoperace za vterinu (2 biliony operaci za vterinu), coz je obecny pripad bez nejakych vychytavek, ale proto to nikdo aktualne nedela, neda se to na beznem pocitaci upocitat (i kdyby to bylo jen 10x10, je to porad 20 gigaoperaci za vterinu, coz uz je snaze predstavitelne, kdyz dnesni procesory maji treba 8 jader na 4Ghz, tedy teoreticky nejakych 32 gigaoperaci za vterinu, tedy alespon radove uz dostavame nekam do realneho sveta).

A ted k tem tensorcores, respektive specializovanemu hardwaru obecne (netusim, jak presne tensorcores funguji) - obecne se specializovany hardware pouziva ze dvou duvodu - byva levnejsi na vyrobeni a/nebo zvladne specificke operace rychleji nez genericky hardware (napriklad CPU). Pokud by napriklad dany hardware zvladnul spocitat 10x10 neuronovou sit v jednom taktu a bylo by jich tam napriklad 100, snizi se to z 20 gigaoperaci za vterinu zpet na ty cca 2 miliony operaci (tedy pocet pixelu), coz jsou 2 megaoperace (tedy "neco jako 2MHz").

To je samozrejme obecny priklad, jak je to presne s DLSS a tensorcores netusim, pravdepodobne se nebude prepocitavat kazdy pixel, ale bude za tim nejaka chytristika, protoze tam je, mam dojem, i nutna podpora v enginu hry. Kazdopadne dedikovany hardware dava obecne smysl, viz vznik grafickych karet/grafickych akceleratoru obecne, driv to take pocital jen procesor :)

A ted doufam, ze neprijde nejaky (D)NN/ML expert a neudela ze me uplneho hlupaka :)
@Paul (18.01.2021 12:22): Zkrátka chceš říct, že je lepší mít na kartě jádra, která jsou dedikovaná na určitou činnost, v tomto případě učení neuronové sítě, ne? K tomu tensor cores jsou. Ale je rozdíl učit neuronovou síť (tj. vytvářet model NN) a používat ji. Když učíš neuronku, tak pomocí učebních dat hledáš nějakou funkci, která převádí vstup na kýžený výstup (např. ten vstupní zvuk se šumem na výstupní zvuk bez šumu), což je výpočetně dost náročný problém. I pro jednoduché modely toto učení trvá řádově minuty. Ale tohle, předpokládám, není něco, co by se dělo v reálném čase, když hraješ hru s DLSS. Ty používáš už nějakou předučenou neuronku, do které jenom vhazuješ data (tj. využíváš tu funkci nalezenou učením k převodu jednoho čísla na druhé), což je výpočetně nesrovnatelně méně náročné. To, cos citoval, je docela vágní, tak nechci kecat, ale předpokládám, že ta tensor cores jsou tam spíše pro vývojaře, kteří učí neuronku používat DLSS, zatímco pro tebe jakožto koncového uživatele nemají velký význam.
@AiMLEzZz (18.01.2021 09:22): Potřeba pro funkčnost nejsou. Pro akceleraci jo. Stejně jako raytracing jde počítat na cuda jádrech i na GTX 1XXX řadě, ale pro reálnou funkčnost je potřeba to akcelerovat přes hardware. Z nvidia whitepaperu

Tensor Cores accelerate the matrix-matrix multiplication at the heart of neural network training and inferencing functions. Inference computations are at the core of most AI-based graphics applications, in which useful and relevant information can be inferred and delivered by a trained deep neural network (DNN) based on a given input. Examples of inference include enhancing graphics qualities through DLSS (Deep Learning Super Sampling), AI-based denoising, removing background noise of in-game voice chats through RTX Voice, AI-based green-screen ef f ects in NVIDIA RTX Broadcast engine, and many more.
@Paul (18.01.2021 00:35): Já teda o DLSS nevím nic a AI je dost široký pojem (nebo spíš buzzword), ale pokud je to neuronka, tak předpokládám, že žádná tensor cores nepotřebuje. Řekl bych, že karta se nic za běhu neučí (seriózní učení neuronek se provádí na řádově jiném HW a rozhodně ne real time), spíš jen využívá existující model, na což žádná speciální jádra nejsou potřeba.
@Messersch (17.01.2021 14:18): https://www.hotelpodlipkami.cz/ubytovani/ bohate by ti mela stacit gtx 750ti/RX 550 a nebo cokoliv silnejsiho , 1060 si myslim ze uz asi nema cenu kdyz stejne budes kupovat novy komp , ale mohlo by byt vyhodny si grafarnu do novyho kompu koupit uz ted , sice se bude flakat ,ale uz ji budes mit a pak ji jen prehodis do novyho kompu, 4gb navicby to jeste chtelo, staci chvili sledovat bazay, najdou se , i kdyz mozna uz se vyplati koupit novy s 10letou nebo dozivotni zarukou , jinak ja na X4 II 640 +GTX 750Ti svistel world of warships ve fhd v pohode
@AiMLEzZz (17.01.2021 22:03): 3090 protože VRAM, která se může hodit do profi segmentu. Čistě na hraní je to asi jedno. S RTX fičurama je to tak, že pokud ti padnou do vkusu hry, co je podporují, určitě bych šel do GeForcky. Minulou generaci těch 100 dolarů příplatek byl dost, ale co se týče 3080 vs 6800 XT, těch 50 dolarů navíc u RTX karty už je tak malej rozdíl, že to stojí za zkoušku. Her s RT vychází čím dál víc a ještě víc jich podporuje DLSS. A AMD moc dobře ví, že pokud chce konkurovat v RT výkonu, tak nutně musí dokutit ten jejich "Super resolution", což má být to stejný, co DLSS.
@AiMLEzZz (17.01.2021 22:03): ani jednu. Pokud by si měl vybrat tak RX 6800 XT kvůli více VRAM. Karta není o moc slabší než předražený RX 6900/RTX 3090.
Upřímně nevěřím, i podle toho jak funguje (z hlediska výkonu) RT na předcházející generaci RTX 2000, že by mělo smysl připlácet si za Ray Tracing od Nvidie. Ty karty budou mít stěží dost výkonu v RT v titulech co přijdou za 2-3 roky, když už teď bez DLSS 2.0 nejsou schopny zvládnou Cyberpunk 2077 + další tituly s přehledem. Možná další generace na tom bude lépe. Možná také ne.
Ne, že by asi v nejbližší době hrozilo, že přijdou na trh, ale jak si podle vás stojí RX 6900 XT oproti RTX 3090? Teď jsem letmo mrknul na nějaký benchmark a překvapilo mě, že Radeon byl o pár bodíků nad GeForce. Ale jak je to v praxi? Četl jsem, že díky DLSS mají karty od nVidie ještě o něco navrch, na druhou stranu DLSS musí podporovat engine hry, není to tak? Není to univerzální řešení. Co ray-tracing? AMD má prý nějaké vlastní řešení přes Vulkan, ale moc se o něm nepíše, tak nevím, jestli je to srovnatelné. Jinými slovy, kdybychom chvilku neřešili cenu a dostupnost a měli byste vybrat momentálně nejlepší GPU na trhu, kterou byste brali?
Dotaz kolegy v SW sekci mě navedl zabrouzdat do zobrazení stavu RAMky. Windows ukazují frekvenci 2400 MHz, ačkoliv by měly RAMky dosahovat 3000. To jsem jenom něco na začátku nepřepnul v Biosu?
@Messersch (17.01.2021 14:18): Je to čtyřjádrový procesor, ten by mohl ještě nějakou dobu sloužit. Když do toho dáš nějakou levnou grafiku z bazaru (něco tak do dvou tisíc) a rozšíříš RAM na 8 GB, bude to tak akorát. Víc peněz bych do toho necpal.
@Messersch (17.01.2021 14:18): určitě bych zachoval. Tyhle AMD Phenom II/Athlon II sice nemají instrukce AVX, takže existují moderní hry které na tom CPU už nespustíš (to jsem slyšel), reálně jsem na žádnou takovou nenarazil čím neříkám že neexistují.

RAM DDR3 1600/1833 koupíš za hubičku 2x4 nebo 2x8GB.

Na Phenoma pokud nemáš rozumný chladič, kup CPU chladič SilentiumPC Fera 3 HE1224. Naprosto s přehledem uchladí i přetaktovaného X4 955 na 4Ghz.
S tím souvisí, pohrej si v BIOS si jen s násobičem (ale nezvyšuj napětí CPU) a přetaktuj toho X4 955 ideálně na 4Ghz all cores (je dost velká šance že dáš okolo 3,8-3,9Ghz stabilně, a s trochou štěstí na křemík i ty 4Ghz.
Hodně to pomůže, single core (a částečně i multicore) výkon rapidně stoupne ačkoliv bude stále pod přetaktovaným Intel Core i5-2400 Sandy Bridge, což byla tenkrát přímá konkurence AMD Phenom II CPU.

Jako vhodnou GK by koupil až bude dostupná GTX 1650 Super nebo AMD RX 5500 XT. Obě mají shodný výkon, ačkoliv to CPU je dost legacy, a k nějaké ztrátě FPS dojde (cca 15-25% podle taktování) stále je to použitelné. Případně pokud chceš ušetřit, osobně to tak má u i5-2400 výše, kup GT 1030 2GB GDDR5 (důležité aby GPU nemělo DDR4). CPU nebude v žádném případě brzdou. Starší GTX 1060 6GB Pascal v bazaru okolo 3-3,5 tis CZK je taky dobrá volba, nebo třeba bazarové GTX 1070/1070Ti za rozumné ceny.

Co se týče té GPU stále bych preferoval co rozumnou cenu novou GTX 1650 Super/RX 5500 XT, obě mají vyšší výkon než GTX 1060 6GB. Problém je že nyní žádnou novou nekoupíš (pravděpodobně). Jediné co je dostupné jsou ty GT 1030 2GB GDDR5 Pascal GPU. Na hry z roku 2015 v FHD v pohodě, asi to nebude na plné detaily s plným vyhlazováním apod.

TIP: pokud by jsi náhodou kupoval GT 1030 v silent provedení, tzn. pasiv (rovný) a dej na něj prostě nějaký starší větrák z CPU a skrz redukci můžeš řídit otáčky. Já tak mám z AMD socket A CPU větrák, přidělaný jen gumičkami k pasivu, krásně to chladí, především v létě a GPU nikdy nenarazí na temp limit. :)