Cyberpunk 2077: megjelenéskor az AMD kártyák nem támogatják majd a ray tracinget

Szerző: xoki | 2020. November 23. | hír | 71 hozzászólás

A CD Projekt Red nemrég közzétette a Cyberpunk 2077 új, ray tracing technológiára fókuszáló gépigényét. A cég érdekes módon az Nvidia kártyák mellett nem tüntette fel a szükséges AMD GPU-kat, és mint kiderült, ennek nyomós oka volt.

Mivel csak Nvidia GPU-kat tüntettek fel, így a rajongók rákérdeztek, hogy mi a helyzet az AMD termékeivel. Marcin Momot erre azt a választ adta, hogy AMD kártyákon a játék megjelenésekor nem lesz támogatott az RT, viszont az AMD-vel szorosan együttműködve már dolgoznak rajta, hogy valamikor később a piros csapat termékeivel is elérhetők legyenek ezek a funkciók.

Egyelőre nem igazán tudni, hogy mi lehet ennek az oka, hiszen elméletileg minden gond nélkül működnie kellene az AMD GPU-in is. Az egyik lehetséges ok a Super Resolution hiánya lehet. Ez az AMD megfelelője a DLSS technológiára, és nincs kizárva, hogy a megfelelő ray tracing teljesítmény eléréséhez az említett funkció is elengedhetetlen.

A Cyberpunk 2077 december 10-én fog megjelenni.

Cyberpunk 2077
Cyberpunk 2077
Cyberpunk 2077
Megjelenés: 2020. December 10. (PC)
Műfaj: Akció, Kaland, Szerepjáték
Fejlesztő: CD Projekt RED
Hozzászólások: 70
Hozzászólás küldéséhez be kell jelentkezni.
santakigyo avatar
Minek támogassák az AMD kártyák??Az AMD-nek van eszek mert tudja,hogy mire megjelenik a játék addigra már rég nem ezt a technológiát kell támogatnia.
Sorry ,nem lehetett kihagyni 😀
0
0
0
0
csuz-li avatar
A másik lehetséges ok pedig az, hogy már elég rég megmondták, hogy az Nvidiával kötött marketingszerződés okán eleve úgy tervezték, hogy pár hónapig kiveszik az eredetileg bent lévő AMD-re optimalizált (a konzolokban ugye az van) rt megoldást és a megjelenés után pár hónapig csak az nvidia megoldása lesz elérhető pc-n. Mert a pénz az úr...
Viszont nem értem, hogy ma ez miért is hír? Ezt azért elég rég lehetett tudni.
Az egyik lehetséges ok a Super Resolution hiánya lehet.

Ezt azért nem hiszem, mert az új konzolok azért tudják tartani az fps-t betonstabilan, mert folyamatosan változtatják a felbontást. Nem hiszem, hogy a Cyberpunk úgy készült, hogy ezt ne tudná, mert ha jól tudom, ez az egyik alapfeltétele az új konzolokon való önálló megjelenésnek.
0
0
0
0
💬 2
HeyJoe-PCRPG-HUN avatar
@csuz-li: Na, igen. Ebben azert van valami, lehetseges siman 😀
0
0
0
0
Twist avatar
@csuz-li: Ez a pár hónapig nvidia exkluzivitás olyan epices szájízt hagy maga után amúgy.
0
0
0
0
HeyJoe-PCRPG-HUN avatar
Nem meglepő, a CD Projekt RED mindig is szoros partnerkapcsolatot ápolt az NVidia GeForce-al... Witcher 3-ban előszőr látott haladó "Fur tech" is NVidia oldalról érkezett, mármint a támogatás hozzá, a közös munka rajta. Máig is tetszik nagyon a farkasok, + 1éb állatok, vadak bundája a játékban, nagyon faxán összehozták tényleg. 😀 [LINK]

Aki igazán újítani akar jobban, az elsősorban az NVidia-val állapodik meg, lép partnerkapcsba, ez ilyen egyszerű.
0
0
0
0
💬 39
Mesterlovesz avatar
@HeyJoe-PCRPG-HUN: A Witcherben az volt az RTX. Bekapcsolata az ember, megcsodálta, hogy milyen szép, aztán azzal a lendülettel kapcsolata is ki, mert olyan FPS droppot hozott, hogy a könnye kicsordult. Még Nvidia kártyákon is használhatatlan volt, nem hogy Radeonon. Far Cry 4 ben láttam még ezt ha jól emlékszem. 50+ Fps-emből csinált 30-at.
0
0
0
0
PotykaPal avatar
@Mesterlovesz: 1920x1080-ban minden max-on HairWorks on 60fps stabilan meg volt egy GTX 1070-en a Witcher 3-ban, simán játszató volt.
0
0
0
0
HeyJoe-PCRPG-HUN avatar
@PotykaPal: Nalam is teljesen OK volt fullos grafika mellett Full HD-ben a Witcher 3 egy GTX 1060 6GB-al, szoval en sem ertem mirol irt fentebb a Mesterlovesz cimborank! 😂 Talan potato volt neki a proci helyen, azert nem birta a VGA nala elegge, vagy RAM hianya (is) volt... Nalam klappolt a W3 a megjelenese napjatol, szoval igazabol passz, h masoknal mi lehetett a problema, ha volt.. Nalam meg a lovas bugok, glitchek sem voltak a W3-ban, pedig elso naptol nyuztam, es csak az alapjatekba beletettem kozel 300 orat... 😆
0
0
0
0
csuz-li avatar
@HeyJoe-PCRPG-HUN: Csakhogy a játék megjelenésekor a sok csillió dolláros csúcskártya a 980 volt, ami a 1060 teljesítményét tudta. És bármennyire is meglepő, nem volt az mindenkinek a gépében, ahogy ma sem mindenki 3080-al tolja. Az átlag a 960, meg a 750Ti volt akkoriban.
0
0
0
0
csuz-li avatar
@HeyJoe-PCRPG-HUN: Persze választhatták volna a TressFX-et is a HairWorks helyett, csak azért nem jár pénz...
Nincs olyan az Nvidiánál, ami máshol ne lenne. Csak másokkal nem lehet ilyen jövedelmező marketing-szerződéseket kötni.
0
0
0
0
no avatar
@csuz-li:
Nincs olyan az Nvidiánál, ami máshol ne lenne.

Ez így elég fals, kapásból ott a DLSS és még jó pár extra feature.
0
0
0
0
csuz-li avatar
@LordSzalko: Ilyen van az AMD-nél is, csak máshogy hívják. és más elvek szerint működik, így kisebb terheléssel jár.
0
0
0
0
no avatar
@csuz-li: Az AMD-nek nincs AI általi SS eljárása egyáltalán. A mondat második fele meg full bs.
0
0
0
0
csuz-li avatar
@LordSzalko: Aha. Azért írtam, hogy más elvek szerint működik. Bár nem tudom, hogy mi azon a meglepő, ha az nvidia levédet egy eljárást, akkor mások más úton kell, hogy ugyan azt az eredményt elérjék.
0
0
0
0
no avatar
@csuz-li: Hasonló eljárásuk sincs, pláne nem olyan ami kisebb terheléssel jár, nem tudom miért erőlteted.
0
0
0
0
csuz-li avatar
@LordSzalko: Az új konzolokban szerinted Nvidia fut és az oldja meg a dinamikus felbontást?
0
0
0
0
no avatar
@csuz-li: A dinamikus felbontás és a DLSS nagyon távol állnak egymástól. A kisebb terheléssel jár kijelentéstől meg pláne 😆
0
0
0
0
csuz-li avatar
@LordSzalko: A DLSS-t tanítani kell, ami jelentős plusz terhelést jelent a fejlesztőknek. Nem tudom, mi ebben a probléma. Mondjuk a 2.0 már nem ennyire időigényes, de ez is csak plusz meló.
De szerintem feleslegesen verjük a billentyűzetet. Úgy sem tudlak meggyőzni arról, hogy a kisebb kép felskálázása kizárólag az nvidiának megy.
0
0
0
0
no avatar
@csuz-li: Nincs túl sok fogalmad a DLSS-ről ahogy látom, akkor már eleve nem hoztad volna fel a DR-t mint hasonló eljárás, a billentyűzetet itt maximum te vered, én csak válaszolok azokra az állításokra amiknek nincs alapja, a végén még valaki elhinné.

De igazából a "Nincs olyan az Nvidiánál, ami máshol ne lenne." kijelentéssel eleve kár volt belekezdenem a dolgokba, mert látszólag teljesen más világban élsz 😊
0
0
0
0
csuz-li avatar
@LordSzalko: Mondj egyet, ami csak az Nvidiának van.
0
0
0
0
csuz-li avatar
@LordSzalko: ok. Akkor tisztázzuk: Az én olvasatomban, ha a-ból b-be kell eljutni, akkor az is ér, ha más útvonalon haladsz, mert az egyik út magánút és le van zárva.
0
0
0
0
no avatar
@csuz-li: Mondtam, ha a DR-t hasonló eljárásként könyveled el mint a DLSS-t akkor tényleg nincs miről beszélni, mert alapjaiban gondok vannak. Hasonló eljárás AMD oldalról csak jövőre érkezik.
0
0
0
0
csuz-li avatar
@LordSzalko: ok. Akkor tényleg igazad van. Én el tudom fogadni a te szabályrendszeredet is, csak akkor ezt az elején is leírhattad volna és akkor nem is próbálkozom mással, mintsem elismerem, hogy csak az Nvidia tudja azt, ami a konzolokban van.
0
0
0
0
Superman79 avatar
@csuz-li: Tudtommal a dynamic resulotion ami a konzolokban is megtalálható, az az, hogy tud ugralni pl 720 illetve 1080p között, vagy 900, de az már részletkérdés. A dlss pedig amikor pl 1440p ről felskálázza a képet pl 4k ra. Szóval a kettő teljesen más.
0
0
0
0
csuz-li avatar
@Superman79: De a konzolok ban is felskálázza a végleges méretre. Ilyet tud minden AMD kártya is, csak olyan játék kell hozzá, ami ezt engedi. Be tudom állítani, hogy kisebb méretben rendereljen és skálázza fel, ha pl mozgalmasabb a szín és emiatt beesne az fps. Mondjuk azt is, hogy eleve így járjon el, ha gyengébb a kártya, mint kellene, tehát 720p-n renderel, de felskálázza 1080p-re fixen. Van, mikor ez utóbbit a játék fixen támogatja, mint pl a KCD. A DLSS egy tanuló algoritmus miatt ha jól be van tanítva pótolja az élsimítást is, ami megint csak számításigényes; az első verziója meg képes volt elég ronda képeket létrehozni néhány esetben emiatt.
0
0
0
0
no avatar
@csuz-li: Nagyon fals dolgokat írsz ember, de látom élvezettel teszed 😆
0
0
0
0
AMDMonsteR avatar
@csuz-li: Hmm... Nem. Ez félrevezetés.

Tudod mit jelent a konzolnál, hogy natívan tolja a 4K-t? Azt, hogy azt rendereli. A resolution scale azt jelenti, hogy mondjuk az adott FullHD textúrákat hányszoros méretben rendereje a kártya. A felbontás nem fog változni, csak a textúra részletessége, így lefelé is, ha egy 1080p natív felbontást leskálázol 80 %-ra pixeles lesz, de a végleges output az marad 1920x1080 nagyságú.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Igen. Lefelé veszi. Teljesen más mint a felskálázás. És nem mellesleg látható is az eredménye.
Ez nem Dinamikus felbontás, hanem egy egyszerű leskálázás.
0
0
0
0
csuz-li avatar
@AMDMonsteR: A felskálázás az, mikor 720p-ben renderelek és 1080p-ben jelenítem meg. A leskálázás - ilyen is vot AMD-nél - az, mikor 4k-ban renderelek és 1080p-ben jelenítem meg, utóbbi szebb képet ad.
A dinamikus meg az, hogy hol 1080p ban renderelek, hol 720p-ben, hol köztesen, a jelenettől függően, de 1080-ban jelenítem meg. Olyan nincs, hogy hol így, hol úgy jelenítem meg a képet.
[LINK]
A lap közepe tájékán el van magyarázva bővebben.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Ez nem a szó szoros Resolution Scale-je.

Nem skáláz semmit, ha 720P képet jelenítesz meg egy 1080P monitoron.
Akkor skáláz, ha az outputnál vagy natívnál nagyobb felbontást akarsz megjeleníteni.

Ha simán lejjebb veszed a felbontást, akkor a videokártya kevesebb pixelt fog renderelni, ugyanakkora felületre, de nem skálázza, így tudsz méretarányon kívüli felbontást is beállítani.

A skálázás akkor jön valójában Hardware-esen létre, ha az 1080p nagyságú monitorodon akarsz 4K képet megjeleníteni. Olyankor van a 400%-os RS, Ami fogja, és ráerőlteti a videokártyát, hogy a RENDELKEZÉSRE ÁLLÓ FELBONTÁSON(!) annak a 200-400%-os méretében renderelt textúrákkal dolgozzon a program vagy a játék. Fontos, hogy az OUTPU felbontás MEGMARAD a monitor natív képességeinek megfelelően.
Ez nem függ sem hardware-től sem perifériától, létezik-e, hanem magától a játék grafikus motorjától függ, hogy tudja e kérni a hardware-t, hogy ezt tegye meg (másik kérdés, hogy mennyire térdelteti le.)

Ezzel szemben a dinamikus ennél átfogóbb. A natív felbontást SZINTÉN TARTVA, a textúrák felbontását variálja. NEM az alap felbontást skálázza és változtatja!

A cikkben hogy értsd, hogy mit értenek a skálázás alatt: 4K felbontáásban küld jelet egy 1080P képről, így zavarosabb a kép --> nem skálázza, hanem a 1080P renderelt képet feszíti 4K nagyságra.
0
0
0
0
csuz-li avatar
@AMDMonsteR: Idéznék a cikkből:
Teljesen mindegy, milyen felbontáson fut a játék: a konzol felskálázza mielőtt továbbküldené a jelet a televíziónak.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Láttam. IGN. Én meg leírtam, hogy valójában mi történik. Elolvastad?
Nem felskálázza. Megjeleníti. Az output felbontást növeli, a renderelési méretet nem.
0
0
0
0
csuz-li avatar
@AMDMonsteR: Teljesen mindegy, milyen felbontáson fut a játék: a konzol felskálázza mielőtt továbbküldené a jelet a televíziónak
0
0
0
0
AMDMonsteR avatar
@csuz-li: Nem.
Az output felbontás és a renderedési felbontás teljesen más.
És ez még a cikkben is benne van, hogy mit rendereé és mekkorában adja ki. Így megmarad a gyorsaság a minőség rovására.
0
0
0
0
no avatar
@AMDMonsteR: Hagyd szegényt reménytelen, teljesen más világban él.
0
0
0
0
csuz-li avatar
@LordSzalko: Meg a szakirodalom is ebben a másik világban él. Van iylen.
0
0
0
0
no avatar
@csuz-li: Nope, de ahogy érzed.
0
0
0
0
csuz-li avatar
@LordSzalko: Miért? Te is úgy értelmezed a "Teljesen mindegy, milyen felbontáson fut a játék: a konzol felskálázza mielőtt továbbküldené a jelet a televíziónak." mondatot, hogy nem skálázza fel, hanem úgy adja ki a jelet, ahogy rendereli, mint AMDMonsteR kolléga?
0
0
0
0
csuz-li avatar
@AMDMonsteR: Ezt írtam és ezzel kezdtél el vitatkozni.:
"A dinamikus meg az, hogy hol 1080p ban renderelek, hol 720p-ben, hol köztesen, a jelenettől függően, de 1080-ban jelenítem meg."
És igen a cikkben is pont ez van bent. Ez a lényege. a dolognak.
0
0
0
0
csuz-li avatar
@AMDMonsteR: Ez van bent a cikkben. Idézem:
Teljesen mindegy, milyen felbontáson fut a játék: a konzol felskálázza mielőtt továbbküldené a jelet a televíziónak.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Igen, és ez a legnagyobb hülyeség benne. A másik pedig ezt szakirodalomnak nevezni.

Nem egészen így van ez a dolog. A dinamikus mondatoddal jártál a legközelebb az igazsághoz, de az sem így pőrén ezt jelenti.

Nem random renderel felbontások között a motor. Van egy szisztéma ami szerint csökkenti vagy növeli a renderedési felbontását a textúráknak, az output felbontás megtartása mellett. Oké.
Viszont az a nettó hülyeség, hogy felskálázza. A konzol nem renderel dinamikusan, hanem csak az output felbontást változtatja meg. Ez gyakori probléma z IGN-nél, hogy fogják az rendes csikket amiben 4K upscale van, és leírják neked hogy felskálázott 4K. Nem. A játék grafika nincs felskálázva, ugyan azt az 1080p képet rendereéi a konzol, 4K outputra. És ez, nem felskálázás.

Elbeszélünk egymás mellett. Csak én nem IGN cikk alapján írok, hanem munkatapasztalatból.
0
0
0
0
csuz-li avatar
@AMDMonsteR: Nem nem ez a szakirodalom, csak gondoltam, ha valami közérthetően van megfogalmazva, úgy talán átmegy. Sajnos tévedtem. Ez egyébként az első volt a találalti listán van még pár száz, szóval utána olvashatsz nyugodtan magad is.
Azt nem tudom, hogy honnan veszed azt, hogy nem skálázza fel a kimenethez a jelet. Csak próbáld ki: ha meg van a kcd, akkor egyszerűbb; ha nincs, akkor nézz meg pár régebbi játékot 720p-re állítva, majd állítsd át 1080p-re, hasonlítsd össze a képet és most gondolj bele, ha ilyen képek váltogatnák egymást, menet közben ekkora váltás lenne egy konzolon, azt mégis ki venné meg? Illetve miért nem így látszik a változás? Maga a technológia ezer éves. Az előző gnerációban alapból alkalmazták a felskálázást a 4k-hoz, de nem dinamikusan, hanem fixen. Itt az újaknál ezt dinamikussá tették, mert azt ígérték, fix fps lesz, amit másként nem lehet előállítani.
Úgy teszünk, mintha valami nagy csoda és újdonság lenen a képek felskálázása, vagy a dinamikus renderelés csak azért, mert ez új konzolokban még csak most alkalmazták.
0
0
0
0
Mesterlovesz avatar
Nem is értem, hogy egy játék, amit évek óta fejlesztenek, hogyan támogathatná hirtelen a technológiát, amit egy néhány napja megjeelnt kártya használ. Később biztos belerakják. Gondolom már nem volt arcuk megint eltolni a kiadási dátumot emiatt 😃 😃 😃
0
0
0
0
💬 8
csuz-li avatar
@Mesterlovesz: Maga a technológia ezer éves, csak nem volt eddig hozzá elég erős vas. Ráadásul az új konzolok is támogatják, amikhez a fejlesztőknek régebb óta hozzáférése van.
0
0
0
0
Mesterlovesz avatar
@csuz-li: Mondjuk ez jogos érvelés. A konzolok is a DirectX apit használják AMD-s kártyával, akkor PC-vel mivan? Tudom, hogy nem most találták ki a raytracinget, csak arra céloztam, hogy fejlesztés közben lehet csak az RTX implementációt használták a fejlesztők, mivel akkoriban még AMD-s támogatás semmilyen szinten nem volt erre. Vagyis hát ahogy Te is mondtad nyilván volt, de egyik akkori hardveren sem elfogadható teljesítménnyel.
0
0
0
0
csuz-li avatar
@Mesterlovesz: Nem. A konzolokon már a megjelenéskor menni fog a az RT. Az Nvidia ugyan csinált egy sajátot, ami csak Nvidia-n fut, de eredetileg sem kell ehhez specifius hardver. (Ugyan ez van egy rakat más eljárással is)
[LINK]
A hír is csupán arról szól, amit már rég bejelentettek: kiveszik a pc-s verzióból ezt a funkciót, hogy egy darabig csak az Nvidia specifikus legyen elérhető az általánosan, mindenki számára elérhető helyett. Gondolom nagyobb pénzek cseréltek gazdát eközben, de természetesen erről senki nem beszél, csak hát mi más lenne emögött. Majd jön egy frissítés és megint elérhető lesz az eredeti is.
Ráadásul az Nvidia még mindig nincs nagyon jóban a dx12-es implementációval, szóval rajtuk az sem biztos, hogy segít, így a régebbi Nvidia kártyák bajban lesznek. Szerintem emiatt hajlandóak erre költeni, hogy a megjelenéskor ne az derüljön ki, hogy pont Nvidián nem működik rendesen egy olyan funkció, ami a piaci bevezetésekor pont az Nvidia fejlesztéseként lett eladva.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Nem ugyan az a ray tracing lesz konzolokon illetve pc-n.

A fő különbség, hogy a DXR egy APi, egy szoftware-es gyorsítás amilyen környezetben az előre definiált grafikus adatokból fog adódni a fény-árnyék hatások jellege.

Az az RT amit ez Nvidia csinál, egészen más. Ott fizikai magokról van szó, amik real-time, random elhelyezkedés alapján, a fényeket fizikai alapon számolják ki, így nem software-es hanem hardware-es gyorsításról van szó.
Ez nem lesz elérhető sehol, csak Nvidia grafikuskártyákkal szerelt PC-kben.

A konzolos DXR ezzel szemben semmiség.
0
0
0
0
csuz-li avatar
@AMDMonsteR: A fő különbség, hogy ugyan ahhoz az eredményhez az egyik módszer szerint csak adott hardverrel lehet eljutni a másik szerint meg bármilyen hardverrel, ha az elég erős.
Itt arról beszélünk, hogy megjelenéskor azt az implementációt, ami benne van a konzolok miatt letiltják,. hoyg csak az Nvidia hardverein működhessen pár hónapig. Ezt már elég régen bejelentették, hogy kvázi "Nvidia exkluzív" lesz pár hónapig PC-n a RT.
0
0
0
0
AMDMonsteR avatar
@csuz-li: Pontosan leírtam, hogy miért nem ugyan az az eredmény, és ez a lényege.
Az az RT amit az Nvidia kínál, real-time van számolva.
A DXR ezzel szemben előre definiált paraméterek alapján tud létrejönni. És a kettő nem ugyan az, Nem véletlenül kapta a megkülönböztetést hogy Ray Tracing és DirecX Ray Tracing.
Az egyik ray acceleration alapú, am másik meg egyszerűen szoftveres.
Magyarul Nem raytracing támogatás nem lesz, hanem nem lesz alap feature a DXR.
Ugyan az, mint ahogyan anno a DX12 esetében láthattuk, hogy milyen ha valami hardware-esem tudja, és milyen ha valami csak Feature level szinten.
0
0
0
0
csuz-li avatar
@AMDMonsteR: Látom a Microsoftos devblog nem jött át. Van másik:
[LINK]
Az eredmény ugyan az, csak más úton. Nincs előre definiált eredmény, mindkét módszer valós idejű.
0
0
0
0
PotykaPal avatar
@AMDMonsteR: Az nVidia is DXR-t használ. Nézd meg Gamer Nexus RX 6800 XT tesztjét youtube-on. Egy-két kivétellel, minden Ray-Tracinget használó játék játszató az AMD-n, a probléma csak az, hogy nem jók DXR-ban az AMD kártyái, Control-ban 23 fps-t tudnak 4k-ban, míg az nVidia (DLSS-el persze), 64 fps-t produkál átlagban. Ha lejjebb megyünk felbontásban nVidiának DLSS nélkül simán meg van a 60+ fps a Radeon meg még mindig csak erőlködik. Mivel a Cyberpunk 2077 egy nagy Ray Tracing heavy játék lesz, ezért az AMD új megoldása nem tud megfelelő képkockákat produkálni másodpercenként. Tudni kell, hogy az nVidia az elejétől kezdve, mióta RT-t használ DirectX Ray Tracinget implementált, azaz DXR-t, szóval univerzális szoftvereket használt. (Kivéve Quake RTX, de az tech demo).

Itt a Gamer Nexus teszt:
20:50-nél Control...
0
0
0
0
r2d2 avatar
Szerintem mindenki nevében mondhatom, senkit nem érdekel az RT, max arra a pár percre amig rá csodálkozunk utána off! Amugy meg ha anyira RT-re vágyok, oda rakom a monitorom alá a tükröt és nesze tükröződés!
0
0
0
0
💬 1
bukta2 avatar
@r2d2: 😆 ez jó! Maga a fícsör engem sem izgat egyáltalán, mert még bőven gyerekcipő az egész,majd pár év/pár generáció múlva talán lesz belőle érdemleges változás,amikor is érdemes lesz róla beszélni.
0
0
0
0
bitpork avatar
Nemtom. A legutóbb a chromatic aberration & motion blur volt ilyen és marhára idegesít engem személy szerint mindkettő.
0
0
0
0
💬 5
no avatar
@bitpork: Motion blur instant off, a film grain-el egyutt! Tokom tudja kinek jó ha homályosabb vagy szemcsés a képernyő! 😲
0
0
0
0
Warlordcommander avatar
@ahaaa: Depth of fieldet se hagyd ki, néhány játékban olyan érzésem van tőle mintha rohadtul sz.r lenne a szemem. Nálam az is instant off, távolra is jól akarok látni 😀 (akárcsak igazából)
0
0
0
0
csuz-li avatar
@Warlordcommander: Szerintem sokan vagyunk így ezzel. Nálam is egyből kikapcsolásra kerül. Amúgy sem jó a szemem, nem kell erre rátenni még egy lapáttal.
0
0
0
0
szilver avatar
@bitpork: Szintúgy offos minden ilyen szir-sz.rTeljesen mindegy milyen játék,én mindig options-al kezdek. 😃
0
0
0
0
no avatar
@bitpork: Lens Flares, Motion Blur, Depth of field, Chromatic aberration és Film grain mindenhol instant off, marha irritálóak.
0
0
0
0
no avatar
Nállam az is csoda ha elmegy 😃
0
0
0
0
no avatar
A legtöbb NV-s felhasználót sem érdekli az RT, kegyetlen döfés ez az AMD-nek /s
0
0
0
0
💬 1
tamas98765 avatar
Jaj de kár így nem kell döntenem hogy tükröződés vagy FPS-em legyen 😕
0
0
0
0
woodbear avatar
Mert az nvidia így akar oda cseszni azoknak akik új amd kártyákat vettek / az amd-nek 😃
0
0
0
0
💬 2
MaximumGame avatar
@woodbear: Jah csak a készletekre nem gondoltak... hogy nem vettek volna AMD-t ha ezt a foss lenne készleten !
0
0
0
0
woodbear avatar
@MaximumGame: Az is igaz. Én is nemrég jutottam csak hozzá végre
0
0
0
0
Twist avatar
Mire megjelenik végre talán már AMD sem lesz 😆
0
0
0
0


Elfelejtett jelszóRegisztráció