Ezek a játékok fogják még támogatni az RTX-et idén

Szerző: xoki | 2020. October 22. | hír | 48 hozzászólás

Amennyiben sikeresen beszereztetek vagy terveztek vásárolni egy RTX 3000-es kártyát, akkor nem árt ha tudjátok, hogy pontosan mely játékok használják ki az RTX-ben rejlő lehetőségeket. Persze az előző generációs kártyák is alkalmasak a technológia futtatására, de mindenképpen az új kártyák fogják a legjobb élményt nyújtani.

Az Nvidia bejelentette, hogy ebben az évben tizenkét RTX funkciókat támogató játékra számíthatnak a kártyák tulajdonosai. Ebben a hónapban a Ghostrunner, a Pumpkin Jack és a Xuan-Yuan Sword VII fog megjelenni ezekkel a funkciókkal. Ezek közé tartozik a sugárkövetéses visszatükröződés, árnyékok, megvilágítás, illetve természetesen a DLSS is a magasabb fps elérése érdekében.

Novemberben az Edge of Eternity és a Mount & Blade II: Bannerlord DLSS támogatást kap, miközben a Mortal Shell és a World of Warcraft: Shadowlands sugárkövetéses árnyékokkal bővül. Korai hozzáférésben érkezik majd az Enlisted és a Ready or Not, amelyek szintén ray tracing és DLSS támogatást fognak kapni. Végül, de nem utolsósorban három rendkívül népszerű játék, a Watch Dogs: Legion, a Call of Duty: Black Ops Cold War és a Cyberpunk 2077 is DLSS és ray tracing funkciókkal fog megjelenni.

Cyberpunk 2077
Cyberpunk 2077
Cyberpunk 2077
Megjelenés: 2020. December 10. (PC)
Műfaj: Akció, Kaland, Szerepjáték
Fejlesztő: CD Projekt RED
Hozzászólások: 48
Hozzászólás küldéséhez be kell jelentkezni.
bukta2 avatar
amúgy nem tudom kinek tűnt fel, nekem is csak azért mert most tolom a végig játszást, a Maffia 1 Dev.-nél és abba a tükröződés full alapos, még amikor kinyitják az autók ajtaját még annak az ablakáról a nap visszatükröződése is megcsillan a karakter arcán... ilyet még nem láttam eddig egy játékban sem 😲 és ez csak 1 példa a sok közül. nem is értem ezt az RTX mizériát... csak egy alaposan kidolgozott játék kell... nem RTX... 😃
0
0
0
0
💬 1
csuz-li avatar
@bukta2: Ezer éve vannak trükkök, amikkel lehet szimulálni a tükröződést. Ezek mind cselek, mert csak "látható" dolgok tükröződnek. Gyakorlatilag létrehozod a tárgyat, meg a fényelését és a tükörképét, majd kirendereled.
A sugárkövetés lényege az, hogy elindítasz egy fénysugarat egy pontból, aminek eleve megadod a hosszát. Ez, ha beleütközik valamibe, akkor megváltoztatja az irányát, vagy elnyelődik. És minden egyes elindított "fénysugárnál" ezt ki kell számolni. Amúgy maga a sugárkövetés egy régóta ismert megoldás, csak sosem volt hozzá erőforrás, de mára már kötelező része a dx12-nek, csak az nvidia erre "célhardvert" készített, ami dedikáltan foglalkozik ezzel, mivel hihetetlenül érzékeny a memória sávszélességre (ez egyébként driverből is javítható). Mellé meg tett egy hatalmas marketinget, mivel minden más szempontból nagyon le van maradva az AMD hardvereihez képest, ami a DX12-t, vagy a Vulkant illeti. Végre talált egy pontot az dx12 implementációban, amiben jóval jobban teljesít és ezt most minden szinten kiemeli. De ha jobban megnézed, azért az Nvidia megoldása sem valami jó. Egyszerűen azért, mert itt tényleg hatalmas erőforrást kell elkölteni. Egy FHD képnél már kétszer annyi fps-t kell tudnia a VGA-nak sugárkövetés nélkül, mint azzal együtt, 4K ban már tízszeres a szorzó. Hogy értsd. FHD ban a 60fps-es sugárkövetéshez olyan VGA kell, ami tudja az FHD 120fps-t. Ez ma már nem elérhetetlen, de nem épp az átlagjátékos szintje; 4K ban egy 30 fps-hez már 300 fps kéne, ami nincs akkor sem, ha a világ pénze rendelkezésére áll a gamernek, mert ilyen pc-t nem tud építeni.
0
0
0
0
csuz-li avatar
Anno, míg Nvidia kártyáim voltak, nagyon vártam, hogy jöjjön a PhysX, amit megvett az Nvidia, de kiderült, hogy nekem nem tellett olyan kártyára, ami bírta volna, később jött a GameWorks, amit szintén vártam, mert tetszett, de mikor megjelent, szintén nem bírta a kártyám.
Most az RTX-ről maradok le. Mondjuk ezt nem is vártam, mert nem érzem olyan nagy előrelépésnek, mint a fenti két fejlesztést. Mindenesetre ez a lista nem motivál arra, hogy emiatt visszaváltsak Nvidiára.
0
0
0
0
💬 21
PotykaPal avatar
@csuz-li: Én már kipróbáltam az RTX-et egy RTX 2060 Super segítségével. Nekem szerencsém volt, összejött pár munka, amivel kerestem annyit, hogy tudtam venni egy RTX 3080-at. Ez más, mint a Physx, ezt az nVidia fejlesztette, de már a Radeonokbam is benne lesz. Előbb-utóbb ki fogod próbálni, mert minden kártya támogatni fogja.
0
0
0
0
csuz-li avatar
@PotykaPal: Azt tudom, hogy játékmotorból is megoldható. Mivel a konzolokra úgy is le kell fejleszteni, így én is biztos vagyok benne, hogy idővel minden nagyobb játékban benne lesz. Egyszerűen arról van szó, hogy ez az újítás szerintem nem ad annyit a játékélményhez, hogy különösebben érdekes legyen.
0
0
0
0
Kiki4444 avatar
@csuz-li: Én is nagy PhysX fan vagyok.Amilyen üzletpolitikát folytattak vele,nem csoda hogy nem terjedt el.Zárt rendszer,nem tud a fejlesztő belenyúlni,játék motorját kell hozzá igaziitani a PhysX-hez(farok csőválja a kutyát X D),ami csomó esetben annyi többlet munkával tudtak volna csak megcsinálni hogy PhysX effektek csak egy részét tudták beépiteni,ezért változó hogy melyik PhysX-es játékba mennyi effekt van bevetve.Amit viszont nem igazán tudok hova tenni az az hogy a fejlesztők miért nem csináltak saját GPU gyorsitott fizikai motort,elvégre nem az Nvidia dolga épkézláb fizikát pakolnia a játékokba.Na mindegy,talán Series X/PS5 generációba végre erre is futja a hardverek teljesítmény többletéből.Leképzés,fények jelenleg is közelitik a fotorealisztikusat, fizika meg béka seggel alatt van legtöbb esetbe. RTX számitási igényét 1000x értelmesebb dolgokra kellene elkölteni.
0
0
0
0
csuz-li avatar
@Kiki4444: Van másik fizikai motor, valamilyen fx az is. Az AMD fejlesztette és nyílt forráskódú, de CPU-ra támaszkodik. Szigorúan több szálas CPU-ra. Amúgy a régebbi PhysX-ek, ha jól emlékszem szintén nyílt forrásúak, mintha láttam volna a GitHub-on.
De - ahogy mondod - ezeket be kellene építeni a játékmotorokba. Párban egyébként benne van. Talán pont az Unreal-ban benne van az AMD-féle cucc. A gond csak az, hogy a játékosok többségének még mindig csak 4 magos processzora van.
0
0
0
0
Kiki4444 avatar
@csuz-li: Szerintem a Probléma CPU-val számolt fizikával van.Hiába több szálon számolja, jól láthatóan a GPU-val gyorsitott PhysX nagyságrendel komplexebb particle szimulációt tud futtatni, relativ alacsony számitási kapacitás árán.PhysX gyenge pontja zártság,ez miatt nehéz alacsony teljesitmény igénnyel beépiteni a játékokba,2010-ben megjelent Mafia 2 manapság 1050TI-on is röhögve elfut, hasonló kompelexitású particle rendszert azóta se láttunk egy CPU-s játékban sem,holott eltelt 10 év...Fallout 4 PhysX Debris fizikája arra is köröket ver,vegy ott a Killing Floor 2 Soft Body és folyadák fizikája repkedő belekkel és fröccsenő vérrel,baromi látványos,sajnos a játékmenet végtelenül középszerű,hovatovább néha frusztráló...Ha fejlesztők csinálnának saját GPU gyorsitt fizikai motort, még alacsonyabb gépigény mellett tudnák használni.Persze van olyan szimuláció aminek a futtatására CPU alkalmasabb,ezt a plafont kb Unreal Engine 3 éra végére elértük.PhysX megmutatta hogy komplex Paricle(értsd nem tűnik el 2 pattanás után ,hanem meg is marad a törmelék---trükközés nélkül végig számolja a partice/debris útját) és Fluid-folyadék szimulációra(Killing Floor 2) valós időben csak a GPU képes.R6 Siege-be(2015) van elég király fizika, elvileg HAVOK CPU-val dolgozik, halál boldog lennék ha AAA játékokba hasonló szintű fizika lenne.Ott valamit nagyon nem szabványosan csinálnak, valszeg trükköznek csomó mindennel, nem kevés manuális utómunka árán, humán erőforrást pedig meg kell fizetni, az a játék a rombolhatóságra van felépítve, szóval ami nekik megéri jelek szerint másoknak nem.Ha hétköznapi Havok Licenc lenne ,mostanra minden Havok fizikai motort használó játékba ilyen vagy még látványosabb fizika lenne.
0
0
0
0
PotykaPal avatar
@Kiki4444: Az egyik legjobb fizikával rendelkező játék, amivel mostanában játszottam az a Control. Igaz Physx-et használ, nem eszi agyon a procit és a játékban gyönyörű részecskeeffektek vannak, rombolhatóság szinte mindenre kiterjed és még egyéb nyalánkságok. Szerintem már régóta nem probléma a fizika szimulációja, sokszor inkább a fejlesztők lustaságáról van szó. Witcher 3 például physx-es volt, de az már nem nVidia exkluzív. Amúgy örülnék személy szerint, ha kicsit több magot használnának a játékok a procikból. Itt vagyunk a 6-8 magos multi threaded CPU-k korában és sokszor nem éri el a 20% kihasználtságot egy 8/16-os processzor, de még egy 6/12-es se nagyon izzad, még 2 magot nyugodtan rááldozhatnának a fizikára...
0
0
0
0
csuz-li avatar
@PotykaPal: + @Kiki4444: Az újabb, dx12-es, vagy vulkan-al készített játékok már használják a több szálat. Ez a trend már elég régóta. Csak a PC portoknál vigyázni kell, mivel, mint fentebb írtam, az átlag játékos még mindig csak 4 maggal rendelkezik (Steam statisztika), ami már akkor elavult volt, mikor megvette. Ha meg egy motorba épített fizikát teszel a játékba, melósabb kikapcsolhatóvá tenni, mint beépíteni, akkor már inkább a PhysX, ami kész, behúzható és ki-be kapcsolható, ráadásul az a bizonyos "átlag játékos" Nvidia kártyával rendelkezik (Steam statisztika szintén 1060-al az élen és további Nvidia kártyákkal a mezőny elején).
Addig ugyanis nincs baj, ha a CPU miatt a játék egyszerűen kevesebb fps-t produkál és alacsonyabb beállításokat lehet csak használni. Baj akkor van, ha bedroppol egy-egy számítás miatt. Ezt senki nem szereti, így a kiadók is inkább hanyagolják az ilyen lehetőségeket PC-n.
Szóval addig igaz, hogy rááldozhatnának két magot a fizikára, csakhogy nincs annyi. Annyi sincs, ami a dx12-höz kellene, nemhogy a Vulkan-hoz. Így végképp nem marad a fizikára semmi. És akkor még nem is beszéltünk arról, hogy a fenti két API-hoz VGA sincs a legtöbb játékosnak, mint azt megint csak a fent említett statisztikák mutatják. Pontosabban van, csak az Nvidia kártyákból sokkal erősebb kell ugyan ahhoz az eredményhez. És akkor vissza is értünk ahhoz, hogy mi marad a fizikai modell számításához. Főleg annak fényében, hogy tágan értelmezve a téma, azaz az RTX is egy fizikai számításokat igényló modell...
0
0
0
0
Kiki4444 avatar
@csuz-li: Processzor adja ki a rajzolási parancsokat,tudomásom szerint a AI-mesterséges intelligenciát is a processzor számolja, tököm tudja még mi mindent. 4 magos CPU-ból hol adjanak 2 magot csak a fizikának?Visszamennénk objektum számba Quake 3 arénához,bazi nagy üres terek lennének.Maga idejébe kiváló játék volt, mai játékokhoz szokott szemnek sterilnek hat.
0
0
0
0
csuz-li avatar
@Kiki4444: Pont ezt írtam én is... 😀
0
0
0
0
Kiki4444 avatar
@csuz-li: Tényleg,sorry.😀
0
0
0
0
PotykaPal avatar
@Kiki4444: Új konzolok megoldják ezt a problémát, 8 mag 16 szál mindkettőben, legalább váltani kell mindenkinek 6 mag/12 szálra a az elkövetkezendő 1-2 évben.
0
0
0
0
PotykaPal avatar
@csuz-li: Új konzolok 8 mag 16 szállal fognak működni, az új játékok rákényszerítik majd a 4 magot használó embereket a váltásra.
0
0
0
0
csuz-li avatar
@PotykaPal: A régiekben is 8 mag volt...
0
0
0
0
PotykaPal avatar
@csuz-li: 8 szuperlassú Jaguar AMD mobil mag... HT nélkül. 8 szál állt rendelkezésre a fejlesztőknek, most 16 szálon fognak tudni dolgozni Zen 2-es magokon, nem kicsi előrelépés. Ha csak lefelezzük az erőforrást, amit ki tudnak majd használni, PC-n 8 szál kötelező lesz, de lehet 10 is. Nem vagyok jövendőmondó, de igazán jöhetne már egy kis fejlődés...
0
0
0
0
csuz-li avatar
@PotykaPal: Nem kell ehhez nagy jövendőbe látás. A mostani gépemet az előző generáció megjelenésekor raktam össze. A konzolokból indultam ki és az volt a tervem, hogy a generáció végéig kitartson egy VGA cserével. Ez be is jött.
Most abban bízom, hogy mivel a programozók lusták, ezzel a konfiggal még legalább egy fél generációt ki fogok tudni húzni. (szigorúan FHD-ban 30 fps elvárással)
Ahogy kinéz, kb 3-4 év múlva kell cserélnem egy Ryzen5-ösre, vagy 7-esre az egész gépet (meg kell majd nézni, hogy hogyan gazdálkodnak a konzolok, mennyit tartanak fenn a rendszernek).
Ez a képlet már az xbox 360-as érában is működött, annak a végéig jó volt az Inteles konfigom: majdnem 7 éven keresztül játszottam vele egy VGA cserével, bár ott kicsit előbb jött a fejlődés pC-n, szóval a végén már elég gáz volt a helyzet. Szerencsére a mostani kicsit időtállóbb, mert akkoriban a PC volt a fő platform, nem a konzol, mint mostanában.
0
0
0
0
Kiki4444 avatar
@PotykaPal: Control-ba tényleg látványos a rombolás,de nem Nvidia PhysX-et használ,Radeon kártyákon ugyanúgy tudsz rombolni. Látványra magam is GPU PhysX-re mondanám,de az Only Nvidia, és ezen a listén sem szerepel(2019-es Metro Exodus rajta van, eléggé uptodate)[LINK].
Csak RTX-et támogat azt viszonthallásra ,ami meg Microsoft DXR-en keresztül megy, RDNA 2-ön ugyanúgy be lehet majd kapcsolni sugárkövetést.
0
0
0
0
PotykaPal avatar
@Kiki4444: Én úgy értettem PhysX-et használ csak nem GPU gyorsítással, mivel mikor indítom a játékot ott virít a PhysX logo... Metro Exodus-ban emlékszem, hogy ki lehetett kapcsolni a PhysX-et, de nem értem miért kell már ilyennel pepecselni. A Controlnak nem GPU gyorsítással rendelkező PhysX-e tökéletesen működik RX 5700 Xt-n és egyéb Radeon kártyákon is.
0
0
0
0
csuz-li avatar
@PotykaPal: be lehet kapcsolni a PhysX-et, csak ha nem Nvidia kártyád van, akkor processzoron számol, amihez mondjuk az enyém kevés.
0
0
0
0
PotykaPal avatar
@csuz-li: Metroban túl volt tolva a PhysX, de Controllal tudsz játszani minden akadály nélkül, legalábbis nem a processzorod lesz a szűk keresztmetszet, hanem inkább a VGA-d. Bár ott van, hogy leveszed a grafikát és voilá úgy is szépek a mai játékok.
0
0
0
0
Kiki4444 avatar
@csuz-li: PhysX-nek két része van,GPU gyorsitott,és a hagyományos CPU-s PhysX.Unreal Engine 4 saját fizikai motorja a CPU-s PhysX:
https://docs.unrealengine.com/en-US/Engine/Physics/index.html
Elég sok játék ezt használja,Hitman Absolution(Glacier 2 engine) Credits lista alján is ott van a PhysX logó pedig az egy Radeon támogatott játék,5-10FPS-el jobban is futott maga idejébe Radeonokon):
Ugyanazt tudja mint bármelyik CPU-s fizikai motor. Tudomásom szerint GPU PhysX-et nem tudod CPU-valszámoltatni,csak Nvidia kártyával tudod bekapcsolni.Control PhysX melyik részét használja,jó kérdés, hardver szempontból megodlható Radeonon is fusson(mesterségesen Nvidia CUDA magokhoz van kötv,szándék kérdése ezt a függést eltörölni), tekintve a PhysX sikertelenségét,elképzelhető hogy NV belement hogy fusson Piros kártyákon és konzolokon is.Lévén manapság ami nem megy konzolon, az kb halott ,nem érdemes olyasmire humán erőforrást és pénzt áldozni amivel kizáród a vásárlóbázis 2/3-át.B opció hogy CPU-s PhysX-el durván szintet léptek.Minőségre,látványra abszolút hozza a GPU PhysX-et,ha ezt CPU-val sikerült elérni, tök király.😀

Még egyszer itt a lista valaha GPU PhysX-et használó játékokról:
https://en.wikipedia.org/wiki/List_of_games_with_hardware-accelerated_PhysX_support
CPU-s PhysX-et sokkal több játék használ, csak nem tudsz róla mert látványra ugyanazt kapod mint bármelyik más AAA játékba.Nvidia is a GPU-s PhysX-et promozta fénykorába ,mert azt csak NV kártyán tudod bekapcsolni.Illetve egy ideig működött hogy Radeon főkártya mellé betettél társ kártyának valami gyengébb Nvidiát, GPU PhysX cimekbe használhattad PhsyX társkártyaként,de a CPU-s PhysX játékokba csak malmozott a társkártya.
6+ éve Driveresen letiltotta ezt az opciót az Nvidia.
Persze lehet tévedek, 290X érába meg se próbáltam bekapcsolni Options-be PhysX-et... vettem átmenetileg 780Ti-t azzal játszottam végig azt a néhány játékot.Most 1070-el akkor játszok velük amikor csak akarok.😎
0
0
0
0
csuz-li avatar
@Kiki4444:
Tudomásom szerint GPU PhysX-et nem tudod CPU-valszámoltatni,csak Nvidia kártyával tudod bekapcsolni.

A mafia II eredeti kiadása ilyen volt. Ki is próbáltam. 100% CPU használat lett az addigi ~50% helyett és volt vagy 10 fps-em. 😀
Amúgy én is nagyjából így tudom, ahogy írod.
0
0
0
0
Vigilante avatar
Nah ezért veszem meg a 3080-ast, hogy csak ennyi cím támogassa!? Cmon!!! 😂
0
0
0
0
💬 4
vyne avatar
@Vigilante: Egyre tobb lesz ez ha kijottek az uj konzolok.
0
0
0
0
Vigilante avatar
@vyne: A proféta szóljon belőled. 😀
0
0
0
0
xCube avatar
@Vigilante: Gondolom a teljesítménye nem is érdekel.
0
0
0
0
Vigilante avatar
@xCube: De még mennyire, hogy érdekel. A Topaz Video Enhance AI programot is előszeretettel használom a 1080 Ti-ommal, ebben meg még Tensor magok is lesznek, így nem csak a gamek alatti teljesítménye lesz fontos, hanem pl ez alatt a program alatti is. 😀
0
0
0
0
vyne avatar
A wowos rt-t inkabb hagyjuk is.. Viccnek is rossz a videok alapjan.
0
0
0
0
💬 6
Scorn Face avatar
@vyne: Hát igen, a wow pont az a cím, amibe nagyon kell. 😃
0
0
0
0
vyne avatar
@Scorn Face: Jo lehetne amugy ha pl a spellek latszodnanak a pocsojaba ahogy athaladnak felette meg ilyenek. Lehetne mit kezdeni vele de nezd meg youtubeon mit nevez a blizz rt-nek... 😃
0
0
0
0
Kiki4444 avatar
@vyne: ,,a World of Warcraft: Shadowlands sugárkövetéses árnyékokkal bővül"
RTX igazán látványos része a tükröződés.Cserébe a számitás igénye is ennek a legmagasabb,de legalább tényleg jól is néz ki.RTX árnyák a világ legnagyobb hülyesége, észrevehető különbség gyakorlatban nincs(Comparison videón észre lehet venni,hagyjuk kategória),ahhoz képest kicsit sok FPS-t veszitesz.
Shadow Of The Tomb Raider-be is csak ez a csoda RTX árnyék van,Nvidia volt akkora paraszt a demózásánál hogy RTX-Offba kikapcsoltatták a kisfiú árnyékát.Ők is tudják hogy RTX-nek ez a része amblokk Bullshit.
0
0
0
0
vyne avatar
@Kiki4444: Az arnyek resze tenyleg az, semmi kulonbseg nincs attol ami eddig volt. Viszont igen, a tukrozodes az ami szamit. Vizben az ego tuz meg epuletek stb kva jol tudnak kinezni bf5-ben. Szamomra ez az rt nem az arnyekok. 😃
0
0
0
0
Kiki4444 avatar
@vyne: igazat szóltál, szívemből szóltál.😀
0
0
0
0
PotykaPal avatar
@Kiki4444: Hogy őszinte legyek az árnyékok hagyományos módon megjelenítve még jobban is néznek ki. Lásd: Shadow of Tomb Raider , haha most látom milyen találó cím... 😉
0
0
0
0
no avatar
Elég harmatos, szerencsére a DLSS jobban terjed bár az utóbbinak tényleges haszna is van, úttörőnek számít gyakorlatilag így ez nem is túl meglepő.
0
0
0
0
💬 2
csuz-li avatar
@LordSzalko: Pontosan. Ez végre egy olyan fejlesztés, mi nemhogy nem a csillió dolláros kártyákra van megírva, hanem pont a gyengébbeken is segít. Emiatt el is gondolkodtam én is az Nvidia vásárláson, mert ezzel időtállóbbá vált egy kicsivel.
0
0
0
0
yorgash avatar
@LordSzalko: Nem tudom, én Control-ban próbáltam a DLSS-t.
Egy kicsivel persze kevesebbet ront a grafikán, mint ha mindent low-ra húzok és visszaveszem a felbontást... de csak egy kicsivel.
Lehet, hogy azóta fejlődött, de nekem lényegében egy irányíthatatlan graphics downscale-nek tűnt az egész.
0
0
0
0
Memento Mori avatar
Nem nagyon tűzel fel a technológia. Meg nem is viszik túlzásba a rendszeresítését...
Igaz, amíg a mostani kártyám kiszolgál, addig nem is lesz erre alkalmas hardverem. 😂
0
0
0
0
💬 5
santakigyo avatar
@Memento Mori: Pedig eléggé erőltetik a dolgot. Mivel az új konzolok tudják, így minden bizonnyal fogják nyomatni a játékok alá. Szerencsére kikapcsolható opció még.
0
0
0
0
19ati93 avatar
@Memento Mori: Pár év múlva már lehet alap dolog lesz az RTX. Szépen alakul ez. A hardverek meg csak jobbak lesznek a későbbiekben.
0
0
0
0
xCube avatar
@19ati93: RTX = nvidia GPU brand
RT = ray tracing, egy leképezési technológia

Ne keverjük össze a kettőt 😀 .
0
0
0
0
X9K338DA avatar
@Memento Mori: Mindig is az volt a baj az Nvidia zárt forráskódú rendszereiben, hogy zárt forráskódúak. PhysX, Gsync, Hairworks, stb. Bele lehet tenni pár lefizetett fejlesztővel egy-egy játékba, de iparági szabvány nem lehet belőle, ha ők az egyetlen, akinél működik, mert olcsóbb kifejleszteni egy nyílt forrású technológiát, mint licencelni az övéket.
0
0
0
0
xCube avatar
@X9K338DA: A ray tracing nem zárt, DX12 -n és Vulkan -on fut. Bárki épithet olyan hardvert, ami tud rt műveleteket gyorsitani.

A G-Sync valóban zárt, de cserébe hardveres megoldás, ezért is működik jobban, mint a FreeSync vagy a G-Sync "lite".
0
0
0
0
Rocky12 avatar
Cyberpunkban majd teszek vele egy próbát, ha 1080p alatt RTX ON-al (+DLSS-el) tudja tartani a 30 fpst akkor lehet felcsapom a kontrollert és úgy fogom végigvinni 😃
0
0
0
0
💬 2
19ati93 avatar
@Rocky12: 30 meglesz biztos! 😃
0
0
0
0
PotykaPal avatar
@Rocky12: Nem kötelező Quality módban használni a DLSS-t majd. Performance-ra állítod és jól megdobja a frame rate-t majd.
0
0
0
0


Elfelejtett jelszóRegisztráció