Megjelenési dátumot kapott az AMD Fluid Motion Frames technológia

Szerző: xoki | 2024. January 13. | hír | 66 hozzászólás

Január 24-e kiemelkedő nap lesz az AMD rajongói számára, ugyanis a vállalat ekkor fogja kiadni a 16 GB-os RX 7600 XT-t, illetve a Fluid Motion Frames, azaz az AMD Frame Generation technológiája is befut majd.

A technológia a HYPR-RX részeként érkezik, de különálló opcióként is elérhetővé kell válnia az illesztőprogramokban. Az AMD Fluid Motion Frames nem igényel játékfejlesztői támogatást, és zökkenőmentesen működik bármilyen implementáció nélkül. Természetesen ez azt jelenti, hogy csak AMD Radeon GPU-kkal használható, és nem támogatja mindegyik kártya.

Az AMD korábban már előállt a Fluid Motion Frames támogatással ellátott korai illesztőprogramokkal. A legutóbbi frissítéssel a Radeon 700M integrált széria, míg korábban az RX 6000 lett támogatott. A 600M (RDNA2) jelenleg nem támogatott. A Radeon Super Resolution (RSR) funkcióval együtt a játékosok lehetőséget kapnak a felskálázás és a képkocka generálás engedélyezésére. Ennek minden DirectX11-es és DirectX12-es játékban működnie kell.

Az AMD természetesen tisztában van vele, hogy komoly előnye van az Nvidiával szemben, hiszen ez a megoldás „minden” játékban működik, miközben a DLSS 3 + Frame Generationt külön implementálni kell a játékokba, és kizárólag RTX 40 GPU-kkal működik.

Az NVIDIA egyébként rendelkezik egy NIS (NVIDIA Image Scaling) nevű felskálázási technológiával, de ez egy egyszerű, AI technológia nélküli térbeli felskálázó. Amennyiben az NVIDIA piacra dobná az RSR versenytársát, az AFMF megjelenésével az AMD akkor is két lépéssel az Nvidia előtt lesz majd.

Hozzászólások: 66
Hozzászólás küldéséhez be kell jelentkezni.
pinkyke avatar
hát én majd akkor gondolkozom amd kártyán ha már működőképes lesz ez a technológia és nem csak ez jobb lesz meg az jobb lesz ha már tényleg meg van és működik akkor majd váltok rá.
ha meg nem akkor marad az Nvidia.
0
0
0
0
carl18x avatar
Majd jön a következő "Technology" ami 320X240-ről skáláz fel 4 k-ra 🤣🤣🤣
0
0
0
0
no avatar
"Az AMD természetesen tisztában van vele, hogy komoly előnye van az Nvidiával szemben"

😂😂😂

Fsr3 ból se lett semmi szinte, ebből se lesz.
Ki próbáltam béta verzióban, a dlss hez képest sehol nincs!
1
1
0
0
💬 8
alacka97 avatar
@JatekLabor: AFMF-el kapcsolatban tényleg vannak gondok, elég csak a "hardware unboxed" csatorna tesztjét megnézni, ahol kb használhatatlanként tekintenek rá. Nagy mértékben rontja a képminőséget, sőt a több FPS ellenére is enélkül a funkció nélkül fluidabb a kép. Gyorsabb mozdulatok esetén széttörik a kép és akár ilyen 30%-os FPS dropok is lehetnek. A játékon belüli UI elemeket sem tudja elkülöníteni és még ott is felaprozza a képet mozgáskor. Nvidia technológiájához képest sehol nincs. Az FSR ehhez képest még jól működik, bár az se hozza a DLSS szintjét.
0
0
0
0
no avatar
@alacka97: Hab a tortán hogy egy pár hónapja kijött egy új AMD driver ami elég sok 6900XT-t haza vágott. Azóta az enyém is meghalt. Kár hogy erről nincs cikk. Többet én az AMD ből nem kérek videokártya terén..... 14 hónap 356 ezer forintért!!!
0
0
0
0
alacka97 avatar
@JatekLabor: Hát az pech, gari nem volt? Nekem eddig csak driveres összeakadásom volt, ami miatt 2x újra kellett a windowst telepítenem, plusz volt egyszer olyan, hogy a windows automatikusan egy nem a hardverhez tartozó drivert telepített és hiába telepítettem fel manuálisan az AMD Adrenalint a windows frissítés felülírta.
0
0
0
0
enslaved avatar
@alacka97: A 23.9.2 és 23.9.3 sikerült nagyon rosszul, folyton lefagytak tőle a gépek, de tönkremenetelről szó nincs. A manuális adrenalin beállításokat meg egy Win 11 frissítés állította folyton vissza alapra, én még mindig azt mondom, amíg van Win 10, azt kell használni.
0
0
0
0
no avatar
@JatekLabor: Engem érdekelne amúgy, hogyan vágta tönkre egy patch a videókártyát? nem hallottam róla.
1
0
0
0
no avatar
@arnold892: Nem patch, driver. Keress rá...
0
0
0
0
enslaved avatar
@JatekLabor: Tedd be a linkjét, már ha van ilyen, mert tönkretett kártyákról sehol nincs hír. Hibás driver volt kettő is egymás után, de kártyákat nem tettek tönkre. Ilyen zöld fronton is volt már nem egyszer.
1
0
1
0
no avatar
@JatekLabor: Én a 2022-es pro verziót használom ahhoz a kártyához és pöc röff.
0
0
0
0
Payphoner avatar
Durva hogy amíg a fejlesztők nem sz*rtak az optimalizálásra és a normális tesztelésre ilyen dolgokra nem volt szükség. Én valahogy egyetlen ilyen technológiában sem látom az innovációt. Sőt csak elszomorít hogy ilyenek kellenek. Kezd meginogni a hitem a teljes játék iparban meg úgy az egész számítástechnikában. De legalább az LG piacra dobta az "átlátszó" TV-t XD Vicc világ
6
0
0
0
💬 13
bukta2 avatar
@Payphoner: Értem amire próbálsz rávilágítani, de szerintem itt inkább a harveres korlátok miatt van ezekre az eljárásokra szükség amíg ki nem okoskodnak valami új technológiát amivel jobb teljesítmények érhetőek el,nézzük csak meg a fogyasztásokat meg a vga méreteket... ez nem mehet így a végtelenségig mert akkor már egy paks 2 sem lenne elég egy vga-hoz ha ez így haladna... a méretekről meg már ne is beszéljünk.
1
0
0
0
MrPAYER avatar
@bukta2: Elérünk egy olyan határhoz lassan, hogy magát az iparágat kell valamilyen módon reformálni és más alapokra helyezni mert hamarosan elfogy a nanométer.
0
0
0
0
xCube avatar
@Payphoner: Nem ilyen egyszerű a dolog. Bukta2 teljesen jól ragadta meg a lényeget, amit én is évek óta rendszeresen hozok fel itt hasonló kommentek esetén: a fotolitográfia technológiai korlátait döngetve az masszívan korlátozza a hardverek fejlődését, ami visszafogja a grafika fejlődését is. Addig amíg nem lesz más megoldás a számítások lebonyolítására a tranzisztor alapú rendszereken kívül egyre nehezebb lesz tovább lépni, és itt lépnek be a képbe a felskálázók, frame generátorok, előbbihez csatlakozván pedig az MI alapú képfeldoglozás. Nagyon valószínű, hogy a közeljövőben az újabb játékok már nem klasszikus izomerőn alapuló grafikával fognak hódítani, hanem egy path tracing -gel jó tempóban renderelhető közepes - magas részletességű alapot használnak majd, amit MI tesz majd on the flow fotorealisztikussá. Nagyobb szerepet kapnak majd a voxelek, a point cloud és idővel valószínűleg a gaussian splatting is.
A legnagyobb probléma az, hogy egy idő után nem lehet tovább sűríteni a tranzisztorokat, az adatok feldolgozásában pedig nem minden esetben lehet párhuzamosításra építeni, tehát a minél több mag sem lesz lineárisan hatékonyabb. A grafikai részletesség emeléséhez szükséges hardverigény növekedése pedig nem lineáris, hanem exponenciális. A 90 -es és 00 -es években a hardverek fejlődése sokkal gyorsabb volt, mint manapság, évente történt generációváltás. A 10 -es évek közepétől már két év volt a kifutás és a teljesítményugrás küszöbe, jelenleg pedig sanszos, hogy ez kitolódik a harmadik évbe. A hardverek teljesítménye pedig nem adott fogyasztási határon belül nő, hanem szinte már követi azt, akár csak a hőtermelés. Jó példa erre az AMD legújabb Ryzen architektúrája. Az efficience magok a nagy teljesítményű magok komplett másai, de a mérnökök szűkebbre vették a méretet (nem a gyártástechnológiáét, hanem a huzalozás és a tranzisztorok közötti üres teret komprimálták), ami által ugyanaz a mag csak alacsonyabb órajelen működik, mert sokkal kisebb felületen kell leadnia a termelődő hőmennyiséget (máskülönben túlmelegedne és károsodna). Ez egy nagyon pozitív megközelítés, mert nem kell külön tervezni más felépítésű magokra, de jól mutatja, hogy hol a probléma a szilícium félvezető, fotolitográfián alapuló tranzisztoros chipek esetén.
Kitérve az optimalizálásra, igen, ez is szenved a jelenlegi játékpiacon, de közel sem annyira, mint azt sokan hangoztatják. Egy részről a legtöbbeknek fogalma sincs arról, hogy az optimalizálás valójában mi és hogyan zajlik, más részről azt gondolják, hogy az varázspálcaként működik és ugyanolyan grafikai részletesség mellett sokkal nagyobb teljesítményt hoz. Léteznek gyengén megírt kódok, slendrián szkriptek, ahogy mesterségesen generált megnövelt gépigény is, de a legnagyobb teljesítményt a grafikai szint változtatásával lehet elérni.
0
0
0
0
Pokman avatar
@xCube: Igen, de ha megnézed akkor a grafika az elmúlt 5 évben alig változott, viszont a 10%-os "élethűbb" grafikáért kérnek egy 100%-al jobb kártyát. Ez az ami kiüti a biztosítékot sokaknál, ez már nem AI és MI, ez szimplán ***ás a fejlesztők részéről. A nanite meg lumen ésatöbbi meg alig van még használva játékokban, azoknál esetleg meg lehet érteni, de a többinél már tényleg a fejlesztők azok akik ki*** velünk. A többivel egyetértek.
0
0
0
0
xCube avatar
@Pokman:
Igen, de ha megnézed akkor a grafika az elmúlt 5 évben alig változott, viszont a 10%-os "élethűbb" grafikáért kérnek egy 100%-al jobb kártyát.


Pontosan ezt írtam le: "A grafikai részletesség emeléséhez szükséges hardverigény növekedése pedig nem lineáris, hanem exponenciális."

10% grafikai fejlődéshez 10^2 = 100% hardvertöbblet szükséges.

A nanite meg lumen ésatöbbi meg alig van még használva játékokban, azoknál esetleg meg lehet érteni, de a többinél már tényleg a fejlesztők azok akik ki*** velünk. A többivel egyetértek.


A lumen és különösen a nanite nagyon fontos és üdvözlendő fejlesztések. A nanite -re én személy szerint évek óta várok, nagyon örülök neki, hogy végre jön egy olyan rendszer, ami pontot tesz a klasszikus LOD korszak végére.
0
0
0
0
Pokman avatar
@xCube:
hanem exponenciális."

10% grafikai fejlődéshez 10^2 = 100% hardvertöbblet szükséges.
rosszul használod az exponenciális kifejezést vagy csak nem tudod mit jelent 😂 de az előbb ebbe nem akartam belekötni és amúgy nem, messze nem kell neked 10%-hoz 100%-al jobb hardver. 100% megdublázott teljesítményt jelent. Az olyan mintha azt mondanád hogy AC Originhez elég volt max grafika 1080p 100FPS-hez egy 4070, de AC Vallhallához ugyanehhez már 4090 kell. Tiszta abszurd amit írtál
0
0
0
0
xCube avatar
@Pokman: Pontosan tudom, hogy mit jelen, de így utólag visszaolvasva valóban nem teljesen egyértelmű a dolog és valamennyi túlzás is van benne. Az exponenciális itt, mint jelenség értendő. A te példádban négyzetesnek kéne hívni.
Alapvetően problémás ez a 10% -os mérce, hiszen mivel méred le a dolgot? Végeredményben a látványról van szó, az az, amit a legtöbben megtapasztalnak egy játékból és nem a háttérben zajló folyamatokat.

Leegyszerűsítve a dolgot ha visszanézünk a 3D gyorsított grafika kezdeti idejébe, a kilencvenes évek végétől a kétezres évek közepéig. Akkoriban ha egy játék 200 polygonból álló modelleket használt és ezt összehasonlítottad egy 300 polygont használóval, akkor piszok nagy különbséget láttál. Ha egy 1.000 vs 1.100 -as modellt hasonlítasz össze már lényegesen kisebb a különbség. Minél részletesebb a grafika annál több erőforrás kell ahhoz, hogy ugyanakkora egységnyi fejlődést érj el, mint az előző generációban és ezt nem követi a hardverek fejlődése.

A mai időkben eleve eljutottunk egy olyan pontra, ahol a fejlődés szemléletmódváltást is igényel, illetve sokat számít az egyéni preferencia, a játék stilisztikája, a digitális művészek kompetenciája. Nagyon leszűkítve ugyanolyan részletességű assetekkel és textúrákkal ugyanolyan fejlesztői környezetben lehet egy közepes kinézetű játékot kreálni, vagy egy csodaszépet úgy ,hogy mindkettőnek ugyanolyan magas a hardverigénye. Ha összehasonlítasz egy 2015 -ös húzócímet egy 2023 -assal és nem a technológiai oldalt, hanem pusztán a grafikát figyeled (legjobb esetben laikus szemmel), akkor apróságokon kívül nem sok különbséget találsz, a 2023 -asnak viszont nem lineárisan nő a számításigénye, hanem sokkal intenzívebben.

De jó példa mondjuk a Killzone 2 és a Killzone Shadowfall is, régi de teljesen jól mutatja azt, amiról beszélek. Egymás mellé téve a kettőt a grafika minőségének emelkedése nem lenne 100% -os, de induljunk ki ebből, tehát kétszer olyan szép a játék, lineárisan emelkedik. A render target az előbbi esetén 720p (912.600 pixel) utóbbinál 1080p (2.073.600), ami ugyancsak közel lineáris. Ha a textúrák felbontását vesszük elő, egy vizuálisan kétszeres részletességű textúra nem kétszer annyi pixelt tartalmaz, hanem négyszer annyit. A Killzone 2 512x512 -es textúrákkal dolgozik (zömében), ami 271.441 pixel, szemben a Shadow Fall minimum 1024x1024 -es textúráival, ami már 1.048.576 pixel, de a játék sok helyen használ 4096x4096 -os textúrákat is, amivel már 16.777.216 pixelnél járunk. A karakterek a Killzone 2 esetén átlagosan 10.000 polygonból épülnek fel, a Shadow Fall -ban 40.000 -ből. Előbbi egy 230GFLOPS teljesítményű konzolon jelent meg, utóbbi egy 1.8 TFLOPS teljesítményűn, ami 780% -os növekedés. Ez egy nagyon leszűkített dolog, ennél jóval bonyolultabb az egész, de pusztán ezek a számok is jól szemléltetik azt, amire gondolok.

Remélem így érthetőbbé vált, hogy miért használom az exponenciális kifejezést 😃 .

U.i.: Annak idején a 4k megjelenítő felbontás megjelenésével sokan nem igazán tudták megérteni, hogy a váltás itt sem lineárisan 1 -> 2, mint a HD Ready és a fHD esetén volt, hanem 1 -> 4. Arról nem is beszélve, hogy mindenre elkezdték használni a 4k kifejezést, köztük a textúra méretekre is, aminek az ég világon semmi értelme.
0
0
0
0
Pokman avatar
@xCube: Amit christoferus is írt + még annyit tennék hozzá hogy a Forza Horizon játékok a tökéletes példák ide. Csak elég ránézni a Horizon 3, 4 és 5-re, grafikai szempontból elég szembetűnő a különbség, és utána nézz rá a gépigényre, nem kértek hozzá még csak egy újabb generációs kártyát sem azért a grafikai fejlődésért. És akkor most nézzünk rá a Motorsportra, agyon pakolták RT-vel oké, de maga a grafika semmit sem változott, jobbá tette az a sok RT ? Messze nem, sőt egyesek odáig mennek hogy azt mondják rosszabb, és erre kértek egy 2 vagy 3 generációs kártya ugrást ÉS MÉG felskálázást is KÖTELEZŐEN ?!?!? Ráadásul nem számít ha nem akarsz RT-t, úgyse fog sokkal jobban futni. Ez az amiről mi most itt beszélünk.
0
0
0
0
no avatar
@xCube: Tehát csinálnak 10% grafikai fejlődést (amit amúgy nem mert annyi se volt, de maradjunk a példánál) kétszer akkora teljesítmény igénnyel, azért hogy utána lebutított illúzióval korrigálják arra a szintre, ahonnan elindultak minőségről.

És még csoda, hogy sokszor úgy érzem, én egy ufó vagyok és nem tudom mit keresek ezen a bolygón. :D
0
0
0
0
xCube avatar
@christoferus: Olvasd el a kommentemet, amit most írtam Pokman -nek.
0
0
0
0
no avatar
@xCube: Ezt én értem, de nem erről van szó.
Hanem az orbitális butításról.
A felskálázó technológiát már az elejétől beépíthették volna alapvetőként a struktúrába, nem pedig valami extra fjúcsörként villogtatni.
Mindezt úgy, hogy a legtöbb kész játék kb. ugyanazokból az assetekből, pakkokból készül, ugyanazon alap engine-en mint 6-8 évvel ezelőtt.
Nem kellett volna a pánik közepette ennyire ráállni a még használhatatlan új technológiák fércműves felhasználására, csak hogy ne az látszódjon, pang az iparág és kifogytak a kreatívitásból, mint hollywood.
Az UE4-et elég lett volna max. QHD szintig csont tisztára nyalni (vagy 2k-ra) és még jobban optimalizálni a komponensekhez.
Ehelyett HDR, 4k, RTX, DLSS, FSR, meg minden szarsággal etetik az embereket, hogy picit szemet vakuzzanak a látvánnyal legerősebb hardvereken is 20-30fps-el egekig szökő késleltetéssel.
Egy össze vissza csapongó sárral tapasztott kártyavárra épül az elmúlt 6-7 év játék és komponens gyártó ipara.
És az a bizonyos lufi most már egyre többször pukkan.
0
0
0
0
no avatar
@Payphoner: Engem az ijeszt meg, hogy ez az embereket nem is zavarja. Vitatkoznak hogy melyik felskálázó a jobb...300+ ezres kártyákon (egészen milliókig)...
Szemfényvesztés az egész.
Amikor először megjelent, akkor még azt hittem ez egy jó dolog lesz. Hogy a játékipar azokat is így tudja majd becsalni pénzzel, akik amúgy nem rendelkeznek még elég jó videókártyával, de addig is kompromisszumokkal tolhatják a játékokat amiket így meg is vesznek.
De hogy már a játékok eleve úgy készülnek el, hogy lassan nem opció a felskálázó, hanem anélkül egy 1 millás kártyával se tudsz 60fps-t elérni kamu 2k-n...
Ahogy a filmben mondták. "Itt mindenki hülye?"
1
0
0
0
Payphoner avatar
@christoferus: Számból vetted ki a szavakat. Tényleg ez a legrosszabb dolog hogy nem azért van ez hogy a gyengébb kártyákon is jól fusson egy-egy játék hiszen a 3 éves kártyák már nem is támogatottak hiszen azok is korszerűek még, hanem hogy már eleve azért veszel több millás kártyát hogy jó fps-ed legyen ha ezeket bekapcsolod. Az Alan wake 2-ről is jöttek a videók hogy mennyivel jobban fut ha ezt meg ezt bekapcsolod. Vicc hogy már egy új Fifa játék is szopatja lefele a VGA-kat meg zakatol mint az adom.

És itt a bizonyíték ezt már máshol is kifejtettem ott a Mátrix 2 vagy már talán 3 éves techdemoja ami mutatja hogy milyen játékok keszülhetnének ha bárkit is érdekelne még a játék fejlesztés. Amúgy kövezzetek meg de ott van a CS2. Oké nincsenek nagy kidolgozott épületek, nem nyiltvilágú, nincsenek környezeti elemek stb, de akkor is az a játék kib*szott jól néz ki. ÉS akkor egy 5 éves kártyán fut 150 FPS-el.

Senki nem akar optimalizálni az ég világon semmit ez a baj. Kinek éri meg? Ezért megy tönkre a mosógéped 5 év alatt, ezért megy szét egy farmernadrág fél év alatt és had ne soroljam tovább. És a mellett hogy minden kevesebb ideig bírja, vagy egyszerűen csak hitványúl van megcsinálva, egyre drágább is minden. Még a játék iparban tudtam bízni is hinni, mostmár abban sem.
1
0
0
0
Tuhajohn avatar
Jelenleg szerintem az AMD kizárólag raszterben tud jobb ár-érték arányt mutatni. Kíváncsi vagyok, hogy ez és majd az FSR egy új verziója változat-e majd ezen.
0
0
0
0
💬 1
no avatar
@Tuhajohn: Ár érték? Ugyan már 😂😂😂
Az amd elég sok felhasználót meg károsított egy amd driverrel, ami után a 6900XT ék elkezdtek meghalni. Szerencsére az enyém is meghalt azóta. Persze amikor rá jöttek mit csináltak, törölték a hivatalos drivert, majd ki adtak egy újat. Azóta meg elég sok 6900XT a temetőben van. 14 hónapért fizettem 356 ezer forintot. Igazad van jó ár-értékű kártyákat gyárt....
0
0
0
0
Mizushio avatar
Szerintem nincsen hátrányba az nvidia.Ha már csak a Ray Reconstrution-t nézzük, hogy az mennyivel élesebb és szebb képet tud produkálni. Jelenleg majdnem minden ember tud használni frame generation-t modolva persze. Amit AMD-nek az FG-jét használja. Én így játszom pl cyberpunkot DLSS 3.5+ AMD FG mod és még path tracingel is tudok normális fps-el játszani.. De magába az FSR még mindig nem olyan szép, mint a DLSS. Érdekes method AMD részéről ez a FMF. Kipróbálni nem tudom, mert nincsen AMD kártyám.
0
1
0
0
💬 7
MaximumGame avatar
@Mizushio: Az lehet hogy nvidia szebb.. de AMD megoldása régebbi kártyákon is megy. Hiába szarabb. Azért annyival nem szarabb hogy ha azt nézed hogy régi Nvidiákon is megy és sokat dob...
0
0
0
0
Mizushio avatar
@MaximumGame: Lehet hogy régebbi kártyákon is megy, de inkább natív-et használnék, mint FSR 1.0, mert sajnos 1-2 játékba mai napig az van és még updatelni se akarják. Black Desert tökéletes példa. FSR-t is csak azért használtam annó, mert a régi kártyám haldoklott és leégett volna upscale nélkül. De egyébként kegyetlen homályos és pixeles. 3.0-t szívesen használnék pl BDO-ba csak nincs. Ahogy DLSS se..
0
0
0
0
Pokman avatar
@Mizushio: Itt most FSR 3-ról van szó mondjuk, ami megy régebbi kártyákon is (AFMF FSR3-at használja), úgyhogy nem tudom miért beszélsz itt FSR 1-ről. És AFMF fog neked menni BDO-ban is, épp ez a lényeg 😊
0
0
0
0
Mizushio avatar
@Pokman: Nem fog, mert nincsen AMD kártyám. :p Azért beszéltem az FSR1-ről, mert az kifejezetten csúnya.
0
0
0
0
xCube avatar
@Pokman: Az FSR 3 már tényleg elég jó, de még mindig nem ad olyan tiszta képet, mint a DLSS. Persze ezt játéka és implementációja válogatja, van ahol az FSR2 szebb képet ad, mint a driveres FSR 3 alapú felskálázás. Egyszerűen hiányzik belőle az MI feldolgozás, amiben az nvidia mérföldekkel az AMD előtt jár.
0
0
0
0
Pokman avatar
@xCube: Nem ad olyan tiszta képet, de ha odatennéd információ nélkül az emberek elé, mint mondtam 90%-a nem mondaná meg hogy melyik melyik, addig amíg valaki fel nem hívná rá a figyelmüket. És nem arról van szó hogy AMD nem tudná megtenni, ők egy más megközelítést használtak. Természetes hogy nehezen kel versenyre olyannal amire a kártya felépítése is hatással van, de ők azt választották hogy inkább használja mindenki 3 generácóig visszamenőleg, azokba a kártyákba mostmár elég nehéz lenne tensor magokat belerakni 😂
0
0
0
0
xCube avatar
@Pokman: Az AMD nagyon is jól tette, hogy ezt az utat választotta, hiába volt benne némi kényszer a hiányzó MI gyorsító nélkül. Kell ilyen megoldás is, évek múlva valószínűleg MI nélkül is elér egy olyan szintet, ahol már nem lesz annyi torzulás és elmosódás / utánhúzás, mint jelenleg.

Azt viszont aláírom, hogy a legtöbb felhasználó nem venné észre a különbséget, de ez legfőképpen azért is van így, mert nem is érdekli őket.

Nekem feltűnő, sőt zavaró. Saját tapasztalataim alapján az FSR szimplán túl "buta" ha erősen geometrikus környezetben használják. Természetes környezetben viszont nagyon jól működik.
0
0
0
0
alacka97 avatar
Én nem teljesen értek egyet azzal a kijelentéssel hogy az AMD 2 lépéssel az NVIDIA előtt lesz, mivel az NVIDIA hozta be előszrör a Frame generation, amire most válaszul ezt lemásolva az AMD megcsinálja az AFMF-et, aminek megjelenésével az NVIDIA egyáltalán nem kerül hátrébb. Volt egy monopól helyzete az NVIDIA-nak, amire egy idő után várható volt, hogy az AMD is előrukkol ennek a továbbfejlszetett másolatával. Mire az AMD ezeket behozza, amik már NVIDIA oldalon léteznek, addigra az NVIDIA már rég más techniloógiákon fog dolgozik. Az NVIDIA-nak viszont muszáj ezeket úgy fejleszteni, hogy csak az ő kártyáival kompatibilisek, mivel csak ezekkel tudja a vásárlókat ösztönözni arra, hogy NVIDIA-t vegyenek. Az AMD-nek erre nincs szüksége, mivel ő benne van a konzolok és a kézi számítógépek világában, szóval egyértelműen neki az az érdeke, hogy az NVIDIA technologiáját valamilyen uton mondon platform függetlenné tegye, ami az NVIDIA-nak nem okoz hátrányt , mivel amíg ezek még csak NVIDIA-ra voltak, addig ő eladta a hardvereit. Nem tudom feltünt e bárkinek, hogy egy új RTX generáció megjelenésekor meg szoktak jelenni olyan technológiák, amik csak az új genreáción jelennek meg (el kell adni az új generációt), viszont egy idő után mikor már eladta az új generációt, az NVIDIA kiterjeszti ezt a technológiát a régi kártyákra is. EZ CSAK PÉNZRŐL SZÓL! A másik, hogy a monopól helyzetet egyik területen sem engedik meg, egy idő után ezeknek a fejlesztéseknek a zárolását fel kell oldani. Amúgy a DLSS mai napig a legjobbban működő scaling megoldás, amit megint csak lecopyzott az AMD, de olyan jól nem működik, mint a DLSS. Én csak örülök, ha ezeket behozza az AMD, mert akkor PS5-ön jobban fognak futni a játékok, az NVIDIA meg kb letojja ezt, mert már az RTX5000 szériához fog valami újabb, hatékonyabb módszert fejleszteni.
0
1
1
0
💬 12
Pokman avatar
@alacka97:
mivel csak ezekkel tudja a vásárlókat ösztönözni arra, hogy NVIDIA-t vegyenek
na ezzel pont rátapintottál a lényegre, mert másként franc se venné azért a pénzért és pont ez a baj az Nvidiával, az ára. És igazából most már a pénz szűkében levők nem kell Nvidiához rohanjanak mert a fejlesztők mindenhova odabiggyesztik hogy DLSS kötelező, ami csak az új generáción megy, mert itt az AFMF, ami működik mindenen és több generáción. Nem annyira kiforrott, de 90%-a az embereknek nem tudja megmondani a különbséget FSR és DLSS között amúgy sem. Még teszteken is 4-szeres lassítás és 3-5-szörös nagyítás kell hogy megmutathassák.

addigra az NVIDIA már rég más techniloógiákon fog dolgozik
itt vagyunk, behozta, de Nvidia nem dolgozik semmin. Legalábbis semmin a gamereknek, meg is volt mondva hogy elengedték a játékosokra fókuszált kártyákat. Hogy ez mit jelent? Lesznek kártyák ahogy eddig is, de még mostaninál is magasabb árat fognak kérni, ami igazából már nem is a játékok teljesítményéért lesz. Szóval ha AI kell munkádhoz akkor a cég kifizeti neked az Ngreedia kártyákat, de ha csak játszani kell akkor hülye kell legyen az aki kiadja a pénzt azokért.

amik csak az új genreáción jelennek meg
így igaz, mert másként csak a hülye cserélne mindig az újakra, nem veszed észre hogy ezzel csapnak be? Már tiszta unorító amit csinálnak. AMD és Intel sem szent, messze nem, de amit a zöldek csinálnak már gusztustalan. Mondom ezt úgy hogy sohasem voltam elfogult egyik oldallal szemben sem, volt minden féle kombinációm már, sőt a legutóbbi 2 kártyám is GTX volt. De mikor láttam hogy mit művelnek a 30 és 40-es széria áraival azért a teljesítményért, egyszer nem kellett elgondolkodjak azon hogy most Radeont veszek.
0
0
1
1
Tuhajohn avatar
@Pokman: "de 90%-a az embereknek nem tudja megmondani a különbséget FSR és DLSS között amúgy sem"
Ez azért nagyon nem igaz. A DLSS és az XeSS (XMX) szinte ugyanolyan jól néz ki, mint a natív, sőt néha jobban is, az FSR ezzel szemben botrányosan ronda a legtöbb játékban.
1
0
0
0
alacka97 avatar
@Tuhajohn: Szerintem se igaz, hogy ugyan olyan. Jo mondjuk én 50inches 4K TV-n nagyon látom a különbséget. Azért van egy AMD laptopom meg egy NVIDIA asztalim és nagyon látszik a különbség.
0
0
0
0
no avatar
@alacka97: De legújabb Amd 7000 és vagy koràbbi ahogy Nv ből is a laptopodban?
0
0
0
0
Pokman avatar
@Tuhajohn: Örülök ha neked látszik, nekem a különbség egyáltalán nem látszott amíg egy videóban (mint mondtam rázoomolva és lelassíta) fel nem hívták rá a figyelmemet. Utána, mikor tudtam hova kell nézni már feltűnt, szóval ne magadból indulj ki mikor valaki azt mondja 90% 🤣
0
0
0
0
alacka97 avatar
@Pokman: Sajnálom, ha ez neked ekkora világfájdalmat jelent. Kapitalizmusban élünk. De akkora árkülönbség nincs, amiért hanyatt kellene vágja magát az aki egy 500k kártyára akar beruházni. Most kb 60k különbség van a legolcsóbb amd 7900xtx es a 4080 között itthon. De az NVidian legalabb a DLSS es a frame generation olyan teljesítménybeli különbségeket adott, ami bőven fedezte a 10%-os árkülönbséget és már eltelt több mint 1 év. Mire az AMD kidobja, addigra jönnek az új kártyák és attól mert nem kötötték a te orrodra, hogy mi az új fejlesztés, amivel újra el fogják tudni adni attól még lehetséges egy újabb nagy dobás. Amúgy az írásom arra irányult, hogy nagyon nem 2 lépéssel van lemaradva az NVIDIA, amikor az AMD csak most akarja behozni a lemaradást :D Bár nem tudom miért jelentene hátrányt ez az NVidianak, amikor azon a sajátja és a másik is fog futni es egyértelműen a sajátját fogom használni, mivel az eddig minden esetben jobban működött. De mondom
nem az AMD ellen szólok, a PS5 is arról megy es a laptopom is AMD, de azert gondolkozzunk reálisan. Nem kell a fanatikus elvakultsággal szemlélni a világot. Még mindig az asztali PC eladásokban torony magasan az NVIDIA vezet. Gondolom mindneki buta azért veszi. Ha nagyon bele akarunk kötni, akkor ott a VRAM, abban tényleg gáz, amit az NVIDIA csinál.
2
1
0
0
Pokman avatar
@alacka97: Inkább tűnik nekem úgy hogy neked jelent ez fájdalmat, túlságosan is a magyar árakhoz viszonyítod az egészet, magyarországi vásárlók szinte semmit nem jelentenek a világpiacot nézve és bizony ha azt nézzük nem egy 10%-os különbségről beszélünk a legtöbb helyen (itt is pl XTX és 4080 között kb 20% árkülönbség van). És amúgy de, már az orrunkra kötötték mik az új fejlesztések, és egyik se a játékosokat célozza.

Gondolom mindneki buta azért veszi
rátapintottál a lényegre 🤣
0
0
0
1
MaximumGame avatar
@alacka97: Szerinted, Nvidia után 1évvel már kész is az AMD fejlesztése ? :D vagy már együtt fejlesztette az AMD is ezt a technologiát.
0
0
0
0
alacka97 avatar
@MaximumGame: Fejlesztésben dolgozok én is és tudom, hogy a cégek egymást eléggé benchmarkolják plusz a jatékfejlesztőkön keresztül is látják a trendeket. Fordítva tenném fel a kérdést. Nem furcsa hogy mindig 1 évvel rá az AMD is előrukkol ugyan azzal? :D Amúgy egy kész termék tovább fejlesztése sokkal kevesebb effort, mint kitalálni egy újat 0 alapról és azert már lassan 1,5 eve releaselte az NVIDIA a frame generationt és az AMD még mindig nincs kész vele.
0
1
0
0
Pokman avatar
@alacka97: Mégis hogy copyzzák azt amit Nvidia hétpecsétes titokként kezel, persze hogy ugyanazt csinálja de teljesen máshogy zajlott a fejlesztése, nem lemásolták. Amúgy meg nem igaz hogy nincs kész vele az AMD, csak a fejlesztőkek bele kéne implementálni a kódba, amire szinte mindegyik szarik...

És hagyjuk már ezt a "én is ebben meg abban dolgozok" süket dumát, akkor szólj is hozzá úgy, ne egy olyan tényt közölj amit mindenki tud.
1
0
0
1
no avatar
@alacka97: Igen pont jól írtad ezzel tudjàk már csakeladni az NV két amúgy 7800xt Usaba Kanadàba Nèmeteknèl sok sok helyen èlen viszik a boltokban egy ideje. Mert vramban, árban S kàrtya natív erőben jobb az AMD mèg az Nv sponsor Cyberben is! Jövőâllóbb a Vram többlet S erőtöbblet miatt. Az RT eleve bekapcsolva önmaga megeszik 2gb vramot s mèg DLSS el is 4090 en 45 FPS a Cyberpunk Fake 1440p S 4K ban.. Èrdemes 800e Ft os kártyàt venni így. 7900xtx 15-18fps el volt kevesebb àtlagban s ugyanúgy 24 GB vrammal S 370e Ft sokszor! 4080 500e Ft 16 GB vrammal S gyengèbb raszterben. Règen NV nèl csak a VGA erő szâmított ma màr nem szàmít ha leelőzi e tèren csak a fake 1440p S 4k, full hd S 1440p? Ja S az FSR3 hoz most sok új jâtèk èrkezett. Bakker már Amd nèl is van frame gen ès gyors FSR3 minden kártyàra minden gammel szinte működik ellentètben Dlss3 al
0
0
1
0
alacka97 avatar
@Andrews: RT és upscaling nélkül átlagosan 5-7% jobb a 7900xtx, RT-nél 5-7% jobb az 4080, RT+upscaling mellet 10-15% jobb a 4080. Én azt mondanám, hogy teljesítményben nem kérdéses, hogy az NVIDIA épp úgy jó, mint az AMD, és még mindig nála van a legerősebb kártya attól függetlenül mennyibe kerül. Én is feltehetném akkor a kérdést, hogy az AMD csak a nagyobb VRAM-al tudja eladni a kártyáit? Szóval lenézhetjük a DLSS, FG és akár a dedikált RT magokat is, és mondhatjuk hogy az NVIDIA csak ezzel tud többet, csak az a gond, hogy jelelneg pont ezek nélkül, RT mellett játszhatatlanok a játékok és ebben uttörő az NVIDIA. Hozzáteszem mostmár az AMD is hozzáteszi a dedikált RT magokat, de gondolom ez is full párhuzamosan volt fejlszetve az NVIDIA-val és nem copy. Az emberek a fejlesztést leszűkítik arra, hogy hardver és nyers erő a 21. században, ahol AI-al foglalkozunk és lassan gamer PC-k sem lesznek, mivel mindent majd csak távoli szerever gépekről fogunk játszani streamelve. Azzal egyet értek, hogy sokszor árban jobbak az AMD-k.
1
0
0
0
bukta2 avatar
Steam Deck Like-olja ezt! A cyberpunk meg még jópár játék is jóval jobban fut már deck-en ennek köszönhetően! Szóval csak fejlesszék fejlesszék!!🫡
Az hogy most már meg is jelenik és egyre több játék fogja támogatni meg már csak hab a tortán, engem nem érdekelt soha a működése semminek, működni működik engem más nem érdekel :D a Forspoken-t Fluid Motion Frames-el játszottam végig az elejétől kezdve, remekül tette a dolgát és nagyon szuperül működött! [Igen tudom azt implementálták a játékban...,de erre egyre több példa lesz a jövőben is ;)]
Én annak örülök a legjobban hogy brutálisan kitolják ezekkel a fícsörökkel a VGA-k élettartamát [ami valjuk be már elégé a béka segge alatt volt eddig...] ha meg nem is az élettartamot tolják ki akkor hozzáadnak a látványhoz mert durvább látványvilágú/grafikájú játékokat hozhatnak össze
Ami ezen fícsörök nélkül futna 30fps-el, de ezekkel meg vagy dupláznak vagy tripláznak az FPS-en. Szóval én ennek csak örülök, az hogy hogy működik meghagyom a fejlesztőknek/tervezőknek, azok jobban értenek úgyis hozzá mint bárki más, azért csinálják ők... nem pedig mi. 😅🫡
0
0
0
0
xCube avatar
Az nvidia -nak erre mindenképpen lépnie kéne valamit, mert ezzel elvesztik a RT uralmukat, ami gyakorlatilag az AI gyorsítást leszámítva az egyetlen adu a kezükben.
0
0
0
0
💬 15
KrisztianRikardo avatar
@xCube: Ez így van, teljes mértékben igazad van! 😁
0
0
0
0
Yezi_ avatar
@xCube: Engem totál nem hoz lázba az AFMF. Picit is gyorsabb kameramozgás közben automatikusan kikapcsol, így meg aztán tényleg hatalmas élmény, hogy az egyik pillanatban mondjuk 50FPS-t bámulok, a másikban meg már 100-at. Szerintem ez sok esetben inkább idegesítő, mintsem hasznos.
Vannak persze játékok, amikben jól működik, de szerintem sokkal körülményesebb használni, mint egy rendesen implementál, game-specific frame gen-t, pedig utóbbinak is megvannak a hátulütői.
0
0
0
0
Pokman avatar
@Yezi_: Ez még csak a kezdetleges megoldás, biztos hogy kitalálnak valamit rá. Meg hát gondolj bele, ezt úgy kezdték el fejleszteni hogy majd 3 generációra visszamenőleg működjön minden kártyán ÉS még Nvidia 20xx-asoktól fölfele is. Nem egy "jah csak a 40-es szérián fog működni haha beszoptátok" mentalitással álltak neki, nem csoda hogy jóval több időbe telt kiadni és még pofozgatni kell rajta. xCube jól mondta, és Nvidia már le se szarja a gamer kártyákat, szóval AMD-nek minden esélye megvan hogy kövi 3 generációban átvegye ezt a piacot tőlük.
0
0
0
0
Yezi_ avatar
@Pokman: Nincs motion vector data, épp ezért tud működni driver-szinten, külön in-game implementáció nélkül, bármilyen játékban.
Enélkül viszont a generált képkockák egyszerűen nem lesznek eléggé pontosak, s éppen ezért kapcsolja ki automatikusan, gyors kameramozgás közben, mert az már feltűnően csúnya képkockákat eredményezne, ami legfeljebb nagyon magas base frame rate mellett nem lenne túlságosan feltűnő. (Aki viszont FPS hajhász, az alapból nem foglalkozik az egész frame gen dologgal, mert csak növeli a latency-t.)

Tehát a jelenség magának a technológiának az alapelvéből adódik. Kétlem, hogy ezzel bármit is tudnának kezdeni. Legalábbis nekem, mint ebben a témában laikusnak, ez jött le.
0
0
0
0
Pokman avatar
@Yezi_: Hát ők maguk mondták hogy dolgoznak rajta, szóval...
0
0
0
0
xCube avatar
@Yezi_: Igen, ez a rendszer gyenge pontja. Azt viszont kétlem, hogy ez ne javulna az elkövetkező egy - két éven belül. Lehet, hogy kell hogy kell hozzá majd egy új hardvergeneráció, de azt is el tudom képzelni, hogy ha az AMD ráfekszik a témára, akkor jöhetnek a régi SLI / CF profilokhoz hasonló játékspecifikus kiegészítések, amik lehetővé tesznek egy bizonyos szintű predikciót.
0
0
0
0
enslaved avatar
@Pokman: Akkor elvileg innentől már nem kell 120 fps ahhoz hogy ez működjön, elég egy 60-75HZ - es monitor is, meg mondjuk mellé egy 6600 - as kártya, amelyik nem tudja kitolni magából a 60 fps - t sem low natív grafika mellett (lásd Alan Wake 2), de az AFMF bekapcsolása ezt rövidesen meg tudja oldani. Ennek elvileg így is volna értelme, hiszen ha az ember 7800XT - n játszik FHD mellett, oda felesleges lenne az egész, nem a 120 fps - ből kell csinálni 200 - at, hanem az 50 - ből mondjuk 75-100 - at.
0
0
0
0
Pokman avatar
@enslaved: 120 eddig sem kellett, csak 60 🙂 de elvileg most még annyi sem kéne
0
0
0
0
enslaved avatar
@Pokman: Akkor minden azon múlik majd, hogy milyen lesz a kép, és mennyire simán fognak a játékok futni.
0
0
0
0
enslaved avatar
@Pokman: Lenne még hozzád egy kérdésem, bár szerintem te is csak csodálkozva fogsz pislogni mint mindenki más eddig, hogy ilyet még nem láttak. Van nekem több ezer videó jelenetem külső vinyókon, és több olyan is van, amelyiknél az erősebb fekete, vagy éppen ahol árnyékosabb a terület egyszerűen vérvörössé válik, ami elég idegesítő. Nem kártya probléma, se nem monitor, több kártyán és monitoron is néztem, sőt az egyik laptopom AMD kártyás, ott is ez van. A zöldeknél ez egyáltalán nem jelentkezik sehol. Van esetleg erre valami észszerű magyarázat? Pár előző driverrel is megnéztem, ugyanez van, így nem sok kedvem van ezzel szórakozni.
0
1
0
0
Pokman avatar
@enslaved:
több ezer videó jelenetem külső vinyókon
pontosan milyen videókra gondolsz? Letöltött videó? Általad felvett kamerás videó? Általad felvett desktop/játék videó? Általad vágott videó? Ha te vágtad vagy vetted fel akkor mit használtál erre?
0
0
0
0
enslaved avatar
@Pokman: Nem tudom ki találta ezt a kérdést viccesnek, de komoly gondjai lehetnek.....Hivatalos, fizetős oldalakról letöltött videók, de ha ugyanezeket megtalálni online formában is, azok is pont így viselkednek, vagy mondjuk ha csak nézed az adott oldalon, de nem töltöd le őket akkor is. Priviben lenne jó ezt megbeszélni, oda képet is raknék fel mire is gondolok.
0
1
0
0
Pokman avatar
@enslaved: Igen, beszélhetünk privátban, mert látom valakinek nagyon vicces hogy valaki segítséget kér egy teljesen értelmes témában...
0
0
0
0
xCube avatar
@Pokman: "Nvidia már le se szarja a gamer kártyákat, szóval AMD-nek minden esélye megvan hogy kövi 3 generációban átvegye ezt a piacot tőlük."

Ezt így nem mondanám, már csak azért sem, mert olyan technológiákat fejlesztenek, amik előremutatóak. Az nvidiának az üzletpolitikája vált katasztrofálissá, kihasználva a fanboyságot, a teljesítményelőnyt (jöjjön az bárhol és bárhogyan is) és a fejlesztői támogatást. Ezért is tudott belépni az intel a piacra. Nagyon bízom benne, hogy maradnak is (egyelőre úgy tűnik), mert amit ők csinálnak az is piszok jó. Nem írom le az AMD -t, volt is, van is és lesz is AMD VGA -m, de amíg az általam érdekelt technológiákat a konkurensek gyorsabban vagy jobb minőségben hozzák, addig nem fogom őket előnyben részesíteni a fő vasamban.
0
0
0
0
Pokman avatar
@xCube: Ők maguk mondták, nem én, én csak ismétlem amit Nvidia mondott 🙃
0
0
0
0


Elfelejtett jelszóRegisztráció