Akár 70%-kal gyorsabb lehet az RTX 5090 az RTX 4090-nél

Szerző: xoki | 2023. September 19. | hír | 50 hozzászólás

Bár az első megjelenéssel kapcsolatos részletek alapján az Nvidia 2025-ig fog várni az RTX 5090 kiadásával, az első pletykák máris felröppentek a cég következő generációs kártyáit illetően, köztük azzal, hogy az említett high-end modell akár 70%-kal is gyorsabb lehet az RTX 4090-nél.

A pletykákról először Panzerlied számolt be, vagyis ugyanaz a leaker, aki korábban az Nvidia következő generációs fogyasztói GPU-ival kapcsolatos első részletekről is lerántotta a leplet, illetve arról is, hogy az Nvidia az xxx04 osztályú GPU-k kihagyását tervezi. Ezt látván a VideoCardz egy másik népszerű szivárogtatóval is felvette a kapcsolatot, aki szintén megerősítette az információkat.

A közzétett adatok szerint az RTX 5090-et 50%-kal nagyobb méretarány, 52%-kal nagyobb memória-sávszélesség, 78%-kal nagyobb L2 cache és 15%-kal magasabb órajel fogja jellemezni. Ez összességében pedig a korábban említett 70%-os teljesítménynövekedéshez vezet, csak kérdés, hogy a kártya fogyasztására mindez mekkora hatással lesz.

Hozzászólások: 50
Hozzászólás küldéséhez be kell jelentkezni.
r2d2 avatar
Én inkább annak örülnék, ha végre azt mondanák csökkent a fogyasztás! Lassan külön tápot kell majd venni hozzájuk.
0
0
0
0
milan450 avatar
Igen és 70%-kal drágább is lesz. :)
0
0
0
0
Pokman avatar
Ha 2025 (nem is elején) fog megjelenni a kártya akkor honnan tudjuk máris milyen lesz? Ez kb a 4060ti vs 3060ti "teaser" teljesítmény növekedésére emlékeztet. Azt mit kaptunk? Egy rakás fost aminnél jobb az elődje 🤣
0
0
0
0
💬 5
MaximumGame avatar
@Pokman: Azért mert már készen vannak, vagy azt hiszed hogy ezeket nem előre fejlesztik?
Ilyenkor már kész a proto tipus.
AMD oldalon is már készen van régen a 8950X sorozat gyártásra vár. És már a tesztpadon tesztelik a 9950X procikat.
10Ghz es rammokat. Sőt DDR6 is fejlesztésbe van már, hiába jön majd sokára. Belsős driverekkel tesztelik ezeket.
Most amilyen mobilok kint vannak, már rég őskor. Azért is tudd évente új jönni.
Ott vannak a vakcinák is pl, ezek a vírusok amiket most szabadidgatnak el, már 1970 be polcon voltak készen. Ezt egy Német Virologus Prof mesélte nekem. Vakcinakat se most dobták össze 1év alatt.. Az egy mese.
2
0
0
0
Pokman avatar
@MaximumGame:
Ez kb a 4060ti vs 3060ti "teaser" teljesítmény növekedésére emlékeztet. Azt mit kaptunk? Egy rakás fost aminnél jobb az elődje 🤣
ezen attól még nem változtat.
Amúgy pontosan azért tolták ki a megjelenést 1 évvel, mert újra akarják gondolni az egészet, mert rájöttek a mostani év után hogy mégse hülye mindenki. Amúgy meg nem igaz hogy több mint 2 évvel előre leakeltek valós adatokat, ilyen még sosem volt.
0
0
0
0
MaximumGame avatar
@Pokman: Jah ez tényleg korai volt. 2évre előre.
Főleg hogy 3.5hónapja azt állították hogy 2025ig biztos nem jön ujabb.. Persze hogy vegyék 4xxx szériát.
Bazia nem éri meg 4070Ti venni se szerintem 400+ezerbe amikor 250k körül kapsz 3080Ti vagy 3090 et is.
Igaz DLSS 3 at nem tudják. De annyival nem add többet. A gyártók meg sajnos azt csinaljak. Hogy ami már nem friss kártya, és árba lejebb kell menniük mert nem veszik már. Azokat rosszabb minőségű anyaggal potolják. "chippek"
Cserebe tudnak árat csökkenteni majd.
GDDR7 gyartasa durva drága lesz.
Most is azt állítjak hogy 2025ig nem jön ujabb, de hiszem ha látom.
0
0
0
0
Pokman avatar
@MaximumGame:
Persze hogy vegyék 4xxx szériát.
Most is azt állítjak hogy 2025ig nem jön ujabb, de hiszem ha látom.
Hát ez majd jövőre kiderül, ahogy az is hogy igaz-e hogy Radeonból nem lesz 8800, 8900.

Bazia nem éri meg 4070Ti venni se szerintem 400+ezerbe amikor 250k körül kapsz 3080Ti vagy 3090 et is.
Igaz, 4080 és 4090-en kívül kb mindegyik rossz értékkel bír ha AMD-vel vetjük össze őket. Mondjuk most még 4070ti is megérheti DLSS3 miatt, az még mindig a jövő zenéje hogy FSR3 milyen lesz. Spoiler!
elméletileg a héten kéne megjelenjen a mondott 2 játékba (Immortals of Aveum, Forspoken)


GDDR7 gyartasa durva drága lesz.
GDDR7 kártyát én valószínűleg AM6 megjelenése utánig nem veszek, pont ezért. 😅 Kivárom mire jócskán benne vagyunk AM6 korszakba és akkor építek majd legközelebb vadiúj gépet. Mondjuk addig biztos beruházok egy 7900XTX-re és ha még kapok 2 év múlva akkor egy 5800X3D-re.
1
0
0
0
MaximumGame avatar
@Pokman: Jah néztem és a 5800X3D nagyon sok jatekba ugyan azt tudja mint a 7800X3D ami alig jobb.
0
0
0
0
no avatar
Munkára fog számítani mit tudnak majd az akkori szörnyek.
Játékra meg teljesen mindegy, ha vagy a kártya nincs konzisztensen összerakva (megfelelő Vram, sebesség, stb.) vagy a játékok olyan bődületesen összehánytak lesznek, hogy a legjobb gép is elhasal rajta még tonnányi patch és mod után is.
Arról nem is beszélve, hogy top csúcs kártyákat felskálázó technológiákkal promóznak teljesítmény tekintetében, ami pont olyan, mintha árulnak neked egy kocsit minden féle csili technikával, teljesítő képességgel, de már az elinduláshoz is nitro gombokat kell nyomogatnod.
0
0
0
0
cseszka avatar
70% gyorsulás,és 500% felár.Értem én hogy nem nekünk készülnek,de az emberek megveszik több százezer ft áronn,vagy pár ezer euróért,és 2 év mulva ugyan úgy elavult lesz mint társai.Dehát,mig lesz aki megveszi,sajnos nem lesz ez másképp.Mára a gaming igazi lukszus lett.És nem gondolok erőművekre,már egy közép-felső kategóriás gép is egy vagyonba kerül.
0
0
0
0
💬 5
dvxx avatar
@cseszka: Gondolom aki munkara veszi nem gondolkodik az aran. Hamar megterul neki. Az atlag gamerek meg vesznek alacsonyabb kategoriaban. Ami persze szinten draga. Vagy marad a hasznalt piac.
0
0
0
0
cseszka avatar
@dvxx: Annyira nem vagyok képben a grafikus tervezéssel,meg ugy átlagban hogy milyen munkára is használják ezeket a kártyákat.Valószínűleg ezenn a térenn buta vagyok,mert azzal voltam,ezek gaming kártyák,azoknak a csúcsa.Valamikor voltak külön munkára,grafikus tervezésre szánt,gyártott kártyák.
0
0
0
0
no avatar
@dvxx: Én kicsit se látom ilyen borúsnak a helyzetet ahogy leírjátok. Itthon is pörögnek pc alkatrész vásárlások, bármekkora infláció is van ide haza.
0
0
0
0
no avatar
@cseszka:
70% gyorsulás,és 500% felár.Értem én hogy nem nekünk készülnek,de az emberek megveszik több százezer ft áronn


Egy iphone-ért mennyit adnak ki az emberek?

2 év mulva ugyan úgy elavult lesz mint társai

Nem tudom te milyen felbontáson játszol, de ide haza legtöbben még fullhd felbontáson játszanak. 4K-án nem sokan tolják, ebből kifolyólag egy RTX 4090-el el lehet lenni évekig kompromisszumokkal, ha nem 4K felbontáson játszik az ember.

És nem gondolok erőművekre,már egy közép-felső kategóriás gép is egy vagyonba kerül.


A mai világban mi az olcsó?? SEMMI!

Akinek drága ott van a konzol vonal.
Én tavaly millió felett raktam össze a gépemet, kicsit se zavar hogy az akkori csúcs kártyám már nem az. Vagy a procimból jött ki újabb. Annak örülök hogy fejlődik az ipar.
Én inkább gépre költöm azt a pénzt amit más telefonra költ évente. Ezért pontosan tudom hogy a telefon se olcsó buli. Van olyan ismerősöm aki 800 ezeré vett telefont, szóval hogy mi a drága abba felesleges bele menni.....
0
0
0
0
cseszka avatar
@JatekLabor: Ha már Magyarországot nézzük,akkor idehaza nem olyan sokan vesznek csúcs Iphone-t,mondhatni nem belőlünk él meg az Apple se mint ahogy az AMD,vagy az Nvidia se.
A 4090 4K kártyának készült,bár ha nem is visz mindent reccenés mentesen kimaxolva 4K-ban,az már az optimálásnak is köszönhetö.Viszont egy 4090 kaliberű kártyát 1080p-re venni megint csak fura dolog.Arra vannak gyengébb,olcsóbb karik is amik még két évig ellesznek FullHD felbontáson.Én már kevesebbet játszom,és néha retró játékokkal,viszont a 6700XT még jódarabig eléglesz nekem 1080p-ben ha sokminden nem is maxon.De mindenki arra költi a pénzét,amire szeretné.Nem célzok most senkire,de vannak akik mindég a legujabbat megveszik.A baj ezzel csak az,ha most megveszel valamit 500k-ért,6hónap mulva nemkpasz érte csak 350k.Ahogy kihozod a boltbó,máris esik az ára.
0
0
0
0
wiza avatar
A 70-ből 17% lesz mire megjelenik minden évben hallom ezeket a mesébe illő csoda váltásokat soha nem kapsz ekkora szeletet a haszonból!
0
1
1
0
💬 15
Quadgame94 avatar
@wiza: Milyen csodarol beszelsz? A 4090 60% gyorsabb a 3090 Ti-nal. A 3090 Ti pedig 70% gyorsabb a 2080 Ti-tól. Az 5090 miért ne lehetne ennyivel gyorsabb? Mi is a csoda?
2
0
0
0
enslaved avatar
@Quadgame94: A játékokat is jó lenne akkor már optimalizálni, mert amíg egy 4090 - en szaggatnak ezek a bugos szarok, addig hiába ez a nagy fejlődés. Jelenleg ugye én egy 6700XT - t használok (vagy a 3060 Ti - t, mikor melyiket), és mindkettőn mentek az fps droppok a Forspoken esetében. Cimborám egy 4090 - el játszotta, ugyanúgy kapta az fps droppokat, Most akkor hogy is van ez? De említhetném a Hogwarts - ot, Last of us - t, stb. Hiába a sokkal erősebb kártya, ha nem ad nagyobb élményt, mert a játékfejlesztők tesznek az egészre. Az meg már csak hab a tortán, amikor egy olyan kisebb gépigényű játék szaggat, mint az Amnesia:The bunker. Ez az egész azt mutatja, hogy optimalizálni kellene először, és nem 5090 - et kiadni, amin majd ugyanúgy kapjuk a droppokat, legfeljebb kevesebbet, csak éppen elég aránytalan árkülönbségekkel.
1
0
0
0
Quadgame94 avatar
@enslaved: Es ez csak.most tűnik fel? Istenem. Mindig.is voltak rosszul optimalizalt játékok és lesznek is. Minden évre jut egy-kettő mióta van PC Gaming. Ezek megvannak? Crysis, GTA IV, Arkham Knight meg Asylum. Witcher gamek. Mindenki csak a jelenre fókuszál és úgy csinál mintha ez az utóbbi ŵvekben szaporodott vna el. Nem. Ez volt és lesz is.
0
0
0
0
santakigyo avatar
@Quadgame94: Több mint 20 éve játszok. Az igaz amit írtál,de amilyen szinten tojnak az egészre manapság az korábban nem volt jellemző.
Lehetne erről naphosszat vitázni,de felesleges....van aki látja a gondokat és van aki nem.Ès itt nem csak az optimalizálásról van szó.
0
0
0
0
Quadgame94 avatar
@santakigyo: Nagyszámok törvénye. Sokkal több játek jelenik meg ergo a selejtes is több. Viszont manapság a patch-ek hamar jönnek. Ha egy játék szarul is fut pár patch és driver sokat segít. Nem látok rendszerszintű, a játékipar egészét érintő problémát. Dr az tény hogy a vannak gondok.
0
0
0
0
TeMeRolEee avatar
@Quadgame94: Azzal, hogy behozták a képbe azt, hogy lehet felskálázni a játékokat, az összes játékfejlesztő cégnél a menedzsereknél felvillant a hatalmas bónusz lehetősége, hogy megfelezhetik a csapat létszámát amelyik a grafikus motorral foglalkozik. Lásd Remnant 2. Alapból úgy fejlesztették, hogy majd a skálázó rendszer megoldja az optimalizálatlanság hiányát... és még hány ilyen játék fog jönni ezentúl!
2
0
0
0
enslaved avatar
@Quadgame94: Egyáltalán nem most vettem észre, tévedésben van. A fő különbség, hogy ez ma már tudatos. Sajnálom, ha nem látod át a miértjét. Amúgy meg érdekes dolog ez, mint írod pár patch megoldja és kész. Last Of Us a mai napig nem tökéletes, nem véletlen adták vissza mindenkinek az árát. A másik meg az, hogy amennyiben te vagy én hibázunk, nem tudjuk javítani (én legalábbis nem valószínű), és jöhet akár a büntetés is, sőt még per is. A játékfejlesztőket fenyegeti bármi hasonló? Pedig az is munka mint bármelyik. Amúgy meg nem mindenki tud egy várva várt játék esetében egy évet várni mire kikalapálják, addigra már a legtöbbünk végig kínlódja ahogy van.
1
0
0
0
wiza avatar
@Quadgame94: Érdekes vélemény attól akinek csak amd kártyája van és volt. 😐 Gondolom tapasztalatból beszélsz? Kérlek inkább ne is válaszolj nekem már nem mérvadó amit mondasz.
1
0
0
0
Quadgame94 avatar
@wiza: Te milyen véleményről beszélsz? Ezek tények ember. Fuh. Gondok lehetnek nálad. Nézz fel Techpowerup-ra, Hardware Unboxed. Ezek teszteredmények nem vélemény. Te mire alapozod a számaidat? Hasra ütöttél? :D nevetéseg vagy. A 2080 Ti kártyádnál a 3090 Ti 1.75x a 4090 meg 2.4x gyorsabb te meg beszélsz itt 17%-ról :D
1
0
0
0
wiza avatar
@Quadgame94: Nagyon úgy nézki több közöm van hozzá mint neked .... mivel ilyen lekezelő a stílusod nincs kedvem beszélgetni veled. Nem mindenki rohan vásárlás után kitölteni a gép adatait.Na Isten áldjon!
1
0
0
0
Quadgame94 avatar
@wiza: Nagyon úgy nez ki? Az álomvilagodban maximum.

Még most sem támasztottad alá amit írtál. 4 hónap alatt sem sikerült.
0
0
0
0
BLACKPINK avatar
@wiza: Egyébként a kettőnek mi köze van egymáshoz úgy mégis ?
1
0
0
0
Quadgame94 avatar
@BLACKPINK: Mert normális érve nincs. Azt hiszi véleményt osztok meg :D álomvilágban él szegényke
0
0
0
0
no avatar
@wiza: 17% nál még az AMD is többet hoz össze, nem hogy az nvidia. 😂😂
0
0
0
0
Aorus_Gaming_HUN_ avatar
@wiza: Valós, saját tapasztalaton alapuló tudásról, tapasztalatokról számoltál be gondolom! 😁
1
0
0
0
MrPAYER avatar
Ha ez a gyorsulás a teljes szériára érvényes lesz akkor egy 5070 már biztosan megfelelő lenne.

Persze csak akkor ha végre tesznek értelmezhető mennyiségű VRAM-ot a kártyákra. 5070 minimum 20G kellene, hogy legyen, hogy egyáltalán érdekeljen, de akkor az még mindig 4-el kevesebb mint a jelenlegimen, bár az már mindegy, amíg nem jön több only next gen csutkára pakolt UE5 játék addig nem fogjuk megtudni a tényleges igényeket. Next Gen exkluziv címeknél bekapcsolt RT-vel és FHD-tól magasabb felbontáson már láttunk egy pár címet ami 12GB+....és hol van még 2025?

Az se fog javítani a felső-közép/felső kategóriás kártyák árazásán ha az AMD felőli pletykák is beigazolódnak és nem fognak high-end GPU-kat kidobni a 8000-es szériához aztán majd lehet kamillázni, hogy az 5070 16G miért indul fél miskáról a 5080 meg miért veri a 800 kilót.

Azt is tudnám értékelni, ha visszaállnának a régi számozás / erőszintre, ez az eggyel lefele tolt perf. / eggyel felfele tolt price nem igazán szimpatikus. Nem baj ha valami drága, csak akkor legyen megindokolva normálisan és ne próbáljanak meg átb*szni. Értem én, hogy 2 év alatt sikerült megszokni a scalper miner x² cash-t, csak éppen azóta kipukkadt az a lufi és elfelejtették, hogy belőlünk élnek, mint az elmúlt jó pár évtizedben és pár emberen kívűl nem sok mindenki fog $2-3k-et kiadni kártyáért még akkor sem ha az olcsóbbaknak szándékosan csak annyi a kizárólagos célja, hogy elrettentsen és a nagyobb felé tereljen mert "mennyivel jobb vétel". (Ugye-ugye 4070/70Ti?)
2
0
0
0
kovb677 avatar
Tudtam én hogy megéri kivárni
0
0
0
0
💬 8
kovb677 avatar
@Quadgame94: Nem tudjuk, lehet meggondolják maguk.
0
0
0
0
Quadgame94 avatar
@kovb677: Amíg az AI business megy nem fogják. 2024 vége a legkorábbi időpont akkor is, ha átlagos megjelénéssel számolunk, de nincs kényszer.
0
0
0
0
no avatar
@Quadgame94: 2025-nél hamarabb nem igen hiszem hogy jönni fog, pláne konkurencia nélkül.
2024-es évet lazán kihúzza még erőben a 4090 szerintem.
0
0
0
0
Quadgame94 avatar
@JatekLabor: Szerintem sem. Ha az AMD mondjuk ki ad egy RX 8900 XT ami 10-15% gyorsabb a 4090-nél akkor várható az RTX 5080, de skkor se az 5090. Az 5090 brutál drága lesz. 2000 USD köré várnám. Miért is ne? Ha 70%-al jobb lesz simán.
0
0
0
0
no avatar
@Quadgame94: Hát nem nagyon bánnám hogy amit írsz az beigazolódna, hogy a 8900XT 10-15% al gyorsabb lenne mint a 4090. Kicsit lejjebb nyomna az árakon. Majd az 5080 illetve 5090 megjelenése letolná a két korábban említett kártyát 300-400 ezer forint közé.
0
0
0
0
no avatar
@kovb677:
Tudtam én hogy megéri kivárni


Olyan árazása lesz, hogy hamarabb megveszed, akkor már kifutónak számító 4090-et.
Talán addigra eléri a kb. 350 ezer forintos árat. Kétlem hogy ez alá befog esni bármikor is. Persze ha vársz megjelenés után 1 évet, akkor lehet 600-700 körül megtudod majd venni az 5090-et. Meg ha adol is ki ennyit egy kártyára! 😁
0
0
0
0
kovb677 avatar
@JatekLabor: 5060-ra leszek kíváncsi, ha 5090 ilyen erős lesz akkor gondolom 5060 is előrelépést fog mutatni 4060-hoz képest
0
0
0
0
BLACKPINK avatar
70% al gyorsabb... meg 200% al többet fogyaszt ?
2
0
0
0
💬 7
redbull6969 avatar
@BLACKPINK: Azt azért ne feled hogy az Nvidia már TSMC vel dolgozik aki a világ első!!! az volt a 4090-nél is hogy 600w meg sokat eszik majd az sehol se kér sokkat
0
0
0
0
xCube avatar
@redbull6969: Azért a TSMC 55% -os piaci részesedése elég beteg. Nyilván csak jó alapokra lehet építkezni és ebbe a bizniszbe nulláról beszállni kb. lehetetlen, azért jót tenne a piacnak ha lenne egy komolyabb konkurencia. A GloFo -ba nemrég fektettek szabad szemmel jól látható összeget, de ők sem a legmodernebb és legkisebb gyártástechnológiát tervezik bevetni.
0
0
0
0
xCube avatar
@BLACKPINK: Nem hiszem, hogy ekkora fogyasztásnövekedésre kéne számolni. Még azt sem tartom elképzelhetetlennek, hogy a power range marad az RTX 4090 szintjén.
0
0
0
0
BLACKPINK avatar
@xCube: Nyilván én is szarkazmusnak szántam, igéreteket sosem szabad venni, majd ha kijön kiderül mit alkot :D
azért 1200W már kegyetlen lenne
0
0
0
0
no avatar
@BLACKPINK: Az ára is kegyetlen lesz, ebből kifolyólag az 1200W se jelente sokat a célközönségének. Pláne ma már a 2000W-os tápok se olyan nagy számok hardcore gépeknél...
Itt a fogyasztása fog legkevésbé is érdekelni bárkit ha hozza a 70%-ot...
0
0
0
0
BLACKPINK avatar
@JatekLabor: Amerikában ez 115V al problémás lenne, akkor ott 2 táp lesz xD
Jelenlegi Vega 64 em is röhögve megeszi a 300W ot, aztán egy 3060 szintjét sem hozza,mégsem tépem a hajam, hogy sokat fogyaszt, szimplán ez volt a legjobb kártya a pénzemért az adott időben. (ergo a fogyasztás nálam sem túl nagy szempont)
Fogyasztás nem feltétlen csak fenntartási ár miatt, de fejlődés mértéket tekintve is érdekes lehet.
0
0
0
0
no avatar
@xCube:
Nem hiszem, hogy ekkora fogyasztásnövekedésre kéne számolni. Még azt sem tartom elképzelhetetlennek, hogy a power range marad az RTX 4090 szintjén.


Szerintem a mai tendenciát nézve várható többlet energia igény.
0
0
0
0


Elfelejtett jelszóRegisztráció