Az AMD elárulta az RX 9070-es kártyák árát és megjelenési dátumát

Szerző: xoki | 2025. March 03. | hír | 26 hozzászólás

Az AMD hivatalosan az idei CES során jelentette be az RDNA 4 architektúrán alapuló RX 9070 szériás grafikus kártyákat, azonban még csak most fedték fel a legfontosabb részleteket, beleértve az árazást és a pontos megjelenési dátumot.

Korábban már lehullott a lepel az RX 9070 XT és RX 9070 specifikációiról, melyek szerint az új GPU-k akár 64 Compute Unit / 4096 Stream Processzorral rendelkeznek majd. Az AMD szerencsére 16 GB (20 Gbps) DDR6 memóriával látta el mindkét modellt, így a játékosoknak nem kell a memóriakorlátok elérésétől tartaniuk.

Harminc játék átlagteljesítménye alapján az RTX 3080-hoz viszonyítva az RTX 9070 állítólag 26%-kal gyorsabb. Az AMD az előző generációs RX 7900 GRE-hez viszonyítva is megmutatta, mekkora javulásra számíthatunk. Ezek lesznek az első olyan modellek, amelyek támogatni fogják az AMD FSR4 technológiáját.

Az RX 9070 XT és az RX 9070 március 6-án kerül majd a boltok polcaira. Előbbinek 599 dollár, míg az utóbbinak 549 dollár az ajánlott fogyasztói ára.

Hozzászólások: 26
Hozzászólás küldéséhez be kell jelentkezni.
Bronson avatar
Megosztanam szemelyes tapasztalatomat. Teljesen lecsusztam az elso naprol, igazabol nem is volt szandekomban upgradeleni, de eszembe jutott hogy az elozo kartyamra (6950XT) mar csak 2 honap garanciam van hatra (tudom, nem fog bepusztulni a kartya amint lejar a gari, de nyugodtabban alszom, es volt mar nem egy kartyam amit hasznaltan vettem es miutan behalt, egy nagyon draga papirnehezekke valt) es probakepp feltettem Ebayre. 8 ora alatt el is kelt, es igy minimalis potlassal nekiestem talalni egy 9070XT-t... ami per pillanat nem letezik. Mindenhol sold out, ha van is, van ahol 40%-ot pluszban radobtak az arra, nem tudom hol lesz ennek a vege. Viszont sikerult talalnom a sokat kopkodott nem XT modellt kedvezo aron, ami keszleten is volt masnapi kiszallitassal. Tudom hogy papiron az 50$ kulonbseg miatt hulye aki nem az XT verziot veszi, de a valosagban ez nagyon mas, ezek az arak nem leteznek... Minimum 150$ a kulonbseg. GamersNexus dobott ki ma egy nagyon jo videot, elemezve a jelenseget. Mivel minimalis raforditassal sokkal jobb kartyam lett, mint az elozo, friss 3 ev garival, nem banom egyaltalan, azt rebesgetik ha vissza is kerulnek a boltok polcaira, mar nem ennyiert. Szomoru egy szitu.
(Amugy ennyire gagyi dobozt/dizajnt a 2000es evek kozepe ota nem lattam, eleg nosztalgikus hatasa van 😆 )
https://i.imgur.com/JZEq4re.jpeg
0
0
0
0
alacka97 avatar
Látom nagyon versenyképes árat sikerült összedobni, amazonon már 2000$-ért adják. A vállalat meg kijelentette, hogy nem ígérte, hogy az összes széria ennyibe fog kerülni csak a launch only példányok. :D Itthon 1000dollárba lett kiírva a 9070xt és már elfogyott, gondolom már azelőtt, hogy kiírásra került. Így nézve árban nem lett versenyképesebb, mint az NVIDIA, pedig jó lett volna ha AMD hatására kicsit csökkennek az árak. Ez nem a videókártya vásárlás éve. Szerintem senki ne most vásároljon, hanem majd fél év múlva.
1
0
0
0
💬 2
Payphoner avatar
@alacka97: Én amúgy nem értem hogy a bánya megy ennyire még mindig vagy hogy van mindenkinek annyi pénze hogy feltud egyszerre ennyit vásárolni, és azt főleg nem hogy drágábban tőlük meg megint hogyvan pénze az embereknek, kivi leszek mikor jön el az hogy valamit piacra dobnak és a kutya nem veszi
0
0
0
0
alacka97 avatar
@Payphoner: Jól működik a fogyasztói társadalom, ha kell a sz..rt is megveszik hitelre az emberek. Ja meg az, hogy készlethiányt generálnak mesterségesen és az emberekben elindul egy FOMO érzés.
0
0
1
0
enslaved avatar
A 9070XT - re jó eséllyel lecserélem a 4070 - et. Nem vagyok kibékülve igazán vele, pont mint a legutóbbi driverekkel.
0
0
0
1
💬 21
pinkyke avatar
@enslaved: remélem jó áron lesz mert akkor én is le cserélem a 3060-at.
0
0
0
0
Viktorinho avatar
@pinkyke: 1000 eurós indulóár. :D
0
1
0
0
alacka97 avatar
@enslaved: Attól függ milyen beállítások mellet akarod használni. A független tesztek alapján ray tracing mellett egy 4070 super teljesítményét hozza, ami a 4070-től nem igazan jobb. Emellett az AI műveletekben, mint a dlss vagy fg az nvidia fejlettebb és mindig egy lépéssel előrébb van. Ha nem RT mellett játszol az már más tészta.
0
0
0
0
enslaved avatar
@alacka97: RT nem foglalkoztat, még a 4070 - en sem kapcsolom be.
0
0
0
0
alacka97 avatar
@enslaved: Érdekes, hogy kialakult az RT ellenes hozzáállás, pedig efelé tart a játékipar és némelyik játékban az RT kikapcsolása, olyan mintha egy konzolgenerációt lépett volna vissza a grafika. Luxus 300-400k-t kiadni egy kártyára, amivel még nem is használod ki a lehetőségeket, kb mintha kikérnék egy hamburger menüt és csak a sültkrumplit enném meg. Így nézve szerintem tartsd meg a 4070-et, nem fog annyit adni a 9070xt.
0
0
0
0
PoPet avatar
@alacka97: Nézhet ki rohadt jól egy game, ha RT-vel 100-110 helyett 60 FPS-el fut. Akkor már inkább kinyomom én is, és normális FPS számmal játszok, ahelyett, hogy egy darab üvegen megcsillanjon a karakter cipőfűzője.

Spoiler!
Mondjuk bárcsak a grafika lenne a mai játékok legnagyobb gondja...
0
0
0
0
alacka97 avatar
@PoPet: Lassan már 300 FPS-el akar mindenki játszani. Igazából kapcsoljuk ki az árnyékokat is, úgy se tesz hozzá. Én legutóbba 4070ti-al Az indiana jonest FG+DLSSQ- val full grafikai beállításokkal 2K-n 90+ FPS-el játszottam. RT nélkül mintha egy konzolgenerációt léptem volna vissza. Engedjük már el hogy a cipőfűző csillog már rég nem itt tart a technológia.
0
0
0
0
PoPet avatar
@alacka97: Mindenki eldönti, kinek mi az élvezhetőbb. Számomra pl a felskálázás meg a framegen nem az. Egyszerűen az upscalinget látni, bárki bármit mond, főleg azt nem értem aki 1080p-n is használja (az simán vegyen egy PS-t, olcsóbb). Az FG meg az input latencyt növeli. Csilloghat villoghat a játék, nézhet ki marha jól, ha közben kiveri a szemem a sok apró részlet elmosódottsága, vagy az FG miatti hozzáadott input latency. Mert attól, hogy még csinál a 45 FPS-ből 80-at, az input pont olyan szar marad, mint 45-ön, ha nem lesz épp rosszabb.

Van játék, amiben én is használok RT-t, mert rohadt jól néz ki (Spider Man 2), de ha nem futna normálisan natívan azzal, akkor csont nélkül kapcsolnám ki, és inkább legyen smooth a játékmenet, mint lássam a felhőkarcolók ablakaiban magam meg a környezetet mászás közben.
0
0
0
0
alacka97 avatar
@PoPet: DLSS 3 esetén is a quality már jobb képet ad, mint a native. A DLSS 4-el ez tovább fejlődött. Probáld ki az indiana jonest path tracinggel és full RT nélkul
. Ahhoz képest az FG es a DLSS egy kis kompromisszum. Persze FG-t én is csak abban az esetben használok, ha nincs meg a fix 60FPs.

Én azt mondom, hogy a PC építés sosem lesz olcsó hobby, akkor már inkább NVIDIA. Ha valaki meg olcsón akar játszani az vegyen PS-t. Konkrétan fele árból közel 4070ti teljesítményt lehet vele elérni.
0
0
0
0
PoPet avatar
@alacka97: Sosem lesz jobb egy skálázott kép, mint a natív.
0
0
0
0
alacka97 avatar
@PoPet: Nézd meg az új DLSS 4 transformert. AI segítségével kiegészíti, javítja, élesíti a native képet. Úgy képzeld el, mint amikor az űrteleszkópok által készített képet feljavítják, rekonstruálják. Több FPS van még is szebb a kép, és ezt az RTX 4000 is megkapja, AMD-nek nincs ilyen. Sajnos a kártyák már kezdik elérni fizikai határaikat és ha nem 1000w-os kártyákat akarunk, akkor szoftveresen kell javítani a játékélményt. Kár kétségbe vonni ennek hatékonyságát és fejlődését vagy amellett érvelni, hogy RT rossz a nem valósidőben számolt fényhez képest.
0
0
0
0
PoPet avatar
@alacka97: Néztem összehasonlításokat, TPU-n és YT-n voltak elég jók, a transformer is elvesz csomó részletet, elmos dolgokat. Egyszerűen semmilyen upscale nem lehet olyan jó, mint egy natívan renderelt kép. Fizikailag képtelenség. Ha van 4 millió pixelem, ami valódi, meg 2 millió amiből mindenféle AI csinál 2x annyit, sosem lesz ugyan olyan jó.

Abba meg ne menjünk bele, hogy miért futnak egyre szarabbul játékok, de így tippre lehet segítene az is, ha nem futószalagon határidőre gyártott szemetet fejlesztenének az emberek megfejéséért, meg nem bőrszín, nem, vallás és társai alapján alkalmaznának fejlesztőket, hogy meglegyenek a kvóták.

Ha valakinek tetszik a skálázás, nem zavarják a hibái, hát legyen, ő nézi, még az is lehet, hogy neki növeli a játékélményt, mert a kevésbé éles élekkel neki kellemesebb egy erdős rész vagy akármi. Viszont az FG, MFG olyan input lagot csinál, hogy hányok, bár nemtudom, lehet én vagyok rá annyira érzékeny, és nem tudom elviselni, hogy hiába tűnik folyamatosnak a kép szemre, érzésre mégsem az, mert hiába a szép szám, az input ugyan úgy fele, vagy negyed annyi FPS érzését adja. Elhiszem, ha ezt valaki nem érzi, mert máshoz szokott, de attól még így van.
0
0
0
0
alacka97 avatar
@PoPet: Ez tény, hogy javítja a képet DLSS transformer ezen kár vitatkozni elég megnézni róla független teszteket. Nem ördögtől való az AI hiszen ez is egy virtuális képalkotási modszerként funkcionál itt és nem 4 millio pixel helyett 2 milliot látsz, hanem ugyan úgy 4-et csak más számítási modszerrel van megvalósitva, ami nem
tudom kit, miért érdekel. Mintha bármelyik játékos amúgy felfogná milyen típusú háttér számítások tömege megy végbe, amíg a kép meg nem jelenik. Az emberek meghallják, hogy AI és egyből az már csak rosszabb lehet meg nem valós kép, mondja az, aki a natív, de virtuális képre valós képként tekint. Persze van hova fejlődni mindig, de hasonlíts össze egy nativ vs dlss 4 összehasonlítást egy indiana jones RT vs non-RT összehasonlítással, megnézném melyikre mondanád, hogy látványosan csúnyább. Az FG most éli a második generációját, így nem tökéletes, de pont az input lag az ami mostanra nagyon jól ki lett javítva és független tesztek alapján is elhanyagolhatónak mondható.

Az, hogy most hogy jött ide a fejlesztők bőrszine és hogy rosszak a játékok, azt nem teljesen értem. Persze azzal egyet értek, hogy nem sok jo és jól optimalizalt játék jelenik meg, de ez most más fórum.

Szerintem nem egy moziban ülünk és én itt le is zárom.
1
1
0
0
PoPet avatar
@alacka97: Hát nem, de ha nem érted mi a különbség aközött, ha a 2 millió pixelt valós adatok alapján számolja a kártyád, meg aközött ha csak úgy nagyjából megtippeli egy ai a fele alapján, hogy mi kellene legyen ott, mindegy is. Ez nem 2 felé számítási mód, hanem 1. A másik egy tippelés a valóban kiszámolt adatok alapján, amiben lehet hiba, és van is, látni is. TPU teszten pl ilyen az autó hátsó ablakán lévő "fűtőszálak" eltűnése. Illetve ha a 30 helyetti 55 ms a sokat javuló inputlag, ám legyen.
0
0
0
0
alacka97 avatar
@PoPet: A valóságban elhanyagolható dolgokról beszélsz. Most az a játék amihez ténylegesen kell FG mint pl. az Alan Wake 2, oda bőven megfelelő a 55ms válaszidő amikor 30-at se veszel észre natívnál. Nem egy eSport játékban fogsz FG-t használni path tracinggel. De mondom ez genről genre fejlődik és tényleg nagyítóval kell keresni ezeket a hibákat. A DLSS 4-nél az ilyen képalkotási hibák a nullához konvergálnak. Sokkal látványosabb hibákat láttam natív felbontáson, amikor vibrál az árnyék meg elmosódik a tőlem 5m-re álló karakter arca (Forspoken), amit megint csak az AI ki tud javítani mégha nem
is valós információból, de mondom kit érdekel miből jelenik meg, ha megjelenített kép jobb vagy hasonló nagyobb FPS-el. Azt kellene megérteni, hogy az erőforrás igény nő a játékoknál a hardver fejlődése viszont belassult és nem is hatékony az hogy 1000w videokártyákat gyártsanak. Szóval ellenkezhetünk, de így is úgy is e felé fog haladni a világ és ezt a GPU fejlesztő cégek is tudják, nem hiába nem a raster teljesítményben van már a verseny. Megjegyzem PSSR is sokat dobott a kép minőségen és úgy hogy kis hardver fejlődés mellett szebb képet is kaptunk es jobb frame ratet, pedig a raster teljesítmény nem sokat javult, tapasztalatból mondom.
0
0
0
0
F4T4L 3RR0R avatar
@PoPet: Manapság a játékipar kevés kivételtől eltekintve eléggé lezüllött. Gondolok itt többek között a sokszor igencsak gyatra optimalizációra, vagy a teljesen fantáziátlan unalmas játékmenetekre. Jó persze kinek mi tetszik vagy nem tetszik, ez egy teljesen szubjektív dolog. Régebben azért sokkal több máig ikonikus játék és sztori született.
0
0
0
0
favorit5503 avatar
@enslaved: Én is pont így vagyok vele és ahogy néztem jó áron lesz. 3070ti tól veszek majd búcsút nem fogok sírni érte. Nem volt rossz kártya de annyit nem ért.
0
0
0
0
enslaved avatar
@favorit5503: Annyi hogy a hazai forgalmazásnál még kb. 100 ezer jó magyar pengőt nyugodtan hozzátehetsz ehhez az árhoz, azaz a vége lesz az olyan 900 dollár is, bár ha az 5090 - esnek a 2-2,5 millió forintos árát nézem nem is olyan sok🙂
0
0
0
0
Viktorinho avatar
@enslaved: Nálunk szlovákisztánban eddig egy bolt van ahol lehet venni,de ott a 9070 1000 euró az xt 1100+ indul. Fura mód máshol még nem kapható. Szerk. : Aztán fel került alza-ra is ott a 9070xt induló ára 823 euró a sapphire változatnak. Legdrágább 917 euró.
0
0
0
0
enslaved avatar
@Viktorinho: Akkor nem nagyon tévedtem.
0
0
0
0
favorit5503 avatar
@enslaved: na alza.hu-n is vannak árak 350e - 375e.
0
0
0
0


Elfelejtett jelszóRegisztráció