Az AMD hivatalosan is leleplezte a Radeon RX 7900 XTX és 7900 XT kártyákat

Szerző: xoki | 2022. November 04. | hír | 49 hozzászólás

Az AMD végre hivatalosan is leleplezte az első Radeon RX 7000-es asztali grafikus kártyáit. A harmadik generációs RDNA architektúra idén decemberben a high-end RX 7900-as széria két példányával fog debütálni.

A vállalat a Radeon RX 7900 XTX és RX 7900 XT kártyákról rántotta le a leplet. Előbbi alapja a teljes Navi 31 GPU (12288 Stream Processors), míg az utóbbié egy cut-down GPU, 10752 maggal. Az AMD megerősítette, hogy a Navi 31 GPU 58 milliárd tranzisztorral rendelkezik, és 61 TFLOP teljesítményre képes. Az 5 nm-es node-nak köszönhetően a GPU-t 165%-kal nagyobb tranzisztor sűrűség jellemzi a Navi 2X-hez képest.

Sajnos azt nem mutatták meg, hogy a kártyák mire is képesek az RTX 4000-hez képest, azt viszont igen, hogy mekkora teljesítménybeli különbségről van szó a leggyorsabb RDNA2 GPU-hoz viszonyítva. Az RX 7900 XTX lesz az első olyan Radeon kártya, amely támogatja a DisplayPort 2.1-et, 8K 165 Hz és 4K 480 Hz támogatást biztosítva.

Mindkét modell december 13-án válik majd elérhetővé, és a rivális termékeihez képest jóval olcsóbban kerülnek majd a boltok polcaira. A Radeon RX 7900 XTX 999 dollárért, míg az RX 7900 XT 899 dollárért lesz majd beszerezhető.

Hozzászólások: 46
Hozzászólás küldéséhez be kell jelentkezni.
TuskenRaider avatar
Ennek fényében az nvidia kenje a hajára a méregdrága hősugárzóját!
Akik 4090 be fektettek jól beszopták
2
0
0
0
💬 3
no avatar
@TuskenRaider: Nagyon jól jártak vele, nagyon erős az a kártya.
0
0
0
0
TuskenRaider avatar
@kovb677: Erösnek, erős de jobb helyeken is 2200 euró felett az ára, ez nem játszik sok mindenkinél
0
0
0
0
KENI07 avatar
@TuskenRaider: Miért is szoptuk volna be?Van akinek ez kell van akinek az.
0
0
0
0
no avatar
én nem vagyok én videokártyák-ban otthon de akkor most melyik a erősebb vagy a jób kártya?
0
2
0
0
💬 9
KENI07 avatar
@csamangokristof02: Mind két kártya szép és jo de az rtx erösebb
0
0
0
0
no avatar
@KENI07: de mivel erősebb az rtx ?
0
0
0
0
no avatar
@csamangokristof02: 10-15% al max de sokkal dràgâbb S kièg elfüstöl S 500w ot zabâl
2
0
0
0
no avatar
@Andrews: tudom hogy nem ide tartozik de az r9 280 az mennyi wattot zabál?
0
0
0
0
no avatar
@KENI07: Törölt hozzászólás
0
0
0
0
KENI07 avatar
A 7900xt és xtx a 4080 elenfele lessz.Nyers erőben is jobb lessz a 4090 .Még pontos tesztek nincsenek.De inkább a 4080 hoz kell majd őket mérni.Majd inkább ha lessz 7950xt xtx az lessz a riválisa a 4090 nek és ti nek.
0
2
0
0
no avatar
@KENI07:
A 7900xt és xtx a 4080 elenfele lessz.

Ezt majd az ár/érték arány diktálja.
2
0
0
0
no avatar
Hát azért nem 10%, jóval több a videók alapján ég és föld a két kártya.
0
0
0
0
no avatar
@kovb677: Hidd el nekem, hogy a villány számlánál se 10% lesz a külömbség.
0
0
0
0
PoPet avatar
@kovb677: RT-ben lehet nagyobb, de anélkül kb 10%-ra becsülhető a 4090-től a lemaradás, azt meg döntse el mindenki, hogy ez a különbség megéri-e neki a 600$-t. Majd hivatalos tesztek után kiderülnek a valós számok, de ha igaz az a -10% a 25-30%-al kisebb fogyasztás mellett, és amellett hogy nem dobozos tűzveszély a kártya, akkor nagyon jól dolgoztak a pirosaknál megint
3
0
0
0
KENI07 avatar
Még jó hogy 4090 et vettem
0
3
1
0
💬 4
redbull6969 avatar
@KENI07: Gratulálok a kártyához✔️
0
0
0
0
KENI07 avatar
@redbull6969: Köszönöm szépen
1
0
0
0
no avatar
@KENI07: Törölt hozzászólás
0
0
0
0
KENI07 avatar
Hát ez a kártya amit vettem eggyáltalán nem fogyaszt 350 wattnál többet 4kban egy játéknál sem.Ráadásúl nem is melegszik,és a kábellel sincs gond.Csak az ilyen olyan gpu teszt programokban fogyaszthat többet.Pl wz alatt jó ha 300wattot kér a játék,és így igy 200plussz fpseim vannak maximum grafikán 4 k ban 60 fokon tartva a videókártyát
0
0
0
0
no avatar
@KENI07: Nagyon jó kártyát vettél gratula, nem lesz vele gondod.
0
0
0
0
downuser avatar
Majd megjelenik, oszt kiderül mennyit bír.
0
0
0
0
💬 2
Nagynozi avatar
Nem lesz egy RTX 4090 az RX 7900 XTX, nem is azt célozzák, most néztem pár interjút a bemutató után és azt állították, hogy az RTX 4080 16GB ellen küldik az RX 7900 XTX-et, ami furcsa, mert a számításaim alapján Raszterizációban egy szinten kell majd lenniük, de tévedhetek, ugye ezek "marketing" számok. Hogy miért így alakult ezen lehet vitatkozni, de valószínűleg a Ray Tracing teljesítmény nem fogja megközelíteni a Lovelace kártyákat, ezt abból következtettem, hogy például a komoly Ray Tracinget igénylő Cyberpunk 2077-nél 70%-os teljesítménynövekedést mutattak az egyik ábrán RT nélkül a Ray Tracing Ultra teljesítmény pedig csak 20 fps-sel lett nagyobb az RX 6950 XT-hez képest 4k-ban FSR-al egy másik dián. Nem mindenkinek fontos az RT, de aki már 1000 dollár és afellett vásárol, főleg itt nálunk a rossz Ft, rossz Eur + 27% áfa kombó miatt, biztos vagyok benne, hogy csak a legelvetemültebbek adnak ki 1 millió forintot egy VGA-ra és ha már ezt megteszik, akkor fullos RT-vel akarnak játszani.
0
0
0
0
💬 3
KENI07 avatar
@Nagynozi: Ezért is vettem én is 4090 et
0
0
1
0
no avatar
@KENI07: 3-4 jâtèkban van èrtelmes S làtvànyos RT csak eddig. Metro exodus. Control . Cyberpunk 2077
0
0
0
0
KENI07 avatar
@Andrews: Igen így van.Igazából rz nélkül is majdnem igyan olyan a grafika.Pl az ujj bf ben rt on vs of szinte ugyan az.Én mindig a tócsákat figyelem.😀
0
0
0
0
xCube avatar
Nagyon ígéretes, várom a teszteket és a megjelenést. Elsősorban azért, mert ha szerencsénk van, akkor lenyomhatja az RTX 3080 (Ti) árát a jelenlegi szintről. Nyugodtan lehet hülyézni, hogy miért akarok egy lejárt architektúrát és miért nem veszek akkor inkább egy RX 7900 -at ha teljesítményben is jó, a válaszom erre a hardveres G-Sync monitorom, amit AMD kártyával még FreeSync -el sem tudnék használni.
0
0
0
0
💬 4
Nagynozi avatar
@xCube: Simán lehet használt, de garanciális RTX 3080-at kapni 229 ezer Ft-ért [LINK] hardveraprón 12 hó garanciával. 300k körül meg már RTX 3080 Ti-t. Ennél lejjebb én látom, hogy menni fog az ára, talán garanciamentes kártyákat lehet majd ez alatt vásárolni, de azokat is majd csak azért, mert kivárták a garancia lejártát a felhasználók... Újonnan meg még mindig túlárazottak ezek a kártyák.
0
0
0
0
xCube avatar
@Nagynozi: Pont most nem tervezek használt kártyát venni, maximum olyantól, akit ismerek és tudom, hogy mire használta. A hardveraprós árak is szépek, de nem spórolok sokat, ha 1.200 km -ről veszek egy VGA -t.
0
0
0
0
no avatar
@xCube: Freesync monitorok pedig olcsóbbak
0
0
0
0
xCube avatar
@Andrews: Ez most hogy jön ide?
0
0
0
0
MrPAYER avatar
Ha itthon a custom XTX megáll 1300€-nál az XT pedig 1150-1200€-nál és a független tesztek is kihozzák, hogy szimpla natívban mindenféle upscale nélkül legrosszabb esetekben is csak -15% a 4090-től de lesznek rá példák AMD támogatott játékokban, hogy akár be is érheti, neadjisten' meg is előzi akkor nem lesz itt baj.

Bár ezzel az árazással az XT nekem feleslegesnek tűnik, ezer dollár felett nem +/- 100 fogja eldönteni már, hogy melyik legyen, sokkal több fog fogyni az XTX-ből és nem is véletlen.

Itt mindenki döntse el magának, hogy fontos e neki a DLSS 3, vagy esetleg RT-ben többet akar mint 60 FPS. Én ahogy olvasgatok mindenféle belföldi, külföldi fórumokat a 6900 XT-t a legtöbben 2k-ra vettek az emberek, nem lesz szerintem másképp itt sem. A 4090 különbözetéből egy nagyon fain 1440p 144hz 1ms FreeSync monitort lehet már venni, ezek már tényleg preferencia beli kérdések.

Valahol már ijesztőek ezek a teljesítmények, nem igazán vagyok biztos benne, hogy 2k-ban nem bottleneckeli bármilyen CPU ezeket, FullHD totál felejtős most már végleg, magasabb felbontáson lehet több FPS-t kap az ember olyan mértékű szűk keresztmetszetről beszélünk.
0
0
0
0
💬 6
Belchior10 avatar
@MrPAYER: Ezek a high-end kártyák teljesen feleslegesek 2k-ra.
0
0
0
0
cabus26 avatar
@Belchior10: Az nem 2K,hanem QHD!Jegyezzétek már meg végre!!!A 2K az 2048×1080 felbontás.
4
0
0
0
Belchior10 avatar
@cabus26: Igen, hivatalosan az, de ezekre is szokták mondani.
0
0
0
0
cabus26 avatar
@Belchior10: Törölt hozzászólás
0
0
0
0
MrPAYER avatar
@cabus26: Törölt hozzászólás
2
0
0
1
cabus26 avatar
@MrPAYER: Törölt hozzászólás
0
0
0
0
MrPAYER avatar
@cabus26: Törölt hozzászólás
0
3
0
0
no avatar
@MrPAYER: Amilyen játékok jönnek a jövőben oda el is fog kelleni a 4090
0
0
0
0
no avatar
@MrPAYER: FSR3 át mutattâk ugyanaz lesz mint a DLSS3
0
0
0
0
bukta2 avatar
@Andrews: hozza azt amit kell.
0
0
0
0
bukta2 avatar
Durva volt amikor behozták kézbe a vga-t … 27cm vagy mennyi a kártya… 2x8 pin… xD azėrt a 4090 mekkora is? Nagyobb mint egy series S… xD
Ugye azt tudni kell hogy akkor beszélünk fejlődésről a hardvereknél ha ugyan azon a méreten/áramfelvétel mellett érnek el nagyobb teljesítményt (ezt egy magyar játékfejlesztő mondta,és valjuk be van benne valami…)
nVidia kicsit elhagyta magát úgyérzem, persze jobb,erősebb a pirosaktól, de mi áron?!
Azt mondtam nem cserélek vga-t , de ha egy 7800 jó áron lesz kapható és jó áron elmegy a szeretett 6800 am akkor még meg is gondolnám a váltást.(bár semmi nem indokolja hogy cseréljem a 6800-at,mert játékra elég brutál ez is!) Majd kiderül, ebből úgyis csak 2023 lesz. Addig pedig sok víz lefolyik a dunán :D
Jaaa ami viszont tetszett a pirosaknál hogy az FSR 3.0 megint lesz mindenre is! És hasonlóan fog működni mint a dlss 3.0, akkor kérdem én miért nem tudta ezt a zöld oldal megvalósítani? Ez sok mindent elmond a 2 gyártóról! Azt írtam hogy nem dobtam el az agyam a bemutatótól,de azt megkell hagyni hogy az AMD jobban a gamerekért van mint az nVidia…és szó nincs arról hogy fan vagok… mert nem vagyok, csak nézzük a tényeket kérem…
0
0
0
0
💬 6
xCube avatar
@bukta2:
Jaaa ami viszont tetszett a pirosaknál hogy az FSR 3.0 megint lesz mindenre is! És hasonlóan fog működni mint a dlss 3.0, akkor kérdem én miért nem tudta ezt a zöld oldal megvalósítani? Ez sok mindent elmond a 2 gyártóról!


Ha érted a különbséget a DLSS és a FSR között, akkor nem teszed fel ezt a kérdést. A két eljárás alapjaiban különbözik egymástól, a DLSS sokkal jobb minőséget hoz, de hardveres támogatás kell hozzá. Nem sokat érne, ha lenne egy szoftveres verzió, ami mindenen fut de lassú mint a dög.

Ugye azt tudni kell hogy akkor beszélünk fejlődésről a hardvereknél ha ugyan azon a méreten/áramfelvétel mellett érnek el nagyobb teljesítményt (ezt egy magyar játékfejlesztő mondta,és valjuk be van benne valami…)


Ezt nem csak egy magyar fejlesztő mondta, hanem ez az alapvető elvárás. Amibe csak az szól közbe, hogy egy nagyon komoly technológiai határ szélén állunk, így a teljesítmény / watt arányt már nem lehet olyan egyszerűen csökkenteni. Nem véletlen az AMD MCM megoldása.
0
0
0
0
bukta2 avatar
@xCube: Tudom igen, csak épp igazából pont lesza*** melyik hogy működik,amíg elvégzi mind2 azt amire kitalálták úgy ahogyan az a nagykönyvben megvan írva :D
Míg AMD megoldása tovűbbra is megy kenyérpirítón is addig Mészáros lölő meg veheti a 4090-et 1500 dodó-ért (ami jegyzem meg a viszonteladóknál már kb 2.3/2.5 ezer dollár körül van már :D) ha DLSS 3.0-t akar kapcsolni ez itt a rohadt nagy különbség!

a DLSS sokkal jobb minőséget hoz

ez lehet így volt az első verzióknál (FSR 1.0) de én mostanság nemigen látok különbséget...
bár lehet az én szememmel van baj de ha te látsz valami különbséget,gyors ránéztem pár videóra hogy nehogy hülyeséget beszéljek itt.. ,de komolyan érdekel az a ,,Sokkal jobb minőség" amit említettél, mert én semmit nem látok, max ilyen 200X-os zoom mellett a 200km-re lévő híd felett repülő fecske jobban körvonalazódik DLSS-el mint FSR 2.1-el vagy 2.0-ával, értem én és aláírom hogy az eljárás jobb a zöld oldalon de azért hogy ,,Sokkal jobb" ez brutál erős túlzás már elnézést...és nem védeni akarom az AMD-t azért mert nekem ez van hisz elmondom énis hogy jobb a DLSS csak az a túlzás hogy ,,sokkal" ez erős :D én inkább úgy fogalmaznék hogy egy hajszállal
0
0
0
0
MrPAYER avatar
@bukta2: Én úgy fogalmaznék, hogy annyival nem jobb mint amekkora fejlesztői gárdának kell minden hónap elején kiküldeni a bért, fenntartani egy szuperszámítógépet és szorgosan pakolni minden szarba a Tensor magokat. Lehet van a DLSS 2 / FSR 2 között 15% minőségbeli különbség az előbbi javára, de raszterben azonos erőszintet képviselő modellek esetében az árat tekintve 20-30%. (7 éve nem volt Radeonom nem vagyok fanboy)

xCube-nak maximálisan igaza van a technológiai határt illetően, ezért is léteznek és ezért is relevánsak ezek az upscaling megoldások, de az NV szinte mindent ennek rendelt alá. Az előző generációs zászlóshajó alatt a felsőkategóriában 8-10 GB kártyák sorakoznak amelyek már a közeljövőben is képtelenek lesznek ellátni bizonyos feladatokat és hiába maga a GPU bírná a terhelést ez a memória mennyiség limitációt fog okozni, vagyis okozna, ha nem lenne a DLSS, de már sokszor kifejtettem ezzel a kapcsolatban a véleményemet és még ki is fogom, NINCS mindenben DLSS, főleg kisebb stúdiók játékaiban, ott meg kalap kabát már akár pár hónapon belül is az ilyen 3070 és társainak. Nem viccelek, az új cod 1080p-n betermeli az 1070-em mind a 8 gigáját, akkor egy alapvetően 2k-ra tervezett 3070-el mi a helyzet ténylegesen olyan felbontáson használva? Már most gatya neki.

Én kiállok amellett, hogy jók ezek az upscaling megoldások de én látom köztük a különbséget a natívval összevetve és sokkal rosszabb FHD / QHD-n, 4k-ban oké, ott tényleg talán még jobb is de az a kisebbség akinek olyan megjelenítője van. Ezeket arra találták ki, hogy gyengébb géppel is átvészelhető legyen a crypto piac 2-3 éves ámokfutása és aki leragadt a Pascal / Turing érában azok is tudjanak kezdeni magukkal valamit... vagy arra, hogy tényleges munka nélkül ugyanazt a 40 éves gyártási metódust évről évre foltozgatva se tűnjön fel senkinek, hogy amúgy szar van a palacsintában. Döntse mindenki el magának.

Mégegyszer kihangsúlyozom, hogy az én meglátásom szerint ezek arra lettek kitalálva, hogy a gyengébb kártyával rendelkező konfigok is érjenek valamit, az ilyen több százezer, millió forintos kártyák esetében önmagában szégyen, hogy ezek marketingjében egyáltalán említésre kerül ezeknek a neve is nem hogy erre építenek ki komplett termékcsaládokat. Ez olyan mintha egy mesterséf a saját éttermében ahol 200 eur csak az, hogy leteheted a segged a székre azzal dicsekedne, hogy milyen finomat főzött neked egy kis glutamát hozzáadásával mikor az arra lett kitalálva, hogy az olcsó ételeknek is legyen valami íze és ne köpd ki egyből.
0
0
0
0
bukta2 avatar
@MrPAYER: Hát az igaz hogy Full HD-ban botrányos ahogy kinéznek ezek a megoldások, viszont azt nem írtam oda hogy én 1440p-n ,,élek" így lehet azért nem látok nagy különbséget.
0
0
0
0
Nagynozi avatar
@bukta2:
Hát az igaz hogy Full HD-ban botrányos ahogy kinéznek ezek a megoldások
Volt idő, amikor egy RTX 3070-et használtam 1080p monitorral, aztán cseréltem RTX 3080 12GB-ra és 1440p-re. Mindkettőnél használtam a DLSS-t és az észrevételem az volt, hogy játéka válogatja mennyire néz ki jól az upscaling. Például Cyberpunk 2077 1080p-ben tökéletesen jól nézett ki DLSS-sel, ugyanígy a RDR2 (kivéve a haj megjelenítése, de amúgy minden jobban festett). Sok játék viszont valahogy "off" DLSS-sel 1080p-ben. 1440p-ben is használok DLSS-t, ott már úgy nagyjából mindenhol jól mutat a DLSS, még szerencse, hogy Techpowerup-nak van egy DLSS.dll adatbázisa a régebbitől a legújabb verziókik és lehet próbálkozni, mert 2.4 óta jobb a teljesítmény, de a tapasztalatom alapján a "régebbi" 2.4.6 jobb, mint a legújabb 2.4.12. FSR 2.0/2.1-et kipróbáltam futólag, de már 1440p-ben, ott valóban nem óriási a különbség, inkább egy picit több ghosting és itt-ott furcsa artifacting van, amit a nem hardveres algoritmus rovására írok, de még így is óriási, hogy egy "sima kézzel írt" algoritmus mire képes.
0
0
0
0
xCube avatar
@bukta2: A FSR -nél sokkal több az artifact és előre haladás közben nagy kontrasztnál erősen geometrikus képnél rendszerint torzul a távoli kép (pl. Cyberpunk). Emellett FSR -nél sokkal durvább az utánhúzás, mint DLSS esetén. Nekem ezek a pontok elegek a sokkal jobb minőséghez.
0
0
0
0


Elfelejtett jelszóRegisztráció