Az AMD leleplezte a Radeon RX 6800 XT és RX 6900 XT kártyákat

Szerző: xoki | 2020. October 28. | hír | 80 hozzászólás

Az AMD hivatalosan is leleplezte a felsőkategóriás RDNA 2 GPU-it, azaz az RX 6800 XT-t és az RX 6900 XT-t. Ezek az Nvidia GeForce RTX 3080 és RTX 3090 kártyáival veszik majd fel a versenyt, és a teljesítmény demonstrálása céljából a cég közzétette az első first-party benchmarkokat is.

Az AMD Radeon RX 6800 XT-re 72 számítási egység, 2015 MHz órajel, 2250 MHz boost, 128 MB Infinity Cache, 16 GB GDDR6 VRAM és 300W TDP lesz jellemző. A GPU kiinduló ára 649 dollár lesz, és november 18-án érkezik az RX 6800-zal egyetemben. A Radeon RX 6800-ra - amely jóval erősebb, mint az RTX 2080 Ti - 60 számítási egység, 1815 MHz órajel, 2105 MHz boost, 128 MB Infinity Cache, 16 GB GDDR6 VRAM és 250W TDP lesz jellemző, a kiinduló ára pedig 579 dollár lesz.

Az AMD ezenkívül egy másik modellről is lerántotta a leplet. Az RX 6900 XT lesz a legerősebb RDNA 2 kártya, amely december 8-ától lesz kapható, és mindössze 999 dollárt kérnek érte. Ez a GPU az RTX 3090-nel veszi majd fel a versenyt, miközben jóval alacsonyabb áron kínálják. Az RX 6900 XT alapadatai a következők: 80 számítási egység, 2015 MHz órajel, 2250 MHz boost, 128 MB Infinity Cache, 16 GB GDDR6 VRAM és 300W TDP.

Az AMD mindkét RDNA 2 GPU-ja DirectX 12 Ultimate és DirectX Storage támogatással érkezik.

Hozzászólások: 80
Hozzászólás küldéséhez be kell jelentkezni.
gaborw avatar


Ezt csak úgy itt hagyom! 😂
0
0
0
0
zsivko avatar
Most komolyan, direkt ki lett emelve, hogy melyik kártya melyik procival ajánlott, hogy hozza ezt e teljesítményt.
0
0
0
0
carl18x avatar
AMD győzelmi tánc! 😃
0
0
0
0
Scorn Face avatar
Nos nagyon jól fest de, jöjjenek a tesztek, cikkek, bibliai volumenű összehasonlítások, stb.
Aztán teljen el pár hónap, amíg szépen beilleszkedni a kártya a pc világba.
Utána már lehet stabil alapokon nyugvó döntéseket hozni.
0
0
0
0
kimi100 avatar
Azért az a fondorlatos helyzet, hogy a belépő szintű RX 6000-es kártya (ami a BELÉPŐ KÁRTYA) a 2080 TI -t kenterbe veri teljesítményben, és mind ezt 500 dollárral olcsóbban teszi meg. 😊
0
0
0
0
💬 3
bukta2 avatar
@kimi100: Várjuk ki a végét, úgy mint a 3070...az is 500 dodo azt lehet azt sem lehet majd kapni...
Amd nél meg a 3xxx széria kérdés hogy ugyan úgy ki tudja majd hajtani a 6000-es rx-eket...valószínűleg nem....így az megint teljesítmény vesztés... tehát majd ha a tesztek kint lesznek majd kiderül minden.
0
0
0
0
no avatar
@bukta2: Ki tudja majd minden bizonnyal, már amelyik 3600-tól felfelé 1440p-ben. Csak a Smart Access Memory-t bukod ha nem fejlesztesz CPU-ban, mondjuk asszem 500-as lap is kell hozzá, hogy működjön.

Szerk.: Utóbbi csak Win-re érvényes, Linuxon működik 😆
0
0
0
0
bukta2 avatar
@LordSzalko: Idővel tervben lesz egy proci csere is de az majd vagy 2-3 év múlva... lecserélhetném most is, de nem akarok most megint azt is venni... most jön az új Táp+VGA (ez így most elég lesz nekem egy időre) hogy 3080 vagy 6800/6800XT lesz e majd még elválik, hogy melyik kártya bizonyul jobbnak mondjuk 1-2 hónap múlva. Az új tápot is majd csak akkor szerelem be ha már itt lesz az új VGA is. Addig fölösleges 😃
0
0
0
0
yorgash avatar
Rage Mode, vagyis OC mellett.
Tehát -10%, ha bizakodóak vagyunk AMD oldalon, még akkor is.
Ahhoz képest merész lépés volt a 6800XT-t ilyen közel árazni a 3080-hoz, hogy RT-ben veszt, és valószínűleg 5-7%-kal alatta is fog maradni - és akkor ez még Ryzen 5000 széria mellett. Egyéb esetben meg lehet, hogy 15-20%-kal is.
0
0
0
0
💬 1
no avatar
@yorgash: Az egyik 6800xt dia rsge mise s smart memory nélkül volt bemutatva s ott is picivel 3080 felett volt. A másik az of mode hivatalosan 1-2% öt hoz csak, a smart memory meg 4 től 11%ot a diák alapján játékfüggő. Viszont jönnek a húzott mai Sapphire Asus karik na ott elvileg 10% plusz lesz.
0
0
0
0
nOmAd6 avatar
Kíváncsi vagyok majd a tesztekre, de le a kalappal előttük! Eléggé sokan temették őket de most újra versenyben vannak GPU fronton is. Érdekes ünnepi szezon lesz ez így videókártya fronton 😃
A 16GB ram kielégíti azoknak a felhasználóknak az igényét is,akiknek valamiért kevés lenne a 8,10GB memória. 😀
0
0
0
0
💬 2
Hiroshi_Ayugai avatar
@nOmAd6: Eddig is versenyben voltak, csak nem Hight-End fronton. Sokan azt hiszik, csak az a lényeg, mi van a kínálat tetején, de az átlag ember inkább a középmezőnyben keresgél, max majd használtan megveszi a bika kártyát 1-2-3 évvel később.
Az AMD meg keresett annyit a közép mezőnnyel is, hogy jól el legyen vele. Persze az egy pozitívum, hogy már a felső szinten is tudják ütni egymást.
0
0
0
0
nOmAd6 avatar
@Hiroshi_Ayugai: Teljesen egyetértek azzal amit írsz! Anno én is a közép kategóriában kerestem kártyát és ott messze az 5700XT volt a legjobb választás (110k volt újan, igaz referencia,de nekem tökéletesen megfelel 1 pici alulfesszeléssel). Gondolom pár hónap és jön majd az 5600,5700 utódja is, illetve a másik oldalról a 3060.
0
0
0
0
r2d2 avatar
Inkább beszéljünk arrol, hogy aki mint én is csak FHD-t használunk, lesz-e értelme ilyen kártyákra költenünk ha ugysem tudjuk kihasználni rendesen ezeket a 4k-ra tervezett és optimalizált kártyákat?
0
0
0
0
💬 10
odinx avatar
@r2d2: Szerintem biztos lesznek kisebb kártyák is, csak most az erősebbekről beszélnek többet. Legalábbis nagyon fura lenne, ha nem lenne kártya olyan 100-130.000 Ft között.
0
0
0
0
gaborw avatar
@odinx: Arra ott vannak az 5600 és az 5700 as kàrtyàk. Nem biztos, hogy egyhamar lecserélik őket. Mint ahogy Nv-nél sem sietnek vele. Full Hd-ra bőven van vàlaszték. Új és hasznàlt piacon is egyarànt. Ott amúgy sem lennének nagy teljesítmény ugràsok.
0
0
0
0
nOmAd6 avatar
@gaborw: Gyártottak le bőven 5600,5700 szériás kártyákat, gondolom most kiszórják szépen lassan őket. Aztán majd jöhetnek a 6600,6700 karik 😀
Meg ugye az NV sem gurít sok mindent ebben a szegmensben. A 3070 is ritka kincs lesz az első hónapokban
0
0
0
0
odinx avatar
@gaborw: Hát, akkor nem nagyon lesz 5600 XT 100,000 Ft környékén, bár ki tudja. Azért én még reménykedek egy 6700 vagy 6700 XT-ben.
0
0
0
0
botmunpls avatar
@odinx: Nem vagyok teljesen jártas a témában, mert nem tervezek váltani jóideig, de úgy láttam hogy az rtx 3xxx 4k-ban jobb, de fhd/qhd felbontásokon nem hoz annyival több fps-t, míg sokan erre számítottak.
Tehát ha valaki akar venni egy ütős kártyát, amit használhat 4k-ban is, az nem fog több fps-t kapni, ha ő fhd-ban akarja használni.
Amiről nem tudni(?), hogy ha kijönnek az olcsóbb/gyengébb kártyák, akkor azok milyen felbontáson milyen teljesítményt fognak hozni? Mert akkor elvileg fhd-ban azok lényegében ugyan ott lesznek, mint az előző generációk.
0
0
0
0
odinx avatar
@botmunpls: Nekem az is elég ha high-very high beállításon 1080p-ben tud 100FPS-t.
0
0
0
0
botmunpls avatar
@odinx: Neked igen, te a hozzád hasonlók is egy része a piacnak, meg a hozzám hasonlók. És eddig ha vettél egy bivaly kártyát, akkor minden tekintetben bivaly volt, kiszolgálva egy tág piaci igényt, most pedig ezt elvileg leredukálták. Ami csak azért érdekes, mert az eladásokból élnek 😃
0
0
0
0
odinx avatar
@botmunpls: Hát a jelenlegi kártyámtól minden előrelépés lesz.
0
0
0
0
Tuhajohn avatar
@r2d2: Arra már most is vannak kártyák. Meg a full HD lassan kiszorul. Lassan már csak kompetitív piacon lesz jogosultsága. Szóval az UHD az új full HD. Szerintem.
0
0
0
0
MC MaRcI avatar
@r2d2: Hogy ne lenne értelme veszel egy ilyen kártyát azt jó lesz vagy 3-4 évig minimum
0
0
0
0
alacka97 avatar
Azért ez eléggé copy gyanus volt. Ne ugyan olyat akarjanak, hanem jobbat. Én addig fixen nem fogok váltani Nvidiáról, amig egy igen erős saját ötlettel elő nem rukkolnak. Ahhoz képest, hogy azért a konzol oldalról nem kis támogatást kap az AMD, igazából kaptunk NVIDIA által már az előző generációval fejlesztésre került extrákat átkeresztelve, mint pl a variable rate shading. Se a stream encoder fejlődéséről nem esett szó, se az RT teljesítményéről, ami amúgy szerintem bőven kezdetleges az Nvidia-hoz képest, főleg hogy ott ezekre külön RT core-t hoztak létre. Ez a picivel csináljunk erősebbet, picivel olcsóbbat nagyon átlátszó.....ami megint olyan dolog, hogy majd a többi játék alatt meglátjuk. Ez az egész ceremónia egy nekik kedvező összehasonlítási reklám volt, olyan funkció mellett, amit csak akkor tudsz igénybe venni, ha majd az új Ryzen processzor mellett lesz használva (smart access memory, rage mode), amit az Nvidia alapból támogat RTX IO néven....Szépen kihasználták azt, hogy az nvidia korábban bemutatta a kártyáit, és úgy formálták ezt az előadást, hogy magukévá tehessék azt a címet, hogy gamer oldalon cpu és gpu fejlesztésben is ők a legjobbak. CPU tekintetében igaz is! A pozitívum nekem az volt, hogy 6800 is megkapta a 16GB Vram-ot, ami nem kis előny főleg 4K-ban. Azért arra is kíváncsi leszek, hogy laptopokba kerülnek-e végre rendesen AMD kártyák vagy sem.
0
0
0
0
💬 2
nOmAd6 avatar
@alacka97: Mit kellett volna tegyenek az önpromózás helyett? NV terméket promózzanak? 😃 Normális, hogy a saját terméküket promózzák és próbálják meg jó fényben feltüntetni. Nem mellesleg van mire büszkének lenniük... Hála nekik ismét lesz valami verseny a piacon, ami nekünk felhasználóknak jót jelenthet 😉
Spoiler!
Az, hogy nekik kedvező volt.. Mindenki ezt csinálja. Sőt, az Intel sokszor olyan összehasonlításokat csinál, hogy a hajam égnek áll... Ahhoz képest ez egy szerény promózás..Lásd amikor az Intel gyorsabb GPU-val bizonygatta, hogy
a 10750H gyorsabb a 4900H-nál 😂
Egyik sem jobb a másiknál..
0
0
0
0
alacka97 avatar
@nOmAd6: Én azt vártam volna, hogy kicsit azért körbe járják a terméküket, annak felhasználási területeit és ezeken a területeken tett javításokat, mint ahogy mondtam a stream encoderről is beszélhettek volna. Ehelyett el el legyintettek egy két mondatot, hogy RT meg 128MB cache és csá. Valahogy az Nvidiának sikerült a bemutatójukat kitölteni a saját termékében tett újítások kibontásával a másik gyártó lejáratása nélkül. Kicsi unszimpátiát keltett bennem, hogy más fejlesztéseit árulja más néven és most fel van robbanva az internet, hogy az AMD mekkora császár, hogy ők aztán fektetnek ebbe munkát ellenben a másik gyártóval. Az intel esetében is gáznak tartom amit csinált és nem is fogom azt mondani, hogy mekkora király az intel 😂.... jelenleg 0-ra tartom őket úgy, hogy eddig csak intel procim volt.
0
0
0
0
Mesterlovesz avatar
Sem a DLSS ről sem az raytracingről nem esett szó. Vagyis hát egy halvány utalás volt rá, hogy csinálnak valami DLSS szerű felskálázó megoldást. Ha ezeken a tereken nem alakítanak valamit, akkor jobban megéri majd Nvidiát venni ha végre értelmes mennyiségű Vrammal is kiadják kártyáikat. Csupán az, hogy kiadunk egy ugyanolyan teljesítményű kártyát 50 dolcsival olcsóbban még nem lesz jó vétel ha a standard raszterizációs teljesítményen kívül minden másban le van maradva. Megmondom őszintén nem dobtam el az agyamat. Bár persze így is sokkal vonzóbbnak tűnik egy 6800XT az Nvidia 3080-ánál a Vram miatt, illetve az Infinity cache jobban teljesít 1440p felbontáson, mint az Nvidia megoldása.
0
0
0
0
💬 12
PeAdam avatar
@Mesterlovesz: Ray tracing támogatást megkapják a Radeon kártyák, nem tudom te mit néztél. A Godfallról volt is RTX bemutató.
0
0
0
0
alacka97 avatar
@PeAdam: Hát azért ez távol volt az RT technologia kibontásától úgy, hogy olyan játékon mutatták be, amin kb bármelyik DX12-es kártya elfuttatná a RT funkciót szoftveresen. Ez inkább arról szólt, hogy be kell dobnunk az RT funkciót, mert a konkurensnél van ilyen...Egyértelműen félkész az AMD RT támogatása, mivel semmit nem tudtak vizuálisan bemutatni, hogy a kép kirenderelése, milyen módszer útján tudna olyan szinten megvalósulni, mint az RTX kártyáknál csak itt RT core nélkül. Valószínűleg nem mostanában lesz ebből eredmény és valószínűleg mivel fizikálisan erre nincs kifejlesztve egy feldolgozó egység a kártyán, így az RT szoftveresen fog megvalósulni vagyis megint nem a kártya lesz a jó hanem max a szoftver, aminek még egy húzó címe sincs és ami nem biztos, hogy nvidia kártyákkal nem lesz kompatibilis. Amúgy az RTX az NVIDIA...
0
0
0
0
Mesterlovesz avatar
@PeAdam: A szoftveres ray tracing támogatás nem jelent semmit. Az csak annyit tesz, hogy a kártya támogatja a DXR DirectX raytracing API-t. Szoftveres sugárkövetést én is írtam az iskolában, nem ez a poén, hanem hogy milyen hardveres gyorsítás van mögötte, hogy ez valós időben futni tudjon. Másként szólva, milyen a performancia. Arról meg nem sokat mondatak.
0
0
0
0
alacka97 avatar
@Mesterlovesz: Ezt akartam mondani, hogy erről semmi olyan konkrét nem hangzott el, amiből most komolyan lehetne venni az AMD RT támogatást. Valószínűleg nyers erőben van olyan erős, hogy meg talan játszható képfrissítés mellett lehessen használni. Azt se tudjuk, hogy a bemutatott játékok, hogy futottak rajta. Lehet 200fps-ről leesett 30-ra az RT bekapcsolását követve. Azért egy Far Cry 6 teljes körű gameplayben bemutatott RT-t hamarabb megnéztem volna, de valoszinuleg játszhatatlan lenne. A másik, hogy az első játékon bemutatott RT-nél elég éles árnyékhatárok voltak, ami nem igen valós idejű árnyékra vall. Linus Tech is megmondta, hogy nem biztos, hogy ezt a szoftveres támogatást az Nvidia DX12-es kártyái nem fogják támogatni, mivel az API nem változott csak új funkciókat kapott, amiket egy driver frissítéssel elérhetővé is lehet tenni Zöldeknél. Azt nem mondhatja a DX fejlesztői, hogy bocsi Nvidia ti ebből nem kaptok főleg, hogy az RTX is a DX12-ből táplálkozik.
0
0
0
0
Mesterlovesz avatar
@alacka97: Azt vedd számításba, hogy alapvetően a DXR nem egy konkrét játékmód, csupán egy API, amire építve az Nvidia RTX néven készített egy zárt forrású saját implementációt. A játékok, amik jelenleg a piacon vannak és raytracinget támogatnak, mind ezt az RTX megvalósítást támogatják, mivel más nincsen. Így ha van is egy új DXR implementáció AMD oldalról, azt a jelen játékokkal nem fogják tudni bemutatni, mivel azok kizárólag Nvidia kompatibilisek ha raytracingről van szó. Így viszont nem tudju, hogy hogyan fognak teljesíteni az AMD kártyák ezen a téren. Szerintem nagyon gyengén, mert mélyen hallgatnak róla.
Aztán ha mégis kiderül, hogy az AMD sugárköverése egy használható dolog, akkor meglátjuk, ohgy a régi játékok is adoptálják-e majd vagy csak az újabb címeknél lesz elérhető. Engem pl a Cyberpunk érdekel leginkább, ohgy ott mi lesz. Elvileg a konzolokban is van Navi alapú raytracing tehát ez alapján számoltak a fejlesztők az AMD vel.
0
0
0
0
alacka97 avatar
@Mesterlovesz: Az elejét nem értem miért nekem írtad, miközben nem is mondtam ilyen badarságot. Senki nem mondta, hogy az RTX-re megjelent játékokat futtatni fogja az AMD, nyilvánvaló, hogy az kimondottan RTX kártyákra van gyártva. Én azt mondtam az RTX kártyára fejlesztett dolgok nem lehetnek kompatibilisek az AMD kártyával, mivel ott nem csak a DX12 adta szoftveres lehetőségeket használja a kártya, hanem a hardveres RT core-t is. Ellenkező esetben, ha az AMD most a DX12 alapú, csak szoftveres megoldásait veszi elő, az nem jelenti azt, hogy majd ezeket nem fogja tudni bármelyik DX12-es kártya futtatni, mert ez nem új API. Ez olyan, hogy attól, mert a Sony mutat be egy játékot, mert a gyártó szponzorálja, az nem azt jelenti, hogy más platformon nem fog megjelenni. És mivel ez nem ÚJ API, így elég nagy erre az esély. Azért is mondtam, hogy megnéztem volna egy Far Cry 6 AMD RT mellett, mivel AMD partner a játék és meg is tehették volna, ha amúgy működne. Az egy dolog, hogy van Navi alapú RT a konzolokban, de abban is biztos vagyok, hogy nem nagyon fognak ezzel arcoskodni, sőt meg merem kockáztatni, hogy úgy komolyabb fejlődést majd csak az RDNA 3 körülre várjunk. Szerintem, amúgy ha ezt valaha sikerül úgy kidolgozni, hogy ne 10fps-el kelljen játszani, mondjuk egy Shadow of the Tomb Raider-el, akkor valószínűleg minden DX12-es játék támogatni fogja, mint ahogy minden DX12-es kártyán futnia kellene, ami vagy az RTX létét fogja szükségtelenné tenni, vagy az RTX tulajok az RT core-ok által jelentett többlet erejével jobb FPS értékekkel fog tudni játszani. Cyberpunk amúgy RTX-et támogatja, szóval az NVIDIA tulajok örülhetnek.
0
0
0
0
Mesterlovesz avatar
@alacka97: Én azt nem értem, hogy a fejlesztők most csinálni fognak egy RTX megoldást A módon meg egy AMD megoldást B módon a raytracingre, és az RTX es sokkal jobban fog kinézni, mert a Geforce kártyák sokkal jobban bírják, vagy hogy lesz ez?
0
0
0
0
alacka97 avatar
@Mesterlovesz: Én ezt úgy tudom elképzelni, mint az eddigi Nvidia extrákat pl. a Hair works, ami mai napig jelenik meg játékokban (witcher 3, metro exodus). De volt olyan is, hogy az Assassin's Creed-ben Nvidia-nak volt plusz beállításai, mint a PCSS, TXAA, HBAO+, PhysX. Ezen kár is csodálkozni, az extra dolgokat mindig az Nvidia hozta be. Ezeknek egy részét végül az AMD is megkapta. De volt olyan is, hogy az egyik Batman Arkham játékban fizikának volt egy olyan opció, amit az AMD és az NVidia is alkalmazhatott a DX11-en keresztül és volt olyan funkció, hogy az NVidia a saját PhysX-ét használhatta, ami azért jobban nézett ki, de FPS gyilkos is volt. Azért nem lehetünk csalódottak az Nvidia-ra, mivel mai napig elég komoly reformokat hoz a piacra. Nála jelent meg először az RT használata, attól függetlenül, hogy nem ők találták ki. Azért a nagy RTX funkció elég FPS gyilkos, de ezzel párhuzamosan ők létrehozták a DLSS-t kompenzációként, ami kész és hibátlan. Emelett a Tensor és RT core-al is rengeteg dologban tudtak előre lépést hozni nem csak gamer szempontból, amit az AMD átlépett, helyette a nyers erőt választotta, ami megint csak reklámfogás volt, mivel a teszt alatt az AMD kártyák smart access memory és rage mode-ban mentek (vagysi OC módban). Ha ez nem elég érv, akkor az csak magáért beszélhet, hogy az RTX 2060-as laptopommal RTX, DLSS és magas beállítások melett 60FPS-el játszok a Metro Exodus-al, ami önmagában is egy elég hardverigényes játék ( azért hozzá kell tennem, hogy az RTX2060(mobil) a leggyengébb RT támogatott GPU a piacon). Ez készen van, nem csak ábránd. Mire az AMD behozza ezt, addigra az Nvidia már rég mást fog újítani.
0
0
0
0
Mesterlovesz avatar
@alacka97: Teljesen egyetértek az extra tulajdonságok fontosságának kérdésében. Csak fejlesztői szemmel látom ezt kicsit nyűglódósnek, hogy erre a kártyára is fejleszteni kell a featuret, meg arra is egy másik APIval. Dolgozni dolgozik az AMD is ilyen funkciókon de mivel kicsi a keretük, kevés az erőforrás, sose tudnak szoftveresen is ott lenni ahol az Nvidia, de később a driverekkel általában behozzák a hátrányt. Szerintem ezek a dolgok is útközben fognak majd megjelenni.
0
0
0
0
alacka97 avatar
@Mesterlovesz: Hát ja. De mindig van egy két olyan extra, ami csak Nvidia és kicsivel jobb az alap beállításoknál. A Physx is ilyen és valószínűleg ez az RTX is ilyen lesz. Fejlesztés szempontból sokat fog segíteni az RT, végre nem azzal kell csomo időt elcseszni, hogy a tukröződés, a fényék és az árnyékok megközelítsék a valóságot. A tükröződés az árnyék a Mafia 3-ban pl okádék....mint egy 2000-es játekban.
0
0
0
0
bukta2 avatar
@alacka97: Viszont a nemrég kiadott 1 felújjított változatában meg még RTX sincs és ott a tükröződés nagyon komoly 😃
0
0
0
0
alacka97 avatar
@bukta2: Meg lehet oldani nem ez az egyetlen példa, azért a Last Of Us II- ben is példaértékűen megoldották ezeket RTX nélkül, csak a fejlesztőknek több meló úgy megoldani, hogy mindeféle trükkökkel a valóságot megközelítsék, mint az, hogy játék közben kiszámolja a kártya a valós fényeket és azért a fejlesztőknek nincs végtelen ideje. 😂 Metro Exodus is mocsok szépen néz ki RTX nélkül, jobban mint az új Mafia, de így is bőven jobb RTX-el, főleg egy épületen belül, ahol nem olyan nagy a draw distance.
0
0
0
0
X9K338DA avatar
Ha ez igaz, már csak az kell, hogy legyen elég raktárkészlet a rajtnál.
0
0
0
0
💬 1
xCube avatar
Szuper, örülök ha a független tesztek is hozzák ezeket az eredményeket. Ami viszont azonnal kérdőjeleket vet fel bennem az a fogyasztás. Hogyan állhat be egy gyengébb és egy erősebb GPU ugyanarra a fogyasztási szintre? Részemről erre csak egy logikus magyarázat van, mégpedig az, hogy a 6800 XT fogyaszthatna kevesebbet, de nem tud, mert az inaktív egységek is kapják a naftát. Vagy megint megy a trükközés az "átlagfogyasztásokkal" és egyebekkel.

Kíváncsi leszek a konkrét ray tracing tesztekre, ott még elvérezhet az új architektúra, bár kétlem, hogy ez történne.

Ha minden klappol, akkor 2020 lesz az év, amikor az AMD teljesen visszatért.
0
0
0
0
💬 1
Mesterlovesz avatar
@xCube: Szerintem sokkal egyszerűbb a dolog. A binning során a jobban sikerült darabokból, máshogy mondva a jobb minőségű sziliciumból csinálják a 6900XT ket, a 6800XT meg kicsit gyengébb darabokból rakják össze. Gondolom alacsonyabb feszültség is elég neki.
0
0
0
0
carl18x avatar
Elég kemény amit összehoztak, ez a infiniti cache nagyon jól superál! 😀 Szép jövőnek néznek elébe!
0
0
0
0
odinx avatar
Hát az AMD most is meglepett, jó sok meló lehetett ebben is. Hajrá vörösök.😎
0
0
0
0
yugiohyugiohzebuyug avatar
És most jöhet valami dupla GPU-s 6900XT Ultra kegyelemdöfésnek 😆
Viccet félretéve nagyon örülök, hogy valami csoda folytán VGA fronton is feltudják venni a versenyt. Ez a 2020 legalább AMD-nek jól sikerült. 😀 Erősen megvan szorongatva az NV a 6ezresekkel és verve van az Intel a Zen 3-al. Mikor volt ilyen utoljára? Procinál mindkét fronton nem tudom, jó rég... VGA-nál meg szerintem utoljára igazán sikeres széria a HD7000 volt, azóta ezt érzem a legjobbnak. Történelmi pillanatok... 😀 A következő csata pedig... szintén nagyon durva lesz. Nagyon nagyon kíváncsi leszek 2022-re. VGR fronton valszeg RDNA 3 és a Hopper mérkőzik meg, lehet mindkettő többchipletes dizájnnal. Az NV biztos készülni fog, mert látja mi a helyzet és a reakció, az AMD pedig megszeretné majd tartani amit végre megszerzett, gondolom én, úgyhogy nagy csaták lesznek. 2022-re az Intel is összekaphatja magát valamennyire, a Zen 4 pedig új foglalattal, PCI-al, ramokkal, 5nm stb... valószínűleg ütni fog. De biztosan az Intel is készül arra már valamivel, szóval ott is izgalmas harcok lesznek.
Érdekes éveknek nézünk elébe, alig várom. (: Tiszta retro.
0
0
0
0
💬 4
Mesterlovesz avatar
@yugiohyugiohzebuyug:
az AMD pedig megszeretné majd tartani amit végre megszerzett

hát igazából semmit sem szerzett még meg, mivel egyelőre annyit értek el mindösszesen, hogy versenyképesek minden szegmensben. Viszont mivel az árak nem elég alacsonyak, a picai részesedésük továbbra is elhanyagolható az Nvidia egyeduralom mellett. A felhasználók 74%-a a steam felmérésben Nvidiát GPU-t használ az AMD 16%-ával szemben. Viszont mostmár egyrészt van alternatíva, másrészt mivel az Nvidia kártyák nem kaphatóak, mindössze annyit kell tenniük hogy a karácsonyi vásárlási láz teljes volumenével őket segítse, hogy az ő kártyáik kaphatóak legyenek.
0
0
0
0
yugiohyugiohzebuyug avatar
@Mesterlovesz: Teljesítménybe értettem. 😀 Az árak szerintem nem lettek rosszak NV-hez viszonyítva. Főleg a 6900XT.
0
0
0
0
MaximumGame avatar
@yugiohyugiohzebuyug: Hát az a baj hogy azt meg is kell élni. 😊 November 3. án kiderül... hogy meddig fog a világ élni 😊
Nagyon sok múlik most az Amerikai eseményeken.. 😳
0
0
0
0
zelcsi avatar
@MaximumGame: +1! 😉
0
0
0
0
no avatar
Az Nvidia új kártyáinak sokalltam az árát, pedig gondolkoztam a 2070 super lecserélésén, de akkor ugye nem ártana monitort is cserélnem, nem igazán érne meg nekem annyit. AMD - től meg kissé félek, sok volt eddig is a driver probléma, ellenben a monitorom meg freesynces, azt cserélni sem kellene. Azért kíváncsi leszek majd konkrét játék tesztekre megjelenéskor. Egy sima 6800 elég is lenne bőven ha úgy volna.
0
0
0
0
💬 6
proStarxd avatar
@Petpong: Amiota megvan a kartyam, egyszer sem volt gondom a driverekkel, szoval nem igazan ertem a sok problemakat.
0
0
0
0
gaborw avatar
@proStarxd: Mióta Radeon VII-re vàltottam, soha nem volt driver gondom. Gtx 1080-al annàl több. Volt nâlam 5700XT-is. Azzal sem volt gondom.
0
0
0
0
proStarxd avatar
@gaborw: En elhiszem! 😆
0
0
0
0
Mesterlovesz avatar
@Petpong: Én sokat szívtam annó az 5700XT vel, de azóta nincs vele gond, lekopogom. Annyira nem kell félni tőle, okosan meg kel lvárni mire kijönnek a tesztek , meg az első vásárlók letesztelik, aztán ha minden OK, akkor lehet venni. Meg addigra legalább nem horroráron lesznek.
0
0
0
0
no avatar
@Mesterlovesz: Persze, semmi nem sürget, a jelenlegi konfigomon az RDR2 is jól futott (procit azt mondjuk nem régen cseréltem, egy 9600 volt), csak lehet, lépnék egy szintet, talán mindenben. Majd meglátjuk.
0
0
0
0
Kiki4444 avatar
@Petpong: RDNA-Navi-val megjelenés után fél évig voltak driveres gondok,fórumokon panaszkodtak rendesen,azóta minden oké. Ha most is problémásak lesznek kezdéskor RDNA 2 driverek, úgyis hallani fogunk 1 héten belül. Hétköznapi driverek szinvonalába ugyanolyan király vagy épp ugyanolyan vacak mint az Nvidia(nézőpont kérdése), ott is szinte minden driverre jön a hotfix driver.Egyben azt is jelent hogy foglalkoznak a hibákkal,nem seprik a szőnyeg alá.Ezért mondom hogy nézőpont kérdése.😀
0
0
0
0
ExtazYexe avatar
Ha ez mind igaz és utolérték a 3090-et is, ráadásul kevesebb energiaigénnyel, akkor végre az AMD visszatért teljesen.
0
0
0
0
kolbaszkarika avatar
Az NV lesz az új Intel. És az nem egy pozitív dolog.😆
0
0
0
0
Apor avatar
Magyarországi árakra leszek kíváncsi. Ráteszik a 27%-os áfa mellé a tufát meg az 1.3-as szorzót, lehet drágábbak lesznek mint az nvidia kártyák.
0
0
0
0
💬 4
TRACERHD avatar
@Apor: Ezt sosem értettem. Számitásaim szerint ló***nak kéne lennie az árnak erre megint 300k. Teljesen értelmetlen számomra hogy ilyen sok pedig az ég világon semmi nem adódik hozzá.....
0
0
0
0
Apor avatar
@TRACERHD: Vannak néhányan az országban akik lehetőleg tegnap előtt akarnak meggazdagodni a másikon.
0
0
0
0
TRACERHD avatar
@Apor: ***hassák. Ismerősöm megveszi amerikában ló*** pénzért és elpostázza nekem.
0
0
0
0
Apor avatar
@TRACERHD: Három éve az árukeresőn az i7 8700K-nál az első komment mindent összefoglalt a magyarországi kereskedők mentalitásáról.

Valami 187ezerért árulták a procit kezdő árral. Érdekes volt, mert kétszer drágábban adták.
Beszerzési ár + 27% áfa + 1.3-as cumiszorzó...

Ilyen az élet 😃

Kedves eladók, csak szólbák úgy mellesleg hogy közel duplájáért áruljátok a terméket, ha nem tűnt fel, csak a magok száma ment kettővel feljebb és nem az árak. Külföldről behozatni olcsóbb lenne minthogy itt pazaroljam a pénzem, sőt az itthoni árából már egy Der8auer-es deliddelt tuningolt verziót is vehetnék. Ugyanez a lapoknál. Oké hogy magas az áfa de csak nem lesz a 95 ezerből 160 ezer.. Mikor veszitek észre hogy nem megérős az ***ás?

Előnyök
Ezen generáció értelme az volt hogy a Ryzennel versenyezve ők is több magot tudjanak nyújtani UGYANAZÉRT az árért.
Itthon így biztos nem lesz versenyképes az Intel.
0
0
0
0
no avatar
Ez így elég cringe lesz NV-nek, ha a külsős tesztekben is hozzák ezt a szintet. A Későbbi driverek meg ezen csak javítani fognak. Konkurenciára elég nagy szükség volt a felsőházban, jó ideje csak magával versenyzett az NV.
0
0
0
0
💬 7
proStarxd avatar
@LordSzalko: Ugy tunik eljott a varva vart pillanat.😃
0
0
0
0
tamas98765 avatar
@LordSzalko: Mostmár jöhet a Half-Life 3 😃
0
0
0
0
Apor avatar
@tamas98765: Uhh ez alsó madárfogás volt 😆
0
0
0
0
no avatar
@tamas98765: Na jó, ezt nem láttam jönni 😆
0
0
0
0
redbull6969 avatar
És még azt mondta mindenki amikor leleplezték a rtx 3080 at hogy felkötheti a gatyáját a amd erre még a 3090 is megvan verve ugy néz ki sok év után amd vga lesz
0
0
0
0
cabus26 avatar
Kissé vegyes volt a szórás.Úgy tűnik,hogy a 6800XT lehet az optimális vétel
0
0
0
0
💬 2
redbull6969 avatar
@cabus26: nekem is az tetszet meg csak leheesen majd kapni nem mint a 3080 att
0
0
0
0
cabus26 avatar
@redbull6969: Ja,várjuk meg a teszteket,mert túl szép,hogy igaz legyen...
No meg lehessen kapni!
0
0
0
0
proStarxd avatar
Egyre erdekesebb kezd lenni ez a harc. 😆
Az utolso par perc tetszett a legjobban, kivancsi vagyok arra a 6900 XT-re. 😃
Engem megleptek rendesen.😃😆
0
0
0
0
💬 2
MaximumGame avatar
@proStarxd: Én is elgondolkozok még ezen a 6900XT-n 😃 csak nekem 1 a bajom... AMD vel nem tudtam 1440p be stremelni 😀
RX 580 al sem... de még a full HD- is neccessen ment... GTX 1060 6Gb al meg megy a 1440p Strem is 😃
AMD hez több internet kell elvileg.. de nem tudom ez hogy lehet?! Nvidia hogy stremelhez akkor kisebb nettel is ?
0
0
0
0
proStarxd avatar
@MaximumGame: Fingom sincs sajnos, soha nem stremeltem.
Ilyen gondrol se hallottam meg mondjuk.😆
0
0
0
0


Elfelejtett jelszóRegisztráció