Ekkor leplezi le az AMD az új RDNA 2 GPU-kat

Szerző: xoki | 2020. January 29. | hír | 19 hozzászólás

Az AMD a közelgő Financial Analyst Day során mesél majd többet az RDNA 2-ről, vagyis a cég következő generációs GPU architektúrájáról.

Maga a Financial Analyst Day megnevezés egy kicsit kevesebbet takar, mint ahogy az elsőre hangzik. Az eseményen valószínűleg nem kerül sor a teljes specifikáció leleplezésére, de az AMD megerősítette, hogy az utolsó negyedéves pénzügyi jelentése során további információval szolgál majd a hamarosan érkező architektúrájáról.

Az RDNA teljesen az alapoktól lett felépítve a játékosok számára. 7 nm-es gyártási folyamattal készülnek, és jelenleg az RX 5700, RX 5600 és RX 5500 szériák érhetők el. Az RDNA 2 pedig ennek az architektúrának a fejlesztett változata lesz, amely a következő generációs konzolokban is helyet kap. Az AMD szemszögéből az RDNA nem más, mint egy frissített Navi, amely mellesleg ray tracing támogatást is kapni fog.

Az említett Financial Analyst Day 2020. március 5-én esedékes 22:00 és 03:00 között, amely elérhető lesz az AMD weboldalán.

Hozzászólások: 19
Hozzászólás küldéséhez be kell jelentkezni.
Quadgame94 avatar
Ha az RDN2 hoz egy 10% IPC növekedést az RDNA 1-hez képest már sokat nyert az AMD. Nem beszélve a 7nm+ előnyeiről, amely 15% fogyasztás redukálást igér azonos teljesítmény mellett, valamint 18%-al nagyobb tranzisztor sűrüséget azonis méret mellett És...a HBM2 még lejjebb viszi a fogyasztást, amely lehetővé engedj a mahasabb órajeleket is. 5800 XT szerintem 60 CU-val fog jönni (5700 XT = 40 CU/1.9GHz), 2 GHz órajellel es 16 GB HBM2 memóriával. Ez a kártya már 10%-al gyorsabb lenne a 2080 Ti-tól.
0
0
0
0
💬 5
PotykaPal avatar
@Quadgame94: Csak tegyék rendbe azokat a nyavajás drivereket. Lehet én voltam peches, de vettem egy RX 5700 XT-t és kitéptem a hajamat, mert úton-útfélen driverhibába ütköztem. Mint mondom lehet én voltam peches. De inkább visszamentem GTX 1070 után nVidia-hoz a jó tapsztalatok miatt, eladtam az RX 5700 XT-t és egy nagyobb beruházást tettem, vettem egy RTX 2080 Super-t, beraktam a gépbe, ledúrtam DDU-val minden driver maradványt és ott minden oké volt, felraktam a drivert és ment minden, mint a karikacsapás. Persze lehet türelmetlen voltam és most majd peches leszek, mert az AMD kijön egy szuper kártyával, én meg nem tehetem meg, hogy veszek mindjárt egy új videókrtyát, pár évig használom kell ezt, mert drága volt.

Amúgy vissza az eredeti témához, szerintem a számításaid jók, szerintem AMD-ék, most minden oldalról összeszedték magukat, emlékszem, hogy valaha csak AMD kártyám volt (vagy ATI), mert olcsón, nagyszerű teljesítményt (nVidia FX idpőszak) és szebb képminőséget adtak. Kezdődött Ati Radeon 9600XT-vel aztán X800 pro-val folytattam, majd X1950XT, ekkor egy kis stop, jött az nVidia 8800GTX és a 8800GTX 320MB ment a gépembe, majd aztán szintén ATI, vagyis akkor már AMD HD4870 váltotta, aztán HD5850, HD7870, eztán lettem nVidiás, ha lehet ennek nevezni, de nagyot csalódtam az új RX 5700 XT-nek a drivereiben. Én kívánom, hogy taszítsák le a trónról az RTX 2080 TI-t azán meg jöjjön az árharc, essenek az árak, jöjjön egy új nVidia 3000-es széria, aztán rá RX 4000-es széria és püföljék egymást és az árakat lefele.

Kivégzést nem akarok, látjuk mi történt AMD CPU vonalon, már árulom az i5-9600k-mat, mert Ryzen-re szeretnék váltani. Sajnos az Intel-t elpüfölte az AMD csak nehogy elszálljanak az árral, ha ők veszik át a monopóliumot.
No mindegy, bocsánat a hosszú posztért! Csak hát izgalmas dolgok történnek mostanában.
0
0
0
0
Quadgame94 avatar
@PotykaPal: Voltak driver problemak. De ezeket a 20.1.2 driver javitotta is. A szar driver meg az elso 2020 adrenalin driver okozta. En cisszaraktam a szeptemberit rogton es vartam amig kijavitjak. Meg esik az ilyen. Az AMD az egyetlen ceg amelynek Intellel es nVidiaval is kell versenyeznie. Az nV kb simat megteheti h eltapsolc2 milliardot egy architekturara de az AMD nem. Az RDNA es a 7 nm, valamint az RDNA2 es 7nm+ lehetove teszi nekik, hogy vissza vagjanak. Amugy csak a GTX 1000 es a RTX szeriaval nem veszik fel a versenyt csucs kartyaban. Mindenki elfelejti a HD 5970-et. A R9 290X-et meg a FURY X-et. Akkoeiban a 980 Ti gyorssabb volt kb 10%-al. Ra 2 evre a Fury X gyorsabb lett. A 2080S amit vettél nyilvan neked megerte. De kb plusz 20% gyorsulasert rafizettel 35% felarat.
0
0
0
0
redbull6969 avatar
@Quadgame94: AZ nvidia is átál a 7nm re az AMD soha nem lesz jobb mint az nvidia, az intelt lehet lehadja de intel is hamar válaszolni fog
0
0
0
0
Quadgame94 avatar
@redbull6969: Intel majd 2022-ben fog. Addig nem. És nem mondtam olyat h lenyomja őket. A 7nm meg az nVidiának telnesen új. Az AMD-nek sokkal nagyobb tapasztalata van ezzel a tgyártás technológiával. Plusz az Ampere csak egy megemelt órajelű Turing lesz. Nem válthatnak radikálisan mert sok befektető most kezdte még csak a Turingot használni. Szerintem fej-fej mellett lesznek. Lehet 3080 Ti nyer majd. De az ár sokat szamít majd. Lehet 10% gyorsabb lesz de kb. 30% drágább. Majd meglatjuk.
0
0
0
0
redbull6969 avatar
@Quadgame94: talán ha közel lenne a amd az nvidia hoz akkor csökene a piac ár és mi vásárlok jol járnánk nem bánám remélem az amd sokat javul vga szinten is
0
0
0
0
xCube avatar
Kíváncsi leszek, hogy az AMD milyen módon implementálja a RT -et.
0
0
0
0
💬 6
istvanszabo890629 avatar
@xCube: Semmi különösre nem kell számítani, mert a raytracing nem igényel külön hardvert. A raytracing egy 30, sőt majdnem 40 éves technológia, csak eddig nem vagy korlátozottan tudtuk használni ilyen eszközön. Anno a Crysis 2-be is be volt építve lokális tükröződésekhez. De az is megeshet egy külön számítási egységet be fognak direkt erre a célra, majd meglátjuk.
0
0
0
0
xCube avatar
@istvanszabo890629: Egészen jól tudom, hogy mi a ray tracing és mióta létezik, a kilencvenes években találkoztam vele először a 3DStudio Max -ban. Most jutottunk el viszont először oda, hogy real time is használható bizonyos szinten. A mondatom arra vonatkozik, hogy kíváncsi leszek az AMD implementációjára. Lesznek-e beépített fix DXR kompatibilis számolók, vagy a shader tömbökön akarják lefuttatni. Annak idején már emulálták a textúra szűrést, így nem elképzelhetetlen az utóbbi sem. A kérdés az, hogy milyen hatékonysággal működik.
0
0
0
0
istvanszabo890629 avatar
@xCube: Először én annak örülnék, ha az AMD a meghajtóprogramjaival nem töketlenkedne, végre egyszer és mindenkorra megoldaná ezt áldatlan helyzetet, mert ez az 5xxx sorozat egész jó lett.
0
0
0
0
PotykaPal avatar
@xCube: Szerintem mindenféleképpen lesznek elkülönített RT-re kitalált számoló egységek. Ahogy az RTX szériában vannak a rasztericálásra specializálódott, úgymond "hagyományos" számoló egységek és RT egységek, amik kifejezetten a sugárkövetére specializálódtak. Nem mondom, hogy lehetetlen, de egyelőre úgy gondolom AMDék is külön erre specializálódott egységeket fognak a GPU-ikba helyezni, mert egyelőre így "egyszerűbb". Annak idején mikor kijött az nVidia 8800GTX az volt a nagy áttörés, hogy egybegyúrták a Pixel és Vertex shader egységeket, úgynevezet unifided shader egységeket létrehozva. De ez még nagyon a jövő, mikor először megjelent a pixel shader, talán az nVidia GeForce 3-ban még a DX 8.0 korszak körül (Morrowind víz). Akkor külön pixel shader és külön vertex shader egységek voltak, talán 4 pixel shader és 2 vertex shader. 5 évet kellett várni 2001. és 2006. között mire az nVidia kijött az egyesített shader számlálókkal. És a mai tendenciát nézve nem olyan gyorsan halad a technológia a konzol piac nagy részesedése miatt. Szóval Summa Summarum, egyelőre szerintem a Radeonok is külön RT egységeket kapnak.
0
0
0
0
xCube avatar
@PotykaPal: Ne vedd szívedre a kukacoskodásomat, de itt - ott tennék néhány megjegyzést.

Az nvidia és az AMD "shader" egységei nem raszterizálásra készültek, ezek általános számolók, csak nem a ray tracing szükségleteihez igazítva. Maga a raszterizálás a ROP blokkokon keresztül történik és ez meg is fog maradni a jövőben, mert egyelőre teljes RT megjelenítést nem fogunk látni. A most elérhető megoldások is csak hibrid leképezők vagy path tracing leképezők.

A unified shader architecture nem az nvidia találmánya, az AMD az XBox 360 GPU -ját már ilyen elven építette fel. Egy streaming multiprocessor nem volt egyenértékű egy pixel és egy vertex futószalag együttes teljesítményével, a lényeg az volt, hogy ezeken a számolókon egyszerre lehetett futtatni mindkét shader kódot az ütemezőn keresztül és megszűnt a megkötés a pixel és vertex shader arányai között, mivel ezek innentől virtualizálva futottak. Ez hívta életre a geometry shadert, ami mondhatni a két dolog együttes alkalmazása.

A konzolok visszafogó ereje inkább a hetedik generációban volt borzasztó erős, de nem szabad elfelejteni, hogy éppen ez a generáció teljesített ki egy csomó játékstílust és engedett utat az indie fejlesztőknek. Öröm az ürömben.
A mai nyolcadik generáció, főleg a generáción belüli fejlesztett modelleknek köszönhetően nem igazán fékezi a PC -t. A hardvervilág fejlődése eleve lelassult a gyártástechnológiai fejlesztés korlátai miatt és tíz éven belül elérjük azt a határt, ahonnan már nem nagyon tudunk lejjebb menni csíkszélességben.
Annak idején maga a működő konzumer 3D gyorsítás megjelenése volt (Voodoo 1996) a "csoda", és az első GeForce 256 kártya megjelenéséig (1999 DX7) csak a sebesség és a textúrázók száma változott. A GeForce behozta a T&L támogatást, ami masszív javulást eredményezett a megvilágításban, de újabb két évnek kellett eltelnie az első pixelárnyalók megjelenéséig (GeForce 3 2001 DX8). Innentől felépítésben nem történt olyan nagy változtatás az említett unified felépítés megjelenéséig, ami sokat számított, az a DirectX 9 (első sorban a DX9c). Itt jelentek meg olyan shaderek, amik valósághű megjelenítést tettek lehetővé. Igazság szerint az első unified GPU -k nem is voltak ilyen szempontból kihasználva, mivel a rendering pipeline DX9 -ben fixen be volt állítva pixel és vertex shaderek tekintetében és a G80 / G9x GPU -k jobban is szerepeltek ez alatt az API alatt. A DX9 után az első igazán jelentőségteljes változás a DX12 volt, a DX11 sok effektet hozott, de ezeket alig használták ki, mivel sok volt az API overhead. És ha ilyen szempontból nézzük a dolgot, akkor a G80 óta az első jelentőségteljes újítás a RT egységek bevezetése, holott a játékok grafikája azért a 8. konzolgeneráció megjelenésével ugrásszerűen javult, mostanra igazából tradicionális raszteres megjelenítésben is szinte fotórealisztikus.
0
0
0
0
SuperPuma avatar
@xCube: Végén elkezdenek külön gyorsítókártyákat gyártani hozzá, mint anno az Ageia féle PhysX
0
0
0
0
TheXperia1 avatar
Ha valami ***a kis vga lenne a GTX1070Ti menne a kukába.
0
0
0
0
odinx avatar
Kíváncsian várom milyen kártyával rukkolnak elő. Hajrá AMD.😀
0
0
0
0
gaborw avatar
Még a végén lesz mire lecserélnem a Vega VII-et, garancia lejàrta előtt fél évvel. Bàr "fàjó" szívvel teszem majd, mert 1440p 144Hz-es monitorhoz tökéletes, soha semmi driveres gondom nem volt vele. Bàr amikor 5700XT volt nàlam 2 hétig, az is probléma mentes volt. Pedig 10-15 jàtékkal kipróbáltam. Jó lesz, kicsit a felső kategóriàra is koncentràlnak végre.
0
0
0
0
💬 3
xCube avatar
@gaborw:
Még a végén lesz mire lecserélnem a Vega VII-et, garancia lejàrta előtt fél évvel. Bàr "fàjó" szívvel teszem majd, mert 1440p 144Hz-es monitorhoz tökéletes


Akkor ne cseréld le 😃 .
0
0
0
0
gaborw avatar
@xCube: Nàlam még soha nem vàrta meg, kàrtya a garancia idő végét. Előtte mindig lecserélem. 20-30% teljesítmény többlettel természetesen. Garanciàval jobb eladni szàmomra és a vevőnek is.
0
0
0
0
Memento Mori avatar
@gaborw: Korrekt hozzáállás! 😎
0
0
0
0


Elfelejtett jelszóRegisztráció