Az AMD bejelentette az RX Vega 64 és 56 videokártyákat

Szerző: xoki | 2017. July 31. | hír | 51 hozzászólás

A SIGGRAPH-on az AMD leleplezte a végső információkat két kiemelkedő hardveréről. Az első a Ryzen Threadripper volt, most pedig a Vega 10-ről olvashattok.

A játékosok tűkön ülve vártak már az AMD Vega architektúrájára. A mainstream Polaris 2016 júniusi debütálása óta vártak egy új termékre, amely leváltja az R9 Fury X-et. Megérkeztek az első információk a Vega architektúráról, de semmi konkrétumot nem lehetett tudni egészen mostanáig, ugyanis az AMD Vega kártyái hamarosan megjelennek, és a cég részletes információval szolgált a termékeiről.

A Vega 10 egy nagy előrelépés lesz a cég számára. A Vega ugyanannyi stream processzorral rendelkezik, mint a Fiji, viszont sokkal nagyobb az órajele. Ha ezen kívül más nem változott volna, akkor a Vega 10 50%-kal lenne gyorsabb, de itt többről van szó, mint egyszerű órajel növelésről.
Az AMD sok időt belefektetett a HBCC (High-Bandwidth Cache Controller – nagy sávszélességű gyorsítótár vezérlő-be), ezzel optimalizálva a memória elérést. A kártyák 8 GB HBM2 memóriával rendelkeznek.

Az árazás első ránézésre elég jónak tűnik. Az RX Vega 64 kezdő ára 499 dollár, amely a levegőhűtéses videokártya ára, extrák nélkül, de folyadékhűtéssel rendelkező verzió is várható. A valamivel gyengébb RX Vega 56 pedig 399 dollárért lesz beszerezhető, amely nem sokkal marad le a 499 dolláros társától. Egy negyedik verzió is várható az év későbbi szakaszában.

Részletes elemzés itt található:
Link
Link

Hozzászólások: 51
Hozzászólás küldéséhez be kell jelentkezni.
Puffin avatar
[url]http://www.guru3d.com/articles-pages/amd-radeon-rx-vega-64-8gb-review,1.html[/url]
0
0
0
0
B0untY avatar
gtx 960 alatt van driver 😃DDD. Sokkal jóbb a 8 mint 10 😃 Legalábbis nálam!
0
0
0
0
DDarkness avatar
Ha ez tényleg shader model 6.0-ás lesz szerintem más, mostanában megjelent kártya is meg fogja kapni vagy driver formájában vagy bios update formájában, mint anno az R9 270 em dx 11.2-ról dx12-es lett egy újabb driver miatt. Ezzel sem lesz másképp szerintem.
0
0
0
0
💬 1
MaximumGame avatar
@DDarkness: Teljesen mas generàcio.... Ezt nem lehet updatelni.. mar megtették volna!
0
0
0
0
MaximumGame avatar
Míg az nvidia es a csoda Titan XP meg a 1080TI csak shader 5.0 hasznal... Az uj amd mar sokkal élesebb keppel 6.0 shader-t fog hasznalni.. aki most venne vga at vagy varjon nvidiara jövőre.. vagy amd vesz 😀 regi shaderes kartyak jövőre senkinek nem kellenek majd.. 2003 ba jött a shader 3.0 utàna 2005 be 4.0 és 2007 be - 10eve volt shader 4.0 ról 5.0 ra a vàltàs *_* most eljött az idő ... DX12 töt nem tudjak kihasznalni 5.0ba... sokkal szebbek lesznek a jatekok is. Majd ha jönnek az ujabb gamek amit majd kihasznaljak az uj erőt akkor latszik majd az amd ereje 😀
0
0
0
0
💬 4
R3dLinE avatar
@MaximumGame: "Az uj amd mar sokkal élesebb keppel 6.0 shader-t fog hasznalni." "DX12 töt nem tudjak kihasznalni 5.0ba...sokkal szebbek lesznek a jatekok is." Ezeket honnan szeded? Nem kötekedésből, csak érdekelne a forrás.
0
0
0
0
MaximumGame avatar
@R3dLinE: Mert 2018 ba több jatek is fogja hasznalni es jön a Volta nvidia oldalon is 6.0 val 😀 kerlek szépen programozasi limitek vannak az 5.0 val 😉
0
0
0
0
R3dLinE avatar
@MaximumGame: A jelenlegi kártyák is 6.0-ásak.
0
0
0
0
NE0NFACE avatar
A liquid cooled verziót be lehet kötni egy garzon lakás fűtő rendszerébe is.
Alternatív fűtésként még állami támogatást is lehet rá igényelni.😆
0
0
0
0
TuskenRaider avatar
Ez a TDP tényleg sok a konkurenshez képest, de azért ne írjuk le ilyen gyorsan ezt a kártyát, lehet teljesítményben is tisztességes különbség lesz az Vega javára, várjuk csak meg a teszteket. 😀
0
0
0
0
Broly89 avatar
Kell a kutyának, ezek a mocskok... 😃
0
0
0
0
💬 3
hashimoto avatar
@Broly89: Köszönjük szíves megjelenésed, az nv segge elég fényes már. 😃
0
0
0
0
SuperPuma avatar
@hashimoto: Én 3Dfx párti vagyok 😊
https://shaman.uw.hu/articles/3dfx_voodoo2sli.jpg
0
0
0
0
Zoli869 avatar
@Broly89: Csinálj jobbat 😀 Hopp! Kopp!
0
0
0
0
no avatar
Kíváncsi leszek a teszteredményekre! 😃 GTX 1080-al elbírnak-e majd ?😃
0
0
0
0
💬 1
bukta2 avatar
@carl18: Ígérd meg ha elbírnak velük akkor veszel 1-et 😂😂
0
0
0
0
hackpet avatar
600 $ szép lenne, ha itthon lenne ez az ára 😃 na de a 435W TDP 😲
0
0
0
0
bukta2 avatar
Fuhh bazzzzzeg... ezek aztán a TDP-k 😲 😲
0
0
0
0
R3dLinE avatar
Ha az ártól eltekintek. GTX 1080 több, mint egy éves és 180W TDP, GTX 1080Ti 250W TDP, ez meg most jelenik meg, behozza több mint 1 év után az Nvidiát, 300-400W-os TDP-vel. Régen a GTX 480-as időkben pont ez miatt nem vettem Nvidiát. Most meg ez miatt nem kell az AMD. Vicc.
0
0
0
0
💬 24
no avatar
@R3dLinE: + support ezt lehagytad 😆
0
0
0
0
R3dLinE avatar
@LordSzalko: Már direkt nem írtam, mert úgyis letámadnak.
0
0
0
0
Puffin avatar
@R3dLinE: blablabla... a kibaxott Nvidia support miért nem tudja javítani évek óta, hogy működjön jópár szünetmentes gond nélkül amik UPSilon2000 progit használnak?
0
0
0
0
R3dLinE avatar
@Puffin: Miért az Nvidiának, vagy akár az AMD-nek kéne ezt javítani? Szünetmentes arra való ha elmegy az áram, átkapcsol akksira. Mi köze van ennek a vga driverhez?
0
0
0
0
hashimoto avatar
@R3dLinE: Mert ha összeakadnak a driverek, akkor az a dev-eknek kéne megoldani, nem?
Mi köze van ennek a vga driverhez?
Az, hogy a két driver összebalhézik.
0
0
0
0
R3dLinE avatar
@hashimoto: Az nem a vga gyártók baja...hanem a tápgyártóé. De egy táphoz drivert feltenni annyi értelme van, mint mondjuk egy monitorhoz. Jó oké felraktad, de minek. Mit jelez a töltést? A vga funkcionalitását nézve valahogyan kellene reagáljon arra, hogy mondjuk a táp átkapcsol akku módra? Nekem volt szünetmentes tápom, de nem éreztem értelmét drivert rakni fel hozzá. Pl. laptophoz sincs akku driver, Windows tökéletesen lekezeli.
0
0
0
0
hashimoto avatar
@R3dLinE: Biztosan meg van az oka, hogy ahhoz az UPS-hez drivert adtak ki. A VGA gyártó baja is, mert úgy kéne megírni egy programot, hogy a lehető legtöbb ütközést elkerüljék.

A BKK programozói közt az nvidia is szerepeltethetné a fejlesztőit. 😆
0
0
0
0
R3dLinE avatar
@hashimoto: De ha a vga funkcionalitását nézve nem kell reagáljon arra, hogy a táp átkapcsol akku módra, akkor milyen összeakadásról beszélünk? Minek kellene másképp működnie? Nem kötekedésből, csak érdekel. 😀
0
0
0
0
hashimoto avatar
@R3dLinE: Én sem tudom, nem én írom a drivereket. Valami memóriacímzési összeférhetetlenség, vagy egyéb állhat a háttérben.
0
0
0
0
Puffin avatar
@R3dLinE: Pl hogy a windows ki tudja írni hogy hány százalékon van az akku meg ilyenek. Egyszerűen nem is látja, így még azt sem lehet beállítani hogy mondjuk 20%-nál kikapcsoljon a gép, ha nem vagyok ott.
Ha pedig felteszem a programot akkor letiltja a videókártyát...
0
0
0
0
no avatar
@R3dLinE: Letámadnak ezek amúgy is, nem bírnak a vérükkel.
0
0
0
0
R3dLinE avatar
@LordSzalko: LordSzalko: Látod 😃

Puffin23: Akkor ez elsősorban a tápgyártó feladata, és csak másodsorban a vga gyártóé.
0
0
0
0
Puffin avatar
@R3dLinE: AMD-nél nem volt gond vele. Na mindegy.
0
0
0
0
NSD4rKn3SS avatar
@R3dLinE: Nem kötekedésből, de attól még hogy a gyártó eredetileg 180W TDP-s kártyát dobott ki a piacra az nem feltétlenül marad annyi ha a partnerei gyárilag túlhúzzák a kártyát. A legtöbb OCs 1080 bő meghaladja a 200W-ot és akkor még te nem húztál rajta otthon. Terhelés alatt meg bőven megeszi az is a 300W-ot.

Ettől függetlenül szerintem is egy picit csalódás hogy ebből nem tudtak lefaragni egy kicsit.
0
0
0
0
R3dLinE avatar
@NSD4rKn3SS: Jó, csak ezek húzás nélkül ennyik. Mi történik ha még ezt meghúzod? 500W? Aztán visító akár nem referenciahűtő? Meg 95C?
0
0
0
0
NSD4rKn3SS avatar
@R3dLinE: Ömm, de ez is húzással ennyi, az a különbség hogy ezt nem az ASUS, MSI stb. húzta, hanem egyből az AMD ad ki 3 verziót: alap, OC és extrém OC. Fassságot írtam: butított, alap, OC.
Itt inkább az a kérdés, hogy ezen felül van-e még benne craft vagy ennyi és netovább.

A hőmérséklet meg értelem szerűen felkúszik mindkét gyártónál ~80°C körülig simán ha ekkora mértékű túlhúzásról van szó. Persze ez sok mindentől függ, valakinél több, valakinél kevesebb.
0
0
0
0
R3dLinE avatar
@NSD4rKn3SS: Nekem Asus 1080Ti Strix 65 nagyon max 70C, úgy hogy 2+Ghz-en megy a kártya. Nekem ennek a folyadékhűtéses Vega kártyának olyan szaga van, mintha az nvidiának az lenne a 1080Ti, hogy az 1080-at meghúzza gyárilag, és nem léghűtést tesz rá. Elhiszem, nem futotta nekik többre, de ez nálam gáz, legyen bármennyivel is olcsóbb.

HD 5870-től R9 290-ig AMD-t használtam vga-ként, HD 7970-ig jók is voltak. De az R9 290 már borzalmas volt, pedig 2 is volt belőle. Tehát ha azt kéne mondanom, hogy HD 7970 vagy GTX 680, akkor HD 7970. De R9 290 vagy GTX 780, akkor GTX 780. Nem vagyok elvakult egyik irányba sem, se semmilyen gyártó felé, csak a tényeket nézem.
0
0
0
0
NSD4rKn3SS avatar
@R3dLinE: Az "ekkora mértékű túlhúzás" alatt nem az órajel nagyságát értettem, hanem az abból adódó magasabb áramfelvétel mennyiségét. Ugyanis az áram többlettel nő a hő termelés is.
Az látszik hogy nem egy OC bajnok a Vega, és nem szégyenl fel venni több áramot, ellenben a 1080 sokkal jobban viseli a dolgot.

Nekem meg RX480-am van és 1.45Ghz-en megy jelenleg, nem tudom 60°C-nál jobban megizzasztani pedig nem keveset húztam rajta.

Spoiler!

Előtte meg HD7850-em volt, ami egy GTX650-et váltott ami az utolsó Nv kártyám volt, előtte egészen az MX440 megjelenése óta csak Nv-t használtam de megelégeltem a sok bloatware-t ami a cég fejlődése alatt felhalmozódott és az évenkénti kártya váltást mert idő előtt megdöglött valami (kimenet, cooler, elfüstölt, memó hiba stb...) vagy csak szimplán beesett a teljesítménye érthetetlen okokból...
Voltak jobb meg rosszabb szériák mindkét gyártónál. Volt jó Nv kártyám is amit imádtam, de volt olyan is ami elérte hogy váltsak.
0
0
0
0
Vigilante avatar
@NSD4rKn3SS: 300 Wattot max 8+8 pines tápcsatival ellátott 1080 eszik meg, ha szénné van húzva értelmetlenül sok feszültséggel. Akinek van egy kis esze, az alapfesz, vagy akár még annál kevesebbel (úgy húztam én is pl az 1080 Ti-met), kihozza a maximumot a VGA-jából. Nagyobb órajel kevesebb fesz.
0
0
0
0
NSD4rKn3SS avatar
@Vigilante: [LINK]

Itt egy teszt a fogyasztásról. Sima 1080 Founders Ed. Crysis 3 alatt 335W-ot eszik.
Tudom hogy lehet belőle lefaragni így-úgy, nem arról van szó, csak rá akartam mutatni hogy attól hogy a gyártó rávés egy átlag TDP-t a kártyájára attól az még nem szentírás.
0
0
0
0
R3dLinE avatar
@NSD4rKn3SS: De ez a Teljes rendszer fogyasztása 😃

[LINK]
0
0
0
0
NSD4rKn3SS avatar
@R3dLinE: 😆 Nem tudok ma olvasni... jogos.

[LINK]
Viszont akkor itt egy másik 😃 ez már tényleg magát a kártyát mutatja, igaz már szintetikus teszt alatt 304W FurMarkban.
0
0
0
0
R3dLinE avatar
@NSD4rKn3SS: Ez az előző oldalról amit küldtél:
[LINK]

Ez meg a második linkről:
"I launched FurMark in stress test mode in 1024×768 and after 5 minutes, the GPU temperature reached 75°C while the total power consumption was 304W.

A rough approximation of the Strix GTX 1080 power consumption is (the power consumption of the CPU is around 20W): (304-44-20) * 0.9 = 216W"
0
0
0
0
Viktorinho avatar
https://www.alza.sk/amd-vega-graficke-karty/18862222.htm ...itt cseppet mások az árak 😃
0
0
0
0
💬 3
Mesterlovesz avatar
@Viktorinho: az a frontier edition, nem a játékos GPU
0
0
0
0
Viktorinho avatar
@Mesterlovesz: Elég csak összehasonlítani az adatokat,és látod,hogy ugyanazokról a kártyákról szól. Köszönjük a minereknek ,hogy felnyomatják az árakat 😃
0
0
0
0
Puffin avatar
@Viktorinho: Az eléggé csúfos... 😆
Az nem a Frontier... 😃
0
0
0
0
Puffin avatar
1080-at cserélném Vega GPU-ra! 😃
0
0
0
0
Wihay avatar
Király. Nah majd valamikor .. 😃
0
0
0
0


Elfelejtett jelszóRegisztráció