Game Ready for Watch Dogs: Legion
This new Game Ready Driver provides support for Watch Dogs: Legion. In addition, this driver provides optimal day-1 support for DiRT 5, Ghostrunner, Need for Speed: Hot Pursuit Remastered, and Xuan-Yuan Sword VII.
Gaming Technology
Includes support for the GeForce RTX 3070 GPU
Nahat micsoda meglepetes... probaltam lecsapni egy 3070-re de a bolt szervere ahol aruljak a founders edition kartyakat egybol lehalt 😶
Update: 20perc vonaglás után sikerült betenni a kosárba, kicsekkolásnál viszont kidobott a szerver. Utána meg out of stock. Remélem az AMD launch egy fokkal jobb lesz,mert ez kabaré.
@BenjaminHun: 469£ lett volna. De szerintem ugyanaz a szitu mint a 3080-90-el. Egyszeruen nincs eleg, kiszortak par darabot es csa. ez iden mar tuti nem lesz megoldva.
@BenjaminHun: Igazabol annyit kernek el amennyit akarnak... ebayen is besza*as mennyit kepesek egyesek kiadni erte, sokszor a duplajaert mennek... meg mindig olcsobb, mint egy 2080ti, de azert ez undorito.
@LordSzalko: Nekem kivetelesen tetszik az FE. Jo alap orajelek, jol huzhato es a hutese is kivalo... (meg igazabol ez volt most kaphato, masik kartyak meg nincsenek is lathataron...)
@Bronson: Értem, mondtam volna a TUF-ot mert az lényegesen jobb hűtéssel bír és nincs egekben az ára. De látom feljebb egész jó áron akartad behúzni az FE-t.
@LordSzalko: Az a hivatalos MSRP, szoval boven megerte volna... de szerintem az AMD kartyak ekrezesig ugyse fog javulni a helyzet, szoval lehet jobb is ha varok...
Hat ez hihetetlen mit guritott az AMD! 😲 ezt egyaltalan nem vartam, azt hittem majd a felso kategoriaban befogjak esetleg a 2080ti-t, erre a 3090 ellenfelevel jonnek ki?? Eszem megall...
Spoiler!
Mielott valaki leszolna, persze, megvarom a teszteket, de ez tortenelmi pillanat, a GTX680 idok ota nem volt high end ellenfele az nvidianak
Szerintem a 3080 lesz a legrövidebb ideig birtokolt kártyám az eddigiek közül, ha befutnak a külsős tesztek és ugyan ezt a különbséget hozza a 6900XT és akkor a későbbi driver boostról még nem mondtam semmit, akkor gyakorlatilag egy jót kerestem a kártyán 😆
@LordSzalko: Nekem a 6800 Xt lesz méltó utódja a 1080 Ti-omnak 😃.
1440p-re feleslegesnek tartom magam felől a 6900 XT-t, de a 6800 XT ereje nagyon csábító 😃 . Bízom benne, hogy ezúttal a tesztek nem parasztvakítások, dehát előbb-utóbb úgyis kibújik a szög a zsákból. 😉
@V1VOnX: Helyes, csak hozzák a bejelentésen mutatott értékeket. Remélem nem lesz olyan kamu mint a jelenlegi NV, az szépet koppant. Viszont jó lenne, ha hasonlóan pacek hűtést kapnának ezek a kártyák is mint a jelenlegi 30-as széria, mármint custom tekintetben.
Uhh... Na ez durva volt. Összefoglalva:
- RX 6800 579 USD 15%-al lesz gyorsabb, mint a 3070, ami 499 USD.
- RX 6800 XT 649 USD = RTX 3080 699 USD
- RX 6900 XT 999 USD, valamivel gyorsabb mint a 3090 (1499 USD), de 1440p-ben sokkal gyorsabb.
Ja és ami a legfontosabb. Ezeket meg is lehet majd venni.
Kint vannak a 3070 tesztjei. Igazából semmi váratlan. Hozza a 2080 Ti teljesítményét. De! A DLSS és RT teljesítmény is ugyan az mint a 2080 Ti. Tekintettel, hogy új architektúra és next-gen rt magok es tensor magok vannak benne ez eléggé csalódás. Persze 500 dollárért ez kivaló ajanlat, lenne, ha kapható lenne a kártya.
@Quadgame94: Csak az a baj hogy ugyanolyan katasztrofa lesz, mint az elozo ket megjelenes... erre garantalom hogy meg tobben kivancsiak lesznek es nem lesz keszlet ebbol sem. Pedig erre beruhaznek, kihagytam a 20xx szeriat ugy ahogy van es most pont tokeletes lenne fejleszteni, de egyszeruen nem lehet kapni. Nevetseges. Ha az AMD nagyot gurit es kozel lesz a 3070/80 jo arban, lehet elgondolkozom hogy 6ev utan ujra AMD kartyam legyen...
@Bronson: Persze hogy nem.lesz kaphstó. Az AMD pedig szinte biztos, hogy 3080 környékét elkapja, mar csak az árazás lesz a kérdés. Plusz azokst meg is veheted majd bármikor.
Na 48 órán belül LIsa Su Felfedi az új kártyákat, micsoda harci kapacitása lehet az új jövevényeknek.
Lesz állitólag 6800XT aminek a porontya egy 6700 lehet, az a 6700 lefial maga alé még egy 6600-at a 6600-ba még rugnak egyet és lehet belőle 6500. A 6500-at még lehuzgálják és valami mini kis genyo szilicium darabka marad, ami jó lesz 6400-6300-nak. Szóval biztos lefedik a piacot, de lehet minden-nek az alja a RX 6500 lesz.
Kiváncsian várom az új harci erőket, lassan csere érett lesz a RX 570 és várja a méltó utodját. 2021-ban jöhet a kártya csere 1680X1050 felbontás kéri is a megemelkedett harci erőt. 😃
Moore's Law is Dead leak-je szerint következő hónapban 300 ezer db 3080 lapka fog érkezni és 30 ezer 3090. Csak összehasinlítaskeppen eddig a 3080-ból becslések szerinr 50 ezer db ment el. Szóval nagyobb készlet jön. 3070-ből pedig rengeteg jelenik meg, feltehetőler 2x annyi mint a 3080-ból.
20 GB változat: Lesz, decemberben.
@Quadgame94: Akkor úgy látszik jót mindenkinek kártya! 😃 Vagy lehet letolvak már gyártva, csak nem akarták rögtön megjelenés után piacra dobni. Igy verték fel az árakat, azért 300E kártyát nem gyártanak le 1 hónap alatt szerintem.
@carl18x: Nehogy azt hidd. Ezek mind ugy elfogynak mint allat, mert minden oldalon lassan ott a pre order lehetoseg. Emberek tobb 10 ezres online sorokban allnak. Valoszinu aki nem rendelt elo az varhat jovo evig siman.
@vyne: Igen, igazából ő is ezt írta amit te, hogy emiatt/ezzel nyomták fel az árakat. 😃
Valószínű olyan csúsztatással mondták hogy nincs elég készlet, hogy pl ott volt az a 300 ezer, de nem volt rendesen becsomagolva a lapka/1-2 kisebb alkatrész/csavar hiányzott belőle, vagy valami hasonló.
Aztán a nagy kereslet után ezzel a csúsztatással feljebb tudják majd tolni az árakat, és igazából a papíron még nem volt ténylegesen legyártva.
@carl18x: 2.33x gyorsulás a 6900 XT vs. 5700 XT? Azért az hatalmas lenne. Fura lenne Super meg Ti egyszerre a piacon ugyan abból a kártyából. Meg sztem sem lesz ennyi kártya főleg megjelenéskor... 6 db kártya (6700/XT, 6800/XT, 6900/XT) nem fog megjelenni most, max márciusig.
@carl18x: le is fosnám a bokámt ha ez igaz lenne... 😃 középkategóriából egyből az élre?... elég hihetetlen 😃 de úgy legyen! meg a 3600 legyen elég a 6900-hoz és jó barátok leszünk 😃
@carl18x: Mondjuk ilyen grafikont én is összedobok... 😆
Honnan vették ezeket? 3070Ti, 3060Ti??? Még a sima sem jelent meg... 😆
Remélem ütős kártyákkal jön az AMD, de azért ne dőljünk be minden xarnak.
@Puffin: Hát azért megjelenés előtt vagyunk pár héttel, és igy nem tudom mi van de majd dobnak valamit a néppnek. MInt a kutyának a csontot szokás 😃 Szocializmus van, és ott nem szoktam gyenge vágkat legyártani. VG Rullez 😃
Éljen a 80-as évek, mikor még voltak jó zenék a rádióba 😃
Úgy látszik az Nvidia új, nagyobb teljesítményű GPU-t is tervez, amely a GA103 kódnevet visel, és következő év első felében kerül a piacra. Gyártók panaszkodnak hogy nagyon sokat fogyaszt, és magasak az előállitási költségek.
Igen komoly költséget emészt fel a megfelelő komponensekkel rendelkező áramköri lap.
Kevesebb feldolgozó egységgel jöhet, viszont magasabb lehet az órajel és a RTX 3080 szintjére fog jönni.
Max 300 wattos fogyasztással, ami jól jöhet azoknak az embereknek akik nem akarnak tápot cserélni.
RTX 3090 meg maradhat a csúcs, az drága igy azon nem is akarnak sporolni 😃
Ki gondolta volna hogy ilyen rövid életü darab lesz a jelenlegi 3080? 😃
NV eltolta a 3070-et 2 héttel! [url]https://www.nvidia.com/en-us/geforce/news/geforce-rtx-3070-available-october-29/?ncid=afm-chs-44270&ranMID=44270&ranEAID=kXQk6*ivFEQ&ranSiteID=kXQk6.ivFEQ-SHBnqY.Pt5wlMgr5N8.Ekw&ncid=afm-chs-44270&ranMID=44270&ranEAID=TnL5HPStwNw&ranSiteID=TnL5HPStwNw-KOZzAgQf2A.AVxNQ.DG0qg[/url]
Amúgy ez alapján a 3070 gyengébb lesz nem is kevéssel mint a 2080 Ti. Konkrétan nem mernek játék benchmarkot mutatni. Ahol meg igen ott épphogy nyer...
@MentaStrike: Akkor minek adták ki a 3080-at? Launchkor 20 ezer alatt volt a példányszám az egész világon... 3090 meg kb. 5 ezer. A 3070 pont egy nappal fog az AMD bejelntése után megjelenni... Az úgy érdekes lesz. 😃
@LordSzalko: Eddig se voltak kepesek megtörni. Teljesitmenyben meg csalodni fogmak mert nem eri majd el a 2080 Ti-t ez 100%. Sztem meg 10%-al is lassabb lesz. Ami kiraly, de megint kijön hogy kamuzik az NV. Azt a 2 hetet meg már sokan meg fogják várni a Radeonok miatt.
@Quadgame94: Megtörték bőven, max nem nálad (eleve nincs is mit megtörni mert nincsenek tényleges kártyáik). Itt már nem a teljesítményen van a hangsúly, hanem hogy egymásra rakják a release-t marketing okokból, szoftveresen meg úgy is butítani fogják az előző szériát, hogy szebbnek hasson a történet.
AMD sem teljesen biztos, hogy olyan erős szériával jön ami a felsőházat megfogja, ez csak bejelentéskor vagy inkább teszteknél fog kiderülni, addig megint csak a önjelölt jósok próbálkoznak, hogy mennyi lesz az annyi. Papíron minden szépnek tűnik.
@LordSzalko: Eleve az NV-nek sincsenek kártyái, mivel nem kapható egyik eddig megjelent kártya sem, plusz amit beigertek sem igazán valósult meg (3080 2x gyorsabb mint a 2080, inkább 1.6x). De persze igazad van, ez az egész majd csak akkor fog kiderülni ha az AMD kártxai is megjelennek. Hype jöhet mehet, de nem az első hetek döntenek. Kívancsi leszek mondjuk 4 hónap múlva visszatekintünk mik válltak be és mi volt bullshit. Mindkét oldalról lesz nem kevés mindkettőből.
@Quadgame94: AMD bejelentést én is várom, bár talán a CPU felhozatal jobban érdekel. Ettől függetlenül a kártyák is érdekesek lehetnek, remélem kapunk ténylegesen ütős kártyát a felsőházba is, vagy akár erősebbet és akkor valószínűleg a csere is játszik nálam 3080-ról, amiért előreláthatólag jövő héten mehetek is. Aztán lehet nem lesz meg sokáig, majd eldől 😆
@LordSzalko: Lecserélnéd mondjuk egy 6900 XT-re? Sztem épphogy jobb lesz mint a 3080, annyi hogy 16 GB vramja lesz. Árban nem hiszem h $699-nél olcsóbb lesz.
@Quadgame94: Hát majd kiderül, ha erősebb lenne ugyan olyan áron akkor valószínűleg igen (nyilván ehhez többre lenne szükség mint 2-3%). Csak az is majd ki tudja mikor jön, mindenesetre addig a 80-as kártyát behúzom biztos ami biztos alapon.
@LordSzalko: 3080 a legjobb kártya szerintem a 30 szériából. 3070 35%-al gyengébb lesz 40%-al kevesebb áron... 100% hogy jön 3070 Ti/Super. Vagy amit már sokan pletykálnak, hogy nem lesz itt 3080 Ti meg 3070 Ti, hanem mint a Fermit kb 8 hónap után frissítik...
@Quadgame94: Én sem látok más értelmes modellt egyenlőre ebből a szériából (3D modellezésre nyilván jó deal a 90-es kártya is, pláne a Titan RTX-hez viszonyítva), a legtöbb másik kártyát nagy eséllyel meg fogja enni az új RX széria.
Sziasztok! Arról lenne szó,hogy inkább Nvidia vagy AMD kártyát éri meg használtan ugyanabban az árkategóriában venni? Ugyanis nekem ajánlottak itt a fórumon,egy kártyát,de az AMD. Semmi bajom nincs az AMD-vel csak kérdezem,hogy rosszabb-e vagy jobb szerintetek? Kérlek ne legyen ebből vita... hogy miért AMD? meg így nvidia,úgy... ez csak egy kérdés.
@Zsoltiv0: Igazság szerint mióta az Nvidia bejelentette az új kártyáit, azóta egyik kártya se éri meg az árát.
RTX 3070 500 dolcsiért hozz kb 2080Ti teljesítményt! 😀 Ha mindenkép kártyák akarsz inkább várj, 1 hónap múlva jelenti be az AMD az új kártyáit. + Nvida is hozhatja a RTX 3060-at stb.
Nekem az elmúlt években volt mind két gyárótól számos kártyám, egyikkel se volt semmi gondom! 😀
Inkább a teljesítménye számit a kártyának.
HD 2400 Pro-8500GT-8600GT-GT440-HD7770-GTS-450-GTX 660TI-HD 7790-GTX 1050-RX 570
Ja én is igy állok hozzá, még ha használt akkor is legyen rá minimum 1 év bolti garancia. Sajnos garancia nélkül valóban orosz roulet kártyát venni 😃
Mert én is látom sokszor a gari nélküli 25E forintos RX 570-et, de azt ki veszi meg?
Sajnos nem tudni semmit az elő életéről.... 😃 Amik olcsón mennek, azok nagy része biztos gyorsan kihal.
Az enyémre még van több mint 2 év garancia 😃 Nincs mitől tartani, talán a jó kérdés 1-2 év múlva mire lesz elég ? 😃
@carl18x: Én vettem egy GTX 970-est, döglött volt, egy hozzáértőnek odaadtam, voilá, mai napig megy, és ennek lassan 2 éve. Új hűtést kapott, mert a gyári egy műanyag darab volt viccen kívül
@Zsoltiv0: Attól függ milyen kártyákról van szó. 30 ezer alatt 470 vagy 570. Ez felett 580, vagy 1060 6 GB mondjuk 50 ezerig. Aztán 1070, esetleg jó hűtésű VEGA 56. Ez felett (75 ezer) kevés a nagyon jó ajánlat használtan.
Ha az NV nem járta volna túl sokáig a hattyú táncot a TSMC és a Samsung között, mondván a TSMC 7nm node-ja drágább, akkor most biztosan sokkal jobb teljesítményt látnánk a 3080-tól és, főleg a 3090-től. Az A100-s gyorsító a TSMC 7 nm nodejara épül es látszik hogy ég és főld az differencia.
Samsung 8 nm (10 nm LPP): Maga a kihozatal alapból sokkal gyengébb, az emelt órajeleket beáldozták a magok növelésére, mert a node képtelen magas órajeleket produkálni. Nem véletlen az az 1.7 GHz boost amit az NV megadott. 3080 kártyák 2 GHz alatt járnak nem sokkal, ha ideálisak a hőmérsékletek. Ez 0 előre lépés a 12/16 nm node-hoz képest.
Megoldás: Duplázzuk a magok FP32 teljesítményét, ha már órajelet nem emelhetünk. A Pascal SM-jeiben lévő magok külön kezelték az FP32 és INT32 utasítasokat, ez a Turingban némileg változott, így az összes tudott egyszerre működni párhuzamosan. A gond, hogy a játékoo az INT32 a műveletek 30%-át ha kiteszik. Namost az NV úgy döntött, mivel a az órajelek nem emelhetőek az FP32 teljesítmenyt kell növelni. A gond az, hogy ennyi "magot" azaz FP32 utasítast nem lehet lineárisan növelni a teljesítmény szempontjából (játékokban). Az RTX 3090-en 2.41x annyi mag van mint a 2080 Ti-on, mégis alig 1.41 szeres az előre lépés játékokban. Ez azt jelenti hogy azonos órajelen kb. 6136 magig képes némileg tökéletesen skálázodni, ugyanakkor más magokról van szó, de a lényeget ertitek.
Mi lett volna HA: Az ilyen fejlesztések jó előre meg vannak tervezve. Ergo az NV már idén ev elején látta, hogy az amit a GA100-al csinálnak nem lehetséges a Samu 8 nm nodeján. Mindig is jött vna 8 nm Ampere, de az NV tervei szerint csak 3070 vagy az alatti VGA-k épültek volna erre. Nem is értem, miért nem fizettek többet a jobb node-ért, mert ez visszafog még csapni.
A GA100, amely 7 nm-re épült - adatai:
- 826 mm2, 54.2 mrd tranzisztor
- 8192 CC, 512 TMU, 192 ROP
Ha a GA102 is 7nm-en lenne:
- ~530 mm2 (628 mm2 helyett),
- 35 mrd tranz. (28.3 helyett)
- 5376 CC (10752 helyett), 336 TMU, 112 ROP
- 2.25 GHz Boost (1.7 GHz helyett)
- 300 W TDP (350-390 W helyett)
A magok száma kevesebb, de sokkal magasabb órajelen járnának, így a teljesitmény lineáris(abb) lenne. Persze ennel tehetnek rá több magot is, hiszen a 530 mm2 es a 628 között van hely. 6144 CC-vel simán meglett vna az 1.6x előre lépés az 1.41x helyett. De ez már sosem derül ki.
@Quadgame94: Végig olvastam, hát igen az Nvidia sokalta az árat a TSMC házánál igy ment a samsunghoz. Szerintem is nagyon elceszték ezt, mert a kártyák annyival esznek többet mint amennyivel erősebb a Touringtol. Jócskán 300 watt felett vannak, és a samsung 8 nanométere elég szépen korlátozta őket. De hát nekik olcsó gyártás kellet, tessék megkapták 😃
Az biztos a kalkulációd remek, sajnos tényleg kicsit csalodás ez a széria. Sokkal jobbak lettek volna a kártyák ha fizettek volna többet a TSMC-nek.
Most viszont a rossz rajtal, készlethiány miatt szinte tálcán kinálják a piacot a Big navinak.
Úgy látszik az AMD piszok mázlista, az intel tökölése után az nvidia is elkezdett bohockodni.
Még egy ilyen lehetősége nem lesz az AMD-nek szóval most kell teritenie a piacot! 😀
Mondjuk az AMD-nek volt esze és maradt a 7nm TSMC-nél már alapból itt egy hatalmas elönyük van.
@Quadgame94: Amúgy elég lett volna a csúcskártyákat TSMC mellet gyártani, olcsóbb RTX 3050-3060 jöhetett volna Samu 8nm mellet. Azért 60 dolcsi nem kevés, de nyilván sokkal erősebb és energia takarékosabb kártyát dobtak volna vele piacra.
Hát ez már az ő bajuk, akkár hogy is vissza nem lehet forgatni.
Azt meglátjuk mit gurit az AMD A RDNA 2-vel 1 hónap múlva.
Úgy látszik az Nvidia hibába ütközött, egyfelől nagyon kevés van raktáron az új szériából. Más felől 2 ghz boost clock felett a peak fogyasztás miatt instabil a rendszer és újraindul. Ez még is csak rárak egy lapáttal a készlethiányra, szóval a Big Navi előtt ott lesz a terep hogy teritse a piacot. 😃
Úgy látszik az AMD megint piszok nagy szerencséje van, most az Nvidia rajtja is döglödik. Igy meg semmi és senki nem állhat az útjába 😃 Intel után remélhetőleg az Nvidiát is befogják, erre mondjuk elég nagy esélyt látok. Nem véletlen hogy az RTX 3000 széria fogyasztása is jelentősen emelkedett a 2XXX széria után.
@carl18x: Ezt az NV okozta saját magának. Nem volt hajlandó picivel többet fizetni a TSMC 7 nm nodejáért. Még kampányt is folytattak h jajj a Samu 8 nm rohadt olyan jó csakhogy a TSMC engedjen az árból. lol. Itt az eredménye. Ez az Ampere gyilkos lett vna 7 nm-en. Erről majd írok egy hosszabb iromanyt nemsokára.
Nem tudom mit hoz ki az AMD. Egyre több leak lesz, az SP számok most már adottak: 2560 SP, 3840 SP, 5120 SP. Órajel kérdéses, de sztem 2.1 es 2.4 GHz között lesz.
6700 XT: 2.3 GHz-en 2080 Supernél lenne, ha 7% IPC növekedéssel számolunk. 1.27x lenne gyorsabb mint az 5700 XT. De itt nem csak magok es órajel számít. ROP egységek, Textúrázók stb mind javulhatnak.
@Quadgame94: Ja persze az is hozzárak a TDP emelkedéshez hogy olcsóbb Samsungot választották, nyilván ha a TSMC mellet maradnak jelentősen más lett volna a TDP végeredménye. A TSMC amúgy nincs az Nvidiára szorulva, mert az AMD most is kihasználja a kapacitását.
Meg nem nem csak a teljesitmén számit, még ha a RDNA 2 picit gyengébb is volna akkor is azt vennék.
Mert sokan nem akarnak új tápot venni egy videókártyáért, RTX 3080 350 wattot magába kirág.
Ha jönne egy közel azonos 6900XT 250-max 300 wattból már jobban vennék, főleg ha még a VRAM is több volna rajta.
Hát ez már az Nvidia sara, mit baltázott el a profit reményében. Remélem a Nagy NAvi majd szépen odaver nekik 😃
@LordSzalko: Mag órajel és a VRAM szerintem nem fedi a valóságot. 6700 XT 6GB vrammal? Esélytelen. 1500 MHz is alacsony, de az SP szám stimmelhet simán. Most néztem par leaket MacOS-ből bányászták ki:
Navi 21a: 2050 MHz, 200W TDP
Navi 21b: 2050 MHz, 238W TDP
Navi 22: 2500 MHz, 170 W TDP
Már régóta próbálok utána járni, mekkora is lehet a legnagyobb RDNA2 lapka. Erre a legjobb alany a Series X SoC-ja, amely 360 mm2. Az MS az idei Hot Chips alkalmával mutatott egy szép kis képet a lapkáról, és annak elrendezéséről [LINK]. A 'GPU' rész kevesebb mint 50%-át foglalja el a lapkának. Nyilván kell GDDR6 memória interfész is. Series X-en 20 csatornás modul van, ami valljuk be elég valószínűtlen, hogy implementálásra kerüljön. Az MS beszélt speciális ray-boxokról is. Ezt nem igazán tudjuk, hogy magukban a CU-kban lennének elhelyezve, de asztali vonalon az AMD simán növelheti ezeknek a számát. 5 csatornás modulokra számolok max. De sok a kérdőjel.
80 CU esetében, 256-bit bus-al = 294,388 mm2
- 5120x0,479 = 245,248 mm2
- 256-bit (4x 64-bit) = ~32 mm2
- 32 MB Cache = 16.99 mm2 (Zen 2 alapján)
- Nincs több speciális RayBox elhelyezés
Ezeket az adatokat tudva, látszik, hogy a Big Navi nem "nagy" egyáltalán. Szerintem ennél több csatornát épít bele az AMD, és rengeteg hely van számukra. Egy 350 mm2 lapka sem nagy egyáltalán. Kérdés, hogy kell e számukra egy 384-bites bus vagy sem. Én ezt látnám a legszívesebben:
Navi 21 XT, vagyis a legnagyobb lapka.
- 80 CU, 5120 SP
- 5x 64-bit - 320-bit 16 Gbps - 20 GB VRAM
- 64 MB Cache
- 2x Special RayBox
= 330-350 mm2
Az látszik, hogy sok opciója van a gyártónak. Ebből le tudnak tiltani egy 64-bites csatornát és ott a 256-bites 6800 XT. Még egyet letíltva, ott a 192-bites 6700 XT.
Úgy tudnak gyorsak lenni, hogy közben nem kell 500 vagy 600 mm2 lapkát készíteniük, ha csak nem akarnak persze. Mindig tehetnek rá több Cache-t, vagy több memória csatornát. Akár több RayBoxot. Ez már csak rajtuk múlik. Mindenkit úgy is a teljesítményük érdekli.
Szerintem a legrosszabb esetben ez jöhet ki:
6900 XT 1.85x gyorsabb mint az 5700 XT.
- 2x több CU, de a skálázás veszteséges.
- 5% IPC, vagy picivel több
- Alig magasabb órajel
- Így 6%-al lassabb mint a 3080.
Legjobb esetben pedig ez:
6900 XT 2.15x gyorsabb mint az 5700 XT.
- 2x több CU, és a skálázás lineáris - nem ugyan az az architektúra.
- 7% IPC, vagy picivel több
- Alig magasabb órajel
- Így 9%-al gyorsabb mint a 3080.
Az összehasonlításhoz TPU adatait használtam, ahol az 5700 XT 49 fps-t ér el átlagban, a 3080 pedig 97-et. 49x1.85 = 90 fps. 49x2.15 = 105 fps. Remélem nem várnak Október 28-ig és legalább egy kártyát bemutatnak 8.-án. Alig kapható a 3080, a 3090 még annyira sem lesz az. Itt a lehetőség gurítani valamit.
@Quadgame94: Ezért kell mindenféleképp megvárni hogy mit villantanak a pirosak 😉 nagyon kíváncsi leszek! Mint már írtam is anno hogy ha már a 3070 nek a szintjét megütik hasonló árazással picit több Vrammal akkor már jók nálam! 😉
@bukta2: Én addig nem bírom ki amíg az AMD végre hajlandó lesz kézzelfogható kártyákat prezentálni, még csak a bejelentésig is egy bő hónap van, utána legalább még egy hogy le is tudd venni a polcról. Inkább megveszem előtte az NV-t, ha meg jobb lesz (amit erősen kétlek) akkor eladom minimális bukóval és jöhet az AMD.
@LordSzalko: Nem hinném, hogy a 6900 XT aka 80CU kártya idén jönne. Máskérdés, hogy mikor fogsz tudni egyáltalán 3080-hoz jutni és mennyiért. Itthon 300 alatt nem fog megállni. Komoly készlethiány van alapból nem vagyok biztos benne, hogy ide normális áron meg fog érezni 2 héten belül.
@LordSzalko: Ha nem lesz amit félrerakka akkor azért biztosan fog érdekelni a készlet 😃 de amúgy sztem se várj, amint lesz cspk l rá. TUF verzió elég jó. Sokkal jobb mint az FE.
@Quadgame94: Haverom félre rakja nekem prágai Alza-ban, ott dolgozik helyileg úgy csak nem adja oda másnak 😃 Valószínűleg TUF lesz, szűrő szerint az a legolcsóbb Alza-nál átváltva 256k lesz várhatóan. Hűtő mindegy lesz igazából mert úgy is vizezni fogom.
@LordSzalko: A TUF a referencia PCB-re vagy az FE PCB-re épül? Mert ez most eléggé zavaros, mert maga az FE nem a referenciára épül, mintha egy AIB kártya lenne 😃 lesz rá block-od?
@Quadgame94: Azt olvastam a pletykák szerint a Big Navi Talán 6900XT 256 bites sávszélesség mellet alkalmazhat egy új eljárást.
Infinit Cache lesz a neve, ami a sávszélesség korlátot segit kiaknázni. MInden esetre nagyon érdekes lehet, ha valóban igaz minden. Akkor elérhető áron tudnak majd erős kártyákat gyártani 😀
Az Nvidia 3000 széria rajtva meg nem igazán olyan mint amit mindenki várt, talán szándékosan dobtak piacra ilyen kevés kártyát hogy aztán felmenjen az áruk.
Ez a RDNA 2-es kártyáknak nagyon jó, mert ha valszeg 500-600 dolcsiért jönnek akkor viszik mint a cukrot. Főleg ha már lesz belőle egy nagy készlet legyártva.
@carl18x: Persze, sok az opcíójuk. 256-bit is elég lehet, 80 CU kártyának, de kérdés jön e idén. 60 CU kártyáról is beszél More's Laws Dead (Tom), Ő nagyon pontos szokott lenni. 60 CZ tuti elveri a 3070-et, de a 3080-at nem. Másik lapka az 40 CU lesz. 6700 XT, 2.2 GHz, 12 GB VRAM = 2080 Super. 3060 pedig ennél lassabb lesz, es 8 GB plábe 6 kevés lesz a versenyre.
@LordSzalko: Nyilvávalóan az új kártyákra optimalizált driver sajnos. Pascal és turing kártyák háttérbe szorultak ennél a drivernél. Legalábbis a tesztek szerint. Elég instabil is lett az előző verzióhoz képest, ráadásul a fentebb említett régebbi szériákon a teljesítménye is rosszabb. Akinek háromezres kártyája van, az nyugodtan telepítse. Az ezres és kétezres kártyákkal érdemes a 452.06-ot használni.
@Memento Mori: Hát ilyenkor már háttérbe szorulnak az előző generációs kártyák. Mondjuk én a mostanira is ráküldtem és nem érzem hogy rosszabb lenne. Mindenesetre csak posztoltam, 30-as jövőbeli tulajokat érdekelheti 😀
@exoskeleton99: Ha a 99 a születési éved jelöli az azt jelenti, hogy 21 éves lehetsz. Ha ennyi idős korodra idáig sikerült eljutnod észben, akkor szerintem nem sok emberrel van miről beszélgetned ezen a weboldalon. Köszönjük, hogy jelenléteddel emelted rendezvényünk fényét.
@exoskeleton99: Ha a 99 a születési éved jelöli az azt jelenti, hogy 21 éves lehetsz. Ha ennyi idős korodra idáig sikerült eljutnod észben, akkor szerintem nem sok emberrel van miről beszélgetned ezen a weboldalon. Köszönjük, hogy jelenléteddel emelted rendezvényünk fényét.
Szokásos hype vonatra felült a fél világ megint... 30-35% (van ahol ennyi különbség sincsen) nem kétszeres teljesítmény mifelénk.
Amíg az 1080 Ti le nem rohad a gépemben, asszem marad ez a vga benne. FHD-ben játszom, így nekem rohadtul nem éri meg váltani. Majd a négyezres szériára legfeljebb. 😂
Az nvidia végül tisztázta, hogy mikor azt mondták, hogy kétszer olyan gyors lesz mint az előző generáció, akkor az a minecraftra és a quake 2 RTX módra volt értendő. ROFL! Bohócok.
Fogyasztás egekben, teljesítmény végül is elfogadható, de legalább jól elértéktelenítették a kétezres széria tulajdonosainak a használt kártyáit.
Mondjuk elég vicces, hogy a designer hűtővel minden szarral együtt fele annyiból is ki tudták gazdálkodni a háromezres kártyákat mint az elődöket. Ja bocs, nem gazdálkodtak szart sem, csak nem dupla haszonnal árulják az új kártyákat. 😃
Következő gépem tényleg full AMD lesz... Elegem van már az intel és az nvidia szarságaiból is.
@Memento Mori: Nos igen én is érdekesnek találtam a teszteket,Nvidia mikor bemutatta úgy volt hogy a RTX 3080 2X lesz erősebb mint a RTX 2080 Sima. A teszteket megnézve, a 2X sebbeség különbség sehol sem volt jelen. Ez egy elég nagy csusztatás volt.
@Memento Mori: A GTX 1080 Ti még mindig brutális! Semmi értelme nem lenne le cserélned szerintem. Amúgy ez mind az miatt van mert az NV nem akart többet fizetni a TSMC 7 nm nodejáért, ezért, hogy spóroljanak inkább Samuhoz mentek. Ennek az eredménye sokkal gyengébb magok, órajelek maradtak ugyan azok, cserébe a fogyasztés 100W nőtt 😃
@Quadgame94: Ha nem is annyira, de valamilyen szinten nekem legalábbis a háromezres széria is elég csalódás. Megvárom mit tesz le az AMD vga fronton és könnyen megeshet, hogy RX6000 és ryzen költözik a gépházba.
@Memento Mori: Most kelleme bemutstniuk. Minek varnak okt 28ig... 0 db 3080 kaphato az emberek elegge felhaborodtak. Okt 8-an remelem legalabb 1et bemutatnak. Ez a 3000 szeria nekem is csalodas am. 30% tobbet eszik 30% gyorsulasnak es *** új node-on 😃 Nem is tudlm volt e ilyen valaha hogy uj gyartastechnologian semmi fogyasztas elorelepes nem tortent.
@Memento Mori: Tény és való hogy az átlag usernek akinek nincsenek az egekben az elvárásai és az effort egy nagyon fullos gépre (mint nekem) az nem esett hasra.
A FHD még mindig egy bőven elégséges megjelenítés 60-120 fps között. Főleg ahhoz képest, hogy alig 4 éve még HD 30-40 fps-sel nyomultam, de fiataloknál/pályakezdőknél most zajlik javában a FHD standardizálása, TV-knél elérhető áron még ott sincs úgy megeredve a választék, csak a sima HD-ból...
Szép ez a QHD meg 4K teljesítmény, de jobb lenne ha az átlagfelhasználók kapnának nagyobb teljesítményt a pénzükért, nekünk is meg szerintem a cégeknek is.
Egyébként pont tegnap néztem egy "vlogot" a mobilpiacról (igazából az egész techiparra jellemző), hogy lényegében már ki vagyunk maxolva, az innováció pedig kihalt vagy a béka segge alatt van, csak a farokméret növelés van.
- 20 megapixeles kamerád van? Nesze, itt van 40/60/100 megapixel.
- Van 8 giga ramod? Nesze itt van 16!
Nem feltétlenül rossz/káros ez, de az árakat igazítsák már úgy...
Én abban bízom hogy mire bekrepál a 1070Ti-m, addigra 60-70ért tudjak venni egy vele ekvivalens kártyát...aztán jó eséllyel pofára esés lesz 😃
@botmunpls: Nos teljes mértékben egyet értek, mert valóban megragadtunk egy szinten. Én is azokban az időkben nőttem fel mikor ha egy játék ment 30 fps-el örültem mint majom a farkának 😆. Most meg azért van a rivás ha nincs 100-140 fps..... Nekem mai napig 60 hz-es monitorom van, igy ha megvan a fix 60 bőven elég.
Hát akkor a mobil piacon, akkár gaming szegmensben valóban a számokkal próbálnak manapság mindent eladni. Valóban elkezdett lassulni a fejlődés, az elmúlt években a felbontások se csökkentek.
A legnagyobb érdekesség szerintem hogy 100-120E forintért már rengeteg 4K Tévé van 40+ col átmérővel.
Egy fele akkora gaming monitor semmi extrával szintén 100E forint, 75hz semmi extra 1440p.
+ Na igen 2012 fele még több ismerösöm is 1366X768-ban játszott, de az akkor se volt valami szép csak az idő elteltével nem emlékszik rá az ember.
@botmunpls: Egyetértek. A tech világban, főleg számítástechnikában ez az egyik fő probléma, az innováció hiánya. A másik pedig a domináns piacvezető cégek abszolút egyeduralma. Azt hiszem ezért nincs sok területen komoly verseny és ez okozza a fejlődés lassulását.
Ne a próféta szóljon belőlem, de amíg a kvantumszámítógépek nem férnek bele egy midi toronyba és nem kerül rájuk megfizethető árról cetli, addig ebben jelentős változás nem is lesz. Persze, nőnek a felbontások, textúrák mérete, stb, ilyen téren fejlődünk, de jelentős előrelépés addig valszeg nem lesz. Ellenben ha ez bekövetkezik a jelenlegi felbontásokat és minősét élvezhetjük majd vr-ben. Szerintem az lesz a következő nagy lépés gaming téren.
@Memento Mori: Emlékszem mikor megjelentek az első ujjlenyomat olvasós telefonok elérhető áron, mint a Redmi 3-ak vagy a P9 lite, aztán lestek az átlagemberek hogy "hát ilyen a filmekben van, ez itt a jövő".
Hasonló reakció volt az arcalapú feloldásnál. Aztán most meg az az újítás, hogy átrakják oldalra/elölre, na bumm 😃
Kint vanna az RTX 3080 tesztek. Hááát. Összeségében kb. 25-30%-al gyorsabb mint a 2080 Ti. NV ismét csúszatatott azért rendesen 😃 A durva hogy erre a +25-30% teljesítményre 2x annyi mag kellett.... Szerintem csalódás. Rengeteget fogyaszt a kártya. Ti mit gondoltok?
[LINK]
Szerk.: Ez a 10 GB VRAM nagyon kevés. Akik anno 2080-at vettek nagy ugrás, de maga a VRAM kevés lesz már jövőre.
@Quadgame94: Amennyibe kerül annyiért bőven jó az avg. +30%, akinek ez nem elég az veszi a 90-et. A csúcs RX fog ellene versenyezni esetleg, de arra meg rádobják a buff-olt 3080-at aztán csókolom.
Nem csalódtam az idei 80-as modellben, nem vártam nagyobb ugrást tőle. A fogyasztása meg magas, de gaming alatt közel annyit eszik mint egy Vega 64 pl. annyi különbséggel hogy az mérföldekkel gyengébb kari. De mérhetem a tavalyi Ti-hoz is, gaming alatt 30W-al eszik többet.
@Quadgame94: Sosem éreztem mérvadónak a Furmark és Peak fogyasztásokat. Ennyit is tud enni, ami irl sosem fog kijönni game mellett.
De igazából teljesen mindegy is, alap hűtő is bőven elbánik vele. Árazást tekintve meg bőven korrekt a teljesítménye, a 70-es meg pláne. Erősen meta kártyák lesznek.
@Quadgame94: Van étvágya rendesen !
Nálam a 3070 a befutó ár/érték arányban, csak az a fránya vram nagyon karcsú. Ha majd lesz 3070-es több vrammal akkor talán lecserélem a jelenlegit !
@Boldor81: Szerintem mindenképpen vard meg az AMD ajánlatait. Biztosan jobbak lesznek mint a 3070, és dupla annyi VRAM-al. Szerint.e megbánod majd, ha nem vársz. De persze ezt te tudod.
@Quadgame94: Nem kapkodok, ha lesz is csere csak jövőre ! Hétvégén autót megyünk nézni, ráadásul a mosógép is kezd gyengélkedni. Ennyi kiadás idénre már kicsit túl sok is !
@Quadgame94: Ha nem is dupla Vrammal jön majd a 3070 ellenfele AMD-től de legalább 12Gb-ra saccolok, és már is is bőven jó ha abba az árban adják ők is, már nyertek!
@bukta2: Szerintem meglepődtek most. Mindenki 50% előrelépésre számított, erre lett 30%. Így a 3070 lassabb lesz tuti a 2080 Ti-nál is. Figyeld meg, hogy a 6700 XT gyorsabb lesz a 3070-nél, 16 GB VRAM-al, és még olcsóbb is lesz. Ebbe szinte biztos vagyok.
@MC MaRcI: Igen bár itt 50%-os ugrásról szoltak a pletykák, de mindig meg kell várni az igazi teszteket. Látszik, hogy 4K-ban erős a 3080, oda pedig kelleni fog a min. 12 GB. A gond nem is ezzel van, hanem azzal, h a konkurencia 16 GB VRAM-al jön majd 😃 Na most mennyire gáz lesz hogy kb 2 hónap múlva jön a 20 GB verzió, de csakis a konkurencia miatt, amúgy tennének a vásárlóikra.
@Quadgame94: Nos itt vannak az új kártyák, a RTX 3080-nak több videómemóriát kellet volna kapnia. Ez a 10 giga nem igazán sok, a másik meg a fogyasztás. Annyival eszik többet majd nem mint amennyivel gyorsabb mint a 2080Ti, azért nem semmi a sima 3080 is bever 350 majd 400 wattot. Az RTX 3090 mit fog fogyasztani? 450 wattot?
Szerintem lehetséges tudta az Nvidia is hogy mit fog tudni a Big navi, és talán azért nőtt meg ennyire a fogyasztás különben nem lett volna versenyképes A új RDNA 2-es Big navival. A Samsung 8 nanométere lehetséges még se volt a legjobb választás, fogyasztásra nézve elég meredek.
@carl18x: Játék alatt ~30W-al eszik többet 2080Ti-hoz képest avg. gaming-ben ami bőven korrekt +30% teljesítményért. Többi értéket úgy sem fogod látni IRL max ha OC-zol szóval kár is vele foglalkozni, amúgy meg alulfeszeled ha zavar 😃
Tekintettel arra, hogy a 30-as szériával nagyban megfog nőni a DLSS-t használók tábora így itt hagyom ezt a linket ami elmagyarázza a lényegét, működését, pozitívumait és negatívumait egyaránt.
[LINK]
Igy volt az RX 570/580 komboval is.. RX 570 mar veri a 3 gigas 1060-t, a 580 pedig a hat gigasat..
Drivert fel lehet rakni feladatkezelobol is, amugy.. Letoltod ki csomagolod aztan meg feladatkezeloben felteszed megkimeled magad minden hulyeseg felrakasatol..
@ELERY: Inkább az új játékok miatt van ez, na meg mert a 3GB már édeskevés - plusz az 580/570 még mindig árulják. Nv simán kiírthatta volna őket, de a sima 1650 egy rettentően gyatra kártya lett. Aztán meg Ők jöttek ki egy gyatra kártyával (5500 XT).
Drivert fel lehet rakni feladatkezelobol is, amugy.. Letoltod ki csomagolod aztan meg feladatkezeloben felteszed megkimeled magad minden hulyeseg felrakasatol..
Ez nem tudom hogy jön ide, de good to know I guess 😃
@ELERY: A régi "hardver hozzáadása" módszer. Na akkor tényleg csak a létszükségest rakod fel 😊
(Én azért örülök, hogy már nem kell azt a módszert alkalmazni)
@Quadgame94: OKé de ezeknek már hamarabb kellet volna ebben az állapotban lenniük, pár hét múlva piacon a RTX 3070 ami 500 dollár. És ledarálja a komplett RDNA 1/RTX 2000 szériá 😃
Mondjuk nekem a RX 570 driverei az esetek 95%-ban jól müködik 😃
@carl18x: Nem lehetett volna régebben, mert a játékok nagy része pont hogy nem rég jelent meg. Igen, amúgy teljesen késő már, de ez inkább azoknak szól, akik megvették. Nekik jól jön a javulás. Az a 3070 inkább 600 lesz, mert elkapkodják majd és alig lesz majd normális mennyiség. Most mindenki fel van hypeolva, de amikor nem lesz 3080 800 dollár alatt fognak nézni 😃
@Quadgame94: Gyakorlatilag már közel fél éve "ugyan azt" a teljesítményt adja egy 5700XT mint egy 2070S, vicces mert ugyan ez a csatorna tesztelte korábban is. Az a baj, hogy az Radeon itt ki is fújt teljesítményben és nincs verseny magasabb kategóriákban. Erre az RDNA2 talán rácáfol idén, bár kétlem, hogy megcsípné a BFGPU-t és szerintem a 3080 is kérdéses, esetleg idővel driveresen ahogy szokásuk.
@LordSzalko: 3090-et nem érik be ez tuti. Kiváncsi leszek a 3080 is mit tud majd egy 20-25 játékos mintában. RDNA2 100%-hogy elkap egy 2080 Ti + 20% teljesítményt, kérdés képesek e ennél többre. IPC növekedés kérdéses, meg az is, hogy mennyire szarják le a fogyasztást. De az tuti, hogy a magok kissebbek lesznek, mert a 360 mm2 Series X-ben a GPU rész kb. 170-et vesz el, GDDR6-al stb talán 220 mm2 lenne az 56 CU kártya, miközben az 5700 XT 251 mm2 40 CU-val. Nem fognak nagy lapkát csinálni, mert egy 400 mm2 lapkából kb. 6 db Zen 3 CCX is kijön, és hát tudjuk, hogy abból sokkal de sokkal több fog fogyni. Ha akarják elérik a 3080-at, de ez csak rajtuk múlik sztem. Mindshare miatt azért jó lenne nekik.
@xCube: Nagyon jó videó, kiválóan szemlélteti (azoknak még inkább, akik nincsnek képben, tájékozódnak) hogy okkal jönnek a vaskosabb kártyák (és itt nem csak a játékokat kell nézni).
Akkor gondolom megirom még lefekvés előtt a végső tapasztalatom. Egy RX 570-et használok ami az esetek 90%-ban remekül müködik, Windows alat se fagy le stb.
De van ám néhány érdekesség, az egyik a Régi Crysis 3 ami Kimaxolva elég rossz képkocka számot mutatott.
A Videókártya is 50%-on ment, de gyakran esett be 15 fps-re úgy hogy a hardverben hatalmas teljesitmény lapang.
A másik érdekesség egy külföldi forumon leltem, mi szerint egy AMD kártya nagyobb terhet rak a processzorra mint egy NVidia. AMD alatt például nekem az RX 570 nem valami jól teljesit az AC Origins alatt, meg zavaró volt hogy a kártya 85-90%-on ment úgy nagy átlagban.
@carl18x: A Crysis 3 ugyanezt produkálja az én gépemmel is. Annak semmi köze a kártyához. Van amelyik középkategóriás vga szépen viszi, de van olyan csúcskártya, amin szarabbul fut mint egy 1050 ti-n. Botrány az a játék...
Ac origins meg a másik fele.
Ne ezek alapján ítéld meg a kártyád.
@Memento Mori: Hát én a kártya számlájára irtam pedig, igen a Crysis 3 meg nagyon zavaró volt.
de nem is akarok 1-2 játék következtetést levonni, majd jövőre a következő reméljük orvosolja ezeket a gondokat! 😀
@carl18x: Azért megyo olyan alacsonyan mert 1050pben játszol. Már párszor le írtam de akkor neked is:
Alacsony felbontás: Procit jobban igénybe veszi, GPU-ban marad(hat) szufla, ami elvész.
Magasabb felbontás: Proci már nem számít annyira, a GPU pedig teljes kihasználtsággal megy majd. Ezért van, hogy 10900K, vagy a 9900K gyorsabb kb. 10%-al a 3800 v más Ryzen procikkal szemben, miközben 4K-ban 0 a diferencia.
@Quadgame94: Na hogy leirjam végig ment az Afterburner, a Crysis 3 meg hires arról hogy skálázodik 8-12 szállra is akkár. 44 fps volt az elején és a kártya 40%-on ment, a processzor 20%-on és bőven lett volna hova emelkedni a számlálónak. Ne akard már bemesélni hogy egy Ryzen 5 1600 20% terhelésnél limites, főként Crysis 3 alatt.A linkelt videót nézd meg, láthatod a egy 12 szálas processzor remekül skálázodik sok szállra. És több külföldi forumon utána nézve nem egyedül vagyok akik hasonló problémákkal küzdenek "AMD" videókártyák esetén áll fent a jelenség.
@carl18x: Csakhogy az egy GTX 1080 nem 570 és nem 1050p a felbontás. Plusz nem a Crysis 3-ra értettem, az a játék sok más kártyát is elhülyített. Nekem 470-em van és 900p-ben GTA V alatt 77%-on megy. A procim, ami 2600 az kb. 35%. 1440p-ben 100% és szintén 35%. Alacsony felbontáson igenis vissza van fogva a kártya. Lehet félre értetted, de azzal, hogy "Proci már nem számít annyira" nem azt jelenti, hogy nem skálázódik, csak azt, hogy 4K-ban a kártya a bottleneck. Ezért kell 1440p-ben játszani, mert akkor sem a VGA sem a Proci nincs visszafogva.
@Quadgame94: Mint a falnak beszélnék, nem érted hogy 40 fps alatt 40% kihasználtságon pörög a kártya. Hol vagyok én a processzor limitől?
Más játékokban a kártya rendesen 99%-on dolgozik, Crysis 3 alatt valami szoftveres probléma miatt valamiért a felét se tudja leadni a valós képeségeinek.
De olyan mint ha fel se fognád amit irok, konkrétan miért nem nézzem utána.
A GTA 5 meg más téma, az 4 magra lett megirva és nem is igazán használ ki többet.
De egy Crysis 3, Watch Dogs 2 már 12 szállat is kihasznál ha van mellete elég erős videókártya. De az én esetembe távol álunk a GPU Limittől.
És mindegy milyen grafikát állitok be nem javul az FPS, és mi köze a GTX 1080-nak az RX 570-hez.
A Videó azért linkeltem hogy lásd, a Crysis 3 skálázodik erősebb processzora és a játék igen is kihasznál 12 szálat ha szükség van rá. De nállam az első pályán és pocsék a teljesitmény, igy nem is használtam.
@carl18x: AC origins alatt is 85% ment. Crysis 3-ra meg irtam hogy az egy anomália, abbol kar is kiindulnod. De felraktam amugy, nekem 1080p-ben nekem proci most 20p jatek utan 40%-on ment a VGA meg 99-100%. 1440p-ben a proci 42%. 900p: 44%, VGA: 75-85% Kozott. Ki beszelt proci limitrol? Az hogy nek jol fut neked nem a peoci hibaja, de meg csak a VGA hibaja. A jatek ennyire gaz.
@Quadgame94: Hát én az amd kötöttem a gondot, mert a netten rákeresve nem csak én találkoztam ezzel a hibával.
[LINK]
Valaki 5700XT mellet is ugyan ezzel a problémával találkozott.
Majd ha lesz idő belemászok jobban, és megpróbálom kideriteni mi a probléma forrása.
16 órája tették fel, ha ez igaz lenne,márpedig van alapja!
És tényleg a 2 kissebb tesó is 12gb vram al jöhet, a 2 legnagyobb pedig 16gb al és az rtx 3080 hoz közeli teljesítményt hozná az AMD az kemény árversenyre adna okot!
@bukta2: Reméljük a processzor piac után most a GPU piacon is megállják majd a helyüket, Már a RDNA 1 is remek ár-érték arányú kártyákat hozott, akkor 2X5700XT erejét 1 kártyában szivesen látnám.
Mondjuk szerintem a RTX 3080-nak hát nem lesz majd mindig elég a 10 giga, az AMD jól teszi ha ezt a teljesitmény szintet 16 gigával odbja piacra.
+ egy nagy pacsi az Nvidiának hogy hallgattak a visszajelzésekre a Touring után! 😃
@ELERY: Tényleg nehéz válaszolni? Vagy benézted a dátumot két évvel és ennyire?
Mire fol adja ilyen dragan a tranzisztorokat az nVidia? Ertem en hogy ok a konkurensek meg minden, de ez egy kicsit gaz.. Meg a ceg politika hogy RTX it just works. ""
@ELERY: Amiket nálam látsz, azokat építettem (Built) és fejlesztettem (upgrade). Tulajaik mind meg vannak elégedve.
A DGX A100 Datacenterekbe és Vállalatoknak lett kifejlesztve, azoknak meg ez a pénz meg semmi. Eszelőském, informálódj. Google a barátod, ahogy mondani szokás. De ha te Datacenteres gépen akarsz gémelni, hajrá.
@FoLey: Egyelőre nekem is csak átmeneti 980Ti-om van, egész jól elvagyok vele igaz most csak a retro játékokat pörgetem újra 😆 Amúgy korrekt kis kártya még mindig.
@FoLey: Attól függ, annyira én nem nyúzom a kártyát új címekkel jelenleg, kivéve a CoD de azzal vígan elvan. Állandó címeimet pörgetem többnyire (amik nem mai játékok már) 😃 meg mellette újra viszem a régi kedvenceimet 😀
@LordSzalko: Végül is ATI korszak nekem hiányzik,de szerencsére van dísznek X1950 Pro AGP meg HD 4850-em.
Kellett ilyen topik is,legalább van kicsit cicaharcnak. 😆
@LordSzalko: S3 Trio 64V+ 😊 Volt 1mb fedélzeti memória, hardveres gyorsítás nuku. Amúgy az első ATI-m az egy Mach64 volt. Annyival "tudott" többet az S3-nál, hogy 2mb volt a fedélzeti memória. Sőt, volt ahol épp ez miatt nem volt elérhető a 320X240 resi, azt az 5FPS-t azokkal a gépekkel pedig marhára megérezte az ember (20 helyett 13 azért tudott vicces lenni)
Tyű gyerekek! Itt ár háború lesz 😃 1440p re kell keressek egy megfelelő kártyát hamarosan! Az RTX 3070 jó lenne de nem akarok 8gb vramos vga-t... remélem AMD nek lesz valami lépése erre! És remélem az RTX et is megoldják valahogy, szerintem jól megfogják mert tanultak az RTX 2xxx széria hibáiból ők is!
According to NVIDIA, DLSS 2.1 brings a new ultra performance mode for 8K gaming. NVIDIA claims that DLSS 2.1 will deliver 8K gaming on GeForce RTX 3090 with a new 9x scaling option.
Furthermore, DLSS 2.1 will bring VR support. As such, developers can now finally use DLSS tech in their VR games, something that was not possible with the previous versions of DLSS.
Ha már a CPU szegmensnek van egy ilyen topic-ja, akkor legyen a GPU-nak is 😶 Legalábbis frissítésnek megteszi, tekintve hogy ATI-val már létezik hasonló.
@LordSzalko: +1 Most láttam van új topik! 😃
Szerintem az RTX 3000 hatalmas meglepetés volt mindenki számára, az AMD számára végre fel lett adva a lecke. Igy legalább biztosak lehetünk abban az RDNA 2 nem lesz túlárazva, kiváncsi leszek az AMD mit lép erre és mennyiért.
@carl18x: AMD-nek eddig is fel volt adva a lecke ilyen téren 😃 Persze nekik lényegesen nehezebb dolguk van és szerintem nem is céljuk, hogy top kártyát készítsenek, nekik gyakorlatilag ott van a teljes konzol piac.
Szerintem az RDNA 2 is izgalmas lesz, bár én nem várom meg. Árazás szempontjából biztosan NV alá lőnek, de nincs is más lehetőségük.
@LordSzalko: Szerintem AMD sokkal jobban teljesít mainstream piacon, ami eddig 1080P volt, most pedig 1440p. Erre a szintre olcsóbban tudnak jó kártyákat csinálni, és ebben a szegmensben jobb is a verseny ár/érték arányokat tekintve.
Szerintem lesz próbálkozás valami 4-8K RDNA2 GPU-ra, de a középpontban ezen túl is a 1440-től 4-ig piac lesz.
Persze nagyon kíváncsi leszek, hogy Ray Tracing hogyan lesz megoldva, vajon mi lesz a saját integráció erre, meg hát van még pár érdekesség ami ad okot az izgalomra.
@AMDMonsteR: Na igen most az RTX 3000 árazása miatt rá lesznek kényszerülve hogy jól árazannak. Az RDNA 2 igy muszáj lesz jól és árazni. AZ Nvidia alá kell menniük kicsivel ha azt akarják legyen is rájuk kereslet.
MInden esetre jó a mostani generáción is árat kell majd vágniuk.
@LordSzalko: Hát majd meglátjuk élőben, én is kiváncsi vagyok mit dobnak piacra. Hát ez mondjuk jó ha az Nvidia alá áraznak, mert RTX 3070 teljesitményt nekik max 400 dolcsiért kéne adniuk, sajnos ettől többet nem fognak adni egy X70-es azonos kártyáért.
Na meg még piacon az RX 5000 széria is, az 5600XT/5700XT is kaphatna majd idővel egy kis akciót hogy jobban vegyék 😃
Az Nvidia bejelentése óta mindenki roluk beszél 😃
Uh de jó 😆😆
[LINK]
Game Ready for Watch Dogs: Legion
This new Game Ready Driver provides support for Watch Dogs: Legion. In addition, this driver provides optimal day-1 support for DiRT 5, Ghostrunner, Need for Speed: Hot Pursuit Remastered, and Xuan-Yuan Sword VII.
Gaming Technology
Includes support for the GeForce RTX 3070 GPU
Update: 20perc vonaglás után sikerült betenni a kosárba, kicsekkolásnál viszont kidobott a szerver. Utána meg out of stock. Remélem az AMD launch egy fokkal jobb lesz,mert ez kabaré.
Remélem most már nagyobb tételben lesznek el érhetőek 😞
Spoiler!
780 Ti-t is elkapták a 290X-el, es a Fury X sem.volt messze a 980 Ti-től anno.
1440p-re feleslegesnek tartom magam felől a 6900 XT-t, de a 6800 XT ereje nagyon csábító 😃 . Bízom benne, hogy ezúttal a tesztek nem parasztvakítások, dehát előbb-utóbb úgyis kibújik a szög a zsákból. 😉
- RX 6800 579 USD 15%-al lesz gyorsabb, mint a 3070, ami 499 USD.
- RX 6800 XT 649 USD = RTX 3080 699 USD
- RX 6900 XT 999 USD, valamivel gyorsabb mint a 3090 (1499 USD), de 1440p-ben sokkal gyorsabb.
Ja és ami a legfontosabb. Ezeket meg is lehet majd venni.
AMD hivatalosan is visszatért 5 év után.
Teszt; [LINK]
Lesz állitólag 6800XT aminek a porontya egy 6700 lehet, az a 6700 lefial maga alé még egy 6600-at a 6600-ba még rugnak egyet és lehet belőle 6500. A 6500-at még lehuzgálják és valami mini kis genyo szilicium darabka marad, ami jó lesz 6400-6300-nak. Szóval biztos lefedik a piacot, de lehet minden-nek az alja a RX 6500 lesz.
Kiváncsian várom az új harci erőket, lassan csere érett lesz a RX 570 és várja a méltó utodját. 2021-ban jöhet a kártya csere 1680X1050 felbontás kéri is a megemelkedett harci erőt. 😃
[LINK]
[LINK]
20 GB változat: Lesz, decemberben.
Valószínű olyan csúsztatással mondták hogy nincs elég készlet, hogy pl ott volt az a 300 ezer, de nem volt rendesen becsomagolva a lapka/1-2 kisebb alkatrész/csavar hiányzott belőle, vagy valami hasonló.
Aztán a nagy kereslet után ezzel a csúsztatással feljebb tudják majd tolni az árakat, és igazából a papíron még nem volt ténylegesen legyártva.
De nem látok erre sok esélyt.
[LINK]
Mégjobb lenne ha részleteznéd is! (magyarul)
[LINK]
Honnan vették ezeket? 3070Ti, 3060Ti??? Még a sima sem jelent meg... 😆
Remélem ütős kártyákkal jön az AMD, de azért ne dőljünk be minden xarnak.
Éljen a 80-as évek, mikor még voltak jó zenék a rádióba 😃
[LINK]
Igen komoly költséget emészt fel a megfelelő komponensekkel rendelkező áramköri lap.
Kevesebb feldolgozó egységgel jöhet, viszont magasabb lehet az órajel és a RTX 3080 szintjére fog jönni.
Max 300 wattos fogyasztással, ami jól jöhet azoknak az embereknek akik nem akarnak tápot cserélni.
RTX 3090 meg maradhat a csúcs, az drága igy azon nem is akarnak sporolni 😃
Ki gondolta volna hogy ilyen rövid életü darab lesz a jelenlegi 3080? 😃
Amúgy ez alapján a 3070 gyengébb lesz nem is kevéssel mint a 2080 Ti. Konkrétan nem mernek játék benchmarkot mutatni. Ahol meg igen ott épphogy nyer...
Pont ezért rakták mellé, hogy megtörje a hype-ot AMD bejelentéskor.
AMD sem teljesen biztos, hogy olyan erős szériával jön ami a felsőházat megfogja, ez csak bejelentéskor vagy inkább teszteknél fog kiderülni, addig megint csak a önjelölt jósok próbálkoznak, hogy mennyi lesz az annyi. Papíron minden szépnek tűnik.
RTX 3070 500 dolcsiért hozz kb 2080Ti teljesítményt! 😀 Ha mindenkép kártyák akarsz inkább várj, 1 hónap múlva jelenti be az AMD az új kártyáit. + Nvida is hozhatja a RTX 3060-at stb.
Nekem az elmúlt években volt mind két gyárótól számos kártyám, egyikkel se volt semmi gondom! 😀
Inkább a teljesítménye számit a kártyának.
HD 2400 Pro-8500GT-8600GT-GT440-HD7770-GTS-450-GTX 660TI-HD 7790-GTX 1050-RX 570
Az járt jól aki 500 dolcsiba behuzott egyet 😃 De mondjuk láttam én 450-ért is 😃
Mert én is látom sokszor a gari nélküli 25E forintos RX 570-et, de azt ki veszi meg?
Sajnos nem tudni semmit az elő életéről.... 😃 Amik olcsón mennek, azok nagy része biztos gyorsan kihal.
Az enyémre még van több mint 2 év garancia 😃 Nincs mitől tartani, talán a jó kérdés 1-2 év múlva mire lesz elég ? 😃
[LINK]
Ha az NV nem járta volna túl sokáig a hattyú táncot a TSMC és a Samsung között, mondván a TSMC 7nm node-ja drágább, akkor most biztosan sokkal jobb teljesítményt látnánk a 3080-tól és, főleg a 3090-től. Az A100-s gyorsító a TSMC 7 nm nodejara épül es látszik hogy ég és főld az differencia.
Samsung 8 nm (10 nm LPP): Maga a kihozatal alapból sokkal gyengébb, az emelt órajeleket beáldozták a magok növelésére, mert a node képtelen magas órajeleket produkálni. Nem véletlen az az 1.7 GHz boost amit az NV megadott. 3080 kártyák 2 GHz alatt járnak nem sokkal, ha ideálisak a hőmérsékletek. Ez 0 előre lépés a 12/16 nm node-hoz képest.
Megoldás: Duplázzuk a magok FP32 teljesítményét, ha már órajelet nem emelhetünk. A Pascal SM-jeiben lévő magok külön kezelték az FP32 és INT32 utasítasokat, ez a Turingban némileg változott, így az összes tudott egyszerre működni párhuzamosan. A gond, hogy a játékoo az INT32 a műveletek 30%-át ha kiteszik. Namost az NV úgy döntött, mivel a az órajelek nem emelhetőek az FP32 teljesítmenyt kell növelni. A gond az, hogy ennyi "magot" azaz FP32 utasítast nem lehet lineárisan növelni a teljesítmény szempontjából (játékokban). Az RTX 3090-en 2.41x annyi mag van mint a 2080 Ti-on, mégis alig 1.41 szeres az előre lépés játékokban. Ez azt jelenti hogy azonos órajelen kb. 6136 magig képes némileg tökéletesen skálázodni, ugyanakkor más magokról van szó, de a lényeget ertitek.
Mi lett volna HA: Az ilyen fejlesztések jó előre meg vannak tervezve. Ergo az NV már idén ev elején látta, hogy az amit a GA100-al csinálnak nem lehetséges a Samu 8 nm nodeján. Mindig is jött vna 8 nm Ampere, de az NV tervei szerint csak 3070 vagy az alatti VGA-k épültek volna erre. Nem is értem, miért nem fizettek többet a jobb node-ért, mert ez visszafog még csapni.
A GA100, amely 7 nm-re épült - adatai:
- 826 mm2, 54.2 mrd tranzisztor
- 8192 CC, 512 TMU, 192 ROP
Ha a GA102 is 7nm-en lenne:
- ~530 mm2 (628 mm2 helyett),
- 35 mrd tranz. (28.3 helyett)
- 5376 CC (10752 helyett), 336 TMU, 112 ROP
- 2.25 GHz Boost (1.7 GHz helyett)
- 300 W TDP (350-390 W helyett)
A magok száma kevesebb, de sokkal magasabb órajelen járnának, így a teljesitmény lineáris(abb) lenne. Persze ennel tehetnek rá több magot is, hiszen a 530 mm2 es a 628 között van hely. 6144 CC-vel simán meglett vna az 1.6x előre lépés az 1.41x helyett. De ez már sosem derül ki.
Az biztos a kalkulációd remek, sajnos tényleg kicsit csalodás ez a széria. Sokkal jobbak lettek volna a kártyák ha fizettek volna többet a TSMC-nek.
Most viszont a rossz rajtal, készlethiány miatt szinte tálcán kinálják a piacot a Big navinak.
Úgy látszik az AMD piszok mázlista, az intel tökölése után az nvidia is elkezdett bohockodni.
Még egy ilyen lehetősége nem lesz az AMD-nek szóval most kell teritenie a piacot! 😀
Mondjuk az AMD-nek volt esze és maradt a 7nm TSMC-nél már alapból itt egy hatalmas elönyük van.
Hát ez már az ő bajuk, akkár hogy is vissza nem lehet forgatni.
Azt meglátjuk mit gurit az AMD A RDNA 2-vel 1 hónap múlva.
[LINK]
Úgy látszik az AMD megint piszok nagy szerencséje van, most az Nvidia rajtja is döglödik. Igy meg semmi és senki nem állhat az útjába 😃 Intel után remélhetőleg az Nvidiát is befogják, erre mondjuk elég nagy esélyt látok. Nem véletlen hogy az RTX 3000 széria fogyasztása is jelentősen emelkedett a 2XXX széria után.
Nem tudom mit hoz ki az AMD. Egyre több leak lesz, az SP számok most már adottak: 2560 SP, 3840 SP, 5120 SP. Órajel kérdéses, de sztem 2.1 es 2.4 GHz között lesz.
6700 XT: 2.3 GHz-en 2080 Supernél lenne, ha 7% IPC növekedéssel számolunk. 1.27x lenne gyorsabb mint az 5700 XT. De itt nem csak magok es órajel számít. ROP egységek, Textúrázók stb mind javulhatnak.
Meg nem nem csak a teljesitmén számit, még ha a RDNA 2 picit gyengébb is volna akkor is azt vennék.
Mert sokan nem akarnak új tápot venni egy videókártyáért, RTX 3080 350 wattot magába kirág.
Ha jönne egy közel azonos 6900XT 250-max 300 wattból már jobban vennék, főleg ha még a VRAM is több volna rajta.
Hát ez már az Nvidia sara, mit baltázott el a profit reményében. Remélem a Nagy NAvi majd szépen odaver nekik 😃
[LINK]
Navi 21a: 2050 MHz, 200W TDP
Navi 21b: 2050 MHz, 238W TDP
Navi 22: 2500 MHz, 170 W TDP
Már régóta próbálok utána járni, mekkora is lehet a legnagyobb RDNA2 lapka. Erre a legjobb alany a Series X SoC-ja, amely 360 mm2. Az MS az idei Hot Chips alkalmával mutatott egy szép kis képet a lapkáról, és annak elrendezéséről [LINK]. A 'GPU' rész kevesebb mint 50%-át foglalja el a lapkának. Nyilván kell GDDR6 memória interfész is. Series X-en 20 csatornás modul van, ami valljuk be elég valószínűtlen, hogy implementálásra kerüljön. Az MS beszélt speciális ray-boxokról is. Ezt nem igazán tudjuk, hogy magukban a CU-kban lennének elhelyezve, de asztali vonalon az AMD simán növelheti ezeknek a számát. 5 csatornás modulokra számolok max. De sok a kérdőjel.
80 CU esetében, 256-bit bus-al = 294,388 mm2
- 5120x0,479 = 245,248 mm2
- 256-bit (4x 64-bit) = ~32 mm2
- 32 MB Cache = 16.99 mm2 (Zen 2 alapján)
- Nincs több speciális RayBox elhelyezés
Ezeket az adatokat tudva, látszik, hogy a Big Navi nem "nagy" egyáltalán. Szerintem ennél több csatornát épít bele az AMD, és rengeteg hely van számukra. Egy 350 mm2 lapka sem nagy egyáltalán. Kérdés, hogy kell e számukra egy 384-bites bus vagy sem. Én ezt látnám a legszívesebben:
Navi 21 XT, vagyis a legnagyobb lapka.
- 80 CU, 5120 SP
- 5x 64-bit - 320-bit 16 Gbps - 20 GB VRAM
- 64 MB Cache
- 2x Special RayBox
= 330-350 mm2
Az látszik, hogy sok opciója van a gyártónak. Ebből le tudnak tiltani egy 64-bites csatornát és ott a 256-bites 6800 XT. Még egyet letíltva, ott a 192-bites 6700 XT.
Úgy tudnak gyorsak lenni, hogy közben nem kell 500 vagy 600 mm2 lapkát készíteniük, ha csak nem akarnak persze. Mindig tehetnek rá több Cache-t, vagy több memória csatornát. Akár több RayBoxot. Ez már csak rajtuk múlik. Mindenkit úgy is a teljesítményük érdekli.
Szerintem a legrosszabb esetben ez jöhet ki:
6900 XT 1.85x gyorsabb mint az 5700 XT.
- 2x több CU, de a skálázás veszteséges.
- 5% IPC, vagy picivel több
- Alig magasabb órajel
- Így 6%-al lassabb mint a 3080.
Legjobb esetben pedig ez:
6900 XT 2.15x gyorsabb mint az 5700 XT.
- 2x több CU, és a skálázás lineáris - nem ugyan az az architektúra.
- 7% IPC, vagy picivel több
- Alig magasabb órajel
- Így 9%-al gyorsabb mint a 3080.
Az összehasonlításhoz TPU adatait használtam, ahol az 5700 XT 49 fps-t ér el átlagban, a 3080 pedig 97-et. 49x1.85 = 90 fps. 49x2.15 = 105 fps. Remélem nem várnak Október 28-ig és legalább egy kártyát bemutatnak 8.-án. Alig kapható a 3080, a 3090 még annyira sem lesz az. Itt a lehetőség gurítani valamit.
Strix modell nagyon tetszik, csak az átváltva 323k lenne mondjuk azt nem vizezném szóval nagyjából ugyan ott lennék árban, meglátjuk.
Infinit Cache lesz a neve, ami a sávszélesség korlátot segit kiaknázni. MInden esetre nagyon érdekes lehet, ha valóban igaz minden. Akkor elérhető áron tudnak majd erős kártyákat gyártani 😀
Az Nvidia 3000 széria rajtva meg nem igazán olyan mint amit mindenki várt, talán szándékosan dobtak piacra ilyen kevés kártyát hogy aztán felmenjen az áruk.
Ez a RDNA 2-es kártyáknak nagyon jó, mert ha valszeg 500-600 dolcsiért jönnek akkor viszik mint a cukrot. Főleg ha már lesz belőle egy nagy készlet legyártva.
[LINK]
[LINK]
Ebben a tesztben is kb ugyanaz mindkét driver teljesítménye.
Amíg az 1080 Ti le nem rohad a gépemben, asszem marad ez a vga benne. FHD-ben játszom, így nekem rohadtul nem éri meg váltani. Majd a négyezres szériára legfeljebb. 😂
Az nvidia végül tisztázta, hogy mikor azt mondták, hogy kétszer olyan gyors lesz mint az előző generáció, akkor az a minecraftra és a quake 2 RTX módra volt értendő. ROFL! Bohócok.
Fogyasztás egekben, teljesítmény végül is elfogadható, de legalább jól elértéktelenítették a kétezres széria tulajdonosainak a használt kártyáit.
Mondjuk elég vicces, hogy a designer hűtővel minden szarral együtt fele annyiból is ki tudták gazdálkodni a háromezres kártyákat mint az elődöket. Ja bocs, nem gazdálkodtak szart sem, csak nem dupla haszonnal árulják az új kártyákat. 😃
Következő gépem tényleg full AMD lesz... Elegem van már az intel és az nvidia szarságaiból is.
A FHD még mindig egy bőven elégséges megjelenítés 60-120 fps között. Főleg ahhoz képest, hogy alig 4 éve még HD 30-40 fps-sel nyomultam, de fiataloknál/pályakezdőknél most zajlik javában a FHD standardizálása, TV-knél elérhető áron még ott sincs úgy megeredve a választék, csak a sima HD-ból...
Szép ez a QHD meg 4K teljesítmény, de jobb lenne ha az átlagfelhasználók kapnának nagyobb teljesítményt a pénzükért, nekünk is meg szerintem a cégeknek is.
Egyébként pont tegnap néztem egy "vlogot" a mobilpiacról (igazából az egész techiparra jellemző), hogy lényegében már ki vagyunk maxolva, az innováció pedig kihalt vagy a béka segge alatt van, csak a farokméret növelés van.
- 20 megapixeles kamerád van? Nesze, itt van 40/60/100 megapixel.
- Van 8 giga ramod? Nesze itt van 16!
Nem feltétlenül rossz/káros ez, de az árakat igazítsák már úgy...
Én abban bízom hogy mire bekrepál a 1070Ti-m, addigra 60-70ért tudjak venni egy vele ekvivalens kártyát...aztán jó eséllyel pofára esés lesz 😃
Hát akkor a mobil piacon, akkár gaming szegmensben valóban a számokkal próbálnak manapság mindent eladni. Valóban elkezdett lassulni a fejlődés, az elmúlt években a felbontások se csökkentek.
A legnagyobb érdekesség szerintem hogy 100-120E forintért már rengeteg 4K Tévé van 40+ col átmérővel.
Egy fele akkora gaming monitor semmi extrával szintén 100E forint, 75hz semmi extra 1440p.
+ Na igen 2012 fele még több ismerösöm is 1366X768-ban játszott, de az akkor se volt valami szép csak az idő elteltével nem emlékszik rá az ember.
Ne a próféta szóljon belőlem, de amíg a kvantumszámítógépek nem férnek bele egy midi toronyba és nem kerül rájuk megfizethető árról cetli, addig ebben jelentős változás nem is lesz. Persze, nőnek a felbontások, textúrák mérete, stb, ilyen téren fejlődünk, de jelentős előrelépés addig valszeg nem lesz. Ellenben ha ez bekövetkezik a jelenlegi felbontásokat és minősét élvezhetjük majd vr-ben. Szerintem az lesz a következő nagy lépés gaming téren.
Hasonló reakció volt az arcalapú feloldásnál. Aztán most meg az az újítás, hogy átrakják oldalra/elölre, na bumm 😃
[LINK]
Szerk.: Ez a 10 GB VRAM nagyon kevés. Akik anno 2080-at vettek nagy ugrás, de maga a VRAM kevés lesz már jövőre.
Nem csalódtam az idei 80-as modellben, nem vártam nagyobb ugrást tőle. A fogyasztása meg magas, de gaming alatt közel annyit eszik mint egy Vega 64 pl. annyi különbséggel hogy az mérföldekkel gyengébb kari. De mérhetem a tavalyi Ti-hoz is, gaming alatt 30W-al eszik többet.
De igazából teljesen mindegy is, alap hűtő is bőven elbánik vele. Árazást tekintve meg bőven korrekt a teljesítménye, a 70-es meg pláne. Erősen meta kártyák lesznek.
Nálam a 3070 a befutó ár/érték arányban, csak az a fránya vram nagyon karcsú. Ha majd lesz 3070-es több vrammal akkor talán lecserélem a jelenlegit !
+20/50fps játékokban azért nem kis ugrás
ez a vram kérdés viszont tényleg érdekes
várom hogy kijöjjön egy igazi új generációs cím hogy mennyi vram-ot fognak zabálni
Szerintem lehetséges tudta az Nvidia is hogy mit fog tudni a Big navi, és talán azért nőtt meg ennyire a fogyasztás különben nem lett volna versenyképes A új RDNA 2-es Big navival. A Samsung 8 nanométere lehetséges még se volt a legjobb választás, fogyasztásra nézve elég meredek.
[LINK]
[LINK]
Igy volt az RX 570/580 komboval is.. RX 570 mar veri a 3 gigas 1060-t, a 580 pedig a hat gigasat..
Drivert fel lehet rakni feladatkezelobol is, amugy.. Letoltod ki csomagolod aztan meg feladatkezeloben felteszed megkimeled magad minden hulyeseg felrakasatol..
De az nVidia meg jobb.
(Én azért örülök, hogy már nem kell azt a módszert alkalmazni)
Mondjuk nekem a RX 570 driverei az esetek 95%-ban jól müködik 😃
De van ám néhány érdekesség, az egyik a Régi Crysis 3 ami Kimaxolva elég rossz képkocka számot mutatott.
A Videókártya is 50%-on ment, de gyakran esett be 15 fps-re úgy hogy a hardverben hatalmas teljesitmény lapang.
A másik érdekesség egy külföldi forumon leltem, mi szerint egy AMD kártya nagyobb terhet rak a processzorra mint egy NVidia. AMD alatt például nekem az RX 570 nem valami jól teljesit az AC Origins alatt, meg zavaró volt hogy a kártya 85-90%-on ment úgy nagy átlagban.
Ac origins meg a másik fele.
Ne ezek alapján ítéld meg a kártyád.
de nem is akarok 1-2 játék következtetést levonni, majd jövőre a következő reméljük orvosolja ezeket a gondokat! 😀
Alacsony felbontás: Procit jobban igénybe veszi, GPU-ban marad(hat) szufla, ami elvész.
Magasabb felbontás: Proci már nem számít annyira, a GPU pedig teljes kihasználtsággal megy majd. Ezért van, hogy 10900K, vagy a 9900K gyorsabb kb. 10%-al a 3800 v más Ryzen procikkal szemben, miközben 4K-ban 0 a diferencia.
Más játékokban a kártya rendesen 99%-on dolgozik, Crysis 3 alatt valami szoftveres probléma miatt valamiért a felét se tudja leadni a valós képeségeinek.
De olyan mint ha fel se fognád amit irok, konkrétan miért nem nézzem utána.
A GTA 5 meg más téma, az 4 magra lett megirva és nem is igazán használ ki többet.
De egy Crysis 3, Watch Dogs 2 már 12 szállat is kihasznál ha van mellete elég erős videókártya. De az én esetembe távol álunk a GPU Limittől.
És mindegy milyen grafikát állitok be nem javul az FPS, és mi köze a GTX 1080-nak az RX 570-hez.
A Videó azért linkeltem hogy lásd, a Crysis 3 skálázodik erősebb processzora és a játék igen is kihasznál 12 szálat ha szükség van rá. De nállam az első pályán és pocsék a teljesitmény, igy nem is használtam.
[LINK]
Valaki 5700XT mellet is ugyan ezzel a problémával találkozott.
Majd ha lesz idő belemászok jobban, és megpróbálom kideriteni mi a probléma forrása.
Müködik az csak másik link 😃
16 órája tették fel, ha ez igaz lenne,márpedig van alapja!
És tényleg a 2 kissebb tesó is 12gb vram al jöhet, a 2 legnagyobb pedig 16gb al és az rtx 3080 hoz közeli teljesítményt hozná az AMD az kemény árversenyre adna okot!
01:14 nél van a lényeg
Mondjuk szerintem a RTX 3080-nak hát nem lesz majd mindig elég a 10 giga, az AMD jól teszi ha ezt a teljesitmény szintet 16 gigával odbja piacra.
+ egy nagy pacsi az Nvidiának hogy hallgattak a visszajelzésekre a Touring után! 😃
Spoiler!
[url]https://en.wikipedia.org/wiki/Ampere_(microarchitecture)[/url]
A kerdesre meg te sem valaszoltal, pedig irtal valamit 😆
A DGX A100 Datacenterekbe és Vállalatoknak lett kifejlesztve, azoknak meg ez a pénz meg semmi. Eszelőském, informálódj. Google a barátod, ahogy mondani szokás. De ha te Datacenteres gépen akarsz gémelni, hajrá.
Spoiler!
Kellett ilyen topik is,legalább van kicsit cicaharcnak. 😆
[LINK]
Furthermore, DLSS 2.1 will bring VR support. As such, developers can now finally use DLSS tech in their VR games, something that was not possible with the previous versions of DLSS.
Lastly, DLSS 2.1 brings dynamic resolution support.
FrameView Performance and Power Benchmarking App: Free Download Available Now
[LINK]
Szerintem az RTX 3000 hatalmas meglepetés volt mindenki számára, az AMD számára végre fel lett adva a lecke. Igy legalább biztosak lehetünk abban az RDNA 2 nem lesz túlárazva, kiváncsi leszek az AMD mit lép erre és mennyiért.
Szerintem az RDNA 2 is izgalmas lesz, bár én nem várom meg. Árazás szempontjából biztosan NV alá lőnek, de nincs is más lehetőségük.
Szerintem lesz próbálkozás valami 4-8K RDNA2 GPU-ra, de a középpontban ezen túl is a 1440-től 4-ig piac lesz.
Persze nagyon kíváncsi leszek, hogy Ray Tracing hogyan lesz megoldva, vajon mi lesz a saját integráció erre, meg hát van még pár érdekesség ami ad okot az izgalomra.
MInden esetre jó a mostani generáción is árat kell majd vágniuk.
Na meg még piacon az RX 5000 széria is, az 5600XT/5700XT is kaphatna majd idővel egy kis akciót hogy jobban vegyék 😃
Az Nvidia bejelentése óta mindenki roluk beszél 😃