Az Nvidia hivatalosan is leleplezte az RTX 4090 és RTX 4080 kártyákat

Szerző: xoki | 2022. September 20. | hír | 73 hozzászólás

Az Nvidia vezérigazgatója, Jensen Huang hivatalosan is leleplezte a következő generációs Ada Lovelace GPU-széria első modelljeit. Összesen három kártyáról rántották le a leplet, amelyek a következők: RTX 4090, RTX 4080 16GB és RTX 4080 12GB.

A flagship Nvidia Ada Lovelace GPU 76 milliárd tranzisztort ölel magába, és a TSMC 4N gyártási technológiával készül. Az új architektúra az RT magok harmadik generációját, illetve a Tensor magok negyedik generációját is elhozza, ráadásul a cég megerősítette az Ada Lovelace DLSS 3 támogatását is.

Az RTX 4090 alapja az AD102-300 GPU lesz, melyre 16384 CUDA mag és 2520 MHz boost órajel lesz jellemző. 24 GB GDDR6X memória kerül majd rá, melynek maximális sávszélessége az 1 TB/s-ot is elérheti. Az új kártya legalább 100 W-tal több energiát igényel majd az RTX 3090 Ti-hez képest, miközben a várható TDP 450 W körül lesz. A cég szerint teljesítményben 2-4X gyorsabb termékről beszélünk az eddigi csúcstartó, a 3090 Ti-hez képest. A legnagyobb különbség RT és a DLSS 3 használata esetén figyelhető majd meg. Ez a modell október 12-én válik majd elérhetővé, és 1599 dollárt kell majd fizetni érte.

A vállalat partnereitől is folyamatosan érkeznek a bejelentések. A ZOTAC, az Inno3D, a Colorful, a Palit, a Gainward, a Gigabyte, az MSI és az ASUS terméke is bemutatkozott, viszont egyáltalán nem meglepő módon az EVGA nincs ezek között.

A fenti kártyán felül Jensen Huang az RTX 4080-as szériáról is lerántotta a leplet. Két kártya várható, amelyek a memória méretében és GPU-specifikációkban térnek majd el. A 16 GB-os modellt az alábbi specifikációk jellemzik majd: AD103 GPU, 9728 CUDA mag, 16 GB GDDR6X memória (22,5 Gbps) és 320 W TDP. A kártya novemberben érkezik, és 1199 dollárt kérnek érte.

Az eredetileg RTX 4070-nek tervezett kártyát pedig RTX 4080 12 GB néven jelentették be. Erre az SKU-ra az alábbiak érvényesek: AD104 GPU, 7680 CUDA mag, 12 GB GDDR6X memória és 285 W TDP. A kártya ára 899 dollár lesz.

Hozzászólások: 73
Hozzászólás küldéséhez be kell jelentkezni.
BitVadasz avatar
1600 dodo?
Na akkor nálunk ez olyan 1.5 millió lesz kb!
0
0
0
0
carl18x avatar
Congratulation Nvidia! Ezekkel az árakkal verték az utolsó szöget a koporóba, mert hogy ez csak drágább lesz ez holt biztos. Egy megnyírbált 4080 899 dollár, ami valójában 4070 lett volna csak úgy nem menne el 900 dollárért. Az összes youtuber és külföldi közösség is ki van akadva hogy van poffájuk ilyen árat kérni egy X80 kártyáért.
Még most vicces vissza gondolni 2008-ban egy elég erős HD 4850 199 dollárért rajtolt, és az elég tiszteséges teljesítményt produkált az áráért.
Most meg majd annak lehet örülni ha a RTX 4070 699 dollárért fog piacra kerülni....?
És lesz benne 6000 cuda mag jó indulattal 128 biten.... Joke XD
0
0
1
0
💬 3
Payphoner avatar
@carl18x: Hát figyelj még ha jol emlékszem egy 980 ami azért csúcs kategória volt nem volt drágább 200 ezernél :D Most ugye veri az 1 millát egy csúcs kártya :D De hát ez vicc és egyenesen gáz. És azt is elkell ismerni hogy ma már nincs érdemi fejlődés. Grafikában nem tudnak előre lépni a fejlesztők. Ezért a gyártók arra mennek rá hogy egy 4 éves Spider man ami most jött ki PC-re DLLS-el tudjon futni 100 FPS-el. ***a gratulálok :D
2
0
0
0
bukta2 avatar
@Payphoner: ,,a gyártók arra mennek rá hogy egy 4 éves Spider man ami most jött ki PC-re DLLS-el tudjon futni 100 FPS-el. ***a gratulálok :D "

na igen, ez igaz! :D
1
0
0
0
RaggaBone avatar
@carl18x: Eddig is utáltam az nvidia üzletpolitikáját....hát nem lettek szimpatikusabbak azóta se. És bejelentették hogy ne is reménykedjen senki az árak mérséklődésébe. Szóval egye meg őket a folyami.
0
0
0
0
Thespartan avatar
Mivel már a cikket és az itt leírtakat, a kommentszekciót majd végigolvastam, így nem maradt más, mint a megkérdőjelezés az "elírtakról". :D
"A vállalat partnereitől is folyamatosan érkeznek a bejelentések. A ZOTAC, az Inno3D, a Colorful, a Palit, a Ginaward, a Gigabyte, az MSI és az ASUS terméke is bemutatkozott"
Tehát Gainward. :D
0
2
0
0
bukta2 avatar
Kemény hogy a DLSS 3 csak 4XXX szériával fog működni... de azt is megkell hagyni hogy elég komoly cuccnak ígérkezik! Ezzel hogy már komplett képkockákat ad hozzá nem csak pixeleket, a MFS-ba duplázta az FPS-t! Ami nem semmi! Persze várjuk ki a független tesztek végeredményét, de ha ezek igazak elég ütős cucc lesz ez az új széria! Kíváncsi leszek tud e erre majd válaszolni év végén az AMD.
1
0
0
0
💬 6
redbull6969 avatar
@bukta2: Ez pont azért hogy vegyék! én nem hiszem hogy cserélek,meg persze azért még hátra van RDNA 3 7000xt-ék amik biztos utösek lesznek!!!
0
0
0
0
bukta2 avatar
@redbull6969: Hát a pirosaknál elvileg a GPU-knál is jönnek a 3D-s chippek,mint a cpu-knál! Ami elég jó teljesítmény növekedést jelent ha igazak a pletykák, kíváncsi leszek rá nagyon! Csak azok is paks2-őt reggeliznek majd mint ezek az RTX ek :D
0
0
0
0
xCube avatar
@bukta2: Az AMD válaszolni fog, de nem lesz egyenes párbaj. El tudom képzelni, hogy az új Radeon kártyák raszteres grafikában felülmúlják majd az nvidia megoldását, de nem lesznek képesek olyan komplex dolgokra, mint a DLSS 3, illetve a RT teljesítményük is alul maradhat. Ez jelenleg tartható irány, de idővel ők is kénytelenek lesznek átállni, mert az ösvény már ki lett taposva.
1
0
0
0
bukta2 avatar
@xCube: hát, meglehet, bár azt se felejtsük el hogy az FSR-t is temették anno az nVidia fanok, hogy a Deep L.-et soha nem fogja utolérni az FSR szoftveresen, aztán bumm jött az FSR 2.0... ami valjuk be odaver elég rendesen az 1.0 -ához képest (Saját tapasztalat)
persze még mindig jobb a DLSS 2.0 de az FSR 2.0 is eléggé bejött a képbe, viszont az RT vel tényleg nem tud nagyon mit kezdeni az AMD egyelőre, abban jóval jobb az nVidia, de azt is el kell mondani hogy 1-2 játékot leszámítva még az RT sem egy kiforrott dolog, persze az idő múlásával ez változni fog, mindenesetre én nagyon várom mit hoz az AMD, persze voltak már Leek-ek (mint mindenről manapság) de várjuk ki a hivatalost.
0
0
0
0
no avatar
@xCube: Elvileg 2-2.5 szeres Rt erő lesz a 6000 hét kèpest ami azèrt elmaradhat de közel lehet a 4xxxc ekhez S be feledd az FSR2 S majd a 3 minden jàtèkra S minden GPU val qlkalmazható a Dlss3 csak 4,xxxx Nv karikkal . Emellett raszterben dupla erő lesz elvileg tehàt ott 30-40% előny lehet.
0
0
0
0
xCube avatar
@Andrews: Én nem várok olyan nagy ugrást RT teljesítményben, az túl sok tranzisztort emésztene fel. A raszteres teljesítményről pedig írtam is, hogy felülmúlhatja a riválist, hiszen ha a shader és raszter operátor teljesítményre helyezed a hangsúlyt a komplex számolók helyett, akkor nyilvánvalóan előnybe kerülsz az ilyen igénybevétel esetén.

Az FSR 2 jó dolog, de nagyon messze van mind technológiában, mind képminőségben a DLSS -től, ráadásul játékfüggő, hogy mennyire működik jól vizuális szempontból. A DLSS 3 pedig olyan új funkciókat hoz, amit abszolúte senki más.
0
0
0
0
mata1093 avatar
Hát nem tudom, de úgy érzem itt megint nagyobb a " füstje mint a lángja" dolog van... :D Bár lehet csak engem nem hozott annyira lázba ez az új széria, lehet az amúgy is sekélyes vagy erősen kétes mai játékok láttán.
1
0
0
0
💬 1
Cougarmy avatar
@mata1093: Inkább utóbbi miatt. A hardverek nagyon jók (már ha nem éppen valami fatális tervezési hibával küldik ki piacra). A játékokkal meg szerintem tartalmi és néha elvi probléma van...vagy csak el kell fogadnunk, hogy más generáció, más igények.
0
0
0
0
Quadgame94 avatar
Tehát sima raszterizációs képessége az RTX 4090-nek az kb 1.6x jobb mint a 3090... miközben 1.6x drágább :D okés majd DLSS-el meg RT-vel lehet 2x a differencia, de az csak "lehet". Átlagban annyit kapsz amiért fizetsz, ami jelen helyzetben még talán okés is. Semmi egetrengető, és semmi olyan, amit a konkurencia ne tudna majd.

Ami gond: A 4080 jócskán vissza van véve magok számában. Ismét látszik, hogy ezek az Ada magok sem valami jól skálázhatóak.

Teljesítmény predikciók: 4K MAX, DLSS OFF, RT OFF
RTX 4090 - 170% - 1599 USD
RTX 4080 - 140% - 1199 USD
RTX 4080 12G - 115% - 899 USD
RTX 3090 Ti - 106% - 1050 USD
RTX 3090 - 100% . 950 USD
RX 6950 XT - 98% - 980 USD

RDNA3: Szerintem simán fogja hozni a 4090 teljesítményét a csúcs RX 7000-es kártya. Persze sokkal kevesebb fogyasztással. Egyedül a DLSS 3 ill. RT teljesítmény lesz idén is az achilles sarka a kártyáknak, de ha az RX 7900 XT RT + FSR 3.0-val hozza egy RTX 4080 teljesítményét, sima raszterben pedig a 4090-ét, akkor 1200 dollárért best-buy lehet. Ne felejtse el senki, hogy az NV-nek nagyon drága mulatság az Ada kártyák gyártása. Az RDNA3 lényegesen olcsóbb lesz az AMD-nek gyártani.
2
0
0
0
💬 5
xCube avatar
@Quadgame94: RDNA3: Most újra az AMD áll az effektív egyszerűbb GPU vonalon. Pontosabban egy olyan vonalon, ami a raszterizációs teljesítményre lesz kigyúrva és amennyire lehet sallangmentesítve. Ez a technológiai billegés rendszeresen jelen van a GPU piacon. Az nvidia legutoljára a GTX 1000 szériában dolgozott ezen logika mentén.

A DLSS 3 az eddigiek alapján eléggé jónak igérkezik
0
0
0
0
Quadgame94 avatar
@xCube: DLSS 3 igencsak impozáns lesz. Az NV nagyon okosan találta ki akár az RT akár a DLSS technológiákat. A sima raszterizációs teljesítmény nem elég hívó szó már. Mindenesetre érdekes csata lesz.
0
0
0
0
no avatar
@Quadgame94: Pedig az a sima erő adja az igazi valós kèpet a monitoron. A màsikbott lesz a FSR3.0 is
2
0
0
0
no avatar
@Quadgame94: Igen sőt a hírek majdnem dupla erős raszterizàcióról szóltak Amd kapcsân S 2-2.5 szeres RT-ről a 6000es szèriàhoz kèpest s 50%al újra jobb figyasztás S erő arâny mellett . Októberben kiderül hisz nemrèg lett hivatalos a november 5 ös rajt amikor màr vehetők lesznek a 7000 és kàrtyâk.
0
0
0
0
Quadgame94 avatar
@Andrews: November 3 egyébként. De igen, kíváncsi leszek. RT-ben a 2x az simán meg lesz, inkább 2.5x gyorsulás. raszterizációban sztem nem lesz meg a 2x. Olyan 1.75x igen, bár azon fog múlni, hogy a 3D V-Cache mennyit javít a teljesítményen az RX 7900 XT-hez képest. Az RX 7950 XT 3 GHz-en, 96 + 96 MB L3 Cache-el illetve 12 288 ALU-val elérheti a 2x-et. De ez csak feltételezés. A 7950 XT amúgy sem jelenik meg egy ideig még.
0
0
0
0
Payphoner avatar
Amúgy értem hogy marketing fogás a RTX 4070-et átnevezni 4080-ra de ami évekig így működik azt minek? Azért a PC-s közönség főleg aki évek óta figyeli a híreket szerintem ezzel már nem lehet megetetni. Akinek van pénze úgyis a drágábbat veszi akinek meg van esze az meg úgyis nézi a specifikációkat. Simán marhatott volna 4070. Mert akkor ez lesz a sorminta? a 4070 igazából 4060-lesz? abból meg 4050? hagyjuk már -.- De gonolom lesz egy sima 4070-en is ami valmivel alul fog maradni a 12gb-s 4080-nak de erősebb lesz valamivel a 4060-nál
0
0
0
0
downuser avatar
Egyetlen jó dolog van ebben az egészben; az előző széria még olcsóbb lesz.
Hazudnék, ha azt írnám, hogy nem kellene 4000-es modell. Szívesen vennék.
Ellenben mióta pártunk és qurmányunk elbalfékeskedett nettó 6 évet Paks-2 építésével,
így fizetheted az emelt árat bizonyos fogyasztás felett (~244 kW/h) nos az a helyzet, hogy
egy 4080 simán berágja a limitet ha nem feszelem alul (ott van még a G-besorolású monitor hozzá) de így meg akkor olyan, mintha 4060/70-et vettem volna lol.

Remélem érthető mit akartam kinyögni ebből az egészből...a fogyasztást ennél a kártyánál figyelembe kell venni, főleg mikor van hozzá egy b*szó monitor. Tudom, tudom, a monitor fényereje és frekvenciája is állítható... nincs napelemed/mobil atomreaktorod/antianyag-reaktorod, akkor bizony lehetnek számlák. Lehet visszavenni mindenből.

És jönnek a kérdések:

Van értelme félelemben kockulni?
Muszáj mindenkit átszuszakolni a konzolhoz?
Tényleg ez lesz a sorsunk? A PC-géming csak a felső-rétegeknek adatik meg?
1
0
2
0
💬 14
no avatar
@downuser: Én simán beérném egy 3060/4060-as kártyával, de már ezek is 200 ezerbe kerülnek így részemről felejtős.
0
0
0
0
Payphoner avatar
@downuser: Hát én mai napig nem vagyok egy nagy konzolos. Volt PS2-őm majd PS3 és végül PS4 de szó szerint mindig csak az exkluzívuk miatt lett megvéve. a PS4-re 2018-ig vártam és akkor a spiderman-nal rendeltem elő meg ugye ott volt a God of war. És nekem mai napig úgy van hogy lehet bármennyire dícsérve a szuper gyors ssd meg hogy kitudsz lépni a menübe játék küzben. 20-éves windows XP-s gépen is működik az ald+tab :D Szóval engem ezzel nem vesznek meg.
0
0
0
0
downuser avatar
@Payphoner: Nincs bajom a konzollal, csak az zavar, hogy szisztematikusan építik le az egész pc-géminget. Tudom hogy korábban is "luxus" volt, úgy tűnik a gpu-gyártók végleg elengedték a szélesebb tömegek kezét és szűkebb szegmensből szeretnének nagyobb profitot kisajtolni. Nincs ezzel gond, pénz beszél kutya ugat ugyebár, de akkor is elkeserítő ami zajlik a piacon. Főleg, hogy egyre jobban és látványosabban emelik a fogyasztását a hardvereknek...
1
0
0
0
no avatar
@downuser: Ha már ennyire braindead vagy, hogy itt is politizálni akarsz, akkor magyarázd el nekem, Romániában miért van ugyancsak 244kw/h megszabva, holott nem épül Paks 2?
1
0
0
0
enslaved avatar
@downuser: Komolyan gondolod, hogy amikor az ember vesz egy 4090 - et azzal foglalkozik, mennyi lesz a villanyszámla? Egyébként is túl van ez rendesen ez ragozva, pár ezerrel nő maximum havonta, eddig volt mondjuk 12, majd most lesz 20, nem egy nagy dolog.
0
0
0
0
downuser avatar
@enslaved: Augusztus elseje óta Magyarországon többen nézik mennyit fogyaszt, mint ahányan megvennék.

Egyébként meglepett hogy pont te írod ezt, mert korábban mindent "alulfeszeltél" és hírhedt fogyasztás-huszár voltál.
0
0
0
0
enslaved avatar
@downuser: Én sosem a fogyasztás miatt feszeltem alá semmit (ezt nem tudom honnan vetted), hanem mert gyárilag minden túl van méretezve. Mindennek jobb, ha kevesebb feszt kap élettartam szempontjából, plusz a kevesebb hőtermelés sem elhanyagolható tényező.
0
0
0
0
downuser avatar
@enslaved: A Végzet Hegyén laksz, hogy ennyire tartassz a melegedéstől? 🙂
0
0
0
0
enslaved avatar
@downuser: Buta kérdésekre nem válaszolok. Nem tehetek róla, ha nem értetted meg a lényegét.
0
0
0
0
downuser avatar
@enslaved: 🤣

Értettem a lényeget.

Nyomja befelé a távhő a meleget a lakásba, ezért télen is forrósodik a vas mint a Merkúr felszíne emiatt feszeled alul. Nem pedig a fogyasztás miatt. Tiszta sor. 😉😊😆

Amúgy a gyári beállítsokkal kapott hőfok, és a saját mókolás által történt 'alulfeszelés' közti 1-3 C-fok nem oszt nem szoroz. Ha csak nem abszolút pormentes helységben van a gépházad, és leveszed az oldalát, esetleg ha nem egyedi professzionális vízhűtés van a kártyán, az a pár volt lecsipkedés nem fogja évekre megnövelni az élettartatomot, de te tudod. A kevesebb volt,kevesebb amper, kevesebb vatt nagyobb hatással van a fogyasztásra mint a hőfokra. Mivel a többi alkatrész szintén melegszik a zárt gépházon belül. Ha csak nem feszeled alul a többi hardvert is lol. Inkább köttesd át a rádiátort hőmennyiségszabályzósra. 😉😅🤣

(csak vicceltem ne vedd komolyan, tudom hogy át van kötve)
0
0
0
0
enslaved avatar
@downuser: Mióta van szerinted távhő családi háznál? Egyébként meg nálam nyáron sincs egyik helyiségben sem több 22-24 foknál, erről a klímák gondoskodnak. Az alulfesz terén viszont nem vagy teljesen képben, ugyanis a legtöbb lap irreálisan magas feszt ad a prociknak, és ez nem 1-3 fokot jelent, hanem akár 10-15 - öt is, ami nagyon is hatással van pl. a lapon lévő kondikra, a VRM hőfokára, stb. Szóval a finomhangolás egyáltalán nem ördögtől való dolog, és érdemes is megcsinálni, kivéve ha szerencséje van a user - nek, és minden jól van belőve gyárilag. Amúgy megkérlek, ha csak kötözködni tudsz, akkor inkább ne társalogjunk a továbbiakban.
0
0
0
0
downuser avatar
@enslaved: Aki a kardjáról készült képet is felrak a gépsarok részbe, azzal senki nem mer kötöszködni. Még én sem.
0
0
0
0
no avatar
@downuser: Amd kevesebbet fog enni âllítólag S radzterben jobb lesz RT Ben 20% al ha rosszabb.
1
0
0
0
downuser avatar
@Andrews: Meglátjuk, reméljük a legjobbat.
0
0
0
0
Aorus_Gaming_HUN_ avatar
Várom nagyon, hogy kipróbáljam a 4090-et! Remélem kapni is lehet majd valamit az elején is.
Annyi, hogy a 3090Ti-ból az összes 450W-os már most is. De a 3x8 pines 3080Ti-k is kitolhatóak oda.

Szóval itt már a komolyabb verziók 500 felett lesznek bőven szerintem.
1
0
0
0
💬 3
enslaved avatar
@Aorus_Gaming_HUN_: Én is várom. Ugyan jelenleg azzal a havi egy-két óra játékkal (leadtam rendesen, időhiány) jól elvoltam a 3060 Ti - vel is, de ez az új széria már erősen alkalmas lesz 4k gamingre, és azt már nem lehet kihagyni, még ha nem is játszik az ember minden nap.
0
0
0
0
no avatar
@Aorus_Gaming_HUN_: Szerintem várd meg az Amd bejelentèst 1 hónap . Fsr3.0 lesz S gyorsabb Rt raszterben erősebb lesz a 4xxxx nèl s olcsöbb S kevèsbè àramzabàló.
0
0
0
0
Aorus_Gaming_HUN_ avatar
@Andrews: Amd kártyám még nem volt eddig. Pedig most is jobb árban vannak mint a zöldek. De valahogy nem vonz.
Az csak a bejelentés dátuma lesz sajnos. Az Október 12 is még távolinak érződik egyenlőre.

@enslaved: Sokat én sem nyomom mostanában. De azért a 4K 120Hz-ra el fog férni a 4090. Bár a 3090Ti sem rossz azt azért hozzáteszem. Ezek elég jól húzhatóak is. Annak ellenére, hogy most egy új Gainward Phatom van a gépben. Ennek a legjobb a hűtése szerintem.- Vizesnél is laza 20 fokkal hűvősebb a memória. Megáll 74 fokon ennél a típúsnál max terhelésen 450W-on. A 4090 nem tudom ilyen lesz-e ebből a szempontból. Vagy Ott is csak a 90TI kiváltsága lesz majd bő 1 év múlva a jobb hűtés és a jobb tuning.

A szerencse mondjuk, hogy az összes 3090Ti új hűtést kapott. Így mindegyik jobb lett. De a Gainwardnál jobbat még nem találtam.
0
0
0
0
redbull6969 avatar
Na erre aztán kiváncsi leszek! a 4080 1,199 dolláral indul azaz a mostani 3080ti-vel 1-árban.
Annyira jó vétel lenne a 4080 16gb ha normalizálodna az árak, de nem hinném. Meg akkor most csak az új kártyák támogasák majd a DLSS 3-mat? vagy csak én nem értem.
0
0
0
0
💬 5
Aorus_Gaming_HUN_ avatar
@redbull6969: Csak az új!
Az európai árak:
RTX 4090 ab 1.949,00 €
RTX 4080 (16GB) ab 1.469,00 €
RTX 4080 (12GB) ab 1.099,00 €

Azért ez beszorozva 400-al(minimum) Ezt az rápakolva egész kellemes számok jönnek ki.
3
0
0
0
Quadgame94 avatar
@redbull6969: A 3080 Ti 750 dollár neweggen, nem tudom miről beszélsz :D
0
0
0
0
redbull6969 avatar
@Quadgame94: Nyilván az induló árára gondoltam mivel a rtx 3080ti gyártásat már rég le álitotta az nvidia ami van az a parner cégeknél
0
0
0
0
Quadgame94 avatar
@redbull6969: Azt írtad a "mostani 3080 ti-vel". A gyártást teljesen mindegy hogy leállították e vagy sem, lehet kapni még egy darabig majd. A 3080-at meg főleg. Hiába lesz 1.6x olyan gyors, ha annyival drágább is. Nyílván akinek eleve van egy 3080-ja annak megérheti, hiszen kb ugyan annyiért, amennyiért vette kap egy 1.6x gyorsabb kártyát. Viszont akinek egy RTX 2000 szériás kártyája van rohadtul nem éri meg majd váltania erre.
0
0
0
0
redbull6969 avatar
@Quadgame94: Nyílván akinek eleve van egy 3080-ja annak megérheti, hiszen kb ugyan annyiért, amennyiért vette kap egy 1.6x gyorsabb kártyát. Viszont akinek egy RTX 2000 szériás kártyája van rohadtul nem éri meg majd váltania erre.
Ez így van erre már énis gondoltam ✔️
0
0
0
0
no avatar
Törölt hozzászólás
0
0
0
0
💬 9
xCube avatar
@Noressz: Ezt egy másik hírnél már leírtam neked:

Mivel elértünk egy bizonyos technikai határt ez annyira nem is meglepő. A klasszikus felépítésű chipek és a fotolitográfia a végét járja. Addig, amíg nem lesz más megoldás ezzel kell élni.
0
0
0
0
no avatar
@xCube: Törölt hozzászólás
0
0
0
0
Payphoner avatar
@Noressz: Érdekes mert az apple bezzeg megtudja oldani hogy minden évben jobb a teljesítmény és kevesebb a fogyasztás. Anno iphone 6-ról 6s-re volt az hogy a teljesítmény dupla annyi lett az aksi meg kisebb és még így is kicsit jobban bírta. De azóta ez változatlanul így van hogy egyre jobb procikat csinálnak. Nem hinném hogy az NVIDA a GPU-kat ne tudná ez irányba tereleni. Pedig volt egy idő amikor stagnáltak fogyasztásban sőt még elég volt a 6/8 pin.
0
0
0
0
no avatar
@Payphoner: Törölt hozzászólás
0
0
0
0
Payphoner avatar
@Noressz: Hát nézd meg a PS3 időszakot. 256mb VRAM-ba és 256mb Ram-ba bele lehetett sűríteni egy Uncharted 3-at, god of wart. De oke ezek PS címek. Érdekes 256mb rammal fut a gta 5. Szóval ennyire egyszerű. ÉS nekem ne mondjak hogy 1 konzolra egyszerűbb optimalizálni mint 45 fajta VGA-ra. Ez önmagában igaz de akkor is ismétlem 256mb és 720-ben 30 FPS. Azért ez nem olyan rossz :D és érdekes ps4-re hirtelen már 8gb is kevés volt és kellett a PS4 pro. Vicc :D De amúgy csak jelezné, hogy a GTA SA 32mb rammal és 300mhz procival (es asszem 4 vagy 8mb vrammal) fut ps2-őn :D
0
0
0
0
no avatar
@Payphoner: Törölt hozzászólás
0
0
1
0
no avatar
@Noressz: Èn 2-3 genenkènt szoktam. Èvente akkor se ha milliomos lennék . Tehât kb 4 èvenkènt
0
0
0
0
xCube avatar
@Noressz: A laptop GPU -k ugyanazt a szilikont használják, mint az asztali verziók, csak kisebb feszültségen alacsonyabb órajeleken működnek. Egy chip gyártása során megpróbálják a lehető legtöbbet kihozni az egy szilikonostyára kerülő chipekből, így szortírozzák őket különböző kritériumoknak magfelelően. Ezután lesz belőlük mobil és aztali GPU, ezen belül pedig a különböző "butított" variánsok.

Meg az lenne a nagy grafika fejlesztés is, ha kevesebb erőforrással szebb látványt lehetne előállítani. Ez nem nagyon megy, pedig biztosan nem lehetetlen.


Az is szép lenne, ha feleannyi téglából ugyanakkora és ugyanolyan biztonságos házat lehetne építeni, vagy az, ha egy fél tank benzinnel is ugyanolyan messzire menne az autód ugyanolyan sebességgel.

Ha csak egy célhardverre kell fejleszteni, akkor elég sok kakaót ki lehet préselni belőle. Lásd az Apple, vagy a konzolok esetét. Mindezek ellenére csoda nem létezik a világon, minden egyes grafikai műveletnek teljesítménybeli ára és végeredményben fizikai korlátai vannak (memória mennyisége, órajel, időzítés, buszsebesség, stb...). A PC grafikának mindaddig lesz egy bizonyos fokú overhead -je, amíg nem érünk el egy olyan állapotba, hogy gyakorlatilag csak egy célhardver lesz. A DX12 és a Vulkan sokat segít egyébként, a korábbi 20 - 30% -os overhead mára már jóval kevesebb.
0
0
0
0
xCube avatar
@Payphoner: Mégis hogyan akarsz összehasonlítani egy parányi mobil SoC -et egy hatalmas GPU -val? A mobil eszközök teljesítményének fejlődési üteme is lecsökkent az utóbbi években. Az általad említett iphone 6 generáció idején pedig a GPU -k fejlődésének üteme is hasonló volt.

Nem hinném hogy az NVIDA a GPU-kat ne tudná ez irányba tereleni. Pedig volt egy idő amikor stagnáltak fogyasztásban sőt még elég volt a 6/8 pin.


Igen, csak éppen azokban az időkben nem a klasszikus chipek fizikai korlátainak határán táncoltunk.
0
0
0
0
Payphoner avatar
@xCube: Látom minden emberbe aki hozzá szolt a cikikhez abba sikerült bele kötnöd :)
0
0
0
0
xCube avatar
@Payphoner: Sajnálom ha csak ennyi jött át belőle.
0
0
0
0
xCube avatar
@Noressz: Mivel jelenleg a fotolitográfián kívül nincsen más tömeggyártásban termelhető otthoni használatban bevethető technológia, így én nem sok eséyt látok a gyors javulásra.

40 éve elektronikában jártas családtag szerint simán megoldható lenne a kisebb fogyasztás, magasabb grafikai teljesítmény, csak nem ezzel a technológiával.


Ezt most tényleg ne vedd rossz néven, de akkor az említett családtag miért nem dolgozik chipgyártástechnológiai mérnökként egy chipgyártónál? Illetve milyen elektronikában jártas?
0
0
0
1
xCube avatar
Egy lényeges pont kimaradt, mégpedig az, hogy az RTX 4080 alatti mezőnyben megmaradnak az Ampere GPU -k. Ami egyébként abszolúte várható is volt (én legalábbis erre számoltam).
0
0
0
0
💬 8
yugiohyugiohzebuyug avatar
@xCube: De csak egyelőre, nem? Tehát pl. jövőre én azt gondolnám, hogy megkapjuk a maradékot is (70,60...).
0
0
0
0
xCube avatar
@yugiohyugiohzebuyug: Én elég kevés esélyt látok rá, nem lenne sok értelme. Ettől persze még dönthet így az nvidia.
0
0
0
0
Quadgame94 avatar
@yugiohyugiohzebuyug: Valamikor biztos. De nagyon sok kártya maradt a raktárakban. Február előtt biztos nem jön egy kártya sem.
0
0
0
0
yugiohyugiohzebuyug avatar
@Quadgame94: Persze, hamar én se számítok rá. : )
0
0
0
0
MrPAYER avatar
@yugiohyugiohzebuyug: Egyébként sincs sok értelme várni rá, 4080 12G 192bit-ből kiindulva lesz még itt 4070 8GB 128bit 😂, 4060-at megtippelni se merem. Ha nincs tervben fél millió+ -ért kártyát venni akkor ink. 3080/3080Ti/6900XT kombinációk között kezdj el nézegetni (mármint ha egy kb. 4070 szintű kártyát szeretnél mert a hsz-edből erre tudok következtetni), vagy esetleg várd meg a november 3.-ai AMD show-t, hátha lesz valami értelmes darab értelmes áron ami már next gen.
0
0
0
0
yugiohyugiohzebuyug avatar
@MrPAYER: Munka miatt lenne "sürgősebb", úgyhogy AMD sajna most kilőve. Max remélem, hogy jól sikerülnek és hatással lesz az NV-re.
Fontos a sok VRAM és RT-teljesítmény. Azt várom, hogy a 3090 menjen még lejjebb használtan. Úgy se most vennék, kíváncsi leszek, hogy jövő év elejére milyen áron lesz aprón. Jelenleg a legolcsóbb használt 3090 - ami talán még nem kelt el, mert a napokban tették fel - az 330k volt.

Ha sok lesz számomra 2023-ban is (nem tudni mennyi pénzem lesz akkor, így semmit nem tudok mondani), akkor kompromisszummal lehet lesz egy 3060 12GB, ami már most 100k-ért megy kb.
0
0
0
0
Quadgame94 avatar
@yugiohyugiohzebuyug: Látni fogod úgy is majd az RDNA3-at hogy megfelel e neked. Sztem RT-ben a csúcs kártya RTX 3090 RT teljesitményenél jobb lesz, de persze nem éri el majd a 4080-at (16 GB). Raszterizációban pedig 4090-et hozza majd, cserébe 1200 USD körül lesz. Itt lenne nekik az esély hogy nagyot dobjanak. Egy 7800 XT 800 dollárért brutál lenne (= 4080 16 GB). Annyira megnézném a fejeket akkor az nV-nél :D.
0
0
0
0
yugiohyugiohzebuyug avatar
@Quadgame94: Legyen úgy. : )
De munkára nem veszünk AMD-t, mert a programok nem szeretik.
0
0
0
0
carl18x avatar
Azért a 1200 dolláros 4080 elég kemény ugrás az korábbi generációhoz képest. A 12 gigás x80 igazából egy 4070 lett volna, csak így jobban beveszi a közösség.
Úgy látszik ez alapján a 4090 a legjobbnak, 400 dollár a felár a X80-hoz képest de 60%-al több cuda mag van benne.
Azért kíváncsi leszek ahol nincs DLSS és Ray Tracing, ott mennyivel is tudja majd megelőzni a régebbi generációt.

Meg a 400 dolláros dollár/forint árfolyam és a 27% áfa végett itthon nem lesz ez nagyon népszerű.
Bár nem is a hazai piacra szánja az Nvdia.
0
0
0
0
💬 6
bukta2 avatar
@carl18x: egyetértek :D

biztos kemény kártyák lesznek, a mostaniak is azok... de azért ezzel az árazással kicsit tökön szúrták magukat... :/ bár a bányászoknak aztán tök mind1 mi mennyibe kerül úgyis megveszik majd :D
1
0
0
0
carl18x avatar
@bukta2: Hát ez a fő gond 1200 dollár, 400 forintos dollár/forint árfolyamon.
Rámegy még a kereskedő haszna és a világbajnok áfa és nem lesz ez olcsó mulattság.
700-800E forint lehet itthon jó indulattal.
0
0
0
0
MrPAYER avatar
@carl18x: Én amondó vagyok nem kell ezt még készpénznek venni, ez csak amolyan útmutatás, hogy mit szeretne mennyit fizessenek érte. Természetes, hogy 1000 dodó fölött akarja adni a 80-ast mert msrp ide vagy oda, a 3080 se volt olcsóbb másfél évig, a befektetőknek meg kőkeményen prezentálni kell a matekot negyedévente. Nem vagyok jós de tavaszra lesz ez még olcsóbb, jobban kiürül a polcokról az Ampere, AMD betolja alá majd tél környékén az RDNA 3-at árban, nem fenttarthatóak ezek az értékek már féléves távlatban sem. Most ősszel páran kifizetik a türelmetlenségi adót, Q2-ig mindenki másnak meg van ideje összeszedni a rávalót.

Egyébként ritka undormány húzás 80-as néven kiadni egy 70-est, de valszeg nem hülyék dolgoznak a marketing osztályon, biztos bejön belőle pár ezer $.

Nagyot akart mondani a kis sunyi húzott szemű, de majd ha a kutya nem veszi launch után már 2 hónappal ennyiért, lehet menni magyarázkodni. Az meg nem opció, hogyha nem veszik ennyiért akkor nem gyártjuk tovább. 😁
0
0
0
0
cabus26 avatar
@MrPAYER: Igen,meg ezek a kártyák 4K v a 32:9-es felbontásra készülnek.
A 4K-t is röhögve fogják futtatni 144 hz-es monitoron.
Én egy 4K oled monitor társaságában fogom max megvenni,ha egyszer megjelenik itthon is.
0
0
0
0
carl18x avatar
@MrPAYER: Hát a fő gond még januárba jöhet egy 30%-os infláció is, rámegy majd mindenkinek a haszna és itthon 1 milka lehet majd 1 videókártya.
0
0
0
0
no avatar
@carl18x: Az Amd kari raszterben erősebb lesz Rt Ben se sokkal lesz lemaradva pletykàk szerint S olcsöbb S kevesebbet fogyaszt majd ahogy ez volt a 6000 eseknèl is
0
0
0
0


Elfelejtett jelszóRegisztráció