Az Nvidia bejelentette az RTX 50 „Blackwell” GPU-kat

Szerző: xoki | 2025. January 07. | hír | 67 hozzászólás

A hónapokig tartó szivárgások és pletykák után az Nvidia végre hivatalosan is bejelentette a GeForce RTX 50 szériás grafikus kártyákat, amelyek a Blackwell architektúrára épülnek, illetve új generációs Tensor és RT magokkal érkeznek. Természetesen a DLSS 4 is bemutatkozott.

A pletykákból arra lehetett következtetni, hogy az RTX 5080-at fogják először piacra dobni, azonban az Nvidia négy új SKU-t is bejelentett: RTX 5090, RTX 5080, RTX 5070 Ti és RTX 5070. Az RTX 4090-hez képest az RTX 5090 több mint kétszer akkora MI TOPS teljesítményt kínál, de az alatta elhelyezkedő kártyák esetében is jelentős ugrásra számíthatunk.

Ez olyan funkciókat tesz lehetővé, mint a DLSS 4, amely a Frame Generationt Multi Frame Generationre emeli, ezzel még magasabb képkockasebesség érhető el, teljes ray tracing mellett is.

Az RTX 5090 és az RTX 5080 grafikus kártyák január 30-tól lesznek kaphatók, miközben az RTX 5070 Ti és az RTX 5070 februárban válik majd elérhetővé.

Hozzászólások: 67
Hozzászólás küldéséhez be kell jelentkezni.
pinkyke avatar
@kovb677: de,jó minek kell folyton új marhaságokat ki találni a kártyákhoz?🤔
nem kell szarul megcsinálni a csatlakozót és nem lesz megégve.
a három csatlakozó egyébként sem praktikus esztétikailag.
0
0
0
0
vyne avatar
@pinkyke: Eddig is csak annak egett le aki nem dugta be rendesen.
Amugy az en tapomhoz adtak rendes kabelt amibol ketto megy a tapba es 1 a vgaba, szoval ugyan ugy illetve jobban is nez ki mint a regi valtozat.
0
0
0
0
pinkyke avatar
@vyne: hát ez az hogy a méreg drága kártyához is adhatnának egy normális kábelt ha már nem új kábel kell hozzá.
0
0
0
0
alacka97 avatar
Erre kíváncsi leszek, az biztos, hogy a CUDA magok lassan elérik fizikai korlátjaikat, így az AI irányába fognak a kártyák fejlődni, ami nem is baj, mert ez újabb lehetőséget nyithat a játékiparban. Most arról lehet vitatkozni, hogy a nyers erő a CUDA magok-ból tevődik vagy sem, a lényeg hogy ez az irány elkerülhetetlen. A DLSS és az FG is a tensor magok nyers teljesítményéhez kötöttek, amiben nagy előrelépés történt. Most épp egy olyan átmeneti időszakban vagyunk, ahol minimális kompromszzumot kell vállalni ezeknek a használatával, de ez folyamatosan fejlődik. Valószínűleg 2x FG sokkal jobban fog működni és ezt a 4000 széria tulajdonosok is megkapják. Homályosodásban nem kis előrelépést prezentáltak úgy, hogy már az előző generációs FG sem volt vállalhatatlan, persze ha nagyon kikockázod a képet és nagyítóval nézed megtalálod a hibákat. A VRAM-ról meg annyi, hogy a DLSS irány pont az alacsonyabb renderelési felbontásnak köszönhetően csökkenteni fogja a VRAM fogyasztást. Ettől függetlenül egyet értek azzal, hogy 4GB-ot igazán rádobhattak volna mindegyik kártyára. A felöl viszont nincs kétség, hogy jelenleg az NVIDIA monopól helyzetben van, így kár is bármilyen negatív jelzővel illetni, amig a többi piaci résztvevő a nyomában sincs.
0
0
0
0
carl18x avatar
Érdekes lesz! Akkor ha a kártya valójában tud 15 FPS-t abból lehet 120 fps ? :D Úgy láttam a DLSS4 és framegen 8X fps emelkedést hozhat ha egy adott cím támogatja! :D
Csak itt lesz egy apró baj hogy a jövő játékait még úgy se fogják optimalizálni mint eddig.
Úgy vannak vele majd a DLSS és a Framegen javítja a teljesítményt! :D

A RTX 4000 és 5000 között 20-30% natív teljesítmény különbség lehet átlagba raszterbe. A 30%-ot is a legjobb jó indulattal írtam.🤔 Szóval ami megint eladja a kártyát az a DLSS teljesítménye.
0
0
0
0
💬 7
pinkyke avatar
@carl18x: én továbbra sem értem hogy miért nem lehet elfelejteni a 8GB-os verziókat jó pár játékban kevés már a 8GB ram gyorsan elfogyasztja a szarul megcsinált játék.
a teljesítményt majd csak akkor lehet tudni ha kijöttek a kártyák mert amit az nvidia élő bemutatóban mutattak az lehet átverés is na meg az is számít hogy mennyit fog valójában fogyasztani.
0
0
0
0
carl18x avatar
@pinkyke: A RTX 5060 talán 8gb-os lesz és pont ez lesz a baj. Nem a legjobb üzlet és nem és időt álló a 8gb vram.
0
0
0
0
pinkyke avatar
@carl18x: szerinted a mostani 3060-amat lecseréljem 4060-ra? vagy maradjak még a mostanimnál és várjam meg az 50-es szériát!?
0
0
0
0
carl18x avatar
@pinkyke: 12 gigás RTX 3060? :D Ha már cserélsz inkább 12 gigás 6700XT.
Minden esetbe érdemes várni, de 2025-ba egy 8 gigás új generációs kártya nem a legjobb befektetés.
0
0
0
0
pinkyke avatar
@carl18x: esetleg tudsz olyat ajánlani amit lehet is kapni és nem a plafonon van az ára? 150k max
0
0
0
0
carl18x avatar
@pinkyke: 6700XT vagy RX 6800 de abból valamelyik használ. A Lényeg minimum legyen 12 gigás ha jövőbiztos akarsz lenni. RX 7700XT is van de az 150E fölött van, attól függ mire kell milyen felbontáson.
0
0
0
0
pinkyke avatar
@carl18x: 1080p játék film zene böngészés.
0
0
0
0
Zsolt115 avatar
Mostani configgal teljesen megvagyok elégedve. Nem váltanék :D
0
0
0
0
MaximumGame avatar
Frame Generationt Multi Frame Generationre

Ez az emberek àtbaszasa.. olyan Ghost van az extra 3 frame nek... Hogy nagyon gàz.... 😂
2
1
0
0
💬 3
cabus26 avatar
@MaximumGame: Jó lesz neked még a 3080ti 1440p-re.
0
0
0
0
MaximumGame avatar
@cabus26: Jah én is ezt érzem. 🤔 Majd ha úgy érzem kevés, amit lehet ahogy optimalizálnak ki tudja mennyi idő. Úgy is a kövi a GTA 6 ami érdekel. 🫡
1
0
0
0
redbull6969 avatar
@MaximumGame: Szelemkép nem is csodálkozom! de lehet majd megjelenésnél megoldják vagy nem 😂
0
1
0
0
Zollee avatar
Én az 5060Ti ra leszek kíváncsi.
0
0
0
0
HornieChan avatar
Szerintem én kivárom a 6xxx szeríát, addig jó lesz nekem a 6700XT
6060 talán már nem 8GB lesz xD
de ha 6070 16GB azt sem bánom
messze van még az kb 2 év addig bármi lehet
0
0
0
0
zsolo avatar
Az 5070 mennyi lesz itthon kb? 300k körül kellene lennie...
0
0
0
0
💬 3
no avatar
@zsolo: 12gb ért +20% valós erőért nagyon megéri :D

Egy friss Black Ops 6 benchmark a sima 9070 re (nem XT re) is majdnem 4090 nyi FPS számot adott ki natív FSR nélküli 4K n Extreme szinten is! 99fps t hozott!
1
0
0
0
bukta2 avatar
@Andrews: Codok mindig is jobban futottak AMD-ken valamiért
0
0
0
0
no avatar
@bukta2: Igen bár èn se tudom mièrt mert nem egy Crysis vagy Black Wukong wow grafika. Mennie kène simàn Inteleken is. Pl B580
0
0
0
0
Lordkeksz avatar
BTW a multi FG-t leszámítva minden új dlss feature (ai transform RR, stb) érkezik a 40-es szériára is. Szóval én 4090 tulajként nagyon nem érzem szükségét a feljebb váltásnak. 5090-es nyers rasterben 28 fps-t présel ki magából 4K-n CP2077 alatt, a 4090 meg 20 fps-t. Plusz 120 hz vrr tv-n tolom, tök felesleges nekem a 200+ fps. Az új dlss megoldásokat izgatottan várom, ajánlom minenkinek megnézésre a Digital Foundry vonatkozó videóját.
0
0
0
0
💬 2
bukta2 avatar
@Lordkeksz: Az attól függ, raszterben érdembeni előrelépés nemigen történt ezt mondja mindenki, de azért azt tegyük hozzá hogy aki dolgozik a PC-jén annak rohadt jól fog jönni az a 32gb GDDR7 es memória többlet! ☝️ (33%-al több vram mint a 4090 esetében)

Gamingre abszolút felesleges váltani 4XXX szériáról, kivéve ha majd az 5060/ és 5060ti jön ki mert akkor azért az a +2-3 frame amit a MFG generál majd az nagyon jól fog jönni mindenkinek ha még most nem is de a későbbiekben időtállóbb lehet. (Szerintem)
4070//4080//4090 ről én nem váltanék... 4090ről is csak akkor ha munkára használnám, de akkor sem rohannék a boltba az 5090-ért,hanem kivárnék.
0
0
0
0
Lordkeksz avatar
@bukta2: Nem csak hogy mindenki mondja, maga Jensen nyilatkozta le, hogy raszterben elérték a plafont hardveresen nem tudják már tovább fokozni a nyers erőt és ezért az AI a jövő számukra. Aki pedig munkához is használ GPU-t az valszeg meg fogja venni az 5090-t, hisz az neki befektetés. Én viszont szimplán gamer szemszögből állok hozzá a kérdéshez, arról nem is beszélve, hogy azért a többségnek szerintem nincs 240+ hz 4K monitora, vagy neadjisten 8K kijelzője, éppen ezért nem volt sok értelme azokat a 200+ fps számokat az arcunkba marketingelni. Szerintem ez a generáció az alsóközépkategóriában lesz sikeres az mfs miatt, a felsőkategória viszont nem hiszem, hogy akkorát fog szólni. Plusz közben az AMD is belebegtette az FSR4-et a következő RDNA-val. Meglátjuk. Én a magam részéről szerintem kivárom a 60-as szériát, hacsak nem nyerek menet közben a lottón :D
0
0
0
0
MaximumGame avatar
És lesz 5090Ti is ez màr tuti. Mert RTX 5090 letiltott Cuda magokkal jelenik meg. 😎
0
0
0
0
💬 1
bukta2 avatar
@MaximumGame: Szerintem meg nem lesz (bár én nem értek hozzá csak mint átlag ember szólok hozzá a dologhoz)

1. Nincs konkurencia ami indokolná a fenyegetettséget ebben a szegmensben

2. Az 5090-re 32gb GDDR7-et pakoltak (ez 33%-kal több mint az előző gen csúcsa a 4090-nél)

3. lesznek Ti verziók biztosan, csak szerintem nem az 5090-nél.

4. Azért kapott pl az 5080 is ,,csak" 16gb -ot mert abból biztosan lesz nagyobb vrammal megáldott verzió is Ti vagy super néven.

De még1x ezek meg az én nézeteim, igazából az hogy vannak letiltott cuda magok, nem jelenti azt hogy lesz is folytatás mert az 5090 valjuk be 32gb vrammal,gyorsabb memóriával és az új MFG-el szerintem jóval többet ad már így is mint azvelőző gen csúcsa. Aztán majd visszatérünk rá egy fél év múlva hogy kinek lett igaza 😅🤝
0
0
1
0
Legendrush27 avatar
A 4090-et 1900$-ért adják a csimpánzok, így tuti vétel az 5090, de egy 5070ti is elég szinte bárkinek aki nem akar elcsöppenni 4K 120Fps-re.
1
0
0
0
MrPAYER avatar
Mind árban mind teljesítményben túl nagy a gap a 80 és 90 között, szóval ebben a generációban van esély 80Ti-re. $1300-500 körül min. 20g memóriával, raszterben a 4090-et visszapillantóból is alig látva talán érdekel ez a gen, egyelőre ezek a modellek érdektelenek számomra.

5070Ti viszont meglepően jó vétel is lehet ezen az MSRP-n, aztán majd az eu kisker árak lesznek a döntőek úgy is, de egyelőre biztató. Ampere és RDNA 2 tulajoknak akik nem akarnak komplett vagyonokat elkölteni jó alternatíva lehet az újításhoz.

Bár az egész CES show legérdekesebb újdonsága NV oldalróla Reflex 2 volt, de az meg az egész RTX családon belül működni fog, nem 50 series specifikus dolog.

Maguk a káryták szerintem mehh... volt már ennél jobb gen. váltás is...mondjuk rosszabb is. Ez a DLSS4 meg extra-mega-brutal-hyper frame generation ami 27 frameből csinál 243-at a promó kép alapján... egészségedre Jensen. Ha ebben az ütemben haladunk talán majd a DLSS 8 környékén lesz olyan minőségű a kép mint egy mezei TAA. Ku*va jók ezek a promós képek, hogy még élesebb is mint a natív állóhelyzetben, statikus screenshoton...csak játék közben szerintem az emberek mozognak.

"4090 performance on $549".... az hogyne... csodálom, hogy végig bírta mondani röhögés nélkül. De hányan beveszik majd ezt is mint mindig.
2
0
0
0
💬 12
Kredo1996 avatar
@MrPAYER: A dlss minőség modban minimálisat ront a képen,viszont az fps növekedés az már nem minimális lesz! Szóval egyértelmű hogy egy bitang jó technológiáról van szó amit egyértelműen megéri majd használni független attól hogy 5060-as vagy 5090-es van a gepedben!
0
0
0
0
MrPAYER avatar
@Kredo1996: Persze megéri. Annak aki szereti és bírja a szeme, hogy a gombnyomás meg a kép között lefőzök egy kávét.

Majd az AI megoldja ezt is mint mindent. Adok 400 kamu dollárt a kamu frameket generáló 5080ért, a maradék 1100-at meg legenerálja az AI a NV-nek. Deal?
0
0
4
0
Kredo1996 avatar
@MrPAYER: Az AI a jövő! Nem csak a játékiparban hanem mindenhol. Egyébként pedig pár év múlva már senki sem fog nativ felbontason videojátékot jatszani! A bemutatott kártyák közül pedig az 5070 egy bitang jó kis kartya lesz már előre látom! 🙂
0
0
2
0
PoPet avatar
@Kredo1996: Dehogynem fogok 3 év múlva natívon játszani, csak nem a patikamérlegen 2 évre gyártott, marketingbullshittel tűzdelt, 240FPS-t kiíró de 60 FPS-nek érződő 12GB VRAM-os "bitang jó" kártyát veszem, hanem beáldozok 15% RT-t, azért a +4GB VRAM-ért ami majd később kelleni fog, hiszen van játék amiben 1440p-n már ma határ a 12. Hattttalmas fejlődés egyébként az a 10-20% teljesítmény növekedés, 10-20%-al nagyobb powerből, 0%-al több VRAM-al, és 100%-al több marketing bs-el.

Spoiler!

DLSS 5: You watch AI play the game. Buttery smooth experience, zero latency
DLSS 6: AI plays you
DLSS 7: You are the AI
0
0
0
0
PoPet avatar
@MrPAYER: Az 5070-ért meg adok 120-at, a másik 330-at meg fénymásolom.
0
0
0
0
MaximumGame avatar
@MrPAYER: 4000 széria is ez volt... 😀
0
0
0
0
Yezi_ avatar
@Kredo1996: Szerintem az ellenszenv itt nem a DLSS Super Resolution-re irányult, hanem inkább a Frame Gen részére.
Az upscaling-et én speciel nem bánom, DLSS Quality sokszor még 1440p-n is jobban néz ki, mint az okádék TAA implementációk, natív felbontás ide vagy oda.
Frame Gen viszont kb. mint halottnak a csók, szerintem is egy iszonyat nagy gimmick az egész.
0
0
2
0
PoPet avatar
@Yezi_: A DLSS még szódával, konzolon is nagyon sok ember tűri, hogy valójában az 1440p igazából 720, vagy 960, netán még a 4K is. De PC-n én egyelőre még nem vagyok hajlandó lenyelni, főleg akkor, ha azért kell használni egy 2025-ben kiadott kártyán majd, mert megint spóroltak szaros 15$-t a gyártáson.

A framegen meg nettó bullshit, a sok FPS-ben az volt a lényeg, hogy sokkal folyamatosabb a kép, és ebből kifolyólag az irányítás is, ez a marketingszemét csak az egyiket tudja, a másikon még ront is.
0
0
0
0
MaximumGame avatar
@PoPet: Nem tudjàk eladni a 750 és 1000Hz monitorokat ilyen szaros moddok nélkül mint a frame gen.
0
0
0
0
PoPet avatar
@MaximumGame: De nem csak az a rohadt FPS számít, hanem a latency is. Már a 360Hz-et is max comp FPS-re veszik meg (oda sem éri meg), ott meg minden egyenesen hulladéknak számít amitől a latency nagyobb, illetve hiába van 500 FPS, ha az input ugyan az marad mint 150-nél.
0
0
0
0
MaximumGame avatar
@PoPet: Mondjuk csak DLSS-t hasznàltam eddig is.
Quality módban. FSR3 használtam Stalker 2-be. 3080Ti nincs még ez a nagy kamu frame. Csak FSR3 al 🫡
0
0
0
0
Zoli73 avatar
Nálam szerintem az RTX 5070 Ti lesz a befutó!
0
0
0
0
F4rky avatar
Az ördög a részletekben rejlik...
0
1
5
0
💬 1
Andor1997 avatar
@F4rky: Legjobb videó, rövid, tömör, lényegretörő!
4
0
0
0
redbull6969 avatar
Na igen az 5080 elég jó árban lesz nálam az lesz remélem natívan is megelőzi a 4090-et
De azért kicsit többre vártam AI nagyon ott van most az új kártyáknál!
Ez az Nvidia és AMD olyan mint ha jobban lennének söt még talán rokonok is!
természetesen a tesztekre vagyok kiváncsi !
0
0
0
0
💬 20
xCube avatar
@redbull6969: Teljesen esélytelen hogy az 5080 megelőzi natívan a 4090 -et.
0
0
0
0
PotykaPal avatar
@xCube: Egyetértek. Majd látjuk, hogy tesztek alapján hol helyezkedik el, mondjuk kíváncsi vagyok ez a 4x-es Frame Generation milyen késleltetés mellett fogja produkálni az extra frameket.
0
0
0
0
PoPet avatar
@PotykaPal: Hát majd látod, hogy 200 FPS, csak amikor megmozdítod az egeret, kormányt, kontrolleren a kart, nem érted, miért tűnik 50 FPS-es játéknak :DDD Amúgy a natívhoz képest kb duplázódni fog a latency a 3 kamuframmel.
0
0
0
0
simon69 avatar
@PotykaPal: Reflex 2 erre lett kitalálva, aki látta a bejelentéseket az tudja, hogy mi az.

[LINK]
0
0
0
0
redbull6969 avatar
@xCube: Van benne valami az tény!! De el is árulod hogy miért esélytelen?? vagy majd magamtól rá jövők
0
0
0
0
MaximumGame avatar
@redbull6969: Esélyes hogy jobb lesz nativban is.
RTX 5080 256bittel 960/ ram sebessége.
RTX 4090 384bittel 1008/ lassabb ram Dr nagyobb sàvszélel.
CUDA magok is több van a 5080 ön és újabb magok. Nagyobb órajal. Szerintem 15% tuti ver rà Nativban.
0
0
0
0
redbull6969 avatar
@MaximumGame: Majd a tesztek kideritik anno a 4070ti nél volt hasonló hogy hozzota natívan a rtx 3090-en eléggé rossz ha 5080 nem tudja majd a 4090-en de én már nem csodálkozom semmin az nvidianál
0
0
0
0
xCube avatar
@redbull6969: Az RTX 4070 Ti és 3090 esete egészen más tészta, az RTX 4070 Ti -nek hatalmas órajel előnye volt, amivel a számítási teljesítménye is durván megnőtt (nagyjából 4,5 Tflops -szal volt gyorsabb a 3090 -nél). Emellett az Ada generációban megnövelt L2 Cache is adott némi plusz lökést. Az RTX 5080 és az RTX 4090 között 26 Tflops a különbség az RTX 4090 javára.
0
0
0
0
xCube avatar
@MaximumGame: Nem tudom, hogy te milyen adatokat nézel, de az RTX 5080 -GPU -jának jóval kevesebb CUDA magja van, konkrétan 5.632 darabbal kevesebb. A CUDA magok felépítése megegyezik az Ada generációéval, ebből nem jön plusz teljesítmény. Emellett kevesebb ROP és textúrázó is van benne, ami tovább csökkenti a teljesítményt. Említésre méltó órajel előnye sincs.
0
0
0
0
xCube avatar
@redbull6969: A puszta paraméterek alapján nem lehet gyorsabb nála. Hiába fejlesztett architektúra, majd' 6000 CUDA maggal kevesebb van rajta, kevesebb bene a ROP és a textúrázó, tensor magokból és RT egységekből is kevesebb van (utóbbiak fejlettebbek, így a puszta RT kapacitásban talán nem lesz nagy a különbség). Mindezt közel azonos órajelen. A VRAM sávszélessége marginálisan szűkebb.

Nem véletlen, hogy az RTX 5090 és 5080 között hagyott egy szakadékot az nvidia, ott marad az RTX 4090.
0
0
0
0
redbull6969 avatar
@xCube: Ha így van akkor szart se ér a 5080👏👏 4080 4090 között nincs ég és föld ami a 4080 ment 45 fps az a 4090-en 60 fps lóf@sz
0
0
0
0
xCube avatar
@redbull6969: Az 5080 valamennyivel gyorsabb lesz a 4080 -nál, DLSS4 -gyel pedig lényegesen gyorsabb lesz. A 4080 kivezetésre kerül és átveszi a helyét az 5080. De nem értem a "szart sem ér" kijelentést. Lassan el kéne engedni a "natív vagy semmi" elvet, puszta józan ésszel belátható, hogy nem lehetséges ebben az irányban érdemben továbbfejlődni.
0
0
0
0
redbull6969 avatar
@xCube: A DLSS 4-et nem csak az 50-es kártyák, hanem minden A 40-es 30-as és a 20-as is használni fogja csak 1 a multi frame gen jönn a 50-es re!!
0
0
0
0
xCube avatar
@redbull6969: Ezzel tisztában vagyok, de pont a MFG lesz az 5000 széria elsődlegesen tapasztalható előnye. Az AI számításokban lévő erőfölény más területen majd csak idővel gyűrűzik be (pl. neural texture compression). Ezekről nem tudni, hogy mennyivel lesznek előnyben az 5000 szérián a korábbiakkal szemben, de sanszos, hogy jócskán, mert a Blackwell -t nagyon kigyúrták AI -ra. FG -t a 3000 széria sem támogat továbbra sem, cserébe kap egy lökést a DLSS Super Resolution és a Ray Reconstruciton is, amiket minden RTX széria megkap.
0
0
0
0
MrPAYER avatar
@xCube: De lehetne, csak szarnak rá. Itt most pusztán megint annyi történt, hogy az NV piszkosul ért ahhoz, hogy mibe tegye bele a kezét és mikor. Az AI szegmensben már a boom előtt is terjeszkedtek, az alap már rég kész volt, arra pedig ők már rég a falakat húzzák amíg a többi csak követni tudja a piacot és még csak ott tartanak, hogy az alapot kiásó markolókra kérjenek le árajánlatot.

Nyilván ha nem az NV, akkor majd más lovagolta volna meg a trendet, de miért adnák át másnak a terepet ha minden eszközük adott, hogy éllovasok legyenek? Hülyék lennének, jól tették.

Viszont azt is látni kell, hogy ez megint csak egy trend, ami idővel apad. Nem fog akkorát és olyan gyorsan esni mint a crypto mining mert azzal ellentétben ennek még értelme is van, de szépen lassan és csendben beépül a legtöbb iparágba, nem lesz a piac rászorulva arra az 1-2 disznófejű mágnás cégre mert a sarki coopban is lesz USB-C csatis AI core generátor admirális generális amit két utcával feljebb a helyi Kft. rakott össze. Ugyanúgy mint ahogy 2008-ban aki smart phone-t akart csak egyet tudott választani az iPhone-t, ami mai szemmel jó drágán jó szar, most meg bemész a Yettelhez és 25-ért hozzádvagják ami ugyanúgy megfelel a smart phone kategória besoroláshoz szükséges összes tulajdonságnak.

Visszatérve a dGPU-khoz konkrétan, azért éppenséggel lenne még hova csökkenteni a node-ot, meg létezik más design is a monolitikuson kívűl. Persze ez nem mind az NV hibája, hanem úgy általánosságban az iparág összes résztvevője tehet róla. Egyértelműen könnyebb beállni egy trend mögé, ami azon túl, hogy az általuk forgalmazott termék használati értékét eredendően képes javítani, de még megbocsájtó is lesz a publikum mert amúgyis áll a szerszám az aktuál trendre. Ezt pedig mégtovább tudja tussolni a marketing és a média, hogy amúgy érdemi munka konkrétan és úgy nem mellesleg egyébként nem is igazán folyik.
0
0
0
0
xCube avatar
@MrPAYER:
De lehetne, csak szarnak rá.


Ezt kifejthetnéd bővebben.

Itt most pusztán megint annyi történt, hogy az NV piszkosul ért ahhoz, hogy mibe tegye bele a kezét és mikor. Az AI szegmensben már a boom előtt is terjeszkedtek, az alap már rég kész volt, arra pedig ők már rég a falakat húzzák amíg a többi csak követni tudja a piacot és még csak ott tartanak, hogy az alapot kiásó markolókra kérjenek le árajánlatot.

Nyilván ha nem az NV, akkor majd más lovagolta volna meg a trendet, de miért adnák át másnak a terepet ha minden eszközük adott, hogy éllovasok legyenek? Hülyék lennének, jól tették.


Ezt nem tudom aláírni. Az nvidia a cég felvirágzása és a CUDA platform kiépítése óta nagyon erősen épít a kutatásra és fejlesztésre, nem a hype train -re ülnek fel, hanem ők fektetik a síneket. A trendalkotásnak csak az egyik oldala a piaci haszon, a másik viszont a technológiai fejlődés. Amit az nvidia most csinál, az nagyon erős befolyással rendelkezik a jövőre, ezért is kerültek oda, ahol most vannak. Egyértelmű, hogy ha nem ők kezdték volna, akkor valaki más lenne a helyükön, de nekik voltak erőforrásaik, tapasztalataik és elképzeléseik, amiket megvalósítottak.

Viszont azt is látni kell, hogy ez megint csak egy trend, ami idővel apad. Nem fog akkorát és olyan gyorsan esni mint a crypto mining mert azzal ellentétben ennek még értelme is van, de szépen lassan és csendben beépül a legtöbb iparágba, nem lesz a piac rászorulva arra az 1-2 disznófejű mágnás cégre mert a sarki coopban is lesz USB-C csatis AI core generátor admirális generális amit két utcával feljebb a helyi Kft. rakott össze.


Ez a technológiai szektorban mindig így működött és ha nem történik valami hatalmas katasztrófa, akkor így is marad. A drága újdonságok idővel olcsóbbá és elérhetőbbé válnak, így a használatuk is általánossá válik. De nem értem, hogy ez mit változtat az itt diskurált témában. Pontosabban ez a technológia használhatóságát és értékességét mutatja, nem pedig annak ellentétét.

Ugyanúgy mint ahogy 2008-ban aki smart phone-t akart csak egyet tudott választani az iPhone-t, ami mai szemmel jó drágán jó szar, most meg bemész a Yettelhez és 25-ért hozzádvagják ami ugyanúgy megfelel a smart phone kategória besoroláshoz szükséges összes tulajdonságnak.


Megfelel a kategória besoroláshoz szükséges tulajdonságoknak, de ezt leszámítva kutyát dobálni való. Az olcsó smartphone -ok se nem jók, se nem tartósak, se nem biztonságosak. De itt már nagyon eltérünk a témától.

Visszatérve a dGPU-khoz konkrétan, azért éppenséggel lenne még hova csökkenteni a node-ot, meg létezik más design is a monolitikuson kívűl. Persze ez nem mind az NV hibája, hanem úgy általánosságban az iparág összes résztvevője tehet róla. Egyértelműen könnyebb beállni egy trend mögé, ami azon túl, hogy az általuk forgalmazott termék használati értékét eredendően képes javítani, de még megbocsájtó is lesz a publikum mert amúgyis áll a szerszám az aktuál trendre.


A node méretének csökkentése nem olyan egyszerű, mint korábban. Sosem kellett még annyira node specifikusan tervezni az architektúrákat, mint az elmúlt években. Chiplet design -nal sem vagy előrébb, mint a monolitikus chipekkel, sem fogyasztáscsökkentésben, sem teljesítménytöbbletben. Az egyetlen előny a yield. Ha sűríted a tranzisztotokat, akkor csökkentened kell az órajelet, mert megfő a chip. A 3D chiplet design számolók esetén nem haszálható jelenleg, illetve hőtermelés szempontjából sem praktikus. Szimplán nem áll készen még olyan technológia, amivel a jelenlegi problémákat relatíve gyorsan meg lehetne oldani. Nem minden csak trend és marketing.

Ezt pedig mégtovább tudja tussolni a marketing és a média, hogy amúgy érdemi munka konkrétan és úgy nem mellesleg egyébként nem is igazán folyik.


Elég kemény érdemi munka folyik a háttérben az iparág több résztvevője részéről, csak éppen ennek nincsen hírértéke, mert még nincsenek olyan eredmények, ami a felhaszálói oldalon kézzel fogható lenne.

Ha pusztán matematikai alapon nézed a hagyományos raszteres grafikát, akkor nagyon gyorsan belátható, hogy ha ezen a vonalon akarunk gyors ütemben tovább fejlődni, akkor egy - két éven belül tényleg reaktorok lesznek a számítógépekből. A ray tracing és az AI a legpraktikusabb megoldás feloldani rengeteg korlátot és még gyorsabban emelni a színvonalat, mint azt pár éve csak reméltük volna.
Ha ezt nem akarjuk, akkor megállhatunk a jelenlegi teljesítményszinten, amiből a játékfejlesztői oldalon még ki lehet préselni talán 20 - 30% -ot célzott optimalizációval és a művészek / designerek megfelelő munkájával, de ennyi.
Egyébként a mai grafikai szint szerintem már elérte a non plus ultra szintet. Még látszik, hogy nem valódi, de már nagyon közel áll hozzá. A legtöbb már tényleg csak a művészeken múlik, nem a technológián.
0
0
0
0
thug85 avatar
@xCube: Az RTX 4090-et október óta nem gyártják. Itt valami más lesz, ha lesz. De nem feltétlenül indokolja semmi, hogy legyen, legalábbis gyártói oldalról nem.
0
0
0
0
xCube avatar
@thug85: Teljesítményben értettem, nem az új hardverek piacán. Én úgy sejtem, hogy nem akarták szembe köpni az RTX 4090 tulajokat azzal, hogy hoznak a helyére direktben egy olcsóbb, teljesítményben megegyező kártyát. Mindemellett valóban nem indokolja semmi, hogy legyen ebben a pozícióban valami.
0
0
0
0
Andor1997 avatar
@redbull6969: Hát ha maga az Nvidia és AMD nem is rokon, a fővezérek igen...ugyanis unokatestvérek.
0
0
0
0
redbull6969 avatar
@Andor1997: Na akkor nem rossz az spekulációm xd
1
0
0
0


Elfelejtett jelszóRegisztráció