5 nm-es Ada Lovelace GPU-val érkezhet az RTX 4000-es széria
A következő generációs GeForce RTX 4000-es széria alapja állítólag az 5 nm-es Ada Lovelace GPU lesz, legalábbis ha hihetünk @greymon55 információinak. A leaker elég aktív volt az utóbbi időben, és az Nvidia mellett az AMD következő generációs GPU-iról is megosztott néhány érdekességet.
Tehát @greymon55 legfrissebb értesülése alapján a GeForce RTX 40 szériás grafikus kártyák alapja az Ada Lovelace GPU architektúra lesz. Ez fogja leváltani az Ampere termékeket, és a TSMC 5 nm-es gyártási technológiáját fogják használni hozzá, de jelenleg még nem tudni, hogy az N5 vagy a N5P node-ot tervezik alkalmazni.
A fentieket egy ismertebb leaker, @kopite7kimi is megerősítette. Ő már korábban is szóba hozta a következő generációs, 5 nm-es Nvidia GPU-kat, és ekkor azt is hozzátette, hogy a gyártó egy elég nehéz döntés előtt áll. Az Ada Lovelace elsősorban gaming architektúra, viszont különböző pletykák szerint teljesítményben alulmarad az RDNA 3-mal szemben.
Amennyiben az Ada Lovelace nem tudja felvenni a versenyt az AMD következő generációs termékeivel, akkor az Nvidia állítólag teljesen elkaszálja ezt a felhozatalt, és áttérnek a saját MCM GPU architektúrájukra (Hopper), melynek dizájnját állítólag az év végéig véglegesíteni is fogják.
Meglehetősen érdekes, de egyben költséges idők elé is nézünk szerintem, elnézve a gyártástechnológia hamarosan megérkező korlátait. Nem vagyok vészmadár, de látok magam előtt egy szilícium alapú "sötét középkort".
Pláne hogy már azt a céget is elérte a chip hiány ahol dolgozok...
Magyarán több chipes egység. A Ryzen processzorok ilyen elven működnek, több chip egy hordozón speciális, nagy sebességű összeköttetéssel. Azért lesz erre szükség, mert a chipek egyre nagyobbak lesznek, így a teljesítmény elosztása és a gyártási hatékonyság megtartása érdekében szeparálni kell őket. Minél nagyobb chipeket képezel le egy szilíciumostyára, annál kisebb a kihozatal és annál nagyobb a valószínűsége annak, hogy a chip nem lesz teljesen működőképes, tehát nő a selejtarány. A részben hibás chipek egy részét persze el lehet adni, ha a hiba jól izolálható területen van, lásd anno három magos AMD processzorok, de a legjobb példa erre a GPU biznisz, ahol egy lapkára legtöbb esetben két vagy több termék is épült annak megfelelően, hogy a hiba miatt letiltott részegységek mekkora teljesítményveszteséget jelentenek.
A munkahelyi megjegyzésedre rátérve nálunk az utóbbi másfél évben már többször is volt részleges leállás a chiphiány miatt. Ez e helyzet lassan fel fog oldódni, látható a mozgolódás kapacitásnövelés terén, így én nem is erre értettem a "sötét középkort", hanem arra, hogy szvsz a teljesítménynövekedés fog megállni és stagnálni, illetve a többletteljesítmény minden esetben többletfogyasztással jár majd. Ez alapvetően nem jó, de ha pozitívan akarjuk látni a helyzetet, akkor hordozhat előnyöket, miszerint javulhat az optimalizáció és létrejöhetnek alternatív, eddig el sem képzelt architektúrák addig, amíg a technológia eljut arra a szintre, hogy tovább tudunk lépni.
Akkor például lehetséges hogy azért jöttek elő ezzel az FSR/DLSS el is mostanság a gyártók? Hogy ezzel is növeljék a teljesítményt ( mármint későbbre gondolok itt 2-3 ev távlatból pl)
A ,,többlet teljesítmény nagyobb hővel jár" ez megfigyelhető jelenleg az Intelnél is. Brutális TDP-k vannak kilátásban a közelgő 12XXX nél ahogy láttam...
Ez az egyik legfontosabb innováció az utóbbi időben az én meglátásom szerint. A 4K megjelenése óta küzd a valós idejű grafika a hatalmas felbontások erőforrásigényével, amit a ray tracing megjelenése tovább bonyolít.
Az intel helyzete ebből a szempontból nem annyira mérvadó, mivel ők komoly gyártástechnológiai hátrányba kerültek a többi chipgyártóval szemben. A GPU -k terén ez sokkal inkább tettenérhető.
Még 1-2 év és tudják olyan szinten bővíteni a gyártókapacitást, hogy eleget tudnak gyártani és emberi áron is lesznek.