Az RTX 3090 Ti teljesítményével vetekszik az RTX 4070 Ti
Az RTX 4070 állítólag 7168 CUDA maggal és 10 GB memóriával (160 bit) érkezik, amely az Nvidia felső kategóriás RTX 3090 GPU-jával is képes felvenni a versenyt a 3DMark TimeSpy benchmarkban. A limitált sávszélesség viszont néhány esetben bottleneckhez is vezethet.
Mint kiderült, az Nvidia az AD104 GPU teljes változatán is dolgozik, amelyre 7680 mag és 12 GB memória (192 bit) lehet majd jellemző. Ezzel a konfigurációval teljesítményben a márciusban debütált flagship Ampere asztali kártya, az RTX 3090 Ti szintjén lesz. Szélesebb memóriabusszal és gyorsabb memóriával egy ilyen modell memória sávszélessége 40%-kal lenne több (360 → 504 GB/s) az RTX 4070-hez képest.
Sajnos a magok számának megnövelése és a gyorsabb memória nagyobb energiafogyasztással is jár. Körülbelül 400 W-tal számolhatunk a PG141/SKU331 esetében, amely körülbelül 100 W-tal több mint az RTX 4070-nél.
Energia válság idején ez nem lesz az év űzlete.
Mert úgy fogja rágni az áramot a cucc, mint viselkedés-zavaros napközis a kakaós csigát.
Úgy gondolom aki most nagyon de nagyon szeretne újítani orientálódjon a 3080/3080Ti felé, azoknak relatíve barátibb a fogyasztása, és erős kártyák, de bakker egy ilyen 4070 meg felette, ezekhez már lassan a Hoover-vízerőműgát kell...
Amint mindenkinek megvan az a kártya, akkor ki fog újat venni, ha nincs új kártya kiadva?
Nem a legjobb időket éljük meg, az való igaz, de ha idáig jutunk, akkor nem is a játék lesz a legégetőbb probléma. Jelenleg például elég korrekt áron lehet hozzájutni a 3080 -hoz, én is erősen gondolkodom rajta, hogy még most veszek egy 12GB -osat.
Szerk.: A memóriához még annyit, hogy azért sincs rajta annyi mert önmagában a gpu bezabbant annyi villanyt, hogy ha ehhez társulna még kétszer ennyi GDDR6X akkor táp helyett aggregátorra kellene dugni a PC-t. Az a fránya technológiai határ ugyebár...
Az 1000 generáció egy nagyon jól sikerült, olcsón gyártható, játékra kihegyezett széria volt. Nem kellett készlethiánnyal és extrém inflációval küzdenie, mindemellett még ma is állja a sarat, köszönhetően az erősen lelassult fejlődésnek. A 2000 generáció már kicsit más tészta. Eleve magasabb áron került forgalomba, mert ez már nem egy szakszerűen megvágott kispécizett architektúra, hanem újra egy komplex monolitikus rendszer. Manapság már nem is nagyon lehet elhagyni olyan funkciókat, amiket annak idején a Pascal -nál a játékos teljesítmény növelése érdekében hagytak ki, mivel a modern játékok már építenek ezekre. Ezért is néz rossz jövő elé a Pascal generáció.
Azért ez nem ennyire egyszerű. Az RTX 4070 GPU -ja architekturális fejlesztéseken keresztül kisebb lesz, így olcsóbban gyártható.
Azért egy VGA -n még mindig a GPU a legdrágább alkatrész. Utána viszont tényleg a VRAM jön.
Ez azért elég erős túlzás és sarkítás, de látom, hogy neked nagyon bántja a lelked a felskálázó technológiák megléte. Én is a natív megjelenítés híve vagyok, de nem tekintem a felskálázást a pénzlesők ördögi művének, több okból sem. Egyrészről ezek igenis praktikus technológiák, csak éppen még gyerekcipőben járnak, más részről bizony szükségesek lesznek addig, amíg ki nem kerülünk a technológiai korlátok közül. És ezeket nem elsősorban arra találták ki, hogy 720p -ről 1080p -re skálázz fel valamit, mert akkor működnek hatékonyan, ha a kiinduló felbontás is magas, ott pedig a DLSS legújabb verziójánál alig veszel észre valamit belőlük, hacsak nem pont azzal foglalkozol, hogy a skálázási hibákat keresd. Nyilván nem egy multiplayer játékban praktikus, de nagyon is van helye. Az FSR ezzel szemben kőbalta, masszív utánhúzással, hullámzással. Amikor a Cyberpunk egyik patch -e sima nagyításon alapuló felskálázást leváltotta FSR -re nagyot csalódtam, én inkább nézek egy kicsivel mosottabb, de stabil képet, mint egy a szemed előtt folyamatosan átalakuló absztrakt festményt (igen, itt egyetértek a fejfájdító megjegyzéseddel).
Az nvidia nem gyártástechnológiát fejleszt, hanem architektúrát. Ahhoz ők túlságosan kicsik. Jelenleg ott tartunk, hogy a klasszikus tranzisztor alapú technológián kívül nincsen más hétköznapi használatra alkalmas technológia, ami belátható időn belül bevethető lenne. A falak pedig egyre közelednek, ami a GPU -k esetén felépítésükből és működésüktől fogva hatványozott tempóban érzékelhető. Ehhez a raszterizációnak nem sok köze van, az szimplán csak a legpraktikusabb út a teljesítményigény terén a grafika megjelenítéséhez. A teljes sugárkövetésen alapuló eljárások számításigénye túl nagy ahhoz, hogy a közeljövőben elterjedhessenek, kiegészítésként viszont nagyon sokat segítenek a realisztikusabb megjelenítés irányában.
A közeljövőben két dologra számíthatunk. Az egyik a chipletek és 3D chipek világa, ahol remélhetőleg a masszív feladatmegosztás segítségével talán lehet majd spórolni egy kicsit a fogyasztáson, a másik pedig az architektúrák és meglévő gyártástechnológiák végletekig menő finomhangolása.
Visszatérve a memória témára abban mindenképpen igazat adok, hogy az nvidia nem a legjobb úton jár, ha valóban ennyire megnyirbálja az RTX 4070 -et, márpedig minden jel arra utal, hogy ez sajnos így lesz. Mindemellett viszont azt is meg kell jegyeznem, hogy a termékpalettát figyelembe véve valamelyest logikus döntésnek tartom, hiszen egy középkategóriának készülő kártyát egy felső kategóriába eső kártya VRAM mennyiségével árulni alsó hangon öngól.
Amit ugyancsak nem szabad elfelejteni az az, hogy a közeljövőben teret fognak nyerni a nagy sebességű SSD -ről streamelő technikák, amik nagyban relativizálják a VRAM igényt. Ez természetesen véget vet majd annak az aranykornak, amit az elmúlt hat - nyolc évben megéltünk, ahol a hardverek olyan lassan öregedtek, mint még korábban sohasem. A most még jól küzdő öregebb platformok nem adnak majd elég löketet a direkt adatstreamelésnek, hiába lenne még kakaó a prociban meghajtani egy modern VGA -t.
Alapvetően én egy átlag gamer szemüvegén keresztül nézem a dolgokat, próbálom azokat az információkat és tudást alkalmazni amelyet azzal szedtem össze az elmúlt kb. két évtizedben, hogy effektíven csak játszok és X időközönként új PC-t építek magamnak vagy fejlesztem a meglévőt. Szóval nem én vagyok ennek a témának a földi helytartója, de erre te is biztosan rájöttél az irományaimat olvasva mert sokkal inkább képben vagy ezekkel a dolgokkal kapcsolatban és hálás is vagyok neked mert mindig mikor reagálsz valamit arra amiket írok kivétel nélkül gyarapodnak az ismereteim. 😃
Nos igen, valami oknál fogva nálam nagyon beakadt ez a DLSS és társai dolog, egyáltalán nem érzem jó iránynak, legalábbis nem látom, hogy én mint átlag paraszt mit tudnék ebből nyerni. Az egyetlen aki nyer az a gyártó(k), legyen most az NV vagy a TSMC vagy bánom is én, hogy ki, bárki akinek köze van, hogy a boltok polcaira kerüljön a késztermék. Viszont a másik oldalról megtudom azt érteni, hogy egyszerűen közeledik egy határ amit nem két perc átlépni mert hatalmas mennyiségű pénz és masszív kooperációs humán munka kell hozzá vállalaton belül és vállalatok között is. Maga az elképzelés sem rossz, hogy tényleg olyan valós, nem hogy mérhető de szemmel is bőven látható teljesítmény javulást okoz ami a képkockákat illeti, de a mérleg másik serpenyőjében viszont az van és nálam sajnos az a súlyosabb oldal amerre lejt, hogy ezt az esetek nagy részében számomra elfogadhatatlanul nagy mértékű képminőség romlással éri csak el. Abban igazad van, hogy ezt a funkciót amúgyis multiplayer játékoknál kellene használni na de kérem, én nálam akkor is kiveri a biztosítékot, hogy nem olyan a grafika mint amilyennek lennie kellene ha normális natívban futna, totálisan függetlenül attól, hogy egy single openworld vagy arena shooter multi. Persze ez idővel javul(hat), változ(hat) de mégis ki és mikor fog erre garanciát adni? Vagy csak vakon higgyem el? Végülis nincs más választásom, mert nem hagytak más választást. Illetve de, csak nekem nem éri meg a 4080+ két nextgen konzol árát még pluszba, mert már otthagytam a többi alkatrészre a másfelét. Persze nem erőszak a disznótor, lehet platformot váltani ha nem tetszik ami van és ami lesz, de nem fogom magam csak azért száműzni mert most éppen ez zajlik, lesz ez még jobb, vagy így se, de ez már a jövő zenéje.
Plusz még egy dolog, kb. három éve már alapból úgy érzem, hogy szándékosan üldözve vagyok mint valami sátánista boszorkány az inkvizíció által csak azért mert FullHD monitorom van, olyan brutális grafikai downgrade ez az újhullámos mindenhol is alkalmazott TAA nevű csoda élsimítás, hogy öröm nézni. Minden játék olyan mint a mosott sz*r, de érdekes, 1440p+ felbontáson nincs ilyen problémájuk az embereknek. Ha nekem még erre a washing effectre rájönne a DLSS is biztos kiküldeném az ablakon az egész setupot úgy ahogy van, de jelenleg is csak NV élesítés filtere tartja életben, már ahol működik és nem egy Van Gogh festményt csinál a játékból.
Így végszó gyanánt annyi, hogy valószínűleg a Radeonok felé fogok orientálódni, náluk érzem a legbiztosabbnak a natív játék lehetőségét és talán bekellene szereznem egy 2k-s monitort is mert ha kint lesz az új gen. esélytelennek érzem, hogy ne legyen CPU bottleneck (nem az alsó kategóriából szeretnék választani) és akkor már szerintem magasabb felbontáson sem lenne kevesebb képkockám.