Az RTX 3090 Ti teljesítményével vetekszik az RTX 4070 Ti

Szerző: xoki | 2022. August 01. | hír | 27 hozzászólás

Az RTX 4070 állítólag 7168 CUDA maggal és 10 GB memóriával (160 bit) érkezik, amely az Nvidia felső kategóriás RTX 3090 GPU-jával is képes felvenni a versenyt a 3DMark TimeSpy benchmarkban. A limitált sávszélesség viszont néhány esetben bottleneckhez is vezethet.

Mint kiderült, az Nvidia az AD104 GPU teljes változatán is dolgozik, amelyre 7680 mag és 12 GB memória (192 bit) lehet majd jellemző. Ezzel a konfigurációval teljesítményben a márciusban debütált flagship Ampere asztali kártya, az RTX 3090 Ti szintjén lesz. Szélesebb memóriabusszal és gyorsabb memóriával egy ilyen modell memória sávszélessége 40%-kal lenne több (360 → 504 GB/s) az RTX 4070-hez képest.

Sajnos a magok számának megnövelése és a gyorsabb memória nagyobb energiafogyasztással is jár. Körülbelül 400 W-tal számolhatunk a PG141/SKU331 esetében, amely körülbelül 100 W-tal több mint az RTX 4070-nél.

Hozzászólások: 25
Hozzászólás küldéséhez be kell jelentkezni.
no avatar
Én csak akkor hisszek ennek a cikknek, ha van róla hivatalos benchmark. Meg szerintem tök fölösleges kifejleszteni egy új videókártyát, ha a mostani generációt kevesen veszik meg. Már abból is kiindulva hogy, az RTX 3090 TI-nak egy csillagászati ára van.
0
0
0
0
💬 1
xCube avatar
@Originger: Ezeket a chipeket nem csak a konzumer piacra készítik, sőt elsősorban nem oda készülnek.
0
0
0
0
redbull6969 avatar
Én pl tök mást olvastam..🤔 Erősebb lesz az Nvidia új középkategóriája a vártnál - Veri a 3090 Ti-t is?! RTX 4070 PG141 12G 21Gbps GDDR6X 300W TSE > 11000🤔🤔
0
0
0
0
💬 1
MrPAYER avatar
@redbull6969: Ez tegnapi leak, ami a cikkben szerepel pedig július végi, mindenesetre szimpatikusabb lenne ezekkel a frissebb specifikációkkal. A 4070 talán még megússza az 1x16 pines ATX 3.0 táp követelményt, 2x8, extrém esetben 3x8 ha lenne rajta elérhetőbb lenne, mert, hogy én pl. nem fogok új tápot venni 100 ezer körül majd amennyiért mennek az tuti, főleg, hogy nincs fél éves a jelenlegi.
1
0
0
0
carl18x avatar
400 watt? És ez még nem is a csúcskategória!
Energia válság idején ez nem lesz az év űzlete.
0
0
0
0
downuser avatar
Ha ezt megtudja a Gréta Truttyberg, napokig fog zokogni a szobája sarkában.
Mert úgy fogja rágni az áramot a cucc, mint viselkedés-zavaros napközis a kakaós csigát.

Úgy gondolom aki most nagyon de nagyon szeretne újítani orientálódjon a 3080/3080Ti felé, azoknak relatíve barátibb a fogyasztása, és erős kártyák, de bakker egy ilyen 4070 meg felette, ezekhez már lassan a Hoover-vízerőműgát kell...
0
0
0
0
💬 1
no avatar
@downuser: amilyen drágák tudnak lenni a kártyák 3070-töl felfele, szerintem egy sima 3060 böven elég lenne nagyjából mindenhez
0
0
0
0
no avatar
Most már az amd lesz a befutó, ahogy brutális árzuhanást csináltak a 6900xt vel is nem is kérdés.
0
0
0
0
💬 5
MrPAYER avatar
@Kings Bounty fan: Azért én azt mondom, hogy várjuk ki a végét, RDNA 3-ról még annyit se tudunk mint a Lovelaceről holott elvileg hamarabb jelenik meg. A Navi 31 tuti tele lesz szórva memóriával de nem is azaz érdekes hanem a Navi 32/33, hogy mit tud felmutatni teljesítmény/fogyasztásban illetve vram méretben. Annyi biztató van a dologban, hogy az AMD-nek nincs egy DLSS fejlettségi szintjén álló szuperszámítógépe, szóval rá van kényszerítve még mindig a nagy mennyiségű vram nagy sávszélességen történő alkalmazására. Meglátjuk majd, ha nem jön be akkor marad a 6900XT, azzal se nyúl mellé senki.
0
0
0
0
no avatar
@MrPAYER: Jaja jó volna mutogatnák őket.
0
0
0
0
no avatar
@MrPAYER: Nem rég váltottam Red Devil 6900XT-vel a 2060S-m az MSI től. Egyenlőre minden happy :) 335k volt.
0
0
0
0
MrPAYER avatar
@Black-Goku: Gratulálok, sok kellemes üzemórát hozzá! Nagyon-nagyon sokáig ki fog szolgálni attól nem kell aggódni. 😀
0
0
0
0
no avatar
@MrPAYER: Köszönöm! Inkább csak attól félek, időm nem lesz rá :D Ez a fránya munka és a nyeretlen lottók :D
0
0
0
0
Tuhajohn avatar
Ha csak fogyasztás növeléssel lehet teljesítményt növelni miért nem csinálnak egyszerűen egy 1000W-ot fogyasztó kártyát nagy teljesítménnyel és pár évig nem kell újat csinálni. A 4070 a pletykák szerint fogyasztásban a 3090 és a 3090 Ti közé esik. Ha engem kérdeztek akkor teljesítményben is ott lesz. Szerintem ez nem fejlődés.
0
0
0
0
💬 2
TeMeRolEee avatar
@Tuhajohn: Rosszul nézed a dolgokat. Nekik az a céljuk, hogy a befektetőket gazdagítsák. Ehhez az kell, hogy a vásárlóbázist megfejjék minél többször, minél jobban. Amennyiben azt az utat választják, hogy kiadnak egy kártyát, majd nem adnak ki évekig, akkor az sok kiesett bevétel lesz nagyon hamar.
Amint mindenkinek megvan az a kártya, akkor ki fog újat venni, ha nincs új kártya kiadva?
0
0
0
0
Tuhajohn avatar
@TeMeRolEee: Ez a szomorú igazság. Természetesen tisztában vagyok vele.
0
0
0
0
MrPAYER avatar
Köszönjük az alázatos munkát az NV-nek, eddig, hogy 12 GB volt 256 biten még talán képben volt minimálisan nálam, de ez konkrétan a vicc kategória. DLSS-ben persze nem kell memória, de sok sikert mindenkinek majd amikor elkezdenek szállingózni az első UE5 indie játékok, 4080 alatt úgy látom nem szabad hozzányúlni a zöldekhez, de aki ekkora rohadék egy centtel nem támogatnám, hogy két generáció alatt sikeresen kinyírta a felső-közép kategóriát ami mindig is a legésszerűbb kompromisszumot jelentette ha valaki sokáig akarja élvezni a játékokat kiváló grafikán de azért jusson ennivalóra is még abban évben.
3
0
0
0
💬 6
no avatar
@MrPAYER: Törölt hozzászólás
0
0
2
0
xCube avatar
de a németeknek se lesz PC gaming hamarosan


Nem a legjobb időket éljük meg, az való igaz, de ha idáig jutunk, akkor nem is a játék lesz a legégetőbb probléma. Jelenleg például elég korrekt áron lehet hozzájutni a 3080 -hoz, én is erősen gondolkodom rajta, hogy még most veszek egy 12GB -osat.
0
0
0
0
no avatar
@MrPAYER: Talán majd az AMD hozza azokat a középkategóriás kártyákat amiket normális teljesítményt meg lehet venni megfizethető és elfogadható áron, jelenleg a 3060 al bőven elvagyok full hd 75Hz en.
0
0
0
0
no avatar
@kkrokikk: Törölt hozzászólás
2
0
0
0
MrPAYER avatar
Pontosan erre gondoltam, hogy az 1070/2070 tényleg olyan áron tudott produkálni olyan teljesítményt amibe belekötni senki nem tudott. De viszont sokan azt nem értik, hogy pl. nekem mi bajom van pl. a 4070-el mikor ugyanúgy hozza az előző gen. csúcsot mint eddig bármikor az XX70. Nos két okból is, az egyik, hogy ugyanannyi fogyasztás mellett tudja csak hozni, mindegy lenne ha a 3090 chipet átneveznék és azt adnák el 4070 néven ennyi erővel, de nem is a legfőbb probléma. Hanem az, hogy a memóriát totálisan kispórolják, ami persze érthető mert az egyik ha nem a legdrágábban megvehető/előállítható alkotóeleme egy VGA-nak. Szóval memória méret és sávszélesség helyett van nekünk egy hol elfogadhatóan de inkább többnyire szarul működő DLSS-ünk, ami olyan szinten homályosít és túlszaturál, hogy a fejed megfájdul 30 perc gameplay után, de legalább leveszi a terhet a VRAM-ról mert 540/720p-ben renderel ki, mint anno a HD5000 széria idejében, mi ez kérem ha nem innováció? Eladják nekünk úgy, hogy "Nézd hülyegyerek mennyi FPS-t adunk neked" a sok barom meg be is veszi, pedig ez csak színjáték, egy nagy színház az egész amelynek az egyetlen értelme, hogy elfedje azt az elkeseredett vergődést amit a tranzisztor alapúan nyert raszterációs teljesítmény technológia végével bekövetkezett tehetetlenség okozott. De nem kell aggódni, az RTX 5000 már 1nm-es TSMC node-on fog készülni 1500 wattal, a 6000 meg 0.001nm-en 5000 wattal, isten ments, hogy dollár milliárdokat öljenek egy új technológiába ami képes lenne az elmúlt 40 évben futót kiváltani. Lesznek helyette fincsi szoftverek, ami majd éppen azt pár játékot jól tudja futtatni amibe implementálták, az indie meg örült eddig is, hogy kitudta fizetni a Steamnek a 30%-ot de ezek után nem kell nekik se majd nagyon játékfejlesztésben gondolkodni, vagy átállnak a botmixeren is futtatható macska szimulátorokra, ja nem, olyan már létezik bocsi.

Szerk.: A memóriához még annyit, hogy azért sincs rajta annyi mert önmagában a gpu bezabbant annyi villanyt, hogy ha ehhez társulna még kétszer ennyi GDDR6X akkor táp helyett aggregátorra kellene dugni a PC-t. Az a fránya technológiai határ ugyebár...
2
0
0
0
xCube avatar
@MrPAYER: Alapvetően értem a meglátásod és örömmel olvasom, hogy van valaki, akivel bár nem teljesen egyezik a véleményünk mégis tényekkel lép egy vitába, de néhány ponton hozzá kell tennem a saját véleményemet, meglátásomat, illetve néhény tényt, amit nem vettél figyelembe.

Pontosan erre gondoltam, hogy az 1070/2070 tényleg olyan áron tudott produkálni olyan teljesítményt amibe belekötni senki nem tudott.

Az 1000 generáció egy nagyon jól sikerült, olcsón gyártható, játékra kihegyezett széria volt. Nem kellett készlethiánnyal és extrém inflációval küzdenie, mindemellett még ma is állja a sarat, köszönhetően az erősen lelassult fejlődésnek. A 2000 generáció már kicsit más tészta. Eleve magasabb áron került forgalomba, mert ez már nem egy szakszerűen megvágott kispécizett architektúra, hanem újra egy komplex monolitikus rendszer. Manapság már nem is nagyon lehet elhagyni olyan funkciókat, amiket annak idején a Pascal -nál a játékos teljesítmény növelése érdekében hagytak ki, mivel a modern játékok már építenek ezekre. Ezért is néz rossz jövő elé a Pascal generáció.

De viszont sokan azt nem értik, hogy pl. nekem mi bajom van pl. a 4070-el mikor ugyanúgy hozza az előző gen. csúcsot mint eddig bármikor az XX70. Nos két okból is, az egyik, hogy ugyanannyi fogyasztás mellett tudja csak hozni, mindegy lenne ha a 3090 chipet átneveznék és azt adnák el 4070 néven ennyi erővel

Azért ez nem ennyire egyszerű. Az RTX 4070 GPU -ja architekturális fejlesztéseken keresztül kisebb lesz, így olcsóbban gyártható.

de nem is a legfőbb probléma. Hanem az, hogy a memóriát totálisan kispórolják, ami persze érthető mert az egyik ha nem a legdrágábban megvehető/előállítható alkotóeleme egy VGA-nak.

Azért egy VGA -n még mindig a GPU a legdrágább alkatrész. Utána viszont tényleg a VRAM jön.

Szóval memória méret és sávszélesség helyett van nekünk egy hol elfogadhatóan de inkább többnyire szarul működő DLSS-ünk, ami olyan szinten homályosít és túlszaturál, hogy a fejed megfájdul 30 perc gameplay után, de legalább leveszi a terhet a VRAM-ról mert 540/720p-ben renderel ki, mint anno a HD5000 széria idejében, mi ez kérem ha nem innováció? Eladják nekünk úgy, hogy "Nézd hülyegyerek mennyi FPS-t adunk neked" a sok barom meg be is veszi

Ez azért elég erős túlzás és sarkítás, de látom, hogy neked nagyon bántja a lelked a felskálázó technológiák megléte. Én is a natív megjelenítés híve vagyok, de nem tekintem a felskálázást a pénzlesők ördögi művének, több okból sem. Egyrészről ezek igenis praktikus technológiák, csak éppen még gyerekcipőben járnak, más részről bizony szükségesek lesznek addig, amíg ki nem kerülünk a technológiai korlátok közül. És ezeket nem elsősorban arra találták ki, hogy 720p -ről 1080p -re skálázz fel valamit, mert akkor működnek hatékonyan, ha a kiinduló felbontás is magas, ott pedig a DLSS legújabb verziójánál alig veszel észre valamit belőlük, hacsak nem pont azzal foglalkozol, hogy a skálázási hibákat keresd. Nyilván nem egy multiplayer játékban praktikus, de nagyon is van helye. Az FSR ezzel szemben kőbalta, masszív utánhúzással, hullámzással. Amikor a Cyberpunk egyik patch -e sima nagyításon alapuló felskálázást leváltotta FSR -re nagyot csalódtam, én inkább nézek egy kicsivel mosottabb, de stabil képet, mint egy a szemed előtt folyamatosan átalakuló absztrakt festményt (igen, itt egyetértek a fejfájdító megjegyzéseddel).

pedig ez csak színjáték, egy nagy színház az egész amelynek az egyetlen értelme, hogy elfedje azt az elkeseredett vergődést amit a tranzisztor alapúan nyert raszterációs teljesítmény technológia végével bekövetkezett tehetetlenség okozott. De nem kell aggódni, az RTX 5000 már 1nm-es TSMC node-on fog készülni 1500 wattal, a 6000 meg 0.001nm-en 5000 wattal, isten ments, hogy dollár milliárdokat öljenek egy új technológiába ami képes lenne az elmúlt 40 évben futót kiváltani.

Az nvidia nem gyártástechnológiát fejleszt, hanem architektúrát. Ahhoz ők túlságosan kicsik. Jelenleg ott tartunk, hogy a klasszikus tranzisztor alapú technológián kívül nincsen más hétköznapi használatra alkalmas technológia, ami belátható időn belül bevethető lenne. A falak pedig egyre közelednek, ami a GPU -k esetén felépítésükből és működésüktől fogva hatványozott tempóban érzékelhető. Ehhez a raszterizációnak nem sok köze van, az szimplán csak a legpraktikusabb út a teljesítményigény terén a grafika megjelenítéséhez. A teljes sugárkövetésen alapuló eljárások számításigénye túl nagy ahhoz, hogy a közeljövőben elterjedhessenek, kiegészítésként viszont nagyon sokat segítenek a realisztikusabb megjelenítés irányában.
A közeljövőben két dologra számíthatunk. Az egyik a chipletek és 3D chipek világa, ahol remélhetőleg a masszív feladatmegosztás segítségével talán lehet majd spórolni egy kicsit a fogyasztáson, a másik pedig az architektúrák és meglévő gyártástechnológiák végletekig menő finomhangolása.

Visszatérve a memória témára abban mindenképpen igazat adok, hogy az nvidia nem a legjobb úton jár, ha valóban ennyire megnyirbálja az RTX 4070 -et, márpedig minden jel arra utal, hogy ez sajnos így lesz. Mindemellett viszont azt is meg kell jegyeznem, hogy a termékpalettát figyelembe véve valamelyest logikus döntésnek tartom, hiszen egy középkategóriának készülő kártyát egy felső kategóriába eső kártya VRAM mennyiségével árulni alsó hangon öngól.
Amit ugyancsak nem szabad elfelejteni az az, hogy a közeljövőben teret fognak nyerni a nagy sebességű SSD -ről streamelő technikák, amik nagyban relativizálják a VRAM igényt. Ez természetesen véget vet majd annak az aranykornak, amit az elmúlt hat - nyolc évben megéltünk, ahol a hardverek olyan lassan öregedtek, mint még korábban sohasem. A most még jól küzdő öregebb platformok nem adnak majd elég löketet a direkt adatstreamelésnek, hiába lenne még kakaó a prociban meghajtani egy modern VGA -t.
0
0
0
0
MrPAYER avatar
@xCube: Köszönöm a terjedelmes és részletes válaszod, örülök, hogy tudunk beszélgetni az ilyen témákban.

Alapvetően én egy átlag gamer szemüvegén keresztül nézem a dolgokat, próbálom azokat az információkat és tudást alkalmazni amelyet azzal szedtem össze az elmúlt kb. két évtizedben, hogy effektíven csak játszok és X időközönként új PC-t építek magamnak vagy fejlesztem a meglévőt. Szóval nem én vagyok ennek a témának a földi helytartója, de erre te is biztosan rájöttél az irományaimat olvasva mert sokkal inkább képben vagy ezekkel a dolgokkal kapcsolatban és hálás is vagyok neked mert mindig mikor reagálsz valamit arra amiket írok kivétel nélkül gyarapodnak az ismereteim. 😃

Nos igen, valami oknál fogva nálam nagyon beakadt ez a DLSS és társai dolog, egyáltalán nem érzem jó iránynak, legalábbis nem látom, hogy én mint átlag paraszt mit tudnék ebből nyerni. Az egyetlen aki nyer az a gyártó(k), legyen most az NV vagy a TSMC vagy bánom is én, hogy ki, bárki akinek köze van, hogy a boltok polcaira kerüljön a késztermék. Viszont a másik oldalról megtudom azt érteni, hogy egyszerűen közeledik egy határ amit nem két perc átlépni mert hatalmas mennyiségű pénz és masszív kooperációs humán munka kell hozzá vállalaton belül és vállalatok között is. Maga az elképzelés sem rossz, hogy tényleg olyan valós, nem hogy mérhető de szemmel is bőven látható teljesítmény javulást okoz ami a képkockákat illeti, de a mérleg másik serpenyőjében viszont az van és nálam sajnos az a súlyosabb oldal amerre lejt, hogy ezt az esetek nagy részében számomra elfogadhatatlanul nagy mértékű képminőség romlással éri csak el. Abban igazad van, hogy ezt a funkciót amúgyis multiplayer játékoknál kellene használni na de kérem, én nálam akkor is kiveri a biztosítékot, hogy nem olyan a grafika mint amilyennek lennie kellene ha normális natívban futna, totálisan függetlenül attól, hogy egy single openworld vagy arena shooter multi. Persze ez idővel javul(hat), változ(hat) de mégis ki és mikor fog erre garanciát adni? Vagy csak vakon higgyem el? Végülis nincs más választásom, mert nem hagytak más választást. Illetve de, csak nekem nem éri meg a 4080+ két nextgen konzol árát még pluszba, mert már otthagytam a többi alkatrészre a másfelét. Persze nem erőszak a disznótor, lehet platformot váltani ha nem tetszik ami van és ami lesz, de nem fogom magam csak azért száműzni mert most éppen ez zajlik, lesz ez még jobb, vagy így se, de ez már a jövő zenéje.

Plusz még egy dolog, kb. három éve már alapból úgy érzem, hogy szándékosan üldözve vagyok mint valami sátánista boszorkány az inkvizíció által csak azért mert FullHD monitorom van, olyan brutális grafikai downgrade ez az újhullámos mindenhol is alkalmazott TAA nevű csoda élsimítás, hogy öröm nézni. Minden játék olyan mint a mosott sz*r, de érdekes, 1440p+ felbontáson nincs ilyen problémájuk az embereknek. Ha nekem még erre a washing effectre rájönne a DLSS is biztos kiküldeném az ablakon az egész setupot úgy ahogy van, de jelenleg is csak NV élesítés filtere tartja életben, már ahol működik és nem egy Van Gogh festményt csinál a játékból.

Így végszó gyanánt annyi, hogy valószínűleg a Radeonok felé fogok orientálódni, náluk érzem a legbiztosabbnak a natív játék lehetőségét és talán bekellene szereznem egy 2k-s monitort is mert ha kint lesz az új gen. esélytelennek érzem, hogy ne legyen CPU bottleneck (nem az alsó kategóriából szeretnék választani) és akkor már szerintem magasabb felbontáson sem lenne kevesebb képkockám.
0
0
0
0
Yezi_ avatar
@MrPAYER: Az az öreg monitor azért ne legyen mérvadó. Itthon van még nekem is a régi LG W2243S, retro géphez megteszi, de ezeknek a képminősége ma már vicc. Egy olcsóbb 24,5” 1080p-s monitor is sokkal szebb, élesebb képet ad, TAA-val sosem volt gondom egy ilyen monitornál. DLSS-nek pedig inkább csak 1440p-től van értelme, ezen a felbontáson viszont már szerintem szuperül működik, főleg az újabb implementációk. 🙃
0
0
0
0


Elfelejtett jelszóRegisztráció