Idén a 8 GB-os RTX 5060/5060 Ti-t helyezheti előtérbe az Nvidia

Szerző: xoki | 2026. February 02. | hír | 36 hozzászólás

2025 közepén az RTX 5060 és RTX 5060 Ti 8 GB-os változatai nem arattak nagy sikert, azonban ekkor még valószínűleg senki sem gondolta, hogy problémát jelenthet a kártyák több memóriával való felszerelése.

A Board Channels érdekes információkat tárt fel a GeForce RTX 5060 Ti 16 GB és a GeForce RTX 5070 Ti kapcsán. Úgy tűnik, az említett kártyákból ezentúl kevesebbet fognak leszállítani, helyette az RTX 5060 és RTX 5060 Ti 8 GB-os változatai kerülnek előtérbe. Az Európából és Japánból érkező jelentések szerint az RTX 5060 Ti 16 GB és annál nagyobb kapacitású kártyákból hiány van, miközben az RTX 5070 Ti-t és az RTX 5080-at nagyon nehéz beszerezni.

Amennyiben tovább emelkedik a memória ára, akkor az Nvidiának tényleg a 8 GB-os modelleket éri majd meg nagyobb mennyiségben terjeszteni. Természetesen mindez régiótól és a partnerektől is függ, de jelen állás szerint mindenképpen az a legköltséghatékonyabb, ha kevés VRAM kerül egy-egy kártyára.

Hozzászólások: 36
Hozzászólás küldéséhez be kell jelentkezni.
pinkyke avatar
kinek a hibája hogy memoria hiány van? nem kéne mindent a MI-be invesztálni és akkor nem lenne memoria hiány mindent arra a szarra fognak. meg a samsung nagy bejelentése hogy emel az árain az is elmehet a francba miattuk is van hogy minden rohadt drága lett. hülye pénz éhes marhák. de,jó hogy nem vettem meg az rtx 40-és 50-es 8 gigás szart a mai napig elvagyok az RTX 3060 12gb-os al.
azt most meg nvidia vissza hozza majd a 3060-at érdekes lépés nem?🤔
1
0
0
0
Brelshaza avatar
Én ezt aláírom hogy 8GB nem igazán előrelátó a jövőre nézve, viszont a jelenlegi RTX 3070 emmel eddig szinte sose fogytam ki VRAM ból 2560x1080 ban, DLSS nélkül, akkor 1920x1080 ban modernebb architectúrával még jobb is a helyzet.
nyilván 4K Texture pack et meg ilyesmit el kell felejteni, nameg manapság a medium textúra se néz ki rosszul szvsz, arra meg még elég. kulcsszó a még.
0
0
1
0
💬 10
no avatar
@Brelshaza: Bár nekem már az 50-es széria van de én sem értem ezt a 4k-ban gondolkodást mindenkinél, a mai játékok már nagyon szépek és többnyire nagyon jól is vannak optimalizálva, így tökéletesen játszható egy 8gb-os kártyával is még szinte bármi évekig.
0
0
0
0
Brelshaza avatar
@itsnuve: Hát azért optimalizáció terén vannak gondok
pl a Borderlands 4 elég gányul tud menni még jobbfajta gépeken is
De említhetném a Stalker 2-t is vagy a The Last of Us Part 1 et is és nem ők az egyetlenek.
0
0
0
0
no avatar
@Brelshaza: Azért továbbra sem a nagy többségről beszélsz amikor optimalizációról van szó, de egyébként meg pont ezek miatt vannak a problémák is, hiszen ezekre a régebbi technológiákra kell optimalizálni úgy hogy az újra fejlesztik a címeket. Szóval nem csodálkozom a hibán..
0
0
0
0
Brelshaza avatar
@itsnuve: nem, csak vagy az AAA címek feléről xD
Ezt úgy mondod mintha pár évvel ezelőtt nem lettek volna régebbi architectúrák, mégis érdekes, volt optimalizált játék.
Tavalyi évben többel volt gond mint ami rendesen működött az is biztos.
De akkor mondhatnám még a Hogwart's Legacy-t vagy a Dragon's Dogma-t is, Cyberpunk sem volt a magaslaton megjelenéskor, nyilván nem fogom az összes játékot felsorolni, de a tendencia egyáltalán nem bíztató.

Igaz volt fordítva is pl GTA IV a hirhettebbek között van, nem az optimalizálatlan játékok létezéssel van baj hanem a mennyiséggel.
0
0
0
0
vyne avatar
@itsnuve: Hat, kinek mire van igenye. Van aki 4k felbontasra epiti a gepet van aki 1440p-re. Nagyon szerintem nincs vissza ut. Nyilvan sajat magambol kiindulva beszelek, de nekem csak egyszer kellet raneznem egy 4k oled tvre ahhoz, hogy minden kijelzot lecsereljek a hazban.. Az elotte levo lg nano ips monitor rogton “szar” volt a szememnek.

Amugy igy, hogy a dlss mar ilyen szinten van boven elerheto a 4k eleg sok embernek.
1
0
0
0
no avatar
@vyne: Teljesen megértelek, a tv-vel ugyan így jártam most nemrég én is. 😄

Én is azért építettem a gépem nyáron úgy ahogy mert szerettem volna hosszú évekig magas felbontásban játszani, ehhez a 8gb pedig egyértelműen nem lett volna elég, de ettől még sokan ennyivel is beérik önszántukból vagy a kényszerből amit egy adott helyzet ad.

Igen, egyébként a DLSS és FSR technológiák azért óriásit dobnak manapság.
0
0
0
0
szilver avatar
@itsnuve: Hát nemtudom nekem pl az ARK Ascended megeszi a 10GB vramot FHD-ben és nincs totál fullra rakva közepes-high keverék.RTX 5070-em van 12GB VRAM.
0
0
0
0
no avatar
@szilver: Nekem is van olyan játék, ahol megeszi a 13-14 gigát is, meg még lehet van amikor az egész 16-t is, nem igazán figyelem, én csak azt mondom hogy a playerek nagy része 8gb-n játszik még mindig és egy darabig fog is így, hogy most felkúsztak az árak a memóriahiány alatt.
0
0
0
0
szilver avatar
@itsnuve: Akkor az jó lesz,mert lehet mindent lowra venni majd ez végett,pedig teljesítményben bírná a kártya.
0
0
0
0
no avatar
@szilver: Azért az hogy még low-ra vegyem a beállításokat az 5070ti kártyával még évek kellenek, én ezért nem aggódok, most meg maxon megy minden bőven és ahogy írtam még így sincs kihasználva a teljes kártya.
0
0
0
0
kovb677 avatar
Nem csoda, erősek lettek.
0
0
0
0
sunny474 avatar
Elon beszáll, chip az agyba. Ha nem elég a VRAM, rákötjük magunkat is.

Recommended system requirements:
– 1× Human (16 GB biological cache)
– RTX 5000 series or AMD 9000 series GPU

Features:
– Neural DLSS
– Shared human memory
– Occasional existential crash

Patch 1.01:
– Fixed: player gained free will

Known issues:
-Overheating during cognitive load
-Out of memory. Please think less
0
0
0
0
GSzabolcs89 avatar
Ne natív ba gondolkodjatok.
720p megy 4k ra így elég 8gb vram🤗
0
0
0
0
repulomajom-legikoz avatar
8 giga vram, ma már korlát! Már egy rtx 3050-en is ment volna a Last Of us első része, magasabb grafikán 4k-ban, de a vram miatt 3200x1800-ban engedte csak, persze 27 colos monitoron még mindig nagyon szép/tükrős volt a látvány, de már vram korlát volt, és a jövőben ez csak rosszabb lesz, persze dlss sokat segít, mert a felbontás az vram gyilkos. Persze találkoztam már olyan játékkal aminek 1080-ban maxon jobban tetszett a grafikája, mint 2160-ban minimumon, vagy éppen fordítva. Nem minden játéknál van hasonló különbség minimum és max grafika között. Nem minden játéknál van olyan grafikai opció ami által ugyanúgy néz ki és fele annyi fps-el megy stb-stb.... de ma már érdemes valóban 16 gb vram-ban gondolkodni! Most képzeljünk el egy rtx 4090-et ami órajelben hiába lenne képes max grafikán 8k-ban futtatni valamit akárhány fps-el, ha vram korlát keletkezik. És IGEN nyilván vannak az oldalon olyanok, akik sok ilyen dologgal jobban képben vannak mint én, de nagyon sokan olyanok is akik annyira sem mint én.......és ezt gyakran elfelejtjük, persze internetes kommunikációt melyikünk tanult? Én már lassan a 40 fele megyek, lehet elavultak a tapasztalataim stb, de az osztályfőnököjm általánosban, "Az internet rossz" stb-stb......semmi szó nem esett a kritikai gondokodásról, arról hogy mikor milyen témákat/dolgokat nézzünk rajta, mikor milyen választ hogyan kezeljünk, mikor és hogyan reagáljunk rá stb......... Én azt látom van mondjuk egy Zacher videó látta 200 ezer ember, van 200 borzalmas hozzászólás, aminek több mint felének semmi értelme......... ráadásúl az okostelefon tovább növelte azt hogy hosszabb válaszokat ne írjunk vagy már el se olvassunk. Én is ott leszek temetőben a föld alatt 50, de lehet hogy 10 év múlva, nem félek kimondani amit gondolok, az élet egy semmi, Tisztelettel!
0
0
0
0
💬 12
ToMiHuN95 avatar
@repulomajom-legikoz: Tényleg kell a 16GB már csak a kényelem miatt is, de miért kínzol 4K-ban egy 3050-et?
Eleve gyenge kártya és nála sokkal erősebb 5060Ti a 16GB vramjával sem tud játszható eredményt kisajtolni magából.
[LINK]
Én mikor megvettem a kártyát majd a TV-t eszembe se jutott 1080P-nél nagyobb felbontásút venni. Inkább ráfeküdtem a képernyőátlóra.
Mert persze lehet kisebb felbontáson is játszani azon is ami neked van, de ha nem natív felbontáson játszol DLSS nélkül akkor nem rossz a képminőség? Meg az FPS is olyan dolog, hogy kinek mi, de nem tudom elképzelni azt a helyzet hogy az bármit játszható sebességgel vigyen 4K-ban, processzorrol nem is beszélve.
Na mindegy, csak nem értem miért szivatod magad.

Ha maradok az én példámnál eddig egy játék volt ami korlátozott a 8GB vram miatt az az Indiana Jones. Az is csak úgy, hogy mediumtól feljebb nem tudom a grafikát tenni, sebességgel nincs gond.
De a többi nekem főleg ilyen történet orientált játékok 1080P/60FPS highon azért mindenhol meg van. Multiknál kapcsolom ki csak a vertikális szinkront. De ott meg mondjuk a BF6 100 fölött fut.
Ne érts félre egyáltalán nem a 8GBnak kampányolok és nem magamat győzködöm rajtad keresztül, csak olyan fura, hogy arra a következtetésre jutsz, hogy a vram kevés a gépedben.
1
0
0
0
repulomajom-legikoz avatar
@ToMiHuN95: Szia, köszi az írást! Az rtx 3050-et azért vettem kb két éve, hogy valamilyen grafikán/felbontáson tudjak vele játszani évek múlva is. Volt amivel persze nem 4k-ban játszottam, wrc 7-tel 1440-ben, max grafikából lecsíptem valamiből, de ugyanúgy nézett ki, mégis kicsit jobban ment utána, ezt játékonként érdemes kísérletezni, mert nem egyszer futottam bele abba, hogy egy-egy grafikai beállítás irreálisan csökkentette az fps számot. Hogwarts Legacy-nál meg találkoztam néhány másik játéknál is olyannal, hogy dlss után megjelenik valami "élesítési" dolog amit ha nem húzól fel, akkor a játék nem lesz olyan szép, mintha alacsonyabb lenne a felbontás, azt ne kérdezd hogy ennek mi értelme van, mert dlss 4k-ban nyilván 4k látványt akar az ember, akkor mi értelme van bele vinni ilyen opciót, mert aki nem veszi észre, azt fogja hinni, hogy a dlss miatt van, láttam is erre példát a gyakori kérdések nevű oldalon, hogy a dlss-el nem ugyanolyan. Amúgy sok régi játéknál is látszik, hogy 4k-n tűéles, és jobban nézt ki.

Sokáig érthető volt hogy az emberek kerülték a 4k-s monitort, régen kb 10 éve nagyon apróak voltak a betűk, ha nagyobbra állítottad a méretet, akkor homályosabb lett a kép, IGEN amit te is mondasz, ha 1080-ban játszottál valamivel akkor nem csak arról volt szó hogy kevésbé vált volna részletessé a kép, hanem még jóval homályosabb is lett. Ha újabb játékokkal játszottál a kártyát nagyon ette a 4k, pláne aki counter strike stb.... verseny fps-ekkel játszott fontosabb volt a magasabb hz szám, mint a felbontás stb......TUDOM én is sok ilyet olvastam, és én is tapasztaltam ezt azt, de a technológia fejlődik, és ezek ma már nem igazak, bár nem akarok hazudni, biztos vannak még a piacon sok évvel ezelőtti fejlesztésű monitorok, aminél tényleg homályosabb is lesz a kép ha mondjuk nem natív felbontásban játszól, vagy az árúkeresőn írta valaki múltkor egy 27 colos ips paneles, fhd-s monitornál hogy munkára és filmnézésre használja, a legrosszabb kombó. Va panel, pláne a filmek miatt fontos, 4k felbontás meg sokkal simább, és jobban kiméli a szemet is.

Gyakori félreértés szerintem az is, hogy a fhd felbontás 24 colig számít jónak. Sok olyat is olvastam hogy a 27 colos 2k-s (wqhd-s) monitort szebbnek látták a 24 colos fhd-s után. Ez tipikusan az hogy mit, és miután nézel. Nem arról van szó hogy a 24 colos fhd felbontású monitor kisütné az ember szemét, de nézd meg egy 27 colos 4k-s monitor után. Olyannak fogod látni a képét mintha valami szemüveg lenne rajtad. Az megint más aki nem akar sokat költeni monitorra és fontosabb neki a 180-240 stb hz/fps mert több órát játszik a fortnite, meg egyéb játékokkal aminél valóban a magasabb fps a fontosabb.

Két monitorom van amiket kb egy éve vettem, először egy 27 colos 4k-s va paneles Aoc monitort, majd egy szintén 27 colos va paneles monitort, de az nem 60 hz-es volt, hanem 180, és a statikus kontrasztját nem 3500:1-nek írták, hanem 5000:1-nek, és ez a két dolog érdekelt. A magasabb hz sok játéknál tényleg látszik, a Grid 2-nél pl brutálisan átjőn a sebességérzet, igaz low-on ment csak annyival, mert a régi 4 magos intel procim nem olyan brutális.

Tudod, én nem szégyellem bevallani azt, hogy sokáig nem értettem hogy mért van az, hogy a 4k-s monitoron, nem olyan életszerűek még a 4k-s filmek sem. Oké azzal tisztában voltam hogy va panel nem egyenlő az oled-el, és va panelen még ha szürkések is a sötétebb részek, mégis ezerszer jobb mint az ips monitorok. Ez volt az egyik oka annak hogy va paneles 4k-s monitort vettem.

Most néhány hete vettem egy 50 colos 4k-s tévét (TCL c7k) és ugyanazt a netflix tartalmat nézem, mondanom sem kell, hogy látom a különbséget. Persze itt nem csak monitor vs tévéről van szó, mert amikor a konyhai monitor/tévét használtam filmnézésre, annak nem volt szebb képe, mint a monitornak. Mit jelent a nits szám, az mennyitől számít jónak, mi az a local-dimming, mit jelentenek a zónaszámok, hogy azt a tévé algoritmusa hogyan kezeli? Mért van az hogy netflixen pl "Jó hely" című sorozat csak fhd-s és elvileg másodpercenként 1 megával tölti, még is jobban néz ki mint némely más film/sorozat, amiknék meg akár 20 megát használ másodpercenkéknt az internet? Rengeteg minden van amit az ember nem ért, ha nem azon a területen dolgozik, és sajnos kevés hasznos információ áll rendelkezésre mondjuk egy monitor/tévé vásárlásnál, ha az ember nem néz utána alaposabban.
0
0
0
0
no avatar
@repulomajom-legikoz: 9060Xt kellett volna amikor 150e Ft volt a 16 GB os
0
0
0
0
no avatar
@repulomajom-legikoz: Hát ez a 3050 volt a legrosszabb döntés a 2060 is megveri az egyik legrosszabb kártya.
0
0
0
0
Brelshaza avatar
@Kings Bounty fan: De az az idő már elmult, most az 5050 en kell szégyenkedni hogy a 3060 megveri és még +4GB VRAM is van xD
0
0
0
0
no avatar
@Brelshaza: Az összes ilyen egy sapka szar jah. Itt már az összes 8 gigások az, nagyon rossz ómen a játékosoknak.
0
0
0
0
no avatar
@repulomajom-legikoz: Ezèrt kell 260e èrt venni 9070XT T a 5070ti alig gyorsabb cserèbe jelenleg 440e Ft....
0
0
0
0
repulomajom-legikoz avatar
@Andrews: Igazad van, hogy az árkülönbség sem feltétlen tükrözi azt, hogy mi mennyivel jobb vagy rosszabb. Ez igaz lehet élelmiszereknél, elektronikai dolgoknál, akármi másnál is.
0
0
0
0
no avatar
@Andrews: Már nagyon veri is azóta.
1
0
0
0
redbull6969 avatar
@Andrews: Valószínűleg azért van, mert az Nvidia rossz, az AMD meg a best. 😉
0
0
0
0
no avatar
@Andrews: Hát azóta bőven veri az nvidia az amd-t, főleg hogy megjelent egy dlss 4.5 is, ráadásul kevesebbet is fogyasztanak az nvidia kártyák, nem kevéssel.
0
0
0
0
Brelshaza avatar
@repulomajom-legikoz: Nálam speciel a Last of us part II jobban megy mint az 1 az a poén az egészben.
max rol 1 el visszább vettem, 60-80fps több mint elég.
0
0
0
0
Nemedik avatar
2016: 8 gigás középkategóriás kártya.
2026: 8 gigás középkategóriás kártya.
Olyan gyorsan fejlődik a technológia, hogy nem lehet szemmel követni.
2
0
0
0
💬 2
19ati93 avatar
@Nemedik: 2016-ban azért egy 8GB-s kártya a "very nice" kategória volt 😃
0
0
0
0
no avatar
@Nemedik: Attól, hogy vram-ban keveset haladtak, attól még a technológia fejlődött. Másrészről meg amíg nem akarjátok megvenni a 16gb-os kártyát vagy nagyobbat és a legtöbben 8gb-t használtok, addig muszáj a kisebbekre is optimalizálni a játékokat, mert másképp meg sírás van hogy nem fut a gépeteken a játék.

Szóval összességében a technológia fejlődik, de mi emberek ezt nem tudjuk a kellő gyorsasággal követni és azért valljuk be, hogy sokszor ezeknek az anyagi háttere miatt.
0
0
0
0
79Scooter79 avatar
Apa kezdődik......😁😁😁
0
0
0
0
💬 4
no avatar
@79Scooter79: Nem baj passziánsz elfut rajta 🤣🤣🤣
0
0
0
0
ToMiHuN95 avatar
@Kings Bounty fan: Csak azokat viszi?
0
0
0
0
no avatar
@ToMiHuN95: Ha így haladunk akkor jah.
0
0
0
0
Brelshaza avatar
@ToMiHuN95: Passziánsz RTX
Bár a microslop most még a notepadot is tönkretette szal lehet még az se fog xD
0
0
0
0


Elfelejtett jelszóRegisztráció