Az előző generációhoz hasonló memóriakapacitással érkezhet az RTX 5060 Ti és az RTX 5060

Szerző: xoki | 2024. December 17. | hír | 89 hozzászólás

Már nem kell sokat várnunk az Nvidia GeForce RTX 50 „Blackwell” gaming GPU-k első példányaira, amelyeket először a rajongóknak és a high-end játékosoknak szánnak, de később természetesen mainstream ajánlatokkal is előállnak majd.

A mainstream modellek közé tartozik az RTX 5060 Ti és az RTX 5060, amelyekről eddig nem sok minden szivárgott ki, azonban a Wccftech most hozzájutott néhány információhoz a memóriakonfigurációt illetően. Az Nvidia GeForce RTX 5060 Ti és az RTX 5060 egy „PG152” lapkát, és feltehetően a GB206 GPU magot fogja használni. Mindkét modell esetében marad a 128 bites memóriabusz.

Mindkét kártya GDDR7 memóriával készül, amely lehetővé teszi a 28 Gbps sebességet. A GDDR7 memória interfész összesen 448 GB/s sávszélességet jelentene, amely az RTX 4060 Ti-hez képest 55%-kal, az RTX 4060-hoz képest pedig 65%-kal magasabb.

Ami a memóriakapacitást illeti, a „Ti” modellnél marad a 16 GB VRAM, ami az RTX 4060 Ti alapmodelljének duplája, azonban megegyezik a továbbfejlesztett változatéval. A sima RTX 5060 pedig 8 GB memóriával érkezik, tehát a belépőszintű kategóriát célozza meg. Az Nvidia természetesen változtathat a specifikáción, amint a nagyobb kapacitású G7 modulok tömeggyártásba kerülnek, azonban úgy tűnik, erre a megjelenésig nem fog sor kerülni.

Az RTX 5060 Ti és az RTX 5060 február végén vagy március elején debütál majd.

Hozzászólások: 89
Hozzászólás küldéséhez be kell jelentkezni.
TikoTime avatar
Rtx 5070 és Ti specifikációk:

GeForce RTX 5070 Ti
8960 FP32
256-bit GDDR7 16Gb
300W

GeForce RTX 5070
6144 FP32
192-bit GDDR7 12G
250W

Szerintetek van létjogosultsága 2025-ben? 1080-1440-4k?
0
0
0
0
💬 2
pinkyke avatar
@TikoTime: Ha a GeForce RTX 5070 jó áron lesz akkor veszek olyat ha meg ugyan olyan drága lesz mint a mostani akkor maradok a 3060-omnál.
viszont az a 250W-os fogyasztás indokolatlanul sok mi zabál ennyi energiát?
0
0
0
0
no avatar
@TikoTime: Hát 5070 kuka kb (csak 12 gb ram. 192 bit), a TI talán nem de az meg nem 200e ft lesz :) hanem 400e-500e szerintem ismerve az Ngreediat mostanság! :)

Az RX 9070-9070XT egyelőre jobbnak néz ki adatok, s a leakek alapján (16gb vram, 256 bit, 220-250W, kisebb méret, FSR4, AI, 400-500 dolcsi ár stb) s tuti, hogy olcsóbb lesz kb 10 év óta az AMD olcsóbb.
1
0
0
0
no avatar
Többen is beszéltek itt 1080-ról, szerintem Ti ültök fordítva a lovon, az oké hogy
Norbiiiwii is azt íra milyen frankó a 4060-as 1080-hoz, csak helló ébresztő, 2025 (!)
írunk nem pedig 2015-öt, ahol a FHD az igény...én pl már évek óta 85 colos 120Hz-es 4K oled tv-n
játszok a méret miatt, nem sz@ros 1080-as monitoron, de gyanítom másnak is lenne igény
olyan kártya, ami fél millát nem haladja meg, de azért ki tudja köhögni 2025-ben a 120 fix fps-t ultrán ha már mondjuk 8-900 ezerért az ember összerak egy vasat mindennel. Szar minőségre meg
ott a konzol, kompletten 200 vonalában amiből egy jó deszka + cpu se jön nagyon ki, ott a "mű 4K" ami még mindig jobb mint a 1080... szóval na... 2011-ben jelent meg a 1080-as gamer monitor, szerintem már azért rá 14 évre illene tovább lépni róla nem? Arra viszont ahogy nézem az 5060-5070 nagyon nem lesz fullosan képes
0
0
0
0
💬 11
PoPet avatar
@20agh: Egyelőre amíg nem lesz 100k közelében jó 240Hz-es 1440p-s IPS monitor, addig maradok 1080-on, 24-25"-on teljesen jó, és nekem a high refresh rate fontosabb volt. 140 körül már kapni ugyan 1440p 240-et, és 105-ért IPS 1440p 200Hz-et (utóbbira még lehet rá is fanyalodok, de majd kiderül milyen lesz az 5700X3D és az új kártyám 1080-on, ha kicsit visszafogja a proci, akkor belátható időn belül feljebbváltok) de az a 140k pont 2x annyi, mint amibe a mostanim került. Nyilván tervezem a váltást, de még nem vett rá a lélek, hogy cseréljek.
2
0
0
0
nagylajos19982 avatar
@PoPet: Én most vettem novemberben a monitorom (AOC AGON Q27G3XMN) 120k volt Media Marktnál, ajándék volt érte, 27" 2560x1440 180hz mini led (VA panel)

Előtte egy 45ezres ips fullhd samsung monitorom volt, szörnyű volt a ghosting miatt, VA panel miatt aggódtam hogy lesz de annyira minimális hogy egyáltalán nem zavar.

Fényereje brutális sdr-ben szó szerint retina égető max fényerőn, hdr-ben se rossz, ha jól tudom 500 nit körüli, hátránya az hogy oldalról ill. alulról/felülről nézve sokat romlanak a színek, de igazából ezt se mondanám hátránynak mert úgyis szemből nézed :D
Ja meg a másik hogy VRR-nél van egy kis villogás, de igazából ez csak kb 100fps alatt jelentkezett nálam magasabb képfrissítésnél nem.
(tudom hogy nincs 200-240hz de szerintem ez a monitor egy arany középút volt:D)
0
0
0
0
PoPet avatar
@nagylajos19982: Legutóbbi VA-s AOC-om 2,5-3 évet bírt, aztán egyszercsak nem kapcsolt be többé, úgyhogy most kicsit mellőzöm a márkát, arról nem is beszélve, hogy a legolcsóbb LG IPS-nek mennyivel jobb színei voltak mellette. Egyelőre maradok a mostanimnál, aztán ha egyszer úgy érzem, akkor szétnézek, de nem szeretnék a 240-nél nagyon lejjebb menni, még 200-ra is meh, de az alá főleg. Egyszerűen sokkal smoothabb minden rajta.
0
0
0
0
nagylajos19982 avatar
@PoPet: Hát remélem hogy többet fog bírni :)
Én már nem szoktam márka alapján dönteni, egyszerűen a legjobb ár-érték arányra megyek és így minden márkáról lesz tapasztalatom :D

RTINGS tesztek alapján ugyanabban az árkategóriában 2 LG-vel szemeztem anno de színben majdnem azonosak többiben meg jobban teljesített az AOC úgyhogy egy esélyt adtam neki :D

https://www.rtings.com/monitor/tools/compare/lg-27gp850-b-27gp83b-b-vs-aoc-q27g3xmn/24452/41611

https://www.rtings.com/monitor/tools/compare/aoc-q27g3xmn-vs-lg-27gr83q-b/41611/41927
0
0
0
0
PoPet avatar
@nagylajos19982: Nyilván én is az ár/értéket nézem, de az, hogy csak 2,5 évet bírt, az eléggé rontott rajta :D Egyelőre még kártyát akarok majd váltani, megvárom mit hoz az AMD januárban aztán kiderül, utána jön a monitor projekt majd valószínűleg.
0
0
0
0
szilver avatar
@PoPet: nah de az csak akkor érződik ha a 240fps-is megvan nem?Mert amúgy meg tök mindegy hogy hány hr-ed van.Én legalább is ezt vettem észre.De majd valaki kijavít ha rosszul tudom.
0
0
0
0
PoPet avatar
@szilver: Persze, akkor előny, de competitive gamekben, ahol ugye tényleg számít, azokban azért meg is van bőven annyi. Singleplayer gameknél meg ott a freesync/gsync.
0
0
0
0
no avatar
@20agh: Az AMD elvileg bozzák majd a 5070-5070Ti szintet olcsóbban több vrammal S kb duplàzó RT vel a 7000 éles szèriâhoz mèrten
0
0
0
0
no avatar
@Andrews: azt azért megnézem, de főleg azt, hogy maga az adrenalin mit tud majd mert hiába a sebesség ha kifagy majd meg szarakodni fog. Mondom ezt úgy hogy 25 év óta először van AMD cpu-m egy 7800x3d AM5 lapon, és azt kell mondjam a kanyarba sincs az intel, viszont amennyira ***ák lettek az AMD cpu-k annyira csúsztak le az AMD gpu-k sajnos, pedig régen én is szinte csak azt vettem mert olcsón jó volt ( 5700XT stb annakidején )
0
0
0
0
PoPet avatar
@20agh: 1,5 éve van AMD GPU-m, ez az első, semmilyen driver/software gondot nem tapasztaltam. De igazából már kár is erről beszélni, mert a konkurencia sem jobb, sőt, lassan alig van olyan zöld driver is, amire nem jön pár nap alatt valami hotfix. Intelnél is nagyot léptek előre driveresen, de ott még azért 1-2 helyen belefutni kompatibilitási hibákba, cserébe a B580 nagyon jó ár/értéket képvisel. 15-20%-al jobb, mint a 4060, 12GB VRAM-al, és 50$-al olcsóbb.
0
0
0
0
no avatar
@PoPet: Szintén 2012 óta AMD karijaim vannak egyszer volt egy darab Win 10 el összeakadt update és friss driver de ennyi.
0
0
0
0
redbull6969 avatar
Az 5060/ti-nak sok értelmét nem látom! a RTX 5070TI talán jobb lesz mint a 4090🤔🤔 erre kiváncsi leszek. az 5070 esetleg közel lesz a 4080-hoz vagy jobb is lesz🤔 érdekes. Kontrollerel 4k-ba játszok ahhoz már kevés most a 3070-em de már nem akarok 4080s / 4090 venni ha már jönn az új széria🙄
0
0
0
0
💬 1
no avatar
@redbull6969: az EU árazás miatt pedig lehet jobban jönnél ki, mert most amit 4080-ra költenél abból nem fogsz 5080-at venni, jó esetben egy 5070 fog kijönni belőle vagy az se, az viszont majd valamikor ide április tájékán jön az meg hol van még? Nekem is azt mondták mikor bejött a 4070ti super hogy "ne vegyél mert jön az 5070" jah, csakhogy addig meg szenvedjek pl most az Indiana-val stb??? Cirka nekem lesz úgy egy év mire kijön ahhoz képest amikor vettem...Majd inkább eladom 150-200-al olcsóbban, és veszek kipótolva egy 5070 tis-t de akkor futott a kártya 1, 1.5 évet 200 ezerből
0
0
0
0
pinkyke avatar
mi ez a marhaság? 128bit az nagyon kevés.
mi lesz a következő újítás 64bit? meg miért lett a 60-as széria csak 8GB amikor 12GB volt ez nagy szemétség a cég részéről.
meg mi ez hogy belépőszint jó 200k felett lesz ez is megint ott tartunk hogy túl vannak árazva a kártyák tudom szar a forint értéke. de,ez akkor is felháborító. akkor is az a jobb ha több ramja van a kártyának 8gb az kevés. és a TI verzió meg jó drága lesz ahogy a mostani is az.
0
0
0
0
Belchior10 avatar
Szuper lenne az 5060 Ti 16GB, ha nem 128 biten tálalnák. Na de majd a tesztek elárulják az igazságot. 😊
Tippem szerint FHD-ban mindenre elég lesz ultrán, illetve a WQHD se okozhat majd gondot a jól optimalizált játékok esetén és némi kompromisszummal.
0
0
0
0
no avatar
Én sem értem MrPayer eszmefuttatásait.Mihez is nem volt elég eddig full hd-ban akármelyik korabeli xx60, vagy xx60ti?
4
2
0
0
💬 10
PoPet avatar
@Dpoci: Olvasd el az itteni kommenteket, leírtuk, többen, többször.
0
0
0
0
tivike avatar
@Dpoci: Ne törődj ezekkel a kommentekkel. Tök igazad van. Máskülönben azért sem hiteles mert olvasottak alapján vannak kb a hozzászólások. Ami iránt amúgy tiszteletem. Tök jó, hogy tájékozottak a témában. De nekem ott van a gépben a 4060. Még sosem volt ilyen jó kártyám. Mikrolag meg ilyenek? Semmi ilyesmi nincs. Hűvös, halk, energiatakarékos. Időtálló a 8GB? Nem. Tény. Jobb volna több? Igen. De azért, hogy high helyett ultrában játszak meg nem éri meg lecserélni. Lehet nem a legjobb, de tényleg. Kipróbálva más. Nagyon szerethető.
0
0
0
0
kovb677 avatar
@tivike: Énis ezt mondom hogy új 4060 nagyon jó lett már laptopban is 140w 8 giga, asztaliba meg majd 5060 is nagyon jó lesz. Semmi baj nincs vele 1080/1440-re bőven megteszi
1
3
0
0
PoPet avatar
@tivike: Persze, nem kell törődni a tényekkel. Tisztán, számokban mérhető dolgokról van szó, FPS-ről, 1% meg 0.1 lowról, latencyről, memóriáról, memory busról, $/FPS-ről (esetünkben forintról). Ez nem az a téma amiben a "szerintem nem úgy van" egy érv. Itt nem azt mondjuk, hogy a 3060-at vagy a 4060-at le kell cserélni mondjuk 6700XT-re, hanem meg sem kellett volna venni, vagy meg sem szabad venni, mert olcsóbb a nála jobb kártya. Ugyan így, a meg sem szabad venni az RX7600-at, vagy már most igaz az 5060-ra is, hacsak nem csapnak hozzá még 4GB VRAM-ot, mert egyszerűen 2025-ben, 2-3 vagy akár több évre 8-al venni kártyát saját magunk tökönlövése.

Ismét utoljára elmondom, a 4060 nem azért szar kártya mert nem visz semmit, hanem mert az időtállósága 0, és az ár/értéke azaz a price/fps is gyenge.
0
0
0
0
tivike avatar
@PoPet: Egyáltalán nem időtálló. És egyben egyáltalán nem szar kártya. Arra amire kiadták Arra szuper. Az ár/érték arány... már az árnál egyén függő. Nekem például mindig megér 30 ezret, hogy halk és hűvös legyen. Százalékok meg tesztek ide vagy oda, a gyakorlat más. Tisztán, számokban mérve az inflációnk is csak egy számjegyű. Klasszisokkal jobb mint a 6600 és a 3060. Ez tapasztalat. :)
0
0
0
0
PoPet avatar
@tivike: Ezek "kicsit" egyszerűbben mérhető számok. A hűtés meg nem az Nvidiától vagy Amd-től függ. Nekem a 6700XT még a H500-ban is 68-70 fokos, a 2060 meg 85 volt. Nem az Nvidiát szidtam, hanem magam amiért szép házat vettem jó helyett, és a Gainwardot, hogy gyatra csapágyat meg hűtőbordát használtak.

A 6600 a 3060-nál jobb olcsóbban, a 4060-nál hasonló árban a 6750XT, amint lesz nálunk akkor olcsóbban (remélhetőleg) B580, használtan jóval olcsóbban a 6700XT, vagy ugyan abban az árban a 6800, és had ne mondjam, ott mekkora az a klasszis.
0
0
0
0
tivike avatar
@PoPet: Persze, sima. Igazából írtam is, hogy a sapphire volt a bajom. Nem az AMD. Neked mid van ami hűs tud lenni? Xfx?

Igazából csak a tdp a párhuzam amiatt hasonlítottam. A 4060 115w. Az azért elég jó szerintem. A 3060 meg talán 160 volt. A 6700 170 körül lehet, ha jól tudom. Igazából ez az a szám ami miatt chipre hasonlítottam. De természetesen nem kimondottan chip gyártó alapján.
0
0
0
0
PoPet avatar
@tivike: XFX-em van, hibátlan, de korábban AMD kártyám nem volt, úgyhogy hasonlítani máshoz az azt gyártók közül nem nagyon tudom. Előtte rossz tapasztalat a Gainward 2060 volt csak igazából, ami melegedett.
0
0
0
0
tivike avatar
@PoPet: Fú, a gainward borzalmas volt nekem is. Xfx még nem volt. Állítólag a rog strix is jó. A gamingx mellett arra még nyitott vagyok. Csak azok nagyok. Nem igazán férne el egy strix kártya az itx házban.
0
0
0
0
MrPAYER avatar
@tivike: Ja, olvasottak alapján van..... és nem hiteles. Legyen úgy. Ámen.
0
0
0
0
no avatar
Ha a 4060 szinte MINDEN JÁTÉKHOZ OK FULL HD-ban, akkor mik ezek a kommentek? Szinte bármilyen játékkal játszom, magas grafikán kb 60fps vagy magasabb, a játékok kb 90-95%-nál, akkor meg mik ezek a kommentek? Egy 120-130 ezres videókártyára írjátok ezt, sok ember örülne egy ilyen 4060-as videókártyának, bakker tavaly jelent meg.
0
0
0
0
💬 5
PoPet avatar
@Norbiiiwii: Nagy titok: Spoiler!
Már tavaly is szar volt.


Akkor ráadásul még az új 6700XT is ott volt kb abban az ársávban. A hangsúly a szintén van. Szinte mindenre jó, kivéve az új AAA címekre. És ha már valaki vesz egy új kártyát, gondolom eléggé zavarja, ha az új hypolt játék medium felett crashel, vagy úgy akad, mint annó csóri 2060-am a Hogwarts Legacy alatt.

Aztán képzeld el ugyan ezt a leendő 5060-al, 2025-ben. A vásárló leül boldogan, hogy na a 1060 után végre mehet minden, 150k volt (elég optimális jövőkép, legyen inkább 160-170), de évekig megvan vele, 1440p stb megnyílik a világ, előveszi a 2-3 éves Hogwartsot mondjuk, és microlaggos, FHD-n.
0
0
0
1
Vitolo2222 avatar
@PoPet: a 4060 minden mai játékot, felzabált 75-80 fps-en. némelyiket pedig 100+ fps-en! 1080p ultra beállításokon. persze hozzá kell tenni, hogy dlss quality beállítással.

1 játék fogta csak meg ezt a kártyát, az pedig a Indiana Jones and the Great Circle volt. le kellett venni a textúra beállításokat médiumra, többi maradt ultrán. és így fértem bele a 8 GB vram-ba. és a játék 80+ fps-t hozott. és egy laptop 140w 4060 kártyáról
beszélünk. persze ultra textúrán hozta a 70+ fps-t, mint addig, míg el nem fogyott a vram! és lett belőle 25 fps.

de hogy a 5060 is 8 GB vrammal érkezik, ez nekem is eléggé bosszantó! még a 3060 is 12GB vrammal rendelkezik. nála erősebb kártya, a 4060 pedig 8? és ennél is erősebb kártya ami nem soká meg jelenik, a 5060 szintén 8? nevetséges. így kénytelen leszek a 5070-es laptopot választani a 2025 évben.
0
0
3
0
PoPet avatar
@Vitolo2222: Olvasd el a többi hszt, mindenre reagáltunk már előre többen is. A 1080p-s DLSS-t meg kamuframeket meg hagyjuk, borzalmas amikor arra skáláz fel. 1440p meg a 4k tűrhető, ha nem tudod mit csinál, hol lehet látni. Utána le se tudod venni a szemed róla, főleg egy gyors játékban. Amíg neked az AI generál nemlétező képkockát, addig egy 4 éves használt AMD megrajzolja a valósat. Arról nem is beszélve, hogy te már most kompromisszumokat kötsz, hogy ne fogyjon el a kártya a kevés VRAM miatt, egy 1,5 éves hardveren.

Az 5060 8 gigája már csak akkor lesz nagyobb poén, ha bejönnek a leakelt adatok, és a 8600-as AMD 12-vel érkezik már, onnantól felfelé meg 16-al jönnek a kártyák, már a 8700 is.

Hozzáteszem laptopnál más a téma, ott sok választási lehetőség nincs, de desktopon igen. És mind jobb, mint a 4060-ak.
1
0
0
0
Vitolo2222 avatar
@PoPet: Amíg neked az AI generál nemlétező képkockát, addig egy 4 éves használt AMD megrajzolja a valósat.

erről tudnék mesélni, de egyet kiemelnénk. a the last of us 100+ fps-en futott, 1080p ultra dlss quality + frame generation-el. de olyan érzésem volt, mint ha 25-30 fps-em lenne. igaz hogy kalóz verziót próbáltam ki, de szerintem nem ez volt a probléma.

a call of duty black ops 6 játéknál, ott jól működik a dlss quality + frame generation, mert érezhetően simább gyorsabb a játékmenet! de nem minden játékról mondható ezt el. de abban mind a ketten egyet értünk, hogy 8 GB vram kezd kevés lenni már.
0
0
0
0
PoPet avatar
@Vitolo2222: DLSS, framegen, Vsync stb mind növeli az input lagot, ezért multikban, de főleg FPS-eknél végképp kerülendő.
0
0
0
0
MrPAYER avatar
Az 5060Ti még so-so, majd az árazása eldönti, de az 5060 az tényleg a vicc kategória. 2025-ben megjelentetni egy 8GB / 128 bites dedikált videokártyát... hát, nem mondom, oké legyen, a reális értéke magyar kiskernél olyan 70e Ft környéke, de hát tudjuk, hogy magyarisztánba a hivatalos játékpénzünkkel 100 ezer alatt nincs GeForce.

Aki esetleg gondolkodik majd az 5060 megvételénél had osszak meg vele pár saját gondolatot.

-Hiába RTX, nem fog futni RT On mellett semmi. Többek között azért mert mert a friss megjelenésekhez önmagában már a 8GB VRAM is necces 1080p esetében is, az RT pedig minimum tol ezen +800 Mb-ot lájtosabban implementált formában is.

-Lehet itt majd akármilyen DLSS, frame gen meg szoftveres háttér, ezek csak szteroidok amelyek ugyanúgy működnek mint a valóságban az emberi testtel is. Csak akkor képesek segítséget nyújtani, ha alapvetően is képes vagy magadtól emelgetni a súlyt. Azzal nem tud mit kezdeni az sem ha két fekvő sem megy. Márpedig az 5060 ha ember lenne így nézne ki: Spoiler!
https://kephost.net/p/MTYxMDk4NQ.jpg


-Az Nvidia mindenkit lehúz, de leginkább azokat akik vagy a termékpaletta legtetejéről, vagy a legaljáról vásárolnak. Árérték arányban ez a két véglet az ami a legrosszabb dealt eredményezi a vásárlónak. Az 5060 szószerint egy ipari hulladék, alighanem az összes GB206-al foglalkozó gyártósort úgy lőtték be, hogy megfeleljen az 5060Ti minőségi előírásainak a legördülő produktum, de mivel a legalja a kínálatnak mind a kettő ezért a legsilányabb anyagokból próbálják meg előállítani, és itt most főleg a szilíciumra gondolok. Ha alapból szar az input akkor output oldalon sem kell csodát várni, a tajvani kiskoma a gyártósor végén a termékek felére nyomja rá a pirosgombot és teszi át a B szalagra, ahol majd szépen beállítják az 5060-ra előírt paramétereket, és ha szerencsések akkor nem kell tovább rakosgatni a C szalagra ami meg a hulladéktároló melletti csarnokba szállítja, ahonnan pedig majd az 5050 gyártását tervezik elkezdeni Q3-4 környékén.

Ne vegyen légyszíves senki 5060-at mert pontosan azt a rendszert szolgáljátok ki vele, amit amúgy naponta sérelmeztek itt az oldalon. Meg amúgyis, nem kell hozzá sok ész vagy utánajárás, hogy mennyivel jobb dealek léteznek ettől a piacon, csak ehhez előnyös levenni a zöld szemüveget, vagy nem muszáj, de akkor szét kell nézni a használtpiacon is. Bár aki az utóbbi néhány évben NV oldalról bottom tier-t vesz szerintem a legnehezebb meggyőzni arról, hogy ne tegye... hiszen csak olyan, tökéletesen egybehangzó tanácsokat olvashat a neten, hogy felejtse el, de ő mégis minden figyelmeztetés ellenére szembe megy az árral és rányom a megrendelem gombra. Ezt nevezem én igazi hűségnek, csak szociális oldalról megközelítve sem érzem alátámasztottnak a döntését, hiszen minden más RTX játékosnak legfeljebb a vízhordója lehet, pályára max azután mehet fel, hogy a bíró lefujta a meccset... na de olyankor aztán kinyílik a világ előtte és ő veti a leginkább lenéző pillantást a vörösmezes vendég csapat távozó játékosaira, simán szánalmat tud érezni a két méteres, 100 kilós csatár csk-val szemben is, aki éppen most dedikált egy labdát XTX aláírással.

Spoiler!
Az utolsó bekezdés utolsó pár mondata igaz történetek alapján íródott, számtalanszor olvasni ilyet fórumokon, többekközött ezen is. Nincs egyesével kedvem ezekre reagálni mert csak felbosszantanám magam és egyébként is kapnak ők eleget, a hullagyalázás pedig nem a kenyerem, hogy belerugjak mégegyet. Ezzel NEM azt mondom, hogy MINDEN XX60 TULAJ IDIÓTA, vannak szituációk, kihagyhatatlan alkalmak, szürke bizniszek amikor igenis jó deal lehet egy ilyen karesz, de az esetek 95%-ban szánt szándékkal, teli áron kiskerből lerendelt darab mindegyik és pár nap múlva jön is az internetre a világmegváltó prédikáció, hogy 10 wattot spórol (havonta 72.64461893 forintot), nem is zavarja, hogy hangos a kártya ami amúgy a füles alatt amúgysem szűrődne be, illetve a személyes, univerzális kedvencem: jó a driver. Ahha, tényleg jó. Éppen volt nálam a napokban egy 4090 amin még el is gondolkodtam, hogy lehet megtartom, amíg el nem értem addig, hogy hétvégén leüljek kicsit Black Ops 6-ozni. Aztán kiderült, hogy két hónapja probléma GeForce oldalon, hogy képes a játék villódzni és valami skybox bug van. Érted, a világ legtöbbet eladó dGPU gyártója + a világ egyik legtöbbet eladott játékának kooperációja ennyit tudott. Van probléma mind a két oldalon, felesleges az egyiket ultimate superiornak beállítani a másikkal szemben mert csak magadat bas*od át.
0
0
2
1
💬 16
nesh019 avatar
@MrPAYER: Ezért kell megcélozni a 5060 ti-t. De igaz 128 bites az már tényleg elég gyengécske.
De amúgy lesz 5050 is 8GB-on.
0
0
0
0
no avatar
@MrPAYER: Egyet nem értek. Ha az én 4060as kártyám ami eléggé drága volt 120-130ezer, szinte minden játék megy kb 50-60fps vagy magasabb fps-el, akkor miért írsz ilyen véleményt egy megjelenő 5060as kártyáról? Viszont amit írsz a 8 vramról az lehet, de kb minden játékhoz ok a 4060.

Még sok ember 1050ti, 1060-al játszik és ilyeneket olvasni, hogy az 5060.....4060 ráadásul tavaly jelent meg.

Viszont a 8 vram-nál az amit írsz az lehet,
0
0
0
0
MrPAYER avatar
@Norbiiiwii:
4060as kártyám ami eléggé drága volt 120-130ezer


Pont ez az egyik lényegi pontja annak amit írtam.

MrPAYER: Az Nvidia mindenkit lehúz, de leginkább azokat akik vagy a termékpaletta legtetejéről, vagy a legaljáról vásárolnak.


Árérték arányban, tehát GPU esetében fps/$ mutató alapján az előző XX60 és mindenbizonnyal az érkező XX60 is borzalmas. Előttem is írták már ráadásul teljesen pontosan, az Ada-val az NV a nevezéktant eltolta eggyel felfelé. Magyarán a 4060 a specifikáció alapján a korábbi GTX, illetve az RTX 20-30 esetében, vagyis ha azt a mintát folytatták volna: akkor 4050 lenne a neve. Ezen az alapon az igazi 4050, vagyis amit az NV hivatalosan annak hív a valóságban egy 4040, ami olyan szintű mélység ami korábban páratlan volt.

Még sok ember 1050ti, 1060-al játszik és ilyeneket olvasni, hogy az 5060.....4060 ráadásul tavaly jelent meg.


Ezek az információk milyen relevanciával bírnak egy RTX 50-ről szóló topikban? Természetesen az autósok között is van olyan aki 20 éves autóval jár és azokat összehasonlítva egy 2024-es 10 milliós modellel nyilván az újabb lesz a győztes. Ettől függetlenül ha ez egy autós topik lenne akkor is elmondanám, hogy a 10 milliós 1.2 turbó mákdaráló akármi egy ipari hulladék és 1.5x drágábban a 15 milliós Camry 2.5l hybrid 3x annyi komfortot és megbízhatóságot ad, ami árérték arányban is jobb termékké változtatja és nem csak abszolút értelemben számít annak. Ezt a példát nyugodtan átfordíthatod a GPU-kra is.

Valamilyen szinten ezek marketing trükkök is. Ha a flagship modell értelmezhetetlenül drága akkor tudat alatt feltételezed, hogy adott termékcsalád kisebb tagjai is valamilyen prémium szintet képviselnek. Ezzel pedig az entry floor-t feltudod pozicionálni szintén irreálisra, ami viszont csak arányiaban irreális, abszolút értelemben viszont nem mert még kifizethető. De nyilván kiszolgálják azokat is akik barátok a matekkal és megfejtették, hogy a középszinttel járnak a legjobban, mert árérték arányban az a legelőnyösebb a fogyasztó számára. Elárulom neked, hogy a mekiben is a közepes kóla éri meg a legjobban, nem véletlenül.

szinte minden játék megy kb 50-60fps vagy magasabb fps-el


Ezt kétlem. Legalábbis biztosan nem úgy kaptad ezeket az adatokat ahogyan egy általánosan elfogadott benchmark teszt zajlik. Engedd meg a feltételezést, hogy Te valószínűleg semmi mást nem néztél csak egy avg. fps-t, azt sem feltétlenül az elérhető legmagasabb grafikai beállítások mellett natív megjelenítéssel. A mai világban az avg. fps igaz, hogy még mindig meghatározó mérőszám, de vannak egyéb fontos tényezők is. Ilyen pl. a 0.1% / 99th%, microlag%, input latency stb. amelyekből ha már csak egy is nem klappol egyből nem olyan jó a játékélmény. Arról nem is beszélve, hogy az 1080p mint felbontás 2025 derekán már sokkal inkább a kisebbség kellene legyen nem pedig az alsó / alsó-középkat friss hardverek célpontja, amelyet nevetséges módon szintén van, hogy nem tudnak maradéktalanul kiszolgálni. Ezzel szemben példának okáért ha egy középkategóriának számító 7800 XT-t nézünk az maradéktalanul letudja hozni az 1440p-t, gyorsabb teljesítményre képes egy jelentősen több képpontot tartalmazó felbontás alatt is és csak 85-110%-al drágább mint a 4060.
0
0
0
0
PoPet avatar
@Norbiiiwii: Valamelyik nagyobb YT csatornán volt erről videó, a steames adatokat, ahol még mindig rengeteg 1060 van, nagy mértékben torzítja 1 dolog: Brazília és több Dél-Amerikai vagy egyéb szegényebb országban ezeket a kártyákat két kézzel veszik meg akárhonnan a világból. Ugyan így torzítja a képet az Intel market sharejénél az OEM-ek jelenléte, a sokszáz dell optilex és egyebek amit megvettek budget gamer gépnek. Az sem azt jelenti, hogy azért van sok Intel, mert az hű de jó jelenleg. Elég csak megnézni pl egy amazon bestseller listát. 10-ből 1 Intel. A 8. Egyelőre GPU-nál még a zöld Spoiler!
köd
marketing erősebb, de reméljük lassan egyre több ember hagyja ott őket, és akkor végre elkezdenek újra normálisan árazni, gyártani. Ezért is örülök most GPU fronton az Intel B580-nak is, mert az az árazásával, vagyis az ár/értékével mindennek és mindenkinek odarúgott egyet, és tbh az már kellett az AMD-nek is.
0
0
0
0
PoPet avatar
@MrPAYER: Ó ne félj, kétpofára fogják enni az 5060-at az emberek, ugyan ez volt 23-ban, leírtuk ezerszer meg még egyszer itt is meg máshol is, hogy NE, sokkal jobb van azon az áron, meg előtte a 3060 6600 párosánál is. A legrosszabb mikor más kér tanácsot, így gyakorlatilag az ő pénzét költik, és ajánlják a 405060-at, mert hát nekik az milyen faxa, mert nem is gond a 8GB VRAM annál amit ő játszik. Meg hát ott vannak a prebuildes sz*rok, ahol pl a Computer Imperium a 4060 megjelenésekor leírta valakinek kommentben, aki rákérdezett, hogy AMD kártyával miért nincs gépük, hogy hát mert nem relevánsak.

Jó lenne a 4060, 90-100k körül. Mert jelenleg 40 ezerrel olcsóbban lehet venni többszáz pozitív értékelésű eladótól aprón jobb kártyát, vagy ugyan olyan áron kategóriákkal jobbat (6700XT, 6800).
0
0
0
0
MrPAYER avatar
@PoPet: Persze, hogy venni fogják, hiszen 10 év elteltével (mikor az utoljára fejlesztette a PC-jét) így is nagy upgrade lesz.

Meg amúgyis, mi mást venne ha nem GeForce-t, hiszen mikor utóljára tech híreket olvasott éppen a Witcher 3 alatt kifagyó Vegák voltak a másik oldalt és ez élénken beleégett az emlékezetébe egy életre.

Illetve az is sokkoló tud lenni, hogy most egy darab xx60 kerül annyiba mint anno a komplett gépe, strokeot is kapna ha ettől többet kellene kiadni kártyára, még akkor is ha sokkal jobban járna arányaiban és hosszútávon.

Aztán pedig te vagy a tuskó, vagy esetleg beképzelt mert leírod neki ezeket a gondolatokat, hogy lehetne picit többet is költeni mert Ő fog jobban járni.

Érdekes egyébként, hogy más, szintén prémium árazású hobbiknál, pl. horgászat nincs jelen ez a fajta agresszív-tagadás a kezdők / budget felhasználók részéről mint a gamingben. 50k-s bottal meg 10k-s orsóval nem akarják megmagyarázni, hogy milyen ***a a cucc és, hogy mekkora harcsákat fognak vele mikor keszegezni is az éppen ok kategória. Csak itt a gamer PC világban mindenki a "harcsát" akarja, tekintve, hogyha kijön egy új játék ugyanúgy ráugrik az RTX 4060 user is mint a 4090. Csak a 4090 egy halradaros yact bálna szigonyokkal, a 4060 meg egy befőttes üveg rohasztott kukorica és a már előbb említett papától örökölt bot.
0
0
2
0
PoPet avatar
@MrPAYER: Hát igen, megveszik, minden tanács ellenében, utólag meg felháborodva konstatálják, hogy hát szarozzák amit vett, pedig hát milyen drága, meg új. Értem én, hogy van egy keret, ami belül kell maradni, nekem is volt, fel is csaptam a hardveraprot, és vettem egy 2-2,5 éves 6700XT-t asszem 115-ért, amikor a friss új ropogós "csúcs"kártya, a 4060 140 körül ment. Az új kártya most crashel az Indy alatt medium textúra felett, a régi, driver gondos, borzalmas sátán szülöttje, atomerőműről hajtott, természetesen a forróságtól vörösen izzó hűtőbordás AMD meg röhögve viszi, az indításkor megjelenő bazinagy Nvidia logó ellenére, arról nem is beszélve, hogy 1440p-n már majdnem 2x annyi FPS-t is hoz. És értem én, hogy 1 játék, de lehetne még sorolni már hosszasan ami alatt a 8GB VRAM ha nem is crashel, de microlagos, még ugye FHD-n is. Együtt lehet vele élni persze, mert nem kell mindenkinek gourmet-nak lenni, de ***, kiadok valamiért 130-140 ezret, és fogadjam el, hogy már most kiöregedik a frissen fejlesztett drága gépem?
0
0
0
0
no avatar
@PoPet: Teljes egyetértés. De sajnos hiába magyaràzod fórumokon...... 8800xt ről jó hírek vannak nagyon most viszont
0
0
0
0
PoPet avatar
@Andrews: Várom én is, mit tudnak majd az új AMD-k (bár a 4080 szintű pletykákkal kicsit szkeptikus vagyok, a leakelt specs alapján), ha lesz jó vétel 200-230 körül, akkor lehet eladom a 6700XT-t, és beruházok rá. Illetve persze ha lenyomja a 7000-es árakat, akkor ott is megérheti majd szétnézni, akár használt piacon is. Persze egyelőre még teljesen jól elvagyok a mostanival is, de a hírek alapján valószínű olcsóbbak úgysem lesznek már a kártyák, sőt, szóval ha lesz lehetőségem, és jó ár/érték a piacon akkor egyet valószínű upgradelek, amíg egész jó áron eladhatóak a 6700XT-k is. Úgy még elleszek pár évig, aztán úgyis platformot kell váltani. Bár durva belegondolni, hogy ezt az AM4-es lapot 2019-ben vettem, és hacsak véletlen nem adja meg magát, akkor 7-8 évig kihúzza, R5 2600-ról indítva, és X3D-vel befejezve. Persze kb 5FPS-t buknék egy 7800XT-nél pl a Gen3 miatt, de azért az egy új alaplapot nem igazán ér meg.
0
0
0
0
szilver avatar
@MrPAYER: Anno olvasgattam sok ilyen esetet én is hogy így szar a driver meg úgy AMD oldalon és hogy az Nvidia a best.kb 2 éve van egy 1080Ti-om(igen kissé lemaradva jutottam hozzá,de elvagyok vele)elötte AMD VGA-k voltak mindig is.Öszintén megmondom hogy ugyanolyan szar mindkét oldalon a driver.Jobban mondva itt is,ott is tudnak lenni hibák,ezen nem kell lovagolni,eddig mindig javítva lettek idővel.Annyi biztos hogy következőre megint a piros oldalon fogok állni inkább.
0
0
0
0
no avatar
@szilver: Így van. Nekem is volt mindkettő cègtől màr. Mindegyiknek hol itt hol ott van driver gondja dejönnek a fixek. Nekem egyszer volt problèma csak Windows Update S a driver iupdate összeakadt....
0
0
0
0
Zollee avatar
@MrPAYER: Atyám, Na pont az ilyen dumák miatt tudnak elbizonytalanodni a emberek.

Mint valami fantázia regény vagy valami politikai hittérítés, szőrnyű hogy miket nem tudnak írni az emberek és micsoda elhivatottsággal.

Értem az nvidia gondolkodás módját, nem mondom hogy jól csinálják, de lényegében azért van a low tier kártyákon kevés vram, mert manapság minden új játékban implementálva van valamilyen skálázó, dlss, fsr, xess, stb senki sem üti be kézzel a szöget a fába, kalapácsot használnak.... ezért gondolják alkalmasnak a 8gb,-os vramot, mivel ha 4k- játszasz is, skálázókkal igen csak le redukálható a vram fogyasztás, ha nem maxon akarsz játszani hanem egy optimális beállást használsz akkor meg lehet oldani 4k 60fps is. (nvidia app részletesen lebontja hogy mit érdemes ki és bekapcsolni valamint játékokra külön kiépítve megmondja melyik beállítás mitcsinál a jétékban és egy tanács skálán is éllíthatod az egészet ha nem akarsz rá időt szánni hogy kitanulmányozd). Ezeket mind személyesen tapasztaltam a wukongról még videóm is van ha esetleg megkérdőjeleznéd azokat amit írtam.

Hallottam már fűt és fát azzal kapcsolatosan hogy bizonyos emberek, azt látják hogy dlss, meg frame gen rontja az összképet, meg artifaktos lesz kép, ez marhaság, én egy mezei 4060-al az eddig újonnan megjelent játékokat ahol volt rtx be kapcsoltam, 60fps stabilan megvolt, igen dlss-el, de hogy én különbséget nem tudtam mondani képminőség között ahogyan be van kapcsolva vagy sem. A dlss-nek is több módja van nyílván nem a performance módot kell használni ahoz hogy képromlás nélkül kapjál jobb teljesítményt.

Van aki dlaa -ban használja, az sr90-től egészen natívig de jobbára 1080p -nél 66 sr- az ajánlott, míg 4k-ban 40-30 sr-szoktak használni ezekkel kb 8x lassítással és egy nagyító segítségével két külön monitoron vizsgálva találnál esetleg némi minőség csökkenést, de azt is csak elméletben, tehát nem igen hiszem hogy van aki ezeket látja.

A frame gent meg értelmes körülmények között kell használni, ha van ugrándozó 24-36 fpsed- 4k-ba, nem fog stabil 60fps készíteni. (kb kifejtetted te is ezt a súly emelős példáddal, de te úgy írtad le mintha valami csodát várnál) Azt magas frissítési rátás monitorknál szokták használni ahol van stabil 60fps, ott egész jó 120fps lehet vele elérni, egy budget kártyán, például alanwake II, rtx-el 60fps, az nélkül, frame gennel, 120fps Meg van, és kb ez a kártya 100 000- 130 000közt beszerezhető, valamint a fogyasztásai is kimondottan alacsony 115w a max tdp-je.

Én azt mondom az emberek arra költenek amire szeretnének, Összességében én azt mondom, hogy szerintem jó kártya. Ha képes lesz a 5060 ebben az árszegmensben maradni akkor az egy jó vétel lehet.

Funfactnak még úgy megemlíteném hogy az unreal engine 5 Lumenje, hasonló fényszámítást tud mint az rtx, csak nem kell hozzá dedikált rtx magok így az opciónak sem kell hogy bekapcsolva legyen mivel nanite virtualised geometryt használja. Lényegében ez szerintem sokkal jobban néz ki mint ray tracing global illumination. Ez is teljesítmény romlást eredményez de nem annyit mint az rtx-nél.
0
3
0
0
PoPet avatar
@Zollee: Nem gondolják elégnek a 8GB VRAM-ot, így nekik olcsóbb a gyártás, a user meg hamarabb veszi az új kártyát.

A DLSS rontja a minőséget és pont, ez tény. Egy gyors mozgásnál borzalom, még qualityn is. Pl SpiderManben eltűnik a háló, Hogwartsban glitchel a köpeny stb. A "ha 4K-n játszol skálázva" dolog meg nekem érthetetlen. Akkor nem 4K-n játszol. Ugyan így a többi felbontással is.

A 100-130 inkább 125-150. A tdp meg ezerszer le lett írva, ki lett számolva, hogy 4-5 év alatt terül meg.

Mindenki arra költ amire szeretne, de ha valaki megkérdezi mi a legjobb amit tud venni, akkor nem azt kell mondani amit ő vett, mert neki a zöld logó tetszik, hanem ami a legjobb.

És ja, 2023ban is gáz volt 8GB-os kártya, 2025-ben meg egészen szánalmas. Igen, az RX 7600 is gáz. RT-re meg 4070 alatt minden pont annyira alkalmatlan normális FPS mellett mindenféle bullshit nélkül, mint az AMD középkategóriás kártyái.
0
0
0
0
MrPAYER avatar
@Zollee:
Atyám, Na pont az ilyen dumák miatt tudnak elbizonytalanodni a emberek.

Mint valami fantázia regény vagy valami politikai hittérítés, szőrnyű hogy miket nem tudnak írni az emberek és micsoda elhivatottsággal.


Pont az ilyenek miatt nem tudnak elbizonytalanodni az emberek, mert a 10 db 4060 ajánló közül 9 db 4060 tulaj, a maradék 1 meg 3060 aki áhítattal bámulja még a 4060-at is. Ezzel szemben itt vagyok én akit semmilyen személyes vonatkozás nemhogy a 4060-hoz, de az egész tierhez sem köti, amelyben elhelyezkedik az a kártya.

Ezt a fantázia regényes hasonlatot nem igazán értem, tényeket próbálok közölni hétköznapi megfogalmazásban és példákkal, tudván, hogy az a vásárlóréteg akinek célzom az üzenetet a koca gamerekből és amatőr szintű hobbistákból áll javarészt, hiszen ha nem azok lennének akkor eleve tájékozotabbak lennének és véletlenül sem vennének ilyen kártyákat.

(nvidia app részletesen lebontja hogy mit érdemes ki és bekapcsolni valamint játékokra külön kiépítve megmondja melyik beállítás mitcsinál a jétékban és egy tanács skálán is éllíthatod az egészet ha nem akarsz rá időt szánni hogy kitanulmányozd).


Ezt ha te nem red flagként hanem egyenesen featureként értékeled akkor úgy gondolom itt zárhatnám is ezt a beszélgetést, mert már ennyiből is nyilvánvaló, hogy a gondolkodásunk szöges ellentétje a másikénak és, hogy közös nevező soha nem lesz.

Leírtál itt még rengeteg adatot, hogy mit hogyan érdemes kapcsolgatni, és ami nekem lejön ebből, hogy téged ezek a "featuerök" nem zavarnak és mint ahogy említetted is, nem látsz különbséget. Nos az, hogy te nem látsz különbséget az nem jelenti azt, hogy más sem, illetve, hogy akkor ez így egyetemesen kijelenthető, hogy FG+DLSS+mittomén milyen kisegítés = megfelelő minőségű játékélmény. Ha csak az FG+DLSS kombinációját nézzük máris két olyan dolgot tudok mondani rögtön ami miatt ha ilyen PC-n kellene játszanom rögtön azonnal menne az exit és keresnék más elfoglaltságot: a DLSS miatti artifact és elmosódás és az FG miatti túl nagy különbség az avg. és a 99th között, ami egyszerűbben megfogalmazva microstutter. A konstans mosódás miatt 15 percen belül szédülnék, a microsutter pedig borzalmasan tudja fárasztani a szemet rövid távon is.... és akkor itt még szó sem esett arról, hogy kb. 60 fps környékén vagyunk így is a low end hardver miatt, ami meg MnK userként közel játszhatatlan az input delay végett 5+ év 144/170 Hz után. (és a 144-nek alapnak kellene lennie már minden PC MnK játékosnak felbontástól függetlenül, hiszen ennek a frissítési rátának a megfelelő kiszolgálása a PC által az egyetlen olyan pont amellyel validálni tudja azt a döntését, hogy miért PC-t vett és nem konzolt. 60 fps játékra olcsóbb és praktikusabb a konzol, mert a sticken nem érzed azt az input delay-t ilyen alacsony sebbességnél mintha az egeret rángatod.)

Összességében én azt mondom, hogy szerintem jó kártya.


Összességében én pedig azt mondom, hogy szerintem ez egy mezei scam a gyártó részéről és Isten óvjon mindenkit attól, hogy megvegye, illetve az egész ipart is, mert ha ezt a felcukrozott végbélsárt továbbra is ilyen tételben tudják majd eladni akkor mégrosszabb világnak nézünk elébe az árazásokat illetően.

Én azt mondom az emberek arra költenek amire szeretnének


Ez igaz, viszont nem feltétlenül jogosít fel senkit a termék promótálására ez a személyes döntése, főleg akkor egyébként ha általánosan megkérdőjelezhető, és tudod engem ez bosszant, illetve ezért is nem tudok maximálisan szalonképes módon fogalmazásokat írni ebbe a topikba mert felidegesítem magam egyszer magán a jelenségen, hogy létezik, másodsorban pedig azokon akik még asszisztálnak is hozzá.

A politikai hittérítő pedig nem én vagyok, hanem az Nvidia, az ő politikájukat nyelitek le az utolsó cseppig és mentek bele tátott szájjal abba a bizonyos erdőbe önszántatokból. Itt nem én vagyok egy ellenségkép vagy a hülye, hanem pont ellenkezőleg. Nálam egy héten több hardver fordul meg mint amit itt az oldalon lévő emberek 95%-a egyesével birtokolt az elmúlt 10 évben. Én tudom, hogy miről beszélek akkor amikor azt mondom, hogy valami szar vagy jó mert volt már szerencsém kipróbálni kb. mindent is. Te gondolom nem 3090-ről váltottál 4060-ra egy 1440p->1080p downgrade-t mellé téve. Sanszos, hogy elképzelésed sincs személyes tapasztalat hiányában, hogy milyen mondjuk az 1440p fix 144 frame NATÍV + anti lag + <1ms input. És ehhez nem kell 1 millás 4090, bőven elég egy 250k-s 7800 XT vagy használtan mondjuk 6900 XT ami nem olyan elrugaszkodott példa egy 4060-hoz viszonyítva, tehát máris nem pénz kérdése a dolog, mert nekem ne mondja senki, hogyha van 500k 4060 buildre akkor 550-600 már földhöz vágná. Persze, hogy neked megfelelő 2060-ról vagy valami ilyesmi után átjönni a 4060-ra és FG + minden szarral játszani.... de szerinted ez egyetemesen mindenki másnak is jó lesz? Használtál már legalább 1 hétig a tiedtől izmosabb konfigurációt és megtudod mondani, hogy milyen érzés volt visszamenni a saját gépedre miután hozzászoktál a másikhoz? És ez most nem arról szól, hogy szándékosan lekezelő szeretnék lenni veled vagy a többi hasonló géppel rendelkezőkkel szemben. Teljes mértékben ellenkezőleg, segíteni szeretnék, amit egyszerű, esetlegesen nem megbántó vagy sértő fogalmazás nélkül nem tudok elérni mert foggal-körömmel ragaszkodtok a saját verziótokhoz, ami egyébként téves.

Ez azt jelenti én valami gépigény.hu istenségnek tartom magam? Nem. Vannak nálam a témában okosabbak? Vannak. Csak szarra se megyünk itt a gépépítős tanácsadásban az élő lexikonokkal, hogy az unreal 5 tökömtudja milyen geometriája alapján 0.003455x gyorsabb a renderelés X kártyán mint Y-on, meg a fedélzeti AI magok száma alapján 45 másodperccel hamarabb renderelek anyám fejére barnább tónust évi 1x a nyaralós fotón és hogy ez mekkora feature.
1
2
0
0
no avatar
@MrPAYER: DLSS-FSR főleg a távoli horizontos pontoknál ghostingol pl FPS lövöldözős vagy belső nézetű egyéb gameknél. A gép Ai már lát téged te meg a bluringtől nem őt :D Oh az Intelnél is és Nvidianal is akkor fanboy közösség van hogy csak na. Applenél van hasonló még. S közben a vicc, az hogy azt mondják mi vagyunk a fanboyok és fúj a marketingerős cégekre közbe nyelik mélyen. :( Nekem fele fele arányban volt Intel és AMD procum s s 5 -3 arányban AMD-NV vga.... De én vagyok a fanboy ... Emellett nem hírezem percenként minden apróságért az adott cég BÁRMILYEN termékeiről szóló híreit.
Ja de fanboy vagyok. Az Ár-Értéké! :D Alsó kategóriában az most pl az Intel amúgy! A B580 al.
1
0
0
0
PoPet avatar
@Andrews: Durva amúgy, de igazából már Intel fanboy is kevesebb van, mert a piac a helyére rakta az Intel procikat a toplistákon, és az ő downfalljuk valahol ott elkezdődött, hogy belekényelmesedtek a helyzetükbe, és ha rajtuk múlna kb még mindig a 4 magot reszelgetnék. Az AMD meg közben 19-re húzott egyet a Ryzennel. Csőd vagy win alapon. Tudjuk melyik lett. Viszont Nvidiás embert meggyőzni, sokszor még lehetetlen, de lassan talán változik majd ez is. Végülis ők még csak az RTX 3-4000 óta nézik teljesen bohócnak a vásárlóikat (nem azt mondom, hogy előtte sosem tették, de azóta tesznek piros gumiorrt a kártyák mellé a dobozba). Remélem az Intel is segíti ezt a folyamatot szépen lassan, a B580-hoz hasonló megjelenésekkel.

Zsinórban 4 Intel és most 4 AMD proci futott/fut a gépeimben. Jelenleg életem első AMD kártyájával. Nekem aztán halál mindegy a logó, régen elismerem még én se jártam kellőképp utána, ha megtettem volna talán nem 1060-at veszek, hanem 580-at, de manapság már felcsapom ezt a végtelen tudást és reviewt rejtő internet nevű dolgot és utánajárok mi mennyire éri meg, és eldöntöm nekem az úgy megfelelő-e. 2019-ben kellő utánajárás után letettem a voksom az AM4, és az R5 2600 mellett úgy, hogy abba nőttem bele, hogy az AMD mekkora kupac .... és rajtuk röhögött mindenki. Majd tavaly nyáron elkezdtem olvasgatni, hogy 3060-at vagy 4060-at vegyek, és mindenhol meglepő de egybehangzó vélemény volt: egyiket se. Azt ugye tudjuk, hogy nem a sok hülye jön szemben az autópályán, úgyhogy elkezdtem nézegetni mit ajánlottak a 3060 helyett mindenkinek: 6600XT. Viszont ha már adott volt a keret, megnéztem mit tud a használt piac, elvégre 2 év után már sokan cserélik a kártyáikat, hátha vannak jó dealek, és voltak. Így kb fél nap utánajárással már meg is volt mit fogok venni 3060 árban, a 4060-nál tízezrekkel olcsóbban, úgy, hogy az eredetileg kinézett kártyákra köröket ver. Nem volt nehéz, és nem is fájt.

Ha valaki tanácsot kér, ugyan úgy elmondom, ha az AMD rossz (rád nézek 7600), vagy ha az Intel jó. Aztán hogy végül valaki a tanácsok ellenér megveszi a zöld nogo 60-as kártyát, már nem az én bajom, ő döntötte el, hogy kevesebbet kér a pénzéért, mint amit kaphat.
0
0
0
0
carl18x avatar
8GB 2025 ? 😅😅😅Nem kell többet adni elég az.🙄
0
0
0
0
💬 1
PoPet avatar
@carl18x: A kedvenc megfogalmazásom egy külföldi oldalon olvastam. Az Nvidiának megtetszett az AMD-s "fine wine" jellemzés, de nekik csak a "milk left on the sun" jött össze.
0
0
0
0
no avatar
S a 5070 is csak 12gb..... Amd majd S most màr az Intelnèl sem ilyen problemâk nincsenek.
0
0
0
0
💬 2
PoPet avatar
@Andrews: Végülis, nem értem mi a gond, te nem 1080p-re meg kompromisszumos 1440-re vennél 5070-et majd úgy kb 8-900$-ért? :D
0
0
0
0
no avatar
@PoPet: Sajna nem :D 1440p-4K fele kacsintok így 11 év 1080p után :) Reménykedek még a 8800xt ben kb egyelőre ha igazak a pletykái
0
0
0
0
cabus26 avatar
El se hiszem,hogy 2025-ben még 8 GB vrammal xarakodnak.
Tuti bukás lesz így,mert visszafogja rendesen a teljesítményt,amint elfogy a Vram.
0
0
0
0
💬 4
tivike avatar
@cabus26: Igen. Eléggé penge él a 8GB. Az a helyzet, hogy még most én nem érzem a 4060-nal. Igazából csodálatos kis kártya. Halk, hűvös és nagyon keveset fogyaszt. De biztos vagyok benne, hogy hamarosan már penge élre sem lesz elég a 8GB.
0
0
0
0
cabus26 avatar
@tivike: Hát sztem 1080P-ben egy combosabb játék esetén már érezhető.
Annó kb 5-6 éve egy GTX 1080-nál is kevés volt,igaz,ritkán.
Most 4K,DLSS esetén a STALKER 2-ben is jártam úgy,hogy elfogyott a 16 GB vram és játszhatatlan lett.
Utána nem éreztem v nem fogyott el,v kiadtak update-et.
0
0
0
0
no avatar
@cabus26: Ps4 2013-as hardver igaz? Nézd meg Ps4-en milyen király a Horizon játék. Ezek a videókártyák bőven elegendőek lennének a játékokhoz csak akkor nem tudnák eladni az 5060-5090 stb.
0
0
0
0
cabus26 avatar
@Norbiiiwii: Csak azt is nézd,hogy honnan skálázza fel,mennyivel butább a grafikája és hány FPS van PS4-en,ha az új horizonra gondolsz.
Meg most is elegendőek,csak manapság sokan nem látják a fától az erdőt.
Felbontás és FPS kérdése.
Itt inkább,amire utaltam,hogy kevés a Vram,ebben az AMD sokkal jobb,el kell ismerni.
0
0
0
0
PoPet avatar
A 405060 után sikerül még egy "avoid" tier 60-as kártyát hozni, hát komolyan már csak direkt lehetnek ennyire gyökerek a középkategóriát keresőkkel :D
0
0
0
0
💬 15
tivike avatar
@PoPet: Az nem azt jelenti, hogy elkerülni? Nem értem, hogy érted. Elkerülendő?
0
0
0
0
PoPet avatar
@tivike: Igen. Még asszem PSU tier listen láttam, aztán megtetszett ez a fajta kategórianév.
0
0
0
0
xCube avatar
@PoPet: A gond az, hogy az xx60 nem középkategória. Valamikor még az volt, most már az alsó kategória felső szintje. A középkategória a xx60 Ti / xx70 -nél kezdődik.
0
0
0
0
tivike avatar
@xCube: Azért például a stalker 2 is szépen megy rajta FHD-ban. Meg minden. Szerintem jó kártya. Nekem kiváltképp az energiafogyasztása és a hőmérséklete tetszik.
0
0
0
0
xCube avatar
@tivike: Én nem tartozom azok közé, akik teljesen eltemetik a 8GB -os kártyákat, nekem is van egy RTX 3060 Ti a kisebbik gépemben, ami egy 3060 12GB -ot váltott le. Amire nekem kell arra a GPU teljesítménytöbblete többet ért, mint a +4GB memória.
0
0
0
0
PoPet avatar
@xCube: Simán jók lennének ezek középkategóriának, ha a VRAM-al nem szarakodnának, mert 1080p-n bármit elvinnének egész jól, sőt még 1440-en is egész jól kompromisszumokkal, de a 8 GB VRAM már csomó új játékot élvezhetetlenné tesz a microlagok miatt. Bár a 4060 konkrétan 4050 átcímkézve, a GPU alapján úgyhogy az tényleg alsó.
0
0
0
0
tivike avatar
@PoPet: Ezt most nem értem. Miért lenne a 4050 4060? Teszteken is meg mindenben látszik a különbség.
0
0
0
0
PoPet avatar
@tivike: Mert az XXX07-es számú processzorok az nVidinál világ életükben 50-es szintű kártyákra kerültek, kivéve tavaly, mert akkor a 4060-ra rakták. Volt is csomó videó és cikk erről akkoriban. Olyan előfordult, hogy az 50-es is XXX06-ot kapott, gondolom nem ütötték meg a 60-as szintjét, nem tudták a szükséges órajelet, és így spóroltak a gyártáson, de az még teljesen oké és bevett dolog CPU-knál is. De az nVidia tavaly azt mondta, hogy inkább felcímkézik 60-asnak a kártyát, akkor többet lehet kérni érte. Pedig 4050-nek 250$-ért teljesen jó lett volna, és rossz szó nem érné, így meg egy túlárazott valami Spoiler!
elektronikai hulladék
amit 3 évvel idősebb AMD kártyák vernek meg mind teljesítményben, mind időtállóságban és ár/értékben. A fogyasztásról meg nagyon sok embernek leírtam/leírtuk mikor megjelent, hogy hatalmas marketing bs volt a zöldektől (külön diákat szántak rá a megjelenéskor), mert napi 5-6 óra 100%-on pörgés mellett (ami nem is reális) havi 10-15kW áramról van szó, ami ~350-500Ft. Nagyjából 4-5-6 év alatt így behozza az ártöbbletét a 4060 villanyszámlán, de addigra rég kicseréli mindenki úgyis.
0
0
0
0
tivike avatar
@PoPet: Értem. Nos mint felhasználó én csak annyit tudok, hogy volt 3060-m. Hangosabb volt és melegebb. És annál a 4060 gyorsabb. (Az is gamingx volt, ez is az.) Volt még RX6600. Na az egyenesen forró volt és zúgott mint a vesztés amíg nem tákoltam át a hűtést. Utána már halk volt viszont még mindig forró. Hiába minden pasztázás meg padozás. (Sapphire volt.) Most itt a 4060. Természetesen a 6600-nál is gyorsabb. Halk és hűvös. 1080p-re el sem tudok képzelni jobb kártyát jelenleg. Nem ütött még meg 55 fokot. Meg 1200 körül van max a fordulata a ventiknek. Gyártási fogások és praktikák ide vagy oda, szerintem szuper kis kártya.
0
0
0
0
PoPet avatar
@tivike: Az lenne, 100k-ért. Nem 125-130-ért. Nem magával a kártyával van baj, hanem az ár/értékével. 1080p-re jobb kártya pl a már hamarosan 4! éves 6700XT használtan 90-95-ért, vagy a 6800 125-130 körül (már overkill is 1080-ra) illetve újonnan van 6750XT 137-ért. Vagy az Intel Arc B580 amint a polcokra kerül nálunk is (feltéve ha nem 150-el indul majd, de tippre 130 körül lesz az is).
0
0
0
0
tivike avatar
@PoPet: Én úgy voltam vele, hogy az a 25-30 a gamingx felár volt. Annyit megért, hogy ne halljam a kártyát. :)

Nem tudom miért, de nekem csalódás volt az rx6***. 97 fok is volt a hotspot. Szerintem max venti sebesség mellett. Tákolva 92 körül volt a max. De már úgy is ment a bequiet venti is rajta 1600 körül. Annak is volt már zaja. Talán egy powercolor hellhound... Állítólag azoknak jó a hűtésük. De egyelőre én most hagytam azt a vonalat. Tesztek alapján az rx7*** sem valami hűvös, ahogy elnézem. Nyitott leszek a 8-ra. Nem vetem el. A ryzen-t is szerettem. De most sok idő után először (még az FX széria korában is AMD-s oltam) intel-s lettem. És igazából tetszik. Szerintem most vagy 2 évig még jó leszek 1080-n. :)
0
0
0
0
PoPet avatar
@tivike: Attól függ mivel játszol, az Indy már medium felett lefekszik 4060-on, 1080p-n. Több idei játék microlagos, és nem hiszem, hogy a jövőben ez javul majd, sőt. Azt a 6600-at én küldtem volna vissza gariba, mert valószínű egyedi probléma, különben hangos lett volna tőle minden, és nem ajánlják mindenhol a 3060-ak helyett. Nekem a 6700XT alapjáraton venti nélkül megy, csak 52 foknál kapcsol be. Játék közben sem vészes, 70 fok körül elcicereg, teljesen normális hangerővel.
0
0
0
0
tivike avatar
@PoPet: Ó, visszavittem. 14 napon belül. Alzához. Cserélték azonnal. Ugyanolyan volt a cseredarab is. :D Nem is igazából az RX6*** széria volt csalódás nekem, hanem a Sapphire. Régen az RX590 például tök halk volt. Azért is döntöttem úgy, hogy szétborítom, padozom, pasztázom, tákolom... De végül is leszolgált 1,5 évet. Legolcsóbbként adtam el hardveraprón. :)

Az Indy-t én Series S-n játszom. Baromi jól viszi a kis konzol. :) És nem kellett kifizetnem a 70€-t sem szerencsére. Jó játék amúgy. Ha végzek vele jön vissza a Stalker 2. :) Azt meg amúgy 100+ FPS tudja FG-vel a 4060. Semmilyen mikrolag nincs. Annyi, hogy az nvidia vezérlőpultban fixre tettem a vsync-t. Így szépen 70%-n elketyeg hibátlanul a játék. Közben 50 fok a gpu. Mondjuuk a cpu is. :D Dehát itx lévén még ez is jó szerintem. Főleg, hogy a cpu venti nem éri el az 1000-t.
0
0
0
0
PoPet avatar
@tivike: Hát csak olyan játékban ahol fontos az input és a delay, az FG, DLSS, Vsync, FSR stb használhatatlan. Illetve alapból rontja a képminőséget mind.
0
0
0
0
TikoTime avatar
@xCube: Nem értem, miért hozták be a 3090-t? Addig a 2070/80 volt a felső kategória.
0
0
0
0
Zollee avatar
Kár hogy nem raknak a kis tier-es kártyákhoz több v-ram-ot.

Játékoknál számomra nem fontos, de már most ott tartunk stabil diffusionnál Flux modellek igen csak 14-18 gb-osak. Tehát még egy 16gb-karinak is swappolni kell a modelt, a jelenlegi kártyám meg annyit mond hogy "Míííícsinálsz ?" 5090-árazását meg nem-igen nekem találták ki. Olyan jó lenne egy 5070 24 gb-al.
0
0
1
0
💬 5
Fisto avatar
@Zollee: Pontosan ez a bajom nekem is velük! 3070el ki sem tudtam próbálni a fluxot a csóró 8Gigája miatt. Konkurencia meg gyenge Ai-ban :/
0
0
0
0
Zollee avatar
@Fisto: Ki lehet próbálni és működik is, ha van 32gb ram a gépben, akkor lehetséges swappolni a modelt a Forge-al (amit autómatikusan csinál) de ehez érdemes a nf4-et használni az fp8-helyett, nf4 sokkal gyorsabban működik a kis video ram-mos 6-8-gb-os kártyákon. Csak sok időt igényel a generáció. Nekem egy 720x1280 30steppes kép 1:07 körül alakul.
0
0
0
0
Andor1997 avatar
@Zollee: Pont ez a céljuk, vedd a nagyobbat drágábbat. Most nyeregben érzik magukat, az Intel által megkapott pofonokat most nekik kellene megkapni ilyen téren, mert a konkurencia beelőzheti őket vásárlások terén...már ha jót fognak kínálni és az embereknek lesz mersze.
0
0
0
0
Zollee avatar
@Andor1997: Ai-nál nincs konkurencia, amd kártyákban nincsennek tensor core-ok, teljességgel használhatatlanok, kompatibilitási gondok, és teljesítmény gondok, illetve linuxon vannak hozzá egyéni stabildiffusion webuik vagy workloadok comfy ui ra amivel javítható- ( sd 1.5, vagy SD XL -el talán el lehet búvészkedni velük) De Nálam only nVIdia. Még az intel kártyának az xmx core- is jobban használható, pytorch modellek kompatibilisabbak.

Budget kártya jobbára a rtx4060ti 16gb, vagy majd a 5060ti 16gbos lesz az opció.
0
0
0
0
Andor1997 avatar
@Zollee: Ja hát persze ez igaz, csak hát az AI használat nem érdekli a többséget.
0
0
0
0
TikoTime avatar
Itt vannak a specik
https://i.cdn29.hu/apix_collect/ngg_images/2412/16/nvidia_geforce_rtx_50_122016_1_original.jpg
Nekem ez is kimarad még...
0
0
0
0
💬 3
xCube avatar
@Kings Bounty fan: Majd az AMD mi?
0
0
0
0
no avatar
@xCube: 12 giga lesz a minimum a többi majd a tesztek megmondják.
0
0
0
0


Elfelejtett jelszóRegisztráció