Videokártya
http://www.pc-max.hu/webaruhaz/lenovo-m81-5048-mt-6.html?category_id=1518 ebbe a számítógépbe szeretnék ujjonan videó kártyát venni az ár: max 55 -60 ezer forint milyet ajánlotok?
Hozzászólások: 461
Hozzászólás küldéséhez be kell jelentkezni.
Szóval ott tuti lesz néha procilimit
és nem egy mai darab, szóval lehet a hűtőpaszta már a végét járja, szóval a hőmérséklete sem lep meg
Konkrétan milyen játékokról van szó?
[LINK]
és mint mondtam az a jó ha a kártya 100%-ot használ játékok alatt
Szét szedtem a gépemet,hogy új RAM-ot és m.2 SSD-t rakjak bele (végül kiszedtem az m.2 mert túl nagy meleget árasztott a procinak meg a videókártyának) és azóta a VGA 6-7 fokkal melegebb.
Tegnapi nap átlag 65-67 °C-al ment,most ilyen átlag 71-74°C, ami akár feljebb is tud menni bizonyos esetekben (pl amikor vége a meccsnek és kidob a menübe).
Ugyanazt a játékot játszom,ugyanazzokkal a beállításokkal,mint tegnap,az ég világon nem változtattam semmit szoftveresen rajta.
Létezik logikus magyarázat?
Ha RAM több mennyiségű lett mint előtte akkor simán nőtt a gép erőssége amit érzett a gép és jobban kihajtja a VGA-t amivel nő a hőmérséklet is. MSI Aftreburner-ben lőhetsz a VGA-nak egyedi venti vezérlést az talán segít rajta ha még nem tetted meg.
MSI-t használok már régóta,van is jó profil beállítva,ami ideális volt máig,amikor csere után már nem volt jó.
Szóval csak az,hogy több ramom lett,jobban ki van hajtva a GPU?
Nem volt ramból eddig probléma,mármint a mennyisége mindig elég volt a játékoknál amikkel játszottam,nem fogott vissza semmit.
Illetve AIDA stressz tesztnél is hasonlót tapasztalok,ott is 6-7°C-al átlagban magasabb a hőmérséklet.
Egyszerűen csak melegebb lett a kártya számomra.
Ezen kívül lehet bármi más az okozó?
Úgy érzem,hogy itt más lesz a probléma,bár ötletem sincs,hogy micsoda.
Köszönöm a gyors segítségedet!
És megoldódott,100%-os terhelés alatt ha max 60°C.
Köszönöm a tippet!
8pin 0 idle: 18watt load: 106 watt
8pin 1 idle: 30watt load: 86watt
Ez normális hogy nem egyforma a 2db 8pines csatlakozón a fogyasztás?
Szerk.:Jah semmi.Újraértelmeztem amit írtál és lebontottam fejben vezetékekre/pinekre.Így már világos.Bocsi 😃
Egy MSI RTX 3060 TI GAMING videókártyát mennyiért tudnám eladni?
igaz most adtam el nem régen de vann benne kraft nem bánod meg :)
És ezáltal szerintem nagyon meleg is 80+ fokon megy olyan házba amibe van gyárilag 4 Db 12 CM venti van
vagy akinek van ilyen GPU annak hány fokon megy a kártya
a kártya frissen van pasztázva és pedezve is
És a Superposition Benchmark lefutatása után RX 580 nak írja ki a gpu-t
néztem hogy az ennek a modelnek az orajelei a következő lenne gyárilag 1268/1750
Szedtem le hozzá Bios-t de nem engedi fel rakni rá lehet én csinálok valamit rosszul
Itt egy kép a Superposition Benchmark rol
[LINK]
Rx 6800-hoz jár támasz? Vagy ehhez a kártyához nem szükséges a támasz?
A jelenlegi vga-m egy SApphire 6800,de szeretném fejleszteni a gépet.
RX7900XT-t vagy a 4070Ti-t ajánlanátok? :)
Köszi szépen a választ,előre is :)
Pár hónap spórolással talán meg is lesz.
RTX 4060 TI - AD106 - 190 mm2
RTX 3050 - GA106 - 276 mm2
GTX 1660 Ti, 1660 Super, GTX 1660, GTX 1650 Super - TU116 - 284 mm2
Jól látszik, hogy az NV képes volt egy A106-os lapkát megjelentetni egy sokkal magasabb szinten lévő kártyaként. Persze a teljesítmény sokkal jobb, ugyanakkor senki sem kérte Őket, hogy TSMC drága 5 nm (4 nm a marketing szerint) gyártsák és tervezzék.
Az RTX 4090-et leszámítva semmi értelme nincs az Ada Lovelace-nek. Egy Ampere refresh TSMC 6 nm-en sokkal jobb lett volna. Már sokan írtak a neten hasonlót szerintem így kellett volna csinálni:
RTX 4090 -> RTX TITAN A
RTX 4080 -> RTX 3800 (Ampere refresh)
Az RTX 4080 379 mm2. 6 nm-en nyílván nagyobb lapka lenne, de sokkal olcsóbb is lenne gyártani. 480 mm2 kb, de még mindig sokkal kisebb mint az RTX 3080 ami 628 mm2 volt, ugye erre épült a 3090-en is. Nos a 4090 teljesen más lapkára épül most már.
Idáig már nem fog eljutni senki, de! Az NV-t nem érdekli a gamin piac már. Most az AI lufit fújják. Meglátjuk meddig tart.
Más felől én is azon gondolkoztam a drágább kártyákat érthető jobb minőségbe akarják gyártani, de egy olcsóbb kártyát elég volna 6-7 nanométeren is így árba is jobb lehetne.
De szerintem az Nvidiát se érdekli nagyon már ez, kis pénzért ő nem hajol le jelenleg az AI gyorsítokba/hardverekbe hatalmas pénz van.
Nekik a Gaming hardver már csak másodlagos, árulnak de elég jó felárat kell érte fizetni.
Arra kíváncsi vagyok ebből mi most a kiút? 4080 ára is elég durva. 1200 dollár egy kártyáért nagyon sok, és mennyi lesz a RTX 5000? Nagyobb teljesítmény nagyobb ár?
Azért azt néztem a 4090-se 100%-os, még a 4090Ti maradt hely.
De valahogy szánalmas és egyben szomorú is ennyire lebutítva adja ki az olcsóbb kártyákat az Nvidia.
Egy biztos hogy ennyire hülyének nézik a vásárlókat én biztosan nem vennék megint Zöld hardvert.
AMD vagy intel lesz a következő videókártyám, ezek után már nem éri meg a Nvidiát támogatni.
400 dollárért egyenes vicc hogy 1080P gaming kártya, 2023-ba már a full hd ne legyen már standard.
Már a 1440P monitoroknek kéne lassan az alapnak lennie, de a monitor gyártók de erőltetik meg magukat.
Csak cseréld ki a 2 nevet 3060 Ti-ra és 4060 Ti-ra 🤣
5060. De a poén, hogy még így is konkrétan meglepte az AMD-t hogy ilyen """"olcsó"""" a 4060, és egyből vágtak egy jó 30$-t a 7600 áránVan egy rx 6900x kártyám, és magasabb fpsnél, vagy magasabb terhelésnél elő jön a coil whine és eléggé hangos.
Van erre valami megoldás?
Olyan kérdésem lennem hogy valahogy működtethető-e DX12-es játék Gtx 750 Ti-n ami csak 11.1-et tud? Az sem baj ha csúnyább lesz csak hogy lehetséges e?
Igen, működik a dolog. A DX12 feature szintjei a DX 11.0 -ig mennek vissza, így egy DX12 -es renderer fut DX11 -es kártyákon, természetesen csak DX11 -es feature specifikációval.
12 (11_0). Mindenesetre ha választhatsz DX11 és DX12 között a grafikai beállításokban válaszd a DX11-et, gyorsabb lesz. Pl. FIFA19.
Ilyen kockák jelennek meg desktop a képernyőn. Hideg indításnál csinálta, utána elmúlt. Kilenc hónapos mindössze a VGA, alul lett feszelve, de eddig teljesen stabil volt. MSI 3080 Ti Suprim X. Mit gondoltok erről?
Ráadásul kiderült, hogy a táp is szériahibás.
és akkor az ember járjon utána hogy vajon miért van az adott probléma és reménykedik benne hogy az ő észrevétele és elmondása alapján a neten kapott válaszok jók és nem valami teljesen más ami miatt cserélni kéne mert hibás az eszköz...
Előre is köszi a válaszokat.
Alapvetően azt kell megnézni, hogy milyen felbontáson játszol. Az RX 6000-ről általánosságban elmondható, hogy jobb teljesítményt nyújt olcsóbban mint a NV megfelelője FullHD/1440p alatt, 4k-ban viszont a GeForce a nyerő. Gondolok itt arra, hogy 6700 XT vs 3070/3070ti vagy 6800 XT vs 3080.
Viszont azt érdemes tudni, hogy a régebbi játékokkal nem mindig van kibékülve az RX, DirectX 10> néha furcsa teljesítmény ingadozások vannak, nem mindenhol de előfordul, de ha belockolod 60-ra az FPS-t akkor megszűnik az is.
Ha 6600 XT-t akarsz akkor igazából az lehet döntő, hogy mennyivel olcsóbb mint a 3060Ti. Én személy szerint inkább azt venném, Radeon-t csak a 6700 XT-vel kezdődően választanék mert olcsóbb és erősebb mint a GeForce, illetve több rajtuk a VRAM. Ár értékbe a 6700 XT / 6800 XT top kártyák. 6700, 6800, 6900, 6900 XT meg ezek XX50 variánsait el kell felejteni.
Amit még kiemelnék és szerintem fontos az a szoftveres háttér. Az AMD Adrenaline 100x jobb és hasznosabb mint a GeForce Experience. Tudsz ventigörbéket, órajeleket állítani, driveres FPS maximalizálást, ha nem VRR-es a monitorod akkor is van egy driveres megoldás ami igaz nem annyira hatékony mert azzal is törik picit a kép de legalább nincs V-Sync input lag. Az élesítés filter sokkal jobb mint a NV-é mert itt kontrasztból is kalkulál, sokkal kevésbé lesz "olajfestmény" hatása a képnek.
és legolcsóbb 3060ti (bár ahogy nézem újonnan is hasonló a differencia, de horror összegeket nem akarok kiadni egy vidikariért😅). Amik egyedül visszatartottak, azok a negatív infók az amd driveres hátteréről, de az írásod alapján szerintem kipróbálom az amd-t.
Ha a FullHD kimaxolása a cél akkor az a 6700 XT, attól nagyobb kártyát már nincs olyan cpu ami kihajt 1920x1080-on. De bőven jó a 6600 XT is főleg ennyivel olcsóbban.
Én is közel vakon ugrottam bele Decemerbe a 6800 XT-be 8 év GeForce után, semmi ismerősömnek nem volt RX 6000, de 240e forintért ha ott hagytam volna egy olyan bontatlan kártyát ami a 1440p-ben szinte kivétel nélkül lenyomja a 3080-at, sőt van, hogy a 3090-et markolássza bizonyos játékoknál... még most is ütném a fejem a falba.
Szóval tudom mit érzel, én azt mondom bátorság 😀, végülis papírforma szerint a 3060Ti ellenfele durván 50-70-el olcsóbban, ami %-ban 25-35, azért az marginális különbség. Igaz RT-re még a 6800 XT se nagyon való, ebben az AMD nagyon le van még maradva, de ennek tudatában kell vásárolni, engem pl. hidegen hagy a sugárkövetés szóval így nem is fizettem ki száz ropival többet egy alapvetően gyengébb kártyára ami csak RT-ben jobb, nonszensz számomra.
Erről a DLSS vs. FSR dologról annyit, hogy láttam már saját szememmel egymás mellett a kettőt szemtől szemben, mindkettő v2.x verziója között én nem láttam semmi különbséget a képi világban, egyformán elég jó és használható szintet elértek mindketten, egyedül talán a DLSS ami egy kb. 5%-al több FPS-t tud adni, tehát hatékonyabb. De azt meg ne felejtsük el, hogy a 3060Ti feltehetően soha az életbe nem fogja megkapni a DLSS 3.0-át, míg a teljes RX 6000 palettának nagyon jó esélye van az FSR 3-ra, az a fránya aprócska különbség a két cég között ugyebár, max profit nekem vs max felhasználói elégedettség nekik, nem hiába nőtt a Radeon market share jelentősen az elmúlt években.
+ Egy kis apróság. Ez nem feltétlenül az NV vagy a szoftver gyártó hibája, sokkal inkább az Activision, vagy aki az anti cheatet írta azé, de MWII-ben nem egy ember lett kibannolva mert használta az MSi Afterburner-t a GeForce kártyájához amit third party programnak vagy bypass-nek érzékelt a játék. Nyílván unbannolják őket, csak lehet 2 hónapig elhúzódik a folyamat, ami egy éppen megjelent 70 eurós játéknál amit grindolnál éjjel-nappal kicsit kellemetlen. AMD kártyán ilyen sose lesz mert Adrenalinból (GeForce Experience megfelelője) bármit IS tudsz állítani és nem kell egyéb programokkal szarakodni.
RT engem sem hoz lázba annyira. Maximum kíváncsiságból megnézném, hogy hogyan néz ki élőben, de a videókból kiindulva arra egy RX kártya is alkalmas lehet. A DLSS vs. FSR témában pedig a videókban én azt láttam, hogy maximum a színárnyalatokban van különbség (abban sem nagy), az meg preferencia kérdése, hogy kinek mi tetszik jobban. Továbbra is kicsit tartok azért egy full AMD setup-tól, de meg fogom kockáztatni.
6600 XT-vel is simán megtudod nézni az RT képvilágát, screenshotokat lőni tökéletes, még ha állandó, játék közbeni használatra nem is.
Csak emiatt ne vegyél gyengébb kártyát. Lövésem nincs miért, de mindenki úgy beszél a CPU limitről mintha valami ördögtől való dolog lenne.
AMD-nél amúgy sincs ilyen driver overhead probléma, sokkal jobban teljesítenek CPU limites szituációkban mint az NV, szóval ha engedi a keret, vedd nyugodtan az erősebb kártyát.
Egy Palit rtx 3060 12gb kártyát megéri jelenleg venni 150k-ért?
Alig egy éves. 150 ért oda tudom adni!
Újat tud venni annyiért! 😉
https://www.arukereso.hu/videokartya-c3142/f:memoria-merete-12-gb,rtx-3060/?orderby=1
ASUS GeForce Pheonix V2 RTX 3060 12GB Ami több mint 160e..
(220 ért vettem anno.)
https://hardverapro.hu/aprok/hardver/videokartya/keres.php?stext=RTX+3060&stcid_text=&stcid=&stmid_text=&stmid=&minprice=&maxprice=&cmpid_text=&cmpid=&usrid_text=&usrid=&__buying=0&__buying=1&stext_none=
Sőt ilyen is van 150-ért már : https://hardverapro.hu/apro/bomba_ar_manli_geforce_rtx_3070_8gb_szinte_uj_magy_3/hsz_1-50.html
Nem értem, hogy miért kell ilyen rosszindulatúnak lenni, mikor semmi hasznod nem származik belőle....
De persze mindenki annyiért adja amennyiért akarja ( vagy tudja) ! 😉
Egy Palit rtx 3060 12gb kártyát megéri jelenleg venni 150k-ért?"
Itt hol írja, hogy új?
Nem kötözködni akarok csak érdekelne mit néztem be.
Részemről téma lezárva.
130-ért adtam túl az enyémen, de még ezt is soknak éreztem, pedig az egy magyar garis TUF volt. 😂
[LINK]
látom megváltozott a gépigény.hu. Korábban össze lehetett hasonlítani a VGA-kat. Most ez a funkció eltűnt? Hol találom?
Előre is köszi a választ.
De jobban jársz youtubeon nezegetsz összehasonlítást
Pl kiválasztani egy 3060-at meg egy 3070-et és láttad, hogy melyikben van több cuda mag, stb... ez megszünt? Sehol nem találom, pedig nagyon jó volt!!!
Milyen felbontáson játszol? A géped profiljában nincsen feltüntetve a monitor.
A kérdés itt elsősorban az, hogy konkrétan mi az elvárás a géppel kapcsolatban. Szükséged van-e nagyobb ray tracing teljesítményre, tervezed-e használni a DLSS 3 adta lehetőségeket és a képkocka generálást, illetve előnyösebb-e a ShadowPlay számodra.
Szóval pakolhatod a házadba a plusz ventilátorokat, de figyeld őket mert akad olyan ami olcsó, de kevés levegőt mozgat és nem leszel vele sokkal előrébb.
Persze az sem praktikus, hogy csak 4 darab ventilátor van összesen benne, de mivel zárt előlapos, nem sok friss levegő jut az első ventilátoroknak, így nagy javulásra szerintem nem érdemes számítani.
Érdemes lenne valami mesh előlapos házra benevezni, Deepcool Matrexx 55 Mesh például már 30 ezer alatt behúzható, vagy drágábban ott a Corsair 4000D Airflow, NZXT H7 Flow is, csak hogy párat említsek. Persze a jó minőségű ventilátor sem utolsó szempont, ha nem kell az RGB akkor az ARCTIC P12 PWM PST jó lehet, az 5 darabos pakk már 10e-ért beszerezhető.
Ami még viszont befolyásolhatja a GPU hőmérsékletet, az a ház szélessége. Ránézésre nem marad túl sok hely az oldallap és a kártya között, így előfordulhat, hogy megreked a kártya alatt a meleg levegő, és már csak ezt forgatják a ventilátorok. Ezzel persze nem nagyon tudsz mit tenni, NZXT S340-nel nekem is ez volt a gondom. Hiába volt tele ventilátorral, hiába vettem le az előlapot is, a kártyám mindig sokkal melegebb volt ha feltettem az oldallapot. Ezért jött helyette a H7 Flow (illetve a 360-as radi miatt), ezzel már szerencsére sokkal jobb GPU hőmérsékleteket kapok.
Most majdnem ennek az árnak a duplája. Mi a fene történt?
Ha ennyi ideig kibirta az r9 380 akkor nem fog gondot okozni, hogy még várjak. De akkor legközelebb okosabb leszek.😇
Használt karit szeretnék vásárolni.
Mennyire jó vétel most egy GTX 1070 és megér e?
3-4eve volt 70k használtan
Én a helyedben rx 6600at néznek használtan már mennek 90ert
Tapasztalat
Nekem régen egy i5 4460volt
Már a gtx 970hez is kevés volt nagyon
Egy i3 12100f már bőven kihajtana
Elég durva lett az új AMD! De én még az én kártyámon is meglepődtem néhol még a 3090-et is beveri játékokban, brutális :D pl a Cod MW 2-be (Multiplayerbe 1440p-n) a 7900XtX ről ne is beszéljünk... :D há mi van itt kéremszépen!
Több tesztert is néztem, nagyon sokan dícsérik az új pirosakat! És RT ben is fejlődtek de ott azért még mindig elmarad a zöldektől.
U.I. : eddig nem nagyon nézegettem VGA teszteket mivel úgyis minden drága meg nem is váltok semmire úgysem, de most hogy nézegettem a 4090 mennyire brutál VGA már... durva milyen FPS számokat produkál bakker :O
Azt azért nem állítanám. Azért, mert nem a legjobb és legdrágább elérhető alkatrészek vannak benne még igen is csúcs gép. A szegmentáció nagyon felerősödött a felső középkategóriától felfelé.
Az árak nem annyira magam miatt, hanem en bloc a PC ipar miatt aggasztanak. Én jellemzően nem a folyamatosan fejlesztgető ember vagyok, hanem az, aki hosszú távra vesz erős platformot, így a millió fölötti kiadás nem kérdéses.
Szerk.: Érdekes, ez eredetileg egy válasz lett volna az előző kommentem alatt válaszoló PC_4RM kommentjére... .
Ezek alapján az ég világon semmilyen árváltozásra nem lehet számítani még a kifutó generációkban sem. Bele se merek gondolni, hogy milyen áron és teljesítménnyel jönnek majd olcsóbb modellek, már ha jönnek egyáltalán. Nem tartom elképzelhetetlennek, hogy egy jó darabig marad az előző generáció, mint "középkategória". Nem lehetetlen, hogy rövidesen eljutunk arra a szintre, hogy nem lehet majd új VGA -t venni 400 euró alatt.
Az eléggé meglepett, hogy az AMD ennyire gyengén szerepel fogyasztás terén, többet vártam az új designtól.
Most fogok fejleszteni alaplap+proci téren amihez mivel ugye az LGA1700 foglalat már más, és a bele való 12. generációs Intel processzor 3200Mhz tartománnyal dolgozik így vettem hozzá 2x8GB DDR4 3200MHz RAM-ot és egy új CPU hűtőt is. De kb annyiba jön ki mint normálisnak mondható 3060TI magában.
A magas árak mellett én még továbbra is maradok az 1060-nál, bár ha bedöglik (Ami meg ne történjen.) akkor néznem kell majd valamit.
Rendeltem egy új kátyát, a mostani kártyámat (MSI RTX 2060Super GamingX) káryámat majd el szeretném adni,2023.02.18-ig van rá még garancia, kérdésem az lenne mennyit ér így még a kártya? mennyiért hírdessem meg? ami nem pofátlan ár érte! Én ilyen 80-90körüli összegre gondoltam!
(Használt piacon ráadásul olcsóbbak és újabbak is a hirdetett 6700 XT-k, 140-170e között vannak és 1-2 év jótállás van rajtuk, míg a 3060Ti alja 160 körül van jellemzően csak próbagarival illetve nagyobb eséllyel volt sokáig bányászkártya is mert az Ampere nagyon hatékony volt míg az RDNA2 sokkal kevésbé volt megfelelő bányászatra)
Rizsa oldalon meg ezekkel egyenértékű darabok, újabb Ryzen 5 vagy régebbi 7-esek ha jó áron van használtan.
Arra figyelj, hogy minimum 6/6-os de inkább 6/12 | 8/8 | 8/16 =< legyen a magok száma.
Attól is függ milyen felbontáson akarod használni, 1440p-re csakis a 6700 XT, FullHD-n majdhogynem mindegy, de én időtállóbbnak érzem ott is az XT-t de persze nem vagyok orákulum sem jós.
Ha ultra/high grafika kell akk max még 1-2 év
Ha lowon is elvagy sokáig jó lesz
Ryzen 3 2200G 3.50 GHz processzor
asrock a320m-dgs alaplap
2x4 gb ddr4 ram
és a mostani gtx 1050-es kártya.
(Nem igazán értek a gépekhez ezért kérem tanácsotokat)
Előre is köszi a segitséget!
Nem tudom az az Alaplap most mit támogat
De lehet még azt is
Mindezt $1200-ért, ez a viccnek is rossz kategória. Tarthatatlan lesz ez az árképzés az RDNA 3 felső ligájának tükrében, még akkor is ha azok sem hozzák teljesen a PR által közétett benchmark értékeket. Valahol érthető a magasabb általános gyártási költségek miatt, de ezért van a versenypiac, hogy ösztönözze a gyártás-fejlesztésben történő aktív részvételt is, mert az sajnos nem tekinthető annak, hogy emelem a fogyasztást és akkor nő a teljesítmény is.
Az RT önmagában nem bír akkora jelentőséggel, hogy fent tudjon tartani egy komplett termékcsalád kellemesen magas, befektetőtnek is megnyugtató és arra újakat ösztönző eladási számokat, mert még mindig nem érdekli a lőtéri kutyát sem. Évekig a magas felbontást és az ahhoz társuló magas képfrissítési frekvenciát reklámozták ezek a vállalatok, most pedig azokra a fogyasztókra próbálnak rásózni, rávezetni, rábeszélni, belebeszélni fogalmazzunk akárhogy... egy olyan technológiát ami minimum félbe töri a képkockák számát és cserében alig látsz valamit, max annyit, hogy minden olyan ****tt idegesítően csillog, hogy önmaga paródiájává válik, nem mondom néhol akár szép is lehet de 90%-ban inkább csak szimplán ratyi, akinek ez tetszik egészségére.
Ezeken az árakon Ada Lovelace kártyát venni luxusnak minősül, és nem azért mert drága és mert csúcs hardver, hanem mert megúszod vele a gondolkodást és nem gondolkodni vásárlás előtt a mai világban luxus, mert ott bas*nak át ahol akarnak. Ráadásul kártékony is az egész iparra nézve, mert minél többen rendelnek ilyen kártyát annál inkább nő az a visszaigazolás a gyártó felé, hogy jól van ez így pedig nincs jól, és ha még sok pénzed van is és megteheted akkor a kövi genre már nem biztos, mert miattad (is) lesz majd az RTX 5080 még 30%-al drágább és már csak +15% százalékkal erősebb +20% fogyasztásból.
Egy fecske természetesen nem csinál nyarat, könnyebb volt mindig is beállni a sorba mint inkább kilépni onnan, ebből is látszik, hogy hatékony a marketing és az ember mint természetes lény még mindig gyarló és magamutogató, józan érv nem szól egy 4090 mellett, az pedig nem az, hogy van rá pénzem, sőt, ez inkább a mondatom első felének ad bizonyosságot. 1600 dollárból, az inflációval korrigáltan számolva is egy kb. 5 évvel ezelőtt nem egy csúcs kártya jött ki, hanem egy csúcs komplett PC + gamer monitor, persze azóta volt covid, most meg a szlávok lövöldöznek egymásra, akik mint köztudott a világ legnagyobb szilícium kitermelői és chipgyártói, szóval nyílván miattuk drágult. Viccet félretéve, nyílván van egy globális infláció, ami az import-export ügyletekben még inkább felerősödött, vagyis ott fejti ki a legjobban a hatását, de ezeknek a videokártyáknak az ára akkor is generált nagyrészt, amellyel a tőzsdei pozíciójukat próbálják az összes létező gátlástalan módot felhasználva megőrízni, ahová alapvetően a crypto bányászat miatt kerültek és még mindig azt hiszik, hogy néhány filmgyártáshoz és videójátékozáshoz használt eszközgyártóként érnek annyit amennyit ők gondolnak magukról és az igazán nagyok mellett említhetőek egy hirtelen jött és ugyanolyan gyorsan a semmibetűnő piaci anomália miatt.
Adott az RX580-as kártyám, ami rávan kötve a jelenlegi monitoromra. Monitor JACK csatlakozóját használva, van hang. DP kábellel összekötve.
Na, van a TV-m, ami egy Philips. Rádugom HDMI-n keresztül, nincsen hang, Windows alatt a csúszka állítása közben a gép belassul, majd visszadobja 0%-ra. A részletesebb beállításainál pedig a "Jelszintek" fül üresen tátong...
Ugyanezt a TV-t rákötöm a laptopra, HDMI-n keresztül, hang van.
Másik TV-t rákötök a gépre, hang van, csak erre az egy TV-re nem akarja kiküldeni a hangot... Valaki valami tipp?
Tudom multi gpu- ba futtatni?
( Tudom hogy sok jatek nem tamogja)
Koszonom
Vennék vga-t csak még nem tudom mit, és hogy inkább várjak bizva benne, hogy az új szériák érkeztével még csökkentek a mostaniak ára.
UI: 1920x1080-ra
Inkább meg várnám már az új szeriakat
De ha mindenképp venni akarsz mind a kettő nagyon jó kártya
Nézz sok tesztet amelyik neked tetszik
Ha nem számít a Ray tracing akk az amd
Ha számít akk nvidia
300e Ft környékén szeretnél egyébként kártyát, én lehet várnék a nextgen-re amennyiben nem égető probléma az új kártya mert meghalt a jelenlegi vagy ilyesmi. Ennyi pénzért biztosan lesz már Navi 33 ami hozza a 21 sebességét de lehet akár 32 is, de ha mégse akkor addig is van idő még kiegészíteni a keretet.
Ha mindenképpen most akarsz kártyát, én a 6800 XT-t választanám.
Pl.: ez az MSI modell jelenleg jó áron van és nem a leggagyibb anyagokból építették mint pl. a TUF modelleket.
[LINK]
Illetve, volt kb. 2 hónappal ezelőtt a PowerColor-nak egy nagy akciója a Red Devil 6900 XT-re, 250e környékén árulták, aprón alig használt, még meleg darabokat kilehet fogni 300 körül abból is amennyiben nem félsz attól, hogy már bontott. (2 hónap alatt ha 24-ből 25 órát bányásztak is vele se lehet semmi baja)
És igen a 6800 3-5%-ban jobb volt játékok alatt mint a 3070ti, viszont nemrég ugye kijött a zöldeknél az új driver ami állítólag elég jól megdobta a 30-as szériás kártyák teljesítményét,így most nemtudom hol áll a harc, azóta nemnéztem teszteket.
SApphire 6800 Nitro+-t vegyél.
Undervoltolva maximum 58 fok :D
Undervoltolva -50wattal kevesebbet eszik!
Lenne egy kérdésem még pedig van egy 27 LG 4K UHD IPS HDR 10 27UL500 monitorom és egy Gigabyte Geforce RTX 3060 video Kátya mind 2 ben van 2 db DP port 1.4 és olyan kábelem is van hozzá de a monitor vagy a gép nem érzékeli a DP mondon csatlakoztatom csak HDMI kabel el és néha fel dob egy üzenetet hogy érzkeléi hogy a monitorom és a GPU támogatja a DP csatlakozást jobb képi megjelenés érdkében de egyszerüen semmi nem látja hiába probáltam más DP kabele is nem a gyárival amit kaptam a monitorhoz és a GPU hoz mert azal se hiába nem ismeri fel mi lehet a gond Köszi a segitseget
Igen természetesen hdmi kebelek ki vannak huzva és direktben a minitor és a vga ba megy dp kabel de semmi
Szia köszi a választ igen elmeletileg a 1.4 verzio dp kabel támogatja nekem van 1 is meg 1.4 meg van amit a monitorhoz kaptam es van amit a vga hoz de semmi nuku kapec és mindegyik új tehat ha garis ha nem jó a csatlakozás viszem is visszsa
Eladom a sajat videokartyam EVGA ICX3 Ultra 3070 8GB GDDR6 [LHR mentes] 420 ropit adnak erte, ugye ertekre tobbet er , mert lehet vele banyaszni es veszek egy olcsobb LHR es kartyat 390 ropiert , amivel nem ajanlatos banyaszni , mert limited hash rate ugye, de a kartya a kovetkezo :MSI Gaming Z trio 3070 , a kerdes a kovetkezo , megerte vajon ? Marmint en csak jatekra hasznalom , de ugy tudom , hogy az EVGA kartyanak egy kicsit tobb juice-t lehet adni ( 250w vs 270w TDP) , de ha tevedek akkor javitson ki valaki pls.
Persze az utóbbi csak példa volt, minden kártyának más a alsó/felső határa, Reddit-en viszont találhatsz mások által használt értékeket amikkel be tudod lőni hogy nagyjából honnan érdemes kezdened, ha egyáltalán bele akarsz kezdeni. Korábban én is húztam a 3080-at mint az összes eddigi kártyámat, de koránt sem hozott akkora teljesítménytöbbletet, a tuningolt állapothoz képest gyakorlatilag 3%-ot vesztettem teljesítményből, cserébe közel 100W-al kevesebb a maximális fogyasztás és ~8 fokkal hűvösebb.
Error Code: 0x0003
Már újraindítottam a gépet ki és be kapcsoltam...stb. Tegnap vettem észre tegnapelőtt frissített aminek őrültem mert a driver mutatta a gép teljesítményét játék közben. Valaki találkozót már hasonlóval? Előre is köszi a segítséget.
2. Vagy töröld le display driver uninstallerrel....erről vannak videók, hogy hogy kell törölni azzal drivert!
3. Ha az Experience neked nem fontos, akkor nem kötelező telepíteni ahhoz, hogy működjön, elég a driver! Ha meg jön update, akkor utánanézel és letöltöd!
Csak simán leszedtem Nvidia oldalról a drivert telepítettem és kész.
[LINK]
Tudom nagyon "bádzset kategória" 😆 De amíg működik még nem akarom feltétlen lecserélni.