ATI vs. nVidia

Szerző: Keratesz, 2008. November 26., téma
Fórum » Asztali PC
[color=#ff0000]Szerintetek melyik jobb?? ATI vagy az nVidia? Indokoljátok lécci!!:D[/color]
Hozzászólások: 2 066
Hozzászólás küldéséhez be kell jelentkezni.
winrar avatar
Élsimítás az éleket simítja, ahogy a neve is mutatja. Dying Light-ba pl. ha felnézek az égre, van 100fps...
Akkor az nem ultra, közel sem, hiába nevezed te a saját szemedben annak.
0
0
0
0
Liptik avatar
Jó lehet, hogy túloztam, de elsimítás nélkül, meg 1680x1050-es felbontásba igen, meg én azt mondtam, hogy képes elérni a 30 és 60 FPS-t is, csak nem biztos, hogy úgy fog maradni. Élsimítást sehol sem alkalmazok, mert csak lassít.
0
0
0
0
winrar avatar
Igen, erre céloztam, hogy 30FPS-el nem viszi a 2014-es játékokat sem full grafon egy HD7750, még kis felbontáson sem.
0
0
0
0
winrar avatar
Rengeteg beállítás van, ami között néhány biztosan ultra. Ha mégsem, akkor marad a very high.
0
0
0
0
Liptik avatar
És ha egyik játékban nincs Ultra, csak Very High?
0
0
0
0
winrar avatar
Nem, a full graf az ULTRA. A very high=nagyon magas alatta van. Ha egy játék full grafon fut, az azt jelenti, hogy minden a lehető legmagasabbra van állítva, létező legmagasabb élsimítás és egyebek.
GTX 750 Ti kártyán mondjuk semmi értelme nem lenne 4GB-nak, pedig van belőle olyan változat is.
0
0
0
0
Liptik avatar
Jó a 960 erősebb, de a VRAM is nagyon fontos, nem azt mondtam, hogy csak az határozza meg.
very high = nagyon magos
Tehát az is full graf.
0
0
0
0
winrar avatar
Liptik: Felejtsük már el azt, hogy VRAM alapján hasonlítunk össze két kártyát. GT 630 4GB vagy GTX 960 2GB? Melyik a jobb mégis?
Azt pedig megnézném, ha a HD7750 minden 2014-es játékot full gafikán visz. Nekem a GTX 750 Ti egyedül a Wolfenstein: The New Order játékot vitte ultrán a 2014-es címek közül, minden másban very high környékére le kellett venni a grafikát.
0
0
0
0
Kehbya avatar
Nekem már rég óta csak Nv kártyáim vannak. Driverileg eddig egyszer volt nekem az probléma, hogy "A képernyőillesztő nem válaszolt, de utána helyreállt." Witcher 3 update után jelentkezett ez, de mióta kiadtak új drivert eltűnt.
De furcsa volt, hogy csak akkor csinálta mikor elvolt indítva a "Viber"
0
0
0
0
Liptik avatar
Amúgy ha visszanézem amiket írok olyan 1-2 hónap után, akkor én is kiégek. 😆
Ha pedig normálisat akarok írni, akkor meg nincs kedvem gépigény.huzni.

😆 😆 😆 Retard BATMAN 😆 😆 😆
0
0
0
0
Kehbya avatar
Liptik simán csak egy pszichológiai csapásmérő állomás...
0
0
0
0
Pixx avatar
csak én égek ki azoktól amiket liptik ír mindig? 😆DD
0
0
0
0
bukta2 avatar
Liptik laptopba gagyi van azért szarabb... a laptopoknál ha nem game-er laptopot vesz az ember akkor az nem való játékra... de egy game-er lapos árából olyan asztalit rak össze az ember hogy megszólal, tehát ezért van hogy az asztalidban lévő 1gb os erősebb mint a laposodban a 2gb os... egy laptopot semmiféleképpen sem kell összehasonlítani egy asztali géppel.
De persze aki minden áron game-er lapost vesz akkor az valószínű nem otthon játszik a szobába...

Amúgy meg igen,én is csak a felét értettem a mondandójának 😃
0
0
0
0
Bronson avatar
Már megint mi a jó istenről beszélsz?? semmi értelme a mondandódnak...

vagy hülyeséget beszélek?


mint általában 😆
0
0
0
0
Liptik avatar
2014-ben az összeset Full grafon viszi az 1 gb, jó 4K-ban már semmire esetleg régebbi játékokat, jó Full HD-ban már 2012-2013-asakat.
Amúgy a mostani játékokat pl GTA V Highon 30-50 fpssel viszi, jó nincs minden bekapcsolva, de legalább a textúra magason van. A Batman meg a Unity az egy más dolog, de Win 10-en azokat is szépen viszi, az Unity kivihetetlen Win 7-en, de a Win 10-en tökéletes, az 1 gigás kártya olyan lenne, mint, ha 2 giga lenne. A laptopba 2 gigás van és sokkal szarabb, már bocsánat, de 2 VGA van egy fél gigás meg egy 2 gigás, akkor nem lehetne megoldani, hogy 2 és fél gigás lenne, vagy hülyeséget beszélek?
Kártyát nem tudom mikkor fogok cserélni, de akkor már két gigásra, vagy négy re, és DX 12-eset (Jó a mostani is tudja a DX12-öt), de teljesen támogatja, nem az, hogy csak GCN és ennyi és megy rajta jobban, hanem az új effektekre is kíváncsi vagyok. Az új mindenre. Ja és vigye minimum 30-60 fpssel a legújabb játékot. Monitor meg míg bírja, most 8 éves, és még semmi baja, csak szétcsúszik a kép néha, mint ha 60 fps-en túl vonna, de még olyan 45-50 fps, pedig 60 Hz-es a monitor. Akkor miért csinálja?
0
0
0
0
Liptik avatar
Nekem AMD lesz. (R9 270X) vagy HD7750.


A HD 7750 1 gigás a R9 270X 4 gigás, jobban megéri ja és a HD 2012-es és a R9 2014-15-ös.
Meg gyorsabb is. De az árát nem veszed észre mennyit változik?
0
0
0
0
winrar avatar
Spoiler!
1GB-t is nehéz elérni vele 😂 😂
0
0
0
0
Yezi_ avatar
winrar: Khhmm... Spoiler!
GT 630 4GB... 😆
0
0
0
0
winrar avatar
Hát 1080p-re biztosan kevés, bár én SXGA-n is néha kifutok belőle (bár Win10 alatt művel érdekes dolgokat monitoring terén a Rivatuner...).
Pedig R9 380 alatt nem sok értelme van 2GB-nál többet rakni a kártyákra.
0
0
0
0
Zoli73 avatar
Ahogy elnézem a játékok 2.5-3.5GB vram-ot kérnek FHD-ban minden ultrán.
0
0
0
0
winrar avatar
R9 270X akkor inkább, az még megfelel Athlon X4 860K mellé, persze tuninggal a legjobb.
0
0
0
0
winrar avatar
Nekem se Ati, se Nvidia kártyával nem volt gondom soha. Bár így jobban belegondolva, a "Képernyőillesztő nem válaszolt, de utána helyreállt" csak Nvidia-nál jött elő.
Ati Radeon 9200 és Nvidia GTX 750 Ti. Mindkettő szépen teszi a dolgát, a mai napig. Szóval nem vagyok elfogult egyik iránt sem, de kövi kártya Nv lesz, fogyasztás miatt.
0
0
0
0
Zoli73 avatar
Nem tudom de a párommal amúlt héten olvasgattuk valamelyik témában legalább 10 ember írta hogy vram hibás volt, meg megsült, nem indult el stb-stb és mind radeon kártya volt.
0
0
0
0
JohnDoe89 avatar
Nekem speciel sose volt bajom ATI/AMD karikkal. Lekopogom. Pedig volt már jó pár. Ati 9800 pro, Ati X1600XT, HD5770, HD6950, R9 270X, R9 280X, és moost R9 380 Nitro.
0
0
0
0
csuz-li avatar
Zoli73: Azért van a gépekben radeon, mert jórészt olcsóbb. Nekem is mindig Nvidiam volt, de legutóbb ezért, meg az új API-k támogatása miatt váltottam.
Pl. az ilyenek okán: [LINK]
A túlmelegedésben meg az Nvidia viszi azért a prímet, hiszen nekik sikerült egyszer olyan drivert kiadni, ami megsütötte a VGA-kat. Az, hogy egy VGA melegszik általában azért van, mert a gyártó rosszul rakja össze a VGA-t, kispórolja a gyártásnál azt is amit nem kéne, de erről nem a GPU gyártója tehet, viszont olyan, hogy a GPU gyártója által leadott driver okozza, eddig csak az Nvidia-nál volt.
Itt jegyzem meg nekem sosem volt gondom az Nvidia kártyáimmal, de az AMD-vel sincs. Szóval Nálam eddig mindkét gyártó megfelelően teljesített.
0
0
0
0
Zoli73 avatar
Hát gyerekek, én eddig is Nvidia-s voltam és az is maradok. Ahogy itt olvasgatok az oldalon a különböző fórumokban, minden negyedik hozzászólás vagy kérdés hogy mit tegyek mert a VGA lefagy, csíkoz, el sem indul, túlmelegszik, újra indul a gép tőle stb-stb. és persze az összes gépben Radeon van! Hát köszi, nekem ilyen nem nagyon kellene a gépemben! Ez persze csak az én véleményem! 😀
0
0
0
0
JohnDoe89 avatar
Megjött a kicsike.😀
https://scontent-vie1-1.xx.fbcdn.net/hphotos-xpf1/t31.0-8/11088750_1058492640850349_3555913911806547241_o.jpg
0
0
0
0
Van Helsing 25 avatar
nos nekem a dobozára OC van irva alapon 960 Mhz a gpu nekem 985 Mhz
0
0
0
0
Puffin avatar
winrar: a 380 a 285-öt váltotta! 😀
0
0
0
0
winrar avatar
A 380 a 280X-et hivatott leváltani, nem a 290-et, így nem meglepő, hogy gyengébb. Szerintem nem lesz X-es.
0
0
0
0
Flash avatar
Bronson: Voltak problémák a képélességgel a zöld oldalon, talán ezért is terjedtek el ilyenek.
(Az oldal alján van a lényeg)

[LINK]
0
0
0
0
JohnDoe89 avatar
Volt agy ASUS R9 280X-em, de sajnos el kellett adnom, mostanra kicsit összekaptam magam és pótolnám, de már kifutó termék lett, viszont 4GB-os verzió csak Saphire-ban van. Várható X-es verzió a 380-ból? Kicsit zavar hogy teszteken gyengébb a 380 mint a 290X
0
0
0
0
Van Helsing 25 avatar
hali én pont azt vettem lassan 1 hete és edig nem tolt olyan játék ami akadna vele
halk hűvösnek nem mondanám ha játszok a tomb raider el akkor 75fok nál megáll de ez a kártya ilyen ezen operál amúgy 75 nél feljebb nem megy
0
0
0
0
JohnDoe89 avatar
No és a Sapphire Nitro Radeon R9 380 4Gb? 😀 Az még pénztárca barátabb is. Arról valakinek van véleménye?
0
0
0
0
showtekk avatar
ASUS nagyon jó választás, bár én a Gigabyte G1 Gaminget ajánlanám 970 esetében. Anno heteket töltöttem azzal, hogy kiválasszam melyik gyártótól lenne érdemes venni és nem hiába a G1 Gaming lett az. Ha van rá kereted mindenképp a GTX 970et válaszd. 1080pre kell gondolom, ott elő se jön ez a 3,5Gb-os hülyeség 😀 De én 4K-n sem tapasztaltam a sajátommal. 😀
0
0
0
0
Bronson avatar
*Egy 3,5 gigabájtos 970-el... 😆 ezt a kontraszt cuccot is ki terjesztette el...
0
0
0
0
bukta2 avatar
Sztem egy 4gb os 970-el jobban járnál mint a 280x-el nézz körbe tesztekben jobb a 970 de persze drágább is jóval
0
0
0
0
JohnDoe89 avatar
Szerintetek egy R9 280x vagy GTX970 a jobb választás?
ASUS kivitelben gondolkodok. Minőségileg jók ezek? Úgy hallottam sok megy szervizbe.
Valamint az a hülyeség igaz, hogy az nVidia karik gyengébb kontrasztot adnak a monitornak?
Köszönöm a választ.
0
0
0
0
winrar avatar
Mindenesetre mindkettő sokkal gyengébb az asztali "társánál".
0
0
0
0
bukta2 avatar
WeyronHUN normál esetben a 960 az jobb de hogy laposoknál mi a jobb azt nem tudom.
0
0
0
0
Wipera82 avatar
melyik a jobb laptop VGA? Radeon R7 M265 vagy Geforcee GTX960M?
0
0
0
0
Liptik avatar
Érdemes, de addig, amíg baja nem lesz.
0
0
0
0
winrar avatar
Mindegyiket érdemes lehet, pár FPS-t lehet nyerni vele.
0
0
0
0
no avatar
AMD 6670 VGA-t érdemes felhúzni aminek nagy hűtője van hozzé?
0
0
0
0
csuz-li avatar
Luiboy: Mint azt írtam, ezt a részt értem. Az i7-es CPU-knál nem értem a visszaesést. Elvileg a dx12 hat magon skálázódik, így egy i7-nek legalább annyira javulnia kellene, mint egy i3-nak, minden VGA mellett de valamiért nem így van.
Persze az is igaz, hogy a dx12 már egy alacsony elérésű api, ahol az erőforrás-gazdálkodást is a program íróinak kellene megoldani, ez a játék meg az első fecske, szóval még van mit tanulni, de akkor is...
0
0
0
0
Manyik75 avatar
csuz-li

A DirectX 11 alatti gyenge teljesítményt sokan azzal magyarázzák, hogy a játék DirectX 11-es renderelő motorja nincs kellően optimalizálva a Radeon R9 390X-hez, viszont a DirectX 12-es renderelő motornál már nincs ilyen probléma, így az AMD videokártyája a tőle elvárható szintet hozza.


Nem értem mit nem értesz ezen 😊
0
0
0
0
csuz-li avatar
Arra azért kíváncsi lennék, hogy miért van visszalépés Nvidia kártyánál i7-es processzorok mellett a dx11-hez képest.
Az addig érthető, hogy AMD kártyáknál több az előrelépés, hiszen a modernebb architektúra már a dx11.1 és11.2-nél is éreztette hatását, de a fenti anomáliát nem igazán értem.
0
0
0
0


Elfelejtett jelszóRegisztráció