Az Nvidia vezérigazgatója szerint a Radeon VII vacak és semmi újat nem mutat

Szerző: xoki | 2019. January 10. | hír | 57 hozzászólás

Az Nvidia vezérigazgatója, Jensen Huang egy elég erős kijelentést tett az AMD által leleplezett Radeon VII-tel kapcsolatban.

A PCWorld-nek adott interjú során Huang elmondta, hogy szerinte az AMD új kártyájának teljesítménye rossz, és még újdonságot sem mutat. Egyáltalán nem sikerült a terméknek lenyűgöznie őt, majd hozzátette, hogy „nincs ray tracing és AI sem. Mindössze egy HBM memóriával ellátott 7 nm-es kártyáról van szó, amely alig veszi fel a versenyt az RTX 2080-nal. És ha aktiváljuk a DLSS-t, akkor letiporjuk, és ha a ray tracinget kapcsoljuk be, akkor szintén letiporjuk.”

Jensen Huang elég furcsának tartja a Radeon VII bejelentését, és szerinte biztosan csak a reggel folyamán álltak elő az ötlettel. Elég komoly szavak ezek egy vezérigazgatótól egy olyan termékről, amely még nincs is a piacon, ugyanis a Radeon VII csak február 7-én válik majd elérhetővé. A megjelenést követően pedig a különálló tesztekből fog kiderülni, mire is képes az AMD új kártyája, és tényleg megszorongatja-e majd az RTX 2080-at.

Hozzászólások: 57
Hozzászólás küldéséhez be kell jelentkezni.
kolbaszkarika avatar
Ő is az AMD-nél kezdte, biztosan sokat tanult ott is. Ennek tükrében ez nem túl szép, még ha igaz is.
0
0
0
0
no avatar
https://www.youtube.com/watch?v=7K7f418W8mY
0
0
0
0
Cannahun avatar
Az lett volna a furcsa, ha dicséri! Az, hogy ilyen erős kijelentést tett, csak azt bizonyítja, hogy be vannak szarva rendesen! Az AMD egyre jobban a nyakukon liheg és ilyen tempóba véleményem szerint lassan csúnyán maga mögé is utasítja őket! Az AI-ről meg annyit, hogy ha ingyen adnák se kéne, sőt! Ha elterjed a technológia, és megkerülhetetlen lesz akkor lemondok a szórakozás ezen formájáról!
0
0
0
0
💬 3
xCube avatar
@Cannahun: Pedig AI -al mindenhol találkozol nap mint nap.

Az nvidia AI -a csak bizonyos grafikai eljárások gyorsításában segít.
0
0
0
0
Cannahun avatar
@xCube: "Az nvidia AI -a csak bizonyos grafikai eljárások gyorsításában segít." - Karácsonykor az ajándékot a fa alá meg a jézuska hozza!

"Pedig AI -al mindenhol találkozol nap mint nap." - Értem én, hogy a hsz-em ezen része fogott meg a legjobban, amibe akár bele is mehetnénk, de sokkal érdekesebb azon része, ami a cikkre reflektál!
Nem kell érteni, vagy egyetérteni azzal amit írtam! Ez a hsz-em már egy éves, és láss csodát most egy évvel később egy másik cikk alatt szintén vitába keveredtünk, amely cikk pontosan ezt a kommentemet erősíti meg!

Had idézzek "Az Nvidia Ampere széria várhatóan az év második felében érkezik, és valószínűleg a konkurencia nyomása miatt az Nvidia a vártnál jóval erősebb termékeket készül piacra dobni." Most akkor hogy is van? "És ha aktiváljuk a DLSS-t, akkor letiporjuk, és ha a ray tracinget kapcsoljuk be, akkor szintén letiporjuk." De ha mégsem akkor valami még erősebbel kell előállni, de félek azért az AMD-nek is lesz némi beleszólása! 😀
0
0
0
0
xCube avatar
@Cannahun:
"Az nvidia AI -a csak bizonyos grafikai eljárások gyorsításában segít." - Karácsonykor az ajándékot a fa alá meg a jézuska hozza!


Itt tényleg érdekelnének az aggályaid és meglátásaid a témával kapcsolatban.

"Pedig AI -al mindenhol találkozol nap mint nap." - Értem én, hogy a hsz-em ezen része fogott meg a legjobban, amibe akár bele is mehetnénk, de sokkal érdekesebb azon része, ami a cikkre reflektál!
Nem kell érteni, vagy egyetérteni azzal amit írtam! Ez a hsz-em már egy éves, és láss csodát most egy évvel később egy másik cikk alatt szintén vitába keveredtünk, amely cikk pontosan ezt a kommentemet erősíti meg!


Azon részére, ami a cikkre reflektál nem írtam semmit, mert pár kommenttel korábban már megtettem másnak. Azon nem vitatkoznék, hogy egy ilyen kijelentés valóban erős és nem mondhatni még véletlenül sem profinak, de afelől nem volt kétségem, hogy az nvidia bármennyire is félt volna az AMD -től. Jelenleg az nvidia testhosszal jár az aMD előtt GPU technológiában és támogatásban egyaránt. Az AMD is volt már ebben a pozícióban, de öt éve nem tud fellépni az abszolút csúcs kategóriába. Ez ebben a szegmensben presztizsharc és marketingerő. Annak idején egymásra licitálva jöttek az újabb VGA -k, a trónfosztás mindig borítékolható volt. Manapság már nem, mert a fejlesztési költségek sokkal magasabbak és a lobbi is afelé húz, aki nagyobb hal. Az AMD is fejleszthetett volna például DXR képes GPU -t, de nem tette. Emellett a teljesítményt sem tudta növelni. Az alsóbb szegmensekben ezzel szemben kiváló termékeket hozott nagyon jó ár / érték aránnyal. És ezzel csak arra akarnék rámutatni, hogy az nvidiának nem kell leigáznia az AMD -t és nincs is beszarva tőle.

A fejlesztési költségekre visszatérve hozzákapcsolnám azt, amit a másik cikknél írtál, mégpedig: "Mert ha tudnak sokkal jobbat, de csak azért csinálják meg mert a konkurencia... az több kérdést vet fel mint választ ad! Ezek szerint ha lehúzhatnak rólad nyolc réteg bőrt, akkor mért érnék be csak hárommal?!"
Az nvidia nem ücsörög három - négy új teljesen kifejlesztett szérián arra várva, hogy mit lép az AMD, hogy majd aztán jól megmutatják.

Had idézzek "Az Nvidia Ampere széria várhatóan az év második felében érkezik, és valószínűleg a konkurencia nyomása miatt az Nvidia a vártnál jóval erősebb termékeket készül piacra dobni." Most akkor hogy is van? "És ha aktiváljuk a DLSS-t, akkor letiporjuk, és ha a ray tracinget kapcsoljuk be, akkor szintén letiporjuk." De ha mégsem akkor valami még erősebbel kell előállni, de félek azért az AMD-nek is lesz némi beleszólása!


Legyen beleszólása, az csak jót tesz a piacnak. Jelenleg viszont nem nagyon mutatnak arra a jelek, hogy ezt meg tudják lépni.
0
0
0
0
Kelori avatar
ha a ray tracinget kapcsoljuk be, akkor szintén letiporjuk.


Hát azzal legfeljebb saját magukat tapossák el.
0
0
0
0
carl18x avatar
Az nvidia elég szűken gondolkozik? És akit nem érdekel a Ray Tracing? Akinek nagyobb szüksége van több videoramra ? 😃 Úgy viselkednek mint ha a Ray Tracing nélkül nem volna élet. Vulcan alatt még is a Radeon nyert a RTX 2080 ellen.
0
0
0
0
MaximumGame avatar
És kiderülne hogy ez ami veri a 1080 at... ez a régi RX840 nek felel meg 😃 alsó kategóriás mobil processzor 😃
0
0
0
0
Mesterlovesz avatar
Igazából lehet hogy bunkó dolog, meg erős kijelentés, amit tett, de ha beelgondolok szerintem igaza van. Nem készült el a navi, szóval hogy valamit be tudjanak mutatni, levagdosták egy "profi" kártyájukat és most megpróbálják bemagyarázni, hogy a 16 GB HBM2 memória az gamer. Gamer a f@szt. Nem bírtak csinálni egy normális GDDR6 os memóriakezelőt (maybe navi széria?), úgyhogy kifizettetnének velünk 16 giga legdrágább memóriát számunkra teljesen feleslegesen, mivel csak ebben a méretben nnics sávszélesség bottleneck. Ez tényleg egy Vega folytatás: drága és játékra szar. Ha legalább egy 10% ot ráver a 2080 ra, akkor azt mondom, hogy van értelme, de így ki a fenének éri meg venni egy 2080 at RTX meg DLSS nélkül, ugyanannyi pénzért?
0
0
0
0
💬 4
bukta2 avatar
@Mesterlovesz: Mi az a DLSS írja már meg valaki legyen kedves! 😃
0
0
0
0
Kelori avatar
@bukta2: Nvidia által fejlesztett képjavító eljárás, gyakorlatilag az élsimítást hivatott leváltani de attól másképpen működik. Teljesítményben jobb mint az AA eljárásások mivel ez nem a cuda magokat terheli le hanem az új tensor magokat.
Minőségben viszont elég gáz, sokszor rengeteg glimmeringet produkál. Én továbbra is az MSAA mellett vagyok.
0
0
0
0
no avatar
@Mesterlovesz: Ugyan ez van a procival,csak ott magot raktak memória helyett..De hiába nagyitanak ha alapjába véve szar amit csinálnak..szégyen gamer jelzöt akasztani egy olyan márkára aminek a böngészö is nagy falat..
0
0
0
0
gaborw avatar
Huang úrnak inkàbb azzal kéne foglalkoznia, hogy ezek a "vacak nvidia részvények". 😆
0
0
0
0
💬 1
no avatar
@gaborw: Igen, jobban járna ha azzal foglalkozna bár az is érdekes lett volna ha dicséri az új Radeont 😆
0
0
0
0
xCube avatar
Tényleg elég erőteljes nyilatkozatot tett, de ami itt a kommenteknél zajlik az az igazán kritikán aluli. Köszönjük nektek Megmondó Kapitányok!

Xoki, azt kell mondjam kezdesz nagyon ráérezni a hírezésre, legalábbis arra a részére, ami clickbaitet és ezáltal reklámbevételt generál. Remélem a sok intelligens hozzászóló legalább a gepigeny.hu -n kikapcsolja az ad.blockert.
0
0
0
0
💬 2
Tyrion Lannister avatar
@xCube: Gyakorlatilag minden nap van egy vagy nVidia-val, vagy AMD-vel kapcsolatos cikk, és a két márka egyikének említése már elég a káoszhoz. De végül is a népnek a kenyér mellett cirkusz is kell, ahol leadhatják fölösleges frusztrációjukat. Más kérdés, hogy erre vannak dedikált fórumok is az oldalon.
0
0
0
0
ben_aloha avatar
@Tyrion Lannister: az nvidia túlárazott, az amd drivergyenge, éljen a 3dfx 😆
0
0
0
0
PeAdam avatar
Érdekes Huang úr, én 1060 helyett egy RX 580 Strix 8Gb-ot vettem 1 évvel ezelőtt és azóta is tökéletes imádom. Jelenleg ha a csúcskártyák közül kéne választanom, mostis inkább ezt a Radeon VII-t venném meg mint a sorra meghaló, túlárazott RTX 2080-at. Nálam a vacak fogalmát inkább az meríti ki, hogy eddig soha nemlátott mértékben mennek tönkre az Nvidia kártyák, 2070,2080-ak egyaránt. Szval inkább ők gyártanak vackot.
0
0
0
0
💬 1
no avatar
@PeAdam: Árban ugyan ott van a radeon 7 mint az rtx 2080 akkor miért túlárazott? 😃
0
0
0
0
MaximumGame avatar
És véletlen erősebb lenne mint gondolták 😃 Csak Nvidia és AMD között az a különbség hogy AMD kártyák megjelenés után simán gyorsulnak 20-25% ot is 😉
0
0
0
0
💬 2
Puffin avatar
@MaximumGame: Az Nvidia meg annyit lassul... 😃
0
0
0
0
FoLey avatar
Mondja az aki sorban kiadott memóriahibás RTX 2070,2080 és 2080 ti-t kártyákat. Mellesleg semmit érő epénisz mutagó ray tracinget. 😆
0
0
0
0
💬 1
gaborw avatar
@FoLey: Be is zuhantak a részvények rendesen. Inkàbb ezzel kéne foglalkoznia. 😂
0
0
0
0
ddp16 avatar
A kis japcsinak bedurrant a veseköve mert fél hogy a saját méregdrága ertéiksze helyett az emberek az olcsóbb (és gyengébb) piros ***** fogják venni azt mehet az amd-hez vakolni. Most komolyan

1. Senkit nem érdekel mint mond Huang kutyazabáló géza, nem tudom hogy miért gondolja hogy érdekel akárkit is a véleménye, biztos nagyon sokat és keményen dolgozott az emberiségért (no offenz)

2. Nyílvánvalóan nem fogja pozitívan bereklámozni a rivalitás legújabb termékét

3. Mondjuk ki a szomorú igazságot az nvidia már nem jobb mint az amd. Azok az idök már elmúltak. Akinek ez 2019-ben meglepetést okoz az elég szomorú.

4. Ez ma max csak pár mainstream youtubernek van mire erre váltunk már ennél olcsóbb és jobb kártyák lesznek piacon
0
0
0
0
💬 4
no avatar
@ddp16: Aki nem néz teszteket 2019-ben az is elég szomorú. Továbbra sincs 2080Ti szintű kártyája az AMD-nek.
0
0
0
0
MaximumGame avatar
@ddp16: Csak elfelejtették 😉 hogy AMD igért ebből Dual magosat is 😃
0
0
0
0
xCube avatar
@ddp16: "1. Senkit nem érdekel mint mond Huang kutyazabáló géza, nem tudom hogy miért gondolja hogy érdekel akárkit is a véleménye, biztos nagyon sokat és keményen dolgozott az emberiségért (no offenz)"

No offenz? 😂 Az egész kommented tocsog a habzó véres nyáltól (és még rasszista is).

"3. Mondjuk ki a szomorú igazságot az nvidia már nem jobb mint az amd. Azok az idök már elmúltak. Akinek ez 2019-ben meglepetést okoz az elég szomorú."

Végül is csak az utóbbi négy évben nem tudott az AMD teljesítményben az nvidia fölé kerekedni. De hagyjuk is inkább, te biztosan nagyon jól meg tudod magyarázni.

Nem vagyok elfogult (egyszerre használok GTX 1080 -at, RX 580 -at és HD 7870 -et) és szerintem a tényeket figyelmen kívül hagyó kijelentések az őket leírókat jellemzik igazán.

Na tessék, erre én is megmondó lettem 😶
0
0
0
0
ben_aloha avatar
@xCube: "A kis japcsinak ", az a kis japcsi inkább tajvani, 0.5 mp google, erről ennyit, felesleges ezekre pazarolni a billzetet.. 😃
0
0
0
0
NeTuddMeg avatar
be van fsva? 😃 a ray tracing nagyon jó, csak az a baj, hogy sok DX 7-8as játékban is voltak ilyen árnyékok, csak az idő sokán kikoptak
0
0
0
0
💬 1
xCube avatar
@NeTuddMeg: Ha a tükröződésre gondolsz azt össze sem lehet hasonlítani.

A régi játékokban sík felületen szimplán tükrözve lerenderelték a képet másodjára (kvázi portál).

Ray tracinggel bármilyen felületen lehet valós idejű tükröződést csinálni, mert az a fény útját szimulálja.

Azzal, hogy a RT most így kerül bevezetésre én sem értek egyet teljesen, de valamilyen irányba tényleg el kell indulni fejlődés terén.
0
0
0
0
Mystream_HBL avatar
Spoiler!
Szerintem én nekem fontosabb hogy hány nm-es mint némi "Ray Tracking" (Fény és árnyék)
0
0
0
0
💬 1
no avatar
@Mystream_HBL: Nekem az számít melyik a gyorsabb, ha valami gyorsabb 14nm-en akkor nem fogom a lassabb 7nm-es kártyát venni.
0
0
0
0
bukta2 avatar
Majd kiderül... :/ szerintem egy RTX 2060 350 dollárjával nagyon jó vétel lesz középkategóriában...az tart vissza hogy 6gb vram... azért nem kell még ha 8 lenne még lehet be is neveznék egyre de így nem :/
0
0
0
0
💬 19
santakigyo avatar
@bukta2: 8Gb memóriát mikor kér egy játék?Milyen grafikai beállításokon?És ha lenne ebbe 8Gb elbírná maga a kártya azokat a beállításokat amik ennyi memóriát kérnek?Mert a memória nem minden.Nem értek hozzá,csak kérdezem.
0
0
0
0
Rocky12 avatar
@santakigyo: Hát, a tesztek alapján erősebb mint egy 1070 Ti és néhány esetben az 1080 szintjét is eléri, sőt, meghaladja 😀
Igazából én sem értem ezt a döntést, a 2060 már simán kaphatott volna 8 GB memóriát, de akkor drágább is lenne.
0
0
0
0
Wihay avatar
@Rocky12: Itt az a baj hogy kaphatót vagy volna, meg hasonlók DE akkor mi lesz az alsó kategóriával? Fogalmam sincs hogy lesz-e 2050 de akkor az hány gigát kapott volna? 😃
Nah erről van szó, azért akad pár játék aminek jócskán kell a Vram, itt az a baj ameddig a játékok 4 maggal is elfognak futni addig nem (lesz//) szükséges + 6giga vram-nál több mert minek?
Egy jó példa a GTX 1060 3GB, olcsó akinek meg kell a hosszabb táv az megy vegye meg a 6GB-s verziót..
0
0
0
0
yericho500 avatar
@santakigyo: lehet akkor nem venne senki 2070.. :/ 😃 ha 8gb ram lenne a 2060. meg a 8gb már kéne a 256bit sávszélesség? nem vágom,nem értek én se hozzá! 😀
0
0
0
0
H-ECTOR avatar
@yericho500: 128biten is lehetséges 8gb vram, ha jól tudom, kérdés elbírná-e. A ki venné dologhoz meg annyit mondanék hogy 960-970-980, mind 4gb vrammal jött ki, mégse mindenki a 960-at vette 😉
0
0
0
0
bukta2 avatar
@santakigyo: En sem értek hozzá de pl a shadow of the tomb raider meg a call of duty-k is megeszik a 8Gb Vramot full hd ba.... én meg 2k-n játszok már így ide meg mégjobban kellene ha lenne egy normális kártyám 2k ra 😃 ( na de majd egyszer)
0
0
0
0
Quadgame94 avatar
@bukta2: Neked annyit eszik? LOL en még 5.5 felett nem láttam Full HD-ben.
0
0
0
0
bukta2 avatar
@Quadgame94: az új tomb raider pl 7.7 et eszik nálam, képem is van róla full hd ba, 2k ba meg nem is megy maxon a játék csak med en
Call of duty va ha jól emlékszem egyik gépigényes kolega tett be egy képet hogy a 1080ti jénél full hd ba mindrn kimaxolva 10gb ot evett vramból neki tudom is a kolega nevét csak fogalmam sincs hogy írja most meg nem keresem 😃
0
0
0
0
Mesterlovesz avatar
@santakigyo: memóriában tárolódnak az objektumok és a textúrák. minél több objektum van, és minél magasabb a textúra részletesség, annál több vram kell.
0
0
0
0
santakigyo avatar
@Mesterlovesz: Igen, csak ugye arra gondoltam, hogy több paraméterben kell megfelelni,és hiába van elég memória ha mondjuk nem képes rendesen feldolgozni a be töltött cuccot.
Na de nem ertek hozzá. Biztos okkal van 6 Gb benne.
0
0
0
0
Mesterlovesz avatar
@santakigyo: sokkal értelmesebb dolgokat mondasz, mint akik állítják, hogy "értenek hozzá". Igen valóban fontos, hogy egy gépnél (és egy kártyánál is) kiegyensúlyozottak legyenek a komponensek egymáshoz képest. Így kerülhető el a bottleneckelés. Ha van egy erős GPUd sok-sok feldolgozóegységgel, akkor azok sok adatot akarnak majd egyszerre kérni, mert sokan vannak. ehhez kell a nagy sávszélesség és memória órajel, mert ezekből jön a memória átviteli sebessége. És mivel sok adattal dolgozik, nyilván sok hely is kell hogy az a sok adat elférjen valahol, ezért kell a nagy kapacitás. Aztán persze ezzel lehet trükközni, hogy olcsó szar meemóriából jó sokat rápakolunk a gagyi kártyára és akkor a pórnép azt hiszi h az biztos jó mert sok gigás, és veszik. Másik fele, amikor egy erős kártyáról lespórolják a memóriát, és hiába tudna dolgozni 6-8 giga adattal, nics neki csak 3-4 giga helye, ezért szaggat a játék meg alacsony a framerate. Lásd 4 gigás 580 asok meg 3 gigás 1060asok. Aki ezen akar spórolni az bután csinálja, mert lehet hogy a mostani egy két címben pont elég még az a VRAM, de a jövőben meg fog halni az új játékokon a kártya a memória miatt, miközben ugyanazon verziójú kártyából a nagyobb memóriás társai még vígan mennek majd.
0
0
0
0
PeAdam avatar
@bukta2: Ha 8Gb-os kártya kell, AMD oldalon ott az RX 590 és kb újonnan 95 ezer a Nitro Special Edition. 1070-től egy kicsit gyengébb a teljesítménye, de Full HD-re mindenre elég, sőt ahol sok VRAMRA van szükség ott stabilabb is lesz mint az RTX 2060.
0
0
0
0
bukta2 avatar
@PeAdam: 2k ra kell vga-t vegyek mivel 1440p s a monitorom , és tisztában vagyok a hardverekkel de kösz azért 😃
Legalább egy 1080 vagy egy 1080ti-t vennék ha vennék az alá nem adok ha veszek VGA-t a jövőben,de nekem a játszás ilyen hullám völgyekben jön rám van mikor egy hétig ki sem tudnak robbantani a gép elöl van mikor meg 1-2 hétig be sincs kapcsolva a gépem... tehát ezért nem vettem még komolyabb konfigot... mert szerencsére megtehetném de minek ha nem játszok olyan komoly szinten,de a másik ok hogy nincs sokszor kivel... :/
0
0
0
0
Mesterlovesz avatar
@bukta2: Én karácsony előtt vettem a 1070Ti met 136 ért 2k gamingre és szerintem pont jó. Ha kijön a 3000 es ryzen széria akkor veszek egy olyan procit mellé és akk lesz egy tökéletes konfogom. Elférne egy 1080 is a 2k ra, de azok messze sokkal drágábbak voltak szóval 10% + teljesítményért nem érte volna meg +50 ezret kiadni.
0
0
0
0
bukta2 avatar
@Mesterlovesz: Teljesen igazad van
0
0
0
0
enslaved avatar
@Mesterlovesz: Szerintem jobban járnál egy Intel 8700(k) vagy 9700(k) - val, de te tudod.
0
0
0
0
Mesterlovesz avatar
@enslaved: Megvárom a teszteket, aztán meglátjuk. Gondolom 50k körül van egy jó lap hozzá + 20k körül a hűtés, pontos árakat nem néztem, de körülbelül. Ehhez hozzácsapom a procit 140 ezerért, a régi alaplap+procit eladom 50 ért, és van + 10 FPS em 150 ezerért. Ez a projekt így nálam NO GO.

Másik lehetőség: simán veszek egy Ryzen 5öst 80k körül (tippre annyi lesz, persze ár még nincs) és ugyanott vagyok valószínűleg, mert régi alaplapomba bele fog menni. Hűtése, hőfokai, fogyasztása sokkal jobb lesz a 7 nm miatt.

Alaplapot persze így is lehet kell majd cserélnem, mert sajnos csak 2800 Mhz CL 18 on fut a 16 giga RAMom a 4 modul miatt, gyorsabban nem támogatja, csak 2 modullal a 8 gigát. Azért ez is vicc.
Persze ha az új generáció nem lesz olyan memória sebeség érzékeny, mint a régi, akkor lehet hagyom így, de azért ez zavar.
0
0
0
0
enslaved avatar
@Mesterlovesz: Én soha nem azt nézem hogy 10 fps plusz van egy Intelben. Több ismerősöm is vett Ryzeneket, és soha nem a max. fps volt a gond, hanem hogy olykor indokolatlanul beestek úgy hogy zavaró volt, ilyen Intel esetében alig fordul elő. Ezért is cserélt szinte mindegyikük utána Intelre inkább drágábban. Oké, az új gen még homályban van, de én nem sok jót jósolok most sem, de majd meglátjuk.
0
0
0
0
carl18x avatar
@bukta2: Hát a GTX 1070 8gb vrammal jelent meg 380 dollárért, azért 350 dollárért nem lesz annyira nagy vétel. Nem az a BESTBUY Kártya lesz az fix.
0
0
0
0


Elfelejtett jelszóRegisztráció