Az Nvidia új referencia hűtője már önmagában 150 dollárba kerül

Szerző: xoki | 2020. June 09. | hír | 42 hozzászólás

Korábban felbukkantak az első RTX 3080-at ábrázoló képek, melyeken látható, hogy a dizájn átesett néhány érdekes változtatáson. A kiszivárgott képek alapján egy Reddit felhasználó, JDSP készített néhány 3D rendert is a kártyáról, így egy sokkal tisztább képet kaphattok a kinézetéről.

A két hűtő különböző oldalakra való elhelyezése mondható a legérdekesebb változtatásnak, és a legújabb értesülések szerint ezek elég vaskos áron készülnek el. Az Igor's Lab több érdekességet is megosztott a közelgő kártyákkal kapcsolatban, köztük azt, hogy az Nvidia új referencia hűtője önmagában 150 dollárba kerül. Az új hűtőszerkezet több egybekapcsolt hűtőborda elemből tevődik össze, a PCB pedig középen helyezkedik el. Az Igor's Lab értesülése alapján a kártya várhatóan 21,9 cm hosszú lesz. Mivel egy ilyen drága komponensről van szó, csak a három felsőkategóriás SKU-ra kerülnek rá, vagyis a TITAN RTX, RTX 2080 Ti és az RTX 2080/SUPER utódjaira.

Egyelőre semmi sem biztos, de az Nvidia egyáltalán nem örült a szivárgásnak, ezért nyomozást indított a két Founders Edition, azaz referencia dizájnért felelős szállítóinál (Foxconn és BYD), amelyből arra lehet következtetni, hogy valós adatokról van szó. A dizájn mellett pedig néhány alapadatra is fény derült, amelyek a következők:

Látható, hogy mindhárom kártyára várhatóan GDDR6X memória és GA102 lesz jellemző, illetve úgy tűnik, az Nvidia eldobja a TITAN nevet, és a kártya utóda RTX 3090 néven érkezik majd.

Hozzászólások: 42
Hozzászólás küldéséhez be kell jelentkezni.
ricsyxxx avatar
Szerintem srácok kinek mire kell de ha jöne a 3070 vagy a 3070 Super én arra lehet vevő lennék csak az ára is legyen elfogadható 😃
0
0
0
0
Tuhajohn avatar
Elég lesz ezeknek 650W-os táp?
0
0
0
0
r2d2 avatar
Szerintem rohamozzuk majd meg romániát meg az ukránokat, hát ha ott fele annyiért meg kapjuk majd!
0
0
0
0
💬 1
Bandi146 avatar
csak a Referencia kártyákon nincs Display port? 😃 vagy alapból nem is lesz egyiken se? csak mert nekem olyan a monitorom
0
0
0
0
💬 2
Gomi87 avatar
@Bandi146: miért ne lenne van 3db mindegyiken
0
0
0
0
Bandi146 avatar
@Gomi87: ja tényleg DP, de vak vagyok 😆
0
0
0
0
kellpenzgepre avatar
Mostantól az lesz a nevem, hogy kellpezkartyara. 😞
0
0
0
0
💬 1
odinx avatar
Eléggé brutális kártyák lesznek, főleg árban. 😆
0
0
0
0
cabus26 avatar
Ez a 320W-os TPD eléggé légből kapottnak tűnik,hiszen az elmúlt éveket elnézve az NV figyelt a jó konstrukcióra,hogy a fogyasztást szépen optimalizálja.Ha ez igaz lenne,akkor egy jóval gyorsabb VGA-t kéne kapni,mert majdnem a felére csökkent a csíkszélesség.Még a Tensor meg az RT magok sem indokolnák ezt a nagy fogyasztásigényt.Ősszel majd kiderül meg ezek után az AMD is érdekes lehet a saját Ray Tracing megoldásával.
0
0
0
0
yugiohyugiohzebuyug avatar
Mekkora ötlet... következőnél én csinálom meg. : D Arra már talán lesz weboldalam is. Egy turntable videórender és képek youtube-ra az új hűtésről... (már ha fog kiszivárogni valami) mi nézettség... lehetne hirdetni a videó végén portfóliót, artsatiton-t, uhh, köszi az ötletet. 😆 Persze a leírásban és címben valahogy fel kellene tüntetni, hogy nem hivatalos vagy valami, leak alapján, de adná a reklámot, a srác képeit is megnézték egy páran.
0
0
0
0
Memento Mori avatar
Majdnem 50 ropi ezért a légkavaróért? Ennyi pénzből inkább víz alá teszem a kártyát...
0
0
0
0
💬 2
Maros avatar
@Memento Mori: Az enyém már víz alatt van! De majd jégre teszem!😎 LOL 😂😂😂😂😂😂😂😂😂
0
0
0
0
misota31 avatar
Basszus ide egy vese már nem lesz elég
0
0
0
0
💬 5
Maros avatar
@misota31: Ide már szív fog kelleni epével meg herezacskóval! 😂😂😂
0
0
0
0
misota31 avatar
@Maros: Az új széria megjelenésével hamar elfognak tünni az utcákról a hajléktalanok (szervdonorok)
0
0
0
0
Maros avatar
@misota31: Hát igen! 😆😂😂😂😂😎
0
0
0
0
kellpenzgepre avatar
@Maros: Akkor szerezzek be újakat? :S
Be vannak zárva a sulik, és tanév vége lesz, szóval egyre nehezebb ezeket beszerezni. 😞
0
0
0
0
r2d2 avatar
Én azt mondom hogy ha egy 3080Ti erösebb lenne mint két 2080ti vagy super, akkor nem lenne olyan állat aki ne venné meg! 😃 bár tudom hogy ez baromság!
0
0
0
0
Mesterlovesz avatar
Az előző generációban egy lebutított 104es lapkát kaptunk 80as kártya néven, most pedig vissztérnek a 102es lapkára plusz a belét is kioczzák a kártyáknak... Eddig fixen 250W volt a top, most 320 fölött? Kisebb gyártási technológia mellett? Lehet, hogy tényleg ennyire jó az RDNA2, mert véletlenül nem fosnak így be az Nvidiánál, vlamit tudnak ezek... ha viszont tényleg így van, akkor árban nem fognak tudni elszállni.
0
0
0
0
Maros avatar
Kíváncsi leszek a teljesítményeikre!
0
0
0
0
RaggaBone avatar
Egyre erősebb a tudat bennem hogy ha nvidiáról van szó mindenki feltétel nélkül elfogad mindent. 150dollár csak a hűtése....aha oké.....így értünk el a milliós vga-k piacára. Ami csak halkan jegyzem meg NEVETSÉGES!! Hogy miért zavar ha úgy se veszem meg? Mondjuk mert kihatással van az egész piacra?.....vagy mert mondjuk egy közel 4éves 1050ti-t még mindig 50ezrekért akarnak használtan a nyakunkra sózni? Ne essék félreértés, tudom én hogy erős az nvidia....de hogy annyival erősebb lenne amennyivel drágább azt ne akarja senki se beadni.
0
0
0
0
Quadgame94 avatar
Nem lesznek ezek olcsók 😃 a 350W TDP a PCI-E 4.0 miatt emelkedhetett meg? Olvastam hogy 300W adhat le maga a csatlakozó.
0
0
0
0
💬 2
TeMeRolEee avatar
@Quadgame94: Maga a PCI-E csatlakozó nem fog tudni leadni 300W-ot, abban biztos vagyok, ahhoz valszeg sokkal több táp csatlakozó kellene a sínben, viszont akkor bukna a visszafelé kompatibilitás. Max 75W-ot vehetnek fel a kártyák a PCI-E foglalatból. (Sokkal durvább tápellátás kellene az alaplapi oldalról ehhez)
Nekem az RX 5700-as vga-m eszik ~150W körül játék közben, mindezt egy 8 + 6 pines plusz csatlakozó páros mellett, pedig PCI-E 4.0-ás a kártya (alaplap ugyan nem).

A 300W-os limit (4. gennél 375W, ha jól olvastam) az arra vonatkozik, hogy a PCI-E csatlakozó (75W) + extra csatlakozók (300W) -> MAX 375W-ot engednek.
0
0
0
0
Quadgame94 avatar
@TeMeRolEee: Értem, bár a lényegen nem változta. Meg fog nőni a fogyasztás.
0
0
0
0
no avatar
Eddigi legdizájnosabb hűtő NV-től, bár a 20-as széria refjei sem voltak csúnyák. Táp csatik remélem ezúttal a seggükön lesz, sokkal dizájnosabb úgy a menedzsment 😜

Jöhetnének már, marha várós 😢
0
0
0
0
💬 2
ben_aloha avatar
@LordSzalko: Igazából már rég meg lehetett volna oldani, a pci sín mellé ugyanolyan szisztémában a tápcsatit, az meg az alaplapi tápcsatihoz csatolva is mehetne..
Spoiler!
https://i.ibb.co/hF5PF4m/evga-x99-micro2-1.png

van még pár hasonló jó ötletem, csak szerintem a kutyát nem érdekli 😃
0
0
0
0
no avatar
@ben_aloha: Nekem az is megváltásnak számított menedzsment szempontjából, hogy az előlapi USB 3.2 oldalra néz a SATA-val együtt, kár hogy ezt a 24-pin-el már nem lépték meg a deszkámon 😆

Engem érdekel, csak meg is tudjam valósítani 😆
0
0
0
0
Rocky12 avatar
Így már nem vagyok olyan biztos abban hogy akár 6-8gb vram is elég lesz az új generációs játékokhoz...
0
0
0
0
💬 2
19ati93 avatar
@Rocky12: miert? 3080/ti-nel 10-11gb, 3090-nel meg 24 ami a titan rtx lenne ugyis, es ezek high end kartyak amugyis, szoval nincs oriasi nagy valtozas vram tekintetben a jelenlegihez kepest, de ezek ugyis meg csak spekulaciok
0
0
0
0
Rocky12 avatar
@19ati93: Akkor jó 😃 Legyen így, azt kívánom.
0
0
0
0
vyne avatar
24gb... holy shit... 😃
0
0
0
0
💬 7
enslaved avatar
@vyne: A 3080 Ti - re írtak 20GB - ot, szóval lényegében sokat most sem tudtunk meg.
0
0
0
0
vyne avatar
@enslaved: Hat azert eleg overkill ez a mennyiseg mar, hacsak nem mar 8k fele kozeledunk. A mostani 11gb vramot megzabalja valami?
0
0
0
0
enslaved avatar
@vyne: Amikkel eddig én játszottam a Division 2 volt a csúcstartó, 10,5 GB - al, alatta a legutóbbi COD Modern Warware 2 remaster helyezkedik el 10 GB - al. Szerintem bármi ki tudja ma már használni, a vram azért van. A gond akkor kezdődik ha gyenge maga a GPU.
0
0
0
0
vyne avatar
@enslaved: Ertem, akkor annyira nem lesz overkill megsem, ha jonnek az uj jatekok lehet 1-2 ev es bezabaljak az osszes vramot... 😃
Gyengek ezek nem lesznek, az viszont tuti. 😜
0
0
0
0
enslaved avatar
@vyne: Amennyiben erős a GPU, jobb neki ha a vramból kell dolgoznia, gyorsabb lesz így. Egy COD ugyanúgy elfut, ha 6GB - od van is, annyit fog kihasználni, abból gazdálkodik. FHD mellett azért én nem tartok attól, hogy ne lenne elég továbbra is majd, legfeljebb néhol a textúrából lejjebb kell venni, meg esetleg az élsimításból.
0
0
0
0
misota31 avatar
@enslaved: Azért lehet sejteni kapunk némi fps-t nem sokat mert akkor nem tudnák eladni a következő generációt ehhez jár a megnövekedett fogyasztás valamint horribilis ár=Nvidia innováció
0
0
0
0
enslaved avatar
@misota31: Azért én egy 50% - os növekedést nem mondanák kevésnek a 2080 Ti - hez képest, ezzel 4k kipipálva.
0
0
0
0


Elfelejtett jelszóRegisztráció