Tak proběhlo na výstavě Cebit krátké představení nového dítka z laboratoří nVidie, čipu s kódovým označení NV35. Čip, kterému zatím můžeme říkat GeForce FX "2" nebo GeForce 6 (jak kdo chce), je zatím ve stádiu prototypu a proto běžel pouze na snížených frekvencích, ale i tak jsou jeho výsledky velice zajímavé. Než se ale podíváme na jím podávané výkony, zde jsou důležité specifikace:
- Kódové označení: NV35
- Počet tranzistorů v jádře: 130 milionů (GF FX má 125 milionů)
- Výrobní technologie: 0.13 mikronu (stejně jako GF FX)
- Paměťová sběrnice: 256 bitová (u GF FX je jen 128 bitová)
- Frekvence čipu: předpokládá se že bude 500 MHz (stejně jako GF FX)
- Frekvence pamětí: 500 MHz G-DDR-I (1 GHz efektivně, GF FX má 500 MHz G-DDR-II)
To je velice povzbudivý výsledek. Navíc podle nVidie nebude NV35 osazována stejně monstrózním druhem chladiče, jako GeForce FX 5800Ultra a ani paměti nebudou vyžadovat přídavné chlazení.
V kontrastu s tímto tvrzením je jiná zajímavá informace. Jeden z manažerů nVidie řekl, že lze v blízké budoucnosti očekávat grafické čipy, které budou mít ztrátové teplo větší, než 120 Wattů(!). A ačkoliv nVidia aktivně vyvíjí nové technologie pro zredukování nároků na spotřebu na bázi SOI (Silicon On Insulator) a na oxidu Germania, není vůbec jisté, zda se jí tento proces podaří úspěšně zvládnout. Proto se bude i nadále koncentrovat na vývoj chlazení, které by bylo v budoucnu schopné tyto "žrouty" energie uchladit.
Pro srovnání. Současná GeForce FX 5800Ultra produkuje až 75 Wattů ztrátového tepla. Radeon 9700Pro na tom není o moc lépe, i když produkuje "pouze" 54 Wattů. V případě GF FX 5800Ultra (vzhledem k teplu, které vyzařuje) se tedy není co divit, že je k jejímu chlazení používán chladič typu Flow FX - protože spotřeba tohoto čipu je přibližně stejná, jako u procesorů Pentium 4 na frekvenci 3,2 GHz, nebo AMD Barton s označením 3200+. Takže mě napadá neodbytná otázka. Pokud je pro sestavu s GeForce FX doporučován 350W počítačový zdroj, jak výkonný zdroj si bude muset člověk pořídit, aby mu budoucí grafické čipy pracovaly stabilně??? Ještě že máme Temelín... ;)
zdroj: Chip