Všechny komentáře k článku:NVIDIA GeForce GTX 680 právě přichází na trh
Zakladní rozdíly karet
To AMD nabízelo HD 6970 o 4000 levnější než NV GTX 580! Nyní ale AMD nabízí kartu s o 1/3 více paměti a větší sběrnicí a silnějším jádrem (i s výpočetními funkcemi a výkonem tomu odpovídajícím) za stejnou cenu, co stojí 256-bit GTX 680. Co na to říci? Snad jen to, že za tyhle ceny to stejně nejsou zajímavé grafiky pro 95% uživatelů .... a o to zajímavěji vypadá skutečně mainstreamové HD 7870/7850, které ze strany NVIDIA nemají a ještě delší čas mít nebudou konkurenci , tedy pokud se nám nerozhodne někdo srazit ty ceny GTX 680 podstatně níže ....
proc by je srazeli? :D je levnejsi nez HD 7970 a i pres nizsi sbernici a pamet, je vykonejsi a uspornejsi ;]
@TehDexter: Snadné podívej se do tabulky sběrnice u 7970 384 u 680ky 256 ...Takt je vyšší ano 680 umí využít ,turbo boost´ ale i tak je slabší ;) a ta cena se moc neliší....ale výkon ano ;)Většina lidí má monitor pro maximální rozlišení 1920x1080. Tak nechápu proč všude v recenzích a nějakých testech tam cpou rozlišení tak extrémně velké která fakt málokdo využije. I když je pravda AMD se svými grafickými kartami v poslední době spoléhají jen na to že mají hlavně hodně GDDR paměti čímž vyhrávají nad Nvidií která buď neumí osadit karty a nebo je to spíše pro to že jim nezáleží na nějakých hloupých testech v extrémních rozlišeních a dělají spíše karty pro klasické dneska dá se říci standartní monitory s rozlišením max 1920x1080 Ale je také pravda že sběrnici mohli dát alespoň 384 a ne tu 256
@PanterAMD: Je vidět, jak moc tomu rozumíš...a) výrobce si velikost sběrnice nevybírá - udělá ji takovou, jaká se mu kolem čipu vejde - a víc než 256 se na tenhle malý čip nevejde. Jak jsi správně poznamenal, jedná se o střední čip, který je menší, než čip na HD7970 - proto si čip na HD7970 může dovolit 384bit sběrnici - je to velký čip a ta sběrnice se tam vejde - ono do toho čipu totiž neteče jenom sběrnice, je toho tam hodně..b) velikost sběrnice vážně není přímo úměrná výkonu, stejně tak velikost paměti. Přesná analogie je věděc, poznámkový blok a rychlost psaní. Věděc je čip, počítá rychlostí jednotky(shadery)*frekence(jádra). Píše rychlostí sběrnice*frekvence(paměti), a může napsat tolik poznámek, kolik má paměti. Ne pro každý úkon ale potřebuje tolik papíru, ne pro každý potřebuje tolik psát, jsou výpočty, kdy se dlouho počítá a má to malý výstup, případně málo poznámek, a pak takové, kdy se spíše leze pamětí a bere jedno za druhým, než počítá. Reálným příkladem je třeba tesselace, která se odehrává nad pamětí a je hodně ovlivněná paměťovou propustností, nebo processování textur, samozřejmě i vyšší rozlišení si řekne o více paměti kvůli většímu počtu hloubkových bufferů a vůbec všech informací.b2) to, že mají jádra stejné takty, nic neznamená - mají odlišnou architekturu, každý počítá po svém. Je potřeba vědět, jak rychlá je samotná jedna jednotka, pak se to násobí frekvencí a počtem, ovšem to je ideální případ - je potřeba počítat s neefektivitou rozdělování práce mezi tyto jednotky - paralelismus je složitý pro plánování. Ve výsledku pro jednu hru může být (a je) vhodnější architektura AMD, pro druhou zase nVidia..c) nVidia "vynalezla" FXAA, což je filtrovací algoritmus viz http://pctuning.tyden.cz/index.php?option=com_content&view=article&id=23494&catid=1&Itemid=57 - koukněte na FullHD verzi videa (pokud máte FullHD monitor) - skoro všude je patrný aliasing. Tenhle FX"aa" je podstatně méně náročný, než běžně používaný MSAA, přičemž proti MSAA očividně nedělá skoro nic :D Zatím se o tom nemluví, ale pokud nVidia přes ovladač automaticky veškeré AA přepíná do FX"aa", tak se tomu výkonnostnímu rozdílu ani moc nedivím - byla by to stejná situace, jako dříve se StoneGiantem a v něm tesselace neviditelným faktorem 16x, kde se Radeony propadaly, ale rozdíl v obraze mezi 8x a 16x byl naprosto nulový.. Zde je FPS vyšší a kvalita obrazu nižší - no já tedy rozhodně volím Radeon a vynucení SSAA :)d) není to karta pro FullHD? A Metro2033 jsi hrál na nejvyšší? Případně vlastně jakákoliv FPS multiplayerovka, kde "neviditených" 300FPS způsobí reálně rychlejší hraní - takoví hráči hrají na nejnižší detajly s nejvyšším FPS na GTX590, byť je to poměrně extrém. A i já si dovedu představit, že HD7970 vytížím třeba WoWkem - vynucené SSAA 8x a dvojice WoW na ploše bude i pro takovou kartu slušná rozcvička..
@TOBiAS02:
Souhlasím s tebou ale vykon paměti napřiklad u staršího modelu..5770 (GDDR5) ....
má 128Bit sběrnici...což znamená že svůj výkon nevyhodí tak ja kby měl 4800MHz frekvence paměti je krása ale s 128Bit sběrnicí to KARTA NEVYUŽIJE!
to samé platí i u Nvidie 680ky která má 256bit spěrnicic ...a opakuji
AMD mělo na trhu 7970 3 MĚSÍCE.... Nvidia měla 3 měsíce AMD ,rozdrtit vykonou GK´ ale neudělala to....jsou na tom poměrně stejně jediné co Nvidiia dokazala tak že má Turbo Boost.....
@PanterAMD:
proč tady pořád řešíš nějaké sběrnice, velikosti paměti, frekvence? Jediné co je ztěžejní je samostatný výkon.
Neřeš co bylo, řeš co je. Momentálně je prostě GTX680 lepší volbou než HD7970 a to je fakt, ať se ti to líbí nebo ne.
A prosím přestaň šířit ty tvoje fanatické názory.
@siddhi: Ještě bych nedělal ukvapené závěry. Zatím jsou recenze příliš chaotické a každá ukazuje něco jiného než aby se dalo věřit.. Podle mě část výkonu bude ukrojena přes FX"aa", byť GTX680 jako taková nevýkonnou kartou nebude..
@PanterAMD: Nevim, jestli si víc zasloužíš mínus nebo plus, sám ani nevíš, co mluvíš. Tak jasně, vždy se najde případ, kdy jakákoliv paměťová propustnost je málo, ale řekněme, že HD5770 s tím, kam je určena, je naprosto spokojena se 128 bity a 4800 Megahertzi. Vzhledem k ceně se to neoplatí řešit a hlavně - 265bit se prostě kolem toho čipu nenarve, protože je tak prťavej!! Ono to musí taky bejt nějak spojený a nemá smysl dělat čip větší kvůli sběrnici - to by se jen zvětšila plocha jádra, čili i výtěžnost na materiál, čili by stoupla pořizovací cena čipu, plus by se zvětšil počet zmetků. (byť málo), a to je lepší obětovat pár % výkonu a hodně % ceny.. HD5770 se díky tomu právem stala bestsellerem.A ano, nVidia věděla, kam jde, a stejně jako vloni se pouze snažila přinutit Keplera běhat tak, aby porazil Radeony. Tak se očividně stalo, i když aktuáně nevěřím žádné recenzi. Sám zastávám názor, že ve všem má prsty FX"aa" - pravda časem vyplave na povrch, asi si GTX600 koupí dostatek zaslepených hlupáků, kteří pa zjistí, že opět koupili zajíce v pytli (a nebo taky dokonalou kartu)..
ve vsech testech gtx 680 porazi HD 7970, nekde dokonce HD 6990, a to vse na zakladnich taktech, ktere se daji popohnat az k hranici 1300 mhz
@TehDexter:
v tomhle tě hned zarazím ;)
Porazila GTX 680 rivala Radeon HD 7970? Částečně ano, celkově ne.A řeknu na rovinu, že pokud někdo tvrdí, že je tomu za současných podmínek jinak, tak rozhodně lže. Pravdou je, že NVIDIA samozřejmě věděla, do čeho jde, Radeon HD 7970 je 3 měsíce na trhu, takže přesně věděla, kam musí vyhnat výkon a takty, aby se s ním mohla, alespoň v jeho základu, měřit.
Situaci jí komplikuje jen fakt, že GTX 680 není ta GTX 680, na kterou fandové a majitelé GTX 580 čekali. NVIDIA má k dispozici jen střední čip GK104, tedy vlastně nástupce GF104/104 na GTX 460/560 Ti. Větší čipy ale nemá a ještě dlouho nebude mít k dispozici, takže GTX 680 s GK104 je vyhnána na maximum možného, aby NVIDIA mohla, soupeří se špičkovou nabídkou konkurenční AMD.
a také si uvědom že AMD 7970 byla na trhu 3měsíce! nvidia měla 3měsíce na to aby GK připravily ayb byla lepší ale to nedokázala ;)
@PanterAMD: Testy na PCT jsou zmanipulované pohádky. Budoucí testy na DDW budou taky zmanipulované pohádky. Recenze na EHW ukázala pravdu, a sice, že HD78** nemají konkurenci a jsou po všech směrech dokonalou grafikou. Testy GPGPU ukázali šílenou slabost Keplera jako architektury. -> Z toho odvozuji, že GTX680 je někde lehce nad HD7970 plusmínus autobus a zastávka.. Troufám si ale tvrdit, že reálně je někde o 20% níže a výhodu získala díky FX"aa", jehož přínos je spíše negativní.. Nevěřim nikomu, GTX660 snad budu mít na test, porovnám ji se svou, spočtu rozdíl mezi mým a "webovým" výsledkem, ten aplikuji na GTX680 a budu mít jasno, kde je pravda.. Nevěřím nikomu. Hlavně po 3 letech podvodů a papírových trhačů asfaltu, maket, závad, žalob, atp. odmítám věřit nVidii a od této společnosti se distancuji - praktiky, které používá, odmítám akceptovat, i kdyby byla jediným výrobcem elektroniky na světě.
@TOBiAS02:
Nikdo ti nebrání projít si testy i na zahraničních webech. Ve všech je GTX680 o krapet výkonnější než HD7970. Záleží na výběru her, v průměru vychází GTX680 o 3-11% výkonněji.
Testy GPGPU nemusí nikoho zajímat, je to herní karta (a kolik lidí to GPGPU využije? 1%?, 0,5? zájemců o tuto kartu?
Jinak pokud teda máte takovou žášť vůči jedné společnosti a raději si kvůli tomu koupíte horší výrobek od té "lepší" společnosti tak hold je to každého volba.
@siddhi: Samozřejmě recenze študuji, ale zatím se dost liší. Někde ohodnotí GTX680 jako neporazitelnou, někde jako 5% nad HD7970.. Já chci hlavně vědět, jak je to s tím nVidiáckým novým antialiasingem, který v praxi dělá prd.GPGPU není zásadní, ale dokazuje to reorientaci nVidie zpět od velkých monolitických jader k menším, efektivnějším pro hry. Jak ale vidíme, GCN a i její předchůdci byli dobří jak ve hrách, tak v GPGPU, což svědčí o lepším celkovém návrhu čipu.Navíc GPGPU je docela velký trh - akcelerace CAD, animací, modelování, simulací - na to se dají použít mraky grafických karet, kde výkon jedné se rovná stovkám procesorů. A samozřejmě zde vítězí ta lepší karta. A už existuje i několik superpočítačů z GPU, ale i grafici a animátoři rádi koupí GPGPU schopnou kartu. Rozhodně jich je víc, než kolik koupí extrémní dvoučipovku na přetaktovávání a hraní, byť třeba kupují mainstreamovější verze. Ale tady jde o architekturu, kterou bude mít očividně i mainstream.. Takže zas tak bych GPGPU neodstrkoval ke kraji.Řekněme, že jsem ochotný oželet 3% pro pocit že nepodporuju hajzly :) nVidia si z jí platících a je chválících zákazníků dělá dobrý den. Jinak samozřejmě na trh nahlížím oběktivně a nikomu nevnucuji sdílet stejnou logiku, jako já. HD7000 rozhodně nejsou špatné karty, ale GTX680 je očividně o kousek lepší. Stále ale neumí 6 monitorů, stále nemá SSAA, stále není "DX11.1" ready, stále to není dobrá GPGPU karta...Nejvíc se ale pozastavuji již třetím rokem nad tím, jak nová nVidie deklasuje konkurenci.. 3-11% je podle mě mírný náskok, nikoliv deklasování :-)
@siddhi:
GTX680ky idu na uspornom takte 700MHz to znamena ze neboli vytazene na 100% az ked sa karta vytazi na 100% tak sa zapne Tubo Boost (ktory sa bude dat ovladat) na maximalnu hodnotu 1000MHz
takze tie vysledky su skreslene a vypovedaju len o tom ze HD7970 ma na 1300MHz prekrasny vykono tohle jsem se bavil na PC webu a mají pravdu a pořád nedokážeš pochopit že Nvidia měla 3 měsíce aby kartu udělala mnohem lepší! ale neudělala to ona 7970 pouze konkuruje ;) cenové jsou na to cca stejně ale vykonostně jinač :) (sběrnice,pamět,tatky) ;)
@PanterAMD:
s tim taktovanim GTX680 to neni tak horke jak se nam snazi OBR prezntovat. Turbo BOOST velmi podrobne probrali zde:
http://pctforum.tyden.cz/viewtopic.php?f=10&t=182084&start=0
jak vidno taktovat pres tuto utilitu bude opravdu strasne protoze v zavislosti na teplote cipu bude TURBO BOOST a tim celkove taktovaci frekvence klesat a nejde to vypnout. To uz mi pride mnohem lepsi to jak taktuji svoji HD7950 tak proste nastavim 1150/7400 a uz se o teplotu nestaram jenom si upravim management otacek v zavislosti na teplote v TRIXX utilite. Jedini komu asi tato vec nebude vadit budou lidi co daji GTX680 na vodni chlazeni ale takovych je naproste minimum....
@TOBiAS02: Ano a přesně proto, že je GTX 680 tak špatná, tak všude (i na zahraniční webech) dostává výborný ohodnocení a konkrétně na EHW dostala "We want it". Plně chápu tvoji logiku...
@honyik 933: nikde nikdo nepise ze je spatna jenom nic neresi, obe firmy maji nyni na trhu +/- stejne vykone reseni za vice mene stejne penize. To na co lide stale cekaji tj vyborna karta s cenou kolem 5tisic neni. Tj kdo si pred 2 mesicema koupil HD7970 3GB vice mene neprohloupil, totozny vykon si uzivaji uz skoro 2 mesice, Nvidia pouze dorovnala a pro AMD nebude problem vydat nejakou trosku OC edici Tahiti + vydaji HD7990 6GB a zas bude vykonostni trun na jejich strane, nvidia je proste nekolik mesicu ve skluzu a jedna karta to nezmeni.
proc resit GTX 680 ... staci si pockat na nastupce GTX 580 a potom se hadat ... vzdy se HD xx70 pomerovali s gtx x80. Ted se pomeruji 7970 a 680 protoze jsou na tom cenove stejne a nvidie ji nepojmenovala jako GTX 670 což byl původní záměr ... ale srovnavat high end od amd s mainstream od nvidie .. nevim nevim (omlouvam se vsem, ktere jsem urazil tim, ze jsem to nazval high endem :) ale 7990 uz bude dvou cip, takze se o pozici high eng jednocipovych nemuze uchazet).
Nastupce GTX 580 muze/nemusi "trhat" asfalt, zalezi jak se to nvidie povede/posere :D
Preferuji Nvidii, ale za soucasnych cen by mi bylo docela jedno zda volim 7970 nebo 680. Rad bych nadaval nvidii za nehoraznou cenu u GTX 680 (ale nejspis za to budou moct MSI, EVGA a spol, nez samotna nvidie) ale treba az uvedou oneho nastupce GTX 580 tak cena 680 pujde dolu :) Ale to jsou jen pekna prani pred spanim.
@rohan.jakub: bohuzel ceny dolu moc nepujdou, GTX780 tj alias "pravy velky" Kepler ma stat kolem 18-20tis s DPH. Mozna o trosicku mene ale nevidimto ruzove. DOba kdy highend stal pod 10tis je proste fuc, a muzem za to dekovat TMSC :)
To ja kupoval EVGA GTX 580 SOC za 10500 a uz to pro me byla hranice ... 18k za grafiku ? no opravdu asi ne :D