Všechny komentáře k článku:NVIDIA GeForce GTX 680 právě přichází na trh
Zakladní rozdíly karet
To AMD nabízelo HD 6970 o 4000 levnější než NV GTX 580! Nyní ale AMD nabízí kartu s o 1/3 více paměti a větší sběrnicí a silnějším jádrem (i s výpočetními funkcemi a výkonem tomu odpovídajícím) za stejnou cenu, co stojí 256-bit GTX 680. Co na to říci? Snad jen to, že za tyhle ceny to stejně nejsou zajímavé grafiky pro 95% uživatelů .... a o to zajímavěji vypadá skutečně mainstreamové HD 7870/7850, které ze strany NVIDIA nemají a ještě delší čas mít nebudou konkurenci , tedy pokud se nám nerozhodne někdo srazit ty ceny GTX 680 podstatně níže ....
@PanterAMD: proc by je srazeli? :D je levnejsi nez HD 7970 a i pres nizsi sbernici a pamet, je vykonejsi a uspornejsi ;]
@TehDexter: Snadné podívej se do tabulky sběrnice u 7970 384 u 680ky 256 ...Takt je vyšší ano 680 umí využít ,turbo boost´ ale i tak je slabší ;) a ta cena se moc neliší....ale výkon ano ;)Většina lidí má monitor pro maximální rozlišení 1920x1080. Tak nechápu proč všude v recenzích a nějakých testech tam cpou rozlišení tak extrémně velké která fakt málokdo využije. I když je pravda AMD se svými grafickými kartami v poslední době spoléhají jen na to že mají hlavně hodně GDDR paměti čímž vyhrávají nad Nvidií která buď neumí osadit karty a nebo je to spíše pro to že jim nezáleží na nějakých hloupých testech v extrémních rozlišeních a dělají spíše karty pro klasické dneska dá se říci standartní monitory s rozlišením max 1920x1080 Ale je také pravda že sběrnici mohli dát alespoň 384 a ne tu 256
@PanterAMD: Je vidět, jak moc tomu rozumíš...a) výrobce si velikost sběrnice nevybírá - udělá ji takovou, jaká se mu kolem čipu vejde - a víc než 256 se na tenhle malý čip nevejde. Jak jsi správně poznamenal, jedná se o střední čip, který je menší, než čip na HD7970 - proto si čip na HD7970 může dovolit 384bit sběrnici - je to velký čip a ta sběrnice se tam vejde - ono do toho čipu totiž neteče jenom sběrnice, je toho tam hodně..b) velikost sběrnice vážně není přímo úměrná výkonu, stejně tak velikost paměti. Přesná analogie je věděc, poznámkový blok a rychlost psaní. Věděc je čip, počítá rychlostí jednotky(shadery)*frekence(jádra). Píše rychlostí sběrnice*frekvence(paměti), a může napsat tolik poznámek, kolik má paměti. Ne pro každý úkon ale potřebuje tolik papíru, ne pro každý potřebuje tolik psát, jsou výpočty, kdy se dlouho počítá a má to malý výstup, případně málo poznámek, a pak takové, kdy se spíše leze pamětí a bere jedno za druhým, než počítá. Reálným příkladem je třeba tesselace, která se odehrává nad pamětí a je hodně ovlivněná paměťovou propustností, nebo processování textur, samozřejmě i vyšší rozlišení si řekne o více paměti kvůli většímu počtu hloubkových bufferů a vůbec všech informací.b2) to, že mají jádra stejné takty, nic neznamená - mají odlišnou architekturu, každý počítá po svém. Je potřeba vědět, jak rychlá je samotná jedna jednotka, pak se to násobí frekvencí a počtem, ovšem to je ideální případ - je potřeba počítat s neefektivitou rozdělování práce mezi tyto jednotky - paralelismus je složitý pro plánování. Ve výsledku pro jednu hru může být (a je) vhodnější architektura AMD, pro druhou zase nVidia..c) nVidia "vynalezla" FXAA, což je filtrovací algoritmus viz http://pctuning.tyden.cz/index.php?option=com_content&view=article&id=23494&catid=1&Itemid=57 - koukněte na FullHD verzi videa (pokud máte FullHD monitor) - skoro všude je patrný aliasing. Tenhle FX"aa" je podstatně méně náročný, než běžně používaný MSAA, přičemž proti MSAA očividně nedělá skoro nic :D Zatím se o tom nemluví, ale pokud nVidia přes ovladač automaticky veškeré AA přepíná do FX"aa", tak se tomu výkonnostnímu rozdílu ani moc nedivím - byla by to stejná situace, jako dříve se StoneGiantem a v něm tesselace neviditelným faktorem 16x, kde se Radeony propadaly, ale rozdíl v obraze mezi 8x a 16x byl naprosto nulový.. Zde je FPS vyšší a kvalita obrazu nižší - no já tedy rozhodně volím Radeon a vynucení SSAA :)d) není to karta pro FullHD? A Metro2033 jsi hrál na nejvyšší? Případně vlastně jakákoliv FPS multiplayerovka, kde "neviditených" 300FPS způsobí reálně rychlejší hraní - takoví hráči hrají na nejnižší detajly s nejvyšším FPS na GTX590, byť je to poměrně extrém. A i já si dovedu představit, že HD7970 vytížím třeba WoWkem - vynucené SSAA 8x a dvojice WoW na ploše bude i pro takovou kartu slušná rozcvička..
@TOBiAS02:
Souhlasím s tebou ale vykon paměti napřiklad u staršího modelu..5770 (GDDR5) ....
má 128Bit sběrnici...což znamená že svůj výkon nevyhodí tak ja kby měl 4800MHz frekvence paměti je krása ale s 128Bit sběrnicí to KARTA NEVYUŽIJE!
to samé platí i u Nvidie 680ky která má 256bit spěrnicic ...a opakuji
AMD mělo na trhu 7970 3 MĚSÍCE.... Nvidia měla 3 měsíce AMD ,rozdrtit vykonou GK´ ale neudělala to....jsou na tom poměrně stejně jediné co Nvidiia dokazala tak že má Turbo Boost.....
@PanterAMD:
proč tady pořád řešíš nějaké sběrnice, velikosti paměti, frekvence? Jediné co je ztěžejní je samostatný výkon.
Neřeš co bylo, řeš co je. Momentálně je prostě GTX680 lepší volbou než HD7970 a to je fakt, ať se ti to líbí nebo ne.
A prosím přestaň šířit ty tvoje fanatické názory.
@siddhi: Ještě bych nedělal ukvapené závěry. Zatím jsou recenze příliš chaotické a každá ukazuje něco jiného než aby se dalo věřit.. Podle mě část výkonu bude ukrojena přes FX"aa", byť GTX680 jako taková nevýkonnou kartou nebude..
@PanterAMD: Nevim, jestli si víc zasloužíš mínus nebo plus, sám ani nevíš, co mluvíš. Tak jasně, vždy se najde případ, kdy jakákoliv paměťová propustnost je málo, ale řekněme, že HD5770 s tím, kam je určena, je naprosto spokojena se 128 bity a 4800 Megahertzi. Vzhledem k ceně se to neoplatí řešit a hlavně - 265bit se prostě kolem toho čipu nenarve, protože je tak prťavej!! Ono to musí taky bejt nějak spojený a nemá smysl dělat čip větší kvůli sběrnici - to by se jen zvětšila plocha jádra, čili i výtěžnost na materiál, čili by stoupla pořizovací cena čipu, plus by se zvětšil počet zmetků. (byť málo), a to je lepší obětovat pár % výkonu a hodně % ceny.. HD5770 se díky tomu právem stala bestsellerem.A ano, nVidia věděla, kam jde, a stejně jako vloni se pouze snažila přinutit Keplera běhat tak, aby porazil Radeony. Tak se očividně stalo, i když aktuáně nevěřím žádné recenzi. Sám zastávám názor, že ve všem má prsty FX"aa" - pravda časem vyplave na povrch, asi si GTX600 koupí dostatek zaslepených hlupáků, kteří pa zjistí, že opět koupili zajíce v pytli (a nebo taky dokonalou kartu)..
@PanterAMD: ve vsech testech gtx 680 porazi HD 7970, nekde dokonce HD 6990, a to vse na zakladnich taktech, ktere se daji popohnat az k hranici 1300 mhz
@TehDexter:
v tomhle tě hned zarazím ;)
Porazila GTX 680 rivala Radeon HD 7970? Částečně ano, celkově ne.A řeknu na rovinu, že pokud někdo tvrdí, že je tomu za současných podmínek jinak, tak rozhodně lže. Pravdou je, že NVIDIA samozřejmě věděla, do čeho jde, Radeon HD 7970 je 3 měsíce na trhu, takže přesně věděla, kam musí vyhnat výkon a takty, aby se s ním mohla, alespoň v jeho základu, měřit.
Situaci jí komplikuje jen fakt, že GTX 680 není ta GTX 680, na kterou fandové a majitelé GTX 580 čekali. NVIDIA má k dispozici jen střední čip GK104, tedy vlastně nástupce GF104/104 na GTX 460/560 Ti. Větší čipy ale nemá a ještě dlouho nebude mít k dispozici, takže GTX 680 s GK104 je vyhnána na maximum možného, aby NVIDIA mohla, soupeří se špičkovou nabídkou konkurenční AMD.
a také si uvědom že AMD 7970 byla na trhu 3měsíce! nvidia měla 3měsíce na to aby GK připravily ayb byla lepší ale to nedokázala ;)
@PanterAMD: Testy na PCT jsou zmanipulované pohádky. Budoucí testy na DDW budou taky zmanipulované pohádky. Recenze na EHW ukázala pravdu, a sice, že HD78** nemají konkurenci a jsou po všech směrech dokonalou grafikou. Testy GPGPU ukázali šílenou slabost Keplera jako architektury. -> Z toho odvozuji, že GTX680 je někde lehce nad HD7970 plusmínus autobus a zastávka.. Troufám si ale tvrdit, že reálně je někde o 20% níže a výhodu získala díky FX"aa", jehož přínos je spíše negativní.. Nevěřim nikomu, GTX660 snad budu mít na test, porovnám ji se svou, spočtu rozdíl mezi mým a "webovým" výsledkem, ten aplikuji na GTX680 a budu mít jasno, kde je pravda.. Nevěřím nikomu. Hlavně po 3 letech podvodů a papírových trhačů asfaltu, maket, závad, žalob, atp. odmítám věřit nVidii a od této společnosti se distancuji - praktiky, které používá, odmítám akceptovat, i kdyby byla jediným výrobcem elektroniky na světě.
@TOBiAS02:
Nikdo ti nebrání projít si testy i na zahraničních webech. Ve všech je GTX680 o krapet výkonnější než HD7970. Záleží na výběru her, v průměru vychází GTX680 o 3-11% výkonněji.
Testy GPGPU nemusí nikoho zajímat, je to herní karta (a kolik lidí to GPGPU využije? 1%?, 0,5? zájemců o tuto kartu?
Jinak pokud teda máte takovou žášť vůči jedné společnosti a raději si kvůli tomu koupíte horší výrobek od té "lepší" společnosti tak hold je to každého volba.
@siddhi: Samozřejmě recenze študuji, ale zatím se dost liší. Někde ohodnotí GTX680 jako neporazitelnou, někde jako 5% nad HD7970.. Já chci hlavně vědět, jak je to s tím nVidiáckým novým antialiasingem, který v praxi dělá prd.GPGPU není zásadní, ale dokazuje to reorientaci nVidie zpět od velkých monolitických jader k menším, efektivnějším pro hry. Jak ale vidíme, GCN a i její předchůdci byli dobří jak ve hrách, tak v GPGPU, což svědčí o lepším celkovém návrhu čipu.Navíc GPGPU je docela velký trh - akcelerace CAD, animací, modelování, simulací - na to se dají použít mraky grafických karet, kde výkon jedné se rovná stovkám procesorů. A samozřejmě zde vítězí ta lepší karta. A už existuje i několik superpočítačů z GPU, ale i grafici a animátoři rádi koupí GPGPU schopnou kartu. Rozhodně jich je víc, než kolik koupí extrémní dvoučipovku na přetaktovávání a hraní, byť třeba kupují mainstreamovější verze. Ale tady jde o architekturu, kterou bude mít očividně i mainstream.. Takže zas tak bych GPGPU neodstrkoval ke kraji.Řekněme, že jsem ochotný oželet 3% pro pocit že nepodporuju hajzly :) nVidia si z jí platících a je chválících zákazníků dělá dobrý den. Jinak samozřejmě na trh nahlížím oběktivně a nikomu nevnucuji sdílet stejnou logiku, jako já. HD7000 rozhodně nejsou špatné karty, ale GTX680 je očividně o kousek lepší. Stále ale neumí 6 monitorů, stále nemá SSAA, stále není "DX11.1" ready, stále to není dobrá GPGPU karta...Nejvíc se ale pozastavuji již třetím rokem nad tím, jak nová nVidie deklasuje konkurenci.. 3-11% je podle mě mírný náskok, nikoliv deklasování :-)
@siddhi:
GTX680ky idu na uspornom takte 700MHz to znamena ze neboli vytazene na 100% az ked sa karta vytazi na 100% tak sa zapne Tubo Boost (ktory sa bude dat ovladat) na maximalnu hodnotu 1000MHz
takze tie vysledky su skreslene a vypovedaju len o tom ze HD7970 ma na 1300MHz prekrasny vykono tohle jsem se bavil na PC webu a mají pravdu a pořád nedokážeš pochopit že Nvidia měla 3 měsíce aby kartu udělala mnohem lepší! ale neudělala to ona 7970 pouze konkuruje ;) cenové jsou na to cca stejně ale vykonostně jinač :) (sběrnice,pamět,tatky) ;)
@PanterAMD:
s tim taktovanim GTX680 to neni tak horke jak se nam snazi OBR prezntovat. Turbo BOOST velmi podrobne probrali zde:
http://pctforum.tyden.cz/viewtopic.php?f=10&t=182084&start=0
jak vidno taktovat pres tuto utilitu bude opravdu strasne protoze v zavislosti na teplote cipu bude TURBO BOOST a tim celkove taktovaci frekvence klesat a nejde to vypnout. To uz mi pride mnohem lepsi to jak taktuji svoji HD7950 tak proste nastavim 1150/7400 a uz se o teplotu nestaram jenom si upravim management otacek v zavislosti na teplote v TRIXX utilite. Jedini komu asi tato vec nebude vadit budou lidi co daji GTX680 na vodni chlazeni ale takovych je naproste minimum....
@TOBiAS02: Ano a přesně proto, že je GTX 680 tak špatná, tak všude (i na zahraniční webech) dostává výborný ohodnocení a konkrétně na EHW dostala "We want it". Plně chápu tvoji logiku...
@honyik 933: nikde nikdo nepise ze je spatna jenom nic neresi, obe firmy maji nyni na trhu +/- stejne vykone reseni za vice mene stejne penize. To na co lide stale cekaji tj vyborna karta s cenou kolem 5tisic neni. Tj kdo si pred 2 mesicema koupil HD7970 3GB vice mene neprohloupil, totozny vykon si uzivaji uz skoro 2 mesice, Nvidia pouze dorovnala a pro AMD nebude problem vydat nejakou trosku OC edici Tahiti + vydaji HD7990 6GB a zas bude vykonostni trun na jejich strane, nvidia je proste nekolik mesicu ve skluzu a jedna karta to nezmeni.
@PanterAMD:
proc resit GTX 680 ... staci si pockat na nastupce GTX 580 a potom se hadat ... vzdy se HD xx70 pomerovali s gtx x80. Ted se pomeruji 7970 a 680 protoze jsou na tom cenove stejne a nvidie ji nepojmenovala jako GTX 670 což byl původní záměr ... ale srovnavat high end od amd s mainstream od nvidie .. nevim nevim (omlouvam se vsem, ktere jsem urazil tim, ze jsem to nazval high endem :) ale 7990 uz bude dvou cip, takze se o pozici high eng jednocipovych nemuze uchazet).
Nastupce GTX 580 muze/nemusi "trhat" asfalt, zalezi jak se to nvidie povede/posere :D
Preferuji Nvidii, ale za soucasnych cen by mi bylo docela jedno zda volim 7970 nebo 680. Rad bych nadaval nvidii za nehoraznou cenu u GTX 680 (ale nejspis za to budou moct MSI, EVGA a spol, nez samotna nvidie) ale treba az uvedou oneho nastupce GTX 580 tak cena 680 pujde dolu :) Ale to jsou jen pekna prani pred spanim.
@rohan.jakub: bohuzel ceny dolu moc nepujdou, GTX780 tj alias "pravy velky" Kepler ma stat kolem 18-20tis s DPH. Mozna o trosicku mene ale nevidimto ruzove. DOba kdy highend stal pod 10tis je proste fuc, a muzem za to dekovat TMSC :)
@PanterAMD: To ja kupoval EVGA GTX 580 SOC za 10500 a uz to pro me byla hranice ... 18k za grafiku ? no opravdu asi ne :D
Cenová ždímačka GTX 680
Tak je to pěkná karta, ale ty dnešní ceny (v obou táborech), to je hnus velebnosti. A v případě GTX 680 je to hnus všech hnusů. Tahle karta měla být původně GTX 660kou, nebo 670kou, ale protože se výkonově pěkně vybarvila, nVidia z ní udělala GTX 680. Výrobní náklady tuhle kartu směřují mnohem níž, ale v nVidii se rozhodli vydělat. A tak, každý kdo si tuto kartu koupí, může si pogratulovat, jak se nechal od nVidie parádně vyždímat.
@PanterAMD: no AMD 7970 rozhodně výkonostně nevede.. a to má GTX 680 o dost nišší spotřebu v zátěži...
@kabii: Potvrzuji, dle měření na PCT je GTX680 oproti HD7970 výkonnější o 11% v D11 a o 9% v D9. Navíc má GTX680 menší spotřebu a je i o trochu levnější.
@LQA:
Tak AMD nastavilo zakladni takty u HD7950 ci u HD7970 zbytecne nizko asi prave z duvodu ze nevedeli co od konkurence ocekavat.dale bych to srhnul takto:
1) tahity je univerzalni cip ktery je jak do herniho segmentu tak do profi segmentu kde podava vyborne vysledky. Proto je ten cip jeste o neco vetsi nez by musel byt.
Nvidia v soucasne generaci razi odlisnou cestu tj vyrobi dve ruzne architektury jednu ciste pro herni segment s velmi malym vykonem pro profi segment coz je prave GTX680 kterou hrave v profi segmentu porazi dle testu jak HD7870 tak i GTX580. Proto taky muze cip pracovat na relativne vysokych taktech. Ten pravy profi cip bude az opravdovy "kepler" s 500+mm ktery vyjde pozdeji, zatim to proste nejde vyrobit na stavajicim stavu 28nm. Co je finance a casove vyhodnejsi strategie uvidime casem..2) GTX680 vice mene neresi nic, prinasi +/- stejny vykon co konkurence za podobnou pro 99% populace stale neprijatelnou cenu, takze vetsina lidi stale ceka na nakeho toho cena/vykon killer cip s cenou kolem 5tisic s DPH. AMD muze stale HD7970 popohnat a vykon dorovnat vsak ten cip v soucasnem stavu bezi na velmi konzervativnich taktech kde neni problem je o 20-30% popohnat a to stale existuje varianta ze Tahiti je vlastne castecne uzamceny a jeste mozna vyjde 2300sp plne aktvni cip jak uniklo ze slajdu Sapphire uz pred par mesici (je mozne ze si AMD schovava tento cip v rukavu pave pro tento pripad).
3) Do 3 tydnu ma vyjit HD7990 6GB tj zas bude vykonostni trun na strane AMD a muzem se zacit pretahovat nanovo :).
4) kdo doufa ze ceny klesnou doufa asi marne, vyrobni 28nm proces je vice mene skoro 2x nakladnejsi nez vyrobit stejne velky 40nm cip + pameti od zacatku roku dost podrazily a nynejsi grafiky pouzivaji ty nejlepsi pameti co jsou momenatlne na trhu + 2-3GB je 2x vetsi cislo nez pouzivala predchozi generace karet + mely drive karty nepouzivaly ty nejlepúsi pameti ale spise ty levnejsi pomalejsi s max takty kolem 5ghz.
5) Vetsinu vyrobnich kapacit u TMSC ma zamluveny APPLE a neni tajemstvim ze jedna o zvetseni techto kapacit protoze ty aktualni mu nestacej sve produkty prodava po milionech a ma velky kapital na to aby si toto u TMSC prosadily, coz AMD ani Nvidia nabdnout nemuzou jsou to mnohem mensi firmy s mnohem mensim kapitalem.DOporucuji tento test kde se nebali otestovat vsechny rozliseni + se vsemi nastavenimi MSAA. Kde je pekne videt ze i konzervativne taktovany Tahity v nejvyzsim moznem nastaveni stale neni porazen. V nekterych hrach v 2560x1600 8xMSAA straci GTX680 celkem dost, nehlede na to ze AMD stale ladi sve ovladace pro zcela novou architekturu kdezto Nvidia jenom mirne upravila FERMI + odstranila hotclok tot vse tj tam uz drivery moc vykonu neprinesou, vsak AMD dle testu od uvednei cipu tahity zvysila prumerny vykon jenom ovladaci o slusnych 15% a to tu ten cip mame pouhe 3 mesice, tj potencial do budoucna tam urcite jeste je..
http://pc.zoznam.sk/nvidia-geforce-gtx-680-sanka-dolu-pan-kepler?page=11
@stratos.:
Stratos to řekl velice pěkně a nezaujatě a já se pod to okamžitě podepisuji.
Nemá smysl hádat se, kdo udělal lepší bábovku. GCN architektura je velice povedená a Kepler konečně taktéž. Jenže Kepler udělal, co musell - vyhrabal v šuplíku výkon nad něčím, co vidě, a mě na to 3 měsíce trénování. A Radeony mají takty vážně uboze nízko. Ten výkon tam taky je, a kdyby takty byly, jaké mají být, měl by Kepler asi hodně makací 3 měsíce..Druhý bod je spotřeba - tady jsou na tom Radeony skvěle, ovšem Kepler je na tom očividně o kus lépe. Rozdíl je pravděpodobně dán tou "GPGPU" částí Radeonů, která snižuje jejich efektivitu, ale zvyšuje univerzalitu. Ale hádat se o watty nemělo nikdy smysl - pokud je to uchladitelná spotřeba (90% spotřeby se vyzáří v teplo), tak je to vcelku putna, ale Fermi lítalo přes 300W a to už bylo pěkný topení.
Svět hardware
koukám že AMD web svethardware.cz nemá recenzi
@stratos.: Světhardware ukázal opět svoji nestranost, když není schopen, nebo spíš ochoten otestovat novou GTX 680 :).
@holcat: ta svet HW v posledni dobe uz moc grafiky nestetuje obecne tento web uz nasvtevuji dost malo, uz to neni to co to byvalo pride mi ze tam umrel pes.
@stratos.: No na test nového Radeonu si čas našly a na novou GTX 680 ne, ale co čekat od odnože Stachovců a experta pana Štefka (jehož argumenty pro test nového radeonu a cca 1 rok staré karty GTX 580 mě osobně skoro přivodily rakovinu :)) Ale je to pochopitelné GTX 680: je výkonější + méně žravá + tižší než jím milovaný Radeon tak na co test?
@holcat: Jj, holt si asi NVIDIA nezaplatila recenzi, nebo má SHW ve smlouvě s AMD, že nebude recenzovat produkty přímo konkurující daným produktům AMD. SHW bývalo kdysi fajn, ale spadlo na úroveň Živě.cz a podobným žvástům, ze kterým přímo čpí, že mají "sponzorované" recenze.
@dohnalek.pavel: spise jim nvidia nezapujcila kartu na test a jelikoz karty obecne spise nejsou nez jsou cekalji mozna na nejakej slibenej kousek z nejakeho eshopu. Ono vice mene v tom nejaky negativum nevidim recenzi na tuhle artu uz je na svete tolik ze si kazdy muze nejakou najit...
@jack2310: A hned tak mít nebude,protože je to AMD pozitivní web. Opravdu mě dojalo, když nejmenovaný redaktor opravdu fundovaně testoval nový radeon a GTX 580 a plakal blahem, že je radeon o cca 15% výkonější než v té době cca 1 rok stará karta.Po mém upozornění na tento fakt jsem byl málem označen za lháře a fanatika do Nvidie.Po mém tvrzení, že nová karta od Nvidie tento výkonostní propad v pohodě překoná jsem byl zase skoro blázen.Jinak jsem zvědav jak AMD odpoví, jestli je opravdu GTX 680 střední třída tak má AMD opravdu problém. Doufám, že se nebude opakovat situace jako s GTX 580 v době vydání, kdy AMD nemělo nic jako odpověď tak rychle přispěchali naše nezávislé weby a proti GTX 580 postavily RADEON 6970 a 6990 a v případě 6990 propukl jásot z důvodu vyššího výkonu, že je to dvoučipovka a GTX 580 jednočip to asi odborníkům jako je ELEKTRONICKÁSTACHZHOUBA a dalším bylo ůplně jedno.
@holcat: Tak já doufám, že se v dnešní době už nenajde nikdo natolik naivní, aby SvětHW považoval za seriózní web...
@holcat: A od kdy záleží na počtu jader? Jaký to má vliv na výkon? Je to jako řikat že 4tyřválcový a dvouválcový motor je něco uplně jiného. Není, jen každé má své výhody a nevýhody.. U dvoučipu je to hlavně synchronizace, ale ta, jak vidíme, funguje od HD5000 na výbornou, narozdíl od SLI.. Výhodou pak je výroba - dvě poloviční jádra se vyrobí MNOHEM snadněji a levněji, než jedno dvakrát větší.. Ve výsledku tedy taktika 2čipovek je cenově méně nákladná, resp. s větší výtěžností a výkon má téměř totožný... A tebe by z žádného důvodu nemělo zajímat, jak je to poskládáno uvnitř, podstatné je, co to dovede.. A výkon to dovede... Takže říkat, že HD6990 je dvoučipovka a tudíž nemůže být nejvýkonnější jednočipovou kartou, je hovadina.. je to jen hledání hloupých argumentů..
@TOBiAS02: az narazime na moznosti kremiku budou vicejadrove grafiky zcela normalni je to proste budoucnost ktera nas nemine.. To ze nektery vyrobce ladi tuto technologii uz ted bude pro ne v budoucnu jenom vyhoda..
@stratos.: zřejmě si pleteš slova jako je limit a možnost,navíc až se u procesorů narazí na limitaci křemíku,tak tu bude Grafen(či materiálově podobná varianta)
@jack2310: grafen je stale hudba budoucnosti nez se na to postavej tovarny apod.. Vsak u procesoru taky byla idea ze vice jader je k nicemu a podivej se dneska...
@TOBiAS02:
Bavím se čím dál víc. Asi někdo zapomněl jaké měl problémy Radeon 6990 se svými dvěma fyzickými čipy a jejich spojeným výkonem kdy při několika hrách jel jen jeden čip a vykon byl dokonce pod GTX 580.
Jinak za názorem, že dvojčipové karty by měly být testovány jen mezi sebou si stojím.
6990 má dva FYZICKÉ čipy a GTX jen JEDEN jestli to někdo nechápe není můj problém.
@holcat: HD6990 fungovala vice mene skoro vsude kde byl vykon potreba, to ze CROSS nefungoval v par starsich hrach kde bohate stacilo jedno jadro povazuji za nepodstatne.. Uzivatele nezajima kolik ma grafika cipu ale jaky ma vykon.
@holcat:
Prakticky mi ale z toho plyne, že by měly být i tak testovány CPU. Sice tam jsou jádra v jednom pouzdře a mají jednu společnou úroveň vyrovnávací paměti(dříve to ale byly čisté slepence), ale jinak podobný princip. To by to vypadalo - testy by se dělily do kategorií dvoujádra, čtyřjádra, čtyřjádra s HT, čtyřjádra s hardwarovým HT ala Bulldozer, atd.
Mě jako uživatele zajímá výkon grafické karty, takže pokud mi dvoučipovka nabídne v daný cenový relaci ve hrách, které hraji, výkon třeba o 50% vyšší než jednočipovka od konkurence a v budoucnu mi u některých nových her nebude vadit čekat nějakou dobu na ovladače pro Crossfire/SLI, tak jí definitivně zahrnu do užšího výběru, kde pak bude rozhodovat v kolika hrách procentuálně pojede daná dvoučipovka na půl.
@holcat:
Tak GTX580 taky měla hry, které jí vyloženě nesedly, alespoň zprvu... Vše je tu jen o ovladačích. Pokud ovladače fungují, tak jsme mohli vidět, že CrossFire škáloval na 90-99%.
A ovladače jsou jen otázkou času.. Jedno a vícečipové grafiky by si měly být naprosto rovnocenné..U procesorů je to horší, tam ten paralelismus nefunguje tak geniálně, jako u grafik. Dvoujádra ale nemá smysl řešit od doby, co čtyřjádra, počínaje Athlonem 635, skočily pod 2 000. Tam není třeba řešit primárně výkon.
GTX680 nefunguje v PCI-E 3.0 rezimu
@stratos.: Kdo neumi anglicky tak pro nej reknu, ze funguje, ale jen u desek co maji nativ GEN 3 chipset. U desek co maji nativ gen 2 ale umoznuji aby gen 2 pracoval na vyssich rychlostech, tak tam v rezimu PCI-E 3.0 zatim nejde. Nvidie otestuje jak to na tech gen 2 s vyssi ryclhosti pujde a pak mozna u nich dovoli PCI-E 3.0.Trochu zavadejici nazev topicu stratosi :D
@rohan.jakub:
Zavádějící no ovšem a koho to u pana Stratose asi může tak ještě překvapit?
TO je totiž PR manager by AMD. Bohužel spíš vyvolává odpor k této značce.