Ga naar inhoud

GeForce FX 5900 Ultra 256mb vs. Radeon 9800 PRO 256mb


Aanbevolen berichten

Grown-ups :roll: :-) Anyway, ik weet dat deze topic bestemd is voor de discussie ATI 9800PRO of Geforce FX 5900 Ultra en dat iedereen zit te speculeren wat ATI zal doen als antwoord, maar ik ben veel nieuwsgieriger naar de S3 Deltachrome(s); die vergeet iedereen toch maar eventjes...? Ik bedoel, straks blijk(en)t deze zo goed, dat-ie beide kaarten zo maar onderuit haalt...
Link naar reactie
  • Reacties 88
  • Aangemaakt
  • Laatste reactie

Beste reacties in dit topic

Hmm...'t lijkt erop dat mijn stem op de 5900 met misplaatst vertrouwen werd gemaakt: [url=http://www.extremetech.com/article2/0,3973,1086857,00.asp]Driver Irregularities May Inflate nVidia Benchmarks @ Extremetech[/url]! :-? 't Komt er op neer dat Nvidia bij 3dmark2003 van de standaard "camera rail" uitgaat en alles wat niet binnen de camere view valt op verschillende manieren verwaarloosd i.p.v. gebruik te maken van "real-life" early Z-tests, occlusion culling e.d. Ik wist dat (door beide partijen waarschijnlijk) geknoeid wordt met de bekenste engines/bechmarks om optimale resultaten te krijgen maar dergelijke zaken vallen bij mij gewoon onder het kopje "cheating" ... :evil: Mijn mening dat ATi wel iets meer mocht doen dan alleen maar 128 nutteloze Mb's bijprikken op de R9800 blijft trouwens wel staan en zolang dat driver"probleem" en de IQ van Nvidia niet opgelost is zou ik graag mijn stem willen terugtrekken... :cry:
Link naar reactie
Is om deze reden je keuze voor de GeForce FX 5900 misplaatst? je hebt toch niet die keuze gemaakt voor die kaart gebaseert op de 3dmark 03 scores? het is overigens nog helemaal niet zeker: [quote:22ac27fec5]Our own interpretation of these test results is that nVidia is improperly cutting corners to attempt to inflate its 3DMark2003 scores for the new GeForceFX 5900 Ultra. [b:22ac27fec5]The company, on the other hand, again believes that the problems can be attributed to a driver bug.[/b:22ac27fec5] Let's explore exactly what we found, and you can draw your own conclusions[/quote:22ac27fec5] Als dit verder in andere bechmarks en games niet gebeurd is er niets aan de hand. de GeForce FX 5900 ultra is in bijna alle bechmarks met AF8x en AA4x op een hoge resolutie sneller. 3dmark 03 is verder ook niet echt boeiend qua benchmark. vergeet niet het dat ATI lid is van Futurmark en nVidia niet. ATI heeft echt wel hun drivers geoptimaliseerd voor 3dmark '03 alleen dan op een andere manier. neem alleen al het Pixelshader 1.4 verhaal. //Hu'uruun Die S3 mag wel snel komen dan. Ik denk dat ze een leuke kaart gaan maken maar dat ze niet tegen de R350/360 of NV35 kunnen opboxen.
Link naar reactie
[quote:e91f74f6d1="Red Dragon"]Is om deze reden je keuze voor de GeForce FX 5900 misplaatst? je hebt toch niet die keuze gemaakt voor die kaart gebaseert op de 3dmark 03 scores? [/quote:e91f74f6d1] Nee, het gaat mij om het vertrouwen...zoals ik al zei, natuurlijk proberen ATi en Nvidia even hard om de beste scores neer te zetten in benchmarks maar dat neemt niet weg dat een dergelijk duidelijke vorm van "valsspelen" mijn vertrouwen in Nvidia doet dalen en ik eerst wil weten hoe het zit met deze "driver bug" (yeah right, deze methode van cheaten in "fixed camera" benchmark cheaten is al langer bekend en had [i:e91f74f6d1]ik[/i:e91f74f6d1] zelfs nog kunnen verzinnen 8) ) voordat ik mijn keuze opnieuw wil maken...ook wil ik nog wat meer weten over wat er nu met die Image Quality van de 5900 aan de hand is...Al met al zou ik het jammer vinden als zo'n mooie kaart als de 5900 deze bugs/tweaks/cheats "nodig" zou moeten hebben om te "winnen"... [quote:e91f74f6d1="Red Dragon"] 1. vergeet niet het dat ATI lid is van Futurmark en nVidia niet. 2. ATI heeft echt wel hun drivers geoptimaliseerd voor 3dmark '03 alleen dan op een andere manier. 3. neem alleen al het Pixelshader 1.4 verhaal. [/quote:e91f74f6d1] @1. Nvidia heeft bijna de hele ontwikkelingsfase van 3dmark2k3 meegedaan en pas op het laatst zich "teruggetrokken" :roll: @2. "andere manier" is voor mij een [i:e91f74f6d1]eerlijke[/i:e91f74f6d1] manier tot het tegendeel bewezen is zoals door Extremetech nu... @3. Dan had Nvidia maar niet zo stom moeten zijn om de (erg elegante) pixelshader 1.4 niet te implementeren in hun GF4, ATi's antwoord op de GF3 (de 8500) had deze ondersteuning zelfs al!
Link naar reactie
[quote:5b5dcb041a="Baxcorp"] @1. Nvidia heeft bijna de hele ontwikkelingsfase van 3dmark2k3 meegedaan en pas op het laatst zich "teruggetrokken" :roll: @2. "andere manier" is voor mij een [i:5b5dcb041a]eerlijke[/i:5b5dcb041a] manier tot het tegendeel bewezen is zoals door Extremetech nu... @3. Dan had Nvidia maar niet zo stom moeten zijn om de (erg elegante) pixelshader 1.4 niet te implementeren in hun GF4, ATi's antwoord op de GF3 (de 8500) had deze ondersteuning zelfs al![/quote:5b5dcb041a] Helemaal mee eens. nVidia draait ons nu een flinke loer, ja ja drivers bugs :lol: zou ik ook zeggen. (trouwens ati zal ook niet heilig zijn)
Link naar reactie
Het hele Pixel shader 1.4 verhaal is natuurlijk een andere discussie. het mag dan wel elegant wezen het word IRL nauwelijks tot helemaal neit gebruikt. dat het in 3dmark2003 word gebruikt komt volgens mij door ATI. Ik zelf ben van mening dat zowel ATI als nVidia schuldig zijn aan driver " cheats" en andere rottigheden. nVidia is niet rotter dan ATI. beiden halen smerigheden uit. Als het alleen maar met 3dmark2003 zo is vind ik het zo erg nog niet. Het is niets nieuws onder de zon. wie kende de ATI Quake III cheat verhalen niet en hoeveel heeft nVidia en ATI wel niet gesjoemeld met 3dmark2001se. bepaalde compresie logoritmes aangepast waardoor het beeld minder goed werd maar de score hoger. Ik ben dan ook niet partijdig. Ik wil gewoon de beste kaart. of dat nou ATI, nVidia, sis, matrox, S3 of wie dan ook maar is. wat IQ van de GeForce FX 5900 betreft. ATI IQ met AF valt met schuine vlakken tegen, zoals eerder vermeld. nVidia IQ met AA valt weer tegen, AA2x van ATI is misschien nog wel mooier dan de AA4x van de GFfx95u Het is maar wat je belangrijker vind. AA of AF. Ik vind AF belangrijker.
Link naar reactie
Eén keer raden waarom PS1.4 niet wordt gebruikt door game developers: omdat Nvidia het niet ondersteund, en zo is de cirkel weer rond... Ik vind dat Nvidia t.a.v. Futuremark erg kinderachtig is geweest: schelden op Futuremark dat het een "waardeloze" test is, schelden op review site's dat ze op een "slechte" manier de image quality van de 5800 testen, het niet renderen van o.a. rookeffecten met een bepaalde Detonator die "zomaar" de GF4 een betere score liet neerzetten en nu dit weer... :-? NOFI maar dat je met dat "quack" verhaal van meer dan 2 jaar terug aan komt zetten vind ik wel een beetje flauw, niets is zo veranderlijk als de videokaartwereld...straks vertel je me bij een evt. volgende slechte driverrelease van ATi dat ze "altijd al veel slechtere driverondersteuning hadden dan Nvidia" :roll: ...je lijkt m'n ex-vriendin wel... 8) AA en AF zijn voor mij trouwens even belangrijk en erg afhankelijk van welk spel...ik vind beide problemen (kartelranden, diepteblur) die ze oplossen erg hinderlijk...
Link naar reactie
Ik kom met het voorbeeld van 2 jaar terug niet om flauw te doen maar puur om een voorbeeld te geven dat ATI ook niet altijd braaf is geweest. Ik keur het gedrag van nVidia helemaal niet goed, ik geef alleen aan dat zij niet de enigen zijn. Het gekloot met drivers (om het zo maar even te noemen) van nVidia de laatste tijd is niet goed te praten. Ik word liever niet met je Ex vergeleken :x (ook al ken ik haar niet) Wat AA en AF betreft. de diepte Blur is het meest storend als je rond rend in een shooter. je ziet dan heel erg opvallend een soort van lijn vooruit schuiven. dit valt IMHO meer op dan de kartel randjes. Ik speel overigens zelf altijd op AA4x AF8x. de kartel randjes weg is altijd beter natuurlijk :) Ik wil wel eens een GeForce FX 5900 Ultra op 1280x1024 AA4x en AF8x zien en daarna een Radeon 9800 PRO 256mb met deze settings. het mooist is natuurlijk naast elkaar op indentieke schermen. Ik hoop dat ik dat bij Slashhead thuis kan gaan zien over een maand of zo. echter heeft hij geen indentieke schermen. dus het word dan na elkaar.
Link naar reactie
Mij een beetje nuanceren is in dit soort discussies altijd wel goed, ik probeer het meestal zelf ook te doen maar ik blijf toch een beetje fanATic...maar in deze poll heb ik zelfs op Nvidia gestemd en kijk nou wat die bastards mij allemaal wijsmaken!!! *grin [quote:49da1a1576="Red Dragon"] Ik word liever niet met je ex vergeleken (ook al ken ik haar niet) [/quote:49da1a1576] *LOL ik refereer alleen maar aan het olifantengeheugen van de meeste vrouwen als gaat het om in hun ogen "lelijke" dingen die je "ooit" gedaan hebt en die allemaal weer boven komen bij een recent "probleem"... 8) Ik denk dat het erg moeilijk is om verschil te zien met die instellingen die jij noemt, tenzij je een stillshot neemt en dan gaat speuren naar verschillen...misschien wel die lijn die opschuift in de verte, maar bij 8x quality? Ik hoor het resultaat graag van jou en Slashead. 8)
Link naar reactie
Ik ben op dit moment ook een razend ethousiaste ATI radeon 9700 gebruiker maar heb ook voor de GeForce FX 5900 gestemd. Ik blijf daar ook nog bij. ondangs het gesjoemel van nVidia in 3dmark '03. Dit omdat mij de score van 3dmark '03 niet echt ittereseert voor het vormen van mijn mening over de kaart. Ik vond de keuze tussen ATI en nVidia met deze 2 top kaarten heel erg moeilijk. kleine dingen (zoals het gesjoemel waar we het over hebben) kunnen makelijk je mening verschuiven naar de andere kant. Ik blijf er echter bij dat nVidia een goede "come back" (om het zo maar te noemen) heeft gemaakt met de NV35. hij heeft al het goede van de NV30 en meer en al het slechte van de NV30 heeft hij laten vallen. Zoals ik al eerder vermelde zit ik meer te wachten op het Antwoord van ATI of op een wonder van S3 of zo. Ik wacht met mijn volgende aankoop tot het najaar. wat het testen bij Slashhead betreft: Ik woon 40km van hem vandaan, dus als hij een seintje geeft dat hij ze binnen heeft ga ik graag kijken of we verschil kunnen zien. uiteraard post ik mijn bevindingen hier. (net als toen hij de Radeon 9800 pro en de GeForce FX 5800 Ultra thuis had). Ik denk zelf dat je met bewegend beeld veel moelijker verschil tussen de 2 ziet dan met screenshots. dat is IMHO ook het probleem met de reviews van tegenwoordig, je ziet alleen screenshots en geen filmpjes.
Link naar reactie
Niet alleen nVidia misbruikt 3DMark voor het manipuleren van de scores. Een even zo grote boosdoener is SIS met hun Xabre processors. Ook zal ATI het niet nalaten om daar waar mogelijk te "optimaliseren". Wat mij het meeste zorgen baart is dat op deze manier 3DMark ten ondergaat als benchmark. De grens tussen cheaten en optimaliseren is heel vaag. Wanneer je nVidia of ATI zou betrappen op wat jij cheaten vindt kan men dat makkelijk goed praten door te zeggen dat het om optimalisering gaat van de drivers. Men wil nu eenmaal de beste prestaties en dat is niet per definitie cheaten... Gelukkig bestaan er meer benchmarks en hoop ik dat het binnenkort mogelijk is om bij nieuwe spellen zelf een demo op te nemen en die vervolgens als timedemo toe te passen. Dit kan al in UT2003, moet alleen nog uitzoeken hoe dat dan precies gaat. 8) (was iets met renamen ofzo) Maar met [url=http://www.hardocp.com/article.html?art=NDQy]deze tool[/url] kun je UT2003 heel goed testen en heb je heel veel levels. Lijkt me sterk dat ze daarin kunnen cheaten, of optimaliseren :wink:
Link naar reactie
Ze kunnen natuurlijk altijd nog hun drivers optimaliseren voor geheel UT2003 (of een andere populaire benchmark game ) maar ja dat is weer geen cheaten (als het niet tenkoste van de IQ) dat is alleen maar een goede zaak. ps. Slashhead. Geef even een seintje als je een GeForce FX 5900 Ultra binnen hebt. het liefst een van Leadtek 8)
Link naar reactie
[quote:232ef921da="Slashead"] 1. Gelukkig bestaan er meer benchmarks en hoop ik dat het binnenkort mogelijk is om bij nieuwe spellen zelf een demo op te nemen en die vervolgens als timedemo toe te passen. [/quote:232ef921da] Zelf timedemo's maken van spellen en dan daarmee benchen is volgens mij dan ook de enige juiste methode om te kunnen vergelijken (igg voor de betreffende spellen; extrapoleren naar overall performance blijft natuurlijk dan nog steeds speculatie). Grote review sites zouden ook eigenlijk elke keer weer andere timedemo's moeten maken maar ik denk dat het al een stuk moeilijker wordt voor ATi/Nvidia om te "optimaliseren" voor X spellen/benchmarks door Y gerenommeerde reviewsites i.p.v. voor een beperkt aantal "standaarbenchmarks" zoals "Sheer force of numbers" dus want zoals ook in het artikel van Extremetech wordt gezegd: Je kunt voor bijv. 3dmark2k3 wel steeds betere "cheat-bescherming" inbouwen maar het zal toch wel weer gekraakt worden (niet dat je 't de krakers makkelijk moet maken 8) maar toch).
Link naar reactie
[quote:3563e0f5a8="Red Dragon"]Ze kunnen natuurlijk altijd nog hun drivers optimaliseren voor geheel UT2003 (of een andere populaire benchmark game ) maar ja dat is weer geen cheaten (als het niet tenkoste van de IQ) dat is alleen maar een goede zaak. [/quote:3563e0f5a8] Als je nu bv die release notes van die catalyst 3.4 leest, kom je ook bijna alleen maar de benchmark games\utils tegen :( [quote:3563e0f5a8]3DMark03 scores are improved as much as 8% across our entire DirectX 9 (dx9) product line The difficult Mother Nature (dx9) test now runs as much as 20% faster than previous drivers Anti-aliasing performance in 3DMark03 are improved as much as 15% Anisotropic Filtering scores for 3DMark03 are up moderately for the RADEON™ 9500 PRO and the RADEON™ 9600 PRO (3-7%), while the RADEON™ 9700 PRO gains a stunning 32% improvement running 8xAF at high resolution ChameleonMark framerates are up as much as 80% on the RADEON™ 9700 PRO CodeCreatures runs as much as 7% faster in 4xAA and 10% faster with Anisotropic Filtering Anti-Aliasing performance for D3D games such as UT2003 has improved as much as 18%. With Anisotropic Filtering enabled, UT runs as much as 13% faster Anti-Aliasing performance for Quake Engine games is improved by approximately 5%. Serious Sam shows a 14% improvement on the RADEON™ 9700 PRO and a remarkable 53% performance gain on the RADEON™ 9600 PRO. Anisotropic Filtering performance for OpenGL games is also improved. The RADEON™ 9700 PRO gains 10% in Quake III. Jedi Knight II runs 11% faster on the RADEON™ 9600 PRO. Serious Sam framerates are up as much as 30% on the RADEON™ 9600 PRO[/quote:3563e0f5a8] Maar ja, andere andere kant zijn het ook veel gespeelde spellen, heeft het ook voordelen voor de consument.
Link naar reactie
[quote:d2f124e442]ps. Slashhead. Geef even een seintje als je een GeForce FX 5900 Ultra binnen hebt. het liefst een van Leadtek [/quote:d2f124e442] Hmmm wanneer is de kaart ECHT leverbaar? ik wil hem dolgraag kopen en met een 350watts voeding moet het wel kunnen neem ik aan?! wordt de prijs van de Ultra echt rond de 499 pleuro? of sneaky meer??
Link naar reactie
[quote:96f36b0557="Hu'uruun"]Grown-ups :roll: :-) Anyway, ik weet dat deze topic bestemd is voor de discussie ATI 9800PRO of Geforce FX 5900 Ultra en dat iedereen zit te speculeren wat ATI zal doen als antwoord, maar ik ben veel nieuwsgieriger naar de S3 Deltachrome(s); die vergeet iedereen toch maar eventjes...? Ik bedoel, straks blijk(en)t deze zo goed, dat-ie beide kaarten zo maar onderuit haalt...[/quote:96f36b0557] ik ben het helemaal met je eens straks. als binnenkort blijkt dat s3 opeens met een superkaart komt die ati en nvidia onderuit schopt. dan wil ik dat wel eens zien.
Link naar reactie
Hoi hoi! Iemand is het eens een keer met me eens :-D. Anyway, ik vind het jammer dat S3 zich richt op de Mid/low end markt, eindelijk een serieuze concurrent en dan krijg je dat! Ik kan nu effe niet op de site komen (op dat deel waar ik wil komen), maar ik meende dat ze anders een low end/mid end en een high end kaart in ontwikkeling hadden? Trouwens, Sis met z'n XabreII wordt dus ook niks? Snif... Ik heb nu wel genoeg gezien van Ati en Geforce, het is tijd voor een nieuwe fabrikant! Ik bedoel, eerst had men ook niet verwacht dat ATI zo sterk uit de hoek zou komen, dat was toch ook een verassing? Waarom zou dat niet bij S3/Sis kunnen? Of PowerVr?
Link naar reactie

Om een reactie te plaatsen, moet je eerst inloggen

Gast
Reageer op dit topic

×   Geplakt als verrijkte tekst.   Herstel opmaak

  Er zijn maximaal 75 emoji toegestaan.

×   Je link werd automatisch ingevoegd.   Tonen als normale link

×   Je vorige inhoud werd hersteld.   Leeg de tekstverwerker

×   Je kunt afbeeldingen niet direct plakken. Upload of voeg afbeeldingen vanaf een URL in


×
×
  • Nieuwe aanmaken...