Ga naar inhoud

GeForce FX 5900 Ultra 256mb vs. Radeon 9800 PRO 256mb


Aanbevolen berichten

Wat ik begrijp valt de IQ van de FX59 U inderdaad tegen, maar is het echt zo slecht? Skinnered is bijvoorbeeld razend ethousiast over de IQ van de FX58 U. Ik wacht de Detonator 50.xx drivers nog even af. misschien dat die wat aan de IQ van de kaart doen. ach en anders wacht ik maar tot het einde van het jaar. mijn radeon 9700 trekt de games van deze zomer nog wel met de 1024x768 AF8x AA4x. Of ik de FX59 nu beter vind dan de R98P256 ben ik nog niet uit.
Link naar reactie
  • Reacties 88
  • Aangemaakt
  • Laatste reactie

Beste reacties in dit topic

Ik vond de opmerking in de eerste review een beetje vreemd over: de nieuwe Nv35 engine in vergelijking met de Nv30 hetzelfde verschil was als de Ati R350 t.o.v. de R300. Als de r300 in de 9700 pro zit zou deze opmerking betekenen dat deze net zo'n flop is als de vorige kaart van Geforce (de FX 5800?), deze was toch immers niet zo succesvol? Lijkt me een beetje jammer aangezien ik nog wel van plan ben de 9700 pro aan te schaffen...
Link naar reactie
//The Dude. dan heb je dat verkeerd begrepen. de opmerking was in die review meer bedoeld dat de performance verschil en feature verschil tussen de R300 en R350 core niet zo groot zijn. net als bij de NV30 en NV35 core. De radeon 9700 (R300core0 is een onzettend suc6 volle core/kaart. maar dat is een beetje off-topic. als je na het lezen van wat radeon 9700 reviews nog steeds twijfelt moet je maar een topic openen. :roll: //rombaft Qua performance schort er niets aan de Geforce FX 5900 Ultra. dat is het probleem niet. die kaart is gewoon king of the hill wat dat betreft. maar moet dat tenkoste van IQ (image Quality)? Ik hoop gewoon dat de Det FX 50.xx ook een IQ boost geeft.
Link naar reactie
Wat IQ betreft, voor mij is dat persoonlijk in het voordeel van nVidia omdat ik van agressievere lod bias houdt, bij ATI is dit helaas nog niet in te stellen, ik vind ook color vibrance mooi (maar wel heel weinig ingesteld), sommige vinden het smerig. ATI heeft een superieure AA volgens sommigen, namelijk rotated grid met gammacorrectie, dat laatste is volgens mij best belangrijk, maar ik gebruik geen AA, dus voor (nog) niet interressant. nVidia's AF vind ik mooier bij niet platte vloeren, bv. de map Antalus of Maul ect. ATI's AF16x vind ik weer mooier bij platte vloeren bv. in S.Sam Deze kaarten zijn zo aan elkaar gewaagd dat je moet kijken wat jezelf belangrijk vind in de gfx.
Link naar reactie
[quote:bd44924fea="SkinnerEd"] Deze kaarten zijn zo aan elkaar gewaagd dat je moet kijken wat jezelf belangrijk vind in de gfx.[/quote:bd44924fea] Precies. dat heb je goed gezegd. de keuze tussen deze 2 is dan ook bijzonder moeilijk. kleine dingen zullen doorslagevend zijn bij de aankoop van een van beide modelen. prijs, drivers, etc etc.
Link naar reactie
Heb nu al zeker 5 reviews bekeken en ik vind de verschillen tussen de 9800pro 128mb en 256mb echt minimaal. Zeker in games, mss dat je er meer aan hebt bij professionele tekenprogramma's of wat dan ook (heb hier niet zo'n verstand van, zoals waarschijnlijk blijkt uit de post :wink: ), maar tot nu toe vind ik het niet echt het prijsverschil waard. 100 dollar (zal toch wel weer meer worden in euro's) bovenop de gewone 9800pro
Link naar reactie
Ik had de review van Anand nog niet gelezen. zijn site was gister de hele avond down. ik zal hem zo eens lezen. wat de 256mb r9800 betreft, met hoge resoluties (1600x1200) en FSAA/AF heeft hij wel enige snelheids winst op de 128mb versie, maar niet echt veel. in sommige benchmarks 5%. of dat 100 a 125 Euro meerwaarde heeft is aan de koper. Als ik nu moest kiezen tussen de twee neig ik toch naar de GF FX 5900 U. Eerst even de review van Anand lezen. 8)
Link naar reactie
[quote:13400e640f="compuyvan"]Allemaal goed en wel, maar wat is de nu beste videokaart de ati of de andere. Welke moederbord past er dan best bij om een game-computer te hebben ?[/quote:13400e640f] Beide kaarten zijn nog niet te koop pas eind Juni. Welke kaart het beste is moet je zelf bepalen. dat ligt aan de eisen die je steld. ze zijn beiden goed. lees eens wat reviews. post een topic in het moederborden/cpu forum met de vraag wat voor pc je wilt gaan samenstellen. beetje OFF_TOPIC namelijk.
Link naar reactie
In de D3-test op HardOcp stonden een aantal interessante opmerkingen over beide kaarten. Zo zouden de Catalyst 2.4 drivers buggy zijn zodat men in D3 niet de optimale prestatie kon neerzetten (en 50+ fps voor de nVidia vs 10+ voor de Ati doet dat idd bevestigen, maar het spel zelf is nog niet af dus ... ). De 2.2 zou daarentegen het geheugen niet volledig kunnen gebruiken ... Dan de opmerking van Carmack dat de nVidia alleen snel was als hij de nVidia-specifieke eigenschappen gebruikte terwijl de Ati bij de 'normale' (officieele ?) aansturing een flink stuk sneller was. Ik hoop dat dit straks toch onder water gaat gebeuren, want 'normale' gebruikers zullen zoiets toch nooit aanraken (ik vind dit soort console-commando's voor instellingen bij de Quake-series toch al een nare/ongebruikersvriendelijke gewoonte ... maar goed, da's een ander onderwerp). Dat zet je toch aan het denken over de reden dat nVidia zoveel steun bij de ontwikkelaars probeert te krijgen (ie : het nVidia-logo voor spellen). Met het m.i. niet onwaarschijnlijke gevolg dat we weer een Glide/Voodoo-periode krijgen waar we eindelijk vanaf waren. Ik vind zelf dat dit voor mij in ieder geval de reden is om toch voor de Ati-kaart te kiezen nu de kaarten (nog) zo relatief weinig van elkaar lijken te verschillen.
Link naar reactie
Het is Catalsyt 3.2 en 3.4 niet 2.2 en 2.4. klein detail ;) Anandtech heeft het ook al over het feit dat de Catalyst 3.4 niet helmaal lekker is. met Splinter Cell vertoond deze ook problemen. Ik vind Doom III nu op dit moment nog geen goede benchmark. zoals Jafo al aangeeft schort er nog het een en ander aan. laten ze eerst maar een goede doom III benchmark neerzetten. aan de andere kant wel leuk dat je een indicatie krijgt wat de kaarten gaan doen in een dergelijke game.
Link naar reactie
Ik heb voor Nvidia's kaartje gekozen. Zeer goed hoe ze geleerd hebben van hun fouten van de NV30 en een mooie uitgebalanceerde kaart hebben geleverd! Dit is alles van wat ik van de NV30 toendertijd verwacht had 8). Bovendien doet me die 256Mb op de R98PRO denken aan de volledig nutteloos gebleken 128Mb op en GF3 (of later zelfs nog op een GF4MX)... De 9800 serie is een mooi verfijning van de R300 (o.a. smartshader 2.1) en de non-pro versie heeft mijn absolute voorkeur in het huidige high-performance segment maar dit is toch echt een typische "patser" verbetering... :roll: Ook vraag ik me af bij het lezen van deze reviews: WTF heb ik aan 1600x1200 met 4xAA en 8x AF (of zelfs nog hoger bij de wat "oudere" games)? :-? Ik bedoel...waar is mijn 23" scherm?!? Op een 17" monitor (wat naar mijn weten toch nog steeds het meest gebruikt wordt) zijn resoluties zo boven de 1280*960 zinloos: veel te kleine lettertjes (wat nog een lekkere smurrie wordt met AA), veel te scherpe, onnatuurlijke, figuurtjes op de horizon (*kijkt uit het raam op de 15e verdieping en ziet aan de horizon alleen maar grijs/blauw getinte vage objecten) om maar niet te spreken over de fysieke beperkingen van zo'n scherm om correcte pixelonderscheid mogelijk te maken) etc. etc. Conclusie: Veel te dure kaarten die totaal zinloos zijn voor de huidige generatie spellen. Kom eens op met die DirectX 8.0 (of misschien zelfs wel 9.0) game titels!!! :evil: Sorry hoor maar ik wordt hier een beetje moe van... Oh ja dat viel me nog op...waar is die kleine heatsink op de R9800PRO voor nodig daar links bovenin tussen dat groepje cilinders van 6 en 2 in??
Link naar reactie
Heb wat gelezen op een site dat tegen de tijd dat Doom III uitkomt Ati en Nvidia allebei een nieuwe kaart introduceren, waar je het spel dan perfect op moet kunnen spelen. Daarom vind ik het een beetje nutteloos om nu al een 3d kaart op dit spel te testen, wat waarschijnlijk nog vol zit met bugs enz en waar ze beiden dus nu al van zeggen dat ze dan een nieuwe 3d kaart zullen uitbrengen... Zal de link nog opzoeken en posten
Link naar reactie
[quote:2c74778e71="Baxcorp"] Ook vraag ik me af bij het lezen van deze reviews: WTF heb ik aan 1600x1200 met 4xAA en 8x AF (of zelfs nog hoger bij de wat "oudere" games)? :-? Ik bedoel...waar is mijn 23" scherm?!? Op een 17" monitor (wat naar mijn weten toch nog steeds het meest gebruikt wordt) zijn resoluties zo boven de 1280*960 zinloos: veel te kleine lettertjes (wat nog een lekkere smurrie wordt met AA), veel te scherpe, onnatuurlijke, figuurtjes op de horizon (*kijkt uit het raam op de 15e verdieping en ziet aan de horizon alleen maar grijs/blauw getinte vage objecten) om maar niet te spreken over de fysieke beperkingen van zo'n scherm om correcte pixelonderscheid mogelijk te maken) etc. etc. [/quote:2c74778e71] Ben ik met je eens, de enigste reden waarom ik voor zo'n kaart zou gaan is dat ik dan jaren plezier er van heb, op mijn 17" tft, en dat ik voorlopig dus alles kan spelen op 1280*1024 met alle eye-candy aan. Maar dan nog zou ik voor de R9800 Non-Pro of de nvidia 5900 gaan. die 100 euro meer voor de Pro\Ultra versie is het voor mij gewoon niet waard. Spel makers kunnen het gewoon niet maken om spellen te maken welke alleen maar werken op deze duren kaarten, dan zou hun spel niet genoeg verkopen.
Link naar reactie
Ik ben het niet helemaal met je eens. 1600x1200 is inderdaad geen resolutie waar ik op speel met mijn 17" beeldscherm. maar 1600x1200 AF8x AA4x is volgens de meeste benchmarks alleen mogelijk in Quake III. Met een radeon 9700 PRO haal je geen 1280x1024x32 AF8x AA4x Quality in games als Splinter Cell, Unreal II e.d. Hedendaagse games dus. Ik ben op zoek naar een kaart die dat wel kan. de Radeon 9800 PRO (128mb en 256mb) en de GeForce FX 5900 Ultra kunnen dat. Deze kaarten hebben dus zeker wel nut in games van vandaag. Ik ben het wel met je eens dat 256mb in de huidige games niet echt nuttig is. in maar een paar testen kun je daar voordeel mee halen. wat die Heatsink betreft, die zit ook op de normale Radeon 9800 PRO. voorbeeld van de Hercules radeon 9800 pro (Heatsink links onder): [img:a0fec242bc]http://www.guru3d.com/miraserver/backend/imageview.php?image=387%20[/img:a0fec242bc] Dat is voor de koeling van de "Capicitors" oftewel de stroom toevoer/regeling. die krengen worden nogal heet. op sommige moederborden zie je dit ook wel.
Link naar reactie
Oeps 2.2 vs 3.2 maakt idd een verschil ... :oops: // Baxcorp : toen de eerste videokaarten met 32Mb verschenen werd ook gezegd dat dat helemaal niet nodig was. En dat was het in het begin ook niet ... Probleem met hardware is gewoon dat dat altijd veel verder voorop loopt dan de software die er gebruik van kan maken. Helaas willen de dames & heren bij nVidia & Ati ook geld verdienen en dat kan alleen door 'meer' & 'sneller' te leveren. Qua features maakt zo'n brok geheugen natuurlijk heel wat meer indruk en is het 'nut' er van iets makkelijker uit te leggen dan de zoveelste shader-ding waar behalve de freaks toch niemand van snapt wat het doet.
Link naar reactie

Om een reactie te plaatsen, moet je eerst inloggen

Gast
Reageer op dit topic

×   Geplakt als verrijkte tekst.   Herstel opmaak

  Er zijn maximaal 75 emoji toegestaan.

×   Je link werd automatisch ingevoegd.   Tonen als normale link

×   Je vorige inhoud werd hersteld.   Leeg de tekstverwerker

×   Je kunt afbeeldingen niet direct plakken. Upload of voeg afbeeldingen vanaf een URL in


×
×
  • Nieuwe aanmaken...