anoniem Geplaatst: 19 augustus 2003 Auteur Delen Geplaatst: 19 augustus 2003 Ach ja, die guidelines zijn op zich een goed zaak, maar dan moet je je er wel aan houden en niet zelf bepalen wat er wel in past en wat niet, zoals in dat interview welke hierboven gelinkt staat over dat ut-2003 tri-linear verhaal :( Wel stom dat nVidia gepakt word en als reaktie met die guidelines komt, en dat nu ATI word verweten dat ze geen guidelines hebben. Quote Link naar reactie
anoniem Geplaatst: 19 augustus 2003 Auteur Delen Geplaatst: 19 augustus 2003 Ik bedoel 't is toch gvd logisch dat een optimalisatie de uitvoer niet mag aantasten ? 't is toch ook logisch dat je niet benchmark optimaliseert en er alles aan doet om er voor te zorgen dat je een realistische situatie nabootst ... *sjees* waar hebben die lui ooit geleerd hoe een applicatie getest moet worden ? :roll: Zoiets weet iedere programmeur/tester toch ? En dat moeten ze dan met veel bombarie op papier zetten en naar buiten brengen ??? Klinkt meer naar een reclame-stunt zoals MS dat deed met de grote 'bug-hunt' in het begin van dit jaar ... Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 Een van de eerste DX9 benchmarks. b3d verglijkt 4 nvidia tegen 4 ati kaarten met Lara http://www.beyond3d.com/misc/traod_dx9perf/ [quote:4fcf4635a2]With the recent Triplex REDai Radeon 9600PRO 128MB we introduced the game "Tomb Raider: Angel of Darkness" as a benchmark. Regardless of what you may feel of the game, the importance of this as a benchmark is that this is one of the first available gaming titles to make use of Pixel Shader 2.0 functionality, meaning that DirectX9 boards are required to run the full functionality the game has. The developers have included numerous fall back modes to cover boards all the way from DX7 to DX9, but here we are only looking at DX9 performance with a number of DX9 boards from ATI and NVIDIA.[/quote:4fcf4635a2] Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 wow behoorlijk dramatisch voor de FX serie..... Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 momenteel werk ik 10 keer liever met nvidia dan met ATI. ATI is veel te traag. Ik heb het dan wel niet over de grafische kaarten voor games maar over de Quadro's en andere CAD-kaarten. Maar 3dLabs blijft de top :) Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 Al eens met de nieuwe Fire GL gewerkt gebaseerd op de R350 core? Ik heb zelf geen ervaring met Prof kaarten zoals de Quadro, Fire GL en 3dlabs kaarten dus zou het niet weten. Deze topic is ook niet bedoeld voor die markt maar voor de gewone gebruiker en de gamer. //HJS Wel heel erg groot dat verschil zeg: [img:b80fad42bb]http://www.beyond3d.com/misc/traod_dx9perf/image004.gif[/img:b80fad42bb] Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 Dit riep ik ook al tijden, de fx is een zéér slechte dx9-performer, wedden dat in HL2 aan alle kanten gecheat (lees 16 bits precisie) moet worden door NV om ATI bij te houden. Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 Yep idd Edward, we wisten het ook wel, maar dat verschil zo groot zou zijn had ik eigenlijk niet verwacht.... (aan de andere kant liet 3Dmark hetzelfde zien zonder de 32 -> 16 FP cheat) Quote Link naar reactie
anoniem Geplaatst: 25 augustus 2003 Auteur Delen Geplaatst: 25 augustus 2003 nVidia moet dan echt een inhaalslag gaan doen met de NV40, met de NV38 reden ze het niet. als alle DirectX 9 games zo laag scoren word het niets voor nvidia Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 [quote:ed429cca62] This isn't confirmed as 100% official, so keep that in mind. On the HalfLife2.net forums, a gamer emailed Gabe Newell of Valve Software, and asked him a question in regards to GeForce FX cards dismal performance in Tomb Raider using PS 2.0 brought up by the article on Beyond3D (see this post). Here's the question he asked Gabe: [b:ed429cca62][i:ed429cca62] Is a ATi 9800pro card really alot better for HL2 then Nvidia's FX5900? Or is the difference not that big (quality & fps wise)?[/i:ed429cca62][/b:ed429cca62] Here's the answer he got: [b:ed429cca62][i:ed429cca62] I have been a long-time NVIDIA card user. Currently I have ATI 9800 Pro's in both my work and home machines. The DX9 performance described by the Beyond3D article is consistent with what we've been seeing.[/i:ed429cca62][/b:ed429cca62] If the email really is from Gabe, then this just doesn't bode well for NVIDIA for their current line of cards[/quote:ed429cca62] http://www.3dgpu.com/modules/news/article.php?storyid=315 Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 Interessant, even afwachten tot dat HL2 uitkomt en dan te bedenken dat er begin dit jaar nog geruchten waren dat het een "nVidia Only" game zou worden Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 Mja misschien zijn ze er door de FX serie alweer van afgestapt? Zoiets kan ik me wel voorstellen ieg. Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 waarom al conlcusies trekken van EEN! direct x9.0 game. De testen die ik van doom3 heb gezien zien er wel weer goed uit. Dus ik zou w8ten met oordelen tot er meer zijn. Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 [quote:fc49337d48="rickNLWL"]waarom al conlcusies trekken van EEN! direct x9.0 game. De testen die ik van doom3 heb gezien zien er wel weer goed uit. Dus ik zou w8ten met oordelen tot er meer zijn.[/quote:fc49337d48] Omdat alle dx9 testen die er al zijn uitwijzen dat de R3xx core beduidend sneller is met dx9 dan de fx5900, zelfs als nv 16 bits fp gebruikt, zoals: 3DMark2003; ShaderMark; Dawndemo; Matrox Reefdemo; TR AOD; dx9-shaders van HL2(5-10x); Mandelbrot; Alle standaard dx9-demos. Doom3 gebruikt voor nVidia kaarten een aangepast renderingspad met een mix van fx12, 16 bits fp en een beetje 32 fp, ATI doet alles met 24 fp, dat is de minimale dx9 eis. De fx is gewoon niet snel met pixel shader2, misschien halen de det. 50xx nog wel wat uit. Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 [quote:ecc4f63fd3="rickNLWL"]waarom al conlcusies trekken van EEN! direct x9.0 game. De testen die ik van doom3 heb gezien zien er wel weer goed uit. Dus ik zou w8ten met oordelen tot er meer zijn.[/quote:ecc4f63fd3] zijn al 2 games + 3dmark03 en doom3 is pre-beta en erg nVidia geoptimaliseerd (en opengl, dus niks dx9) Quote Link naar reactie
anoniem Geplaatst: 28 augustus 2003 Auteur Delen Geplaatst: 28 augustus 2003 Ja en dan hebben we het nog niet eens over de gamecheats, zoals bekend werd door het antiecheatscript, dat was bv in UT2003 ook weer goed voor 20%-50%!!! snelheidsverlies. En het blokken van trilineare filtering om nog wat op te noemen http://www.3dcenter.de/artikel/ati_nvidia_treiberoptimierungen/index2.php mag geen plaatjes deeplinken van 3dcenter ;) Quote Link naar reactie
anoniem Geplaatst: 29 augustus 2003 Auteur Delen Geplaatst: 29 augustus 2003 [quote:16b758206b="Red Dragon"]nVidia moet dan echt een inhaalslag gaan doen met de NV40, met de NV38 reden ze het niet. als alle DirectX 9 games zo laag scoren word het niets voor nvidia[/quote:16b758206b] Als ze zo door gaan, gaan ze op lange termijn falliet. Net als 3Dfx :cry: Gelukkig zijn er ook nog enkele positieve geluiden: http://www.tweakers.net/nieuws/28513 Quote Link naar reactie
anoniem Geplaatst: 29 augustus 2003 Auteur Delen Geplaatst: 29 augustus 2003 Ach nVidia heeft de nForce 2 en nForce 3 ook nog. ze hebben aardig naam gemaakt als chipset fabrikant. denk niet dat ze snel failiet gaan Quote Link naar reactie
anoniem Geplaatst: 29 augustus 2003 Auteur Delen Geplaatst: 29 augustus 2003 Alleen moeten ze dan met die chipsets niet dezelfde 'stunt' uithalen die ze nu met hun grafische kaarten hebben uitgehaald ... Quote Link naar reactie
anoniem Geplaatst: 29 augustus 2003 Auteur Delen Geplaatst: 29 augustus 2003 Ze mogen niet faillet gaan. nForce 2-3 zijn prima chipsets voor AMD.En als alleen ati over is.Dan krijg weer dat alles minder snel verbeterd word.Misschien dat ze met de nv40 wel een betere hebben.Vooral om egt tegen ati op te kunnen Quote Link naar reactie
Aanbevolen berichten
Om een reactie te plaatsen, moet je eerst inloggen