Ga naar inhoud

GeForce 6800 (NV40) + Radeon X800 (R420) news topic.


Aanbevolen berichten

[quote:b84711148a="Red Dragon"]Ik vind zelf de koel oplossing van Leadtek voor de 6800 Ultra wel fraai, maar ja smaken verschillen. Overigens heb ik liever een lelijke goeie cooler dan een fraaie lawaaierige cooler die slecht koelt.[/b][/quote:b84711148a] Dat mag dan wel zo wezen ... (je kijkt tenslotte naar je monitor en niet naar je pc ;)) Maar vind je het zelf niet een beetje te gek voor woorden dat een 'co-processor' meer energie verbruikt dan de cpu zelf ? IMHO mogen nVidia & Ati daar best eens over na gaan denken bij hun volgende product.
Link naar reactie
  • Reacties 266
  • Aangemaakt
  • Laatste reactie

Beste reacties in dit topic

  • anoniem

    267

Voor Farcry hoef je je R9800XT iig niet in te ruilen voor een GF6800U http://www.driverheaven.net/showthread.php?s=&threadid=44253 Als je de device id van de GF aanpast naar een R300 kaart, is de GF maar 7fps sneller (en geeft een veel mooier beeld, dan met zijn standaard ID) Of is het een fout in patch 1.1, dat die een verkeerd path (ps1.x oid)aanroept voor de Geforce ? Slasshead, als je binnenkort de 6800 hebt, moet je daar ook eens mee testen !! Nog een artikel waar ze dat deden (DeviceID aanpassen) http://www.tommti-systems.de/start.html (ff naar 20.04.2004 scrollen)
Link naar reactie
//Jafo Ik ben het niet met je eens hoor, ik vind het niet zo raar, de 3d kaarten worden steeds gevanceerder, er word nog geen 0,09 techniek gebruikt zoals INTEL nu doet en AMD eind van dit jaar, met 0,13 micron productie techniek en 220 miljoen transistoren verbaasd het me niets dat ze meer energie verbruiken als een CPU. Overigens verbruikt een P4 Prescot CPU ook al snel tegen de 100watt, dat is nog altijd meer dan een GeForce 6800 Ultra verbruikt volgens mij. Overigens zie ik de videokaart niet als een co prcessor maar als het belangrijkste deel van de pc, voor mij is de Videokaart nr. 1 en komt de CPU op de 2e plaats.
Link naar reactie
[quote:34a3063f66="Red Dragon"]//Jafo Ik ben het niet met je eens hoor, ik vind het niet zo raar, de 3d kaarten worden steeds gevanceerder, er word nog geen 0,09 techniek gebruikt zoals INTEL nu doet en AMD eind van dit jaar, met 0,13 micron productie techniek en 220 miljoen transistoren verbaasd het me niets dat ze meer energie verbruiken als een CPU. Overigens verbruikt een P4 Prescot CPU ook al snel tegen de 100watt, dat is nog altijd meer dan een GeForce 6800 Ultra verbruikt volgens mij. Overigens zie ik de videokaart niet als een co prcessor maar als het belangrijkste deel van de pc, voor mij is de Videokaart nr. 1 en komt de CPU op de 2e plaats.[/quote:34a3063f66] Ja, videokaarten zijn hun bijrol ontgroeid en nemen steeds complexere taken tot zich en de rekenkracht is gigantisch.
Link naar reactie
[quote:5dd1a2e209="Red Dragon"]Of het off-topic is of niet bepaal ik altijd nog 8) Wat het antwoord op je vraag betreft, het is vrij normaal dat andere kaarten goedkoper worden als er nieuwe kaarten komen, zo gaat het al jaren, en zo gaat het ook met CPU's e.d. Een vraag waar je zelf eigenlijk wel antwoord op wist.[/quote:5dd1a2e209] als ze echt uit de markt gaan stijgt de prijs wel weer
Link naar reactie
[quote:601fe7a991]So what does Far Cry use 2.0 shaders for? Apparently just lighting, everything else is handled by 1.1 shaders.[/quote:601fe7a991] http://www.firingsquad.com/hardware/far_cry_nvidia/ en de ps 1.1 is ziet er veel beter uit dan in dat beruchte water verhaal waarvan nVidia beweerde dat het ps2 was (hier boven ergens genoemd) Marketing eikels zijn het bij nVidia !!
Link naar reactie
Een belangrijke functie van PS2.0 is dat PS1.1 beter loopt (een geoptimaliseerde verwerking voor PS1.1) ... ik snap jou reactie dan ook helemaal niet over nVidia.. Dat andere met het vlakke water is een driver issue. En ik denk dat nVidia donders goed weet hoe de game gemaakt is omdat CryTek Cg heeft gebruikt. Check de files maar. Bovendien is FarCry gemaakt met de NV30 in het achterhoofd en niet de NV40. De game kent een auto-detect functie die mogelijk nog niet helemaal up-to-date is met de laatste hardware. De NV40 verschilt namelijk behoorlijk van de NV30. Houd daar dus rekening mee voordat over van alles en nog wat met modder naar nVidia wordt gegooid.
Link naar reactie
Without PS 3.0 [img:04c4104e7f]http://www.pcper.com/images/reviews//FarCry_before3_small.jpg[/img:04c4104e7f] With PS 3.0 [img:04c4104e7f]http://www.pcper.com/images/reviews//FarCrafter3_small.jpg[/img:04c4104e7f] deze bedoel ik dus. Hierbij beweerde nVidia (zover ik begrepen heb) dat without ps3 dus ps2 was !! Ik snap best dat die gasten benadrukken dat zei ps3 al ondersteunen, maar doe dat dan met echte voorbeelden !! //RD Sure can mr Holmes Hebben jullie trouwens al met temporal AA gespeeld? Schijnt in de volgende Catalyst versie te komen maar is nu al aan te zetten met een reg.hack. 18x temporal AA (marketing term = 6xT3 AA ;) ) 18x TAA is dus bijna net zo snel als 6x gewoon AA. Ik heb het nog niet geprobeerd, en het schijnt dat, om het effect goed te laten werken je hoge framerates nodig hebt, dus 18x TAA is overdreven, maar met 2xAA kan het ook (2x AA omzetten naar 2x3T oid) http://www.beyond3d.com/forum/viewtopic.php?t=11891 (tja, beetje wazig verhaal nog, maar ik heb me er nog niet in verdiept :roll: )
Link naar reactie
[quote:6d3d58ce4d]The NVIDIA GeForce 6800 Ultra operates at 400MHz and contains approximately 220 million of transistors that form 16 pixel pipelines, 6 vertex processors, a programmable video processor as well as other important integrated circuits of the chip. The performance-mainstream version of the GeForce 6-series will be called GeForce 6800 and will have graphics processor with 12 pixel pipelines operating at 375MHz. The Ultra version utilizes 256MB of GDDR3 memory functioning at 1100MHz, the non-Ultra add-in cards will feature 128MB or 256MB of DDR memory operating at 700MHz, according to [url=http://www.hartware.de/news_36197.html]HartWare.net[/url]. MSRP for NVIDIA GeForce 6800 Ultra-based graphics cards is $499. The GeForce 6800 is expected to retail for $299. [/quote:6d3d58ce4d] http://www.xbitlabs.com/news/video/display/20040427112324.html
Link naar reactie
jammer dat ze bij die Firingsquad-test de 9800XT niet hebben meegenomen. Lijkt me namelijk best interessant om te zien in hoeverre het nieuwe topmodel van nVidia tov het huidige topmodel van Ati (totdat de x800 er is). Eigenlijk bewijst die nVidia-stunt hoe lastig het is voor de niet-technici om te controleren of men wel de waarheid spreekt. Want tenzij je FC zelf hebt heb je geen mogelijkheid om te controleren of je huidige (niet PS3.0-compatible) kaart echt niet in staat is om ook maar iets vergelijkbaars te presenteren. Als we nVidia zouden geloven dan kan niemand behalve de nieuwste nVidia dit beeld zien, terwijl die tests van FS juist laten zien dat je wel degelijk soortgelijke beelden kunt zien ... zij het niet op de hoge snelheid die de 6800 zou kunnen halen. Gezien het feit dat niet iedereen last heeft van een laag fps. Ik zou iig best voor 20 fps kiezen om dit beeld te kunnen zien ipv 40 fps en een stuk minder detail ...
Link naar reactie
Zoals het met de meeste pixelshader programma's is gesteld. Er zijn meerdere wegen die naar Rome leiden. Het is niet te zeggen hoe FarCry de PS heeft neergezet, noch hoe de HLSL is gecompileerd naar nVidia of ATI. (hiervoor is Cg en Xrender verantwoordelijk geweest) Ik verwacht dat wanneer CryTek de game een update geeft voor de NV40 dat de meeste problematiek opgelost zal zijn. Daarnaast zal een nieuwe driver release van nVidia ook veel problemen oplossen. Mijn vermoedens tussen de beide plaatjes zijn vooral gebasseerd op de kwaliteit van de normal map die gebruikt is. Iets anders kan ik er niet van maken. Ik geloof niet dat hier displacement mapping is gebruikt zoals wordt gesuggereerd op tweakers.net. Dat zou niet een al te slimme oplossing zijn. Maar ik kan me natuurlijk vergissen. Mijns inziens is hier sprake van een high detail normal map, wat mogelijk ook de oorzaak is dat de belichting slecht is op het plaatje dat er minder "dynamisch" uit ziet.
Link naar reactie
Als ik her en der zo de verhalen lees op diverse fora's (beyond3d, Rage3d en GOT) dan laten de geruchten molen een aardige kaart zien met die X800. nu maar hopen dat ze dit waar gaan maken. Wat ik vooral hoop is dat de kaarten snel retail zijn, de 6800 Ultra laat lang op zich wachten ben ik bang voor, dadelijk is de X800 nog eerder leverbaar dan de 6800 Ultra
Link naar reactie

Om een reactie te plaatsen, moet je eerst inloggen

Gast
Reageer op dit topic

×   Geplakt als verrijkte tekst.   Herstel opmaak

  Er zijn maximaal 75 emoji toegestaan.

×   Je link werd automatisch ingevoegd.   Tonen als normale link

×   Je vorige inhoud werd hersteld.   Leeg de tekstverwerker

×   Je kunt afbeeldingen niet direct plakken. Upload of voeg afbeeldingen vanaf een URL in


×
×
  • Nieuwe aanmaken...