anoniem Geplaatst: 26 april 2004 Auteur Delen Geplaatst: 26 april 2004 [quote:b84711148a="Red Dragon"]Ik vind zelf de koel oplossing van Leadtek voor de 6800 Ultra wel fraai, maar ja smaken verschillen. Overigens heb ik liever een lelijke goeie cooler dan een fraaie lawaaierige cooler die slecht koelt.[/b][/quote:b84711148a] Dat mag dan wel zo wezen ... (je kijkt tenslotte naar je monitor en niet naar je pc ;)) Maar vind je het zelf niet een beetje te gek voor woorden dat een 'co-processor' meer energie verbruikt dan de cpu zelf ? IMHO mogen nVidia & Ati daar best eens over na gaan denken bij hun volgende product. Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 Voor Farcry hoef je je R9800XT iig niet in te ruilen voor een GF6800U http://www.driverheaven.net/showthread.php?s=&threadid=44253 Als je de device id van de GF aanpast naar een R300 kaart, is de GF maar 7fps sneller (en geeft een veel mooier beeld, dan met zijn standaard ID) Of is het een fout in patch 1.1, dat die een verkeerd path (ps1.x oid)aanroept voor de Geforce ? Slasshead, als je binnenkort de 6800 hebt, moet je daar ook eens mee testen !! Nog een artikel waar ze dat deden (DeviceID aanpassen) http://www.tommti-systems.de/start.html (ff naar 20.04.2004 scrollen) Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 //Jafo Ik ben het niet met je eens hoor, ik vind het niet zo raar, de 3d kaarten worden steeds gevanceerder, er word nog geen 0,09 techniek gebruikt zoals INTEL nu doet en AMD eind van dit jaar, met 0,13 micron productie techniek en 220 miljoen transistoren verbaasd het me niets dat ze meer energie verbruiken als een CPU. Overigens verbruikt een P4 Prescot CPU ook al snel tegen de 100watt, dat is nog altijd meer dan een GeForce 6800 Ultra verbruikt volgens mij. Overigens zie ik de videokaart niet als een co prcessor maar als het belangrijkste deel van de pc, voor mij is de Videokaart nr. 1 en komt de CPU op de 2e plaats. Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 Hmm als de GeForce 6800 uitkomt hé , worden andere 3D Kaarten dan goeiekoper in het Mid-Range ? (Bijv: 9600 Pro) Thnx plzz delete deze post niet het is niet offtopic Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 Of het off-topic is of niet bepaal ik altijd nog 8) Wat het antwoord op je vraag betreft, het is vrij normaal dat andere kaarten goedkoper worden als er nieuwe kaarten komen, zo gaat het al jaren, en zo gaat het ook met CPU's e.d. Een vraag waar je zelf eigenlijk wel antwoord op wist. Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 [quote:34a3063f66="Red Dragon"]//Jafo Ik ben het niet met je eens hoor, ik vind het niet zo raar, de 3d kaarten worden steeds gevanceerder, er word nog geen 0,09 techniek gebruikt zoals INTEL nu doet en AMD eind van dit jaar, met 0,13 micron productie techniek en 220 miljoen transistoren verbaasd het me niets dat ze meer energie verbruiken als een CPU. Overigens verbruikt een P4 Prescot CPU ook al snel tegen de 100watt, dat is nog altijd meer dan een GeForce 6800 Ultra verbruikt volgens mij. Overigens zie ik de videokaart niet als een co prcessor maar als het belangrijkste deel van de pc, voor mij is de Videokaart nr. 1 en komt de CPU op de 2e plaats.[/quote:34a3063f66] Ja, videokaarten zijn hun bijrol ontgroeid en nemen steeds complexere taken tot zich en de rekenkracht is gigantisch. Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 [quote:5dd1a2e209="Red Dragon"]Of het off-topic is of niet bepaal ik altijd nog 8) Wat het antwoord op je vraag betreft, het is vrij normaal dat andere kaarten goedkoper worden als er nieuwe kaarten komen, zo gaat het al jaren, en zo gaat het ook met CPU's e.d. Een vraag waar je zelf eigenlijk wel antwoord op wist.[/quote:5dd1a2e209] als ze echt uit de markt gaan stijgt de prijs wel weer Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 [quote:601fe7a991]So what does Far Cry use 2.0 shaders for? Apparently just lighting, everything else is handled by 1.1 shaders.[/quote:601fe7a991] http://www.firingsquad.com/hardware/far_cry_nvidia/ en de ps 1.1 is ziet er veel beter uit dan in dat beruchte water verhaal waarvan nVidia beweerde dat het ps2 was (hier boven ergens genoemd) Marketing eikels zijn het bij nVidia !! Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 Een belangrijke functie van PS2.0 is dat PS1.1 beter loopt (een geoptimaliseerde verwerking voor PS1.1) ... ik snap jou reactie dan ook helemaal niet over nVidia.. Dat andere met het vlakke water is een driver issue. En ik denk dat nVidia donders goed weet hoe de game gemaakt is omdat CryTek Cg heeft gebruikt. Check de files maar. Bovendien is FarCry gemaakt met de NV30 in het achterhoofd en niet de NV40. De game kent een auto-detect functie die mogelijk nog niet helemaal up-to-date is met de laatste hardware. De NV40 verschilt namelijk behoorlijk van de NV30. Houd daar dus rekening mee voordat over van alles en nog wat met modder naar nVidia wordt gegooid. Quote Link naar reactie
anoniem Geplaatst: 27 april 2004 Auteur Delen Geplaatst: 27 april 2004 HJS moet je niet serieus nemen, die zoekt altijd bij nVidia een zwak plekje op waar hij met zijn vergrootglas overheen kan gaan. Ik denk zelf dat het hele Far Cry debacle ver overtrokken is en eerder een driver of far cry probleem is dan dat het aan nVidia ligt. Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 Without PS 3.0 [img:04c4104e7f]http://www.pcper.com/images/reviews//FarCry_before3_small.jpg[/img:04c4104e7f] With PS 3.0 [img:04c4104e7f]http://www.pcper.com/images/reviews//FarCrafter3_small.jpg[/img:04c4104e7f] deze bedoel ik dus. Hierbij beweerde nVidia (zover ik begrepen heb) dat without ps3 dus ps2 was !! Ik snap best dat die gasten benadrukken dat zei ps3 al ondersteunen, maar doe dat dan met echte voorbeelden !! //RD Sure can mr Holmes Hebben jullie trouwens al met temporal AA gespeeld? Schijnt in de volgende Catalyst versie te komen maar is nu al aan te zetten met een reg.hack. 18x temporal AA (marketing term = 6xT3 AA ;) ) 18x TAA is dus bijna net zo snel als 6x gewoon AA. Ik heb het nog niet geprobeerd, en het schijnt dat, om het effect goed te laten werken je hoge framerates nodig hebt, dus 18x TAA is overdreven, maar met 2xAA kan het ook (2x AA omzetten naar 2x3T oid) http://www.beyond3d.com/forum/viewtopic.php?t=11891 (tja, beetje wazig verhaal nog, maar ik heb me er nog niet in verdiept :roll: ) Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 [quote:6d3d58ce4d]The NVIDIA GeForce 6800 Ultra operates at 400MHz and contains approximately 220 million of transistors that form 16 pixel pipelines, 6 vertex processors, a programmable video processor as well as other important integrated circuits of the chip. The performance-mainstream version of the GeForce 6-series will be called GeForce 6800 and will have graphics processor with 12 pixel pipelines operating at 375MHz. The Ultra version utilizes 256MB of GDDR3 memory functioning at 1100MHz, the non-Ultra add-in cards will feature 128MB or 256MB of DDR memory operating at 700MHz, according to [url=http://www.hartware.de/news_36197.html]HartWare.net[/url]. MSRP for NVIDIA GeForce 6800 Ultra-based graphics cards is $499. The GeForce 6800 is expected to retail for $299. [/quote:6d3d58ce4d] http://www.xbitlabs.com/news/video/display/20040427112324.html Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 Wanneer zou de ATI kaart nu uitkomen? toch rond 1 dezer dagen? ben benieuwd naar de eerste tests Overigens is onderstaand wel een interessant artikel over het nut van PS 3.0 http://www.hardocp.com/article.html?art=NjA5 Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 jammer dat ze bij die Firingsquad-test de 9800XT niet hebben meegenomen. Lijkt me namelijk best interessant om te zien in hoeverre het nieuwe topmodel van nVidia tov het huidige topmodel van Ati (totdat de x800 er is). Eigenlijk bewijst die nVidia-stunt hoe lastig het is voor de niet-technici om te controleren of men wel de waarheid spreekt. Want tenzij je FC zelf hebt heb je geen mogelijkheid om te controleren of je huidige (niet PS3.0-compatible) kaart echt niet in staat is om ook maar iets vergelijkbaars te presenteren. Als we nVidia zouden geloven dan kan niemand behalve de nieuwste nVidia dit beeld zien, terwijl die tests van FS juist laten zien dat je wel degelijk soortgelijke beelden kunt zien ... zij het niet op de hoge snelheid die de 6800 zou kunnen halen. Gezien het feit dat niet iedereen last heeft van een laag fps. Ik zou iig best voor 20 fps kiezen om dit beeld te kunnen zien ipv 40 fps en een stuk minder detail ... Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 Zoals het met de meeste pixelshader programma's is gesteld. Er zijn meerdere wegen die naar Rome leiden. Het is niet te zeggen hoe FarCry de PS heeft neergezet, noch hoe de HLSL is gecompileerd naar nVidia of ATI. (hiervoor is Cg en Xrender verantwoordelijk geweest) Ik verwacht dat wanneer CryTek de game een update geeft voor de NV40 dat de meeste problematiek opgelost zal zijn. Daarnaast zal een nieuwe driver release van nVidia ook veel problemen oplossen. Mijn vermoedens tussen de beide plaatjes zijn vooral gebasseerd op de kwaliteit van de normal map die gebruikt is. Iets anders kan ik er niet van maken. Ik geloof niet dat hier displacement mapping is gebruikt zoals wordt gesuggereerd op tweakers.net. Dat zou niet een al te slimme oplossing zijn. Maar ik kan me natuurlijk vergissen. Mijns inziens is hier sprake van een high detail normal map, wat mogelijk ook de oorzaak is dat de belichting slecht is op het plaatje dat er minder "dynamisch" uit ziet. Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 http://www.ati.com Weer 'n nieuwe flash splash! VERY SOON... Nou, laat maar komen die hap... ik ben echt zoooo benieuwd 8) Mijn centen liggen al klaar voor een mooie nieuwe videokaart, dus wachten totdat ze leverbaar zijn en dan de juist keuze maken is alles wat mij nog resteert :wink: Quote Link naar reactie
anoniem Geplaatst: 28 april 2004 Auteur Delen Geplaatst: 28 april 2004 Als ik her en der zo de verhalen lees op diverse fora's (beyond3d, Rage3d en GOT) dan laten de geruchten molen een aardige kaart zien met die X800. nu maar hopen dat ze dit waar gaan maken. Wat ik vooral hoop is dat de kaarten snel retail zijn, de 6800 Ultra laat lang op zich wachten ben ik bang voor, dadelijk is de X800 nog eerder leverbaar dan de 6800 Ultra Quote Link naar reactie
anoniem Geplaatst: 29 april 2004 Auteur Delen Geplaatst: 29 april 2004 wat toch positief is? :D Ik ben ook al wat aan het oppotten, maar ik wil toch wel eerst eens wat reviews zien uiteraard. Wat betekent dat mijn R9800Pro eruit gaat :wink: Quote Link naar reactie
anoniem Geplaatst: 29 april 2004 Auteur Delen Geplaatst: 29 april 2004 ATI's Radeon X800XT ends up flying faster 525MHz core/1120 MHz http://www.theinquirer.net/?article=15617 Volgens dit stukje zou ATI's topkaart sneller zijn in diverse spellen maar met een kleine marge. Quote Link naar reactie
anoniem Geplaatst: 29 april 2004 Auteur Delen Geplaatst: 29 april 2004 "op een hogere kloksnelheid" Quote Link naar reactie
Aanbevolen berichten
Om een reactie te plaatsen, moet je eerst inloggen