anoniem Geplaatst: 23 september 2003 Auteur Delen Geplaatst: 23 september 2003 Het staat er toch vrij duidelijk... De kleurdiepte wordt verlaagd aan de randen van textures. Als je 16 bits kleur hebt dan heb je altijd last van banding, ofwel kleur aliasing wanneer er multi texturing wordt gebruikt. Het rekenen met meerdere textures tegelijk bij een te lage kleur resolutie (kleur diepte) zorgt voor afrondings fouten en geeft dus kleurverlies. Valt vooral op bij rook effecten in een 16bits omgeving. Door nu 32 bits te gebruiken verdwijnt dit effect. Nu met de FP24 kunnen nog meer textures worden gecombineerd zonder kleur aliasing te krijgen. De resolutie enhancer van nVidia zorgt er [b:bba385e10e]waarschijnlijk[/b:bba385e10e] dus voor dat aan de randen geen gebruik wordt gemaakt van FP64 maar FP16 of iets dergelijks. (is speculatie van mijn kant, heb dit nog helemaal nergens gelezen op het web, kwam het met toeval tegen bij mijn patenten ronde) Quote Link naar reactie
anoniem Geplaatst: 23 september 2003 Auteur Delen Geplaatst: 23 september 2003 Heb je dit al op b3d laten lezen? Daar komen ook nVidia gasten, die kunnen het wel uitleggen, hoop ik. Quote Link naar reactie
anoniem Geplaatst: 23 september 2003 Auteur Delen Geplaatst: 23 september 2003 Nieuwe futuremark regels: http://www.futuremark.com/pressroom/pressreleases/?092303 Quote Link naar reactie
anoniem Geplaatst: 23 september 2003 Auteur Delen Geplaatst: 23 september 2003 Weer een link van CJ gepikt ;) [quote:1ff639a04c] Special GeForce FX notes: All GeForce FX cards are temporarily removed from this buyers' guide due to their serious performance problems in Half Life 2 and unimpressive performance with other DX9 games. If Detonator 50 driver solves the problems without cheating, we will again add GeForce FX series cards in this buyers' guide. Till then, avioid all GeForce FX cards by all means. [/quote:1ff639a04c] [url=http://www.community.tomshardware.com/forum/showflat.m?Cat=&Board=comp_graphics&Number=505591&page=0&view=collapsed&sb=5]Link naar Ome Tom[/url] Oh en voor mensen welke niet weten welk merk, geven ze ook advies. Quote Link naar reactie
anoniem Geplaatst: 23 september 2003 Auteur Delen Geplaatst: 23 september 2003 [quote:6ca431fcac] It is prohibited to detect 3DMark directly or indirectly. In its sole discretion, Futuremark may approve detection in order to fix a specified hardware error. [/quote:6ca431fcac] :hmm: is dit een gat om door te kruipen of ben ik paranoide ? Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 hebben jullie die ATI slides gezien eerder deze week? (staan anders op http://www.elitebastards.com/ ) Over die ATI slides [quote:59bfe434ae]I recently got hold of some ATI marketing slides. I can tell you, I am all for uncovering how we all might be used or abused. I find this very important. However, I have just come to the conclusion that I myself have been used and abused. I don't have to state the name of a specific person or company, but only tell you that things are probably worse than they seem for nVidia. The chance that things are so bad that something such as this are procured and leaked goes to show how much faith we should have in such a company right now. I will not point fingers, but I will say that nobody should know business better than nVidia and that is what disturbs me about these slides being leaked. I doubt you will see many moves like this from ATI due to their comfortable position. The simple fact that these slides were leaked shows a lot of nothing until something can be made out of them. We would rather not instigate, but investigate and speculate. I'd like to share some of my thoughts on the events surrounding it and the weirdness that was/is my morning. I've been poking around a lot and have firmly concluded to my satisfaction that those slides were leaked to me from a certain person from a certain company that is in direct competition with ATi and was leaked specifically for the purpose of trying to discredit ATi's reputation. Note I said "trying" as I do NOT think this in anyway implicates ATi in any wrong-doing. All the slide says to me is that ATi is getting a bit more aggressive in their marketing, which I think they really should do since they have a very strong product and I think they should push it harder. I'm very angry and disapointed in myself for the way I went about putting those up, I really should have made more of an effort to contact ATi before I put them up. Not to see if they would "allow" it or not, but to give them a heads up that it was coming and to see if they were indeed genuine or not. In that I do feel I made an error by rushing it out, and for that I truly am sorry and apologize to all those I offended by it. My initial disapointment with the "Influence benchmarks in ATi's favor" has been corrected by a number of people on a number of forums as they've pointed out to me that is a very valid and legitimate concern for a PR department. It does NOT mean nor imply that ATi plans to 'cheat' or optimize for any benchmarks, it merely means that ATi should try and get the benchmarks to show their hardware in the best possible light; ie, try and get dx9 benchmarks to push PS 2.0 since ATi's hardware runs it very well while nVidia's can't, try and get benchmarks to avoid the dreaded "PP hint" that allows nVidia's hardware to run in FP16 rather than dx9's specified 24FP, etc. I was wrong, and for that I humbly apologize.[/quote:59bfe434ae] [quote:59bfe434ae]Patti Mikula, Public Relations Manager, Desktop Products, ATI Technologies Inc. A competitor is distributing select slides from an internal ATI presentation which, out of context, can portray ATI in a negative light. To clarify our stance on developer relations, ATI offers the following comment: ATI encourages game developers to adopt new industry standards. Benchmarks that use standard APIs - or almost any benchmark that reflects real-world game play - show ATI products in a good light because our performance is much faster than competing products in any standard code path. However, ATI's interests are aligned with those of gamers. Industry standard APIs, such as DirectX 9, allow developers more time to concentrate on game play and developing new features. Standard APIs help them incorporate the latest and best graphics into their games and get them into the hands of gamers more quickly. Unfortunately whoever is distributing this presentation chose not to include the remaining slides in the deck which explain our position more clearly. In fact, the very next slide comprised these points:[/quote:59bfe434ae] nVidia is echt fout bezig. Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 Zolang er nieuws posters zijn die hun gezonde verstand niet gebruiken zul je dit blijven houden. Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 Is al zeker de 3de keer dat nVidia zoiets doet (en het openbaar bekend wordt ;) ) Quake verhaal met ATi, die PowerVR slides en nu dit dus. Ach, ATI zal ook wel een rol hebben gespeeld in al die vuiligheid welke van nVidia bekend is geworden het laatste half jaar. Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 Kan iemand dit mij even vertalen? Ik heb een ruime Engelse woordenschat maar hier kon ik geen touw aan vast knopen. Wat zijn ongeveer de hoofpunten die erin staan? Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 [quote:7a69884e9c="General X"]Kan iemand dit mij even vertalen? Ik heb een ruime Engelse woordenschat maar hier kon ik geen touw aan vast knopen. Wat zijn ongeveer de hoofpunten die erin staan?[/quote:7a69884e9c] Hoofdpunt is in het heel kort: nVidia gebruikt documenten van ATI welke geheel uit de Context zijn gehaald om ATI in slecht daglicht te zetten. Voorbeeld van het document: http://www.elitebastards.com/forum/album_pic.php?pic_id=91 Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 Als je die twee plaatjes als een pessimist bekijkt kun je er met enige moeite wat slechts uit die allereerste regel halen, maar vergeleken met de stunts die nVidia heeft uitgevreten ... Het is toch (of helaas) de normaalste zaak van de wereld dat een fabrikant benchmarks gebruikt (en promoot) die hun product het beste doen uitkomen ? De betere websites/reviewers proberen dat meestal te vermijden. Intel deed dat al heel lang ... en ze doen het nog steeds. Ik durf te wedden dat als nVidia (goede) resultaten wil laten zien dat ze dan D3 gaan gebruiken. ie : het is niet leuk dat het gebeurd, maar aangezien reclame toch al eeuwen de zwakke/slechte punten van een product maskeert zie ik geen probleem. Quote Link naar reactie
anoniem Geplaatst: 26 september 2003 Auteur Delen Geplaatst: 26 september 2003 Nvidia kan zich natuurlijk ook openstellen voor kritiek en betere producten gaan maken. Zoiets heet integeriteit. Quote Link naar reactie
anoniem Geplaatst: 29 september 2003 Auteur Delen Geplaatst: 29 september 2003 [quote:efe39da314="bigstaal"]Nvidia kan zich natuurlijk ook openstellen voor kritiek en betere producten gaan maken. Zoiets heet integeriteit.[/quote:efe39da314]Ooit over nagedacht dat het verbeteren van producten geld kan kosten? En dan nVidia daar waarschijnlijk niet genoeg van heeft, of dat ze het liever ff bij zich houden? 'k Denk dat ATI op den duur wint (zoals velen dat denken) nVidia loopt meestal een stap achter ATI Quote Link naar reactie
anoniem Geplaatst: 29 september 2003 Auteur Delen Geplaatst: 29 september 2003 nVIDIA niet genoeg geld? Ze zetten bijna 2 miljard dollar om per jaar, en maken ruim 175 miljoen winst (jaarcijfers 2002). In het 1ste kwartaal van 2003 maakte nVIDIA zelfs nog een winst van 50.9 miljoen dollar. Daarnaast is de waarde van het bedrijf qua aandelen op zich al 258 miljoen dollar. Ze hebben echt wel een appeltje voor de dorst, nu het wat minder gaat. Of ATI het van nVIDIA wint? Eigenlijk is dat niet te zeggen, want het schommelt al jaren tussen die twee. Voor 1998 was ATI beter, vanaf de introductie van de GeForce chipset door nVIDIA waren hun de leiders van de markt, en nu neemt ATI het weer over. Geen peil op te trekken. Wie weet komt nVIDIA eind volgend jaar wel weer met een nieuwe chipset die ATI weer (al dan niet tijdelijk) naar de achtergrond drukt. Quote Link naar reactie
anoniem Geplaatst: 30 september 2003 Auteur Delen Geplaatst: 30 september 2003 [quote:2bf8aab305="Ben Lankamp"] Voor 1998 was ATI beter[/quote:2bf8aab305] en 3dfx dan? Quote Link naar reactie
anoniem Geplaatst: 30 september 2003 Auteur Delen Geplaatst: 30 september 2003 Ik meen me anders te herinneren dat 1998 het tijdperk van de VooDoo 3, TNT2 en Savage 3D 2000 was... En dan nog, daarvoor was 3DFX, zoals HJS al zegt/bedoelt, absoluut de beste met z'n Voodoo 2 (eventueel in SLI combinatie met TNT1) enz. enz. Sterker nog, toen waren er nog Glide only games... Quote Link naar reactie
anoniem Geplaatst: 30 september 2003 Auteur Delen Geplaatst: 30 september 2003 Een slechte naam kost op termijn heel veel geld. Dure kaarten verkopen die slecht presteren is niet slim. Nvidia draait nu nog op de successen uit het verleden (GF2 en GF4),maar vroeg of later komt de kater... Quote Link naar reactie
anoniem Geplaatst: 30 september 2003 Auteur Delen Geplaatst: 30 september 2003 Met 'Voor 1998 was ATI beter' doelde ik op: beter als nVIDIA ;) . Ik weet ook wel dat 3dfx e.a. toen de [b:76950615d3]beste[/b:76950615d3] waren :) . Quote Link naar reactie
anoniem Geplaatst: 1 oktober 2003 Auteur Delen Geplaatst: 1 oktober 2003 nVidia's volgende blunder ? In de 'review' van de Ati 9800XT stond dit 'bewijs' van de [url=http://techreport.com/reviews/2003q3/radeon-9800xt/index.x?pg=9]nVidia-cheats/'optimalisatie'[/url] : [quote:d5faaab453] Unfortunately, GeForce FX cards don't seem to run it quite right. On FX cards, some colors are "off," and math errors are visible in the lighting effects. Also, FX cards produce visible banding in color gradients. ... [/quote:d5faaab453] *ouch* en dat voor een kaart die in dezelfde prijsklasse zit. Het is dan wel geen realistische test want het is 'maar' een tech-demo van een Dx9-effect, maar toch ... Quote Link naar reactie
anoniem Geplaatst: 1 oktober 2003 Auteur Delen Geplaatst: 1 oktober 2003 [quote:10230e325b]and on the GeForce FX 5900 Ultra with 51.75 drivers [/quote:10230e325b] Tja, niks nieuws dus ;) Over die drivers is al zeer veel gesproken. Quote Link naar reactie
Aanbevolen berichten
Om een reactie te plaatsen, moet je eerst inloggen