Ga naar inhoud

"Final Fantasy", and "Toy Story" in real time on a PC next y


Aanbevolen berichten

[url=http://zdnet.com.com/2100-1103-893116.html]Hier[/url] een interview met Dave Kirk, Nvidia's chief scientist. In dit interview laat hij het een en ander los over de toekomst van de nVidia kaartjes. Erg itteressant is het dat hij beweert dat we volgend jaar al Animatie film kwaliteit Graphix op onze schermjes mogen verwachten met hun Next-gen kaartjes. Lijkt me wel een beetje overdreven maar we zullen zien. [quote:3c8c4888c3] Q. So we have 'better pixels'. Where does this get us? A. I want to have PCs and game machines making images that look as good as what you see at the movies, and we can't do that just by making a faster GeForce3. Last year we took a scene from 'Final Fantasy,' dumbed it down a bit and were able to render it in real time at 12 to 15 frames per second. That same scene runs at well over 30 frames per second on a GeForce4, so now, if we did it again, we should be able to render the original scene from the movie at 12 to 15 frames per second. We are less than one year away from rendering it with full details and at full speed of 30 frames per second on PC hardware. It is a chase though. For rendering frames for the movies you can always afford to wait around for a couple of hours, but in games, you need them instantly. [b:3c8c4888c3]So we will be able to render movies like 'Final Fantasy,' 'Shrek' and 'Toy Story' in real time on a PC next year[/b:3c8c4888c3], but of course the movie studios will raise the barrier. But once we can get movie quality in games and can start getting movie studios to use games hardware to create their movies, that will really bring movies and games much closer together. The biggest opportunity we have is that graphics is an infinitely parallelizable problem, much more so that PCs. With GPUs (graphics processing units) we are able to take advantage of more transistors because we can keep them busy better than in CPUs (central processing units), and this helps us double the speed much faster then every 18 months (the rule dictated by Moore's Law for CPUs). [/quote:3c8c4888c3]
Link naar reactie
Een movie of een game is wel even iets anders. Een game is veel complexer dan een movie. Bij een game moet je een interactieve omgeving hebben. Ook zit er in een game veel meer diepte dan in een film. In een film hoef je niet om de hoek te kijken of achter een boom, in een auto of gebouw etc. Wanneer het blijft bij movies zou het best wel kunnen.
Link naar reactie
DAt is waar.. zolang het een film is die je zelf rendeerd dan kan het denk ik wel. maar een Game is veel te interactief. Ik denk dat we dan tot 2008 of zo moeten wachten. :sad: Maar evengoed een itteressant interview met David. Opvallend is dat nVidia nu helemaal voor de FSAA gaan. In de toekomst kan je niet eens meer kiezen tussen FSAA aan of uit. het is dan standaard gewoon aan.
Link naar reactie
Allemaal leuk en aardig, maar in de praktijk zal er niks van terechtkomen aangezien de *gemiddelde* pc nog niet eens een simpele GeForce bezit, laat staan een GF4-type of beter. Eindresultaat : de ontwikkelaars zullen nog niet eens de helft van de mogelijkheiden *kunnen* gebruiken. En zelfs *als* ze dat kunnen/willen, dan is de kans verdomd groot dat ze een spel maken dat alleen leuk uit ziet, maar waar de 'gameplay' ver te zoeken is. Kijk maar naar het gemiddelde spel dat een 'GeForce' of beter vereist ... dat begint *nu* pas 'gewoon' te worden. De systeem-eis voor UT'03 zal in de richting van de GF2 komen te liggen ... en dat terwijl de GF3 al ruim een jaar oud is. En dan die snelheid ... +/- 30 fps is 'waardeloos' voor de 'fanatieke' gamer. Die ziet liever 60+ of nog (IMHO) idioter 120 fps ... Voor die getallen alleen al zullen we nog een jaar of 3 moeten wachten. Alles bij elkaar genomen lijkt een jaar of 5 een minimum en dan zullen de consoles waarschijnlijk de eerste zijn die zulke technologie als eerste laten zien.
Link naar reactie
Dat ben ik wel met je eens. Ik heb nog geen enkel spel gezien dat de GeForce 3, 4 ti en Radeon8500 ten volle benut. Als nVidia met hun NV30 of NV35 (direcX 9 of 10) zulke GFX kan neer zetten zullen er zeker nog een jaar of 2 overheen gaan eer het in een game word benut. Games worden tenslotte verkocht voor de grote massa en die heeft geen Videokaart van 400+ Euro is ze pc zitten. Ik verwacht dan ook pas 2006 of zo eer we dit in games zullen zien. Evengoed wel een mooie ontwikkeling want de techdemo's zullen er natuurlijk wel zijn. hebben de "early adopters" zoals IK en anderen hier teminst enog wat aan hun Next-gen videokaart :wink:
Link naar reactie

Gearchiveerd

Dit topic is nu gearchiveerd en gesloten voor verdere reacties.

  • Populaire leden

    Er is nog niemand die deze week reputatie heeft ontvangen.

  • Leden

    Geen leden om te tonen

×
×
  • Nieuwe aanmaken...