Sie sind nicht angemeldet.
Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.
powerslide
unregistriert
Zitat von »powerslide«
argh... mibbes! aus!
eine lichtberechnung basiert schon auf physikalischen grundlagen..
doch würde man diese tatsächlich berücksichtigen würde man jetzt noch auf den zweiten frame warten..
alle cg verfahren sind nur annäherungen.. hacks wie unser cg prof immer sagt
mit der physx wäre es evtl möglich tatsächliche pysikalische geetze zu berücksichtigen..
aber viel wichtiger als die grafikeffekte.. sind doch effekte wie gravitation .. oder die korrekte auswirkung von kräften auf körper.. in welcher form auch immer..
und das kann man nicht mit einem vertex shader berechnen :![]()
außerdem gehts halt nicht um beschleunigung.. sondern um berechnung.. im gegensatz zu schätzung und näherung!
Y0Gi [/td][/tr][/table]
Zitat
kaum denkt man, die dummheit hat ihre untere grenze erreicht, kommt schon der nächste zum limbo-contest um die ecke...
Zitat von »Fraiser«
einen physik prozessor auf die grafikkarte zu löten wär sicher die feinste lösung. aber wo würde das hinfürhen mit der wärmeentwicklung? die normalen grakas rauchen ja bald ab, und dann noch eine wärmequelle daneben? wird schwierig. außerdem glaube ich kaum das nvidia/ati mit ageia gemeinsame sache machen würde. wahrscheinlicher wäre es eher noch das sie eigene prozessoren entwickeln. (oder nvidia macht die portokasse auf und kauft ageia ;D )
Zitat von »eulB_nI_naM«
gegen eine weitere Steckkarte spricht der Preis...
Y0Gi [/td][/tr][/table]
Zitat
kaum denkt man, die dummheit hat ihre untere grenze erreicht, kommt schon der nächste zum limbo-contest um die ecke...
Zitat von »-ManiaC-«
aber so wie ich das konzept von nvida verstanden habe, wollen die ein SLI system: eine karte für die grafik eine für die physik.
das ist auch nicht unbedingt billiger
aber dafür ist mal halt flexibler, da sind die 300€ für die extrakarte halt nicht unnütz, wenn das programm das nicht unterstützt
es geht ja hier auch um zwei positionen: extra karte (chip / PPU) oder das ganze von einer existierenden architektur (GPU/CPU) berechnen lassen.
aber ohne aussagekräftige benchmarks kommen wir hier wohl kaum weiter
wenn es auf dem markt ist und sich die erste software hat blicken lassen, werden benchmarks schon zeigen, welche variante die perfomantere ist.... und das P/L verhältnis sollte man da auch nicht aus dem auge lassen
letztendlich ist ja auch noch endscheident was von den softwareentwicklern am ende mehr akzeptanz findet (da sieht wohl mit der GPUvariante besser aus, wegen portabilität auf Xbox360)
Zitat von »Fraiser«
ich glaube nicht das ageia so alleine dastehen wird. immerhin ist die lizenz für die ageia software kostenlos (die wissen auch warum), die havoc kostet ne viertel mille pro spiel.
und mal ganz ehrlich, gabs zu den anfängen der 3D zeit nicht auch die 3DFX API und nebenbei DirectX und OpenGL? der markt hat sich auch mit konkurierenden formaten entwickelt, auch wenn es heutzutage sicher einfacher von statten geht weil ein großteil auf DirectX setzt.
Zitat von »Shoggy«
edit: Hannibal-Lecter, und eine Gamer-Grafikkarte wäre dir wohl lieber? Darauf würde es erstmal hinauslaufen da nicht jeder diese Funktion nutzen will, die mit Sicherheit auch einiges am Preis ausmacht.
Zitat
Sorry, aber was bitteschön ist denn eine heutige Grafikkarte anderes als eine "Gamer-Grafikkarte"? Wenn ich nicht zocken oder einen 30"-TFT mit seiner nativen Auflösung ansteuern will, brauche ich auch keine Highend-Graka. Mit anderen Worten: Warum nicht eine weitere Optimierung für Spiele direkt integrieren?
-