• 27.04.2024, 08:12
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 11:30

Zitat von »Disraptor«

Aber gut für meine Zwecke reicht sie locker, mal schauen was nfs Carbon dazu sagt...


Mit meiner 6800LE mit allen pipes und übertaktet gehts auf niedrigen details bei 1280x1024.
Zum glück is das spiel eh scheiße, sonst würd ich wirklich langsam über nen neues sys nachdenken.
Das is das schon das 2. spiel was nurnoch in niedrig geht ;D
Intel Core i7-4770K | Asus Z87-C | G.Skill Ripjaws 16GB DDR3-1600 | Asus DirectCU HD5850 | 250GB Samsung 840 SSD | Samsung F4 2TB | Musical Fidelity VDAC | BeQuiet Straight Power E9-CM 480W | Lian Li PC6
Zu verkaufen: LIAN LI PC-S80, 5x Noiseblocker XL1, div. Radiatoren, Laing DDC 12V, Aquadrive für 1 HDD

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 11:39

Zitat von »masta1501«

Viel bescheuerter als alle neuen Gigahz Rekorde ist ja wohl der 2. Sli Anschluss auf der Karte. Tripple SLI :P
Was soll denn der Mist, bzw. wer braucht sowas? Gibt ja noch nich ein Einziges Spiel was das unterstützt...
Meiner Meinung geht der Trend bei GRAKA in die ganz falsche Richtung. Nicht immer alle 6 Monate eine neue Generation vorstellen sondern erstmal die alte optimieren und den Stromverbrauch drastisch senken. Schon schlimm das es bei CPUs ein zeitlang so war siehe Prescott.
Warum haben ATI und NVIDIA nicht daraus gelernt? Lieber ein Jahr aussetzten und dann in kleinerer Fertigung bauen. Die machen den selben Sche&% wie Intel und AMD bis zum Core2 (Bzw AMD immernoch :P)
Nach den Berichten zu Urteilen bringt die Karte ja nur wirklich mehr Leistung bei 1600x1200 oder mehr...

Wäre schöner wenn mal wieder ein Spiel kommen würde das auch die 1800 und 7900 Generationen voll ausreizen würde. Ein Spiel was einen mal wieder vom Hocker haut wie HL2 damals oder Quake2/3 ;D

Nich diese superschlecht Programierten Ruckelorgien wie Oblivien und wie sie alle heißen. Da würd einem durch schlecht Programmierung vorgekaukelt das das System zu langsam sei :P

Ciao



Ähm meine xtx bekommt cod2 zb bei meinder 1600 auflösung nicht mehr über 30FPS hin :( da muss ich auf dx7 runter. Also soviel wie nicht ausreizen. Spiele werden kommen bzw wenigstens eins Farcry2 *sabber* Nicht wegen dem spiel selber aber die grafig ::) zu geil :)
M.-Sys: Gigabyte GA-FX-58-extreme / 920@4Ghz / 6gig Corsair / r9 290 all AC



Wäre es nicht adäquat, den Usus heterogener Termini zu minimieren?
(Sollte man nicht weniger Fremdworte verwenden?)


Religionskriege sind Konflikte zwischen erwachsenen Menschen, bei denen es darum geht, wer den cooleren, imaginaeren Freund hat

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 11:43

Zitat von »Spitfired«

evtl. gibts ja zu den grafikkarten bald ein gratis nt .. auf die 10 euro kommts dann auch nicht mehr an



öhm hatten wir schon dar war doch ma ne 4chip karte vonner firma mmm irgentwas mit nadeln und puppen  ;D und dann noch die erste dual gpu am anfang der 7000 reihe
Aber du hast recht 300w+ das ist zimmlich fürn A**** das über das SYS NT laufen zu lassen. ICH WILL NEN DREHSTROMANSCHLUSS  :P
M.-Sys: Gigabyte GA-FX-58-extreme / 920@4Ghz / 6gig Corsair / r9 290 all AC



Wäre es nicht adäquat, den Usus heterogener Termini zu minimieren?
(Sollte man nicht weniger Fremdworte verwenden?)


Religionskriege sind Konflikte zwischen erwachsenen Menschen, bei denen es darum geht, wer den cooleren, imaginaeren Freund hat

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 11:50

Zitat von »masta1501«


Außerdem warum wird man denn als unwissend dargestellt nur wenn man seine Meinung äußert?
Wo sind denn die Spiele die das Physiksystem benutzen?
Spätestens mit 4 Kernen in der CPU und guter Programmierung sind doch solche Extrakarten hinfällig.
Bin halt nur der Meinung das viele einfach immer zu gutgläubig sind und alles glauben was die Industrie einem erzählt.



Ähm die cpu schaft das auch so schon nur das problem ist der weg.... bzw die flaschenhälse und wer wartet auf wehn... wenn das alles zentahl geht hat das schon einen sehr grossen vorteil. Aber generell hast recht :) Der stromhunger ist voll fürn *** weisst was ich mein ;D. Das zeigt eigentlich nur das GF unter imensem druck die karte auf den Markt wirft und diese aus alten komponenten zusammen geschustert ist. Richtig zuendeentwickelt sollte die hälfte an strom auch reichen :)
M.-Sys: Gigabyte GA-FX-58-extreme / 920@4Ghz / 6gig Corsair / r9 290 all AC



Wäre es nicht adäquat, den Usus heterogener Termini zu minimieren?
(Sollte man nicht weniger Fremdworte verwenden?)


Religionskriege sind Konflikte zwischen erwachsenen Menschen, bei denen es darum geht, wer den cooleren, imaginaeren Freund hat

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 11:56

Evtl könntest du das in Zukunft auch in einem Post schreiben!? :P
Das mit dem Drehstrom ist natürlich völliger Mist. Pro Raum kann man heutzutage in der Regel 16 Ampere bei 230 Volt ziehen. Sprich gut 3500 Watt.
Soweit sind die Computer jetzt Gott-sei-dank noch nicht. Ich finde die Leistung der neuen Karte beeindruckend, frage mich aber auch ob so ein riesen Stromverbrauch nötig ist. Evtl bessert sich das aber noch wenn Nvidia auf 65nm Prozess umsteigt.


Edit:
Meiner Meinung nach sind die Techreport Artikel mitunter die besten im Netz:
http://techreport.com/reviews/2006q4/gef…00/index.x?pg=1

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 12:02

Zitat von »Trauma«

Evtl könntest du das in Zukunft auch in einem Post schreiben!?  :P
Das mit dem Drehstrom ist natürlich völliger Mist. Pro Raum kann man heutzutage in der Regel 16 Ampere bei 230 Volt ziehen. Sprich gut 3500 Watt.
Soweit sind die Computer jetzt Gott-sei-dank noch nicht. Ich finde die Leistung der neuen Karte beeindruckend, frage mich aber auch ob so ein riesen Stromverbrauch nötig ist. Evtl bessert sich das aber noch wenn Nvidia auf 65nm Prozess umsteigt.


Edit:
Meiner Meinung nach sind die Techreport Artikel mitunter die besten im Netz:
http://techreport.com/reviews/2006q4/gef….x?pg=1[/quote]
Man du eumel das war nen scherz ..... omg
M.-Sys: Gigabyte GA-FX-58-extreme / 920@4Ghz / 6gig Corsair / r9 290 all AC



Wäre es nicht adäquat, den Usus heterogener Termini zu minimieren?
(Sollte man nicht weniger Fremdworte verwenden?)


Religionskriege sind Konflikte zwischen erwachsenen Menschen, bei denen es darum geht, wer den cooleren, imaginaeren Freund hat

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 14:23

Edit, falsches Topic :P

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 16:35

Weis man eigentlich schon wann ati zum gegenangriff bläßt? ... die 8800gtx is zwar oberst übel, aber kommt mir nich ins case :)
Sys: 7900X | ASUS ROG STRIX X299-E | Trident Z 32 GB DDR4-3600 | EVGA 2080 TI xc ultra

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 17:19

vor allem is die ja nur richtig überlegen wenns in so regionen von auflösungen jenseits der 2048x1536 geht und dann auch noch AA und AF hinzu kommt.
Vorher hat die garnicht sooooo mords vorteile gegenüber den anderen.
Ich mein die meisten leute werden nen 19" monitor haben und in 1280x1024 oder allerhöchstens 1600x1200 wenn der das bringt spielen.
Da lohnt sich das nicht wirklich, vor allem der stormverbrauch is nurnoch eines lächeln wert ;D
Obwohl... eigentlich is das ja eher traurig als lustig ::)
Intel Core i7-4770K | Asus Z87-C | G.Skill Ripjaws 16GB DDR3-1600 | Asus DirectCU HD5850 | 250GB Samsung 840 SSD | Samsung F4 2TB | Musical Fidelity VDAC | BeQuiet Straight Power E9-CM 480W | Lian Li PC6
Zu verkaufen: LIAN LI PC-S80, 5x Noiseblocker XL1, div. Radiatoren, Laing DDC 12V, Aquadrive für 1 HDD

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 17:37

Zitat von »enta«

ie 8800gtx is zwar oberst übel, aber kommt mir nich ins case :)

gehäuse zu klein? ;D ;D ;D


naaaa, hab schon verstanden was du sagen willst ;)

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 19:02

Zitat von »Steinman«

vor allem is die ja nur richtig überlegen wenns in so regionen von auflösungen jenseits der 2048x1536 geht und dann auch noch AA und AF hinzu kommt.
Vorher hat die garnicht sooooo mords vorteile gegenüber den anderen.
Ich mein die meisten leute werden nen 19" monitor haben und in 1280x1024 oder allerhöchstens 1600x1200 wenn der das bringt spielen.
Da lohnt sich das nicht wirklich, vor allem der stormverbrauch is nurnoch eines lächeln wert  ;D
Obwohl... eigentlich is das ja eher traurig als lustig  ::)


Nunja wenn man soviel Geld für ne Grafikarte hat man wohl auch nen fetten 24" oder besser...

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 21:02

@ masta1501:

und mal wieder die Sache mit der Ahnung...

1. zur Leistugnsaufnahme: wie soll den der Chipentwickler diese aktiv senken? Du stellst das so da als ginge Jen-Hsun Huang eines morgens zu seinen Ingeneuren und sagt denen baut mal ne VPU dies und jenes kann und obendrein noch 200 W Leistung braucht... ::)

Das ist murks... man bewegt sich bei den High-End Karten nunmal bewusst an den grenzen des machbaren. Und eine VPU die eben über 128 Shader verfügt und obendrein noch einen aktzeptablen Takt hat braucht nunmal eine gewisse Menge an Energie... nicht zu vernachlässigen ist jedoch auch die Tatsache aus auch der Ram ne Menge Strom braucht...

Natürlich kann nVidia ökonimischere VPUs brauen... und das wird ja auch getan... in der Mid-Range und Low-Cost Sparte findet man kaum noch so stromfressende CPUs...

die High-End Modelle richten sich nunmal an Kunden die vor allem Leistung wünschen und wenn die Priorität auf Leistung liegt dann wird der "verbrauch" nunmal rasch hoch... - du wunderst dich ja auch ned wenn dein Sportwagen en paar Liter mehr schluckt wie en kleinwagen... ;)

so... 2. zur Physik:

Das hier immer alle leute mit Dual-Core kommen... ;D

Würde man auch nur einfachste elemente der Grafikberechnung wieder "zurück" an die CPU geben (zB. den Z-Test oder das Alpha-Blending was nunmal echt keine wirklich schweren aufgaben sind) wäre diese sofort komplett ausgelastet...die VPU würde dadurch jedoch nur minimalst entlastet... das liegt daran das die VPU nunmal für solcher Rechnungen konstruiert ist... und die CPU eine wesentlich größere Fläche von applikationen abdecken muss wie die VPU... (man sieht auch sehr schnell wie spezialisiert die VPU ist... allein durch den umstieg von PS und VS auf US hat die einzelne Shader einheit an sich erstmal enorm an wirkungsgrad eingebüst)

Bei der Physik soll es mal ähnlich aussehen... sprich: mit einer fortschrittlichen Physikengine kann man eine CPU komplett überfordern oder auslasten... das ist ja auch der Grund warum wir bis heute nur so ne kinderstuben Physik in Games sehen obwohl es im bereich der 3D-Animation zB. richtig gute Physik Engines gibt... jedoch ist bei diesen Engines die CPU bereits mit der brechnung eines einzigen Objektes sehr am limit... wie soll man da hunderte Objekte wie in einem Game von der CPU berechnen lassen?

Ob nun eine Grafikkarte da so viel schneller wäre sei nun dahin gestellt... allein von der FLOP Leistung her sind aktuelle GraKAs den CPU meist weit vorraus... und angeblich soll es zwischen Grafikprogrammierung und physikprogrammierung größe ähnlichkeiten geben... daher ist zumindest der ansatz dazu recht sinnig wie ich finde...

Und da wir uns hier wie gesagt im High-End Bereich befinden wird diese Option natürlich auch angeboten...

Aber das man als High-End User meist schon Features zu verfügung hat die im Mainstream markt erst wesentlich später kommen ist auch nichts neues...

Betrachte die HighEnd USer als Pioniere der PC-User... oder von mir aus die den High-end Mark als rennzirkus der IT-Branche wo viel ausprobiert wird...

Ich selbst bin jedenfalls sehr positiv überrascht von der neuen nVidia Karte... das was nVidia mit den 7XXX Karten verbrochen hat war einfach nur ein Witz... mal sehen was AMD/ATi noch auf die Beine stellt... und ob nVidia es diesmal hin bekommt diese "Bufs" wie Texturflimmern oder winkelabhängiges AF aus den Treibern raus zu lassen... - vielleicht kann ich mich dann sogar irgendwann wieder trauen ne nVidia Karte zu kaufen ;)

Man In Blue
A sinking ship is still a ship!

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 21:53

http://hardware.thgweb.de/2006/11/08/nvi…afikkarte-test/

Sieht interessant aus ...


Gruß Max Payne

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 22:25

aha nvidia schlägt ati

nun mal sehen wann es heisst

ati will zurückschlagen ist jedoch pleite :-)

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 22:42

Zitat von »Spitfired«

ati will zurückschlagen ist jedoch pleite :-)

ATI kann gar nicht mehr zurückschlagen, wenn macht das AMD ;) :P


Meine Meinung zu der Karte: GEIL *habenwill*
Aber mein realistisches Ich meint: Viel zuviel power für meinen "kleinen" 19er und die aktuellen Spiele.
Und mein Konto sagt nur noch *ächz* "HUNGER!! will Kohle!" :-/
[table][tr][td] [/td][td]

Zitat

kaum denkt man, die dummheit hat ihre untere grenze erreicht, kommt schon der nächste zum limbo-contest um die ecke...
Y0Gi [/td][/tr][/table]

r4p

Senior Member

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 23:03

@ MIB: Die sache mit dem "Was sollen sie denn tun?" finde ich, als langjähriger Anhänger der Kyro Karten berechtigt.

Ich habe noch bis vor nicht alzulanger Zeit meine Kyro 2 (175MHz) mit 64 MB SD-Ram (133 MHz) eingesetzt. Das einzige Manko, was die Karte hatte, war der fehlende T&L Satz.
In Sachen Vertex/s oder Füllrate kann die Karte immernoch mit einigen auf dem Markt angebotenen konkurieren. Jedenfalls, wenn man die tatsächliche Füllrate berechnet.

Vergleich: Ein SLI-System aus 2x GF 7600 GT (wie ich es verwende) berechnet alles, was die Software abgibt. Davon werden nachher nur ~15% dargestellt, der Rest ist nicht sichtbar, wird aber dummerweise trotzdem mitberechnet.
Die Kyro löscht vorher, was nicht zu sehen ist und rendert dann --> 100% der gerenderten Bilder sind auch zu sehen.

NVidia und ATI / AMD sollten mal auf diesem Ast wieder einen Ansatz starten.

r4p

Achja, Kyro wurde aufgekauft, schon vor einigen Jahren (2003?). War glaub ich NV...
Gentoo nutzer mit Herz und Seele: Gentoo Gentoo Wiki

"Bei der Eroberung des Weltraums sind zwei Probleme zu lösen: die Schwerkraft und der Papierkrieg. Mit der Schwerkraft wären wir fertig geworden." - Wernher von Braun

Re: GeForce 8800GTX vorgestellt

Donnerstag, 9. November 2006, 23:06

Stimmt, die Kyro dinger warn schon ziemlich geil.
Das prinzip is auch eigentlich ganz sinnvoll, sollte echt mal wieder sowas in der richtung gemacht werden.
Vielleicht probierts ja irgend ne ausenseiterfirma mal wieder.
Intel Core i7-4770K | Asus Z87-C | G.Skill Ripjaws 16GB DDR3-1600 | Asus DirectCU HD5850 | 250GB Samsung 840 SSD | Samsung F4 2TB | Musical Fidelity VDAC | BeQuiet Straight Power E9-CM 480W | Lian Li PC6
Zu verkaufen: LIAN LI PC-S80, 5x Noiseblocker XL1, div. Radiatoren, Laing DDC 12V, Aquadrive für 1 HDD

Re: GeForce 8800GTX vorgestellt

Freitag, 10. November 2006, 00:05

Zitat von »r4p«

@ MIB: Die sache mit dem "Was sollen sie denn tun?" finde ich, als langjähriger Anhänger der Kyro Karten berechtigt.

Ich habe noch bis vor nicht alzulanger Zeit meine Kyro 2 (175MHz) mit 64 MB SD-Ram (133 MHz) eingesetzt. Das einzige Manko, was die Karte hatte, war der fehlende T&L Satz.
In Sachen Vertex/s oder Füllrate kann die Karte immernoch mit einigen auf dem Markt angebotenen konkurieren. Jedenfalls, wenn man die tatsächliche Füllrate berechnet.

Vergleich: Ein SLI-System aus 2x GF 7600 GT (wie ich es verwende) berechnet alles, was die Software abgibt. Davon werden nachher nur ~15% dargestellt, der Rest ist nicht sichtbar, wird aber dummerweise trotzdem mitberechnet.
Die Kyro löscht vorher, was nicht zu sehen ist und rendert dann --> 100% der gerenderten Bilder sind auch zu sehen.

NVidia und ATI / AMD sollten mal auf diesem Ast wieder einen Ansatz starten.

r4p

Achja, Kyro wurde aufgekauft, schon vor einigen Jahren (2003?). War glaub ich NV...



Na... das stimmt so aber nicht...

klar in den Werbetexten von ST-Micro kommt das hin... das ein "conventioneller" Grafikchip einen vershnitt von 40-70% hat (je nach anwendung)...

Jedoch haben ATi und nVidia Karten ebenfalls schon seid eh und je early-Z-Tests... nur waren die zu zeiten der Kyro alles andere wie ausgeklügelt und effektiv... aber spätestens seid der Radeon 8500 bzw. GeForce 4 Ti bieten ATi und nVidia recht effektive vorgezogene Z-Tests um eben nichtsichtbare pixel schon vorzeitig aus den Berechnungen aus zu schließen... bei den aktuellen Karten muss sich die Prozentuale Füllratheneffektivität (dank early-Z, Color Compression und Multi-Sampling) eigentlich nicht mehr hinter den Kyro Karten verstecken...

Der Kyro lässt sich zudem überhaupt nicht mit einer VPU vergleichen. Der Kyro war noch ein Chip mit fest verdrahteten Mathematischen funktionen aber quasie ohne Programmierbarkeit... dadurch konnte ST-Micro das Dingen natürlich sehr "schmal halten" und so kostengünstig produzieren... mit einem modernen Grafikprozessor kannste des aber nicht gleich setzen.

// OT //

Übrigens war die Achilles-Verse des Kyro genau das was er angeblich so gut kann: Effektive Füllraten-nutzung... (wie damals übrlich) kann der Kyro lediglich Super-Sampling... das macht es quasie unmöglich Anti-Aliasing auf dem ding zu benutzen da hierführ wirklich viel Bandbreite von nöten ist. (der komplette Frame wird in dopperlter oder vierfacher auflösung gerendert und dann neu in einer tieferen Auflösung gerastert) - Ein Multi-Sampling wäre hier wohl wesentlich angebrachter gewesen... und hast du mal versucht das ding mit einem trillinearen anisotropen Filter zu fahren? Nicht lustig...

// OT //

Man In Blue
A sinking ship is still a ship!

r4p

Senior Member

Re: GeForce 8800GTX vorgestellt

Freitag, 10. November 2006, 01:00

Naja, versucht schon :-X

Bis zu meienr GF 5600 GTS hat sie sich dennoch wacker geschlagen. Zumindest, solange FsAA und Multisampling ausgeschaltet wurden.

Und die GF 4 hat sie so in die Tasche gescteckt ;)


Bin halt der meinung, das mann mit Mehr Transistoren immer mehr Lestung bringen kann. Aber die wirkliche Innovation fehlt in letzter Zeit auf dem Grafikkartenmarkt doch ziemlich.

AMD und Intel haben das auf dem CPU-Markt inzwischen mal wider hingekrigt (AMD 64 & C2D).

r4p
Gentoo nutzer mit Herz und Seele: Gentoo Gentoo Wiki

"Bei der Eroberung des Weltraums sind zwei Probleme zu lösen: die Schwerkraft und der Papierkrieg. Mit der Schwerkraft wären wir fertig geworden." - Wernher von Braun

Re: GeForce 8800GTX vorgestellt

Freitag, 10. November 2006, 02:05

Zitat von »r4p«

Naja, versucht schon :-X

Bis zu meienr GF 5600 GTS hat sie sich dennoch wacker geschlagen. Zumindest, solange FsAA und Multisampling ausgeschaltet wurden.

Und die GF 4 hat sie so in die Tasche gescteckt ;)


Bin halt der meinung, das mann mit Mehr Transistoren immer mehr Lestung bringen kann. Aber die wirkliche Innovation fehlt in letzter Zeit auf dem Grafikkartenmarkt doch ziemlich.

AMD und Intel haben das auf dem CPU-Markt inzwischen mal wider hingekrigt (AMD 64 & C2D).

r4p



Hö?

Wie dir fehlt innovation?

DirectX-9 war bahnbrechend... Freiprogrammierbare Prozessoren die alle(!) Grundbefehle der Mathematik bearbeiten können. Quasie föllige Freiheit der Programmierer... das SM3.0 sogar mit nochmal vielen weiteren Befehlen die das Programmieren eines Shader-Programms wesentlich einfacher machen... (das ist im vergleich zu der Programmierung unter DX8 wie der sprung von basic zu C++... und die syntax der meisten Shader-Sprachen sind C sher ähnlich)

Mit DX10 kommt nun nicht nur weigehend Unified-Shader (also prozessoren die nochweiter, unspezialisierter sind und sich also noch individueller an die Applikation anpassen lassen) und dazu noch das neue Treiber-system von Direct3D 10 bzw. WGF2.0...

Das sind schon en ganzer haufen Innovativer neuerungen... - lediglich die Software-entwickler sind mal wieder im tiefsten winterschlaf... - normal Mapping und Displacement Mapping (Geometrie-Mapping) ist seid der Matrox Parhelia-512 bzw. der Radeon 9700 Pro (ANNO 2002) machbar (man denke mal an die ATi F50 Demo... einfach nur schick)... erste Games die das auch nutzen kommen jetzt langsam so gerade auf den Markt... das sind mal eben 4 Jahre rückstand...

HDR... Marketing-Stichwort schlecht hin... ausgeschlachtet bis aufs letzte... eines der meist Gehypten und meist genutzten neuen Features überhaupt... und trozdem nutzt es kaum eine Applikation wirklich im vollem umfang...

Zuletzt nun die möglchkeit Havok Physik-Engines mit Shadern beschleunigen zu können... wenn das nicht Innovativ ist? - Aber gibts irgendwo en Game wo das vernünftig eingebettet ist?


-


Wobei die Softwareprogrammierer nun auch nicht wirklich dafür können... die meisten Softwareprojekte dauern nunmal mehrere Jahre bis sie fertig gestellt werden können... und die Engines die dahinter stehen ist dem entsprechend meist auch nicht erst gestern Programmiert worden... alle super aktuellen Grafikfeatures können da also nur noch "dran gebastelt" werden... kommt mir jedenfalls oft so vor... - allerdings hab ich irgendwie auch die vermutung das die Software-Designer teilweise gar nicht so wirklich mit den möglichkeiten der Hardware vertraut sind...


lange rede - kurzer sin: innovationen sind meiner Ansicht nach in den letzten Jahren viele da gewesen... wir warten nur lediglich noch auf die umsetzung...


Man In Blue
A sinking ship is still a ship!