@ gr3if: das ist aber Firmenphilosophi bei nVidia...
sobald man der Konkutenz technisch weit genug überliegt (auch wenns Preis/Leistungstechnisch jetzt nicht so ist... rein Architekturtechnisch sind die aktuellen G Chips von nVidia wesendlich Leistungsstärker und für die Firma provitabler wie ATis RV Serie...) wird die Entwicklung aus Kosten-optimiert und man versucht den Markt so lang wie möglich mit der bereits Vorhandenen Produkten (wenn auch hier un da natürlich unter neuem Namen usw. usw.) zu melken...
Ich mein das hat ja auch Methode... letzteres bringt mächtig schotter in die Kassen und warum "zu früh" bessere Produkte auf den Markt bringen? Muss ja nicht immer gleich jedes Ass im Ärmel ausspeilen...
Allerdings ist das auch schonmal schief gegangen... nachdem nVidia 3DFX gekauft hatte schien man hier der Ansicht das man quasie Konkurentlos sei und hat die GeForce 2 Serie unendlich lang vermaktet... und mit der GeForce 3 kam dann auch nur ein halbherzig dahin gelegter Technikträger... als ATi dann mit dem R200 (Radeon 8500) die GeForce 3 mal recht anständig deklassiert hat, hat man bei nVidia wieder Dampf gemacht und mit der GeForce 4 das auf den Markt gebracht was hätte die GeForce 3 sein sollen... - allerdings hat diese "Pause" dazu geführt das nVidia letzten endes 1 1/2 Chipgenerationen zurück hing und als dann ATi mit dem R300 hat den Hammer fallen lassen wars für nVidia schon zu spät... erst ca. 2 Jahre (!) später kam man hier mit der GeForce 6XXX Serie wieder auf Kurs...
joa... viel Blabla um nix... was ich sagen wollte ist denke ich klar oder? Hätte nVidia mehr oder stärkere Konkurenz ginge die Entwicklung auch weiter...
Wegen der Energieeffizienz:
Man muss hier Mehrere-Paar Schuhe sehen... die HighEnd Karten sind reine Technologieträger und Machbarkeits"belege" die nur aufem Markt landen um fürs Image zu sorgen... die wirklich interessanten Karten sind die MidRange Karten... und die haben sich in Sachen Energie-effizienz vor etwa 2 Jahrem einem super tief befunden (ich sag nur GeForce FX 5700 Ultra...) und mittlerweile nähert man sich hier wieder ziemlich guten Werten finde ich...
Wobei das auch nur relativ gesehen... wenn man nach dem Absoluten ergebnis Gigaflop/Watt geht befinden wir und bei den größeren MidRange Karten schon seid ewig auf einem Absoluten höhenflug...
2001 erreichte eine Radeon 9700 Pro etwa die Roh-Leistung von 8 Pentium 4 2400 CPUs bei etwa 60 W
2007 erreichte eine Radeon HD 3870 etwa die Roh-Leistung eines Mittelgroßen Supercomputers welcher sich schon fast im Terraflopp bereich befindet... für gerade mals 120 W...
Das was "stört" ist die zu hohe Verlustleistung im Idel und die Tatsache das der Asbolute verbreuc mittlerweile über 100 W liegt...
und auch dagegen wird mittlerweile "angegangen"... sowohl Intel wie auch AMD denken über minimal-Grafikeinheiten in der CPU... ich denke es wird über kurz oder lang darauf hinaus laufen das zukünftig diese Minimaleinheiten den Office Betrieb übernehmen... und erst bei Hardwarebeschleunigung/3D Anwendungen die richtige Grafikeinheit gestartet wird...
Auch die Grafikchipentwickler machen sich ja schon gedanken... bei ATi geht es nun endlich dahin das die Chips out ge souced werden XD (herlich eingedeutschte Redewendung) wobei wohl hier zum Endziel steht das man die Komplexe Architektur einer VPU in mehrere Chips auf teilt... so zB. die 2D Einheit und die Ramdacs einen eigenen Chip bekommen so wie ein (zentraler) Chip mit Speicherinterface und den kommunikationseinheiten usw. und eben (vermutlich mehrere) Chips ind denen dann die Rechenwerke stecken... - das erhöhr unterm Strich die ausbeute enorm und man kann die Leistungsaufnahme rapide senken...
Man In Blue