Sie sind nicht angemeldet.
Zitat von »Weinachtsmann_In_Blue«
Der Delta Crome ist schon am Markt. (zumindest bei den Japsen...)
Zitat
19.12.2003 Uhr - Nach langer Zeit kommt wieder Bewegung in die Grafikkartenbranche. Grund: Die Firma XGI ihre finalen Volari-Chipsätze bereits in Produktion zu geben. Die Treiberentwicklung soll ebenfalls bald abgeschlossen werden. Damit könnte nach einer langen Zeit der Doppelherrschaft durch Nvidia und Ati wieder eine dritte Kraft im Markt erwachsen. Dem Kunden kann das nur recht sein, ist in diesem Fall doch mit sinkenden Preisen zu rechnen. Doch lohnt das Warten auf den Volari? PC Games Hardware versucht, anhand von Vorabkarten diese Frage zu beantworten. Dabei stand uns nicht nur das XGI-Flaggschiff Duo V8 Ultra (Dual-Chip) zur Verfügung, sondern auch die Ein-Chip-Lösung V8 Ultra. Wichtig: Es handelt sich hier NICHT um finale Testmuster; Benchmarkwerte, Platinendesign und Praxisprobleme sind nur erste Eindrücke.
Doppelhertz: Duo V8 Ultra
Unser Vorabboard mit Duo V8 Ultra bringt stolze 650 Gramm auf die Waage. Kein Wunder bei dem Platinendesign: Zwei Kupferkühler auf der Frontseite (ähnlich den Revoltec-Kühlern), zwei massive Kupferplatten auf der Rückseite und zwei Stromanschlüsse bietet die 22 cm breite Platine. Die Leistungsaufnahme liegt bei satten 130 Watt in der Spitze (XP 3000+, Nforce2), entsprechend leistungsstark und laut ist die Kühlung. Allerdings ist diese ebenfalls noch im Beta-Stadium, 5 Sone Lautheit dürften sensible PC-Anwender verschrecken.
Y0Gi [/td][/tr][/table]Zitat
kaum denkt man, die dummheit hat ihre untere grenze erreicht, kommt schon der nächste zum limbo-contest um die ecke...
http://www.forumdeluxx.deZitat
Es scheint immer mehr in Mode zu kommen - das "Cheaten" in den Treibern, um bessere Benchmarkergebnisse zu erreichen. Wie die Tommti-Systems berichten, brechen die Benchmarkergebnisse mit dem Shadermark V2.0 Build 1e bei den XGI-Karten deutlich ein. Der Treiber erkennt den Shadermark V2.0 Build 1e nicht mehr und kann daher die "Optimierungen" nicht mehr aktivieren. Als Resultat stieg zwar die Bildqualität, doch die Performance ließ deutlich zu wünschen übrig. Da die Differenzen allerdings bis zu 100% betragen, sind hier schon recht umfangreiche "Verbesserungen" vergenommen worden, die keinesfalls zu aktzeptieren sind, da auch die Bildqualität leidet. Auch die Kollegen von HardwareOC haben Hinweise in Jedi Outcast gefunden, die nachweisen, dass XGI es mit der Bildqualität nicht so genau nimmt. Damit reiht sich XGI in eine recht unrühmliche Reihe mit nVidia und ATI ein, die beide schon durch Optimierungen negativ auffielen. Bisher ist seitens XGI noch kein Statement zu den Vorwürfen verfasst worden.
-