Sie sind nicht angemeldet.
Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
An 3D FX Effekte glaub ich auch ned... abe rich halte es für möglich das man noch was an en Shadern rum gespielt hat...
Zitat von »Man_In_Blue«
Und das mit dem FX im GeForce namen ist für mich nen schlechter Witz! 3D FX hatte ine komplet andere Mentalität als N-Vidia! Der GeForce FX ist ein echter GeForce und keine VooForce! Lediglich einige Effekte in sachen Filmrealismus wurde aus dem T- bzw. M-Buffer von 3D FX übernommen... eine Paralele zwichen 3D FX und der GeForce FX halte ich trotzdem für völlig unangebracht! Zumal 3D FX und NV komplet andere absichten hatte...
Zitat von »Man_In_Blue«
Die Voodoo Karten waren stehts gute scnelle und vor am Hochqualitative 3D Beschleuniger... das augenmark lag fast nur auf den PC-Zocker... abgespeckte Mainstream Varianten gab es von den Voodoo Karten nur sehr wenige und diese setzten sicha uch ned durch... 3D FX wollte also quasi nur HighEnd 3d Karten bauen... Und zwar welche die in Leistung und quallität einfach nur ginial sind... (zB. gab es ab dem VooDoo3 nur noch 3D FX Karten mit hervoragender Billdqualli und ned nur mit guter Leistung...) und das haben die Jungs auch bis zum bitteren Ende getan...
Zitat von »Man_In_Blue«
Bei NV siehts dagegen ganz anders aus... ein Produkt muss nicht gut sein sondern sich nur gut anhören und viel verkauft werden... in fast jedem Mainstream PC saß bis vor kurzem endweder eien TnT2M64 oder eine GF2MX... klar NV baut auch viele und Teils auch gute HighEnd Karten (zB. die GeForce 256... das ist eine Karte die ich bis heute für ihre Zeit als sehr gut empfinde...), aber halt nicht so wie 3D FX es getan hat... bzw. oft muss die Quallität der Leistung weichen...
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
@ LiquidAcid
Wenn DDR2 Ram zwar eine takterhöhung bedeutet baer auch gleichzeitig schlechte Latenzen dann ist der doch weitgehend sinnlos! Der einzige Vorteil wär die bessere Ausnutzung der bandbreite durch den hohen takt... aber da hätte man sich auch was bessere einfallen lassen können...
Zitat von »Man_In_Blue«
Mit dem Synchronsiesiren ist auch son Dingen... bis vor kurzem gab es bei aTi nur GraKas mit synchronem Takt... der R7500 war der erste mit asynchronem Takt... daher denke ich mal das das ATi ed all zu schwer fallen sollte wieder auf synchronen Takt um zu steigen...
Zitat von »Man_In_Blue«
Das mit den Datenblättern des R350 isr wohl war... Ati hat aber vollgendes angekündigt:
drastische Taktsteigerung beim VPU... schätzungsweise auf ca. 400 Mhz
DDR2 Ram
2 X Füllrate
HyperZ3+
Wobei das mit HyperZ3 nen werbegag sein könnte...
Zitat von »LiquidAcid«
Lies es nach, wenn du mir nicht glaubst. DDR2 ist auf Takt aus und auf nichts anderes. Ob Weiterentwicklungen dieser Architektur das kompensieren, ich weiß es nicht, ich kann nur hoffen...
Frage: Wie soll es zur besseren Ausnutzung der Bandbreite kommen, wenn man den Takt erhöht?
Zitat von »LiquidAcid«
Lies es nach, wenn du mir nicht glaubst. DDR2 ist auf Takt aus und auf nichts anderes. Ob Weiterentwicklungen dieser Architektur das kompensieren, ich weiß es nicht, ich kann nur hoffen...
Zitat von »LiquidAcid«
Du hast mich nicht verstanden. Nicht der Takt muß synchron sein, sondern die Vergabe der Waitstates (entweder innerhalb des MC oder der Pipes). Synchronizität des Takts macht vieles einfacher, aber darum soll es hier gar nicht gehen.
Zitat von »LiquidAcid«
Hmm, also fassen wir zusammen. Der FX hat einen Takt von 500MHz, das DDR2 kann man sowieso abhacken, wir wissen alle wie das mit den Vorhersagen der Füllrate ist und zu guter Letzt, der Werbegag
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Natürlich haben die 3D FX Endwickler an der GFFX mitgearbeitert aber trozdem hat die GFFX herzlich wenig mit den VooDoo Karten gemein...
Zitat von »Man_In_Blue«
Ganz einfach. Man neme ein 512 Bit interface das mit 200 Mhz betrieben wird und ein 128 Bit Interface das von 800 Mhz Ram getrieben wird... Aus den Gründen die du noch vor kurzem angefürt hast ist das 128 Bit Interface schneller als das 512 Bit interface...
Zitat von »Man_In_Blue«
Ich habe nicht bestritten das das der Fall ist. Aber ich weiß jetzt ned ob ich dich mit den Latenszeiten richtig verstadnen habe... wenn der Takt hoch geht dafür aber auch die Timings des Rams dann ist das doch blödsinn und nur nen Werbegag da man kaum mehrleistung erhält... oder meintest du mit Latenszeiten die Zugriffszeit?
Zitat von »Man_In_Blue«
Hmm. Aber ist das denn wirklich soooo schwer zu bewerkställigen? Ich glaube ned denn sonst hätte man den Schritt in diese richtung nie getätigt... allerdings muss ich gestehen das ich hie rned so 100%ig durchblicke...
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Freut mich mit den Klausuren... hoffe du hast se gut hin bekommen
Zitat von »Man_In_Blue«
Hmm. Selbst wenn die Geforce FX 5800 ULTRA einen größeren Vorsprung zum R9700Pro hat so kostet sie doch 700 EUR!!! :o
Zitat von »Man_In_Blue«
Damit hat dann NV von mir aus den schnellsten Chip aber zu einem sehr schlechtem Preis&Leistung's verhältnis... denn man sollte ned vergessen das der R9700P bei der einführung viel schneller war als der GF4 aber mit 430 EUR recht "günstig" war... bei NV muss man nu für wahrscheinlich weniger Mehrleistung satte 300 EUR mehr auf den tisch legen...
Zitat von »Man_In_Blue«
Das die GFFX 5800 nonultra viel schneller sit als der R9700Pro bezfeifel ich stark...
Zitat von »Man_In_Blue«
Und ist ein Chip nur weil er schneller ist auch besser? Wenn ich mir die Radeon 9700 Pro angucke bekomm ich neben hervoragender Leistung noch viele 3D Features, ausgezeichnetes AA und AF, einen MPEG decoder (Vodershader...) und einem DivX quitätspusher (FullStreaming), einen FLoat Pont Renderer (welcher die Farben besser und originalgetreuer darstellt) und nicht zu vergessen exellente Singalqualli wie dualhead eigenschaften...
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Nu gucken wir uns mal den GFFX an: (wahrscheinlich) Bessere Leistung... ebenfalls viele 3D Features (teoretisch mehr nur diese werden wohl so gut wie nie eingesetzt werde [Shader V2.0+]), schnelles AA und AF (schnell aber ned besonders gut), von MPEG Decoder keine spur... nur die normlae Videohardwarebeschleunigung aber das kann manned im geringsten vergleichen, Videroqulli steigernde Features? Äm. Ned wirklich oder? DualHead? Hmm. Teoretisch haben ses ja geschaft.. nur haben se eigentlich nur hydravidion 1:1 kopirt und nennen das -View... und besonders zuverlässig arbeitet das meiens wissens auch ned wirklich...
Zitat von »Man_In_Blue«
EDIT: Und die ausgereiften Treiber beim R300 ned zu vergessen!!!
Zitat von »LiquidAcid«
Du solltest dir solche Behauptungen nicht anmaßen, wenn du keine Ahnung von der Materie hast. Der Vermutung, dass Code geklaut wurde musst du erst einmal belegen und bevor das nicht geschehen ist, ist deine Aussage Null und Nichtig. Oder ist es verboten ein Feature anzubieten, wenn es ein anderer Hersteller auch schon anbietet? Will ich doch meinen
Zitat von »LiquidAcid«
Ich habe mit den aktuellen Detonatoren auch keine Probleme, sowohl unter Win32 als auch unter Linux. UDA wirds schon richten...
Zitat von »LiquidAcid«
AA und AF: du hast noch keine Bilder der FX gesehen, wie willst du bitte darüber urteilen? Ganz zu schweigen, dass es ATi nicht einmal geschaft hat SSFSAA in ihre Treiber einzubauen, sondern nur das problembehaftete MSFSAA. Noch dazu, dass es angekündigt wurde, aber nie umgesetzt wurde und nun heftig dementiert wird. Man sollte dem Anwender schon das liefern, was man ankündigt und ihm die Wahl überlassen welches Filterverfahren er verwenden will.
Zitat von »LiquidAcid«
Den Trend wird man aber in nächster Zeit noch häufiger zu spüren bekommen
Zitat
Denkste man arbeitet immer noch mit Integer- Werten?
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Ich hab ned gesagrt das siehs geklat haben. Ati hatte Hydravision ca. 1 Jahr befpr NV mit Nview kam... deshalb rede ich von kopirt da es von der anwendung her fast identisch ist... und mit ned gut mein ich das ich Leute kenne die mit NView Props haben... ZB beim betrieb von DVI und tV-Out gleichzeitig...
Zitat von »Man_In_Blue«
Ist ja schön das du keine hast... aber die Treiber des GFFX wäreden beim erscheinen von diesem wohl noch schwächen haben.
Zitat von »Man_In_Blue«
Wiso hab ich kein Super Sampling AA? Wo steht das?
Das AA der R9700Pro wird in verbindung mit gamme Korrektur eingesetzt...
Und das mit den Filtern ist ja wohl nen schlechter witz! Was tut denn NV? Es zwingt den kunden TA-Filter auf... BA-Filter sind ned auswählbar... echt klasse...
Nein ich habe keine Bilder vom NV30 AA gesehen... ich kenne aber das ferfahren... und wenn ich dan an werbegags wie 6XS AA unf Quinox AA (oder wie man das auch immer schreibt) denke... besonders gut sieht das je ned aus...
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Rage 128, Radeon 256 DDR, Radeon 8500, Radeon 9700 Pro
Also bis jetzt war da imemr nen sehr großer Leistungssprung zu spüren und ich hoffe das sich das ned ändert...
und Takt is ned alles ned alles! (13 Mirconen)
Zitat von »Man_In_Blue«
LAut 3DCenter ist der Radeon9700Pro der erste Float Pointing Renderer auf dem Retail markt! Ob der GFFX das nu auch kann weiß ich nu ned 100%ig genau abe rich dachte dies wär end der Fall...
Zitat von »Man_In_Blue«
EDIT:
Ich hab mich nochmal mit der Bandbreite und dem Interface beschäftigt und nu bin ich auf follgendes estoßen:
Die radeon 9700 Pro hat gar keine 4 X 64 Bit sonder ein 8 X 32 Bit interface! (GFFX 4 X 32 Bit...) (nach zu lesen auf www.ati-news.de )
Also wenn die Radeon nu immer noch im ANchteil ist musst du mir das glaub ich nochmal was genauer erklären
Zitat
Die Breite eines Memorykanals ist nur die halbe Wahrheit. Die wichtige Kenngrösse ist wie viele Daten während eines Transferzyklus eingelesen bzw. geschrieben werden müssen.
Beim NV30: 32 * 2 (DDR) * 4 (Burst bei DDR-II) = 512 Bit = 64 Byte
Beim R300 gibt es 3 möglichkeiten:
1. 64 * 2 (DDR) * 2 (Burst) = 512 Bit = 64 Byte
2. 64 * 2 (DDR) * 4 (Burst) = 1024 Bit = 128 Byte
3. 64 * 2 (DDR) * 8 (Burst) = 2048 Bit = 256 Byte
Mit welchem Burst ATI jetzt arbeitet ist schwer zu sagen.
Für einen Burst von 2 spricht:
64 Tilegrösse * 6 AA Sample * 32 Bit/Sample / 24 max. Compression = 512 Bit
Für einen Burst von 4 spricht:
R300 ist laut ATI "ready for DDR-II" dort wird ein Burst von 4 vorgeschrieben
Wird jedoch der Frame und Z Buffer ein Tile gemeinsam gepeichert ergibt sich die doppelte Datenmenge wie oben, also 1024 Bit.
Persönlich tendiere ich eher zu 4 Takten Burst aber das ist nur ein Gefühl.
Was nun die Latenzen angeht so ist das bei Grafikchips kein so grosses Problem wie man denkt. Wenn man die Latenzen des Speichers genau kennt kann man die Renderpipelines so auslegen das sie die Latenz kompensieren in dem man dort Wait-Stages einbaut. Dadurch wird die Pipeline nicht durch das Speicherinterface blockiert und kann weiterlaufen. Problematisch wird es nur wenn die Bandbreite als ganzen nicht reicht und/oder der Memory-Kontroller des entsprechende Kanals mal nicht zur Verfügung steht weil auch andere Einheiten des Chips Daten brauchen.
LiquidAcid
unregistriert
Zitat von »Man_In_Blue«
Mensch du maschst mich ganz wuschig! ;D
Die radeon 9700 Pro packt 19,8 GB/Sek die GFFX 5800 ULTRA nur 16 GB/Sek... dran ändert ja eigentlich auch der Brust nix... aber wenn das so alles stimmt würden wir mit den GB/Sek Teils überhaupt ned mehr hion bekommen...
Also hab ich das richtig verstanden: Wenn ich die Burts verdopplte verdopple ich gleichzeitig die Bandbreite in GB/Sek.??
Zitat von »Man_In_Blue«
Das mit dem AA übersteigt leider meine Englischkenntnisse... aber wenn es so sein sollte wie du sagst wär das ne sauerei... oder se wollten auf den FX "Warten" um ein "neues" Feature in den R350 ein binden zu können... (aber das hat NV mit den GF3Tis auch schon gemacht...)
Zitat von »Man_In_Blue«
Mit AF und AB mein ich "bilineares
anisotropisches Filtern" und "trilinieare
anisotropische Filtern" ...
Wobei der aF der GeForce eh nen schlechter Witz ist... aber das kann man nu sehen wie man will
Zitat von »Man_In_Blue«
Und so viel Teorien man nun auch hat: es kommt auch drauf an wie's umgesetzt wird... und nur das was am Ende dabei herauskommt zählt... (ja weiß insgesamt gesehen hat das N-Vidia besser drauf als ATi... vor allem können ses besser "verkaufen" aber was ATi in letzter Zeit (Seid dem R200) abliefert ist ja wohl alles andere als schlecht, auch wenn es gerne als soclhes verhönt wird...)
LiquidAcid
unregistriert
-