• 18.06.2025, 11:32
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 22:54

Zitat von »Man_In_Blue«

Warum du nur dazu was sagst? Hmm. Vielleicht weil du vor kurzem noch behaptest hast die Radeon 9700 Pro behersche weder d- noch n- mapping und wäre nicht DX9 kompatibel so das du dich nu raus hälst? :P (ned zu ernst nemen, aber das liegt mir immer noch quer das man hier und dir son Kohl verzapft hat)

Du kannst so ziemlich alles DirectX9-kompatibel machen, selbst eine S3 Virge ist mit den richtigen Treibern voll DX9-kompatibel. Das beantwortet aber in keinster Weise die Frage ob die vom Treiber gereichten Features überhaupt in Hardware implementiert sind oder nicht.
Und da sieht es bei dem R300 nicht so rosig aus... ;)

cya
liquid

Man_In_Blue

Moderator

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:01

DU!!!!!!!!!!!! *ARGE*

Natülrich ist das Displacement Mapping und Normal Mapping Hardwareseitig intigrirt! Wozu braucht man sonst nen Vertex/Pixel Shader der Version 2.0??

Nachzulesen auf JEDER BELIEBIGEN Hardwareseite die die R9700P getestet und ahnung von der MAterie haben!

Nicht rosig siehts für den NV30 aus der er nur da- die Galbe Vertex Power bringt wie der R9700P! :(
A sinking ship is still a ship!

thetruephoenix

God

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:09

nv30...das war doch der ti-chip mit agp8x oder?is das auch beim ti mit agp 4x so?oder war der nv30 fx...

edit: jetz fällts mir wieder ein: ti 4x nv25; ti 8x nv28; fx nv30
(14:03:23) (Cerbis_Latran) Dude, uhm. Do me a personal favor?
(14:03:51) (Eliza) what is it?
(14:04:04) (Cerbis_Latran) Never kill anyone. You'd enjoy it far too much.

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:10

Nö, sry MiB, dat stimmt nun so gar net. Ich zitiere mal Demirug aus dem 3DCenter Forum.

Zitat

Displacement mapping geht auf Matrox zurück und wurde, wie Aquaschaf schon gesagt hat, in die DX9 Specifikation aufgenommen.

Allerdings benutzt man keine Graustufen-Bitmaps sonder Normal-Vektoren-Maps. Als BMP sehen diese sehr bunt aus, da die X,Y und Z-Werte als RGB Werte hinterlegt sind.

So wie die Lage derzeit aber aussieht würde ich dieses Feature aber in keinem Spiel erwarten.

-NVIDIA beherscht diese Technik nur durch einen Trick der keine gute Performances erwarten läst.

-ATI unterstützt nur eine stark eingeschränkte Variante und diese ist mit den aktuellen Treibern noch sehr CPU lastig da grosse Teile nicht vom Chip gerechnet werden.

-Matrox beherscht das Verfahren zwar aber aufgrund der geringen Anzahl von Matroxkarten in spielerhänden ist es für die Entwickler uninteresant.

-Der neue Vertex-Shader 3.0 enthält Features die DM überflüssig machen. Derzeit gibt es zwar noch keinen Chip der VS 3.0 beherscht aber diese dürften relative schnell verfügbar werden.


Und man sieht, dass man mindestens VS-3.0 braucht, also nix mit R300 hat 2.0 und kann das deshalb. UND das jetzige Verfahren ist zwar da, aber Großteil in Software und das zieht natürlich ganz schön an der Leistung.
DM in seiner wohl besten und einwandfreisten Form kann bis jetzt nur der Parhelia und der ist halt nicht besonders interessant für Game Devs. Ich weiß noch nix über den R350, aber das sehen wir dann schon ;)

Schönen Tag noch! :)

Man_In_Blue

Moderator

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:25

Hö?

Was soll das denn bitte heißen?

Und wieso läuft die ATi Demo dann so flot in der nomal mapping rech eindrcksvoll demonstrirt wurde?

(ja die Autodemo! Bei der nebenbei teilweise die ganze Szene 4Xmal gleichzeitig in verschiedenen versionen gerechnet wurde... also sollten noch reserven da gewesen sein... wenn das also wirkloch so CPU lastig ist wiso lief's dann einwandfrei? Und wiso schreiben dan X Hardware seiten das der R300 D-Mappung unterstützen würde?)

EDIT: Beim R350 hat sich quasi all das bewahrheitet was ich bereits im CS Tread damals gesagt hab... die Shader wurden teis mächtig aufgebort um eingermaßen die flexiblität der GFFX Shader zu erreichen... auch wenn das nicht ganz möglich war...)
A sinking ship is still a ship!

PeterBang

Senior Member

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:27

Zitat

Warum du nur dazu was sagst? Hmm. Vielleicht weil du vor kurzem noch behaptest hast die Radeon 9700 Pro behersche weder d- noch n- mapping und wäre nicht DX9 kompatibel so das du dich nu raus hälst?
Alter Schwede MIB. Das hab ich NIE und NIMMER behauptet. Ich sag deshalb nix mehr dazu weil du einem jedes Wort als Anti ATi beitrag wertest, weil du eh alles besser weist, weil du meine Aussagen immer falsch wertest, weil es keinen Sinn macht mit dir darüber zu reden, weil du alles was ich sage falsch interpretierst, weil du immer ATi zu verteidigen versuchst obwohl ich es gar nicht angegriffen hatte, weil du meine Beiträge umwurschtelst und als Ati feindlich auslegst, weil.......

Deshalb mein lieber. Deine ganze Argumentationskette hat solche Löcher das es hier jedem bekannt ist das man ATi nicht so sehen kann wie du es gerne hättest
The reason I know I am God is because one day as I was praying, I realized I was talking to myself.

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:31

Vielleicht weil die X Hardwareseiten keine Ahnung haben und einfach nur dumm nachplappern was ihnen die Hersteller in die Hand drücken?
Und sicherlich haben sie damit recht, dass der R300 D-Mapping unterstützt und wie ich schon gesagt habe, die Unterstützung allein gibt einem nicht die geringste Informationen wie dieses Feature implementiert wurde.

Und zu dem Auto-Dingen hab ich keine Ahnung, kann mir aber vorstellen, dass dort getrickst wird oder das gar kein richtiges D-Mapping ist, sondern nur dieses statische Variante, die man einmal im CPU berechnet, in den GPU-Speicher schiebt und fertig isses. Aber wie gesagt, da bin ich überfragt.

cya
liquid

quattro-rs

Full Member

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:32

Hab mit meiner 9500 nonpro auch keine probs bei Splinter Cell mit Catalyst 3.1 und DX9.0 !!!

Was soll eigentlich der ganze quatsch mit den "schlechten" Treibern von ATi ???
Habe min. schon 20 aktuelle und auch ältere Spiele mit der Karte gespielt und noch NIE probs mit Treibern gehabt !!!

P.S. lasst MIB doch in ruhe , er bringts halt auf den punkt was NV jünger halt nicht gerne hören wollen !!! -> meine subjektive meinung :-X ;D

MfG.
Walter Röhrl über den Audi S1 quattro Pikes Peak: "Jeder Tritt aufs Gaspedal kann ein furchtbarer Fehler sein und neben Dir gehts 400m abwärts, das war schon unglaublich toll!"

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:33

Zitat von »Man_In_Blue«

Hö?EDIT: Beim R350 hat sich quasi all das bewahrheitet was ich bereits im CS Tread damals gesagt hab... die Shader wurden teis mächtig aufgebort um eingermaßen die flexiblität der GFFX Shader zu erreichen... auch wenn das nicht ganz möglich war...)

Ist das unser Thema? Nein, also versucht nicht abzulenken. Wir reden hier grade über den R300 und nicht den R350. ;)

Man_In_Blue

Moderator

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:35

su hast dreister weise behauptet der R300 würde TrueForm2 ned unterstützen was nix anderes als d- & n-mapping ist.

In Wahrheit wird baer nur der n-Patch aus TureForm 1 nicht wirklich hardwareseitung unterstützt wie es Liqued eindrucksvoll "demonstrirt" hat... aber der n-Patch hat nix mit d- und n- Mapping zu tun. Kanna ber durch jede DX9 KArte emulirt werden. (Teo. jedenfalls)

Wennd u drauf bestehst such ich die passende stelle sogar nochmal raus.

EDIT: EIgentlich ist das Thema hier das NV nachgelassen hat.


@ quattro-rs:

Danke.  ;D

Ich fühle mich nun von mir selber bestätigt. Das git mir die Kraft die nächsten 6 Monate so weiter zu machen und mich ned unter kriegen zu lassen!  ;) ;D


@ll: Da hört ihrs! Hat hier eigentlich überhaupt jemand ne radeon und Props damit? Wenn ned: wie wollt ihr denn die treiber schlecht beurteilen wenn ihr se ned habt oder se keine Props machen?


EDIT: Sorry. Bin gerade bissel ausgetikt... hatte halt meine dollen 5 minuten ;) :-/
A sinking ship is still a ship!

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Montag, 10. März 2003, 23:53

Zitat von »Man_In_Blue«

su hast dreister weise behauptet der R300 würde TrueForm2 ned unterstützen was nix anderes als d- & n-mapping ist.

Ich sage nicht, dass sie es nicht kann. Ich bezweifel allerdings ernsthaft, dass sie das Feature in Hardware hat.

Zitat von »Man_In_Blue«

In Wahrheit wird baer nur der n-Patch aus TureForm 1 nicht wirklich hardwareseitung unterstützt wie es Liqued eindrucksvoll "demonstrirt" hat... aber der n-Patch hat nix mit d- und n- Mapping zu tun. Kanna ber durch jede DX9 KArte emulirt werden. (Teo. jedenfalls)

Ein Wunder, dass er das mit TF1 überhaupt geschluckt hat. Das mit dem D-Mapping schluckt er auch noch, verlasst euch drauf. ;)

Zitat von »Man_In_Blue«

EDIT: EIgentlich ist das Thema hier das NV nachgelassen hat.

Also wollen wir ein extra Thema für eine Sache aufmachen, die sowieso so klar ist wie sie Kloßbrühe nicht klarer sein könnte.

Noch kleiner "technischer Anhang". Also, es ist ohne Vertex Shader der Version 3.0 unmöglich Daten in der GPU zu erzeugen. Sprich jeder Vertex der in den VS "reinkommt" kommt auch wieder raus. Halt verändert, aber würde man ihn irgendwie markieren, wüsste man, dass es immer noch der gleiche ist. Das Problem ist nun, dass bei all diesen Tesselationsverfahren neue Vertices generiert werden müssen. Man hat eine polygonale Fläche, die man durch ein Heightmap-Bitmap zusätzlich "auftesseliert". Der Grid, also das Raster der Bitmap, wird auf die polygonale Fläche gelegt und dann wird "auftesseliert". Danach werden noch anhand der Höheninformation die erzeugten Punkte verschoben, das sogenannte Displacement findet statt.
Das Problem ist nur, dass man in VS der Version 2.0 (oder sagen wir besser unter Version 3.0) keine Vertices in dem VS erzeugen kann. Hat was mit den Pipelining, Flow Control, etc. zu tun, fragt mich nicht, auf jeden Fall muß man da am Kern einiges ändern, damit das funktioniert.
Ich glaube man sieht das Problem. Wie soll eine Karte wie die Radeon 9700 Pro mit einer VS-2.0 GPU das in Hardware machen? Schlicht und ergreifend, es geht einfach nicht. Man erledigt die Tesselation in der CPU, das Displacement kann dann immer noch die Karte übernehmen. Das Problem ist dann nur, dass erstens die CPU belastet wird und zweitens ein Transfer von Geometrieinformationen von der GPU und zurück geleistet werden muss.
Der R200 konnte es, da er eine extra Einheit im Chip hatte, die einzig und allein für diese Aufgabe bestimmt war. Jedoch hat man diese Einheit in den kommenden Architekturen einfach weggespart und damit ist der Support für Tesselation innerhalb der GPu flöten gegangen.
Thats it! :)

Aber dafür hat die R350 ja den F-Buffer, den ich vom Konzept her eigentlich net schlecht finde. So hat jeder was woran er sich "klammern" kann. Die NVs ihre Turbinen *weh* und die ATis ihre Buffers. Wohl bekomms, ich mach Schluß für heut. Morgen letzte Abi-Vorklausur, ich bin schon ganz hibbelig! ;D

Man_In_Blue

Moderator

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 00:02

Das man die TrueForm einheit gekickt hat ist ja wohl verständich... bei so wenig Games die TrueForm sinfoll genutzt haben :'(

aber da wo es der fall war sah es eindach spitze aus!

Wenn ich so drüer nachdenke wird D-Mapping immer die CPU belasten! Durch D-Mapping wird ja die geometrie geändert... nur müssen diese änderungen in einem Game ja auch vonder Physik-Engine berücksichtigt werden wenn man keine Gugs will... oder seh ich das falsch?

Und eingegräntzt sollte sich d-mapping schon heute nutzen lassen... trotz aller mankos... TnL war ja auch ned von start ab der knaller wenn man sich an die TnL einheit im GF erinern möge... (oder noch besser im S3 oder wars doch der Riva 128? ich weiß es schon gar ne dmehr) ;)
A sinking ship is still a ship!

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 00:20

*liquid immer noch nicht im Bett wie er es eigentlich schon längst sein sollte*
Boah, habt ihr mal auf DHM.de geguckt? Deutsche Geschichte pur und super zusammengefasst, das macht wirklich mal Spaß!

Also noch kurz zur Physik. Ja, eigentlich müsste man die Einwirkung auf die Physik berücksichtigen, aber man wird es wohl nur an den Stellen anwenden, wo es entweder keine Rolle spielt (statische Geometire oder nicht zugänglich) oder halt in so kleinem Maße (Scaling ganz nach unten, damit das Displacement net so stark wirkt). Aber im Prinzip stimmt es.
Das hat auch Carmack gewurmt, der wird das nämlich auf keinen Fall in Doom3 benutzen, da es absolut nicht mit dem Schattierungsalgo zusammenarbeitet. Die Modelle sind ja alle lowpoly und die Silhouettengenerierung ist jetzt schon heavy genug. Das Problem ist auf der einen Seite, mache ich die Tesselation vor den Silhouetten, muss ich exponentiell so viel berechnen, da die Polygone ja mit hoch-X nach oben schnellen. Die Schattenvolumina werden dadurch noch komplexer, also alles Mist.
Zweiter Fall, Silhouetten vor der Tesselation. Kein Problem mit Performance, wenn das D-Mapping in Hardware ist. Aber! Und jetzt kommt der springende Punkt. Zich von Artefakten wegen dem Stencil Shadowing, der ja absolut nicht mehr zu den Modellen passt. Verstehst, Schatten von Lowpolymodelle zusammen mit Hightpolymodellen, gibt nur Chaos und sieht net schön aus. Deshalb nur normales Dot3-Bumpmapping (sieht man ja auch in der Demo).

cya
liquid

Man_In_Blue

Moderator

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 00:30

Demnach hätte man mit D-Mapping sehr änliche Props wie damals mit dem n-patch...

das macht einen natülrich nachdenklich... Teo. müsste d-mapping auf den ersten blick zumindest, die lösung für low Poly und gleihzeitig high qualli Modelle sein... aber unter den umständen wirklich ned das gelbe vom ei...

Aber wenn ich mir den Trend mal so anseh gehen die wirklich inovativen Programme/Engines alle in die richtig weniger Polys zu benutzen... sind dann die grAKa hersteller insbesondere NV ned auf dem Totalen Holzweg wenn die die Polyberechnung ect. so in den vordergrund rücken wie es teilweise gemacht wird/wurde?

Ich persönlich steh eh für das motto: Befor nicht alle Treppen gegättet sind wird die drastische erhöhung der Plygone die optsche Quallität eines Programmes nicht erhöhen sondern senken... (so oder so änlich hat das mal ein intelligernder 3D Karten endwickler gesagt) Hat zwar jetzt nix mit dem Problem von d-mapping und n-patch zu tun zeigt aber deutlich das man wohl generell umdenken muss...

Was hat man denn noch für alternativen zu den Plygone-Engines? Eigentlich nur die Voxel engines oder ned? Und die sind zZ ned wiklich Hardware tauglich... aber sonst war's das schon oder nicht?
A sinking ship is still a ship!

moe

Senior Member

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 08:27

Zitat von »quattro-rs«

Hab mit meiner 9500 nonpro auch keine probs bei Splinter Cell mit Catalyst 3.1 und DX9.0 !!!

Was soll eigentlich der ganze quatsch mit den "schlechten" Treibern von ATi  ???
Habe min. schon 20 aktuelle und auch ältere Spiele mit der Karte gespielt und noch NIE probs mit Treibern gehabt !!!

P.S. lasst MIB doch in ruhe , er bringts halt auf den punkt was NV jünger halt nicht gerne hören wollen !!! -> meine subjektive meinung  :-X ;D

MfG.


au mann... es war auch nie von inkompatibilät die rede, sondern nur, dass ati karten bei speziell für nvidia karten zugeschnittene spiele shader maps emulieren müssen und somit wohl oder übel eine mindere grafikqualität erzielt wird.... seht es endlich ein. merken würdet ihr es eh erst, wenn man bilder direkt gegenüberstellt.
im übrigen werkelt in einem meiner rechner eine 8500le... nur als kleine bestätigung, dass ich nicht von ati abgeneigt bin, so wie mib es gerne darstellt!
von wegen "hört auf, mib anzugreifen, sonst werf ich mit meinen sandförmchen nach euch..." er brockt sich das immerhin selber ein und scheint sich in seiner rolle wohl zu fühlen.
möchte mich sicher nicht als allwissender oberexperte hinstellen (man lernt eh nie aus in sachen pc und deren software). aber so lange, wie ihr teils auf der welt seit, beschäftige ich mich schon mit rechnern..... joa... vor knapp 16 jahren bekam ich den ersten...

wünsche noch nen angenehmen morgen......

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 14:44

Warum soll das hinderlich sein große Polygonmengen darstellen zu können? Das ist sogar essentiell wenn man Tesselation in Hardware verwendet. Es geht halt darum, möglichst wenig Transfer von und zu der GPU zu haben. Wenn ich nur eine Bitmap über den Bus schieben muss und dann noch ein paar Vertices, dann macht sich das schon sehr bezahlt.
Ein schneller Rasterizer ist natürlich Pflicht, sonst kann man die intern generierten Dreiecke ja gar nicht schnell genug in den Framebuffer schreiben.

Zum Thema Rendertechnik. Da wären natürlich das von dir genannten Voxel (volume elements) Verfahren, dann könnte man noch auf Raytracing, Raycasting ausweichen, das bringt auch gute Ergebnisse, ist allerdings von der Technik her ein großer Unterschied zur traditionellen Renderarchitektur.
SaarCOR wäre ein Stichwort, wenn dich das interessiert.

cya
liquid

MassiveBlue

God

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 15:43

Zitat von »Man_In_Blue«

...Erst sagtst du nur weil ich mit 3 NV Karten (die mich nebenbeu insgesamt satte 1500 € gekostet haben da es sich dabei weitgehend um Markenprosukte erster gühte handelte)...

So so... Du hast also für ne TNT 2, ne GeForce 2 MX und ne GeForce 3 insgesammt 1500 € bezahlt... das wäre ja pro Karte 500 € was ungefähr 1000 DM entsprechen würden... ::)

thetruephoenix

God

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 16:54

is teilweise schon echt krank was hier geschrieben wird von euch...gibts irgendwo n komplettes(!) Lexikon über sowas?
(14:03:23) (Cerbis_Latran) Dude, uhm. Do me a personal favor?
(14:03:51) (Eliza) what is it?
(14:04:04) (Cerbis_Latran) Never kill anyone. You'd enjoy it far too much.

LiquidAcid

unregistriert

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 17:04

Dann mußte mal bei ACM Siggraph anklopfen, vielleicht haben die was für dich! ;)

thetruephoenix

God

Re: Leistungsverlust bei Nvidia?

Dienstag, 11. März 2003, 17:09

ohm...Seite, shop, Person oder was is das?
(14:03:23) (Cerbis_Latran) Dude, uhm. Do me a personal favor?
(14:03:51) (Eliza) what is it?
(14:04:04) (Cerbis_Latran) Never kill anyone. You'd enjoy it far too much.