• 19.04.2024, 02:26
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

23

Full Member

CUDA Leistung GTX 780

Montag, 21. Oktober 2013, 18:16

Hallo allwissendes Forum,



da meine schöne GTX 670 gerade den Geist aufgegeben hat, brauche ich eine neue Grafikkarte bei der es mir primär um die GPU Computing Leistung im CUDA Bereich für meine Workstation geht (Mathematik Programme, Adobe Produktpalette und andere Grafiktools). Da der Architektur Sprung der GK110-Technik gegenüber GK104 basierten Chips recht enorm ist und der Leistungsunterschied zwischen der GTX 780 und der Titan nur im Bereich von 3-5% im GPU Computing (synthetische Benchmarks) liegt, habe ich schnell die GTX 780 ins Auge gefasst. Ein Wert hat mich nun aber doch stutzig gemacht. Im Netz habe ich Informationen gefunden, dass "Nvidia den GK110 für den 1/3-Speed-DP-Modus zum Teil heruntertakten muss – rechnerisch auf Tesla-K20X-Niveau mit 732 MHz."

Schaue ich mir nun aber die Spezifikationen an, so sehe ich, dass die theoretische SP-Rechenleistung der Titan 4.500 und der GTX 780 4.000 Mrd. FLOPS beträgt was o.k. ist, aber die DP-Rechenleistung der Titan 1.300 und der GTX 780 nur 170 beträgt. Ich habe von nVidia noch keine Antwort auf meine Anfrage erhalten, aber vielleicht hat jemand von euch eine Ahnung ob es sich um einen Fehler handelt, oder ob wirklich nur die GTX 780 diese Beschneidung erfahren hat. Ich habe mich gefragt, ob dieser Leistungsunterschied künstlich in die Titan Light eingebaut wurde oder ob der halbierte Speicher vielleicht direkten Einfluß auf die Computing Leistung hat.


Zweitens wüsste ich gerne ob der kryographics Kühler für die Titan auf die EVGA GTX 780 Versionen passt?
Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i

Montag, 21. Oktober 2013, 18:24

Hi,

würde auf einen Fehler in der Beschreibung tippen... die DP Leistung der 780er wäre sonst nicht nur im Vergleich zur Titan "schwach"...
Kann mir höchstens vorstellen das nVidia die Leistung absichtlich Kappt um zu verhindern das Rechenzentren statt der Tesla-Technik die GK110er Grafikkarte verwenden... ;)

Sören
A sinking ship is still a ship!

23

Full Member

Montag, 21. Oktober 2013, 23:30

Das ist genau der Punkt, dann wäre die Karte schlechter als viele andere. Ich habe aber keine weiteren Quellen gefunden, die die Daten wiederlegen.
Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i

Dienstag, 22. Oktober 2013, 01:03

Ich hab eine 780 im rechner, kann ich was testen?

23

Full Member

Dienstag, 22. Oktober 2013, 09:32

Interessant ist, dass die GTX 580 hier sogar besser als die GTX 680 war und diese immer noch besser ist auf dem Papier als die GTX 780.
In der Praxis scheinen Single-Precision (32bit) Berechnungen gegenüber Dual Precision (64bit) aber wohl keine Rolle mehr zu spielen, wenn man sich die Testergebnisse so anschaut.
Wenn ich mir folgende Tabelle so anschaue, dann scheint da in letzter Zeit ein extremer Wandel weg von SP hin zu DP Berechnungen in den GPU's statt gefunden zu haben:


@gr3if: Man bräuchte einen Dual-Precision Gleitkomma Benchmark. Du kannst mal folgenden Benchmark laufen lassen:
http://www.mathworks.de/matlabcentral/fi…/34080-gpubench

Nachtrag:
Ich habe noch folgenden Artikel bei meiner Recherche gefunden, der meine schlimmsten Befürchtungen wahr werden lässt:
http://www.tomshardware.com/reviews/gefo…ew,3516-28.html

Das bedeutet, dass die Karte tatsächlich langsamer ist, als die doch so langsam arg in die Jahre gekommene GTX 580 und nur einen Bruchteil der Leistung der Titan geerbt hat in diesem Feld.
Offenbar wird die Performance künstlich per Treiber beschränkt ...

Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von »23« (22. Oktober 2013, 09:45)

Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i

Dienstag, 22. Oktober 2013, 09:48

In dem Falle müsstest du mal recherchieren ob das über den Treiber bewirkt wird. Gab ja immer wieder die Möglichkeit Karten auch per Software-Anpassung zu entdrosseln.

Sören
A sinking ship is still a ship!

Dienstag, 22. Oktober 2013, 11:02

Ich habe vor einer Weile mal versucht verschiedene GeForce Karten gegen Tesla/Fermi Konkurrenten zu benchmarken.

Das intrinsische Problem ist hier die Problemstellung selbst. Je nach Grösse des Problems und numerischem Verfahren kann das Ergebnis in beide Richtungen umschlagen.
Generell ist die beste Karte diejenige, auf die das Problem gerade so draufpasst. In sofern ist Speicher eigentlich das A und O.
Weiterer grosser Faktor ist die Frage wie oft Daten auf die GPU verschoben und wieder zurückgeholt werden müssen, da bricht die Performance sehr schnell ein.

Deshalb ist es schwierig einen allgmeinen Benchmark für mehrere Karten zu fahren, da der verwendete Speicher einen riesigen Einfluss hat (halb leer is schlecht, zu oft kopieren natürlich auch).
Könnte man jetzt unter Umständen korrigieren indem man für jede Karte den maximalen Speicher verwendet, aber das wäre am Ende auch ein völlig irrelevanter Wert da dein Problem ja nicht einfach mal halb so gross wird.

Auf Single Precision würde ich ausserdem auch nichts geben, das ist für die allermeisten Verfahren einfach zu gefährlich.


Eine konkrete Antwort kann ich dir also leider nicht geben, schon alleine nicht weil ich diese beiden Karten so nie getestet habe. Viel wichtiger ist aber was du am Ende damit machen willst (also konkrete Problemgrösse und Algorithmen).

Das Wundermittel ist CUDA ohnehin ja nicht, an dem Punkt an dem man sich den Stress gibt seine Sachen CUDA-ready zu machen (selbst mit Matlab) denke ich weiss man bereits was man machen will und kann dann entsprechend die Karte wählen

Ich habe in der Vergangenheit je nach Projekt zwischen 1-2 Geforce und 1-8 Fermis gewechselt
"When mountains speak, wise men listen" - John Muir

23

Full Member

Donnerstag, 24. Oktober 2013, 21:48

Ok eine entsprechende Quadro Karte gibt es aktuell nicht und die Tesla sind definitiv mal raus. Das ganze muss ich schon noch selber bezahlen ;)

CUDA funktioniert ja auch relativ speziell offensichtlich, weil die meisten realen Applikationen die CUDA supporten wohl keinen großen Unterschied zwischen der GTX 780 und der TItan machen.
Es gibt im ganzen Netz aber keine vernünftigen Informationen zu dem Thema was mich wirklich wundert, das muss doch zig ambitionierte Grafiker interessieren.

Double Precision wird über das Nvidia Control Panel, in dem Punkt “Manage 3D Settings” verwaltet. In der "Global Settings" box findet sich eine Option die sich “CUDA – Double Precision” schimpft die manuell aktiviert werden muss. nVidia taktet beide Karten ordentlich runter wenn DP aktiviert ist um den Tesla Karten nicht allzu starke Konkurrenz zu machen, aber das ist immer noch beeindruckend.

Lev / gr3if ihr wollt doch sicherlich mal etwas experimentieren :D
Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i

Freitag, 25. Oktober 2013, 10:39

Wie gesagt hatte meine Experimentierfreude eigentlich immer ein konkretes Ziel, meine Sachen zu rechnen und das wars.

Ich glaube auch immernoch nicht dass das alles so den wahnsinnigen Unterschied macht. Wenn du die Sachen auf eine GeForce Karte packen kannst, dann ist das überschaubar genug als dass eventuelle Geschwindigkeitsunterschiede nicht ins Gewicht fallen. Ob eine Berechnung jetzt 30 oder 45 Sekunden dauert ist ja eigentlich egal wenn du nicht gerade 100.000 davon machen musst (und in dem Fall brauchst du im Prinzip sowieso ne andere Hardware).

Ich weiss jetzt nicht was du mit Grafikern meinst, aber ich wage mal zu behaupten dass CUDA in dem Bereich weniger relevant ist. Anspruchsvolles Rendering ok, aber auch da kannst du im Zweifelsfall ja etwas länger warten, und wieviele Leute sowas auf normaler Consumer-Hardware machen da bin ich mir auch nicht sicher.

Für mich ist ne GeForce in sofern toll als dass ich Sachen erstmal ausprobieren kann (mit winzigen Daten), gerechnet wird dann aber auf ner richtigen Maschine. Alleine schon wegen ECC Speicher in den Teslas. Das machen vermutlich die meisten Leute so, deshalb ist das mit der Information im Netz so ne Sache.
Meine Benchmarks habe ich dann irgendwann eingestellt, weil je nach bench-problem die verhältnisse so dermassen gekippt sind dass da eigentlich keine Aussage möglich war. Da waren 2 mal 5 Jahre alte Quadros plötzlich schneller als 4x tesla 2070, und andere solche Faxen. War am Ende nachvollziehbar wieso das jeweils so war, aber ableiten kannst du daraus fast nichts.
"When mountains speak, wise men listen" - John Muir

23

Full Member

Freitag, 25. Oktober 2013, 20:32

Ich arbeite oft mit Kolor Autopano Giga, GigaPan Stitch.Efx, Photoshop und Premiere. Die Unterschiede liegen hier im Bereich von Stunden wie ich aktuell schmerzlich mit meiner Übergangsgrafikkarte feststellen musste.
Daher wäre die GTX 780 Preis/Leistungsseitig unglaublich interessant gewesen. Was ich Anhand der Informationen aus dem Web nicht nachvollziehen kann und das ist der Kern meiner Frage inwiefern sich bei den entsprechenden Operationen die mangelnde DP Leistung niederschlägt. Der GK110 ist eigentlich ein richtig brutal geiler Chip für den Anwendungszweck. Naja im November bin ich noch voll in einem Projekt und im Dezember im Urlaub vielleicht hat nVidia bis dahin mit der GTX 780 Ti ja was am Start was mich befriedigt oder die neue GPU Lineup zeichnet sich schon als Silberstreifen am Horizont ab.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »23« (26. Oktober 2013, 14:54)

Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i

Samstag, 26. Oktober 2013, 20:13

hier scheinen ja viele einfach nur "rumzuraten" siehe zb der herr moderator...

evtl sollte man sich einfach mal erkundigen, bevor man unsinn postet. denn die 780er ist zwar die kleine titan, aber bewußt beschnitten was die double precision leistung angeht.

siehe zb http://www.computerbase.de/artikel/grafi…tx-780-im-test/

Zitat

Anders als die GeForce GTX Titan kann die GeForce GTX 780 nicht mehr auf die maximale Double-Precision-Leistung zurück greifen. Diese wird auf ein Achtel des theoretisch möglichen reduziert.

Samstag, 26. Oktober 2013, 22:44

Und vielleicht sollte sich der "Herr User" einen gescheiten Umgangston aneignen bevor er anmaßenden Posts in die Welt setzt.

Zumal der "Unsinn" zum einen soweit folgerichtig war und es zum anderen nicht meine Aufgabe ist, für euch durch die Welt zu googeln.

Sören
A sinking ship is still a ship!

Montag, 28. Oktober 2013, 22:02

richtig, aber wenn du dazu nichts anderes zu sagen hast, als mutmaßungen oder rumgerätsel, dann sollte man es wohl lieber lassen, bevor man den te evtl völlig sinnfrei verwirrt. zumindest sollte man sowas von einem moderator erwarten können.

Montag, 28. Oktober 2013, 22:28

Sehe dein Problem nicht.
A sinking ship is still a ship!

23

Full Member

Mittwoch, 30. Oktober 2013, 16:48

Ganz ungewohnte Töne hier im Forum. Für Man in Blue kann ich nur eine Lanze brechen, ich habe über die Jahre immer wieder auf dein Urteil vertraut :)

Lev was deine Aussagen angeht, kann ich diesen teils zustimmen muss aber auch sagen, dass eine grobe GPU Leistung schon insgesamt messbar ist. Klar kommt es auch verschiedene Faktoren an, aber wenn ich z.B. 4K Videomaterial editieren möchte, dann reicht ein GPU Videobuffer von ca. 1 GB. Das bedeutet, dass ich mit den 6GB RAM einer Titan für den typischen Heimanwendungsfall wenig anfangen kann. Bei wissenschaftlichen Berechnungen sieht das ganze wieder ganz anders aus. Unsere CAD Workstations von den Liegenschafte sind z.B. mit einem Maximus Setup bestehend aus Tesla und Quadro Karten ausgestattet.
Ich habe mittlerweile gesehen, dass die CS6 tatsächlich mittlerweile sogar OpenCL auf AMD Karten unterstützt, allerdings eingeschränkter als CUDA (v5) von nVidia. Hier scheint die DP Leistung auch überhaupt keine Rolle zu spielen ganz im Gegensatz zu BOiNC dass z.B. ganz massiv von mehr GPU RAM und vor allem DP profitiert. Deshalb ziehen hier alle AMD Karten an den künstlich beschnittenen nVidia Karten vorbei.
In Anbetracht der Tatsache, dass nVidia aktuell den Preis der GTX 780 um €100 gesenkt hat und die Zukunft der Titan ungewiss ist, warte ich jetzt bis nach meinem Urlaub und genieße die Karibik und schaue was sich dann nach Neujahr noch an den Preisen getan hat. Sollte die Titan bis dahin auf eine Niveau von unter €600 gesunken sein, überlege ich mir was ich tue sonst werde ich zur GTX 780 greifen.
Teil 2 meiner initialen Frage habe ich immer noch nicht beantwortet bekommen übrigens. Passt der kryographics oder funktioniert das nicht, weil die GTX 780 keine Speicherbausteine auf der Rückseite verbaut hat?
Intel i9 7960x | ASUS ROG Rampage VI Extreme | 128 GB G.Skill Trident Z RGB CL14 @ 3600 MHz | ASUS ROG Strix GTX 1080 Ti | Diverse NVMe Discs | Corsair AX1600i