• 24.04.2024, 00:38
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Dienstag, 31. März 2009, 12:30

Dank für die anregungen, XtremePete hat es richtig gesehen. Die machine ist zur CUDA software entwicklung gedacht. Momentan bestückt mit einer 9800GTX, Die idee ist ein prototyp zu bauen als demo für auftraggeber (ich arbeite als software entwickler für eine grossfirma). CUDA ist für die kunden interessant weil sie grosse datenmengen bearbeiten wollen zum beispiel zu wirtschaftlichen und statistischen zwecken. Das Asrock board ist einer der wenigen die vier GTX295 aufnehmen können, dass dabei nur 4x8 betrieben werden kann ist nicht so dramatisch. Wegen den vier karten ist in erster instanz auch das ThermalTake gehäuse gewählt weil es 10 slots hat (lüfter-kühlung). Neben der hitze-entwicklung ist auch wegen dem warscheinlich störenden geräuschepegels jetzt erwogen wasserkühlung zu benutzen. Es ist noch ein plan, deswegen die nachfrage über tank, pumpe usw.

Die GTX einzelplatine version ist angesagt für mai/juni soweit ich gelesen habe. Ich wollte klarstellen das die 'alte' ( :rolleyes: ) version gemeint ist weil es die kühlkörper für die doppeltversion jetzt schon gibt.

Grusse aus Holland.
ich arbeite beruflich auch mit cuda. bei uns in der firma hat man allerdings zu nvidias tesla system gegriffen. ich kann euch nur abraten so einen referenz-pc zu bauen.

Dienstag, 31. März 2009, 17:21

spannend, wie viele leute den sinn und zweck der fragestellung getrost ignorieren und schei*e schreiben..
(der über mir nicht mit einbezogen!)

Vielleicht kann AC Berlin dir auch weiterhelfen (Sonderserie bauen lassen o.ä.) ka, ob geld ne große rolle spielt..

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »cyberx..« (31. März 2009, 17:22)

Westerwälder ist das höchste was der Mensch werden kann!

Dienstag, 31. März 2009, 17:25

also wie ich oben schrieb würd ich eher ein system mit nvidia zertifizierung kaufen und dem passenden servic vertrag dazu.

wenn ihr trotzdem selbst bauen woll würde ich das system aber recht redundant was die wakü betrifft aufbauen.

1*aquaero (mit notabschaltung ist pflicht)
2*aquastreams
1*evo1080 voll bestückt (pflichprogramm bei den 4 grafikkarten)

Dienstag, 31. März 2009, 18:53

Könnte nicht schon ein 720er Aquaduct damit fertig werden? Unter Volllast natürlich nicht sehr schonend für die Ohren...
Ansonsten wenn du schon das Geld ausgeben kannst, dann eben einen 1080er Evo. Dann musst du aber auch selber basteln. Alternativ kannste ja auch 2 720er Aquaducte nehmen und je 2 Karten in einen Kreislauf packen.

Dienstag, 31. März 2009, 19:21

das vorhandene case würd ich eh verwerfen. das sieht für ne firma die das ihren kunden demonstrieren will nicht wirklich gut aus. da muss doch was elegantes her.
ich würd mal schauen ob man den evo1080 nicht in den deckel von nem lianli 343 bekommt.

Dienstag, 31. März 2009, 19:28

für das setup reicht ein netzteil nicht mehr aus :)
Verkaufe: EVGA 680i SLI, E8500 E0, 4GB 2x2 Corsair Dominator 1066, X-Fi Fatality mit 5,25" Einschub, WD Raptor 74gb, Multiswitch
Als Paket: Asus Rampage Formula [X48], Q9650 4x4ghz @1.37v, 8GB Corsair Dominator 1066

Suche: Grose Radiatoren Evo 1800, 1080

nop

unregistriert

Mittwoch, 1. April 2009, 10:28

für das setup reicht ein netzteil nicht mehr aus :)
Hi,
das möchte ich noch einmal unterstreichen. Bereits zwei GTX295 verbrauchen unter Volllast 890 bis 920 Watt, womit schon das ein oder andere 1kW Netzteil zu kämpfen hat. Das leistungsfähigste mir bekannte Netzteil ist das ERV1250EGT von Enermax, welches rund 1,25kW bietet. Vielleicht wäre in deinem Fall ein HPC Cluster sinnvoller, was ja mehrere Vorteile mit sich bringen würde. Falls Du der Programmierer bist, dann sollte Dir die Umstellung kaum Probleme bereiten.
Bis dann.

Donnerstag, 2. April 2009, 00:48

bei sowas sind dann ein oder 2 wassergekühlte netzteile wohl gleich mit sinnvoll,
und der Wärmetauscher dann an der Aussenwand vom Raum, son nen schönen Mitsubishi-Wärmetauscher mit 2 lauten Lüftern drauf wie er an Klimaanlagen verwendung findet.

Das Problem an sonem System ist ja,
dass nicht nur die Wasserkühlung redundant sein muß (wobei das ersatzsystem ein anschluß an die trinkwasserleitung sein könnte..)
sondern auch die Netzteile.

http://www.siwert.de/shop/index.php?cPath=57_93

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »PsiQ« (2. April 2009, 00:49)

P4/3Ghz@WaküEigenbau; AmdAthlonXP1700+@cuplex; Q6600@wakü cuplex;i7-5820k@wakü cuplex;I7-10700k@wakü cuplex
4870 @Wakü-selbstbau; R9-290@wakü aquacomputer; Zotac 980TI@WaküZotac; RTX2080FE@WaküAquacomputer; RTX3070TI@WaküBykski

Donnerstag, 2. April 2009, 10:22

Jo die Netzteile dürften ganz schön warm werden 8|
Out of Style, but it's Retro!

Samstag, 4. April 2009, 22:16

Hallo ihr allen,

Einige antworten zu den fragen und bemerkungen:

- case: das case ist nicht für kunden gedacht, plan ist nur die performance zu zeigen. Software ist das produkt, nicht der rechner.

- 2x aquaduct: interessante idee, ich neige im moment aber mehr nach der Evo 1080, auch wegen der form und erweiterbarkeit mit fans)

- zertifizierte rechner: erwägt.

- referenz-pc: Ich hätte schon lust auf dieses abenteuer :)

- Es wurde schon darüber nachgedacht die wärme tatsächlich zu nutzen um ein büro ergänzend zu erwärmen... Dabei werden heizungskosten ausgespart, teil der energiekosten fliessen so wieder zurück.

- octaSLI: Insofern ich weiss gibt es kein octa-sli. Es ist (noch) nicht die absicht SLI zu nutzen, es ist nicht als game-pc gedacht. Nvidia hat bestätigt das 4x 295 separat angesteuert werden können für CUDA in einem rechner. Wenn es doch interessant wäre SLI zu nutzen in CUDA kann möglicherweise 2x quad-SLI gebaut werden (noch unbestätigt).


- Die netzteile, gutes thema denn das teil das ich jetzt für den test-rechner benutze ist 700 W (Coolermaster). Effektiv zieht der rechner aber nur 280 Watt aus der steckdose bei vollnutzung (gemessen), das ist inklusive TFT bildschirm. Der testrechner hat eine 9800 GTX+. Netzteil liefert ua 50 A auf 12 V. Ob die alle auf SLI gehen steht nicht im handbuch.

Auf http://www.bit-tech.net/hardware/graphic…d-sli-review/16
stehen echte messungen von stromverbrach der karte. (77 idle bis 287 Watt volleistung echter verbrauch) Dementsprechend kann mann sagen dass 4 karten 4x 287 richtige Watt brauchen. also 1200 Watt würde reichen wenn die alle auf 12 V gehen. Dann eher 1500 Watt teil nehmen und die CPU dazu schalten. Dann braucht mann nur ein netzteil, denn der heutige rechner inklusive GPU benutzt nur 280 Watt. 1500 Watt ist also das ziel für eine ein-netzteil lösung.

Die 1500 Watt wird natürlich NICHT vollständig in wärme umgesetzt IM netzteil. Daher wird das netzteil nicht SO heiss dass mann das kühlen sollte mit wasser...

Plan im moment ist eine GTX295 dazu zu kaufen und zu messen wieviel hitze erzeugt wird und wieviel strom genutzt wird. Daraus kann mann schlüsse ziehen, auch bezüglich des lärms. Das teil kann mann dann entweder mit luft kühlen oder umrüsten mit einem Aqua kühlkörper.

Langer monolog, aber hoffentlich deutlich.

Gruss.
Hydropower.

Sonntag, 5. April 2009, 01:31

nunja, bei 1200W und ~85% effizienz ists aber halt doch schon einiges an Verlust.
aber wenns auf den Lärm nicht ankommt, ists doch auch für die grafikkarten egal.
wenn dagegen eh schon die monsterkühlung-evo geplant ist, dann macht das netzteil wasserseitig mit seinen 300W abwärme den braten auch nicht mehr fett.

Man könnte den PC auch einfach ins nachbarzimmer stellen, oder ne gipswand dazwischenziehen :D
P4/3Ghz@WaküEigenbau; AmdAthlonXP1700+@cuplex; Q6600@wakü cuplex;i7-5820k@wakü cuplex;I7-10700k@wakü cuplex
4870 @Wakü-selbstbau; R9-290@wakü aquacomputer; Zotac 980TI@WaküZotac; RTX2080FE@WaküAquacomputer; RTX3070TI@WaküBykski

DaReal

Senior Member

Sonntag, 5. April 2009, 13:59

Das Problem wird generell sein, dass ein großteil der in den PC gesteckten Energie als Wärme abgeführt werden muss.

Ich tippe da mal auf 1,1 kW Wärmeleistung bei 1,2 kW zugeführter Leistung, wenn nicht sogar mehr.

Da macht sich einer Energierückgewinnung sicherlich nicht schlecht, was jedoch im Hochsommer Probleme bereiten könnte, da ja dann umso mehr Kühlleistung erforderlich wird.
Intel Core 2 Duo E6750 / 4 GB G.Skill / DFI LANparty DK P35-T2RS / Leadtek GF 8800 GTS 512 MB / LianLi PC 71

LianLi PC71 *updated* jetzt mit Core Pro

Mittwoch, 8. April 2009, 16:37

Kanst ja mal hier schauen, dort werden etwas mehr GTX 295 als Folding@Home Maschine verwendet. (im Rack wohl 19 Stück)

mfg
00riddler
I7 6700K
Gigabyte Referenz GTX 980 TI mit kryographics @ 1500 CORE und 8000 RAM

Sonntag, 19. April 2009, 13:05

Super, danke für diesen link !

Update: Die erste 295 läuft jetzt seit einigen tagen stabil und recht leise. Als dauertest wird GPUGRID benutzt. Der fortschrtt dort, für die interessierten über www.gpugrid.net , kann beobachtet werden über user 'hydropower'. Die temperatur ist mit 70 grad bei 700 MHz takt (63% fan) niedrig zu nennen. Stromaufnahme ist 480 Watt peak. Diese ergebnisse waren so gut dass die anderen 3 karten jetzt bestellt wurden. Die stromversorgung wird von mehreren netzteilen übernommen. Dies ist besser für die effizienz. Nächster schritt ist das ganze luftgekühlt zu betreiben. Danach wird eine kaufliste für aquacomputer zusammengesetzt auf grund der befunde.

Sonntag, 19. April 2009, 19:54

Um dir Ärger zu ersparen: las die Kühler von jemandem mit Erfahrung montieren. z.B. AquaComputer in Berlin oder KTC-Cooling wenn du in Österreich sitzt. Gerade wenn du nicht die riesen Erfahrung in GraKaWaKü-Montage hast und das ganze nicht mir Hardware gemacht wird die nicht dir gehört... Ist immer blöd dem Cheffe zu sagen: "Duuu, ich habs hin gemacht..." ;)

Lg

Leto
Verkaufe Intel PRO/1000 PT Server Adapter, 2x 1000Base-T, PCIe x4 D33025 für 50€ + Versand

Karte hat zwei 1GB-Ports, Anschluss: 2x RJ45 • Chipsatz: Intel 82571GB • Besonderheiten: Wake on LAN, VLan, BootRom, PCIe x4, diese Karte ist unbenutzt, nur in einer OEM Verpackung. Low-Profile, Adapterblech für normale Bauhöhe liegt bei.

Die gleiche Karte läuft in meinem Server unter Linux einwandfrei.

Montag, 20. April 2009, 12:33

- case: das case ist nicht für kunden gedacht, plan ist nur die performance zu zeigen. Software ist das produkt, nicht der rechner.

Spannendes Projekt.
Nachdem es "nur" um CUDA-Applikationen geht, wieso nimmst Du dann nicht ein paar 1070er?
Oder ein paar 1060er Karten ggf. in einer netten Seaburg-Umgebung.

Nicht falsch verstehen - das ist keine Kritik - Ich möchte nur verstehen warum das arme Ding mit Gewalt ins Pedestal-Format gequetscht werden soll.
Und warum (im Pro-Bereich) mit wackeliger Consumer-Hardware hantiert werden soll.

BTW: @all - es gibt auch noch andere Formate als ATX.
Der Gehäuse-Standard gäbe sogar einen Rechner mit 19 Grafikkarten her (20-Slot Backplane minus 1 Slot für die CPU)

Zitat

- octaSLI: Insofern ich weiss gibt es kein octa-sli. Es ist (noch) nicht die absicht SLI zu nutzen, es ist nicht als game-pc gedacht.

Lass' die SLI-Bridges in der Schachtel - die stören nur (ohne kommt der Grafik-Treiber gar nicht erst auf dumme Gedanken).

Zitat

- Die netzteile, gutes thema denn das teil das ich jetzt für den test-rechner benutze ist 700 W (Coolermaster). Effektiv zieht der rechner aber nur 280 Watt aus der steckdose bei vollnutzung (gemessen),

Das dürfte mit den GTX295 Geschichte sein.
Ich kann meine (pilot-)CrunchBox ja mal nachmessen - das FSP-Everest (1.01 kW) wird bereits gut warm - trotz reichlich Luftdurchsatz (18W Lüfterleistung).

BTW: Ich bin gerade dabei das System (X58 + 2x GTX295) auf thermisch "gesunde" Füße zu stellen (4U mit "verdrehtem" Strömungskonzept) - sobald das fertig ist, gibt's Bilder.

mfg, Tom

Montag, 20. April 2009, 12:36

Super, danke für diesen link !

Die stromversorgung wird von mehreren netzteilen übernommen. Dies ist besser für die effizienz. N
Schade... hier wär nun wirklich mal das NT angebracht gewesen :(
http://www.koolance.com/water-cooling/pr…?product_id=665
M.-Sys: Gigabyte GA-FX-58-extreme / 920@4Ghz / 6gig Corsair / r9 290 all AC



Wäre es nicht adäquat, den Usus heterogener Termini zu minimieren?
(Sollte man nicht weniger Fremdworte verwenden?)


Religionskriege sind Konflikte zwischen erwachsenen Menschen, bei denen es darum geht, wer den cooleren, imaginaeren Freund hat

Montag, 20. April 2009, 23:35

Tja, das netzteil sieht gut aus, leider (?) die andere netzteile schon bestellt. Ich wusste nicht dass es die Koolance gibt.

Tom_H: Deine Z80 gefällt mir gut :-) Ist schon einige zeit her dass ich Z80 assembly programmierte. Kennst du den coprozessor IIT 2c87 auch noch ?

1070: Ja, eigentlich eine gute frage. Das wäre professioneller gewesen, da kann ich nur zustimmen. Das gerät bau ich momentan selbst, weil ich spass daran habe. Wie gesagt, performen soll's. Wenn ich mich gut erinnere ist ein 1070 rack etwas teurer. (Sahe gerade die Crays mit 16 TFlop für $72.214).

Verbrauch mit eine 295: so um die 480 watt insgesamt.

Übrigens fand ich diesen wohmöglich schon bekannter link, nur mal zur sommerlichen anregung... 8)

http://hardware.slashdot.org/article.pl?sid=07/01/06/1410219

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »hydropower« (21. April 2009, 00:02)

Dienstag, 21. April 2009, 09:38

Tja, das netzteil sieht gut aus, leider (?) die andere netzteile schon bestellt. Ich wusste nicht dass es die Koolance gibt.

Beim Wasserkühlen von Netzteilen stellt sich ohnehin die Frage ob's Sinn macht.
Immer wenn hohe Wärmemengen auf kleinem Raum anfallen, ist Wasser das Transportmedium der Wahl. Man müsste sehr viel Luft durch das kleine Volumen pumpen um effektiv zu kühlen - und das gibt Radau.
Ein "80+" Netzteil ist dagegen ein großer Klotz mit relativ wenig Abwärme - das bekommt man mit Luft problemlos in den Griff.

Zitat

Tom_H: Deine Z80 gefällt mir gut :-) Ist schon einige zeit her dass ich Z80 assembly programmierte. Kennst du den coprozessor IIT 2c87 auch noch ?

Ja, aber leider nur aus dem Märchenbuch - für einen Studenten waren die Dinger unbezahlbar.
Das waren aber bereits andere Zeiten. X86-Platinen habe ich nicht mehr selbst gemacht - das war schon "langweilige" Kauf-Ware.
Leider ist die 8080/Z80-Plattform sehr schnell ausgestorben obwohl es von Zilog sehr schöne Nachfolger gab: Z280 und Z8k. Der Z280 hätte sogar mit geringen Modifikationen auf enen ECB oder S100-Bus gepasst.

Zitat

1070: Ja, eigentlich eine gute frage. Das wäre professioneller gewesen, da kann ich nur zustimmen. Das gerät bau ich momentan selbst, weil ich spass daran habe.

Das ist natürlich ein Argument.
BTW: An welche Karten hattest Du gedacht?
Hier laufen seit 3. April zwei Asus-Karten auf 24/7-Vollast - bis jetzt machen die das problemlos mit.
Allerdings pumpen da auch mehrere Industrielüfter gekühlte Luft (17°C) durchs Gehäuse.

Zitat

Übrigens fand ich diesen wohmöglich schon bekannter link, nur mal zur sommerlichen anregung... 8)
http://hardware.slashdot.org/article.pl?sid=07/01/06/1410219

Das Thema hatten wir hier doch auch schonmal - und die Idee ist noch lange nicht vom Tisch.
Sobald mir brauchbare Teile in die Finger kommen, wird's umgesetzt.
Der Knackpunkt ist der Wärmetauscher - das benötigte Modell (Cu / A4 Rohrtauscher) gibt's leider nicht fertig.
Zum Selbermachen fehlt mir der Maschinenpark und zum Bauenlassen bin ich (noch) zu geizig.

mfg, Tom

Sonntag, 26. April 2009, 02:49


Das gerät läuft. Heute mittag um 14:30 war alles eingebaut.

Insgesamt vier netzteile mit gesamtleistung von 2800 Watt (80+ qualifiziert) wurden 'slaved' als 1+3 geschaltet. Insgesamt 4x GTX295 wurden eingebaut. Momentan aber nur 3 in einsatz wegen eines geschichtlichen irrtums. Windows XP 32 (gerade gekauft weil das Advanced Server 2000 nicht mehr mit den 4 karten zusammenarbeiten konnte) kann nur 4 Gb adressieren, und das ist INKLUSIVE video map bereich, also NICHT 4 Gb RAM und dan noch mal den IO bereich der karten dazu. Die vierte karte nimmt mir die letzten hunderten megabytes weg um das system laufen zu lassen. (3 Gb Hyper-X). Also ein 64-bit betriebssystem muss her.

"Beim Wasserkühlen von Netzteilen stellt sich ohnehin die Frage ob's Sinn macht. "

Die drei extra teile werden gerade mal handwarm. Gesamt aufgenommenes vermögen um die 920 Watt mit drei aktiven 295er.

"Ein "80+" Netzteil ist dagegen ein großer Klotz mit relativ wenig Abwärme - das bekommt man mit Luft problemlos in den Griff. "

Es stimmt.


"BTW: An welche Karten hattest Du gedacht? "
Nur EVGA GTX295. Wegen der extra garantie beim overclocking und WAKU.

"Hier laufen seit 3. April zwei Asus-Karten auf 24/7-Vollast - bis jetzt machen die das problemlos mit.
Allerdings pumpen da auch mehrere Industrielüfter gekühlte Luft (17°C) durchs Gehäuse. "

Hier laufen 3 lüfter von ThermalTake,bislang geht's noch.

"Das Thema hatten wir hier doch auch schonmal - und die Idee ist noch lange nicht vom Tisch.
Sobald mir brauchbare Teile in die Finger kommen, wird's umgesetzt. "

Nichts wie los zum baumarkt :-)

Der Knackpunkt ist der Wärmetauscher - das benötigte Modell (Cu / A4 Rohrtauscher) gibt's leider nicht fertig.
Zum Selbermachen fehlt mir der Maschinenpark und zum Bauenlassen bin ich (noch) zu geizig.

mfg, Tom
Grüsse aus Holland, ich muss noch lernen wie mann richtig quotet.