• 23.04.2024, 21:30
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Pilo

Senior Member

Worüber man sich immer schon beschweren wollte, aber nie zu 'whinen' wagte.

Samstag, 22. Dezember 2012, 16:49

Ich wollt mich hier nur einmal allgemein bei der WELT beschweren, was Festplatten doch - neben Disketten - für eine beschissene Erfindung der Menschheit sind.
Da macht man extra eine doppelte Datensicherung seiner über die Jahre 'erjagten' und 'gesammelten' - Jäger und Sammler und so - Daten, Files, Bilder, Movies etc...die man relativ sicher auf einem 2TB Redundant Array of Independent Disks 5 hatte und zwecks Datenumzugs, da ich sonst keine andere Möglichkeit hatte die 'Beute' von dem Alten auf das neuen RAID zu kopieren, verfrachtet ich sie halt der doppelten Sicherheit halber einmal auf eine 2TB Samsung Platte und zusätzlich teilte ich sie nochmal auf drei 500 GB Seagate Platten auf, nur um dann nach dem Erstellten des neuen RAID festzustellen...2TB Sicherungs-Festplatte *kaputt* 8| ....ach...halb so wild...hast ja noch die duplizierte 'Beute' auf den drei 500GB Seagate's....wovon dann wiederum beim Versuch die Daten auf das neue RAID zu kopieren eine verreckte.... :cursing:
Da macht man extra eine doppelte Sicherungs-Kopie der 'Beute' um am Ende verliert man dann doch 1/3 davon weil zwei von vier Festplatten ohne Vorankündigung verrecken....es ist doch einfach zum Kotzen!
->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Samstag, 22. Dezember 2012, 18:34

Jammer nich, so mach ich das immer wenn ich keinen HDD Platz mehr hab.. Dann hat man wenigstens auf der nächsten NC wieder Platz ;)
Westerwälder ist das höchste was der Mensch werden kann!

Samstag, 22. Dezember 2012, 19:27

Ich habe meine ganzen Datenwust abgeschaft...
Ja ich hatte meine ganzen FIlme und Seiren auch immer angesammelt, aber als ich mein Raid 0 aus 2 500er HDDs aufeglöst hatte (weil die Smartwerte bei einer HDD schon nit mehr sooo toll waren) und nen Raid 1 draus gemacht habe ist der erste Schwung Daten in den Müll gewandert. Als ich dieses Jahr dann mir ne SSD fürs OS gekauft habe habe ich auch das Raid1 aus dem Rechner verbannt, weil mir natürlich eine Platte (die, wegen der ich vorsichtshalber schonmal das Raid0 zu nem Raid1 gemacht hatte) verreckt ist und ich keine Lust mehr hatte mit Aquadrive und Co HDDs rumzu bauen.

Jetzt hab ich nen Hotplug Sata-HDD Dock eingebaut und sichere nur noch auf 2 HDDs und 1einer normalen externen meine wirklich wichtigen Daten. Und das sind Bilder und Videos.

Nun hab ich im Alltag statt 1TB nur noch 128GB und merke nicht mal nen unterschied und habe die wichtigen daten 1zu1 redundant auf 3 verschiedenen HDDs (mit unterschiedlichen Filesystemen) an zumindest verschiedenen Orten innerhalb des Hauses.
Eine HDD wollte ich dann aber nochmal bei der Schwiegermama deponieren, man weiß ja nie ;)

Pilo

Senior Member

Samstag, 22. Dezember 2012, 22:08

Am liebsten würde ich alles digital auf Mikrofilm speichern...einem der wohl langlebigsten Datenspeicher(100 bis 150 Jahren) bis jetzt...bei richtiger Lagerung, versteht sich.
->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Donnerstag, 27. Dezember 2012, 17:12

@Pilo

mach mir keine Angst.....
Habe alles auf einer Synology im RAID5 dazu nochmal auf HDDs im Haus verteilt..
Ab und an aber eben nicht 2x sondern "nur" einmal vorhanden.....
Vielleicht sollte ich doch eine 2.Syno anschaffen..... :crazy:
Ich finde aber das sich "ich bin in 5 Sekunden mit meinem Ferrari auf 100" immernoch besser anhört als "gestern hab ich mit meiner SSD nen 100GB Pornoordner in 5 Sekunden gezipt"
Wenn du den Baum, den du gleich treffen wirst, sehen kannst, nennt man das untersteuern. Wenn du ihn nur hören und fühlen kannst wars übersteuern!

Donnerstag, 27. Dezember 2012, 23:05

Bei ihm ist das Maleur ja erst beim Datenschubsen passiert, also RAID 5 sollte ausreichen. Und wenn es doch passieren sollte, das Leben geht weiter. Statt neue Festplatten zu kaufen dann einfach einen Urlaub buchen und viele neue Fotos und Videos anlegen. :crazy:

Freitag, 28. Dezember 2012, 03:40

Probleme der ersten Welt! Wenn man schon über Mikrofilm nachdenkt - Steintafeln! Ne Lebensdauer von 5000 Jahren und sehr Feuerbeständig!
Zim: You're nothing Earth boy! Go home and shave your giant head of smell with your bad self!
Dib: Okay... There's all kinds of things wrong with what you just said.

Freitag, 28. Dezember 2012, 14:49

Was ich immer wieder toll finde ist, das man immer von irgendwelchen Raid Backups, Arrays usw. hört,
diese dann beim wieder aufspielen oder gar beim Backup verrecken und meiner einer der seit vielen Jahren einfach sagt: eine HDD und gut ist.
Ich habe noch nie eine verreckte Festplatte gehabt, oder gar einen so üblen Ausfall das Daten weg sind.
Dazu kommt, auch in meinem Bekanntenkreis, diejenigen welchen die mit Raids arbeiten, haben so oft Probleme mit ebendiesen das ich nicht verstehen kann,
wieso sie noch immer auf irgendwelche "Patentlösungen" setzen.

Freitag, 28. Dezember 2012, 15:28

Das kommt drauf an. So nen Linux-Software-RAID ist recht robust und nicht an die Hardware gebunden. Sowas kommt mir aber auch nicht in einen normalen Client, sondern auf ein NAS. Das sichert man dann wiederum mit HDDs.
Zim: You're nothing Earth boy! Go home and shave your giant head of smell with your bad self!
Dib: Okay... There's all kinds of things wrong with what you just said.

Pilo

Senior Member

Samstag, 29. Dezember 2012, 20:10

Na ja, mit dem RAID 5 hatte ich ja keine Probleme, sondern eher mit den einzelnen Backup-Festplatten. Ich frag mich, ob man diese S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) nicht einfach auf den Mond schießen sollte. Gebracht hat's mir bis heute noch nichts. S.M.A.R.T. meckert erst dann, wenn man schon selbst mitbekommen hat - meistens durch sehr komische Greäusche aus Richtung der Festpatte - dass das HDD aufgeraucht ist. Sollte es nicht eigendlich zur Früherkennung vor einem bevorstehenden Festplattenausfall warnen, bzw. ist sowas im Mainboard-Bios oder in den Treibern überhaupt eingebaut?

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Pilo« (29. Dezember 2012, 20:13)

->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Pilo

Senior Member

Sonntag, 3. März 2013, 16:04

Was mich an den aktuellen Graphikkarten am meisten aufregt ist, dass die FETTEN DVI-Buchsen immer noch nebeneinander liegen bzw. immer noch Standard sind. Denn wie man sogar im Video zum neuen Aqua-Computer GTX-Titan Wasserkühler sehr schön sehen kann, wäre die Breite einer aktuellen Nvidia GTX Titan mit installiertem Wasserkühler eigendlich gerade mal 1 Slot. Durch die nebeneinander liegenden Buchsen kann man jedoch kein optionales 1 Slotblech montieren um einen zusätzlichen freien Kartensteckplatz zu erhalten, denn die zweite DVI-Buchse nimmt ja immer noch den zweiten Slot ein. Bei Zwei-Karten-SLI-Lösungen wären dann schon zwei neben den Graphikkarten liegende Steckplätze nicht mehr nutzbar. Warum hat man dann überhaupt den Display-Port-Standard entwickelt? AMD hatte mal eine Eyefinity Graphikkarte mit 6 Displaports im Programm, die AMD Radeon HD 5870 Eyefinity 6 Edition, bei der alle 6 Displayports in einer Slot-Ebene lagen.

Mit einem Wasserkühler und angepasstem Slot-Blech, hätte man eine 1-Slot Graphikkarte mit 6 Bildschirmanschlüssen.
Tatsache ist, dass das Displayport elektrisch kompatibel zum VGA-, DVI- und HDMI-Standard ist und mit (fast) passiven Adaptern auskommt. Das Festhalten an DVI ist deshalb zurecht völlig unverständlich.
Während DVI auf 1920 x 1200 (Single Link ) bzw. 2560 x 1600 (Dual Link) Bildpunkte begrenzt ist, kann DisplayPort Bilddaten mit einer Auflösung von bis zu 3840 x 2160 Pixel bei einer Bildwiederholrate von 30 Vollbildern pro Sekunde übertragen. 3D-Anwendungen mit Full-HD-Bildern bei 120 Hertz sind ebenso möglich.
Warum setzen NVidia und AMD dann immer noch DVI- und HDMI-Buchsen als Referenz für ihre Graphikkarten-Muster voraus?

Ich glaub die verarschen uns total!
->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Sonntag, 3. März 2013, 16:18

es müsste ja nichtmal DisplayPort sein, ich denke mit 3HDMI Buchsen in einer Slothöhe könnten auch die meisten Leben... Das mit den DualSlot DVI-Gedöhns finde ich auch schrecklich unpraktisch.

Sonntag, 3. März 2013, 16:46

Wenn's läuft, dann läuft's ...

;)

Zugegebenermaßen trifft es dich gerade mit voller Wucht und mich hat's auch schon im TB-Bereich erwischt aber dass ist ja das schöne an der IT. Immer wenn du glaubst, dass es sicher ist, kommt einer daher und holt die Keule raus.

Deshalb Sage ich ja immer: Datensicherung ist nur was für Feiglinge :D

Montag, 4. März 2013, 17:18

Das,
dass Lagerbestandsprogramm hier im Shop für´n Ar.. ist. :cursing: :cursing: (zugegebener Maßen in anderen Shops zum Teil auch, aber jetzt schreibe ich hier..) :)
Man wird ja schlauer im zunehmenden Alter und fragt vor der schriftlichen Bestellung telefonisch nach. ;)

Laut Bestandsanzeige im Onlineshop auf Lager, aber nix da, Wartezeit ca..... bis........

Aber dennoch auch was Positives.

Der Service hier (Telefonkontakt) leider weis ich den Namen nicht mehr, war absolut Freundlich,Kompetent & Ehrlich, was leider Gottes nicht immer so ist. :thumbsup:

Dennoch verstehe ich nicht, dass soviele Artikel, auch bei anderen Händelrn nicht lieferbar sind.
Vllt sollte man mal überlegen die Schichtzeiten oder die Schlagzahl zu erhöhen.
Bei mir in der Fa. z.B. wird Feierabend gemacht wenn die Vorgabe erfüllt wurde, so oder so. Nein ich bin kein Sklave... :D

So das musste jetzt mal raus.
Und Admins / Mods, nicht in den falschen Hals kriegen, irgendwer ist für die Planung / Logistik verantwortlich........

Gruß

Andreas

Mittwoch, 6. März 2013, 06:14

Das ist aber schon seit jahren so.

Laut Shop lieferbar aber doch nicht lieferbar.

Pilo

Senior Member

Donnerstag, 15. August 2013, 05:31

Ich frag mich langsam, warum NVidia und AMD nicht endlich den gleichen Weg gehen wie bei den Prozessoren und mehrere Rechnenkerne in eine GPU pflanzen, die dann perfekt intern miteinander kommunizieren könnten -[anstatt über eine SLI-/Crossfire-Brücke]-, 100% perfekt skalieren -[anstatt nur 50% bis 97%]-, keine Micro-Ruckler mehr erzeugen -[Aufgrund verschobener unregelmäßiger Timings der Einzelbilder]-, auf einen gemeinsamen Graphikspeicher zugreifen -[was wohl günstiger und ökonomischer wäre als es heute ist, wo jede zusätzliche zur Leistungssteigerung eingebaute SLI-/Crossfire-Graka über eigenes RAM verfügt]- und weniger Energie und Bauteile benötigen -[jede zusätzliche baugleiche Single-GPU auf einer Graka im SLI/Crossfire benötigt die gleiche Energie, Anzahl an Bauteilen und vor allem Platz im Gehäuse, das könnte man sich alles sparen bei einer GPU mit mehreren Kernen].

AMD und NVidia nuckeln diese seit dem Ende von 3Dfx veraltete SLI-/Crossfire-Technik aus bis zum Erbrechen.
Natürlich leuchtet es mir ein, dass beide kapitalistisch ausgerichtete Unternehmen lieber teure komplette Graphikkarten zur vermeintlichen Leistungssteigerung verkaufen wollen. Es ist aber eigendlich eine ausgemachte Frechheit und Dreistigkeit sondergleichen.
Das damalige SLI (Scan Line Interleaving) zum echten Verdoppeln der Bildwiederholrate war noch cool zu 3Dfx-Zeiten, jedoch SLI (Scalable Link Interface) und Crossfire heute, sind und waren nie zeitgemäß und gehören eigendlich verboten, da es qualitativ minderwertige Techniken sind und nur dazu dienen den abhängigen Kunden die Kohle aus den Taschen zu ziehen. Man könnte fast schon von einem mutwillig aufrecht erhaltenen Status Quo durch ein Kollektivmonopol reden.

Man muß sich nur einen zusätzlichen baugleichen Pkw kaufen, sich diesen an die Anhängerkupplung hängen und kann dann anstatt mit nur 200 km/h plötzlich mit 380 km/h über die Autobahn brausen. Es sei denn man steht im Stau *HUST*. Macht irgendwie keinen Sinn. Vielleicht würde es schon reichen nur einen zweiten Motor einbauen?

P.S. Multi-GPU-Grakas zählen nicht...sind eigendlich zwei Grakas auf einer Platine...mit dem selben, diesmal versteckten, SLI-/Crossfire-Gewurstel noch dazu!

Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »Pilo« (15. August 2013, 05:35)

->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Donnerstag, 15. August 2013, 11:05

Naja, ich glaube das wird einfach schon sehr lange gemacht... vielleicht nicht so ganz wie du dir das vorstellst, aber bei der HD7970 kann man zB zur Architektur lesen "The Tahiti XT GPU in the Radeon HD 7970 is built up of 32 of these Compute Unites which are essentially self-contained processors capable of acting independently of the whole."

Donnerstag, 15. August 2013, 13:17

Ich frag mich langsam, warum NVidia und AMD nicht endlich den gleichen Weg gehen wie bei den Prozessoren und mehrere Rechnenkerne in eine GPU pflanzen, die dann perfekt intern miteinander kommunizieren könnten


Wird doch gemacht, nur stößt man in Sachen Chipgröße an die Grenzen. Je größer der Chip wird desto geringer wird die Ausbeute an brauchbaren Chips. Darum gibt es bei Nvidia den GK110 (Titan, GTX 780) auch nicht mit allen aktiven SMX Blöcken. So kann man teildefekte Chips auch noch verkaufen. So ein GK110 ist schon 551mm² groß, dagegen ist eine CPU wie ein Haswell i7-4770K mit 177mm² ein Witz.

Das damalige SLI (Scan Line Interleaving) zum echten Verdoppeln der Bildwiederholrate war noch cool zu 3Dfx-Zeiten, jedoch SLI (Scalable Link Interface) und Crossfire heute, sind und waren nie zeitgemäß und gehören eigendlich verboten, da es qualitativ minderwertige Techniken sind und nur dazu dienen den abhängigen Kunden die Kohle aus den Taschen zu ziehen.


Das SLI von 3dfx brachte bei ner Voodoo 2 auch nur 40-60% mehr Leistung. Vorteil war, dass man statt auf 800×600 auf 1024×768 spielen konnte. In einigen Fällen traten auch da Tearing und andere Display-Artefakte auf.
Eine Idealelösung für Multi-GPU-Systeme gibt es nicht!
"Toleranz ist das unbehagliche Gefuehl, der Andere könnte am Ende vielleicht doch recht haben." Robert Forst

Donnerstag, 15. August 2013, 19:45

Hab ich was verpasst? Bei mir hat SLI eine deutliche Leistungssteigerung gebracht, von 1 GPU mit 2 Screens (ca30fps) auf 2GPU mit 3 Screens (ca40fps) und dann die dritte Karte für 3 Monitore (ca60fps), da war immer eine Leistungssteigerung da die die Investition gerechtfertigt hat. Das ganze ist nicht mehr ganz aktuell, waren GTX480 und die fps-Zahlen beziehen sich auf World of Warcraft (ja, Schande über mich :pinch: ) bei jeweils maximaler Auflösung, hohen Details und mitten im Schlachtgetümmel. Aber da mir >1000W inzwischen zu teuer zum zocken sind liegt SLI eh nicht mehr drin :P

Pilo

Senior Member

Freitag, 16. August 2013, 04:20

Das ist es ja. Wenn man bedenkt mit was die Leistungssteigerung erkauft wird. Zwei-, drei, vierfache(r) Kosten, Platz-, Bauteilebedarf und Strombedarf. Alles unverhältnismäßig. Anstatt Graphikkarten mit zwei Single-Core-GPUs auf einer Platine anzubieten, die jedoch völlig unabhängig voneinander arbeiten wie zwei einzelne Graphikkarten - für mich ist das totaler Schwach- und Irrsinn - ist der nächste Schritt unausweichlich. Eine Multi-Core-GPU. Egal wieviel Fläche oder Transistoren man dafür benötigt. Eine Technik bzw. neue Architektur wird kommen mit der das möglich ist. Der Schritt ist unausweichlich. Wie sonst wollen die Hersteller den immer weiter steigenden Leistungsbedarf nachkommen? Ich meine, eine Titan kann gerade mal so ein Ultra High Definition Monitor mit ausreichender Bildwiederholrate füttern. Bei heutigen Spielen. Selbst Intel und AMD müssen Prozessoren mit immer mehr Kernen entwickeln, ansonsten würde man bei der heutigen Leistung stagnieren und keiner würde mehr neue Rechner kaufen, warum auch, die Leistung bliebe ja die gleiche.

Ich hatte mir damals eine SLI-Kombi nur deshalb zugelegt, weil eine Graphikkarte mit Nvidia-Chip der älteren Generation...vor der 6xxer Baureihe...alleine keine drei Monitore als einen Großen (Surround Gaming) ansteuern konnte. Nicht zur Leistungsteigerung. Ansonsten würde ich das auch ganz schnell wieder aus'm Rechner schmeißen, wegen Strombedarf und dem ganzen umständlichen Pipapo damit. Aber die Grakas tun's noch. Und für meine 'Pseudo Ultra High Definition'-Auflösung reicht's noch ne Weile.

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »Pilo« (16. August 2013, 04:21)

->Darin Epsilon - PERSPECTIVES<-
Mr. SuicideSheep @ soundcloud.com
Test Shot Starfish @ soundcloud.com
Professor Kliq @ soundcloud.com

Ähnliche Themen