Sie sind nicht angemeldet.
God
God
Rechnet der Atom das Raid? Oder via RaidController?
Zitat
Ich würde da ein ITX Brett mit 35w I3 oder Pentium G empfehlen.
(Auch wenn ich eine ähnliche Kombi mit einem I5 Dualcore betreibe, Wg. AES)
Dienstag, 4. Dezember 2012, 23:58
...Hier ein Dual-Core Atom mit 1.6GHz, der 4x3TB im Raid-6 betreiben soll...
Mittwoch, 5. Dezember 2012, 00:36
So weit ich weiß, realisieren quasi alle (Qnap, Synology ...) bei den kleineren und mittleren NAS-Würfeln die Raid-Modis über Software-Raids. Üblicherweise läuft auf den Kisten irgendein Linux/Unix dass halt dann über die Weboberfläche konfiguriert wird.hier einmal ein paar dumme Fragen. Mit was betreibst Du das RAID 6, rein über Software an den Mainboard-Anschlüßen, oder mit einer RAID-Controller-Karte von z.B. 3Ware? Mir fehlt da etwas die Erfahrung in dem Bereich.
God
Ich bau dir so was und schicke es dir
Zitat
Finde den Aufwand da nicht so riesig. Spannender ist es eher Windows zu erklären auf welchen Wegen man seine Daten haben will:
So weit ich weiß, realisieren quasi alle (Qnap, Synology ...) bei den kleineren und mittleren NAS-Würfeln die Raid-Modis über Software-Raids. Üblicherweise läuft auf den Kisten irgendein Linux/Unix dass halt dann über die Weboberfläche konfiguriert wird.
Zitat
@Picture was mich an der Anzeige etwas irritiert der Datenträger schreibt mit 64,3MB/s und die Netzwerkverbindung mit 35MB/s. Wie kommt das zustande?
Ja das ist wohl immer die Achillesverse aller Raids. Auch ich habe am Anfang dies bezüglich meine Erfahrungen sammeln müssen. Insbesondere sind da quasi alle Software und Hardware-Raids gleichermaßen benachteiligt (ausgenommen ZFS), da sie nichts darüber wissen wie das Dateisystem aussieht und welche Blöcke belegt sind und welche nicht, auch MD-Raids haben dieses Problem. Immerhin kommt Linux damit klar wenn es während des Rebuildvorgangs abgewürgt wird, schlimmstenfalls startet der Rebuildvorgang von vorn, womit man immer noch leben kann.Der Synology ist übrigens gerade durchgefallen: Das Ding lässt sich während eine Rebuilds nicht "mit Anstand" herunterfahren. Jetzt muss ich noch testen, ob der USV-Dämon ebenfalls hängen bleibt.
Ja und nein, vor einigen Tagen musste ich mit dem Thema bis zum erbrechen beschäftigen. Mein Vorhaben war es einen Samba der unter Solaris 10 läuft sauber an eine ActiveDirectory zu binden, die auf einem MS 2008 R2 läuft. Leider gibt nur sehr sehr wenige die darüber überhaupt fundiertes Wissen haben, ich hatte jedoch Glück mit einigen Gurus sprechen zu können. Das Fazit ist bisher dass Samba unter Solaris sehr gut läuft und die Performance in Verbindung mit ZFS einfach nur beeindruckend ist. Unter Solaris 11 gibt es einen integrierten CIFS Server der mit ACLs etc. out of the Box läuft. Allerdings muss man hier ganz klar anmerken, dass dies nur deshalb gut funktioniert da ich in die ActiveDirectoy die Unix-Attribute integriert habe (Unix Services for Windows), ansonsten wäre das Mapping zwischen SID und UID bzw. GID einfach nur eine Katastrophe. iSCSI ist hier ganz klar der einfachere und Sorgen freiere Weg. Was in meinem Fall allerdings nicht zur Debatte stand, da die Daten zusätzlich per NFS exportiert werden müssen.ISCSI - was sonst.
Auf Samba-Basteleien und eine halbfertige und halbstabile AD-Integration kann ich verzichten.
Stimmt, privat kann ich mit der Performance von MD recht gut leben. Im Professionellen Umfeld hat dies so seine Tücken. MD bietet eine gute Grundperformance auf recht schwacher Hardware, weshalb es sehr gut für kleinere Systeme geeignet ist, wo IO-Performance nicht soo wichtig ist. Im Falle eines Rebuild werden immer alle Blöcke wiederherstellt, was bei großen Festplatten zu langen Rebuildzeiten führt, was im Alltag eines Betriebes durchaus zu Problemen führen kann.Und nachdem ich in den letzten Jahrzehnten auch sehr unangenehme Erfahrungen mit Hard-Raids *) sammeln durfte, bin ich schon auch ein Fan von Linux-MD-Raids, die man fast in jedem Zustand irgendwie wieder zusammenbasteln kann.
*) Master of Desaster ist natürlich Ada**** - ich sollte aber dankbar sein: Ich durfte schon mehrfach meine Backup-Strategien verifizieren.
Mit Areca gab's zwar nie Probleme, aber für diese Bratöfen muss schon ein passendes thermisches Konzept vorliegen.
Das ist sicherlich eine sehr konservative Lösung, allerdings ist die Nettokapazität dann wohl eher geringDie kleine Kiste werde ich jetzt mit Raid-1 (3 Platten) +Spare betreiben ... also 2 Gürtel und doppelte Hosenträger
God
Das ist sicherlich eine sehr konservative Lösung, allerdings ist die Nettokapazität dann wohl eher geringDie kleine Kiste werde ich jetzt mit Raid-1 (3 Platten) +Spare betreiben ... also 2 Gürtel und doppelte Hosenträger
Zitat
Ich würde dir mal empfehlen FreeNAS anzusehen. Das System ist in den letzten Versionen sehr erwachsen geworden und unterstützt unter anderem ZFS und iSCSI. In Verbindung mit irgendeinem Supermicro SAS 19" Case liese sich für wenig Geld ein performanter und skalierbarer Filer bauen. Supermicro BTO Shops gibt es ja wie Sand am Meer, dann fällt jegliche Schraubarbeit bis aufs Einsetzen der Festplatten weg.
Zitat
Allerdings besteht dann die Gefahr dass deine Old-School HW-Raids einpacken können und ziemlich alt aussehen.
Off-Topic: Nerdigster Thread mit iX-Einschlag seit langem. Man möge ein passend illustrierendes Meme-Bild posten.
God
gib der Synology eine Chance.
Zitat
Mein Fazit zu den Synologys ist derzeit das ich sie zu 100% wieder einsetzten würde.
[...] Aber ich hatte ebend auch keinen Desasterfall, so das meine Meinung nicht wirklich Aussagefähig ist.
gib der Synology eine Chance.
Echte Desaster hatte ich früher mal: Zuerst sind die Quantum-Platten gestorben wie die Fliegen (da gab's mal so eine tolle Atlas-Serie). Dann hat Adaptec ein lustiges Firmware-Chaos produziert, das dann auch noch mein Backup-System in den Abgrund beförderte. Hier blieb dann nur noch Neuaufbau und Rücksicherung von Band. Und - wer hätt's gedacht - genau an diesem Tage hatte mein HP-Streamer beschlossen, dass er "Bänder fressen" möchte.
mfg, Tom
-