• 28.04.2024, 05:35
  • Registrieren
  • Anmelden
  • Sie sind nicht angemeldet.

 

Lieber Besucher, herzlich willkommen bei: Aqua Computer Forum. Falls dies Ihr erster Besuch auf dieser Seite ist, lesen Sie sich bitte die Hilfe durch. Dort wird Ihnen die Bedienung dieser Seite näher erläutert. Darüber hinaus sollten Sie sich registrieren, um alle Funktionen dieser Seite nutzen zu können. Benutzen Sie das Registrierungsformular, um sich zu registrieren oder informieren Sie sich ausführlich über den Registrierungsvorgang. Falls Sie sich bereits zu einem früheren Zeitpunkt registriert haben, können Sie sich hier anmelden.

Linux: Software RAID auflösen

Samstag, 18. Juli 2009, 15:30

Hey Leute,

da ich im ubuntuusers.de Forum auch keine wirkliche Hilfe bekomme, hoffe ich vielleicht bei euch einen Linux Geek zu finden, der mir mit meinem Problem helfen kann. Ich baue mir gerade einen Fileserver auf ubuntu- oder debianbasis auf. Jetzt habe ich 2x750GB SATA Platten drin (die auch ziemlich rumgemuckt haben, bis sie liefen) und diese sind folgendermaßen partitioniert: 2x4 GB im RAID 1 für das System 2x1GB im RAID 0 für Swap (im Setup erstellt), die ~740 die übrig sind, habe ich nur auf xfs formatiert und nicht gemountet. Nach der Installation habe ich dann ein MD Array erstellt.

Quellcode

1
:~$ sudo mdadm --create /dev/md2 --level=linear --raid-devices=2 /dev/sda3 /dev/sdb3


Diese lief auch bis ich das System neugestartet habe. Jetzt gibt es die MD im /dev/ nurnoch als "md_d2" und noch dazu "md_d2pX" (X=1...4), ich habe keine Ahnung was nun damit wieder passiert ist. Aber anscheinend besteht dieses Array nurnoch aus /dev/sdb3. Nun wollt ich jetzt einfach das Array löschen und neu erstellen, aber das stellt sich schwieriger raus als es sein sollte :X

Quellcode

1
2
3
4
chris@fileserver:/dev$ sudo mdadm -Es
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=705e79f7:61780a07:d3892cc2:7d6c36c5
ARRAY /dev/md0 level=raid0 num-devices=2 UUID=bbaec501:d320c3f7:239dac5a:ee150dff
ARRAY /dev/md2 level=linear num-devices=2 UUID=cd930fb6:a81d7f1e:b8756c74:3dd5f86e

Das sind die Arrays, die mdadm noch gespeichert hat, aber das /dev/md2 gibt es eigentlich nicht mehr ? oO

Quellcode

1
2
3
4
5
6
7
8
9
chris@fileserver:/dev$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid0 sdb2[1] sda2[0]
      1959680 blocks 64k chunks

md1 : active raid1 sdb1[1] sda1[0]
      4104512 blocks [2/2] [UU]

unused devices: <none>

Hier noch die aktiven MD's

Ich kann mir leider auch keine Details mehr von /dev/md2 oder /dev/md_d2 anschauen.

Quellcode

1
2
3
4
5
chris@fileserver:/dev$ sudo mdadm --detail /dev/md2
mdadm: cannot open /dev/md2: No such file or directory

chris@fileserver:/dev$ sudo mdadm --detail /dev/md_d2
mdadm: md device /dev/md_d2 does not appear to be active.


Die /dev/sdb3 Partition darf ich auch nicht als "fail" markieren und starten geht mit der gleichen Fehlermeldung auch nicht..

Quellcode

1
2
chris@fileserver:~$ sudo mdadm /dev/md_d2 --fail /dev/sdb3
mdadm: cannot get array info for /dev/md_d2


Jemand noch Rat ? Hab eigentlich nicht schon wieder Bock das System neuaufzusetzen, da ich nicht mehr genau weiß wie ich das Problem mit den Sata Platten gelöst hatte.. (ataX: ata2: cmosreset failed (errnr=-16) [Hat irgendwas mit extended Befehlen für den Raidcontroller zu tun, die meiner aber nicht unterstützt, aber standardmäßig im Kernel integriert sind... Kernel neu compilen kann ich leider nicht:/]

Gruß
cronix

r4p

Senior Member

Samstag, 18. Juli 2009, 22:33

Also eigentlich solltest du in dem Fall das Array einfach neu erstellen können. Die Daten sind dann allerdings weg.

Alternativ kannst du versuchen das Array von hand zu starten

Quellcode

1
mdadm --asseble /dev/md2 --level=linear --raid-devices=2 /dev/sda3 /dev/sdb3

Wenn dass nicht will, kannst du zusätzlich noch "--force" angeben.

Edit: danach sollte das löschen des Raids klappen.

Was bei dir eventuell falsch gelaufen ist, ist das Raid in der mdadm.conf einzutragen, ich weiß jetzt nicht, wo die bei ubuntu liegt, bei mir (Gentoo) liegt sie unter /etc/mdadm.conf.
Da sollte dann irgendwo was wie das hier stehen:

Quellcode

1
2
3
ARRAY /dev/md0 devices=/dev/sda1,/dev/sdb1
ARRAY /dev/md1 devices=/dev/sda2,/dev/sdb2
ARRAY /dev/md2 devices=/dev/sda3,/dev/sdb3

Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von »r4p« (18. Juli 2009, 22:37)

Gentoo nutzer mit Herz und Seele: Gentoo Gentoo Wiki

"Bei der Eroberung des Weltraums sind zwei Probleme zu lösen: die Schwerkraft und der Papierkrieg. Mit der Schwerkraft wären wir fertig geworden." - Wernher von Braun

Sonntag, 19. Juli 2009, 01:39

was mich ein bisschen stutzig macht, ist das "multipath" unter personalities.

bei mir sieht die mdstat so aus:

Personalities : [raid0] [raid1] [raid6] [raid5] [raid4]
md2 : active raid5 sda2[0] sdd2[3] sdc2[2] sdb2[1]
4389552000 blocks level 5, 128k chunk, algorithm 2 [4/4] [UUUU]

md1 : active raid0 sdc1[0] sdd1[1]
3903488 blocks 64k chunks

md0 : active raid1 sda1[0] sdb1[1]
1951744 blocks [2/2] [UU]

unused devices: <none>


ich würd einfach sda3 und sdb3 formatieren und das JBOD neu erstellen.

Dienstag, 21. Juli 2009, 22:12

Grr, ich raff einfach nicht, was das /dev/md_d2 überhaupt ist, weil in mdadm -Es taucht es ja nirgends auf, da gibts nur das /dev/md2, dass ich aber nicht mounten kann, was aber aus /dev/sdb3 besteht...

Quellcode

1
2
3
4
5
6
7
8
9
10
11
12
chris@fileserver:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d2 : inactive sdb3[1](S)
  	727487360 blocks

md0 : active raid0 sdb2[1] sda2[0]
  	1959680 blocks 64k chunks

md1 : active raid1 sdb1[1] sda1[0]
  	4104512 blocks [2/2] [UU]

unused devices: <none>

Dienstag, 21. Juli 2009, 22:24

grr jetzt dacht ich, ich habs geschafft.. hatte die Partition gelöscht und rebootet, dann warn /dev/md2 und /dev/md_d2 (und die ganzen Roten konsorten davon), dann hab ich die Partition wieder erstellt und schwups sind beide wieder da :(

Mittwoch, 22. Juli 2009, 07:22

Jetzt nicht zu dem Problem:
Aber warum hast du den Swap als Raid angelegt?

Das ist doch nun wirklich völlig unnötig.
Einfach beide Partitionen als Swap partition markieren,Swapfs anlegen und beide mounten.

Linux kommt mit mehr als einer Swappartition klar...
c++: The power, elegance and simplicity of a hand grenade.

Mittwoch, 22. Juli 2009, 19:22

Naja, der Swap wird denk ich mal sowieso nicht so wichtig sein bei dem Server, aber wenn du genauer hinguckst, dann ist das ein RAID 0 und hat damit mehr Datendurchsatz, macht also schon Sinn in meinen Augen ;)

Montag, 27. Juli 2009, 00:37

Wenn Linux mehere Swappartitionen findet macht es selbstständig ein quasi "Raid0" draus -- ist ja ein intelligentes System. Daher bringt es nichts unter Linux die Swap-Partition auf ein Raid0 zu legen -- außer es ist ein echtes Hardwareraid0.

Lg

Leto
Verkaufe Intel PRO/1000 PT Server Adapter, 2x 1000Base-T, PCIe x4 D33025 für 50€ + Versand

Karte hat zwei 1GB-Ports, Anschluss: 2x RJ45 • Chipsatz: Intel 82571GB • Besonderheiten: Wake on LAN, VLan, BootRom, PCIe x4, diese Karte ist unbenutzt, nur in einer OEM Verpackung. Low-Profile, Adapterblech für normale Bauhöhe liegt bei.

Die gleiche Karte läuft in meinem Server unter Linux einwandfrei.

Ähnliche Themen