OVH Community, your new community space.

Reconstruction RAID après changement disque dur


jeff34
31/12/2015, 09h37
Voila c'est fait !

Désormais le boot est bien disponible sur les deux partitions et les deux RAIDS sont actifs :

root@rescue:~# fdisk -l

Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x00000000

Device Boot Start End Sectors Size Id Type
/dev/sda1 * 4096 40962047 40957952 19.5G fd Linux raid autodetect
/dev/sda2 40962048 42008575 1046528 511M 82 Linux swap / Solaris
/dev/sda3 42008576 1953517567 1911508992 911.5G fd Linux raid autodetect

Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x000bbd39

Device Boot Start End Sectors Size Id Type
/dev/sdb1 * 4096 40962047 40957952 19.5G fd Linux raid autodetect
/dev/sdb2 40962048 42008575 1046528 511M 82 Linux swap / Solaris
/dev/sdb3 42008576 1953517567 1911508992 911.5G fd Linux raid autodetect

Disk /dev/md3: 911.5 GiB, 978692538368 bytes, 1911508864 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md1: 19.5 GiB, 20970405888 bytes, 40957824 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

root@rescue:~# cat /proc/mdstat


Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : active raid1 sda1[0] sdb1[1]
20478912 blocks [2/2] [UU]

md3 : active raid1 sda3[0] sdb3[1]
955754432 blocks [2/2] [UU]

unused devices:

Et... BINGO !!! redémarrage du serveur OK et données récupérés !!!

Merci à tous et j'espère que ce Post sera utile à d'autres personnes

jeff34
31/12/2015, 08h34
Désolé de mon oubli !!
Je viens de refaire la commande et je suis bien en RAID1 finalement :

root@rescue:~# mdadm --misc --detail /dev/md1
/dev/md1:
Version : 0.90
Creation Time : Tue Jan 21 10:22:33 2014
Raid Level : raid1
Array Size : 20478912 (19.53 GiB 20.97 GB)
Used Dev Size : 20478912 (19.53 GiB 20.97 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 1
Persistence : Superblock is persistent

Update Time : Thu Dec 31 07:34:50 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

UUID : 3b437917:fc4f8635:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.1759

Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1

J'attends que le RAID finisse de se reconstruire sur la partition des données avant de voir ce que cela donne ...

nowwhat
31/12/2015, 07h47
T'as pas répondu - ou au moins, je n'ai pas vu l'explication de ce détail :
Citation Envoyé par jeff34
....
root@rescue:~# mdadm --misc --detail /dev/md1

/dev/md1:
Version : 0.90
Raid Level : raid0
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent

State : inactive
Si md1 était un Raid 0 (zéro) il te faut un autre tuto. (Très important : t'as compris la différence entre raid 0 et raid 1 ??)
Il n'y rien à récupérer, c'est impossible.
Il te reste à recréer "md1", le formater et l'utiliser à nouveau.

jeff34
31/12/2015, 07h46
En attendant une réponse, voila ce que j'ai fait :

j'ai remis en fail le sda3 sur le md3 puis je l'ai enlevé du RAID :

mdadm --manage /dev/md3 --fail /dev/sda3
mdadm --manage /dev/md3 --remove /dev/sda3

Ensuite pour rendre actif md1, j'ai fait cela :

mdadm --stop /dev/md1
mdadm --assemble --force /dev/md1 /dev/sdb1

Actif MD1 il est devenu !!!

j'ai donc pu faire : mdadm --manage /dev/md1 --add /dev/sda1 ==> RAID md1 reconstruit et OK !

et j'ai remis le sda3 sur le md3 : mdadm --manage /dev/md3 --add /dev/sda3 ==> Reconstruction en cours...

J'étais pas un expert en RAID ... je commence à le devenir LOL

J'attends la fin et je relance le serveur ... je vous tiens au courant

PS : j'ai encore un doute sur la réplication de la MBR ...

jeff34
31/12/2015, 07h07
Je viens de réaliser que je n'ai pas reconstruit le RAID md1, celle avec la commande : mdadm --manage /dev/md1 --add /dev/sda1

mais maintenant, quand j'essaye de l'exécuter, j'ai le message suivant :

root@rescue:~# mdadm --manage /dev/md1 --add /dev/sda1

mdadm: Cannot get array info for /dev/md1

Est ce cela mon pb ? que md1 ne soit pas actif ???

jeff34
31/12/2015, 06h40
Re bonjour à tous ....
Je suis vert ... le RAID s'est bien reconconstruit, et, à chaque redémarrage sur le disque dur, le serveur ne boot pas :
Retour d'OVH qui me dit : Boot erreur 17, retour en mode rescue, configuration du client à faire !!!

J'ai pourtant copié le MBR du disque resté à celui changé ...

Si vous avez une idée, je suis preneur car je suis vraiment désemparé....

Voici des infos :

root@rescue:~# fdisk -l

Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 656BE2E3-EBE8-43FE-AB75-A0DFAF7A09C1

Device Start End Sectors Size Type
/dev/sda1 4096 40962047 40957952 19.5G Linux RAID
/dev/sda2 40962048 42008575 1046528 511M Linux swap
/dev/sda3 42008576 1953517567 1911508992 911.5G Linux RAID

Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x000bbd39

Device Boot Start End Sectors Size Id Type
/dev/sdb1 * 4096 40962047 40957952 19.5G fd Linux raid autodetect
/dev/sdb2 40962048 42008575 1046528 511M 82 Linux swap / Solaris
/dev/sdb3 42008576 1953517567 1911508992 911.5G fd Linux raid autodetect

Disk /dev/md3: 911.5 GiB, 978692538368 bytes, 1911508864 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

root@rescue:~# cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : inactive sdb1[1](S)
20478912 blocks

md3 : active raid1 sda3[0] sdb3[1]
955754432 blocks [2/2] [UU]

unused devices:

root@rescue:~# mdadm --misc --detail /dev/md3

/dev/md3:
Version : 0.90
Creation Time : Tue Jan 21 10:22:39 2014
Raid Level : raid1
Array Size : 955754432 (911.48 GiB 978.69 GB)
Used Dev Size : 955754432 (911.48 GiB 978.69 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 3
Persistence : Superblock is persistent

Update Time : Wed Dec 30 16:12:12 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

UUID : de4e0c04:227a9dce:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.6519

Number Major Minor RaidDevice State
0 8 3 0 active sync /dev/sda3
1 8 19 1 active sync /dev/sdb3

nowwhat
30/12/2015, 15h44
et encore un truc à la con : j'ai posté une réponse et mon post est passé en ...... modération ?????????!!!!!!

J'ai posté effectivement un lien vers : https: // docs.ovh.com/display/public/GUD/Resynchronisation+raid+soft+-+LINUX
(bon ok, j'ai aussi parlé du support d'OVH (pardon, c'est KS ici, c'est encore autre chose) mais je suis resté très correct )

nowwhat
30/12/2015, 15h42
Citation Envoyé par jeff34
...
Dois je refaire le swap après ????
Ils en parlent ici :
https://docs.ovh.com/display/public/...d+soft+-+LINUX

Citation Envoyé par jeff34
...... le support OVH m'avait donnée ...
Avant le support, installe Google et lance un truc du genre : OVH raid synchro mdadm puis pause café avec la lecture des 10 premier sujets.
(dans ce cas, il est clair que le premier n'est pas très accessible - il a été très bien en 2003 - mais là on est 2015 .....
Le support est utile pour :
  • te défouler (si t'as rien d'autre à faire)
  • un soucis unique (t'as l'impression que Google ne comprend pas de quoi tu parle ... sachant qu'un soucis unique, c'est très rare )
  • un envie de tester le support .....
  • être prêt à recevoir une réponse incompréhensible (car t'as pas compris la porté e de ta propre question)


Il faut dire que les plupart entre nous (moi inclus) commence à voir de près ce que c'est un raid le jour, quand ça ... foire

PS : avant qu'on me demande si j'ai quelque chose contre le support d'OVH : Certainement pas ..... impossible, je les ai jamais contacté ( sauf avec mon SYS, j'ai un sujet, et ça fait deux mois que ça dure déjà .... c'est un histoire d'ajouter un (parmi des dizaines d'autres) nom de domaine (chez OVH) sur sdns2.ovh.net qui refuse systématiquement ).
PS2: c'est pour quand, un compil des top 10 questions le plus marrant posé au support ? Je suis sur qu'on va beaucoup rire.

Support : Allo, bonjour, ici le support OVH ...
Client : Oui, allo, ça va pas. J'ai payé pour un nom de domaine, mais vous m'avez pas livré ce domaine ....
Support : Ah, ok, on va voir ça. C'est quoi ce nom de domaine ?
Client ; microsoft point com, pourquoi ?

jeff34
30/12/2015, 15h13
Merci beaucoup pour vos réponses, le RAID est en train de se reconstruire !!!

Dois je refaire le swap après ????



root@rescue:~# mdadm --manage /dev/md3 --add /dev/sda3

mdadm: added /dev/sda3
root@rescue:~# watch cat /proc/mdstat
Every 2.0s: cat /proc/mdstat Wed Dec 30 14:20:09 2015

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multi
path] [faulty]
md1 : inactive sdb1[1](S)
20478912 blocks

md3 : active raid1 sda3[2] sdb3[1]
955754432 blocks [2/1] [_U]
[>....................] recovery = 0.8% (8051072/955754432) finish=94.0m
in speed=167961K/sec

unused devices:

Pour la doc, merci beaucoup de cet update car le support OVH m'avait donnée celle mentionnée dans mon premier post

nowwhat
30/12/2015, 13h08
Citation Envoyé par BBR
Ah, oui, vu comme ça c'est simple ...
Merci pour le lien.

BBR
30/12/2015, 12h38
les nouveaux guides sont par ici : https://docs.ovh.com/display/public/...d+soft+-+LINUX

nowwhat
30/12/2015, 12h08
Citation Envoyé par jeff34
....
J'ai réussi à isoler le nouveau disque changé (nommé sda) et j'ai recopié la partition donc du sdb vers le sda avec la commande : sfdisk -d /dev/sdb | sfdisk /dev/sda
Ce qui me dit que c'est votre "sda" qui été remplacé.

D'ailleurs:
Citation Envoyé par jeff34
md3 : active raid1 sdb3[1]
955754432 blocks [2/1] [_U]
prouve que c'est votre sdb qui est encore active.

Pouvez vous montrer ce que donne:
cat /proc/mdstat
L'exemple du site que j'ai mentionné plus remplace (mise en faille) le "sdb".
(un Raid 1 - car il s'agit d'un Raid 1, n'est pas ? [édit: raid0 : arrête tout, tout est foutu ..., c'est la principe même d'un Raid0 : c'est la roulette russe : en cas de perte d'un disque, vous perdez les données sur les DEUX] utilise DEUX disques, sda et sdb)
Pour vous, il faut remplacer sdb par sda.

mdadm --manage /dev/md1 --add /dev/sda1
mdadm --manage /dev/md3 --add /dev/sda3

Note : sda3 car votre sda2 est le swap (pas besoin de sync le swap)
Note : Pour vous, il s'agit de md1 et md3 (pas md0 et md1 comme dans l'exemple sur le site)

Après : lance dans une (deuxième) session SSH ceci :
watch cat /proc/mdstat
pour surveiller la synchronisation.

L'exemple est valable pour un Raid 1 - comment reconstruire un raid 0 : je ne sais pas, la procédure doit être le même avec des "nuances". Je n'ai pas d'expérience avec les "Raid 0".

jesuislibre
30/12/2015, 11h58
Salut,

On ne comprend pas tout dans ton installation. D'après les résultats de tes divers tests, on dirait que tu as 2 matrices Raid (md1 & md3. Est-ce utile d'avoir 2 matrices raids ? As tu fait une matrice raid par partition ?

Je te suggère d'effectuer dans un premier temps les tests suivants (pour les prochaines fois) :

1) Afficher la matrice raid active avec la commande suivant
Code:
cat /proc/mdstat | egrep "md[0-9]+" | grep "active raid"
2) Afficher les disques actifs avec la commande suivante
Code:
mdadm -D /dev/md3 | grep "active sync"
Ça devrait te lister les matrices raid ainsi que les disques actifs pour une matrice (md3 pour l'exemple).

Grace au test précédent, tu peux t’apercevoir qu'il y'a une matrice raid active et fonctionnelle sur md3 avec le disque /dev/sdb3

Il te faut donc faire pour la matrice md3 la commande suivante

Code:
mdadm /dev/md3 --manage --add /dev/sda3
Note: Je te conseille de faire un backup avant, on ne sait jamais !

Tu devrais également essayé de résoudre le problème sur matrice raid md1

@+

BBR
30/12/2015, 11h53
/dev/md1:
Version : 0.90
Raid Level : raid0
raid 0 ?

jeff34
30/12/2015, 11h29
Merci ! j'ai regardé mais je suis toujours interrogatif à la commande pour reconstruire par rapport à mes disques ...
Si je comprends bien ce tuto et ma configuration, c'est cela que je devrais faire ? :

mdadm /dev/md1 --manage --add /dev/sdb1 ?

nowwhat
30/12/2015, 11h11
Base toi sur http://denisrosenkranz.com/tuto-mdad...raid-logiciel/

jeff34
30/12/2015, 10h39
Bonjour

J'ai eu un crash disque sur le RAID et le disque à été changé par OVH et je dois donc reconstruire le RAID.

J'ai regardé le tuto ici .... est ... je vous avoue que ce n'est pas évident.

J'ai réussi à isoler le nouveau disque changé (nommé sda) et j'ai recopié la partition donc du sdb vers le sda avec la commande : sfdisk -d /dev/sdb | sfdisk /dev/sda
C'est Ok pour cela.

Par contre, ce que je n'arrive pas à comprendre, c'est comment identifier le bon disk RAID pour le remontage ...

Je pense que le bon disque RAID est le md3 et qu'il faut donc monter le RAID avec cette commande :

mdadm /dev/md3 --manage --add /dev/sda

Mais je n'en suis pas sur et je vous avoue que je ne veux pas tout écraser (même si j'ai les sauvegardes ..)

Voir ci-dessous les infos sur les disques et le RAID

En vous remerciant par avance, car je n'ai pas envie de fausse manip ...

Jean-François

Info sur le disque et RAID :

root@rescue:~# fdisk -l

Disk /dev/sda: 1.8 TiB, 2000398934016 bytes, 3907029168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 9AD49942-F56F-4862-81C2-37BF95C95264

Device Start End Sectors Size Type
/dev/sda1 4096 40962047 40957952 19.5G Linux RAID
/dev/sda2 40962048 42008575 1046528 511M Linux swap
/dev/sda3 42008576 1953517567 1911508992 911.5G Linux RAID

Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x000bbd39

Device Boot Start End Sectors Size Id Type
/dev/sdb1 * 4096 40962047 40957952 19.5G fd Linux raid autodetect
/dev/sdb2 40962048 42008575 1046528 511M 82 Linux swap / Solaris
/dev/sdb3 42008576 1953517567 1911508992 911.5G fd Linux raid autodetect

Disk /dev/md3: 911.5 GiB, 978692538368 bytes, 1911508864 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

root@rescue:~# mdadm --misc --detail /dev/md1

/dev/md1:
Version : 0.90
Raid Level : raid0
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent

State : inactive

UUID : 3b437917:fc4f8635:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.1740

Number Major Minor RaidDevice

- 8 17 - /dev/sdb1

root@rescue:~# mdadm --misc --detail /dev/md3

/dev/md3:
Version : 0.90
Creation Time : Tue Jan 21 10:22:39 2014
Raid Level : raid1
Array Size : 955754432 (911.48 GiB 978.69 GB)
Used Dev Size : 955754432 (911.48 GiB 978.69 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 3
Persistence : Superblock is persistent

Update Time : Tue Dec 29 18:15:56 2015
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

UUID : de4e0c04:227a9dce:a4d2adc2:26fd5302 (local to host rescue.ovh.net)
Events : 0.6489

Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 19 1 active sync /dev/sdb3

root@rescue:~# parted -l

Model: ATA HGST HUS724020AL (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number Start End Size File system Name Flags
1 2097kB 21.0GB 21.0GB Linux RAID raid
2 21.0GB 21.5GB 536MB Linux swap
3 21.5GB 1000GB 979GB Linux RAID raid


Model: ATA TOSHIBA DT01ACA1 (scsi)
Disk /dev/sdb: 1000GB
Sector size (logical/physical): 512B/4096B
Partition Table: msdos
Disk Flags:

Number Start End Size Type File system Flags
1 2097kB 21.0GB 21.0GB primary ext3 boot, raid
2 21.0GB 21.5GB 536MB primary linux-swap(v1)
3 21.5GB 1000GB 979GB primary ext3 raid


Model: Linux Software RAID Array (md)
Disk /dev/md3: 979GB
Sector size (logical/physical): 512B/4096B
Partition Table: loop
Disk Flags:

Number Start End Size File system Flags
1 0.00B 979GB 979GB ext3

root@rescue:~# cat /proc/mdstat

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] [faulty]
md1 : inactive sdb1[1](S)
20478912 blocks

md3 : active raid1 sdb3[1]
955754432 blocks [2/1] [_U]

unused devices: