RAID5 array aptitude install mdadm lvm2 (velg blank ved spørsmål om root ligger på et raid array) Opprett en primary partisjon av typen Linux raid autodetect (FD) på hver disk. Denne partisjonen må være eksakt like stor på alle disker. Sjekk ved å endre units til blocks for å verifisere størrelsen. cfdisk /dev/sda Lag deretter RAID5 arrayet mdadm --create /dev/md0 --chunk=64 --level=raid5 --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1 Vent med å gå videre til RAID-arrayet er helt oppe. Følg med status med cat /proc/mdstat og se på recovery prosenten. Du kan også sjekke statusen med mdadm --detail /dev/md0 og se på rebuild status Etter at arrayet er 100% klart kan du gå videre (kan fort ta hele natta!) Gjøre klar partisjon til LVM: cfdisk /dev/md0 Velg Linux LVM (8e) som filsystemtype Opprett deretter et Physical Volume (PV): pvcreate /dev/md0 Opprett en Volume Group (VG): vgcreate storage /dev/md0 Opprett et Logical Volume (LV) på Volume Groupen (kan opprette flere LV om man vil. Her bruker jeg hele VG'en) vgdisplay storage | grep "Total PE" lvcreate -l storage -n lv1 ("lvcreate -n lv1 -l 100%FREE storage" fungerer på nyere versjoner?) Opprett EXT3 filsystemet på LV'en: mkfs.ext3 -m1 /dev/storage/lv1 Mount disken (sørg for at målmappen eksisterer ("mkdir /storage/disk1")): mount /dev/storage/lv1 /storage/lv1 For å mounte disken ved hver boot så må du legge til infoen i /etc/fstab (tilpass etter behov): /dev/storage/lv1 /storage/lv1 ext3 defaults,noatime 0 2 For at monitoreringen skal fungere må du endre mailadresse i /etc/mdadm/mdadm.conf I tillegg må du legge til info om arrayet i config-fila for at --scan skal fungere med monitorering og mail-varsling mdadm --examine --scan >> /etc/mdadm/mdadm.conf Monitoreringen går forøvrig automatisk. Den kan sees f.eks ved å kjøre: ps aux | grep mdadm Legge til flere disker (grow): Partisjonér disken med cfdisk slik som vanlig (Linux raid autodetect) Legg deretter til den nye partisjonen til raid-arrayet. Denne disken blir da automatisk en hotspare. mdadm --add /dev/md1 /dev/sde1 Deretter kan raid-arrayet utvides: mdadm --grow --raid-devices=5 --backup-file=/root/grow_md1.bak /dev/md0 ...hvor --raid-devices er det nye antallet disker som skal være med i raidet, dvs ikke eventuelle hot-spares. Når prosessen er ferdig (overvåk via cat /proc/mdstat) må det fysiske LVM volumet ekstendes Sjekk eksisterende størrelse: pvdisplay /dev/md0 Resize: pvresize /dev/md0 Verifiser deretter at disken økte i størrelse ved å kjøre pvdisplay en gang til. Nå kan størrelsen på det logiske volumet økes: lvextend /dev/storage/lv1 /dev/md0 Det siste steget er å øke filsystemstørrelsen, men før dette gjøres bør det kjøres en fsck for sikkerhets skyld (NB: IKKE GJØR DETTE PÅ ET MOUNTED FILSYSTEM) umount /dev/storage/lv1 om det står device is busy, stopp tjenester som bruker disken, f.eks samba. Kommandoen fuser /dev/storage/lv1 kan brukes for å finne ut hva som hindrer unmount fsck /dev/storage/lv1 (eventuelt fsck -n /dev/storage/lv1 om unmounting ikke er mulig) resize2fs /dev/storage/lv1 Oppdater deretter antallet disker til det nye antallet i /etc/mdadm/mdadm.conf Troubleshooting: Sjekke raid-info i en partisjon: mdadm --examine /dev/sda1 Fjerne superblock (når to av diskene monga rekkefølgemessig og viste feil antall disker etter en resize operasjon) mdadm --misc --zero-superblock /dev/sda Dersom en disk feiler: Sett den først til faulty og deretter fjern den (/dev/sdf1 er faulty i dette eksempelet): mdadm /dev/md0 -f /dev/sdf1 mdadm /dev/md0 -r /dev/sdf1 Sett inn ny disk og partisjoner denne på vanlig måte: cfdisk /dev/sda velg type Linux raid autodetect (FD) Legg deretter til disken i arrayet: mdadm /dev/md0 -a /dev/sdf1 Følg rebuild status på vanlig måte: cat /proc/mdstat mdadm --detail /dev/md0