Beiträge von barney5

    Code
    root@mfserver:~# cat /proc/mdstat
    Personalities : [raid1]
    md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
          1465007488 blocks super 1.2 [2/2] [UU]
          bitmap: 0/11 pages [0KB], 65536KB chunk
    
    
    unused devices: <none>

    wieder mal auto-read-only.
    wenn ich mdadm --readwrite /dev/md127 ausführe:



    Code
    root@mfserver:~# cat /proc/mdstat
    Personalities : [raid1]
    md127 : active raid1 sdb[0] sdc[1]
          1465007488 blocks super 1.2 [2/2] [UU]
          bitmap: 0/11 pages [0KB], 65536KB chunk
    
    
    unused devices: <none>

    Der Befehl mount -a hift nicht und bring auch keine Ausgabe.
    Ich vermute mal weil in fstab nichts vom RAID drinsteht:

    QuellcodeQuellcode bearbeiten



    [*]root@mfserver:~# cat /proc/mdstat
    [*]Personalities : [raid1]
    [*]md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
    [*] 1465007488 blocks super 1.2 [2/2] [UU]
    [*] bitmap: 0/11 pages [0KB], 65536KB chunk
    [*]
    [*]unused devices: <none>
    [/list]



    Code
    root@mfserver:~# blkid
    /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
    /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
    /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
    /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"


    Code
    root@mfserver:~# fdisk -l | grep "Disk "
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
    Disk identifier: 0x62432690
    Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
    Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
    Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors


    Code
    root@mfserver:~# mdadm --detail --scan --verbose
    ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
       devices=/dev/sdb,/dev/sdc
    Code
    root@mfserver:~# cat /proc/mdstat
    Personalities : [raid1]
    md127 : active (auto-read-only) raid1 sdb[0] sdc[1]
    1465007488 blocks super 1.2 [2/2] [UU]
    bitmap: 0/11 pages [0KB], 65536KB chunk
    unused devices: <none>




    Code
    root@mfserver:~# blkid
    /dev/sda1: UUID="c9d1d796-907c-48db-b4c0-8a4e578a134d" TYPE="ext4" PARTUUID="62432690-01"
    /dev/sda5: UUID="3e2f1c99-f2da-4cff-8616-f07a64c071ad" TYPE="swap" PARTUUID="62432690-05"
    /dev/sdc: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="7950f9b6-9d6a-8f51-1309-f5fe8d950f56" LABEL="mfserver:127" TYPE="linux_raid_member"
    /dev/sdb: UUID="18d28dc7-99ff-d479-73d3-42bc91ce70ad" UUID_SUB="007d165c-460d-af66-2493-e29380e85798" LABEL="mfserver:127" TYPE="linux_raid_member"


    Code
    root@mfserver:~# fdisk -l | grep "Disk "
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    The primary GPT table is corrupt, but the backup appears OK, so that will be used.
    Disk /dev/sda: 28,7 GiB, 30748950016 bytes, 60056543 sectors
    Disk identifier: 0x62432690
    Disk /dev/sdc: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 4C45ADA1-9AD2-4E01-8F2F-F7300F3588BE
    Disk /dev/sdb: 1,4 TiB, 1500301910016 bytes, 2930277168 sectors
    Disk identifier: 1F1259D2-6175-4C09-A76E-B8FEC3DABC2D
    Disk /dev/md127: 1,4 TiB, 1500167667712 bytes, 2930014976 sectors



    Code
    root@mfserver:~# mdadm --detail --scan --verbose
    ARRAY /dev/md/127 level=raid1 num-devices=2 metadata=1.2 name=mfserver:127 UUID=18d28dc7:99ffd479:73d342bc:91ce70ad
       devices=/dev/sdb,/dev/sdc

    So, ich habe jetzt OMV3 installiert:
    Ich kann das RAID nach wie vor nicht einbinden. Zumindest nicht über das WebGUI.


    die Ausgabe von wipefs unterscheidet sich aber nun:


    Code
    root@mfserver:~# wipefs -n /dev/sdb
    offset               type
    ----------------------------------------------------------------
    0x15d50f65e00        gpt   [partition table]
    
    
    0x1000               linux_raid_member   [raid]
                         LABEL: mfserver:127
                         UUID:  18d28dc7-99ff-d479-73d3-42bc91ce70ad

    Kein Vermerk von zfs mehr.

    ja da war oder ist ein ZFS-Dateisystem drauf.
    wipefs -n /dev/sdb:


    wipefs -n /dev/sdc: