Snapraid Aufs-Pooling - Es wird nur eine HDD "gefüllt"

  • Hallo an alle.


    Ich möchte Snapraid mit Aufs verwenden.
    Bei OMV 1.17 gibt es ja statt dem Aufsplugin nur noch das unionfilesystem-plugIn.
    Daher kann ich die Installationsanleitungen nicht 1:1 abarbeiten.(http://omv-extras.org/simple/i…d=guide-aufs-and-snapraid)
    Was ich bis jetzt getan habe:

    • 3x 6TB HDD xfs-formatiert
    • snapraid-plugin und unionfile-plugin installiert
    • in snapraid 1Paritätsplatte angelegt und 2 Daten/Contentplatten angelegt
    • auf den Datenplatten je einen freigegebenen Ordner angelegt
    • auf einer der beiden einen Ordner poolshare angelegt
    • im unionfile-plugin (das ist doch "Aufs/Mhddfs" ?) einen pool mit den 2 Datenplatten angelegt
      (In der Beschreibung steht: set bind share as poolshare. und: check the mfs-checkbox... wo mache ich das?)
    • Benutzer angelegt.


    Soweit klappt das Kopieren der Daten; aber sobald die 1. HDD voll ist kommt beim Kopieren der Dateien (über Win7) von den "alten" HDD's in den freigegebenen poolshareordner die Meldung, dass die HDD voll sei.
    Wo habe ich den Fehler in der Konfiguration gemacht?


    Im Einstellungsreiter von snapraid gibt's den Punkt "Laufwerkspool einrichten" (habe ich nicht aktiviert)
    Ist das evtl. der Fehler?


    Ach ja: Es ist ein frisch aufgesetztes OMV.

  • Poste mal screenshots von, Dateisystem, Snapraid config, AuFS(unionfilesystem plugin) config. Dann können wir nochmal genauer schauen.


    @ryecoaaron: aufs only filling one drive, again.


    Gruß
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

    • Offizieller Beitrag

    Post the output of: find /media/ -name .wh..wh*

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Leider weiss ich nicht wo ich/wie ich auf die kommandozeile komme.


    Entweder SSH im Webinterface aktivieren und dann mit PuTTY darauf zugreifen oder direkt am NAS lokal anmelden. ;)


    Gruß
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

  • hab probleme mit dem login direkt am nas.
    Ebenso über putty.


    meine logindaten nimmt er nicht.
    die standardlogindaten (die am nas direkt angezeigt werden) nimmt er auch nicht.


    Ich denk, irgendwas mach ich falsch.

  • die standardlogindaten (die am nas direkt angezeigt werden) nimmt er auch nicht.


    ??? Welche standard logindaten?


    Der Nutzer ist root das passwort hast du selbst bei der Installation gesetzt.


    Gruß
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

  • hab's hinbekommen:


    find /media/ -name .wh..wh*


    /media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.aufs
    /media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.plnk
    /media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.orph
    /media/pool/.wh..wh.aufs
    /media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.aufs
    /media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.plnk
    /media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.orph

    • Offizieller Beitrag

    rm -rfv /media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.*
    rm -rfv /media/pool/.wh..wh.aufs
    rm -rfv /media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.*


    Then reboot.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Hat nicht geklappt.
    Habe zum Test eine Datei kopiert.Leider kommt wieder die Meldung, dass zu wenig Speicher verfügbar ist.
    omv speichert also noch immer auf nur 1 Hdd


    Das waren die Ausgaben:


    login as: root
    root@10.0.0.10's password:
    Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.65-1+deb7u2 x86_64


    The programs included with the Debian GNU/Linux system are free software;
    the exact distribution terms for each program are described in the
    individual files in /usr/share/doc/*/copyright.


    Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
    permitted by applicable law.
    Last login: Tue Apr 14 18:46:50 2015 from computer.home
    root@NAS:~# rm -rfv /media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.*
    „/media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh.aufs“ entfernt
    Verzeichnis wurde entfernt: „/media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh .orph“
    Verzeichnis wurde entfernt: „/media/94682e2d-3d7a-487b-894a-91be1acf981b/.wh..wh .plnk“
    root@NAS:~# rm -rfv /media/pool/.wh..wh.aufs
    „/media/pool/.wh..wh.aufs“ entfernt
    root@NAS:~# rm -rfv /media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.*
    „/media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh.aufs“ entfernt
    Verzeichnis wurde entfernt: „/media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh .orph“
    Verzeichnis wurde entfernt: „/media/a63eb301-92ca-40d6-b567-13f30495205b/.wh..wh .plnk“
    root@NAS:~#


    • Offizieller Beitrag

    Did you reboot after removing the files/dirs? You are writing to the pool, correct? aufs has a lot of issues when writing to an individual drive in the pool.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

    • Offizieller Beitrag

    Not sure what to tell you. I have never been able to reproduce this. When people have had the problem, removing the wh files has fixed it. The only thing I have noticed is most people having problems are writing to individual drives in the pool instead of just the pool. If you can deal with a bit slower speed, use mhddfs and set the threshold to 100%. It will act just like aufs then.

    omv 7.0.5-1 sandworm | 64 bit | 6.8 proxmox kernel

    plugins :: omvextrasorg 7.0 | kvm 7.0.13 | compose 7.1.4 | k8s 7.1.0-3 | cputemp 7.0.1 | mergerfs 7.0.4


    omv-extras.org plugins source code and issue tracker - github - changelogs


    Please try ctrl-shift-R and read this before posting a question.

    Please put your OMV system details in your signature.
    Please don't PM for support... Too many PMs!

  • Maybe you need to delete (remove) some files from the pool again so the filled drive gets some free space again? Maybe the reason AuFS doesn't work is because the drive is full?


    Greetings
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

  • Habe es auch mit mhddfs probiert.
    Ich glaube es liegt daran, dass ich kein bindshare eingeben kann.
    Es gibt weder in aufs noch in mhddfs eine Option zum Aktivieren.
    Somit wird zwar ein poo erstellt aber kein "gemeinsamer" Ordner
    In Snapraid/Einstellungen gibt es die Option "Laufwerkspool aktivieren".
    Aktiviere ich diese und vergebe einen Namen scheint dieser in den Netzwerkfreigaben in Win7 auf.
    Aber ich habe keine Berechtigung zum Schreiben.
    Ich denke, dass wird der Ordner sein, den ich mit Daten füllen muss.

  • Bindshare gabs nur beim alten aufs plugin. Das ufs plugin nutzt diese methode nicht mehr.


    Gruss
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

  • So, eine Frage noch.
    Wenn ich es dann nicht hinbekomme, lass ich's bleiben.
    Hab's mit mhddfs probiert.
    Ich habe einen HDD-pool angelegt.
    In "Dateisystem" scheint plötzlich ein neuer Datenträger mit der gesamten GB-Kapazität der beiden HDD's im pool auf.
    Und ist auch schon zur Hälfte belegt, obwohl ich noch nichts hinkopiert habe/konnte.
    (Die Dateien, die ich im vorigen Durchgang in den Ordner des HowTo kopiert habe sind noch auf der hdd)
    In diesem neuen Datenträger habe ich einen freigegebenen Ordner erstellt.
    Nur scheint der in Win7 nicht auf.
    Ich glaub' in diesen Ordner muss man die Dateien kopieren, oder?
    Ich wollte snapraid verwenden, da immer nur die hdd läuft, auf die gerade zugegriffen wird.
    Wenn's aber so tückisch ist, werd' ich halt einen normalen raid nehmen.
    Habt ihr noch einen letzten Lösungsvorschlag?

  • Hast du Teamviewer installiert? Dann schick mir mal später die Daten, dann würd ich mal connecten und es mir direkt anschauen ;)


    Gruß
    David

    "Well... lately this forum has become support for everything except omv" [...] "And is like someone is banning Google from their browsers"


    Only two things are infinite, the universe and human stupidity, and I'm not sure about the former.

    Upload Logfile via WebGUI/CLI
    #openmediavault on freenode IRC | German & English | GMT+1
    Absolutely no Support via PM!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!