Beiträge von m.hajoo

    Hi subzero79,


    thank you for your answer.


    First,
    yes, smb works correctly from explorer; with windows10 clients and Linux Client (Mint).


    Use the terminal command line to mount nfs.

    what does it mean,
    on client or Server (OMV5) ?


    I added this Line in /etc/exports on OMV5 = Server

    Code
    /srv/dev-disk-by-label-DATA/NFS 192.168.254.0/24(rw,root_squash,no_subtree_check,sync,fsid=0)

    cause Ubuntu wiki says

    Code
    <pseudo-dateisystem> <rechneradresse>(<optionen>,fsid=0)

    then

    root@debian:/# service nfs-kernel-server reload


    Perhaps important to know,

    Media is a directory

    NFS is a link for Media


     showmount -e on OMV5

    Code
    root@debian:/# showmount -e
    Export list for debian.BROADWAY:
    /export                           (everyone)
    /srv/dev-disk-by-label-DATA/Media 192.168.254.0/24
    /export/Media                     192.168.254.0/24
    /export/NFS                       192.168.254.0/24
    root@debian:/#

    afterwards on Linux Client (LinuxMint)

    showmount -e 192.168.254.202 192.168.254.202=OMV5

    Code
    markus@lmde4:~$ showmount -e 192.168.254.202
    Export list for 192.168.254.202:
    /export                           (everyone)
    /srv/dev-disk-by-label-DATA/Media 192.168.254.0/24
    /export/Media                     192.168.254.0/24
    /export/NFS                       192.168.254.0/24
    markus@lmde4:~$

    on command line Linux Client (LinuxMint)

    sudo mount -t nfs -o nfsvers=4 192.168.254.202:/export/NFS /mnt/NFS-Test/


    vist the mount points on Client

    cd /mnt

    Code
    markus@lmde4:/mnt$ ls -l
    insgesamt 8
    drwxr-xr-x  2 root root  4096 Mär 31 14:01 Media
    drwxrwsrwx+ 8 root users 4096 Mär 31 18:21 NFS-Test
    markus@lmde4:/mnt$

    Access in explorer for the mountet export NFS works with the correct permissons.


    Same with the share Media.

    Works correctly.


    But,

    ... the entries in /etc/fstab don't work.

    Code
    # UNCONFIGURED FSTAB FOR BASE SYSTEM
    proc    /proc    proc    defaults    0    0
    # /dev/sda2
    UUID=03371ac1-b0f9-4cbd-9ecf-689eec54974d /  ext4 defaults 0 1
    # /dev/sda1
    UUID=cefbc7e7-d0fc-45d4-9d4e-8f97f1868498 none   swap sw 0 0
    
    192.168.254.202:/export/NFS /mnt/NFS-Test/ nfs -o nfsvers=4,rwoft,bg,intr,users 0 0
    192.168.254.202:/srv/dev-disk-by-label-DATA/NFS /mnt/NFS-Test/ nfs -o nfsvers=4,rwoft,bg,intr,users 0 0

    Share is not connected.

    manually on command line

    sudo mount -t nfs -o nfsvers=4 192.168.254.202:/export/NFS /mnt/NFS-Test/

    works


    On the other client, (Debian-9-turnkey-mediaserver_15.1-1)

    nothing works.

    neither commands in terminal, nor the command in webmin.

    Everytime the same Message:

    Code
    Fehler beim Speichern des Mounts : NFS-Fehler - mount.nfs4: access denied by server while mounting 192.168.254.202:/mnt/NFS 

    Don´t know what to do.

    I´ve changed the parameters, Shares, etc.

    Nothing works.


    Thank you for help

    Hello everybody,

    Corona makes it possible and I take care of my IT landscape again.


    I broke my ESXI with OMV4 and zfs.

    Instead, a proxmox-pve with zfs and various VMs is running here.

    So far so good.


    I installed Debian10.3 in a VM and installed OMV5.

    SMB / CIFS shares work.

    What I can't do is set up NFS shares for a MediaServer.


    Here's how I did it:

    - I set up NFS shares via OMV WebUI.

    - these are shown in '/ etc / exports'.

    Code
    .root@debian:/export# ls -l.
    total 8
    drwxrwsrwx+ 7 root users 4096 Mar 30 20:24 Media
    drwxrwsrwx+ 7 root users 4096 Mar 30 20:24 NFS

    - ein showmount -e localhost bringt

    Code
    Export list for localhost:
    /export/Media *
    /export       (everyone)
    /export/NFS   192.168.254.0/24



    On this client (for testing)

    - showmount -e 192.168.254.202 (192.168.254.202 = OMV5) brings:


    The releases are visible.


    A connection to the NFS shares is not possible:


    on the other client (here with Webmin)

    the NFS shares are also visible


    Code
    Failed to save mount: NFS error  - mount.nfs: access denied by server while mounting 192.168.254.202:/export/NFS 
    Failed to save mount: NFS error  - mount.nfs: access denied by server while mounting 192.168.254.202:/export/Media
    Failed to save mount: NFS error  - mount.nfs: access denied by server while mounting 192.168.254.202:/export
    Failed to save mount: NFS error  - mount.nfs: access denied by server while mounting 192.168.254.202:/NFS
    Failed to save mount: NFS error  - mount.nfs: access denied by server while mounting 192.168.254.202:/Media 

    however, a connection is not possible here either.



    on OMV


    /etc/export:

    have no idea why I cannot connect via NFS.


    It worked smoothly on my previous system with OMV3 and later OMV4.

    So I connected the ESXI to the Raidz2 from OMV,

    the plates were passed from ESXI through passtrough to OMV. ;)


    Would be nice if someone here could help me with my problem.


    PS . my native language is German,

    .... text above ... thank you google :)

    Hello everyone who´s interested in this problem, ....


    ... but it seems to me that the problem is solved.



    I didn´t restart the vitual omv-machine since november.
    Today I updated omv from version 2.1.19 to 2.1.23.
    Afterwards i restartet the system a few times, ...
    ... and /export/Images is not empty after reboot
    the nfs-share is working well.


    I can see it on the console of the vm on my ESXi.
    When the vitualmachine of omv is rebooting,
    the other vm´s
    stored on the mapped nfs-folder of ovm,
    are "coming back" .


    Sorry that I cannot localize the problem, but I´m glad that it will work now.


    Kind regards,
    and a happy new year
    to everyone here by openmediavault


    m.hajoo

    ich habe hier im Forum weiter gesucht und auch getestet,
    hat aber bisher leider keine Änderungen gebracht.



    Thread/10397-NFS-was-working-but-not-with-stone-burner


    Please post


     mount | grep export


     pool_01 on /export/Images type zfs (rw,relatime,xattr,noacl) 



    Zitat

     exportfs -v 


     /export/Images 192.168.254.201(rw,wdelay,root_squash)
     /export 192.168.254.201(ro,wdelay,root_squash,no_subtree_check,fsid=0) 



    Zitat

     cat /etc/debian_version 


     7.9 



    Das erscheint mir in meinem Fall unnötig,

    run omv-mkconf fstab then mount -a check again in your clients the export mount


    da  mount | grep export
     pool_01 on /export/Images type zfs (rw,relatime,xattr,noacl) 



    Zitat von /etc/fstab

    Hallo zusammen,


    dies sind meine ersten Schritte mit OMV.
    Soweit habe ich mein gewünschtes Szenario installiert und konfiguriert bekommen (OMV + ZFS).







    Mit der NFS-Freigabe die auf ein Verzeichnis im Pool des ZFS verweist, habe ich die gleichen Problem wie ... "7smugglers"





    Nach dem Erstellen der Freigabe "Images" kann ich mit meinem ESXi auf die Freigabe "/export/Images" zugreifen und diese als Datastore einrichten.



    Nach einem Reboot der VM OMV ist die Freigabe im Web-Gui vorhanden, auch der NFS-Dienst ist aktiviert und läuft.
    Die NFS-Freigabe allerdings ist für den ESXi nicht mehr erreichbar.
    Kontrolliert man im OMV das Exportverzeichnis mittels der Kommandzeile, ist das Verzeichnis /export/Images ebenfalls vorhanden, der Inhalt allerdings leer.


    Erst nach einem Löschen und erneutem Erstellen der Freigabe kann auf diese wieder zugegriffen werden.



    Mir stellt sich nun die Frage,
    habe ich etwas falsch/nicht konfiguriert,
    verstehe ich die Zusammenhänge nicht richtig,
    oder ist dies hier ein generelles Fehlverhalten von OMV.


    PS.
    im Syslog habe ich folgendes gefunden...


    ... falls hier wirklich beim reboot der export cache gelöscht wurde,
    wäre der Fehler ja bei OMV zu suchen.


    Hat jemand eine Idee wo man hier ansetzen kann?


    Hintergrund:
    Die NFS-Freigabe vom OMV ist für mich essentiell, da mein ESXi hier seine weiteren VMs hosten soll.



    Danke vorab für Eure Anregungen und Tipps.


    Gruß,
    m.hajoo