DM 800 Netzwerkperformance

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • DM 800 Netzwerkperformance

      Hi,

      habe ein Problem mitmeinen 2 DM800 ( Newnigma 2.8 ) und HD-Netzwerkaufnahmen, das wohl auf eine schlechte Netzwerkperformance per NFS/CIFS der DM800 oder dem Image (Vermutung) zurückzuführen ist:

      ftp Transferrate: ca. 6.000 kB/sek > o.k.
      nfs Transferrate: ca. 4.300 kB/sek > n.o.k.
      > geänderte NFS-Optionen werden scheinbar nicht aktiviert (rzize/wsize)!
      cifs Transferrate: ca. 3.000 kB/sek > n.o.k.

      Die Aufnahmen weisen Klötzchenbildung und Aussetzer auf.
      HD aufzeichnen und gleichzeitig vom Server schauen geht so natürlich bei mir nicht!

      Der Server und das Netzwerk sind o.k. (Synology DS 509+ und Gigabit Netzwerk)
      Schreibgeschwindigkeit vom PC auf Server > 40.000 kB/sek (1 GB Datei) und Intel NAS-Test sind einwandfrei.

      Welche Übertragungsraten haben Eure 800er Boxen? Habt Ihr das Problem auch?

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von cucina68 ()

    • RE: DM 800 Netzwerkperformance



      dann sagmal wie du bei nfs auf die daten kommst ?
      » time to say goodbye «

      Konfuzius sagt:
      Erst wenn eine Mücke auf deinen Hoden landet wirst du lernen Probleme ohne Gewalt zu lösen.
    • RE: DM 800 Netzwerkperformance

      Die DS 509+ hat ab der Version 2.2 einen Netzwerkmonitor aus dem der Wert grob zu entnehmen ist. Ansonsten berechne ich die Transferrate über die benötigte Kopierzeit einer 1 GB-Datei.

      Habe die Einträge oben zu nfs nochmal korrigiert, da ich einen Kopierbefehl direkt per Telnet gestartet habe und darüber höhere NFS-Werte erreicht habe.

      Welche Transferaten hast Du?

      Habe nochmal ein Test mit verschiedenen rzise/wzise Einträgen gemacht: keine Unterschiede - werden wohl nicht berücksichtigt.

      Aber die Kopie-Transferrate per Telnet schwankt stark in Ahhängigkeit vom aktiven Sender (SD oder HD).

      SD: ~ 4.300 kB
      HD: ~ 2.900 kB

      Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von cucina68 ()

    • RE: DM 800 Netzwerkperformance

      Original von arianebox
      also ich habe nfs-werte von zumindest 9000 bei nfs-mount.


      9000Kbyte/s - ich glaube Dir mehr als vielen anderen; 73Mbit/s halte ich bei der 800er allerdings für äußerst unwahrscheinlich 8). Die 8000er dürfte das vielleicht hinkriegen....

      @cucina
      4300 (respektive 35Mbits) sind auch m.E. zu wenig
      6000 (~49Mbits) sollten es schon sein.
    • RE: DM 800 Netzwerkperformance

      @arianebox

      Supi, Danke

      werde ich damit mal testen...

      Aber m.E. werden die geänderten rsize/wsize Werte nicht berücksichtigt (in der Automounts.xml stehen sie drin aber nicht in den Optionen wenn ich die Netzwerkfreigaben über Newnigma2 (Fernbedienung) aufrufe). Dort steht nur rw,nolock drin.

      Auszug aus der automount.xml:
      <nfs>
      <mount>
      <active>True</active>
      <hdd_replacement>False</hdd_replacement>
      <ip>192.168.198.100</ip>
      <sharename>Filme</sharename>
      <sharedir>/volume1/movie</sharedir>
      <options>rw,nolock,rsize=16384,wsize=16384</options>
      </mount>
      </nfs>

      Geschwindigkeit bleibt in allen Varianten zu 100% gleich.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von cucina68 ()

    • RE: DM 800 Netzwerkperformance

      ...vergess die kastrierte Anzeige auf der Oberfläche...

      telnet auf die Dream und ein schlichtes 'mount' zeigt Dir wie tatsächlich gemountet wird.

      *edit*

      Geschwindigkeit bleibt in allen Varianten zu 100% gleich


      ..aber sicher erst ab 8k aufwärts ;-). Da tut sich in der Regel nicht mehr so furchtbar viel...interessant wäre bei dem von @arianebox geposteten Test Deine Ausgaben auf der Console - da sieht man auch schön wie tatsächlich gemountet wird..

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von NASeweiss ()

    • RE: DM 800 Netzwerkperformance

      Original von NASeweiss
      9000Kbyte/s - ich glaube Dir mehr als vielen anderen; 73Mbit/s halte ich bei der 800er allerdings für äußerst unwahrscheinlich


      ich weiß, ich sollte längst nochmal nachmessen, wie die werte mit meinem neuen NAS sind, aber bisher waren die wochenenden einfach zu schön und die restliche arbeit zuviel.
      aber der nächste winter kommt bestimmt.

      btw: schön, daß du hier einsteigst
      :winke:
    • RE: DM 800 Netzwerkperformance

      ist das normal?

      siehe Anhang Die werte werden in tausender Schritten ermittelt. Der Mount befehl steht jedoch immer auf 4096
      Bilder
      • test.jpg

        26,8 kB, 650×251, 1.808 mal angesehen
    • RE: DM 800 Netzwerkperformance

      ..ruf das Script mit dem Parameter 'short' (ich nehme doch mal an, dass unser Admin das Script verlinkt hat, das ich meine) auf - sonst sitzt du morgen noch davor :D

      Die meisten Clients können nur in den Standardschritten (4, 8, 16, 32...) mounten; es werden immer die nächst kleineren Werte bei den 1k-Schritten tatsächlich gemountet.

      Sobald der Server nicht mehr mitspielt (oft ab 8k der Fall) wird nur noch der vom Server max. zulässige Wert gemountet. Bei Angabe von 32k also z.B. 8k.
    • RE: DM 800 Netzwerkperformance

      Vielen Dank,

      habe das Ganze mit dem Parameter short neu gestartet.

      ?(

      Bei dem 16384er UDP Test hängt sich der Task auf! Werte aus dem Telnet-Fenster:

      4096 UDP W: 11379 R: 4993
      8192 UDP W: 13443 R: 4064
      16384 UDP W: 14563 R: hängt

      Telnet Befehl "mount":
      Es ist so, wie ich vermutet habe: Der NFS Mount findet über Newnigma ausschliesslich mit rw8192 statt. Die Einträge in der automount.xml werden nicht berücksichtigt.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von cucina68 ()

    • RE: DM 800 Netzwerkperformance

      ...poste doch einfach die komplette Ausgabe der Console...sieht für mich im Augenblick so aus, als käme Dein Netz nicht mit udp zurecht......habe schon von einigen 800er Usern gehört, bei denen NFS ausschließlich mit tcp vernünftig läuft.

      Sicher das Dein Server mehr als 8k kann?

      Ich glaube kaum, dass das newnigma-Team an dieser zentralen Funktion rumspielt (das würde gegen die eigene Philosophie verstoßen). Ich verkneife mir hier den Hinweis auf den Verzicht auf eine wirklich nützliche Funktion, die dieser Philosophie zum Opfer gefallen ist.....

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von NASeweiss ()

    • RE: DM 800 Netzwerkperformance

      @Naseweis

      ...poste doch einfach die komplette Ausgabe der Console...
      > kommt gleich... Der Test läuft gerade. Ich sende mal meine automount.xml und die Ausgabe des mount Befehls. ok?

      Sicher das Dein Server mehr als 8k kann?
      > ja, ohne Probs. Wenn ich den Test auf meiner zweiten 800 zusätzlich starte (parallel), leistet er ohne Probleme die doppelte Datenrate.

      Eine Sache konnte ich schon optimieren. Die niendrige Datenrate beim Lesen.
      Habe auf dem GBit-Switch Flow-Control und Jumbo Frame aktiviert.

      Habe jetzt schon mal diese Werte:
      W R
      4096 11915 12483
      8192 14169 6990
      16384 14979 4332
    • RE: DM 800 Netzwerkperformance

      Original von cucina68
      Ich sende mal meine automount.xml und die Ausgabe des mount Befehls. ok?
      unnötig - die Ausgabe des Tests auf der Console reicht völlig.

      > ja, ohne Probs. Wenn ich den Test auf meiner zweiten 800 zusätzlich starte (parallel), leistet er ohne Probleme die doppelte Datenrate.
      Das hat damit nicht das Geringste zu tun :D. Meine Server bedienen problemlos vier Clienten ohne Probleme :D

      Wenn das weitere Tabellenwerte aus dem Script sind....ist Dein Problem größer als ich dachte 8); übertrieben ausgedrückt sind die Werte näher an der DBox als an für die 800er brauchbaren.....

      Ob ich heute nochmal reinschauen bzw. posten kann ist eher fraglich...aber es gibt hier sicher einige Ahnungsträger, die hier weitermachen können.
    • RE: DM 800 Netzwerkperformance

      so, hier ist die aktuelle ntest.txt nach Aktivierung von FlowControl und Jumbo Frame im Switch (Jumbo Frame auf dem Server sind noch deaktiviert)

      udp/write udp/read tcp/write tcp/read
      4096 11915 12787 9892 11397
      8192 13797 6553 11397 14563
      16384 14979 4262 12192 16912
      32768 15887 1485 13107 18078

      Ich sende mal meine automount.xml und die Ausgabe des mount Befehls. ok?

      unnötig - die Ausgabe des Tests auf der Console reicht völlig.


      ? Aber die Optionen der automount.xml werden doch nicht aktiviert!
      Kannste das mal bitte bei Dir testen?
    • ..was in der automount.xml steht ist dem Test so egal wie wenn in China ein Sach Reis platzt :]. Den Test macht man u.a. um rauszubekommen, welche Werte denn für den Alltagsbetrieb die besten sind.

      1. Deine Werte sind die übelsten die ich bisher auf einer Dream gesehen habe (wie schon gesagt, ist das fast DBox-Niveau
      2. Jumbo-Frames haben nur etwas in einem Gbit-Netzwerk zu suchen, in dem ALLE Clients diese auch beherrschen - die Dream gehört definitiv nicht dazu (alles andere als 1500 ist also Quark)
      3. es fehlt immer noch die Ausgabe von der Console um zu sehen wie tatsächlich gemountet wird....
      4. Kannst Du ein defektes Netzwerkkabel ausschließen?
      5. Ist da irgendwo DLAN oder WLAN im Spiel?

      Ich habe hier gerade aus meinen alten Tests zur 800er mal ein Ergebnis ausgegraben (ist vom eigentlichen Original aus dem Tuxboxforum) nur mal so als Anhaltspunkt:

      Results for write throughput:
      59.652 Mbit/s with udp,async,wsize=32768
      48.806 Mbit/s with tcp,async,wsize=32768
      44.739 Mbit/s with udp,async,wsize=8192
      44.739 Mbit/s with tcp,async,wsize=16384
      38.347 Mbit/s with tcp,async,wsize=8192
      35.791 Mbit/s with udp,async,wsize=4096
      24.403 Mbit/s with tcp,async,wsize=4096
      Failure with udp,async,wsize=16384

      Results for read throughput:
      53.687 Mbit/s with udp,async,rsize=32768
      53.687 Mbit/s with udp,async,rsize=16384
      48.806 Mbit/s with udp,async,rsize=8192
      48.806 Mbit/s with tcp,async,rsize=32768
      44.739 Mbit/s with tcp,async,rsize=8192
      41.297 Mbit/s with udp,async,rsize=4096
      35.791 Mbit/s with tcp,async,rsize=4096
      Failure with tcp,async,rsize=16384


      selbst unter übelsten Umständen sollten also mindestens 25Mbit/s von und zur Dream rauschen....
    • RE: DM 800 Netzwerkperformance

      Hi

      Habe es bei meiner DM800 auch mal getestet.
      In der /etc/enigma2/automounts.xml die Zeile:
      <options>rw,udp,rsize=16384,wsize=16384,nolock,async</options>
      geändert.
      Rebootet.
      Nach der Eingabe von mount immer noch rsize=8192 und wsize=8192.

      Geht bei mir also auch nicht.
      schade.
      :(
      Wo können die Parameter den eingestellt werden?
    • @NASEweis

      wir haben ja mittlerweile 2 Themen:

      1. mein Perfomanceproblem
      2. die von newnigma ignorierten Optionen in der automount.xml


      Das die automount.xml und der Befehl mount nichts mit dem Testprogrammzu tun hat ist schon klar 8)
      Ich wollte damit nur auf Punkt 2. hinweisen
    • so. ich hab zum vergleich auch mal netztest.sh in richtung meines ubuntu-servers geschickt, here are the results of the austrian jury:

      /usr/script/netztest.sh 192.168.101.15 /mnt/daten/video/movie /media/hdd short

      Quellcode

      1. udp/write udp/read tcp/write tcp/read
      2. 4096 0 0 43690 262144
      3. 8192 0 0 47662 524288
      4. 16384 0 0 47662 524288
      5. 32768 0 0 47662 524288


      ich weiß zwar nicht, warum udp schiefgeht
      umount: /media/hdd: Invalid argument
      >>>ERROR<<< mount with 192.168.101.15 udp /media/hdd /mnt/daten/video/movie 4096|4096 failed


      aber die tcp werte bei write schaun schon mal gut aus (read ist schrott, da muss ich noch nachbessern)

      oder NASeweiss?
    • @Joe

      Du gehörst damit auch zu denen, die udp nicht nutzen können - ein bei der 800er weit verbreitetes "Problem". Die TCP-Werte sind in Ordnung (auch bei Dir gibts über 8k keine Verbesserung mehr); auch die Fantasie-Werte beim Lesen sind offensichtlich bei der 800er und 8000er normal. Die Testdateigröße "scheint" für diese Boxen zu klein gewählt (hier wird wohl aus dem Speicher gelesen).
      Bitte doch @Nordi das Script auf 256MB besser 512MB anzupassen....dann sollte das Problem behoben sein.

      @cucina
      Wir haben sicher keine zwei Probleme 8). Bei Deinem echten Problem helfe ich im Rahmen meiner beschränkten Möglichkeiten gerne weiter. Obwohl ich außer einem Hardware-Problem nicht wirklich eine Vermutung habe woran es liegen könnte.

      Zum Netzwerkbrowser/zur automount.xml werde ich mich weder äußern noch irgendwelche Lösungsansätze/Tipps oder ähnliches geben.