NAS Problem : Schneller Schreiben als Lesen

wetbo

Teil der Gemeinde
Registriert
18. März 2009
Beiträge
1.162
Hi,

ich habe ein sehr günstiges NAS von Logilink(NS0045). Komicherweise kann ich es mit gut 15MB/s beschreiben aber lediglich mit 3MB/s Lesen.

Mit der Schreibgeschwindigkeit kann ich durchaus leben, wenn es nun noch gleich schnell lesen würde wäre das für meine zwecke absolut ausreichend dimensioniert.

Ich habe schon verschiedene einstellungen versucht, leider ohne wirkliche besserung. Entweder ist die Hardware im NAS unterdimensioniert, was ich mir aber auch wiederum nicht vorstellen kann, sonst würde es ja nciht so "schnell" schreiben. Es muß also nach meiner meinung eine einstellungs Sache sein.

Im netz habe ich dazu noch eine Bewertung gefunden, wo ich im schreibwert sogar noch schneller bin, dort aber ein für mich absolut ausreichender lesewert beschrieben wird.
Die Geschwindigkeit in einem 1GBit-Netz ist mit 12,5MB / Sekunde beim Schreiben und knapp 25MB / Sekunde beim Lesen erfreulich hoch für ein derart günstiges NAS, da habe ich schon wesentlich schlechtere Ergebnisse erlebt.

Das Gerät bietet einen Zugriff via SMB, NFS und FTP; zusätzlich ist ein UPNP- und iTunes-Server, sowie ein Bittorrent-Client verfügbar.
http://www.testbericht.de/nas/logilink- ... #meinungen

Eine Gigabit Verkabelung ist gegeben, sogar über eine direktverbindung mittels crosslink wirds nicht schneller.

Hat da jemand ideen? :eek:
 
Ist das bei allen Dateigrößen gleich?
Bei kleinen Dateien haben eigentlich alle NAS etwas Probleme, bei größeren eher weniger.
Logilink ist auch kein altbekannter NAS Hersteller wie Qnap oder Synology, und ich würde da auch nicht all zuviel erwarten.
Mein alter Qnap TS-109 macht 6-15mb/s mit dem kleinen Krüppel Prozessor darin, was aber im Normalfall reicht.
Die neuen liegen beim vielfachen davon, ein Grund warum ich bald aufrüsten werde.
Mit mehreren Nutzern ist das leider viel zu langsam.
 
Hi,

ja es ist komicherweise egal ( beim lesen) ob ich eine 18gb mkv oder einen ordner mit sehr vielen kleinen dateien versuche.

Schreiben liegt eigentlich immer zwichen 10-15MB/s.

Lesen nie mehr als 3MB/s.

Was mich stutzigmacht das es eben so herum ist. Lesen schneller als schreiben ist ja normal. Nur bei mir ist es umgedreht, und auch noch mit deutlichsten geschwindigkeitsunterschieden.
:kopfkratz:
 
Probier mal den Zugriff über ein FTP-Programm (beispielsweise FileZilla).

Gruß
Konni
 
Oder binde den FTP-Server als Laufwerksbuchstaben ins System ein. -> Dann musst Du nicht mit FTP-Clients hantieren. ;)
http://stadt-bremerhaven.de/ftp-server- ... buchstaben

PS:
FTP hat als Protokoll den Vorteil, dass die Daten schneller übertragen werden können, als mit HTTP.
FTP hat den Nachteil, dass keine Fehlerkorrektur erfolgt. (das macht http so langsam)
 
Mach nochmal ein Crossover und versuch beide Seiten auf 1GBit Halbduplex zu setzen.
 
Ich kämpfe da im Moment auch noch!

Habe eine Iomega ix4-200d mit 4TB und kopiere seit gestern Abend um 9:00 Uhr rund 450GB auf die NAS :ugly:

Jetzt ist das ganze gerade bei 96% - entweder liegt es am Spender (der USB-Platte) oder der NAS...
 
sideshowbob schrieb:
PS:
FTP hat als Protokoll den Vorteil, dass die Daten schneller übertragen werden können, als mit HTTP.
FTP hat den Nachteil, dass keine Fehlerkorrektur erfolgt. (das macht http so langsam)

Fehlerkorrektur macht TCP/IP. FTP oder HTTP ist furzpiep. ;)
 
Weil es CPU-Intensiver ist - er muss ja binary-to-text encoding durchführen....
 
Der Overhead ist einfach größer.
Bei FTP überträgt das Protokoll je nach Dateityp Ascii oder Binär und zwar Raw. Also "as is".
HTTP manscht bei der ganzen Gelegenheit mit Base64 Codierung (bis zu 1/3 größer) rum bei den Uploads, packt Header, Mimetypes und lauter Müll dazu.
HTTP hat auch Vorteile bei kleineren Files, aber nicht so viel. Bei Textfiles isses auch schön, da häufig der Apache im Hintergrund die oftmals beim Übertragen völlig transparent zippt und Dein Client wieder entzippt, ohne, dass Du was davon merkst.
Bei großen Files führt aber FTP.
Zumal FTP ganz einfach ist von den Befehlen und daher die Server in der Regel auch sehr schlank und damit auch performant sind. Der Apache kann halt alles bis auf Kaffee kochen, was ihn sicher nicht schneller macht.
 
Komicherweise kann ich es mit gut 15MB/s beschreiben aber lediglich mit 3MB/s Lesen.
Stichwort: Caching!

Bei Linux Systemen mittlerweile Standard und durchaus gewollt, das beim Schreiben erst der Ram voll geknallt wird und dann auf Platte geschrieben wird.

Wobei 3MB schon etwas sehr wenig sind! Könnte also auch woanders drann liegen.
 
konga schrieb:
Wobei 3MB schon etwas sehr wenig sind! Könnte also auch woanders drann liegen.

Naja, muss nicht. Ich hab auch ne alte (4 Jahre) NAS. Damals war sowas in den Kinderschuhen für zuhause und erstmals unter 100 Euro für ne Platte, also musste das probiert werden. Die hatte auch 3,5MB/s. Somit ist sie bei mir recht schnell ausgeschieden als Speicher für den Rechner. Hat aber noch etwas seinen Dienst als FTP getan an der Fritzbox. Dafür hats gelangt.
 
Richtig, der Overhead ist bei HTTP einfach größer. FTP ist, wie der Name schon sagt, auf das Übertragen von Dateien ausgelegt und das funktioniert auch sehr gut.

Gerade bei den günstigen NAS-Geräten funktioniert nämlich SMB nicht immer so gut. Wenn du dann mit FTP deutlich bessere Übertragungsraten erreichst, weißt du wenigstens schonmal, wo du anpacken musst.

@Tom
Also unter Linux funktioniert es nicht so gut ein FTP-Verzeichnis als "Laufwerk" zu mounten. Ich habe das erst kürzlich ausprobiert (curlftpfs) und das hat nicht wirklich gut funktioniert und zudem eine sehr hohe CPU-Last erzeugt.

Unter Windows hat man aus Komfort-technischen Gründen leider nicht viele Alternativen zu SMB. Unter Linux lässt sich dagegen ja im Prinzip alles irgendwie mounten.

Mach einfach mal den Test und dann weißt du schon mehr.

Gruß
Konni
 
Konni schrieb:
Also unter Linux funktioniert es nicht so gut ein FTP-Verzeichnis als "Laufwerk" zu mounten. Ich habe das erst kürzlich ausprobiert (curlftpfs) und das hat nicht wirklich gut funktioniert und zudem eine sehr hohe CPU-Last erzeugt.

ich nutze curlftps wöchentlich für Backups von einem FTP...CPU-Last meines Atom-Netbooks geht dabei nicht über 1% :kopfkratz:
Gerade hab ich es auch extra nochmal im Netzwerk @Home getestet. Hier ging die CPU-Last auch nur auf 4%.
Ich würd mal behaupten irgendwas is da bei dir faul.

Edit:
Korrektur, habe gerade meine Wlan-Verbindung von b-standard auf g-standard umgestellt um die geschwindigkeit zu erhöhen, dabei ist die CPU-Last angestiegen und schwankte zwischen 16 und 28%. Übertragungsrate lag dann bei 3MB/s. Wenn man das ganze mit gbit Netzwerk macht könnte ich mir vorstellen, das es dann wirklich unangenehm wird. :)
Selbiges gerade nochmal mit einer Samba-Freigabe getestet und die CPU_last lag bei gleicher Geschwindigkeit bei 28-40%.
 
@voodoo

NFS ist in der Regel noch langsamer, wie SMB, was wiederum langsamer ist wie FTP. Probieren kann man das klar, aber normalerweise ist es keine Lösung.
Unter Windows (grade unter Windows Vista/7/2008/2008R2) eigentlich nach Möglichkeit SMB nehmen. Von der Last und Geschwindigkeit einfach das beste.
Bei Linux sieht das in Anbetracht auf die Hardware wieder anders aus. Samba ist da nicht sooo schnell.
 
Heho,

Zur info ich nutze mit allen rechnern die mit dem NAS arbeiten Windows 7.

Ob SMB oder FTP ist relativ egal, ftp ist im schreiben sogar langsamer bei einer 700mb datei.

Lesen kommt auch aus dem FTP lediglich 3MB/s raus...



Was mich ärgert, wenn lesen und schreiben so langsam wäre, wüsste ich es erfüllt meine Anforderungen nicht und muß getauscht werden... Aber schreiben 12-15. Lesen nie über 3...

Ich habe noch die festplatte im verdacht, obwohl diese vorher in einem usb2.0 gehäuse tadellos bis zu 30MB/s gebracht hat.
 
bimbel schrieb:
Konni schrieb:
Also unter Linux funktioniert es nicht so gut ein FTP-Verzeichnis als "Laufwerk" zu mounten. Ich habe das erst kürzlich ausprobiert (curlftpfs) und das hat nicht wirklich gut funktioniert und zudem eine sehr hohe CPU-Last erzeugt.

ich nutze curlftps wöchentlich für Backups von einem FTP...CPU-Last meines Atom-Netbooks geht dabei nicht über 1% :kopfkratz:
Gerade hab ich es auch extra nochmal im Netzwerk @Home getestet. Hier ging die CPU-Last auch nur auf 4%.
Ich würd mal behaupten irgendwas is da bei dir faul.

Edit:
Korrektur, habe gerade meine Wlan-Verbindung von b-standard auf g-standard umgestellt um die geschwindigkeit zu erhöhen, dabei ist die CPU-Last angestiegen und schwankte zwischen 16 und 28%. Übertragungsrate lag dann bei 3MB/s. Wenn man das ganze mit gbit Netzwerk macht könnte ich mir vorstellen, das es dann wirklich unangenehm wird. :)
Selbiges gerade nochmal mit einer Samba-Freigabe getestet und die CPU_last lag bei gleicher Geschwindigkeit bei 28-40%.
Hi Michael,
ich habe erst vorgestern hier auf diesem Server curlftpfs ausprobiert und zwar mit einem FTP-Backupserver, der mit 100 MBit angebunden ist. Die Last des Servers war damit gleich auf Vollanschlag und die Übertragung war tierisch lahm. Man muss aber dazu sagen, dass ich rsync benutzt habe und das wohl für curlftpfs mit den vielen Verbindungen (viele kleine Dateien) wohl etwas viel war.
Danach habe ich curlftpfs wieder runtergeworfen und das Backup wird nun einfach via Shell-Skript und dem FTP-CLI-Tool ncftp gemacht. Das geht ab wie Luzi ...

Gruß
Konni
 
Zurück
Oben Unten