Ich möchte demnächst einen kleinen Fileserver aufsetzen (anonymous ftp und vllt. nfs r/o) dieser wird an Gigabit Ethernet hängen mit Intel NIC, AM3 CPU und 4GB RAM.
Mein Problem ist das ich aus einem anderen Setup weiss, dass ein Fileserver mit zu wenig Platten (max. 4 Stück) zwar den Link saturieren könnte, aber nur sehr wenige User bedienen, weil er sonst anfängt mehr zu seeken als zu arbeiten. Die Dateien werden alle mindestens 100MiByte groß sein eher >300MiByte. Ein ähnliches Setup, wenn auch mit kleinere CPU, war vor zwei Jahren, nur bis ca. 8-10 FTP-Datenverbindungen halbwegs nutzbar. Danach Sank der Durchsatz schnell von ca. 80 MiByte/s auf ca. 10 MiByte/s. gstat verriet das die Millisekunden pro Read Operation explodierten, die Platten zu >99% Busy waren.
Mein Ziel wäre es bis zu 50 User zu bedienen, aber entweder weniger Dateien auf einmal zu öffnen (würde das Problem halbwegs lösen) oder am besten die Dateien in größeren Stücken zu verarbeiten. Ich suche, weil meine finaziellen Mittel beschränkt sind, eine Softwarelösung um die Hardware effizent zu nutzen nicht den Hinweis mehr Hardware (z.B. in Form von einer Sun x4540 mit 42 Platten und 6 L2ARC SSDs) auf das Problem zu werfen.
Reicht es bei UFS die Block- und Fragmentgröße massiv zu vergrößern? Kann ZFS mit NCQ über den ATA->CAM Patch helfen?
Mein Problem ist das ich aus einem anderen Setup weiss, dass ein Fileserver mit zu wenig Platten (max. 4 Stück) zwar den Link saturieren könnte, aber nur sehr wenige User bedienen, weil er sonst anfängt mehr zu seeken als zu arbeiten. Die Dateien werden alle mindestens 100MiByte groß sein eher >300MiByte. Ein ähnliches Setup, wenn auch mit kleinere CPU, war vor zwei Jahren, nur bis ca. 8-10 FTP-Datenverbindungen halbwegs nutzbar. Danach Sank der Durchsatz schnell von ca. 80 MiByte/s auf ca. 10 MiByte/s. gstat verriet das die Millisekunden pro Read Operation explodierten, die Platten zu >99% Busy waren.
Mein Ziel wäre es bis zu 50 User zu bedienen, aber entweder weniger Dateien auf einmal zu öffnen (würde das Problem halbwegs lösen) oder am besten die Dateien in größeren Stücken zu verarbeiten. Ich suche, weil meine finaziellen Mittel beschränkt sind, eine Softwarelösung um die Hardware effizent zu nutzen nicht den Hinweis mehr Hardware (z.B. in Form von einer Sun x4540 mit 42 Platten und 6 L2ARC SSDs) auf das Problem zu werfen.
Reicht es bei UFS die Block- und Fragmentgröße massiv zu vergrößern? Kann ZFS mit NCQ über den ATA->CAM Patch helfen?