Mit deinem angepeilten Hardwareausbau kannst du ziemlich viel erschlagen

Persönlich habe ich Evolution noch nicht benutzt und weiß nicht, wie viel Ressourcen das zieht. Da hat es mich mehr in die KDE-Ecke verschlagen.
Grundsätzlich brauchst du für Multiuser-Zugriffe auf einer UNIX-Kiste nicht unendlich viel Power, schließlich ist UNIX aufgrund seiner Geschichte auf genau so etwas ausgelegt. Ich betreue selbst eine größere Thin-Client-Umgebung, in welcher der gesamte Desktop von einer FreeBSD-Maschine geholt wird. Der "Terminal-Server" sieht gegen deine Hardwarevorstellungen ziemlich alt aus, trotzdem gibt es keine Performance-Probleme. Das ist aber immer sehr genau vom jeweiligen Einsatzgebiet abhängig, keine zwei Installationen sind in dem Bereich wirklich vergleichbar.
Du willst also nur Evolution remote ausführen. Dank Shared Memory brauchst du dabei auf dem Server nicht gleich 4 - 8 GB RAM einzuplanen. Steigere dich einfach hoch, indem du testweise mehr und mehr Remotekisten anwirfst, erst 10, dann 20, dann 30 und du kannst ganz gut sehen, wie der Speicherverbrauch in dem Anwendungsfall skaliert.
Dann bleibt natürlich die Frage nach der CPU-Leistung. Es werden nicht alle 100 Anwender gleichzeitig mit der Anwendung arbeiten, das wäre untypisch. Du brauchst also nicht Leistung für 100 gleichzeitige Zugriffe. Da muß man ein bißchen das jeweilige Nutzungsverhalten abschätzen, aber dann eher mehr als weniger. Ich tendiere dann eher zu SMP-Systemen, die erstmal eine CPU bekommen und dann, bei Not am Mann, eben einfach noch eine zweite CPU dazustecken. Wenn die Kiste völlig unterdimensioniert ist, kannst du das natürlich dadurch auch nicht mehr retten, aber soweit verschätzt man sich in der Regel ja zum Glück (eigentlich) nicht.
Der CPU-Verbrauch ist natürlich davon abhängig, welche Übertragungsmethode du verwenden willst. Verschlüsselung und Komprimierung zieht natürlich extra Performance.
Natürlich führen (wie immer unter UNIX) viele Wege zum Ziel. Für eine einzelne, genau definierte Remote-Anwendung halte
ich persönlich SSH für die beste Lösung. Mein Tipp wäre also ein SSH-Tunnel, wahlweise mit oder ohne Komprimierung. Bei der Komprimierung sollte man überlegen, ob man sie wirklich braucht. Da muß man abschätzen, wie viele Benutzer gleichzeitig auf die Anwendung zugreifen werden und ob für diese Anzahl von Benutzern die Bandbreite ausreicht.
Als Beispiel könntest du also ein:
Code:
ssh -C 5 -X $RemoteServer /usr/local/bin/evolution
verwenden, um vom Client zum Server mit einer Kompressionsstufe von 5 zu connecten. Zum Komprimieren muß natürlich auch der Client ein bißchen Power aufbringen, aber im Zweifel kann man ja auch mal mit niedrigeren Kompressionsleveln testen.
Mann, habe ich wieder viel gebrabbelt... Aber das Thema ist irgendwie zu komplex, um es in drei Sätzen abzuhaken. Und meist kann man noch so viel schreiben, um einen ausführlichen Testversuch kommst du eigentlich nicht drumrum.