Tag Archives: Homeserver

Mehr Platz, bitte!

Die kränkelnde Hitachi-Platte läuft noch immer, aber der Platz auf meinem Fileserver wurde so langsam knapp. Prinzipiell bieten sich in so einer Situation zwei Möglichkeiten: Zusätzliche Platten einbauen oder die vorhanden Platten durch größere ersetzen.

Ein Solaris ZFS Pool läßt sich nicht so ohne weiteres um zusätzliche Platten erweitern, ein Reshaping (analog zu mdadm unter Linux) wird nicht unterstützt. Mein ursprünglicher Plan war daher darauf ausgerichtet, regelmäßig größere Platten einzubauen. Auch aus Energieeffizientgründen wäre dies zu bevorzugen, eine geringere Anzahl an Laufwerken braucht weniger Strom. Dagegen spricht, dass Platten jenseits der 2 TB immer noch relativ teuer sind (u.a. den Unwettern in Thailand von letztem Jahr geschuldet). Und ein kleines, entscheidendes Detail hatte ich übersehen: 512-Byte- vs. 4k-Sektoren.

Kleiner Exkurs: Die interne Organisation eines ZFS Pools ist normalerweise an der Sektorgröße der verwendeten Festplatten ausgerichtet, der relevante Parameter heißt „ashift“. Solaris 11 Express bietet keine Möglichkeit, die Sektorgröße zu übersteuern. Bei Platten, die intern mit 4k-Sektoren arbeiten, nach außen aber 512-Byte-Sektoren emulieren, führt dies zu einer suboptimalen Organisation und damit zu verminderter Performance. Dummerweise läßt sich dieser Parameter nachträglich nicht mehr verändern, er wird bei der Erzeugung des Pools festgelegt und bleibt über die komplette Lebensdauer konstant.

Mein Pool (bestehend aus 4 x 2 TB in einem RAIDZ2) war für 4k-Platten nicht geeignet, ich würde die Daten einmal komplett umkopieren müssen. Je größer der Pool, desto unhandlicher wird’s. Nun stand ich vor der Wahl:

  • 4 x 3 TB anschaffen, Daten kopieren und dann 4 x 2 TB übrig haben, oder
  • 4 x 2 TB anschaffen, Pool auf 6 x 2 TB vergrößern (temporär 4 x 2 TB ohne Parity), 2 der alten Platten dafür recyclen und nur 2 Platten übrig haben.

Ich entschied mich für die zweite Variante.

Da mir die SATA-Anschlüsse ausgingen und ich zumindest temporär 10 Laufwerke würde betreiben müssen, mußte auch noch ein neuer Controller her. Hier fiel meine Wahl auf einen IBM ServeRAID M1015, die im Moment günstigste Alternative für einen 8-Port-SAS/SATA-Controller, der mit SATA-Platten >2 TB zurecht kommt und unter Solaris gut läuft. Es handelt sich dabei um einen umgelabelten LSI SAS2008, sobald man die originale LSI-Firmware aufgespielt hat, braucht das gute Stück unter Solaris keine zusätzlichen Treiber.

Soviel zur Hardwareauswahl, über die Einrichtung berichte ich das nächste Mal.

Oh, da stirbt wohl eine Platte… zpool scrub repaired 576K

Mein Solaris-Fileserver läuft nun schon geraume Zeit und verhielt sich relativ unauffällig.

Beim wöchentlichen Routinecheck des ZFS-Pools (mittels zpool scrub) wurden nun schon mehrfach Fehler korrigiert. Beim letzten Lauf schaute das so aus:

$ zpool status tank
  pool: tank
 state: ONLINE
 scan: scrub repaired 576K in 14h19m with 0 errors on Sat Sep  8 16:17:11 2012
config:

        NAME        STATE     READ WRITE CKSUM
        tank        ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            c0t2d0  ONLINE       0     0     0
            c0t5d0  ONLINE       0     0     0
            c0t4d0  ONLINE       0     0     0
            c0t1d0  ONLINE       0     0     0

errors: No known data errors

Zwar nur wenige kB, aber so fängt’s an. Es scheint, als würde sich eine Platte demnächst verabschieden. iostat bestätigt dies (die Spalten „s/w“ und „h/w“ geben die soft-/hard errors seit Systemstart an) und identifiziert c0t2d0 als Übeltäter:

$ iostat -exn c0t2d0 c0t1d0 c0t4d0 c0t5d0
                            extended device statistics       ---- errors --- 
    r/s    w/s   kr/s   kw/s wait actv wsvc_t asvc_t  %w  %b s/w h/w trn tot device
   58,4   14,9 4554,7  160,9  0,1  0,7    1,5   10,1   2  12   0   0   0   0 c0t1d0
   60,3   14,9 4554,7  160,9  0,1  0,7    1,4    9,6   2  12  92 505   0 597 c0t2d0
   59,2   14,9 4554,7  160,9  0,1  0,7    1,4    9,8   2  12   0   0   0   0 c0t4d0
   58,5   14,9 4554,6  160,9  0,1  0,7    1,5   10,0   2  12   0   0   0   0 c0t5d0

Im Messages-Log finden sich weitere Hinweise:

$ tail -20 /var/adm/messages
Sep  8 14:15:26 fileserver ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Sep  8 14:15:26 fileserver ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Sep  8 14:15:26 fileserver ahci: [ID 551337 kern.warning] WARNING: ahci0:       Internal Error (E)
Sep  8 14:15:26 fileserver ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4051
Sep  8 14:15:26 fileserver ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Sep  8 14:15:31 fileserver ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Sep  8 14:15:31 fileserver ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Sep  8 14:15:31 fileserver ahci: [ID 551337 kern.warning] WARNING: ahci0:       Internal Error (E)
Sep  8 14:15:31 fileserver ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4051
Sep  8 14:15:31 fileserver ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Sep  8 14:16:23 fileserver ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Sep  8 14:16:23 fileserver ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Sep  8 14:16:23 fileserver ahci: [ID 551337 kern.warning] WARNING: ahci0:       Internal Error (E)
Sep  8 14:16:23 fileserver ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4051
Sep  8 14:16:23 fileserver ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed
Sep  8 14:55:08 fileserver ahci: [ID 296163 kern.warning] WARNING: ahci0: ahci port 2 has task file error
Sep  8 14:55:08 fileserver ahci: [ID 687168 kern.warning] WARNING: ahci0: ahci port 2 is trying to do error recovery
Sep  8 14:55:08 fileserver ahci: [ID 551337 kern.warning] WARNING: ahci0:       Internal Error (E)
Sep  8 14:55:08 fileserver ahci: [ID 693748 kern.warning] WARNING: ahci0: ahci port 2 task_file_status = 0x4051
Sep  8 14:55:08 fileserver ahci: [ID 657156 kern.warning] WARNING: ahci0: error recovery for port 2 succeed

Die Platte (eine Hitachi 5K3000 2TB mit 3 Jahren Garantie) hat erst 18 Monate auf dem Buckel. Also werde ich in Kürze von meinen Erfahrungen mit dem Hitachi-Service berichten dürfen 😉 Vorher tausche ich aber noch das SATA-Kabel, möglicherweise liegt der Fehler ja hier.

Neues Netzteil, neues Glück – Desktop-Edition

2011 scheint das Jahr der defekten Netzteile zu sein. Nachdem Mitte des Jahres das Netzteil meines Homeservers den Dienst quittiert hatte, war nun mein Desktop dran.

Die Diagnose gestaltete sich allerdings nicht so eindeutig. Zuerst ist der Rechner spontan neu gestartet, als ich ein Video abspielen wollte. Danach ist er beim Booten entweder hängengeblieben oder von alleine neugestartet, sobald Ubuntu in den Grafikmodus geschaltet hat (sowohl beim Start des installierten Systems als auch beim Test mit einer Installations-Version vom USB-Stick). Ein Speichertest lief 3 Stunden lang problemlos durch und fand keinen Fehler. RAM konnte ich also ausschliessen, CPU wahrscheinlich auch, blieben noch Mainboard und Netzteil.

Passenden Ersatz hatte ich nicht rumliegen, ich musste mich also entscheiden ob ich lediglich kompatible Ersatz-Hardware bestelle oder gleich ein aktuelles Mainboard, was wiederum Folgekosten nach sich zieht (DDR3-RAM statt DDR2, andere CPU). Letztendlich habe ich mich für die „grosse“ Variante entschieden und folgende Komponenten geordert:

Das Netzteil kam zuerst an. Erfreulicherweise hat sein Austausch der Kiste wieder Leben eingehaucht, es funktioniert alles wieder so wie vorher. Nun muss ich mir nur noch überlegen, ob ich die restliche Hardware auch einbaue oder sie einfach wieder zurückschicke…

Nachtrag zu Solaris Homeserver: Stromverbrauch

Gestern hatte ich über den Stromverbrauch meines Homeservers berichtet. Die Zeit nach dem Verfassen des Beitrags habe ich für ein wenig Recherche genutzt und bin dabei unter anderem auf diesen sehr lesenswerten Artikel bei Tom’s Hardware gestossen: Netzteilpraxis: Wie viel Netzteil braucht der Mensch wirklich? Und vor allem: welches? Der Artikel bestätigte mein Bauchgefühl, dass ein passend dimensioniertes Netzteil einiges zur Senkung des Stromverbrauchs beitragen kann.

Also suchte ich ein wenig nach einem guten und günstigen ATX-Netzteil mit 200-250 Watt Leistung. Dies gestaltete sich schwieriger als gedacht, ATX-Netzteile mit weniger als 300 Watt sind kaum aufzutreiben. Die in dieser Leistungsklasse gebräuchlichen Bauformen SFX oder TFX passen nicht in einen gewöhnlichen Bigtower und sind noch dazu vergleichsweise teuer und/oder haben einen schlechten Wirkungsgrad.

Nun war ich drauf und dran, ein 300W-Netzteil von be quiet! zu bestellen; 82% Wirkungsgrad bei 20% Last, 35 EUR – passt. Zuvor wollte ich aber noch testweise das 530W-Netzteil des Servers durch das 350W-Netzteil meines zweiten Rechners ersetzen, um ein Gefühl für das Einsparpotential zu bekommen. Kaum hatte ich das Netzteil aus dem Desktop ausgebaut und in den Händen, staunte ich nicht schlecht: 530W! Im Server steckt demnach bereits das kleinere 350W-Netzteil. Die Neuanschaffung hat sich damit erledigt, leider auch die Hoffung auf sinkenden Stromverbrauch. Es bleibt also bei den ~74 Watt. Seufz.

Solaris Homeserver: Stromverbrauch

Mein kleiner Homeserver tut seit dem letzten Upgrade brav und unauffällig seine Dienste. Die Abstürze sind dank des Mainboardwechsels Geschichte, und auch Solaris Express 11 läuft tadellos. Zeit, ein Gefühl für den Stromverbrauch zu bekommen!

Dazu habe ich mir bei Reichelt ein Energiekostenmessgerät bestellt (ProfiTec KD 302). Dieses Modell ist mit 9,95 EUR preiswert und einem Test der c’t zufolge (Ausgabe 24/08) misst es relativ genau – auf jeden Fall eine deutlich bessere Wahl als die übliche Kaffeeröster-, Baumarkt- oder Discounter-Ware.

Die Messung selbst ist unkompliziert und schnell durchgeführt: Ohne Last braucht mein Homeserver ca. 74 Watt. Das ist etwas mehr als erwartet, gerechnet habe ich mit etwa 60 Watt. Angesichts der verbauten Hardware und der zur Verfügung stehenden Leistung ist der Wert aber dennoch ganz zufriedenstellend.

Um Solaris als potentiellen Übeltäter auszuschliessen habe ich auch mal probehalber eine Ubuntu 11.04 LiveCD gebootet. Damit lag der Stromverbrauch bei ca. 85 Watt (Gnome Desktop, idle). Die Sorge war also unbegründet, Solaris macht hier augenscheinlich einen guten Job.

Zum Vergleich: Ein HP Proliant MicroServer (ein wirklich feines Teil!) kommt mit 4 3,5”-Platten auf ca. 41-47 Watt im Leerlauf. Darin werkelt ein stromsparender und relativ langsamer AMD Athlon II Neo N36L Dual-Core mit 1,3 GHz. Die CPU-Leistung liegt nur wenig über einem Atom D525, der Stromverbrauch aber auch auf ähnlich niedrigem Niveau.

Optimierungspotential sehe ich bei meinem Homeserver eigentlich nur noch beim Netzteil. Aktuell verwende ein be quiet! Dark Power Pro mit 530 Watt Leistung, das ich noch rumliegen hatte. Dieses Netzteil ist natürlich total überdimensioniert und wird i.d.R. nicht mehr als 15-20% belastet. Dementsprechend schlecht ist der Wirkungsgrad, schätzungsweise lassen sich mit einem besser dimensionierten Netzteil nochmal ~10 Watt sparen.

Platz da: Wie man einen Solaris zpool durch Ersetzen der Festplatten vergrößert

Nachdem ich meinem Homeserver vor einiger Zeit ein neues Herz eingepflanzt habe, war nun ein Upgrade der Festplatten notwendig. Aber zuerst ein bisschen Historie…

Als ich den Server aufgebaut habe, habe ich mir natürlich auch gründlich überlegt, wieviele Platten ich brauche und in welcher Konfiguration ich diese verwende. Dabei spielten u.a. die Faktoren Preis, Zuverlässigkeit, Energie- und Platzbedarf mit:

Preis: Der Server läuft zwar 24×7 und die Platten werden nicht in den Standby-Modus gefahren. Aber für Dauerbetrieb ausgelegte Festplatten kosten gerne mal doppelt soviel wie normale Desktop-Versionen. Bei einer geschätzten Nutzungsdauer von 1,5 Jahren greife ich zur günstigeren Variante.

Zuverlässigkeit: Um eventuellen Defekten vorzubeugen, setze ich auf doppelte Parity (RAID6 oder raidz2 bei Solaris ZFS). So können zwei beliebige Festplatten gleichzeitig ausfallen, ohne die Datenkonsistenz zu gefährden.

Energiebedarf: Ich brauche kein Maximum an Performance, daher sind energiesparende Festplatten mit ~5400 Umdrehungen pro Minute sinnvoller als die schnelleren Modelle mit 7200 UPM. Nebenbei sind sie leiser und werden nicht so warm.

Platzbedarf: Mein “alter” Linux-Server hatte etwa 2,5 TB Kapazität, also kalkuliere ich für den neuen Server erst mal mit 3 TB Nettokapazität. Ich gehe davon aus, dass mein Platzbedarf langsamer wächst als die Datendichte bei Festplatten zunimmt. Mit der Zeit werde ich die Festplatten durch Modelle mit höherer Kapazität ersetzen, aber die Zahl der Platten bleibt konstant.

Ich neige dazu, Hardware nur genau dann und in der Menge zu kaufen wie ich sie brauche, ohne dabei allzu sehr auf “Zukunftssicherheit” zu achten. Viele Jahre Erfahrung haben mich gelehrt, dass sich derartige Investitionen nicht auszahlen, da die als zukunftssicher geglaubten Standards doch schneller abgelöst werden als einem lieb ist.

Zum Zeitpunkt der Anschaffung lag der “sweet spot” für 3,5”-SATA-Festplatten bei 1,5 TB – genau passend für meinen Bedarf. 2 TB waren auch schon gut verfügbar, aber noch etwas teuer. Also habe ich 4 x 1,5 TB von Samsung (EcoGreen F2 HD154UI, Stückpreis rund 63 EUR) bestellt und verbaut. Meine Erwartungen wurden erfüllt: Die Platten arbeiten günstig, leise und energiesparend – und es gab keine Ausfälle. Hinzu kamen noch zwei 2,5”-Platten für das Betriebssystem, diese habe ich vom alten Server recyclet.

Anscheinend habe ich aber die Wachstumsgeschwindigkeit meiner Datenhalde etwas unterschätzt, denn wenig mehr als 6 Monate später ist die Kapazität nahezu erschöpft. Also müssen neue Platten her! Diesmal habe ich mich für 2 TB Hitachi 5K3000 entschieden, diese sind erfreulicherweise für 24×7-Betrieb spezifiziert und kosten kaum mehr als die Samsungs (68 EUR das Stück).

Das eigentliche Ersetzen der Platten ist unspektakulär:

  • Rechner ausschalten
  • Neue Festplatte anschliessen (dabei entweder die alte Festplatte ersetzen oder die neue Festplatte an einen freien SATA-Port anschliessen)
  • Rechner einschalten
  • zpool replace <Name des zpools> <altes Device> <neues Device>
  • Warten (die Daten werden nun rekonstruiert, das dauert in meinem Fall etwa 8 Stunden)

Dies wiederholt man nun nach und nach für jede Festplatte. Ob die Platte nun in-place ersetzt wird oder erst zusätzlich angeschlossen wird, hängt wohl v.a. von den freien SATA- und Stromanschlüssen ab. Das “zpool replace” braucht in beiden Fällen gleich lange. Wenn genügend freie SATA-Ports vorhanden sind, kann man auch mehrere Platten auf einmal ersetzen; bei zwei Platten dauerte das Rebuild bei mir ca. 10 Stunden, ging also deutlich schneller als 2 x 8 Stunden.

Sofern man beim zpool das Attribut “autoexpand” auf “on” gesetzt hat, wird der Pool automatisch vergrößert, sobald auf allen Devices freier Speicherplatz zur Verfügung steht. Der zusätzliche Platz steht dann sofort zur Verfügung.

All diese Operationen sind dabei im laufenden Betrieb möglich, aus Anwendungs-/Betriebssicht spürt man höchstens die durch das Rebuild beeinträchtige, geringere Performance. Sofern man hot-swappable Hardware nutzt, entfällt sogar das Aus- und Einschalten beim Plattenwechsel.

Zum Abschluss noch eine kleine aber feine Beobachtung. Im Laufe dieses ganzen Procederes hatte ich bei einer der Platten im Pool den Stromstecker nicht richtig drauf, sodass dem zpool auf einmal Laufwerk fehlte. Er lief natürlich, war aber im “degraded” Zustand – was eine erneute Synchronisation des Mediums erforderlich macht. Also, Rechner wieder aus, Kabel überprüft, Rechner wieder an, Platte da. Ich ärgerte mich schon darüber, erneut 8 Stunden warten zu dürfen. Aber siehe da: ZFS erkannte, dass die Platte wieder verfügbar war, synchronisierte neu und war bereits nach wenigen Megabyte fertig! Dabei wurde nur der Teil der Daten synchronisiert, bei dem es seit dem letzten Vorhandensein des Laufwerks Änderungen gegeben hatte. Mit Linux/mdadm wäre an dieser Stelle eine komplettes Rebuild des RAID-Arrays fällig gewesen. ZFS FTW! Linux sollte man an der Stelle aber auch Zugute halten, dass die Anzahl der Laufwerke in einem RAID variiert werden kann. So kann ein RAID6 z.B. durch das Hinzufügen einer weiteren Platte on-the-fly vergrößert werden. Dieses “reshaping” hat ZFS bis heute nicht gelernt.

Fazit: ZFS ist ein wirklich geniales Filesystem, das alltägliche Wartungsarbeiten einfach macht. Wieviel Intelligenz dahinter steckt, scheint nur hier und da durch. Im nächsten Artikel werde ich berichten, was es beim Austausch der Boot-Platte zu beachten gilt.

Spass mit Solaris: SATA-Controller, AHCI und IDE-Kompatibilitätsmodus

Mein gestern umgerüsteter Homeserver läuft noch immer – so weit, so erfreulich. Beim Schmökern in der c’t geriet ich aber ein wenig ins Grübeln. Ich laß einen Testbericht aktueller Mainboards, in dem unter anderem auf die teils mangelhaft vorkonfigurierten BIOS-Einstellungen hingewiesen wurde, insbesondere in Sachen SATA-Controller. Ich hatte gestern zwar ins BIOS geschaut und einige Einstellungen angepasst, aber über den Betriebsmodus des SATA-Controllers bin ich dabei nicht gestolpert.

Also kontrollierte ich dies heute, und wie befürchtet lief der SATA-Controller im IDE-Kompatibilitätsmodus. Das führt unter anderem dazu, dass NCQ (Native Command Queuing) nicht genutzt werden kann und so einiges an Performance verschenkt wird. Also flugs die Einstellung auf den nativen SATA-Betrieb umgestellt (AHCI) und neu gebootet.

Es kam wie es kommen musste, die Diva Solaris weigerte sich zu starten (dabei ist sie übrigens in guter Gesellschaft, auch Windows kann es überhaupt nicht leiden, wenn man den SATA-Controller umkonfiguriert, an den die Boot-Platte angeschlossen ist). Ich wollte schon das gestern beschriebene Hardware-Rekonfigurationsprocedere erneut durchführen, googelte aber noch kurz und siehe da: Die Lösung This entry was posted in bits + bytes and tagged , on by .

Operation erfolgreich, Patient lebt

Wie vor einigen Tagen berichtet stand bei meinem Homeserver ein Hardwareupgrade an. Dem habe ich mich heute gewidmet, allerdings erst einmal nur provisorisch. Man weiss ja nie, ob die neue Hardware auch so funktioniert wie man sich das vorstellt. So schaut’s derzeit unter’m Schreibtisch aus:

 

Soweit läuft die Maschine wieder, allerdings war dafür bei Solaris ein wenig mehr Handarbeit von Nöten als ich dies von Linux gewohnt bin.

Als Vorbereitung habe ich erst einmal ein neues Boot Environment angelegt, um ggf. einfach wieder zur alten Konfiguration zurück zu können. ZFS und Snapshots machen’s möglich:

beadm create solarisexpress11-new

Nun galt’s, die neue Hardware anzuschliessen und von einer Live-CD zu booten, um das System mit der neuen Hardware vertraut zu machen. Dabei war dieser Bug Report sehr hilfreich. Zuerst muss das root-Filesystem eingebunden sowie das Boot Environment gemountet werden, danach wird die Hardwarekonfiguration erneuert und zuletzt das Boot Archive (eine Art initramfs) aktualisiert:
# Passwort der Live-CD lautet “solaris”
pfexec su -

# -f ist erforderlich, da das Filesystem zuletzt auf einer anderen
# Maschine gemountet war und nicht exportiert wurde
zfs import -f rpool

# Boot Environment einbinden
mkdir /x
beadm mount solarisexpress11-new /x

# Device Tree neu erstellen
mv /x/etc/path_to_inst /x/etc/path_to_inst.orig
touch /x/etc/path_to_inst
devfsadm -C -r /x
devfsadm -r /x

# reconfigure beim nächsten Start erzwingen
touch /x/reconfigure

# Boot Archive aktualisieren
bootadm update-archive -R /x

# Filesystem synchronisieren und Boot Environment aushängen
cd /
sync
beadm unmount solarisexpress11-new
Das war’s. Beim nächsten Neustart erkennt Solaris die neue Hardware, richtet sie ein und die Kiste läuft wieder.

Erfreulicherweise scheint sich das Upgrade auch gelohnt zu haben. Aus Sicherheitsgründen mache ich einmal pro Woche einen vollständigen Integritätstest des Filesystems, einen sogenannten scrub. Man will ja wissen, wann die Platten anfangen Daten zu verlieren. Beim Daten-Pools dauerte das zuletzt 12 Stunden und 17 Minuten. Der aktuelle Durchgang ist bei etwa der Hälfte, die geschätzte Gesamtdauer liegt bei unter 8 Stunden. Sehr schön!

Hmm, Upgrades!

Neulich klingelte der Postmann gleich zweimal an einem Tag. Und was hat er gebracht? Neue Hardware für meinen Homeserver:

Auf dem Bild zu sehen (von links nach rechts):

  • 2 x 4096MB Kingston ValueRam DDR3-1333 CL9 ECC
  • Mainboard Asus M4A785T-M
  • CPU AMD Athlon II X4 605e

Aber erst mal eine Bestandsaufnahme. Im Homeserver werkeln derzeit ein Asus M2NPV-VM mit nVidia nForce 430 Chipsatz, ein AMD Athlon X2 BE-2350, 4 GB DDR2-RAM sowie eine handvoll Festplatten. Das Gerät arbeitet als File- und Backupserver, ausserdem wird meine Stereoanlage mittels SqueezeServer mit Musik versorgt. Ursprünglich habe ich Gentoo Linux eingesetzt, vor einiger Zeit bin ich aber wegen ZFS auf OpenSolaris und inzwischen Solaris Express 11 umgestiegen.

Insgesamt bin ich mit Solaris sehr zufrieden, insbesondere ZFS ist knapp vor genial. Die Hardwareunterstützung lässt aber etwas zu wünschen übrig, hier hat Linux immer noch deutlich die Nase vorn. Ein Beispiel: Bei der aktuell genutzten CPU unterstützt Solaris keine Stromspar-Funktionen. So wird einiges an Energie unnötig verheizt, demnächst werde ich das mal genauer nachmessen und dann berichten. Weiteres Beispiel: Da ich insgesamt 6 Platten nutze, das Mainboard aber nur 4 SATA-Ports hat, musste ein Zusatzcontroller her (Digitus DS-30102 mit SIL-3132 Chipsatz). Solaris “verliert” aber alle paar Wochen eine an diesen Controller angeschlossene Platte und bleibt hängen. Unschön.

Das Problem mit dem Power Management habe ich schon mit einem CPU-Upgrade zu lösen versucht, allerdings mit mäßigem Erfolg. Laut Kompatibilitätsliste sollte die AM3-CPU Athlon II X4 605e auf dem alten Board laufen. Die Maschine bootet und läuft, auch das Power Management funktioniert. Allerdings gibt’s häßliche Bildstörungen, wenn die CPU beansprucht wird; ich vermute, die Spannungswandler sind einfach überfordert.

Daher war ein neues Mainboard und auch neuer Speicher fällig. Zuverlässigkeit und Stabilität standen bei der Komponentenauswahl im Fokus, darum gab’s ECC-Speicher und ein Board aus der “Corporate Stable” Serie von Asus. Der Chipsatz SB710 soll von Solaris gut unterstützt werden und bietet 6 SATA-Ports, sodass ich auf den Zusatzcontroller verzichten kann. Ob all diese Erwartungen auch eintreffen werde ich bald herausfinden und dann berichten.

Zum Abschluss noch eine Szene aus Matrix II: