Skip to content

Mehr Platz, Igor!

Heute habe ich mich endlich dazu aufgerafft, meinem Datenelend ein Ende gemacht und zwei Platten zu je 3TB (mit internen 4K-Sektoren und externen LBAs mit 512 Bytes) gekauft.

Pro: Mehr Platz als, ich jemals in der für mich absehbaren näheren Zeit brauchen werde. Aber 640K Hauptspeicher waren ja auch schon immer genug für jeden.

Contra: 10 Stunden Sync-Zeit für das RAID1, dass ich daraus gebaut habe. (Ja, ich bin ein wenig Paranoid, was Festplatten angeht. Die meisten meiner Daten fallen jetzt nicht in die Kategorie "überlebenswichtig", aber ich fände es blöd, wenn ich z.B. meine CD-Sammlung wieder neu rippen müsste, weil dies dann doch einige Tage in Anspruch nehmen würde. Echte lebenswichtige Daten habe ich als Backup auf a) Band, b) verschlüsselt in der Dropbox und c) auf DVD oder CD [die ich einmal im Jahr prüfe, ob die Lesbarkeit noch gegeben ist]) Immerhin setzt Linux den Sync an der letzten Stelle fort und fängt nicht immer von vorne an.

Ein wenig abenteuerlich war auch die Partionierung. Eine normale MSDOS-Partitionstabelle reicht nicht mehr, es muss eine GPT (GUID Partition Table) sein. Und da die Platten intern Sektoren mit 4KB-Größe arbeitet, möchte man auch dafür sorgen, dass die Partitionen und damit die Dateisysteme innerhalb der Partitionen an eben diesen 4KB-Sektoren ausgerichtet (aligned) sind. Sonst wird man eine erstaunliche Verlangsamung von Schreibzugriffen bis zu Faktor 10 erleben.

In meinem Fall habe ich die korrekte Partionierung mit parted durchgeführt.

  1. Richtige Platte auswählen:
    > select /dev/sdX
  2. Partitionstabelle anzeigen lassen, ob man auch wirklich die richtige Platte hat:
    > print
  3. GPT erzeugen:
    > mklabel gpt
  4. BIOS Boot Partition erzeugen. Dies wird gebraucht, weil direkt in der GPT kein Platz für das core.img von GRUB ist. Das Alignment ist hier egal, da auf diese Partition eh nur während der Installation von GRUB geschrieben wird.
    > mkpart primary 34s 2047s
    > set 1 bios_grub on
    Die 33 Sektoren am Anfang werden von der GPT eingenommen und fallen daher weg. Will man von dieser Platte nicht booten, so kann man sich diese Partition theoretisch schenken. Aber da man für die korrekte Ausrichtung bei 4KB-Sektoren intern und externen 512 Byte LBAs als kleinsten nutzbaren Sektor bei 40s ist und man nie weiss, ob man nicht doch einmal GRUB auf die Platte installieren will oder muss, sollte man die BIOS Boot Partition gleich mit anlegen, später geht das nämlich nicht mehr.
    Es ist übrigens egal, wo man die BIOS Boot Partition anlegt, generell wird aber empfohlen, diese an den Anfang, mindestens aber unterhalb der magischen Grenze von 2^32-1 Sektoren (also 2TB) anzulegen.
  5. Dateisystem-Partition im kompletten restlichen Bereich anlegen und RAID-Flag setzen. Hierbei ist es wichtig, auf die Ausrichtung zu achten. Bei einem Verhältnis von internen zu externen Sektoren von 8 (also 4096B / 512B) muss der Start-Sektor also glatt durch 8 teilbar sein. 2048 erfüllt diese Kriterium. Für SSDs muss man ebenso rechnen, allerdings gilt es hier, die Größe des Flash-Erase-Blocks zu kennen, der meist 64KB oder 128KB ist. Bei einem Verhältnis von 131072/512 gilt also 256 als magischer Teiler. Präsentiert die SSD dagegen 4K-Sektoren nach aussen, so sinkt dieser Wert auf 32. Alles in allen würde 2048 diese Kriterien auch erfüllen, ist also ein guter über-den-Daumen Wert. (Wenngleich 2048 Sektoren bei 4K-Sektoren auch schon 8MB Verschnitt sind. Bei Plattengrößen von 256GB für SSDs oder 3TB für Magnetscheiben ist dies aber mehr als verschmerzbar, denke ich.)
    > mkpart primary 2048s -1s
    > set 2 raid on
  6. Und nun das ganze Procedere für die zweite Platte wiederholen.
Danach dann wie gewohnt mit mdadm -C das RAID erzeugen, Dateisystem oder LVM drauf packen, fertig.

+ considered harmful

Argh! Diese Schmerzen!

Da will man einmal RSSowl testen, aber wird gleich beim ersten Start von folgendem Fehler ausgebremst:

!SESSION 2011-01-05 16:26:16.473 -----------------------------------------------
eclipse.buildId=unknown
java.version=1.6.0_22
java.vendor=Sun Microsystems Inc.
BootLoader constants: OS=linux, ARCH=x86, WS=gtk, NL=de_DE
Command-line arguments:  -os linux -ws gtk -arch x86

!ENTRY org.eclipse.osgi 4 0 2011-01-05 16:26:16.655
!MESSAGE Startup error
!STACK 1
java.lang.IllegalArgumentException: invalid qualifier
        at org.osgi.framework.Version.validate(Version.java:179)
        at org.osgi.framework.Version.<init>(Version.java:95)
        at org.eclipse.osgi.framework.internal.core.Framework.initializeProperties(Framework.java:354)
        at org.eclipse.osgi.framework.internal.core.Framework.initialize(Framework.java:191)
        at org.eclipse.osgi.framework.internal.core.Framework.<init>(Framework.java:152)
        at org.eclipse.osgi.framework.internal.core.OSGi.createFramework(OSGi.java:90)
        at org.eclipse.osgi.framework.internal.core.OSGi.<init>(OSGi.java:31)
        at org.eclipse.core.runtime.adaptor.EclipseStarter.startup(EclipseStarter.java:286)
        at org.eclipse.core.runtime.adaptor.EclipseStarter.run(EclipseStarter.java:175)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.eclipse.equinox.launcher.Main.invokeFramework(Main.java:549)
        at org.eclipse.equinox.launcher.Main.basicRun(Main.java:504)
        at org.eclipse.equinox.launcher.Main.run(Main.java:1236)


Und der Grund? Ich habe ein + in der Kernel-Version! Und dies bringt das Eclipse-Framework, auf dem RSSowl basiert, aus dem Konzept. http://www.eclipse.org/forums/index.php?t=msg&goto=483782 sowie https://bugs.eclipse.org/bugs/show_bug.cgi?id=305452

Ehrlich, so etwas schmerzt ungemein.

Linux und Trafficshaping

Ein klarer Fall von "Hä?!":

Ich stelle via tc eine maximale downstream Rate von 16000kbit ein.

Und was erhalte ich?

Eine maximale Downloadrate von ca. 4500kbit. Komisch.

OK, probieren wir einmal eine fertige Lösung, z.B. den guten alten Wondershaper (http://lartc.org/wondershaper/):

wondershaper eth1 16000 1000

Und wir erhalten:

Eine maximale Downloadrate von ca. 4500kbit. Hmmm.

Nehmen wir etwas anderes, das gerade im Linux Magazin besprochene tc-Script (http://www.linux-magazin.de/static/listings/magazin/2010/12/TC/):

trafficcontrol-inetgw eth1 16000 1000

Und wir erhalten:

Eine maximale Downloadrate von ca. 4500kbit. Hmmmmm!

Vermutlich bin ich zu doof, zu blöd, mein Kernel (2.6.32.x) ist zu alt, das Karma nicht richtig justiert, oder tc nimmt mir übel, das ich es früher einmal als undokumentiertes Stück esoterischen Code tituliert habe.

Ich glaube, ich werde meine Tage mit einer ungeshapeten Verbindung verleben müssen, denn einerseits funktionieren die fertigen Lösungen irgendwie nicht richtig und andererseits übersteigt die Logik und Syntax von tc einfach meinen Horizont. Ich habe nun schon so oft versucht, mir das anzueignen, aber die Dokumentation ist einfach grottig, die vorhandenen Beispiele in der Dokumentation sind für mich nichtssagend und die Beispiele im Netz sind ebenso unter- bzw. undokumentiert oder beziehen sich auf uralte Kernel und Methoden.

Ich geb's echt auf. Da administriere ich lieber Windows auf der Kommandozeile als noch einmal tc zu verstehen zu versuchen zu wollen.

ext4 oder XFS für Maildir?

Was ist wohl besser geeignet für einen Maildir-Storage von ca. 1TiB Größe?

  • XFS, mit mkfs.xfs -f -d su=64k,sw=5 -l size=32768b,version=2 /dev/mapper/vg03-maildir_lv erzeugt
  • oder ein ext4

Das ganze auf einem via FC-4GBit  angeschlossenen RAID5 mit 5 Platten und 64k Stripe-Size. Der Server hat mit 12GB genug Speicher für Cache und Co.

(ReiserFS3 fällt weg, da es praktisch ungewartet ist und es diverse Berichte gibt, dass es unter Last gerne mal zusammenbricht, Reiser4 muss auch wegen der sehr unklaren Entwicklungssituation ausscheiden.)

Es reicht!

Manchmal. Ja, manchmal reicht es einfach.

Zu Hause:

  • Hardware-Probleme
  • Software-Probleme
  • unveröffentlichbare Probleme

An der Arbeit:

  • defekte neue Hardware
  • defekte ältere Hardware
  • Komische (im Sinne von "Warum zum Geier macht das Zeug das jetzt?!") Software-Probleme
  • Merkwürdiges Netzwerk-Verhalten
  • widerspenstige User
  • Lizenz-Gemuckel in vier Dimensionen (Wer sich das auch immer ausgedacht hat: An die Wand stellen, drauf halten, trifft keinen Falschen ...)
  • zwei kritische Upgrade-Termine innerhalb von 7 Tagen

Wenn ich nicht meinen Rest-Urlaub mit ins nächste Jahr nehmen wollen würde, dann würde ich mich ab Mitte November einfach für drei Wochen verabschieden, mich in meinem Schlafzimmer einschließen und dann könnte mich die Welt man ganz gepflegt ...

HP Insight Remote Support Software, oder: Moderne Folter

Normalerweise schreibe ich ja aus diversen Gründen eher selten über arbeitsbezogene Dinge, aber heute muss es einfach sein:

Ich hatte heute das zweifelhafte Vergnügen, die HP Insight Remote Support Software installieren zu müssen, um für bestimmte Komponenten das Reporting und Management realisieren zu können.

Ich sehe zu erst einmal großzügig darüber hinweg, dass die vorherige Lösung des Herstellers ein knapp 600 KByte großes Programm war, welches Log-Files und anderes nach Hause schickte (jajaja, keine Diskussion darüber jetzt) und die neue Software von HP mal eben sportliche 500 MByte auf die Waage bringt. Immerhin ist der HP-Kram ja ein ganzes Framework zum Verwalten von allem, was es so im Server-Umfeld zu verwalten gäbe. Und bringt daher bei der Installation erst einmal knapp 15 Einzel-Komponenten auf dem Host-Server unter.

Dann sehe ich weiterhin großzügig darüber hinweg, dass die Installations-Routine aussieht, wie aus 5 Produkten zusammengeschustert und vom Design her den Anfangstagen von Windows 95 entsprungen zu sein scheint und nebenbei noch lustig DOS-Box-Text-Fenster aufploppen, in denen Batch-Dateien gestartet werden, um dieses und jenes zu erledigen.

Ist halt Enterprise-Software, da muss man so etwas wohl erwarten.

Aber dass das dann nach erfolgreicher Installation das Webinterface zur initialen Konfiguration dann so träge wie eine Wanderdüne ist (auf einem 8-Kern Rechner mit 16GB RAM!), dass erstaunt dann um so mehr. Ich dachte erst, es wäre defekt, lediglich mit Wireshark habe ich dann noch Aktivität beim Ansprechen der einzelnen Systeme gesehen und mich in Geduld geübt.

Die Krönung ist dann aber das produktive Web-Interface (nennt sich WEBES).

Argh!, meine Augen! Nicht nur, dass es sich optisch dramatisch vom initialen Konfig-Interface unterscheidet (das sah ja noch halbwegs gefällig aus), nein, es sieht wirklich aus wie zu Win3.11-Zeiten. Grau-en-haft.

Noch dazu gibt es keinerlei Authorisation oder Authentifikation (zumindest habe ich keine bemerkt). Wenn ich den Session-Name eines Users erraten kann, dann kann ich einfach seine Ansicht auf die Dienste übernehmen und benutzen.

Aber so viel Aufwand brauche ich auch gar nicht treiben, ich geben einfach einen eigenen, frei wählbaren Session-Name an und habe direkt meine eigenen Ansicht und kann nach Lust und Laune konfigurieren.

Ich hoffe ja, dass ich einfach zu doof war und einen versteckten Button mit der Aufschrift "Windows-Anmeldung verwenden" oder so übersehen habe.

Und am Ende tat es dann nicht einmal das, was es machen sollte, also das Geraffel wieder deinstalliert. Morgen dann ein neuer Versuch auf einem sauberen virtuellen System. Da kann ich wenigstens Snapshots machen, um einfacher wieder auf "Los!" gehen zu können.

Willkommen im 21. Jahrhundert

Ich kann es nicht länger leugnen: Ich bin ein Late Adopter. Ja, ich weiss, ich schäme mich.

Worum es geht: Um UTF-8.

Bis gestern konnte ich noch friedlich und glückselig in meiner 8bittigen Welt leben, was schert mich neumodischer Kram. Ein Zeichen ist ein Zeichen ist ein Zeichen, basta.

OK, zugegeben, es war mit der Zeit immer schwerer, dem Drängen der Systeme nach UTF-8 gegen zu steuern, aber machbar war es immer noch. Und dazu kommt, dass nicht immer alles so sauber funktionierte.

Bei meinem ersten Versuch, auf UTF-8 umzustellen (irgendwann 2003), war weder die bash, noch die VGA-Konsole von Linux sowie viele andere Programme nicht darauf vorbereitet, was dann zu komischen und merkwürdigen Problemen führte. Also habe ich es bleiben gelassen und mich mit ISO-8859-15 zufrieden gegeben.

Aber dann kommt gestern nach Debian Sid ein neuer GDM (2.30), und plötzlich dringt der "Feind" UTF-8 weiter in mein Legacy-Territorium vor. Und läßt sich auch nicht mehr so einfach vertreiben.

Also denke ich mir: Warum nicht, versuche es doch einmal neu.

Zügig LANG nach de_DE.utf8 geändert und: Krude Zeichen im Terminal. Grund: rxvt kann kein Unicode, es muss das urxvt sein.

Und, oh Wunder, es funktioniert auf Anhieb. Umlaute werden korrekt dargestellt, lassen sich auch korrekt löschen (Das ist nicht selbstverständlich. DamalsTM wurde zwar ein 'ä' korrekt dargestellt, wenn man dieses aber mit der Rücktaste löschte, konnte man noch ein weiteres dargestelltes Zeichen löschen, dann intern war das 'ä' ja ein UTF-8-Zeichen, bestehens aus zwei Bytes.) und auch Programme wie mc können korrekt ihre ASCII-Art-Rahmen der Textoberfläche zeichnen.

Ein paar Probleme gab es dann aber doch noch: Die Konfiguration meines Newsreaders tin beinhaltete einige Umlaute, die mit einer UTF-8 locale nicht korrekt geparst werden konnten, aber recode hilft hier schnell und sicher.

Alles in allem hat mich die Umstellung auf 4 Systemen dann nur eine knappe Stunde gekostet und dafür bin ich auch wieder kompatibel mit den Ubuntu-Systemen meiner Kollegen, was sich vor allem in brauchbar lesbaren Einträgen im Commit-Log des internen SVNs äußert.

Willkommen in der Gegenwart, Sven!

Bye-Bye Ubisoft!

Tja, so schnell kann man sich alles verscherzen.

Eigentlich hatte ich mich auf das neue "Siedler 7" gefreut und ich hätte es auch gekauft.

Ja, "hätte", denn Ubisoft hat mit ihrem tollen neuen Online-Kopierschutz voll ins Klo gegriffen.

Für uninformierte: Dieser Kopierschutz hält eine dauerhafte Verbindung zu einem Server von Ubisoft über das Internet offen. Selbst für ein Solo-Spiel wie "Die Siedler" oder "Assassin's Creed". Ist jetzt die Verbindung weg, z.B. weil der eigene Provider ein Problem hat oder weil die Server bei Ubisoft herumzicken oder weil irgendwo auf dem Weg vom eigenen PC zu den Ubisoft-Servern irgendetwas schief läuft, so wirf einen das Spiel aus dem aktuellen Geschehen.

Oder man kann erst gar nicht spielen, wie es z.B. über Ostern für mehrere Tage der Fall war, weil die Server von Ubisoft angeblich von einer DDoS-Attacke lahmgelegt wurden.

Da kommt man sich als Kunde dann natürlich maximal veralbert vor, wenn man 50 bis 70€ für ein Spiel ausgegeben hat, was man dann nicht spielen darf, wenn man will.

Oder das einem alle Stunde aus dem Geschehen wirft, weil die eigene Internet-Anbindung nicht zuverlässig ist.

Oder mal eben im Zug zocken: Njet, ohne stabiles Internet keine Chance.

Und was passiert, wenn in 3 Jahren Ubisoft keinen Bock mehr auf den Online-Service hat? Oder Pleite geht? (Das geht heutzutage ja schneller, als man so meint.) Dann ist endgültig Game-Over, es sei denn, es wird noch schnell ein Offline-Patch nachgeschoben. Die Erfahrung zeigt aber, dass letzteres im Insolvenz-Fall eher selten erfolgt.

Das weckt doch gewisse Erinnerungen an DRM-verseuchte Musik, bei der der Anbieter auch plötzlich meinte, die Server abschalten zu müssen, um dann den zu Recht erbosten Ex-Kunden den "tollen" Ratschlag zu geben, diese mögen die gekaufte (eigentlich ja geleaste) Musik analog kopieren und dann neu aufnehmen.

Also Ubisoft: Well done! Ihr bekommt auf absehbare Zeit kein Geld mehr von mir.

smokeping mit Sklaven

Notiz an mich selbst:

Der Master von Smokeping braucht die Secrets in der Datei im Format
sklave:passwort
während der Sklave dann nur
passwort
in der Secrets-Datei braucht.

Das herauszufinden hat mich nur 3 Stunden Arbeit sowie die (sich im Nachhinein als unnötig herausstellende) Backportiererei von 5 Pakten von Squeeze nach Lenny gekostet.

APT Pinning vs Default-Release

Nach einer Stunde hadern, fluchen und verzweifeln bin ich endlich auf den Tricher gekommen, warum zum $deity das apt-pinning bei mir nicht funktionieren wollte:

Wenn man in der apt.conf ein Default-Release definiert hat, würfelt das die Pinning-Logilk durcheinander, weil hier dann für das dort eingestellte Release ein fester Wert von 990 genommen wird, egal, was man in der /etc/apt/preferences einstellt.

Da muss man natürlich erst einmal drauf kommen, weil das so in der Dokumentation nicht erwähnt wird. (Oder ich es schlichtweg ständig überlesen habe.)

Datenkorruption, schleichende

Interessante Zeiten. Sehr interessante Zeiten.

Datenkorruption ist ja schon schlecht. Besonders schlecht ist es, wenn man es nicht merkt, sondern erst, wenn sich z.B. im Dateisystem Fehler (Dateien mit "komischen" Größen oder Rechte-Flags, Dateien, die sich nicht löschen lassen, etc.) zeigen.

Und ganz besonders doof ist es, wenn man nicht weiss, warum das Problem plötzlich auftritt oder erst gar nicht erahnen kann, seit wann das Problem aufgetreten sein könnte.

Hrmbl.

Windows mit CMOS-Uhr auf UTC

Wer Linux/*BSD und Windows auf einem Rechner betreibt, kennt das Problem: Windows stellt eigenmächtig die CMOS-Uhr auf die lokale Zeit um und ist auch bei Sommerzeit- bzw. Winterzeitwechsel nicht davon abzubringen, die Finger von der CMOS-Uhr zu lassen.

Unixoide Systeme dagegen belassen die CMOS-Uhr auf UTC und stellen dem User dann den Offset dar, seiner jeweiligen Zeitzone entsprechend.

Hat man nun beide Systeme auf einem Rechner, beißt sich das.

Aber man kann auch Windows dazu bewegen, sich sinnvoll zu verhalten. Dazu erstellt man folgenden Registry-Schlüssel:

HKEY_LOCAL_MACHINE\
SYSTEM\CurrentControlSet\Control\TimeZoneInformation\
RealTimeIsUniversal=(DWORD)1


Desweiteren muss man noch den Dienst "Windows-Zeitgeber" auf "deaktiviert" stellen und diesen dann auch beenden.

Danach sollte Windows die Finger von der CMOS-Uhr lassen und sich wie ein unixoides System verhalten.

iSCSI und Openfiler

Will man richtig virtualisieren, kommt man um ein SAN nicht herum, denn alle Virtualisierungsmethoden, die mit mehr als einem Host funktionieren, brauchen ein gemeinsames Block-Backend für die Datenspeicherung, wenn man LiveMigration (oder auch VMotion bei VMware genannt) nutzen will.

Für den Test am Anfang muss man aber nicht gleich 100.000€ ausgeben, es geht auch mit weniger.

Ich hatte einen älteren Server (Dual-CPU, 2.4GHz, 2GB RAM, ICP-Raid-Kontroller, 10 Platten, 2xIntel-GBit-NIC) "übrig", den ich zum iSCSI-Target umfunktionieren wollte.

Früher hatte ich schon einmal mit IET, dem iSCSI-Enterprise-Target sowie seinem Gegenpart, dem Open-iSCSI Initiator gespielt, weiss also, dass es geht und dass die Performance ausreichend ist, aber ich hatte keine Lust, den ganzen Kram wieder manuell zu machen, also musste etwas fertiges her.

Und hier kommen Projekte/Produkte wie Openfiler ins Spiel.

Openfiler ist die einzige mir bekannte fertige und kostenneutrale Lösung, die iSCSI bietet, also war die Wahl nicht schwer.

Openfiler ist eine auf rPath-Linux basierende NAS/SAN Appliance, die nicht nur iSCSI, sondern auch andere Protokolle spricht (NFS, SMB/CIFS, FTP, HTTP/WebDAV, etc.)

Schnell Version 2.2(respin2) heruntergeladen, CD gebrannt, gebootet.

Die Installation geht schnell von der Hand, negativ fällt mir nur auf, dass es keine sinnvolle automatische Partitionsmethode gibt, sondern man manuell die drei Partitionen (/boot, Swap und /) nach der Anleitung anlegen muss.

Nutzt man hier die automatische Partitionsmethode hat man eine riesige Partition für /, aber nichts mehr übrig für die eigentliche Aufgabe, nämlich als Filer zu dienen.

Das ist aber mein einziger Kritikpunkt hier.

Ernüchterung nach dem Reboot: Der Standard 2.6.19-Kernel schmiert bei 32bit-SMP-Systemen ab und bootet erst gar nicht. Das Problem ist schon seit langem bekannt, wurde aber nicht behoben, obwohl es ein einfaches wäre, eine neue Install-CD zu erzeugen.

Tief im Forum bekomme ich den Hinweis, dass auch ein UniProzessor-Kernel im System ist man einfach im GRUB den Pfad anpassen möge, worauf das System auch startet.

Administriert wird Openfiler über ein halbwegs gefälliges Webfrontend, wenngleich mir das hin und her gespringe bei der Volume-Verwaltung ein wenig zu ungeordnet erscheint.

Das Update des Systems kann auch über das Interface erfolgen, ich nutze aber die andere Methode über einen direkten SSH-Login.

Hierbei wird dann der Kernel aktualisiert (der neue löst das SMP-Problem aber auch nicht) und dann gleich das iscsi_trgt deaktiviert.

Installiert man dieses erneut, wird wiederum ein anderer, nicht ganz so aktueller Kernel installiert, der immerhin wieder als non-SMP-Version vorliegt.

Hierbei kann ich auch erste Erfahrungen mit "conary", der Paketverwaltung von rPath sammeln.

Als apt-get/aptiude vewöhnter Mensch erscheint mir diese aber recht rudimentär, gerade was die Suchfunktion angeht. Dafür bietet es aber automatische Rollbacks/Snapshots, etwas, das apt-get/aptitude immer noch fehlt.

Aber zurück zu iSCSI.

Die Volumes sind schnell eingerichtet, namens iscsi_test01 und iscsi_test02.

Und der iSCSI-Kenner wird hier gleich einen ersten Fehler erkennen: _ sind in IQNs nicht erlaubt, Openfiler fängt das aber nicht ab, so dass man hier erst einmal vor die Wand läuft. Interessanterweise interessiert sich Open-iSCSI unter Linux nicht dafür, während der Microsoft Initiatior sich mit einer (irreführenden) Fehlermeldung, aber völlig zurecht, beschwert.

Nach der Korrektur der Namen in test01 und test02 gehe ich hin und konfigurere auf meiner zweiten Maschine den Initiator.

Discovery mit SendTargets war kein Problem, aber nach dem Login auf das Target passiert gar nichts. Keine neue Platte, kein Blockdevice, lediglich die lapidare Meldung, dass es jetzt scsi2 als Host-Adapter gibt.

Verdächtig, aber kann ja ein Problem mit Linux sein.

Als dann der Microsoft Initiator ebenso zwar einen neuen Host einbindet, aber auch kein Volume anbietet, habe ich genug.

Ich werfe Openfiler vom System, installiere in einfaches Debian Etch, installiere das iscsitarget und konfiguriere mein LV und die ietd.conf von Hand und siehe da: Es geht.

Sorry, Openfiler, aber du bist meiner Ansicht nach noch nicht reif.

Die Webseite sagt "Openfiler is a serious tool meant for professional systems administrators with a keen desire for the ability manage network storage in an efficient and cost-effective manner.", aber dem kann ich nicht zustimmen.

Wenn Bug-Reports seit Monaten unbeantwortet sind, sich die Entwickler kaum im Forum präsent zeigen und sich auf den "Send money, get answer"-Standpunkt zurückziehen, dann kann ich das Projekt nicht ganz ernst nehmen.

Desweiteren heißt es: "Openfiler allows you to build a Network Attached Storage (NAS) [...] in less than 10 minutes of installation time."

Mag sein, aber ich das Debian Etch war auch in 20 Minuten installiert und in weiteren 20 Minuten konfiguriert und einsatzbereit.

Hier zum Abschluss noch ein Ergebnis von bonnie++ mit meinem derzeitigen komplett unoptimierten Testaufbau:

Version 1.03b       ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
init 4G 26029 20 17701 9 40078 11 198.1 0
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files:max:min /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
1024:40000:800/256 884 19 317 2 12177 52 876 19 53 0 277 1

SAN?

Stichwort SAN-Technik: Was nimmt man da im professionellen Umfeld, vor allem, wenn man flexibel sein will?

FibreChannel? Recht großer Investitions-Aufwand, mindestens 800€ pro Server für den FC-HBA, dann noch die Verkabelung, evtl. sind neue Fasern nötig, die FC-Switche sind auch nicht billig und die Kosten pro Port liegen irgendwie zwischen 400€ und 800€, je nach Leitungslänge und Anbieter. Überhaupt scheint jedes Fitzel an Feature mit einer Extra-Lizenz belegt zu sein.

Oder doch lieber iSCSI? Läßt sich mit normalen Ethernet-Switchen verteilen, bei Servern ohne große Last reicht ein Software-Initiator, ist im Zweifelsfalle "überall" im Netz verfügbar, notfalls gibt es aber auch Hardware-Initiatoren zu kaufen. Dafür wird iSCSI nachgesagt, langsam zu sein und nicht den benötigten Durchsatz zu liefern, einen großen Overhead zu haben.

Wem soll man glauben? Und was soll man kaufen? Netapp? Hitachi? EMC? EqualLogic?

Fragen, Fragen, Fragen...

Regenbögen in der IT

Das ist doch mal nett: http://www.milw0rm.com/exploits/4309.

Ich habe es immer gesagt: Web-CMS sind gefährlich. Umso gefährlicher, wenn man unkontrollierbaren externen Code dazu packen kann, wie es bei Joomla/Mambo z.B. sehr einfach über den eingebauten Installer möglich ist. Ruckzuck hat der unbedarfte Admin/Seitenbetreuer ein eigentlich sicheres System mit Löchern versehen, gegen die Scheunentore klein aussehen.

Der obige Exploit, kombiniert mit einem Rainbowtable-Lookup (Google hilft!) für den gelieferten MD5-Hash, ermöglicht ungeahnte Zugriffsmöglichkeiten auf nahe zu jede Joomla-Instanz mit installierter Eventlist-Component.