letzte Kommentare Was soll das hier?


03
Oktober
JBoss OneDayTalk 2010
Kurzer Rückblick auf den JBoss OneDayTalk am 2010-10-01 in München.

Vornweg - die Veranstaltung war super organisiert! Danke an die Jungs von der JBoss User Group München.

Wenn man Adam Bien glauben mag, dann ist JEE6 das Beste seit geschnitten Brot. Das mit dem Glauben fällt nach einem Vortrag von ihm ziemlich leicht. In ein paar Minuten ist eine einfache Demo-App zusammengeschrieben. Kein umständliches Konfigurieren mehr und Redeploy Turnarounds von wenigen Sekunden. Da macht das Kodieren wieder Spass. Ich werde mich mit dem Thema in naher Zukunft mal auseinander setzen.

Thematisch in eine ähnliche Richtung sollte für mich auch der Vortrag zum Thema "Wicket/EJB3/Hibernate" von Michael Plöd gehen. Leider ist der ausgefallen. Schade denn das Zusammenwirken hätte mich bei meinem aktuellen Fokus auf Wicket sehr interessiert. Als Ersatz hat Emmanuel Bernard seinen Vortrag zu Bean Validation gehalten. Mit dem Thema hatte ich mich vorher noch nicht befasst. Von daher war ich gespannt. Enttäuscht wurde ich nicht. Bean Validation könnte die Prüfung von Daten in Applikationen vereinfachen bzw. vereinheitlichen. Ein anderer Teilnehmer hat das in seinen eigenen Wicket-Projekten auch schon eingesetzt. Auch Emmanuel empfahl in seinem Vortrag eine Verwendung in Frameworks wie Tapestry oder Wicket.

Zum Thema Persistenz gab es noch zwei interessante Sessions: Envers und ein Roundup zu den neuen Features in Hibernate. Das Hibernate Framework Envers nimmt sich dem Thema Auditing und Versionierung von JPA-Entitäten an. Versionierung wird durch Konfig-Einstellungen und Annotations aktiviert und kann sehr flexibel und feingranular beeinflusst werden. Envers und Bean Validation fanden auch nochmal Erwähnung bei den neuen Hibernate Features. Weitere Erwähnung fand ebenfalls Hibernate Search. Es scheint, dass in Zukunft Hibernate die DB nur noch als reine Datenablage sieht und Dinge wie Auditing, Suche über dem Datenbestand, Validierung von Daten selbst übernimmt. Referenzen zwischen den Daten und Constraints sind ja bei Hibernate bzw. JPA schon ein alter Hut. Aus Sicht des Applikationsentwicklers ist das alles eigentlich kein schlechter Ansatz.

Was gabs noch? Performance Testing von Applikationen. Ein Projektbericht über die Einführung neuer Technologien in Legacy-Umgebungen. BPMN.

Die Situation bei den verfügbaren OpenSource-Tools fürs Performance Testing ist eher bescheiden. Volker Bergmann hat das Thema gut beleuchtet. Ihm blieb letztendlich nichts anderes übrig, als eigene Tools zu schreiben. Vorhandene Tools kosten entweder im mehrstelligen Bereich, sind veraltet oder nur auf begrenzte Szenarien anwendbar. Das Thema ist leider in den Projekten noch nicht angekommen. Performance Tests sind leider teuer (Daten anonymisieren, Daten in Testumgebung übertragen, adäquate Umgebung bereitstellen und und und) und wenn alles gut geht mehr oder weniger nutzlos gewesen. Volker Bergmann verglich das mit Versicherungen für die man relativ viel zahlt, die man im Normalfall nicht in Anspruch nimmt und einem aber im Falle des Falles den Arsch retten können.

Der Projektbericht von Rubén Pares-Selders ging über den Einsatz von JRuby/Rails in gut abgehangenen Umgebungen (z/OS, WebSphere, DB2). Das Problem hat man leider recht oft - wie bekommt man neue Technologien in den produktiven Einsatz und wie überwindet man die diversen Hindernisse dahin. Sein Fazit: Einschmuggeln. Einfach mit der neuen Technologie einen Business Case umsetzen und alle Beteiligten damit überzeugen dass die neuen Technologien weder Teufelswerk sind als auch in die bestehende Infrastruktur passen. Und ausserdem damit noch Dinge realisiert werden können die sonst nur schwierig oder unmöglich sind. Ansonsten braucht man noch wenigstens einen Wohlgesonnenen in der Entscheidungsebene. Gegen alle etwas neues Einzuführen wird nichts. Klingt zu simpel? Ist aber auch nach meiner Erfahrung ein gangbarer Weg. Wenn nicht sogar nur der einzige. Klar, man kann sich epische Diskussionsorgien mit irgendwelchen Entscheidern liefern. Im Zweifelsfalle ziehen die sich aber wieder auf den üblichen Standpunkt zurück: wir bleiben bei dem was wir kennen, damit sind wir auf der sicheren Seite und wir machen uns nicht mit irgendwelchen Entscheidungen angreifbar. Ein praktischer Showcase lässt sich dagegen aber nicht mehr einfach so vom Tisch wischen.

BPMN. Hm. An und für sich interessantes Thema. Leider keine eigenen Erfahrungen damit. Sehr angenehm war die unangestrengte Vortragsweise von Bernd Rücker. Er versucht nicht BPMN als den Heilsbringer schlechthin zu verkaufen sondern zeigt sehr gut die Möglichkeiten des Einsatzes.

 
 
13
März
Chemnitzer Linux-Tage 2010
Leider nur am Samstag Zeit für den CLT 2010 gehabt.
  • Vortrag über OpenVPN. Guter Überblick über das Thema und einige Enblike aus der Praxis. Ich hab ein paar Anregungen mitgenommen um unserer Infrastruktur einerseits sicherer zu machen und auf der anderen Seite mehr Komfort zu bieten.
  • Kinderbetreuung im "Kinderparadies" ist großartig. Super Job, den die Mädels da tun. Ich hatte Problem die Kids von dort wieder zum Aufbruch nach Hause zu bewegen.
  • Sperriges Thema "Die Pflicht zur revisionssicheren E-Mail-Archivierung". Zum einen ist die Gesetzeslage recht schwammig und zum anderen rennt man auch noch der technischen Entwicklung hinterher. Letztendlich kann man nur das machen, was man für das richtige hält und bei einer Revision hoffen, dass die Prüfer einigen technischen Sachverstand mitbringen.
  • Mit F. Kronlage am Stand von bytemine über deren Appliances im Allgemeinen und die Einbindung von iPhones via VPN im besonderen geredet. Sie verwenden IPSec-Tunnel und haben einen kompetenten Kollegen der das in OpenBSD gehackt hat. Ausserdem doch einen schickes Mini-Mainboard mit Metallgehäuse gesehen.
  • Phonalisa angeschaut. Ist ein Fork von Gemeinschaft. Während Gemeinschaft im Moment eher einen kommerzielleren Weg geht will Phonalisa den Community-Gedanken mehr im Vordergrund haben. Auf alle Fälle mal im Auge behalten zumal einige Dinge für Phonalisa sprechen (richtige Debian-Pakete, Ausrichtung an der Standard-Filestruktur,...).
  • Bei den Hardewarebastlern reingeschaut und gehört was die zu der Möglichkeit sagen, einem ATMEGA-basierten Microserver SNMP zur Sensorabfrage beizubringen. Dabei auf eine alternative Firmware aufmerksam gemacht worden.
Fazit: viele Ideen und Anregungen mitgenommen. Schade, dass der Sonntag schon anderweitig verplant ist.

 
 
26
Januar
Spass am Gerät
Konnte mich heute morgen nicht zurückhalten und musste mal testen, ob und wie man Text in Sprache umwandeln kann und das ganze an den icecast-Server weiterreicht:

erster Test

Die erste Wahl für eine Text2Speech-Engine wäre wohl festival gewesen. Leider braucht die ewig, ehe der Text als Audio beginnt hinten rauszufallen und weiterverarbeitet werden kann. In der Zwischenzeit ist die Verbindung zum Streaming-Server schon wieder wg. Timeout gestorben.

Deshalb im Moment folgendes Setup:
  • espeak zum "Vorlesen"
  • oggenc zum Kodieren des WAV-Streams von espeak
  • oggfwd zum Weiterleiten des Streams an den icecast-Server
Todo: mal überlegen, ob man damit auch was Sinnvolles anfangen kann.

 
 
Audio-Server
Erste Schritte gemacht um alles was hier auf diversen Rechnern an Musik und Hörbüchern rumfliegt an einer Stelle zu konsolidieren und von dort aus verfügbar zu machen.

Dazu auf dem nicht sonderlich beanspruchten Backup-Server mpd eingerichtet. Damit kann ich zusammen mit Clients auf verschiedenen Plattformen (Theremin, Gmpc oder mpod) zumindest schonmal an einer Stelle die Ausgabe steuern.

Im nächsten Schritt auf der Kiste noch einen icecast-Server installiert und damit die Möglichkeit von überall her auf die aktuelle Playlist hörend zuzugreifen.

Jetzt brauch ich nur noch ein paar einfache Streaming-Clients (WLAN, integr. Verstärker), die ich strategisch im Haus verteilen kann (Tipps und Hinweise, auch für einen Selbstbau, werden gerne angenommen).

 
 
22
November
Backup für Zuhause - Server
Als Fileserver nutze ich im Moment das, was gerade da war
  • Asus EEEPC 701
  • 2 USB-Platten 500 GB von WD
Auf dem EEEPC läuft der Netbook-Remix von Ubuntu 9.10. Die beiden Festplatten sind als RAID0-Array eingebunden. Über netatalk werden die Homeverzeichnisse als AFP-Shares freigegeben. Damit ist der Zugriff für die Mac-Clients gesichert. Die Ubuntu-Clients können ihre Daten via scp oder rsync abwerfen. Für Windows-Clients sind die Homeverzeichnisse via Samba verfügbar.

Damit ist das Setup im Groben schon beschrieben.

Zusätzlich zu den Dateifreigaben hängt an der Kiste noch ein Drucker der für die ganzen Clients zur Verfügung steht. Leider klemmt können im Moment nur die Ubuntu-Clients drauf zugreifen.

Einrichtung RAID0-Array
Im Großen und Ganzen hab ich mich an der Anleitung unter [1] entlangehangelt.
  1. HDs partitionieren: mit fdisk beide Platten identisch partitioniert und Typ auf "FD" (Linux raid autodetect) gesetzt. Beide Platten sind in je zwei Partitionen a 250 GB unterteilt
  2. Arrays mit mdadm --create --verbose /dev/md0 --level=0 --raid-devices=2 /dev/sdb1 /dev/sdc2 bzw. mdadm --create --verbose /dev/md1 --level=0 --raid-devices=2 /dev/sdb2 /dev/sdc1initialisiert und ganz normal mit mkfs... formatiert. Wichtig, nach der Installation nochmal mit mdadm --detail /dev/mdX die UUID der Arrays rausholen und irgendwo merken. Damit kann ich im Weiteren die Arrays automatisiert einbinden bzw. direkt mit mdadm -A /dev/mdX -u auf anderen Rechnern einbinden.
  3. mit Einträgen in /etc/mdadm/mdadm.conf kann dann das Initialisieren der Arrays beim Systemstart realisiert werden: ARRAY /dev/mdX level=raid1 num-devices=2 UUID=wwwwwwww:xxxxxxxx:yyyyyyyy:zzzzzzzz
  4. das automatische Mounten erledigt dann noch fstab
Freigabe via netatalk
Obwohl gelegentlich die Empfehlung gegeben wird netatalk aus den Quellen in der aktuellsten Version zu installieren hab ich die normalen Ubuntu-Pakete verwendet. Bisher funktioniert es damit recht unproblematisch. Zumindest der Client mit OS X Leopard arbeitet bisher problemlos. Basis meiner Installation waren die Informationen unter [2]
  1. sudo aptitude install netatalk avahi
  2. Anpassung von Konfigurationdateien
    • /etc/netatalk/AppleVolumes.default: pro freizugender File-Resource ist eine Zeile einzubinden: $pathToResource $nameOfShare allow:$username cnidscheme:cdb options:usedots,uprivb. Dabei ist $username ein Systemnutzer auf dem Fileserver. Dessen Credentials werden beim mounten der Freigabe auf dem Client abgefragt.
    • um den Mac-Clients die Suche nach den Resourcen zu vereinfachen werden vom Fileserver seine Resourcen via Avahi/Bbonjour annonciert. Dazu muss die Datei /etc/avahi/services/afpd.service folgenden Inhalt haben:
      <?xml version="1.0" standalone='no'?><!--*-nxml-*-->
      <!DOCTYPE service-group SYSTEM "avahi-service.dtd">
      <service-group>
      <name replace-wildcards="yes">%h</name>
      <service>
      <type>_afpovertcp._tcp</type>
      <port>548</port>
      </service>
      <service>
      <type>_device-info._tcp</type>
      <port>0</port>
      <txt-record>model=AirPort</txt-record>
      </service>
      </service-group>
      Die Angabe bei model=... definiert, mit welchem Icon der Server in der Resourcen-Liste des Mac auftaucht. Möglich sind hier beispielsweise AirPort oder Xserve


[1] http://linuxgazette.net/151/weiner.html
[2] http://www.kremalicious.com/2008/06/ubuntu-as-mac-file-server-and-time-machine-volume/

 
 
Backup für Zuhause
Nachdem in letzter Zeit ein paar Daten wg. eines Plattencrashs verlustig gegangen sind und sich auf der anderen Seite die Rechnerdichte im Haushalt drastisch erhöht muss langsam eine brauchbare Backup-Strategie her.

Brauchbar heisst in dem Zusammenhang folgendes:
  • kompatibel zur aktuellen Haushaltlage
  • möglichst automatische Backups der verwendeten Clients, als da wären
    • MacBook mit OS X SnowLeopard
    • iBook mit OS X Tiger
    • diverse Laptops mit Ubuntu
    • ab und an ein Windows-Laptop
  • unproblematische Erweiterbarkeit des Speichervolumens auf dem Backup-"Server
  • geringer Stromverbrauch
  • geringer Platzbedarf
Die nachfolgenden Blog-Posts werden sich mit dem Aufbau des Servers und den Backup-Implementierungen auf den Clients beschäftigen. Ideen, Fragen und Vorschläge in den Kommentaren sind gerne willkommen.

Die Posts dienen auch (eigentlich ja in der Hauptsache) als Gedankenstütze für mich selbst um auch in ein paar Monaten noch zu verstehen, was ich da zusammengebaut habe.

 
 
01
Juli
Passiert...


=

+


 
 
Online for 2880 days
Last update: 2010.10.03, 21:31
status
You're not logged in ... login
menu
search
 
calendar
November 2014
Mo
Di
Mi
Do
Fr
Sa
So
 
 
 
 
 
 1 
 2 
 3 
 4 
 5 
 6 
 7 
 8 
 9 
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
 
 









Weblog Commenting and Trackback by HaloScan.com