letzte Kommentare | Was soll das hier? |
03
Oktober
JBoss OneDayTalk 2010
Kurzer Rückblick auf den JBoss OneDayTalk am 2010-10-01 in München.
Vornweg - die Veranstaltung war super organisiert! Danke an die Jungs von der JBoss User Group München. Wenn man Adam Bien glauben mag, dann ist JEE6 das Beste seit geschnitten Brot. Das mit dem Glauben fällt nach einem Vortrag von ihm ziemlich leicht. In ein paar Minuten ist eine einfache Demo-App zusammengeschrieben. Kein umständliches Konfigurieren mehr und Redeploy Turnarounds von wenigen Sekunden. Da macht das Kodieren wieder Spass. Ich werde mich mit dem Thema in naher Zukunft mal auseinander setzen. Thematisch in eine ähnliche Richtung sollte für mich auch der Vortrag zum Thema "Wicket/EJB3/Hibernate" von Michael Plöd gehen. Leider ist der ausgefallen. Schade denn das Zusammenwirken hätte mich bei meinem aktuellen Fokus auf Wicket sehr interessiert. Als Ersatz hat Emmanuel Bernard seinen Vortrag zu Bean Validation gehalten. Mit dem Thema hatte ich mich vorher noch nicht befasst. Von daher war ich gespannt. Enttäuscht wurde ich nicht. Bean Validation könnte die Prüfung von Daten in Applikationen vereinfachen bzw. vereinheitlichen. Ein anderer Teilnehmer hat das in seinen eigenen Wicket-Projekten auch schon eingesetzt. Auch Emmanuel empfahl in seinem Vortrag eine Verwendung in Frameworks wie Tapestry oder Wicket. Zum Thema Persistenz gab es noch zwei interessante Sessions: Envers und ein Roundup zu den neuen Features in Hibernate. Das Hibernate Framework Envers nimmt sich dem Thema Auditing und Versionierung von JPA-Entitäten an. Versionierung wird durch Konfig-Einstellungen und Annotations aktiviert und kann sehr flexibel und feingranular beeinflusst werden. Envers und Bean Validation fanden auch nochmal Erwähnung bei den neuen Hibernate Features. Weitere Erwähnung fand ebenfalls Hibernate Search. Es scheint, dass in Zukunft Hibernate die DB nur noch als reine Datenablage sieht und Dinge wie Auditing, Suche über dem Datenbestand, Validierung von Daten selbst übernimmt. Referenzen zwischen den Daten und Constraints sind ja bei Hibernate bzw. JPA schon ein alter Hut. Aus Sicht des Applikationsentwicklers ist das alles eigentlich kein schlechter Ansatz. Was gabs noch? Performance Testing von Applikationen. Ein Projektbericht über die Einführung neuer Technologien in Legacy-Umgebungen. BPMN. Die Situation bei den verfügbaren OpenSource-Tools fürs Performance Testing ist eher bescheiden. Volker Bergmann hat das Thema gut beleuchtet. Ihm blieb letztendlich nichts anderes übrig, als eigene Tools zu schreiben. Vorhandene Tools kosten entweder im mehrstelligen Bereich, sind veraltet oder nur auf begrenzte Szenarien anwendbar. Das Thema ist leider in den Projekten noch nicht angekommen. Performance Tests sind leider teuer (Daten anonymisieren, Daten in Testumgebung übertragen, adäquate Umgebung bereitstellen und und und) und wenn alles gut geht mehr oder weniger nutzlos gewesen. Volker Bergmann verglich das mit Versicherungen für die man relativ viel zahlt, die man im Normalfall nicht in Anspruch nimmt und einem aber im Falle des Falles den Arsch retten können. Der Projektbericht von Rubén Pares-Selders ging über den Einsatz von JRuby/Rails in gut abgehangenen Umgebungen (z/OS, WebSphere, DB2). Das Problem hat man leider recht oft - wie bekommt man neue Technologien in den produktiven Einsatz und wie überwindet man die diversen Hindernisse dahin. Sein Fazit: Einschmuggeln. Einfach mit der neuen Technologie einen Business Case umsetzen und alle Beteiligten damit überzeugen dass die neuen Technologien weder Teufelswerk sind als auch in die bestehende Infrastruktur passen. Und ausserdem damit noch Dinge realisiert werden können die sonst nur schwierig oder unmöglich sind. Ansonsten braucht man noch wenigstens einen Wohlgesonnenen in der Entscheidungsebene. Gegen alle etwas neues Einzuführen wird nichts. Klingt zu simpel? Ist aber auch nach meiner Erfahrung ein gangbarer Weg. Wenn nicht sogar nur der einzige. Klar, man kann sich epische Diskussionsorgien mit irgendwelchen Entscheidern liefern. Im Zweifelsfalle ziehen die sich aber wieder auf den üblichen Standpunkt zurück: wir bleiben bei dem was wir kennen, damit sind wir auf der sicheren Seite und wir machen uns nicht mit irgendwelchen Entscheidungen angreifbar. Ein praktischer Showcase lässt sich dagegen aber nicht mehr einfach so vom Tisch wischen. BPMN. Hm. An und für sich interessantes Thema. Leider keine eigenen Erfahrungen damit. Sehr angenehm war die unangestrengte Vortragsweise von Bernd Rücker. Er versucht nicht BPMN als den Heilsbringer schlechthin zu verkaufen sondern zeigt sehr gut die Möglichkeiten des Einsatzes.
14
März
Chemnitzer Linux-Tage 2010
Leider nur am Samstag Zeit für den CLT 2010 gehabt.
26
Januar
Spass am Gerät
Konnte mich heute morgen nicht zurückhalten und musste mal testen, ob und wie man Text in Sprache umwandeln kann und das ganze an den icecast-Server weiterreicht:
erster Test Die erste Wahl für eine Text2Speech-Engine wäre wohl festival gewesen. Leider braucht die ewig, ehe der Text als Audio beginnt hinten rauszufallen und weiterverarbeitet werden kann. In der Zwischenzeit ist die Verbindung zum Streaming-Server schon wieder wg. Timeout gestorben. Deshalb im Moment folgendes Setup: Todo: mal überlegen, ob man damit auch was Sinnvolles anfangen kann.
Audio-Server
Erste Schritte gemacht um alles was hier auf diversen Rechnern an Musik und Hörbüchern rumfliegt an einer Stelle zu konsolidieren und von dort aus verfügbar zu machen.
Dazu auf dem nicht sonderlich beanspruchten Backup-Server mpd eingerichtet. Damit kann ich zusammen mit Clients auf verschiedenen Plattformen (Theremin, Gmpc oder mpod) zumindest schonmal an einer Stelle die Ausgabe steuern. Im nächsten Schritt auf der Kiste noch einen icecast-Server installiert und damit die Möglichkeit von überall her auf die aktuelle Playlist hörend zuzugreifen. Jetzt brauch ich nur noch ein paar einfache Streaming-Clients (WLAN, integr. Verstärker), die ich strategisch im Haus verteilen kann (Tipps und Hinweise, auch für einen Selbstbau, werden gerne angenommen).
22
November
Backup für Zuhause - Server
Als Fileserver nutze ich im Moment das, was gerade da war
Damit ist das Setup im Groben schon beschrieben. Zusätzlich zu den Dateifreigaben hängt an der Kiste noch ein Drucker der für die ganzen Clients zur Verfügung steht. Leider klemmt können im Moment nur die Ubuntu-Clients drauf zugreifen. Einrichtung RAID0-Array Im Großen und Ganzen hab ich mich an der Anleitung unter [1] entlangehangelt.
Obwohl gelegentlich die Empfehlung gegeben wird netatalk aus den Quellen in der aktuellsten Version zu installieren hab ich die normalen Ubuntu-Pakete verwendet. Bisher funktioniert es damit recht unproblematisch. Zumindest der Client mit OS X Leopard arbeitet bisher problemlos. Basis meiner Installation waren die Informationen unter [2]
[1] http://linuxgazette.net/151/weiner.html [2] http://www.kremalicious.com/2008/06/ubuntu-as-mac-file-server-and-time-machine-volume/
Backup für Zuhause
Nachdem in letzter Zeit ein paar Daten wg. eines Plattencrashs verlustig gegangen sind und sich auf der anderen Seite die Rechnerdichte im Haushalt drastisch erhöht muss langsam eine brauchbare Backup-Strategie her.
Brauchbar heisst in dem Zusammenhang folgendes:
Die Posts dienen auch (eigentlich ja in der Hauptsache) als Gedankenstütze für mich selbst um auch in ein paar Monaten noch zu verstehen, was ich da zusammengebaut habe.
01
Juli
Passiert...
... ältere Stories
|