Sicher bin ich nicht der einzige der sowas braucht, auf die Schnelle habe ich aber keine Lösung gefunden:

Ich suche nach einem Tool. Dieses Tool sollte lokal über Verzeichnisse mit Webanwendungen wandern (also Serverseitig laufen, es geht mir nicht um Remote Exploits). Also viele Verzeichnisse, in denen mehrere Benutzer jeweils ihre Webanwendungen liegen haben. WordPress, Serendipity, Drupal, Typo3, phpMyAdmin, whatever…

Das Tool sollte wissen wie man herausfindet welche Version der Anwendung da liegt. Und es sollte herausfinden können welche Version die aktuelle wäre. Und dann bei Bedarf eine freundliche Nachricht erzeugen, dass da wohl mal ein Update anstehen könnte.

Gibt es sowas? Oder muss ich das selber basteln?

Google Chart

Google Chart

Ich habe das Tool jetzt schon mehrfach genutzt, daher weise ich mal explizit darauf hin. Vielleicht kennt ist es dem einen oder anderen ja neu…

Mit den Google Chart Tools bietet Google ein echt nettes Werkzeug an, für alle die mal schnell eben einen Graphen brauchen. Man baut sich ‚einfach‘ eine passende URL, und zur Belohnung fällt ein fertiger Graph heraus wenn man die aufruft. Meinen Batman-Nachtrag-Graphen bekommt man zum Beispiel direkt über diese URL. Die kann man dann in Blogs, Foren oder sonstwo als Bild einbinden — natürlich nur wenn keine vertraulichen Daten drin stehen.

Natürlich ist die URL irgendwie ‚ein Kerlchen von erlesener Häßlichkeit‘ (wie mein Mathe-Lehrerin damals zu sagen pflegte (NEIN, nicht zu mir! Zu Termen an der Tafel!! Verdammt!!!)). Damit man sich die nicht manuell aus den Fingern saugen muss gibt es das ChartTool, damit habe ich auch die Graphen gebaut. Damit lassen sich dann auch Venn-Diagramme, Radar-Karten und QR-Codes erstellen. Oder thematische Karten, mit denen man Daten auf einer Landkarte darstellen kann.

Sehr praktische Sache, um mal eben was ‚für online‘ zu visualisieren. Insbesondere wenn man, wie ich, keine Office-Anwendung auf dem Notebook hat.

Bedingt durch günstige Kurse auf eBay ist in der letzten Zeit meine Sammlung von DVDs sprunghaft angestiegen. Sogar einige Blu-Rays tummeln sich mittlerweile in den Stapeln. Gestern hat sich meine bessere Hälfte darüber lustig gemacht dass ich einen Film gekauft habe den wir schon lange in der Sammlung haben. Das waren zwar nur zwei Euro, muss aber trotzdem nicht sein. Mein Siebhirn taugt nachgewiesenermassen kaum als Datenbank, also muss vielleicht was elektronisches her… am Besten webbasiert, damit das flexibel zu nutzen ist. Und mit Integration von Datenquellen wie der IMDB, damit auch Cover und Inhalte angezeigt werden.

Früher hatte ich für den Zweck mal ein Tool namens ‚Power Movie List‘ im Einsatz. Das Projekt scheint aber gestorben zu sein, alle brauchbaren Reste sind offenbar nachhaltig aus dem Netz getilgt worden. Zumindest finde ich nichts mehr. Die einzige Alternative die ich auf die Schnelle dingfest machen konnte ist videoDB. Aber zum einen fühlt sich auch das irgendwie merkwürdig an (kann ich leider nicht begründen), zum anderen ist auch hier der letzte Release anderthalb Jahre her.

Bevor ich jetzt auf eine potentielle Leiche setze frage ich mal in die Runde: sicher hat der eine oder andere mitlesende Nerd auch seine Filme in einer Datenbank. Gibt es da was empfehlenswertes?

Windows erfordert Ihre Anmeldeinformationen

Windows erfordert Ihre Anmeldeinformationen

OK, ich setze mich an einen Windows-Rechner. Hier bin ich schon eine Weile eingeloggt, der Bildschirm ist gesperrt. Ich gebe mein Passwort ein, der Bildschirm ist entsperrt, ich kann wieder arbeiten an der Maus schubsen.

Wer mag ich wohl sein? Rumpelstilzchen?!? :evil:

Ach ja, die Blase ist nach einer Weile rückstandsfrei verschwunden. Keine Ahnung was mir das sagen sollte.

Naja, ein gewisses soziales Verhalten ist im IRL bestimmt eine gute Idee. Online bin ich kein grosser Fan von sogenannten ’sozialen Netzwerken‘. Wenn ich mich umhöre glaube ich aber dass ich mit der Haltung unter den Computer-viel-Nutzern zu einer erstaunlich kleinen Gruppe gehöre. Ich schreibe in ein paar themenbezogenen Foren, lese auch noch in ein paar weiteren. Bookmarks nutze ich äusserst selten, und zu Twitter, Facebook & Co. habe ich einfach keinen Bezug (wobei das bei Facebook und den VZ-Netzen ein allgemeines Gruselgefühl ist, die habe ich noch nie ‚von innen‘ gesehen).

Langer Rede kurzer Sinn: viele Leute nutzen das, deshalb ist hier ab sofort unter jedem Artikel ein Block mit Icons, mit deren Hilfe können die Artikel woanders weiterverwurstet werden. Benutzt habe ich dazu SexyBookmarks, die Installation ist absolut simpel und alles wichtige ist per Oberfläche konfigurierbar.

Ich habe die Dienste eingebunden die in meinem beschränkten Überblick eine Rolle spielen. Fehlt noch was wichtiges?

Eigentlich fühle ich mich in Unix-Shells halbwegs zu Hause. Trotzdem gibt von Zeit zu Zeit eigentlich einfache Situationen die mich verwirren. Heute war es wieder mal so weit: ein Kollege wunderte sich dass eine Datei von einem Skript nicht kopiert wurde. Quelle sowie Ziel waren les- und beschreibbar, also alles in bester Ordnung. Allerdings gab es eine Fehlermeldung, die aber meiner Meinung die Kopie nicht verhindern sollte.

Um das mal einfach nachzustellen:

$ touch quelle log
$ chmod 444 log
$ cp quelle ziel >> log
zsh: permission denied: log

Natürlich ist das Logfile so nicht beschreibbar. Trotzdem hätte ich damit gerechnet dass die Datei kopiert würde. Wurde sie aber nicht. Weder auf AIX in der ksh, noch in anderen Shells die ich auf anderen Betriebssystemen ausprobiert habe. Hätte ich damit rechnen müssen?

Nachdem ich darauf hingewiesen wurde ist mir auch bewusst geworden dass sich mein letzter Beitrag so liest als ob ich ein Problem mit Webkit hätte. Das ist definitiv nicht so. Das ist eine erstklassige Engine, und ich hätte absolut nichts dagegen wenn die auch in den Firefox (mein Standard-Browser) übernommen würde.

Ich weiß auch dass Webkit regelmäßig ganz vorne mit dabei ist wenn es um die korrekte Umsetzung von Standards oder die Performance der Darstellung geht. Webkit war sogar die erste Browser-Engine die ohne Probleme sowohl den Acid2- als auch den Acid3-Test bestanden hat.

Wie gesagt: ich hätte die Engine auch gerne im Firefox. Allerdings muss ich sagen dass dieses Verlangen nicht so groß ist dass ich den Firefox dafür in Rente schicken würde. Der hat — schon alleine durch die Plugin-Geschichten — einfach Vorteile die ich nicht missen möchte.

Dass die Darstellung von pdfmyurl.com ähnlich wie die von MobileSafari nicht fehlerfrei ist dürfte zumindest bei dem Webdienst daran liegen dass da einfach nicht alle Darstellungsmerkmale umgesetzt werden müssen, weil die Ausgabe nun mal nicht interaktiv zum Browsen erfolgt. Könnte ich mir zumindest vorstellen. OK, das erklärt nicht warum die mobil-Version von Safari das nicht umsetzt.

Wie auch immer: ich weiß dass Webkit das besser kann. Nur damit das klar ist… ;-)

Acid2

Acid2

Gestern^WLetzte Nacht habe ich auf einen interessanten Webdienst hingewiesen der einem Webseiten zu PDF konvertiert. Letzte Tage habe ich bei der Arbeit noch Gelegenheit gehabt mich darüber zu wundern wie der IE8 beim ACID3-Test abschneidet (Wer keinen IE zur Verfügung hat kann sich Beispielergebnisse in der Müllhalde ansehen). Also liegt es nah, auch diesen Dienst mal damit zu penetrieren…
Acid3

Acid3

Während ich mich beim aktuellen Windows-Browser über 20 von 100 Punkten lustig machen konnte bringt es dieser Dienst immerhin auf 28. Der Firefox an dem ich gerade sitze schlägt sich wacker mit 94 von 100 Punkten. Acid2 schaffen aktuelle Browser eigentlich ohne großes Aufsehen, auch hier zeigt der Dienst aber schwächen: dass der Smiley auf dem Seitenumbruch landet kann man nicht kritisieren. Wohl aber, dass er eine Brille hat die irgendwie an den Visor von Commander Geordie LaForge erinnert.

Nochmal in der Wikipedia nachgesehen, da entspricht die Ausgabe am ehesten dem Bild das MobileSafari erzeugen würde.

Irgendwie ist das aber auch kein Wunder. Die PDF-Ausgabe von pdfmyurl.com sagt in den Properties dass sie mit einer Software namens wkhtmltopdf gerendert wurde. Das ‚wk‘ im Namen deutet darauf hin dass dieses Tool (und somit der Webdienst) genau wie Safari mit Webkit arbeitet.

Langer Rede kurzer Sinn: Dass das Ding die Acid-Tests nicht mit fliegenden Fahnen besteht ist schade, aber zu verschmerzen. Viel wichtiger ist: ich habe mit wkhtmltopdf ein neues Tool kennengelernt das mir vielleicht nochmal nützlich sein kann. Und wenn jemand bis hier durchgelesen hat, nicht nur ich. ;-)

Klar kann man Webseiten auch zu PDFs machen indem man sie in eine Datei druckt und das entstehende Postscript in PDF konvertiert. Oder direkt mit einem PDF-Drucker. Mit pdfmyurl.com geht es aber auch ohne weitere Werkzeuge. Und zur Not sogar wenn man die gewünschte Seite auf direktem Weg nicht erreichen kann…