Seit neuestem kann die Nokia-eigene Navigationssoftware Ovi Maps inklusive Kartenmaterial(!) zeitlich unlimitiert kostenlos genutzt werden.  Das Programm funktioniert auf derzeit 10 aktuellen Nokia-Modellen mit GPS-Empfänger, ab März 2010 sollen alle anderen Symbian-Geräte unterstützt werden. Bisher war die Applikation ein Abo-Dienst, der offenbar nur spärlich gebucht war. Im Webwork-Magazin wird auch über die mutmaßlichen Gründe für den Schritt zum Gratistool berichtet. Gratis ist übrigens nur Version 3.0 der Maps – die Version 2.0 auf älteren Geräten ist (theoretisch) noch kostenpflichtig, praktisch sind die Aktualisierungsserver laufend nicht erreichbar.

Auf meinem E51 funktionierts leider noch nicht, weil dafür derzeit nur 2.0 als Download angeboten wird – ich muß bis März warten…

Update 3.2.2010: dankenswerterweise wurde mir ein Nokia N97 zur Verfügung gestellt, mit dem ich Ovi Maps testen konnte. Der Download und die Installation der Kartenanwendung verläuft problemlos. Etwas gestört hat mich, daß bei Neuinstallation der eigentlichen Karten mit dem Map Loader nicht nachgefragt wird, welche Karten man denn überhaupt am Handy haben möchte, sondern sofort mit dem Download (seltsamerweise von Italien-Kartendaten) begonnen wird. Diesen muss man abbrechen, dann kann man sich gezielt die Karten aussuchen, die man braucht. Ausserdem werden die Karten jedesmal neu aus dem Netz geholt, selbst wenn man sie nur 5 Minuten später auf ein zweites Handy installieren möchte. Hier ist also noch ein wenig Feintuning von Nokia gefragt.

Da das Nokia N97 keinen GPS-Empfänger eingebaut hat, habe ich probiert, meinen treuen iBlue 747A+-Bluetooth-Empfänger mit dem Handy zum Laufen zu bringen. Wenn man einmal die Option gefunden hat, daß die Standortbestimmung auch via Bluetooth-GPS möglich sein darf, funktionierts problemlos. Der 747A+ hat sich schon in Zusammenarbeit mit meinem E51 bestens bewährt und liefert selbst im Handschuhfach des Autos genug GPS-Signalstärke, um zuverlässige Positionsdaten ans Handy zu liefern. Die Kartensoftware selbst bietet alle Optionen, die man von einem aktuellen Navi erwarten würde, inkl. Nachtmodus und Verkehrsinfo mit entsprechender Berechnung von Alternativrouten. Auch Tempowarnung bei Überschreitung der aktuell zulässigen Höchstgeschwindigkeit und Warnung vor fixen Radarboxen gehört zum Standardumfang. Die Ansagen erfolgen auf Wunsch mit Strassennamen und sind rechtzeitig und punktgenau. Einzies Manko: der Handy-Akku ist bei Navi & Bluetooth-Betrieb naturgemäß rasch leer, weil ja (bei Betrieb im Auto natürlich sinnvoll) das Display ständig eingeschaltet bleibt. Ein Autoladekabel ist also eine lohnende Investition.
Demnächst wird die Navi-Funktion für Fußgänger getestet – Updates dann wieder hier!

Update April 2010: natürlich ist das Blödsinn, daß das N97 mini kein GPS eingebaut hätte. Es hat natürlich einen eingebauten GPS-Empfänger. Habs nur nicht gefunden, wie man den aktiviert…
So gehts: man startet das Programm “Standort”, geht dort auf “GPS-Daten” und dann auf “Optionen”.  Dort findet man “Standort-Best. einstellungen”, dort dann “Bestimmungsmethoden”. Dort alles deaktivieren bis auf “Integriertes GPS” und “Netzbasiert”. Dann navigiert das N97 mini auch problemlos ohne externen GPS-Empfänger. Lediglich bei der ersten Positionsbestimmung kann es schon mal 10 Minuten dauern, bis das Telefon alle nötigen Infos von den Satelliten gesammelt hat. Danach dauerts meist weniger als 3 Minuten, bevor das Gerät seine Position kennt.

Ein kurzer, aber dennoch hervorragender Artikel erschien letztens bei DrWeb.de: der Autor Philip Bolting erklärt unter dem Titel Die CMS-Falle, warum seiner Meinung nach ein Content Management System für viele Website-Inhaber gar keine so gute Idee ist. Kurzform des Artikels: Viele Auftraggeber wollen ihre Website selbst pflegen und dafür ein CMS haben, nur wenige sind aber tatsächlich dazu in der Lage, weil es an Erfahrung im Texten und Bebildern fehlt und die Kundensicht auf die Website ausser Acht gelassen wird.

Dabei hatte der Auftraggeber doch unbedingt ein CMS haben wollen, um bei Aktualisierungen nicht auf Dritte angewiesen zu sein. Verzichtet hat er damit aber auch auf einen Berater und Begleiter. Jemanden, der rechtzeitig an die Aktualisierung der Homepage erinnert. Der die Kundenbrille aufsetzt und die Ziele der Internetpräsenz im Blick behält. Texte kritisch prüft und umschreibt, Bilder webgerecht aufbereitet, Server-Logs auswertet, sinnvolle Erweiterungen vorschlägt.

Ich würde das Problem aber nicht an der Frage “CMS – ja oder nein” festmachen. Denn auch CMS-lose Websites bleiben ungepflegt, wenn der Webworker nicht von sich aus dahinter ist, seine Kunden zur Pflege zu animieren. Und diese Pflicht zur Erinnerung bleibt einem guten Webworker auch, wenn der Kunde als Website-Betreiber selbst Inhalte erstellen und einspielen will. Die Erfahrung hat gezeigt, daß die Freude an der Selbstwartung oft nach einiger Zeit von selbst stark zurückgeht und die Kunden trotz CMS froh sind, wenn sich jemand drum kümmert, der sich auskennt.

Beim Stöbern im Artikel Stupid WordPress Tricks bin ich auf einen älteren, aber deshalb nicht minder nützlichen Artikel auf Perishable Press gestossen: in Stupid .htaccess Tricks aus dem Jahr 2006 kann man fast mehr über die Möglichkeiten lernen, die sich mit .htaccess-Dateien umsetzen lassen als in einem entsprechenden Wochenendseminar.

Jeffrey Martin, ein passionierter Panoramafotograf und Gründer von 360cities.net hat einen Meilenstein der Panoramafotografie abgeliefert: das größte sphärische Panorama der Welt, aufgenommen von der Spitze des Zizkov-Fernsehturmes in Prag. Das zugrunde liegende Bild, das aus hunderten Einzelbildern zusammengesetzt wurde, ist 192.000 Pixel breit und 96.000 Pixel hoch. Das entspricht 18,4 Giga(!)pixel. Wenn man das Bild in üblicher Fotoauflösung drucken würde, wäre es 16 Meter breit und 8 Meter hoch.
Die Technik dahinter ist weniger spektakulär als zeitraubend: die Bilder wurden mit einer digitalen Spiegelreflexkamera (Canon 5d MkII) mit einem 70-200mm-Teleobjektiv geschossen, das fix auf 200 Millimeter Brennweite eingestellt wurde. Die Kamera wurde auf einem speziellen Stativ befestigt, das in präzisen Schritten die Kamera in alle Richtungen automatisch weiterbewegt. Insgesamt entstanden so mehr als 40 Gigabyte an Bildern. Diese Bilder wurden mit PTGui zu einem Panoramabild zusammengesetzt und danach in Photoshop weiterbearbeitet, wo Kontrast und Schärfe nachkorrigiert wurden. Vom Laden der RAW-Bilder in den PC bis zum fertig zusammengesetzten Panoramabild brauchte es eine Woche Arbeitszeit. Weitere 3 Wochen dauerten die Feinkorrekturen am Bild.
Als Hardware diente ein etwa 3 Jahre alter PC mit zwei 3-Ghz-Xeon-Prozessoren und 8GB Hauptspeicher. Dieser war eindeutig an der Grenze seiner Leistungsfähigkeit. Zitat am Blog von 360cities:

“After a week of frustration, I also bought an SSD, which helped to speed up some tasks a bit. If I will make this image again, I will buy a new computer.”

Das fertige Bild ist als 120 Gigabyte großes PSB-File gespeichert, ein spezielles Photoshop-Format für sehr große Bilder. Als TIFF oder JPG ist eine Speicherung nicht möglich – dafür sind diese Datenformate nicht ausgelegt. Für die Online-Version wurde das Bild in “etliche hunderttausend” JPG-Kacheln zerschnitten, die insgesamt etwa 1 Gigabyte Webspace benötigen und von denen nur die geladen werden, die für den aktuell betrachteten Bildausschnitt nötig sind.

Eine interessante Visualisierung war letztens auf axiis.org zu finden. Das ungewöhnliche Schaubild zeigt die Marktanteile verschiedener Browser von Jänner 2002 bis heute. Die einzige Browser-Version, der sich die ganze Zeit über in nennenswerten Marktanteilen (bis heute!) gehalten hat, ist das Krüppel Internet Explorer 6, bis heute ein Stolperstein für Webdesigner. Leider wird er in vielen Firmennetzwerken nach wie vor als Standardbrowser verwendet. Schön zu sehen ist auch der rasche Tod des AOL-Browsers, der stetig wachsende Anteil von Google Chrome-Nutzern sowie der beachtliche Teil des Kuchens, den sich Mozilla Firefox in den letzten Jahren erkämpfen konnte.
Hier auf meinem Weblog ist die aktuelle Verteilung der Besucher-Browser: 46% verwenden Firefox 3.5, weitere 10% entfallen auf Firefox 3. Der Internet Explorer 6 liegt mit 10% nur knapp hinter dem IE 7 mit 12% und dem IE8, den 19% meiner Seitenbesucher verwenden. Die restlichen am Markt vertretenen Browser verlieren sich in statistischer Unschärfe.

Leser meines Weblogs sind manchmal schneller informiert als anderswo. Bereits am Sonntag sind mir weitere Ungereimtheiten bei der Vergabe der deutschen Kurzdomains mit nur zwei Stellen aufgefallen. Denn auffallend viele der neuen Domaineinträge gehören “Firmen”, die offenbar ausschließlich zum Zweck gegründet wurden, eine .de-Domain anzumelden. Seltsamerweise haben alle diese Firmen dieselbe Firmenadresse in 33755 Clearwater, USA und denselben technischen Ansprechpartner in Deutschland – die Firma Tec Media Service. Die Adresse für diese 193 Firmen ist ein 80-Quadratmeter-Appartment, wie ich bereits ebenfalls für meinem Artikel herausgefunden hatte – ein Schelm, wer Böses dabei denkt.
Heute kam die Story bei heise.de unter dem Titel “.de-Kurzdomains in die USA abgezogen”. Unter anderem heisst es dort:

Die Registrierungen für die vom Dienstleister Bionic/Tec-Media-Service/Hexonet registrierten 193 Kurzdomains wurden inzwischen in die USA abgezogen, und zwar nach 625 Keene Road, Clearwater, Florida. Die rund 200 Domaininhaber, allesamt frisch eingetragene Briefkastenfirmen mit klangvollen Namen wie BJ Oral Diseases Incorporated bis zu QI Quadruple Investments International Incorporated, dürften wohl bald ihr einziges Asset, die zugehörige bj- oder qi-Domain, wieder auf den Markt bringen.

All das wussten meine Leser bereits vor drei Tagen. Ich weiß, das ist kindisch, aber mich freut das trotzdem, wenn ich schneller als heise.de bin :-)

Seit Freitag darf man in Deutschland auch ein- und zweistellige Domainnamen sowie Domainnamen, die nur aus Ziffern bestehen, registrieren (bisher war die Mindestlänge 3 Zeichen, Domainnamen ausschließlich aus Ziffern waren überhaupt nicht erlaubt, egal in welcher Länge). Wie zu erwarten war, sind bereits alle ein- und zweistelligen Buchstabendomains vergeben. Es ist eine Liste aufgetaucht, in der angeblich die Inhaber all dieser Domains zusammengestellt sind (was sich als unrichtig herausgestellt hat).

Beim ersten Blick auf diese Liste dachte ich: “Wer bitte ist Thomas Mueller?”, der bei immerhin 193 der 702 gelisteten Domains dabeisteht und damit weit öfter vorkommt als andere Namen in dieser Liste. Etwas Recherche bei denic.de hat dann gezeigt, dass es sich bei den in der Liste angeführten Personen, also auch bei Thomas Mueller “nur” um die technischen Ansprechpartner der Domains handelt, in seinem Fall in Form der Firma Tec Media Service. Seltsam jedoch: wenn man einige der dieser Firma zugeordneten Domaineinträge durchgeht (etwa tu.de, to.de, tq.de, ei.de, zn.de), so zeigt sich, dass die eingetragenen Besitzer jeweils Firmen mit derselben Adresse in 33755 Clearwater in den USA sind. Nur der Firmenname unterscheidet sich jeweils zur Domain passend (so gehört tu.de einer “TU Trumpets United Manufacturers Corp”, die Domain ei.de der “EI Experience India Travel Agency Corporation” und to.de ging an die “TO Travel Organization Corporation”, ebenfalls mit derselben Firmenadresse). Und jede Wette, an dieser Adresse wohnen auch noch eine Menge andere Firmen, die eine zweistellige Domain bekommen haben.
Müsste ein großes Firmengebäude sein, dass in Clearwater in 625 Keene RD N steht, das Platz für so viele Firmen bietet, die alle in Deutschland geschäftlich zu tun haben und daher dort eine Domain brauchen. Es könnte natürlich auch schlichtes Domaingrabbing mit anschließender Versteigerung an den Meistbietenden sein. Da es sich bei der angegebenen Adresse aber offenbar um ein 85-Quadratmeter-Appartment im Wert von grade mal 75.000 US$ handelt, spricht viel für diese Theorie. But – who knows…

Auch sonst dürfte bei der Vergabe der Kurz-Domains nicht alles mit rechten Dingen zugegangen sein. Das Webwork-Magazin spricht von “Lug und Betrug bei der Domainvergabe” und auf focus.de gibts ebenfalls Hintergründe zur diesmal mehr als seltsamen Vergabepraxis zu lesen. Es wurden nämlich auch schon vorab Domainnamen einfach von der öffentlichen Vergabe ausgeschlossen und gesperrt, teils auf Betreiben der denic selbst, teils aufgrund von markenrechtlichen Verfügungen. Dominik Muellers Artikel zum Thema hatte die passende Überschrift: “28% of one- & two-letter .DE domains grabbed by one company”.

Würde mich nicht wundern, wenn die denic da noch nachträglich Erklärungen abgeben wird müssen, warum die Vergabe derart stümperhaft und intransparent organisiert wurde. Sieht alles danach aus, als hätten sich da einige Wenige fett die Taschen füllen können.

Seit dem Update auf iTunes 9 konnte ich nix mehr im iTunes-Store einkaufen, denn alle fettgedruckten Texte waren plötzlich nur mehr Buchstabensalat (Screenshot). itunes_storeEine Anfrage beim Apple-Support war herzlich sinnlos, denn dort wusste man auch keinen Rat, außer iTunes zu deinstallieren und neu zu installieren (was ich natürlich schon hinter mich gebracht hatte). Und man meint, um “wertvolle Tips und Tricks zur Fehlerbeseitigung zu erhalten, durchstöbern Sie die große Auswahl von technischen Artikeln unter …” – leider waren die Tipps dort für das Shop-Problem eher wertLOS, weil in der Wissensdatenbank dieses Problem schlicht nicht genannt wird. Ich tippte auf ein Problem mit der verwendeten Schriftart, wusste jedoch nicht, wie ich es lösen sollte (weil ich auch nicht sicher wusste, welche Schriftart im Shop eingesetzt wird).
Ein Eintrag im englischen Apple-Forum hat mich schließlich auf die richtige Spur gebracht, denn ich dürfte nicht der einzige mit diesem Problem sein: offenbar werden gemeinsam mit iTunes die nötigen Schriftarten mit installiert, sofern sie sich noch nicht auf dem System befinden. Dabei landet eine uralte Type-1-Version der Schriftart Helvetica auf dem Rechner. Diese wird dann auch im Shop verwendet und ergibt den Effekt, dass alle Zeichen genau um eine Stelle versetzt angezeigt werden. Ich habe nun in der Systemsteuerung unter Schriftarten alle diese Type-1-Helvetica-Varianten deinstalliert – und prompt geht der Shop wieder einwandfrei. Wenn man nicht gerade Grafiker ist und die Schrift zur täglichen Arbeit braucht, so hat das keine weiteren Konsequenzen. Und wenn doch – Schrift als OpenType oder Truetype-Font organisieren und neu installieren.

Max Kossatz aus Wien hat den Fahrplanserver der Wiener Linien so lange mit via Perl-Scripts automatisierten Anfragen gequält, bis er eine vollständige Datenbasis aller fahrplanmäßigen Bewegungen der Busse und Strassenbahnlinien von Wien ermittelt hatte (Details zur technischen Umsetzung findet man in seinem Artikel). Immerhin entstand so eine Datenbank mit 1048 Haltestellen von 44 Buslinien, 29 Straßenbahnlinien und 18 Nightline-Bussen, die innerhalb von 24 Stunden 510.026 Mal angefahren werden. Diese Daten hat er geocodiert und in einem Youtube-Video visualisiert – das Resultat ist eindrucksvoll.

Ich denke man bekommt ein Gefühl dafür wie wichtig und logistisch aufwendig der öffentliche Nahverkehr ist und das dieser ruhig etwas kosten darf!

Am schönsten ist das Video in hoher Auflösung als Vollbild!

Das zugehörige Weblog “Wissen belastet” findet sich schon länger in meiner täglichen Leseliste, denn dort finden sich öfter ungewöhnliche Analysen (vor kurzem aktuell etwa die Wahlprogramme der bundesdeutschen Parteien als Tag-Cloud) und wirklich knackige Kommentare – eine echte Leseempfehlung.

Sven Tilburg hat in seinem Artikel im webwork-magazin.net in 10 Punkten zusammengefasst, wie man kreativ und produktiv zugleich sein kann – diese Auflistung sollte sich jeder Webworker ausdrucken und an die Pinnwand heften.