Search Engine Optimizing für philatelistische Webseiten

Teil 2 - Die Offline Tools

Autor: Stephan Jürgens, AIJP

Stephan Jürgens

Im ersten Teil dieses Artikels habe ich mir einige Online-Tools aus der SEO Welt angeschaut. Die Bedienung dieser Tools war recht einheitlich: man geht auf die entsprechende Seite, gibt die zu prüfende URL ein und wartet auf das Ergebnis. Dieses versucht man dann zu Interpretieren und die empfolenen Korrekturen umzusetzten. Dieses Vorgehen hat neben vielen Vorteilen auch zwei wichtige Nachteile: zum einen muss die Webseite online sein, zum anderen testen die Online-Tools in den kostenlosen Varianten in der Regel nur eine einzelne URL, viele für die Nutzbarkeit oder die "User Experience" wichtige Dinge lassen sich m.E. so nur unvollständig testen. Die Lösung ist hier, entweder zu Bezahlen oder aber auf Offline-Tools auszuweichen.

Als aus der Programmierung kommender Hobby-Webmaster war und ich bin ich über diese Auswahl ein wenig enttäuscht. Für viele Bereiche von Web-Entwicklung und Betriebs gibt es aktuelle Open-Source-Software oder wenigstens kostenlose propritäre Software. So wie kein User für den Browser bezahlen muß, muß kein Serverbetreiber für die Server-Software bezahlen und kein HTML-Programmierer für einen Editor. Die kostenlosen Programme in diesem Bereichen reichen für "normale" und auch viele Spezialaufgaben vollständig aus - und in der Regel hat man die Auswahl zwischen kostenlosen Programmen mehrerer Anbieter. Im SEO Bereich ist die anders. Nutzbare kostenlose Programme sind dort weitestgehend nicht-existent. Diejenigen, die existieren sind nur für Teilaufgaben des SEO-Tätigkeitsfeldes nutzbar.

Xenu's Link Sleuth

Prüft alles, behaltet das Gute! (1. Thess 5,21)

Anfangen möchte ich mit einem Veteran der Szene: Xenu's Link Sleuth. Der Name ist erklärungsbedürftig. Sleuth ist englisch für Spürhund oder Schnüffler und beschreibt damit recht treffsicher, was dieses Programm macht. Aber was zum Teufel ist Xenu? Diese Frage klärt sich schnell, wenn man sich ein wenig mit Tilman Hausherr, dem Autoren dieser Software beschäftigt. Der Diplom-Informatiker hat sich insbesondere in der Frühphase des WorldWideWeb stark für Meinungsfreiheit und gegen Zensur eingesetzt. Ein damals breit diskutiertes Thema war Scientology und deren Umgang mit Kritikern und Abtrüningen. Scientology, eine vom Science Fiction Autor Ron L Hubbard gegründete Organisation gewährt die Lektüre bestimmter Schriften nur Mitgliedern, die an bestimmte Kursen (gegen entsprechende Kursgebühren) teilgenommen haben. Schon vor dem Tod Hubbards, aber insbesondere nach dem Tod im Jahr 1986, kam es innerhalb von Scientology zu "Machtkämpfen", was dazu führte, dass auch sehr hochrangige Scientologen ausgeschlossen wurden bzw. Scientology verliessen. Einige dieser "Freien Scientologen" hatten Zugang zu sehr geheimen bzw. sehr teuren Dokumenten von Scientology gehabt. Ob es diese "Freien Scientologen" waren, die hinter den Veröffentlichungen, standen, ist nicht geklärt, jedenfalls waren viele Schulungsunterlagen von Scientology im Internet kostenfrei verfügbar. Eine Zeit lang wurde jede Erwähnung von Xenu, was sowas wie das personifizierte Böse gemäß der Scientology Philosophie ist, mit einer Urheberrechtsklage seitens Scientology verfolgt. Ich habe die Benennung dieses Tools als "Xenu's Link Sleuth" immer für eine besonders gelungenes "Nutzungsverbot" für eine bestimmte Organisation gehalten: den ein Scientologe darf den Namen Xenu nicht verwenden - insbesondere nicht gegenüber Aussenstehenden (was ja ein Gericht, welches über eine Urheberrechtsklage beurteilen soll, ja auch ist). Inhaltlich hat das Programm wenig mit bzw. gegen Scientology zu tun, ausser dass es in den generierten Bericht ab und an Banner-Werbung für Scientology-kritische Gruppen und Websites einblendet.

Screenshot eines Ergebnisses des Xenu Link Sleuth zu meiner Webseite.

Installation und Bedienung von Xenu sind einfach: Herunterladen (Auf der Download-Page wird man darauf hingewiesen vorher noch den Virenscanner zu aktualisieren) - auspacken und xenu.exe aufrufen. Das Programm ist, was die Resourcen angeht sehr genügsam und kommt mit jeder mindestens 32-bittigen Windowsversion bzw. mit Windows Emulatoren wie WINE zurecht. Die aktuelle Programmversion 1.3.8 ist 2010 veröffentlicht worden, insofern kann es insbesondere neuere Web-Techniken geben, die Xenu nicht kennt, und deshalb nicht richtig auswertet.

Anderseits ist Xenu leicht zu bedienen und findet viele Tippfehler bei den URLs von Bildern und Links, die man beim manuellen Testen sicherlich übersieht. M.E. ist Xenu's Link Sleuth für den Low-Budget Webmaster eine gute Empfehlung.

WildShark SEO Spider

Auf den Wilden Hai bin ich gestoßen, als ich ein Programm zur Generierung von SiteMaps im Google XML-Format gesucht habe. Ich hatte früher mal ein entsprechendes Programm, welches aber das Upgrade von Windows 7 auf 10 nicht überlebt hat. Gerade erst habe ich entdeckt, dass Xenu diese Funktion auch hat ...

Während Xenu auch bei Webseiten mit 40.000 URLs von vorne bis hinten Vollgas gibt und dies ohne Probleme schafft, legt der WildShark bei einem 1500 URL-Projekt auch schon mal eine längere Atempause ein, bevor es weitergeht. Für kleinere Seiten mit 100 bis 200 URLs ist der Hai aber problemlos zu gebrauchen - abgestürzt ist er auch bei größeren Projekten nicht, aber manchmal reagiert er dann schon recht träge, sodass das Arbeiten nicht wirklich Spass macht.

Screenshot eines Ergebnisses aus WildShark zu meiner Webseite.

Während seitwert.de (siehe Teil 1 dieser Artikelserie) sagte, dass die H1 Tags meiner Webseite korrekt sind, bemängelt WildShark 22 % der Überschriften. Wie WildShark rechnet, dass eine von 11 Seiten 22% sind - keine Ahnung, ist mir aber auch nicht wichtig. Der Unterschied zwischen dem Online-Tool seitwert.de und dem Offline-Tool WildShark ist, dass hier alle Seiten einer Webseite ausgewertet werden, seitwert.de aber nur die Startseite getestet hat.

Ansonsten hat WildShark brav die fehlende Seite "seo2.php" gefunden und markiert - dass ist der Artikel, den ich hier gerade schreibe. Ich habe den Menu-Eintrag schon vorgenommen, um auf den Screenshots auch einen Fehler zeigen zu können - in wenigen Stunden ist dieser Artikel fertig und der "Fehler" dann behoben. Ansonsten: WildShark bemängelt, dass bei relativ vielen Seiten die Länge des Title-Tags kleiner als 45 Buchstaben ist (meckert aber auch, wenn es mehr als 65 Buchstaben werden - da muss sich mein Gehirnschmalz bei der Optimierung aber noch mal kräftig anstrengen).

Screenshot eines Ergebnisses aus WildShark zu meiner Webseite.

Ein schönes Feature des WildSharks ist die Keywordsuche. Dort kann man ein beliebiges Suchwort eingeben, und sieht, welche Seiten der eigenen Webseite dazu passen - und insbesondere auch wie Google dies (voraussichtlich) in den Suchergebnissen darstellt, wenn man es den schafft in die Suchergebnisse zu kommen. Eine Hilfe für die, deren Gehirnschmalz eine visuelle Anregung braucht, wenn er sich über die Wahl von Titel-Tag und Meta-Description Gedanken machen soll ...

Taw3

Sicherheitshinweis beim Start von Taw3.

Taw3 ist von den gleichen Machern wir www.tawdis.net aus dem Teil 1 dieser Artikelserie, und kann auch von dort heruntergeladen werden. Meines Erachtens hat diese Webseite erheblich Lastprobleme, jedenfalls beobachte ich jetzt schon zum zweiten Mal, dass die Seite nicht erreichbar ist. Das Desktop-Programm gibt es für verschiedene Betriebssysteme, für viele moderne wird die "Webstart"-Variante empfolen. Damit dieses dann startet, muss man sich erstmal zur Java Security Console durchkämpfen, und dort www.tawdis.net als "Ausnahme" eintragen - und dann noch zusätzlich bei jedem Programmstart den obigen Sicherheits-Hinweis abnicken. Klar - das hier beschriebene Sicherheitsrisiko besteht prinzipiell bei jedem aus dem Internet heruntergeladenen Programm, aber JAVA übertreibt es hier m.E. diesen Dialog bei jedem Programmstart anzuzeigen. Vermutlich könnten die Taw3-Autoren diese Warnungen ein wenig in der Drastigkeit reduzieren, indem sie statt einem selbsterstellten Zertifikates für die Signierung des Programmes ein gekauftes Zertifikat verwenden, aber ganz lassen sich diese Warnungen bei Java-Programmen wohl nicht mehr verhindern. Nachdem Oracle viel Prügel für die vielen Sicherheitsprobleme bei Java hat einstecken müssen, wird der Nutzer nun wenigstens Informiert, dass es Sicherheitsrisiken gibt (und schiebt damit die eigenen Versäumnisse den Programmautoren und Endusern in die Schuhe).

Screenshot eines Ergebnisses aus Taw3 zu meiner Webseite.

Wie schon bei der Online-Version tawdis.net ist Taw3 sehr pingelig - so zumindestens der erste Eindruck. Wir hatten doch in Teil 1 die Startseite fehlerfrei gekriegt - und jetzt gibt es dort 18 Prio-1 Themen? Hat ein bischen gedauert, bis ich Taw3 hier verstanden habe - dies erläutere ich in der Detailansicht zur Datenschutz-Seite - dort werden 1 / 19 Prio 1 Themen gemeldet ...

Screenshot eines Ergebnisses aus Taw3 zu meiner Webseite.

Die 1 steht für Automatic - und die 19 für Human. Und letzlich ist nur diese 1 so korrigierbar, dass Taw3 nicht mehr meckert, die zugehörige 1 unter Human wird stehenbleiben. Aktuell bedeuten beide 1, dass es für ein IFRAME-Element keine alt-Description gibt, die z.B. angezeigt wird, wenn es technische Probleme gibt, den dynamischen Inhalt des IFRAMEs anzuzeigen, die aber auch vorgelesen wird, wenn z.B. ein ScreenReader verwendet wird, um diese Webseite einem Blinden vorzulesen. Denn die 1 unter Human sagt: Mensch, du nutzt hier einen IFRAME. Du bist selbst dafür verandwortlich, das der Text, der im "Alternativ-Fall" angezeigt bzw. vorgelesen wird, richtig ist ...

Screenshot eines Ergebnisses aus Taw3 zu meiner Webseite.

Taw3 kann hierbei sogar visuell helfen - durch Auswahl von "Visual Checking" (im Kontext-Menu auf der rechten Maustaste) wird eine lokale HTML-Datei generiert und im Browser aufgerufen, in welcher z.B. die ALT Tags und die Bilder übereinander gestellt werden. Dies erspart es sich einen Browser zu suchen, der diese Texte anzeigt, wenn man längere Zeit mit der Maus über dem Bild bleibt - denn dies tut bei weitem nicht jeder Browser, und unbequem ist das bei vielen Bildern auf einer Seite auch.

Als HTML-Syntax Checker a la W3C Validator läßt sich Taw3 auch gebrauchen - unter Prio 2 finden sich einige veraltete Tags bzw. Attribute, die unter HTML5 mit CSS statt mit HTML gemacht werden sollen. Wenn Taw3 nun auch noch fehlende Dateien (d.h. Broken Links oder Tippfehler bei Bildnamen) anzeigen würde, man könnte die anderen hier besprochenen Programme durchaus in die Tonne klopfen. Ansonsten: für einen Hobby-Webmaster gehen viele der Vorschläge, die Taw3 macht, weit über das hinaus, was umsetzbar ist. Aber die als "Automatic" gekennzeichneten Tipps werde ich in den nächsten Tagen abarbeiten.

CSE HTML Validator

Den CSE HTML Validator habe ich mir für den Schluß aufgehoben, weil ja bekanntlich das Beste am Schluß kommt. Pustekuchen! Ich hatte wohl die Werbung nicht gut genug gelesen und war enttäuscht, dass die kostenlose Version für den Privatgebrauch nur eine Seite prüft - dass prüfen aller Seiten einer Domain ist den teureren Bezahlversionen vorbehalten, da selbst die preiswerteste Bezahlversion dies nicht kann. Trotzdem werde ich das Programm hier besprechen.

Die kostenlose Version ist nur "für den persönlichen, nicht kommerziellen Gebrauch lizensiert". Für "Non-profit Organization" wird die bezahlte Standard-Version oder die Pro Version empfohlen. Als Software-Entwickler halte ich mich die Lizenzen der Software, die ich verwende: zum einen aus Respekt vor den Kollegen (die ja auch von irgendwas leben müssen), zum anderen weil es für nahezu jede kostenpflichtige Software gute (teils sogar bessere) kostenfreie Alternativen gibt. In der Konsequenz heißt dies, dass ich die kostenfreie Version zwar auf meine Webseite "stephan-juergens.de" angewandt habe (diese Seite fasse ich als privates Hobby auf), aber nicht auf die von mir betreuten Seiten der z.B. Arge Italien (die ich als "Non-profit Organization" einordnen würde). Wenn ehrenamtliche Betreuer anderer Arge- und Vereinswebseiten dies anders sehen und argumentieren, dass die Betreuung der Webseite teil Ihres "persöhnlichen Hobbies" ist und nicht eine Angelegenheit der "Non-profit Organisation", mögen sie dies tun - und es mit ihrem eigenen Gewissen vereinbaren.

Ergebnis des CSE HTML Validator

Das Ergebniss des CSE HTML Validator hat mich erstmal überrascht. Ich war mir eigentlich sicher, dass die Startseite fehlerfrei war - hatte der W3V Validator noch nichts mehr zu meckern. Flötepipen. Beim Umsetzen der Empfehlungen von Taw3 habe ich doch glatt wieder einen Fehler eingebaut. Heißt konkret, dass ich nach diesen Korrekturen es versäumt hatte, es nochmal auf Fehlerfreiheit zu prüfen. Hier greift der CSE HTML Validator unterstützend ein, da er mit einigen, größtenteils kostenfreien Entwicklungsumgebungen und Editoren zusammenarbeitet. Der "Vierschritt" - Ändern, Speichern, Hochladen, Testen kann hier ein wenig automatisiert werden.

Von den Fähigkeiten her, überzeugt mich der CSE HTML Validator wirklich. Er hat viele kleine Dinge eingebaut, die einem Webseitenprogrammierer das Leben erleichtern können. Für kleinere Projekte mit wenigen Einzelseiten ist es sogar möglich, alle Seiten parallel zu testen - man muss nur jede Seite einzeln öffnen - das testen mehrere Seiten parallel funktioniert problemlos. Von der Geschwindigkeit ist dies viel besser, als dies Online mit dem W3C Validator zu machen. Und: hier geht es auch mit lokalen Dateien, d.h. man kann testen bevor man hochlädt (Der Vorsicht halber sollte man auch noch mal testen, nachdem man hochgeladen hat).

Was die HTML Struktur angeht, ist der CSE HTML Validator pingeliger als die anderen Tools im Test - vielleicht mit Ausnahme des W3C Validators, den man aber nicht so einfach auf mehrere Seiten anwenden kann, wie den CSE HTML Validator. Die HTML-Fehler werden farbig markiert, mit einem Kurztext beschrieben - zu dem es jeweils einen erleuternden Text gibt. Dass es Sinn macht, jede einzelne Seite zu testen, wird hier deutlich: auch wenn die einzelnen Seiten dadurch entstanden sind, dass ich eine Seite geschrieben habe, diese dann durchgetestet habe, und als Vorlage für die anderen inhaltlichen Seiten genommen habe, haben sich in die verschiedenen Seiten unterschiedliche kleine Fehler eingeschlichen. Bei manchen habe ich gelernt wie fehlertolerant die Browser heutzutage sind, denn keiner der Fehler hat dazu geführt, dass die Seite anders aussah, als ich es wollte, obwohl einige der Fehler massiv unterschiedliche Interpretationen des "mutmasslich gewollten" zulassen. Fehlerfreies HTML (und CSS) ist natürlich kein Selbstzweck, sondern es ermöglicht den verschiedenen Browsern die Seiten wie gewünscht darzustellen. (Grobe) Unterschiede in der Darstellung einer Seite auf verschiedenen Browsern beruhen nahezu ausschließlich auf HTML- oder CSS-Fehlern.

Zurück zum CSE HTML Validator: er geht über einen einfachen HTML Syntax-Check weit hinaus. So listet er z.B. "possible repeated words" und "possible misspelled words" auf, übernimmt also eine rudimentäre Grammatik und Rechtschreibkontrolle. Mein Eindruck ist, dass es möglich sein müßte, auch ein deutsches Wörterbuch einzubinden, mitgeliefert werden nur Englisch, Französisch, Spanisch und Portugiesisch (und einige "technische" Sprachen). Würde für mich die Nutzbarkeit vermutlich erhöhen.


Download Links