SEO und SEM

Alles rund um Suchmaschinen und was man mit ihnen anstellen kann

Archiv für Februar, 2008

Und wieder die bösen IP-Adressen

Es ist schon seltsam, wie in diesem Artikel auf heise.de zu lesen, werden auf der Website des Bundesdatenschutzbeauftragten jetzt keine IP-Adressen mehr gespeichert. Auch andere Ministerien sollen folgen und Suchmaschinen bzw. Werbeanbieter sind natürlich auch wieder ins Visier geraten. Das alles geschieht im Zuge der Kampagne “Wir speichern nicht

Was mit den IP-Adressen für Schindluder getrieben werden soll, konnte bisher aber wohl auch keiner erklären. Interessant ist in diesem Bezug auch wiederum ein Heise-Artikel, hier wird zwar einerseits angeprangert, daß dem Surfer über die Schulter geschaut werden könne, andererseits wird ein IP-Adressfilter (beispielsweise in Foren) als unwirksam bezeichnet, weil IP-Adressen meist dynamisch vergeben werden. Moment, irgendwas stimmt da nicht, oder?
Einerseits wird der User durch die Speicherung seiner IP quasi verfolgt, andererseits wird aber eingeräumt, daß das technisch gar nicht möglich ist. Auch wird auf der Seite eindeutig klargestellt, daß die IP wenig aussagekräftig im Bezug auf die Identifikation eines Users sei.

Sollen jetzt tausende von gängigen Webservern umgestellt werden, nur um keine IP-Adressen mehr zu loggen?

Wozu soll das ganze letztendlich gut sein? Der normale Webseitenbetreiber hat sicher nichts von einer IP-Speicherung, er kann darüber im Normalfall keinen Benutzer wiedererkennen oder gar genauere Informationen zur Person bekommen. Einzig bei Angriffen auf die Seite besteht über eine Anzeige eventuell die Möglichkeit den Verursacher zu finden, ansonsten bleibt der User anonym.

Hier wird also ein Schutzbedarf suggeriert, der letztendlich gar nicht vorhanden ist. Auf das Gesetz zur Vorratsdatenspeicherung wird nur kurz eingegangen, daß hier ein viel größeres Potential für Datenschützer liegt, sieht “Wir speichern nicht” wohl nicht.

  • 0 Kommentare
  • Abgelegt in: Webmaster
  • Links maskieren in WordPress (Plugin)

    Die neueste Version gibt es hier:

    http://www.seo-und-sem.de/2008/03/25/link301redirect-plugin-reloaded/ 

    Speziell bei Affiliate-Links möchte man aus Suchmaschinenoptimierungsgründen nicht immer, daß der Affiliate-Link direkt für Suchmaschinen ersichtlich ist. Daher bietet sich ein kleines Skript an, das eine Weiterleitung mittels der php Funktion header umsetzt.

    Um das ganze halbwegs komfortabel zu realisieren habe ich ein kleines WordPress-Plugin geschrieben, das diese Aufgabe erledigt.

    Link301Redirect.zip

    Das ganze besteht aus der Datei link301redirect.php, die als normales WordPress-Plugin die Funktionalität im Admininterface herstellt. Diese also einfach ins Plugin-Verzeichnis von WordPress packen und aktivieren. Danach steht unter Einstellungen der Menüpunkt Link301Redirect zur Verfügung. Hier können dann Keywords und Links eingestellt werden, bei den Keywords am besten keine Sonderzeichen verwenden.

    Das Verzeichnis outgoing wird in das Hauptverzeichnis der WordPress-Installation gepackt. Die darin liegende click.php muß mit den Datenbankparametern von WordPress gefüttert werden, also kurz editieren.

    Danach kann mit folgendem Link eine 301-Weiterleitung erzeugt werden:

    http://www.blog.de/outgoing.php?goto=keyword

    keyword muß natürlich vorher im Adminbereich definiert worden sein.

    Die robots.txt dient nur als Vorlage, sollte aber auch ins Hauptverzeichnis gelegt, bzw. die bestehende robots.txt erweitert werden, damit Spider nicht auf des Redirect-Script kommen.

    Zugegeben, wirklich komfortabel ist das ganze noch nicht, aber es erfüllt seinen Zweck ;-)

  • 0 Kommentare
  • Abgelegt in: SEO
  • Multi-Domain WordPress auf eigenem Server

    Mehrere Domains auf eine WordPress-Installation zu leiten ist vor allem eins: Enorm praktisch ;-)
    Updates müssen nur an einer Stelle eingespielt werden, ebenso neue oder aktualisierte Plugins. Allzu schwierig ist das ganze auch nicht, wie man bei starting-seo.de nachlesen kann.

    Ein kleines Manko hat die dort beschriebene Lösung allerdings noch. Wenn auf das Blog mit www.blog.de zugegriffen wird, nimmt WordPress an, daß dafür ein anderes Datenbankprefix verwendet werden soll, als für blog.de. Der Workarround mit einer htaccess die auf www. vor der Domain prüft funktioniert, allerdings nur mit einer Domain.

    Meine Lösung sieht wie folgt aus:

    $table_prefix = str_replace( array( “.”, “-” ), “_”, $_SERVER["HTTP_HOST"] ).”_”; // Nur Zahlen, Buchstaben und if(strtolower(substr($table_prefix,0,3)) != “www”){
    $table_prefix=”www_”.$table_prefix;
    }

    Hier wird einfach immer ein www vorangestellt, dadurch übernimmt WordPress dann auch den Redirect von blog.de auf www.blog.de und vermeidet somit auch Duplicate Content.

    Ansonsten läuft diese Lösung wirklich gut und empfiehlt sich für alle, die mit mehreren WordPress-Installationen hantieren müssen.

    Für die Einrichtung auf einem eigenen Server mit Plesk als Verwaltungstool legt man dann keine neue Domain mehr an, sondern fügt die Domain einfach in der httpd.include im conf-Verzeichnis der ersten WordPress-Installation als Serveralias ein.

  • 0 Kommentare
  • Abgelegt in: Webmaster
  • Webkataloge und Artikelverzeichnisse

    Webkataloge galten früher als das Allheilmittel um schnell gut gerankt zu werden. Diese Seiten hatten einen hohen Pagerank, ergo konnten auch die verlinkten Seiten nicht schlecht sein und wurden von Suchmaschinen somit als relevant angesehen. Durch die Backlinkpflicht wurde der Rank des Katalogs schön oben gehalten, was natürlich den eingetragenen Seiten auch zugute kam.

    Die große Ernüchterung folgte auf dem Fuss: Abstrafung von Seiten die nur oder größtenteils aus ausgehenden Links bestehen, sowie von offensichtlichem 1zu1-Backlinking.

    Als Ausweichmethode haben findige Gesellen nun die Artikelverzeichnisse erfunden. Hier wird gesammelter Content hinterlegt aus dem dann nur einige Verlinkungen erlaubt sind. Backlinks sind meist keine Pflicht mehr, da der Verzeichnisbetreiber ja etwas sehr viel wertvolleres bekommt: Unique Content. Jeder der Backlinks aus dem Artikelverzeichnis möchte, muß einen Artikel verfassen, der eine bestimmte Wortanzahl nicht unterschreiten darf. Darin dürfen dann einige Links zur eigenen Seite platziert werden.

    Auf den ersten Blick eine feine Sache um Google und Co auszutricksen: Unique Content ist vorhanden, es gehen pro Artikel nur einige Links nach draußen und diese sind noch dazu themenrelevant.

    Allerdings sollte man sich auch hier fragen, wo der Nutzwert für den User liegt. Linklisten wären sicher nicht abgestraft worden, wenn sie einen Mehrwert für den Benutzer dargestellt hätten. Das war  nicht so, da sie nur aus einer willkürliche Anhäufung von Links bestanden.
    Woraus bestehen Artikelverzeichnisse? Möchte man es böse formulieren könnte man sagen: aus einer willkürlichen Anhäufung von Content. Die meisten Verzeichnisse sind nicht spezialisiert und bieten beinahe alle Themen an. Der Content ist meist nicht gerade hochwertig, sondern schnell zusammengetippt. Schließlich geht es dem Ersteller des Artikels nur um den Backlink, die Zeit um qualitativ hochwertigen Content zu erstellen nimmt man sich doch lieber für die eigenen Projekte.

    Letztendlich entstehen hier also noch mehr Anhäufungen sinnlosen Contents als wir sie durch viele andere Erscheinungen schon haben. Ich denke daher, daß es Artikelverzeichnissen auf Dauer genauso ergehen wird, wie Webkatalogen: Abstrafung durch die Suchmaschinen und Verschwinden im Nirvana des World Wide Web. Auch wenn hinter den Rankingalgorithmen der Suchmaschinen zuerst mal Maschinen stecken, sind diese doch von Menschen erstellt, die sich Gedanken darüber machen, was der User wirklich finden will.

    Natürlich ist das nur meine Meinung und vage Vorhersage, aber warten wir mal das nächste Update der Suchmaschinen-Blackboxen ab….

  • 2 Kommentare
  • Abgelegt in: SEO
  • Wozu optimieren? Gibt doch Paid Search

    Ja, auch sowas gibts und wahrscheinlich gar nicht mal zu selten. Speziell kleinere Firmen ohne eigene Webdesignabteilung scheinen ganz gut damit leben zu können, wenn sie in der Natural Search nur einen der hinteren Plätze einnehmen. Dafür gibts ja Paid Search, wo man sich ganz einfach einen Platz an der Sonne erkaufen kann.

    Die laufenden Kosten scheinen dabei keine allzu große Rolle zu spielen, in Nischenmärkten ist der Klickpreis vielleicht auch noch geringer und man kommt mit dieser Methode gut zurecht.

    Auf die Dauer frage ich mich aber, was gegen kostenlose Besucher aus der Natural Search spricht? Sicher muß man sich einmal hinsetzen und die Page optimieren bzw. jemanden dafür beauftragen, dafür hat man aber dauerhaft ein besseres Ranking, auch wenn man nicht ständig hinterher ist.

    Und seien wir mal ehrlich, eine kleinere Homepage zu optimieren, die angestaubten Framesets rauszuhauen und das Layout etwas aufzupeppen täte manchen Unternehmen nicht nur aus Sicht der Suchmaschinenoptimierung gut.

  • 0 Kommentare
  • Abgelegt in: SEM
  • SEO vs. Benutzerorientierung

    Beim Optimieren einer Seite vergessen leider immer mehr Webmaster, daß Webseiten nicht nur für Suchmaschinen gemacht werden. Texte werden bis zur Unlesbarkeit mit Keywords vollgestopft, Tagclouds an jeder Ecke und Überschriften zuhauf.

    Teilweise wird es aber noch schlimmer, wenn die Optimierungen dann mal gegriffen haben. Ab diesem Zeitpunkt kann man als kluger Webmaster anfangen den Traffic zu monetarisieren, wie es so schön heißt. Um Klickraten zu optimieren bietet es sich natürlich an, Werbemittel im Textfluß zu integrieren. Ein Werbemittel ist hier leider mittlerweile zur Ausnahme geworden, die Übergänge sind fließend und teilweise fällt es schwer, den relevanten Content und die Werbung klar optisch zu differenzieren. Für den Benutzer, der auf dieser Seite eventuell eine Problemlösung gesucht hat, bedeutet das einfach nur Frust, da ihm keine schnelle Abhilfe geboten wird, sondern er zum Klick auf diverse Banner, Textanzeigen und Links genötigt wird, die dem Webmaster Geld einbringen sollen.

    Ob diese Art der Suchmaschinen Einkommensoptimierung auf Dauer haltbar ist? Sehr fraglich. In anderen Branchen hat man auch schon erkannt, daß Stammkunden ein wichtiges Kapital darstellen und bemüht sich dieses Klientel auch zu halten. Im Netz hat sich diese Einstellung noch nicht durchgesetzt, dabei ist es hier genauso: Eine hilfreiche Seite wird gebookmarkt und später wieder besucht. Wer dagegen nach einer Suche auf einer Seite landet, die ihm keine gut lesbaren und gut vermittelten Inhalte bietet, wird sich diese Seite kaum in den Favoriten speichern. Eventuell bleibt aber die URL im Hinterkopf und wird bei den nächsten Suchergebnissen einfach ignoriert.

    Es hilft nichts, bei diversen Suchmaschinen auf der ersten Seite gelistet zu sein, wenn User die Seite als nicht hilfreich erachten und nicht wieder besuchen. Und wer guten Content bietet, wird von ganz alleine in den Suchergebnissen nach oben rutschen, solange ein paar grundlegende Dinge beim Coden der Seite beachtet wurden.

    Letztendlich ist das Internet doch für User gedacht, und nicht dazu um den Spidern diverser Suchmaschinen Futter zu bieten.

  • 0 Kommentare
  • Abgelegt in: SEO