Da ist sie also auch schon wieder vorbei, die erste Woche nach der SEO CAMPIXX. Aber von Katerstimmung war keine Spur zu sehen bzw. zu lesen in den unzähligen CAMPIXX-Recaps, die im Laufe der Woche veröffentlicht wurden. Obwohl wir alle zumindest mit einem Auge mit Schrecken nach Japan blicken, wollen wir euch auch in dieser Woche die aus unserer Sicht interessantesten SEO-Themen vorstellen. Zusätzlich kann man heute wieder am Ende des Rückblicks jede Menge Geld sparen, doch dazu später mehr.
Der Traum jedes SEOs
Wer hat davon nicht schon mal geträumt? Einfach auf der Couch sitzen und quasi im Schlaf Domains reservieren. Es hört sich so einfach an und ist doch ein wenig kompliziert. Abgelaufene Domains reservieren und sein eigenes Domainnetzwerk aufbauen, erfordert Programmierkenntnisse und ein bisschen Glück. Wer mit dem Programmieren noch ein paar Probleme hat, der sollte mal bei angron.de vorbeischauen. Alle die den Vortrag von Andreas Grapp auf der SEO CAMPIXX verpasst haben, können auf seinem Blog nochmal nachlesen, wie man seinen eigenen Domainsnapper bastelt. Neben ein paar wertvollen Tipps wird auch der Quellcode gezeigt, den man für dieses Tool benötigt.
Wenn der Domainsnapper erst mal läuft und fleißig Domains registriert, stellt sich die Frage, wie man mit den Domains am besten umgeht. Antworten darauf gibt der seo-evangelist in seinem Blog-Beitrag. Es geht um die Kunst, die Seite so sorgsam zu projektieren, dass sie ihren alten Status bei Google wiederbekommt. Ziel sollte es sein, die Seite zu reanimieren, anstatt sie einfach mit Texten zu unpassenden Themen zu befüllen. Wer sich bemüht und seine „reanimates“ mit Liebe aufbaut, der wird auch von Google belohnt.
Neue Suchmaschine für Facebook
Auf dem Blog von bnet.com hat man unter der Woche erfahren, dass Facebook ein Patent für eine neue Form der Suche angemeldet hat. Ob es wirklich ein „Google-Killer“ wird, so wie im Titel von SEO-United angedeutet, bleibt abzuwarten. Was die Suchmaschine von Facebook von anderen Suchmaschinen unterscheidet ist, dass die Ergebnisse der Suchmaschine vom Klickverhalten der Freunde beeinflusst werden. Ein Ergebnis, das von vielen meiner Freunde bei einer ähnlichen Suche für gut befunden wurde, wird bei einer entsprechenden Suche von mir oben in den Ergebnissen angezeigt. Wann diese neue Form der Suche zum Einsatz kommt und in welcher Form sie von Facebook genutzt wird, bleibt abzuwarten.
Erfolgreich Links tauschen
Links sind das Salz in der SEO-OffPage-Suppe und daher sind gute Links für so ziemlich alle SEO-Projekte heiß begehrt. Aber Begehrlichkeiten rufen auch immer wieder ein paar schwarze Schafe auf den Plan. Wie man diese schwarzen Schafe in Bezug auf erfolgreichen Linktausch erkennt, darüber hat sich Dennis Tippe ein paar Gedanken gemacht. Herausgekommen ist eine 16 Punkte starke Liste mit Handlungsempfehlungen. Er erklärt, wie man den Absender der Anfrage und die angebotenen Seiten mit relativ geringem Aufwand einem kurzen Qualitätscheck unterziehen kann. Eine Garantie für erfolgreichen Linktausch sind die 16 Punkte natürlich nicht, aber erste Anhaltspunkte bietet die Liste in jedem Fall.
Webdesign-Galerien
Eine andere vielleicht noch nicht ganz so bekannte Möglichkeit an Links zu kommen sind Webdesign-Galerien. Darüber berichtet Christopher Bergmann bei SEO-united.de. Das ganze funktioniert so ähnlich wie mit Bookmarking-Diensten. Man muss seine Seite anmelden und hoffen, dass vielen Besuchern das Design der eigenen Seite gefällt. Hierbei gilt natürlich: Je interessanter das Webdesign ist, desto mehr Besucher und Links können über diesen Weg generiert werden. Eine langweilige Homepage wird wohl kaum User dazu verleiten einen Link zu setzen. Daher sollte man sich vorher überlegen, ob die eigene Seite „würdig“ ist, in eine Web-Galerie aufgenommen zu werden.
Neues aus Mountain View
Auch in dieser Woche gab es wieder ein wenig Kritik an Google. So musste man eingestehen, dass die häufigen Änderungen am Algorithmus oft dazu führen, dass qualitativ hochwertige Seiten Einbußen in den SERPs hinnehmen müssen. Damit diese Einbußen nicht von Dauer sind, beschäftigt Google Mitarbeiter, die die Ergebnisse manuell „nachsortieren“. Der Google-Algorithmus scheint also doch nicht alles automatisch lösen zu können und den einen oder anderen Fehler zu machen. Das belegt auch das zweite Beispiel der Indexierungen.
Auf dem seokratie-Blog konnte man nachlesen, dass sich der Google-Crawler immer seltener an die Vorgaben zur Indexierung hält. Ob in der robots.txt oder in den Meta-Tags, die NoIndex-Anweisung wird vom Google-Bot einfach ignoriert und überlesen. Das Ergebnis ist, dass viel zu viele Seiten im Index landen und das Ranking der Domain verschlechtern. Der einzige Ausweg, so scheint es, ist der Canonical-Tag. Nur diese Anweisung wird noch vom Crawler akzeptiert. Es hilft also nur abwarten, Tee trinken, den Canonical einfügen und die Daumen drücken, dass sich Google bald wieder an die Anweisungen hält.
Internetworld in München
Es heißt wieder mal: Sparen mit SEO-Trainee! Als Medienpartner von der Internet World-Messe in München gibt es die einmalige Möglichkeit, interessante Sonderpreise zu bekommen. Wer bei der Anmeldung folgenden Rabatt–Code angibt:
- für das 1-Tages-Ticket folgenden Code: PROiwk11seob1
- für das 2-Tages-Ticket folgenden Code: PROiwk11seob2
bekommt das 2–Tages–Ticket für 750 € und das 1–Tages–Ticket für 450 €. Beide Preise sind zzgl. MwSt. Die Fachmesse findet vom 12.-13. April statt und ist sicherlich ein weiteres Highlight in diesem Jahr.
Das soll es auch schon gewesen sein für diese Woche. Die SEO-Trainees verabschieden sich und wünschen euch ein zauberhaftes Wochenende!
Bis nächste Woche
Michael
4 Antworten
Bei der neuen Facebook Suchmaschine glaube ich nicht, dass diese so viel Erfolg haben wird, da man nicht unbedingt das gleiche Interesse der Freunde hat. Nur weil man befreundet hat, bedeutet dies ja nicht, dass man auch die gleichen Interessen hat. Und die Bedeutung von einem Freund bei Facebook ist ja nicht unbedingt aussagekräftig.
Vielleicht nimmt das der eine oder andere dann ja mal zum Anlass ein paar seiner „Freunde“ auszumisten.
Hallo Michael,
wieder einmal ein schöner Wochenrückblick. Bei Deiner Zusammenfassung zum Artikel von Julian zu den scheinbar unbeabsichtigt indizierten Seiten, kannst Du schon in den Kommentaren lesen, dass das Problem schon in der robot.txt liegt. Auf die kann der Crawler nicht zugreifen(disallow). Dementsprechend kommt er erst gar nicht auf die Seiten, um das noindex zu lesen. Die Seiten kommen dann über das folgen der Links in den Index, allerdings ohne Snippet. Für den Titel verwendet Google in dann die URL selbst oder den Anchortext des Backlinks.
Besten Gruß von der sausebrause
Hallo sausebrause,
vielen Dank für das Lob und vielen Dank für den Tipp!