Mit seiner Ankündigung, SEO-relevante Daten gratis online zu stellen, hat Fabian Rossbacher in diesem Monat für Wirbel gesorgt. Hier verrät er, was hinter openSEOdata steckt, wie er an die Daten kommt und was ihn ganz besonders aufregt.
SEOPhilipp: Deine Ankündigung Anfang dieses Monats, mit openSEOdata SEO-relevante Daten für jeden frei online zu stellen, hat einige Wellen geschlagen. Was steckt hinter diesem Projekt und was hat Dich zu diesem Schritt bewogen?
Fabian: Ich habe von August 2009 bis Juli 2010 mit einem Kumpel eigene Tools entwickelt. Leider musste er aus privaten Gründen die Segel streichen. Nach 2 Monaten konspirativer Gedanken und einem Saunabesuch habe ich mich dann entschlossen, die Codebasis offen zu legen. Meine Freundin hat an dieser Entscheidung eine wesentliche Schuld, da sie mir das Buch „Free“ („Free – Kostenlos: Geschäftsmodelle für die Herausforderungen des Internets“ von Chris Anderson) zum Lesen in die Saune mitgebracht hatte :-).
SEOPhilipp: Welche Idee aus dem Buch hat dich überzeugt?
Fabian: Eigentlich das Wilkinson-Prinzip. Aber er geht ja auch auf Google ein. Da hat´s klick gemacht.
SEOPhilipp: Jetzt mal im Ernst, dein OpenSEOdata-Projekt macht dir nicht nur sehr viel Arbeit, sondern kostet auch jede Menge Geld. Da sind ja nicht nur die Server-Kosten, auch CPC-Daten gibt’s nicht für lau. Wie finanzierst Du das und welchen ROI hast Du im Auge?
Fabian: Ja, das stimmt. Aber entgegen der Aussagen der Toolanbieter da draußen ist ein Server mit 48 GB RAM, 2 Dual Core und 4 TB Festplatte gar nicht so teuer. Ich finanziere den Server über meine restlichen Projekte. Die Daten, die ich veröffentliche, verwende ich für Kundenprojekte und eigene Optimierungen.
Warum kosten die AdWords-Daten? Sie sind doch im Keywordtool frei zugänglich 🙂 Hinter jedem Opensource-Projekt steckt eine Person, Gruppe oder Firma. Hinter openSEOdata stecke im Moment nur ich, was sich aber schnell ändern soll. Im Januar haben wir unser erstes openSEOdata-Treffen, bei dem auch andere Entwickler dabei sind. Hier quasseln wir über Technik, Features, Daten und in welche Richtung wir das Projekt voranbringen möchten. Das Treffen findet in Köln statt. Schon 2 Wochen nach Bekanntgabe haben sich bereits einige Firmen bei mir gemeldet, die auf der Opensource-Basis aufbauen wollen und Custom-Erweiterungen wünschen.
Es ist noch alles ganz am Anfang und die Community hat, glaube ich, auch noch nicht so richtig verstanden, was das Projekt openSEOdata eigentlich ist, aber das Feedback ist um einiges größer als ich erwartet habe.
SEOPhilipp: Hast Du mal darüber nachgedacht, die ganzen Daten zu verkaufen – statt sie zu verschenken?
Fabian: Ja, habe ich. Schlecht für´s Karma :-).
SEOPhilipp: Die Datenmenge wächst und wächst. Auf Deinem Blog schreibst Du, dass bis März mehr als 10 Millionen Keywords in der Datenbank zu finden sein werden – inklusive CPC etc. Wie erhebst Du die Daten? Wann und in welchen Intervallen sollen diese Daten aktualisiert werden?
Fabian: Ich ermittle die Daten via Suggest und Google-Suche. Backlinks über Yahoo und eigenes Crawling. Suchvolumen und CPC aus dem öffentlichen Adwords-Tool. Im ersten Schritt soll es monatliche Updates geben. Je nach Support können wir eventuell auf wöchentlich runterbrechen. Alles was man dafür braucht sind mehr deutsche Proxies :-).
SEOPhilipp: Du bietest eine API an, mit der man die Datenbank nach Herzenslust leersaugen kann. Planst Du eine Limitierung?
Fabian: Ich habe vor ein paar Tagen im Blog darum gebeten, keine Bulkabfragen zu machen. Bisher halten sich alle daran. Dies hat sicherlich damit zu tun, dass ich die Daten eh zum Download anbiete. Du siehst also: Das System funktioniert von Haus aus 🙂 Wenn die Last und der Traffic so bleiben, brauchen wir keine Limitierung.
SEOPhilipp: Neben der Keyword-Recherche sind derzeit noch andere Funktionen verfügbar. Was kannst Du uns über diese Funktionen verraten?
Fabian: Du kannst zum Beispiel Backlinkquellen (Foren, Blogs etc.) finden. Darüber hinaus bastel ich gerade an dem Feature Top-Player. Dieses sucht zu einem Keyword alle Suggests raus, aggregiert alle Rankings und gruppiert nach Domains. Dazu habe ich noch die Domaininhaber von der Denic gescraped und kann somit eine Liste von Domaininhabern ausliefert, die zu einem Keyword dick im Geschäft sind. Gut für Linktausch oder Affiliate-Agenturen, die nach Publishern scouten.
SEOPhilipp: Welche Erweiterungen innerhalb der verfügbaren Funktionen sind bereits in Planung – oder planst Du bereits ganz neue?
Fabian: Es sind noch viel Code zu machen und alte Funktionen umzuschreiben. Dadurch, dass keine Orangeseo-Software mehr vorhanden sein darf, habe ich erst mal noch einiges zu tun. Danach lasse ich mich von meinen nächtlichen Träumen und der Community inspirieren.
SEOPhilipp: Wie ist bisher insgesamt die Resonanz auf Dein Projekt? Die Kommentare auf Deinem Blog waren bisher ja durchweg positiv.
Fabian: API-Download knapp 300 Stück. Durchschnittlich 80 Besucher am Tag. 300 neue Twitter-Follower und zu Spitzenzeiten knapp 400 Besucher auf den Blogposts.
SEOPhilipp: Gab es neben Warnern und Mahnern auch schon scharfe Kritik – etwa vonseiten derjenigen, die über solche Daten verfügen, aber mit deren Verkauf ihre Familie ernähren?
Fabian: Ich habe mich zu diesem Thema in meinem letzten Post geäußert. Ich denke nicht, dass ich Business-Modelle zerstöre. Vielmehr läute ich eine neue Zeit ein. In den Tools geht es ab sofort nicht mehr darum, wer mehr Daten hat, sondern was sie mit den Daten machen. Mich nerven diese Wettstreite der Tools: „Ich habe 10 Millionen Keywords“ oder „Und ich habe 100 Millionen Backlinks“. Ich sehe es als den nächsten logischen Evolutionsschritt. Jetzt zeigt mal da draußen, was ihr für coole Features raushauen könnt und ob ihr versteht, was ein SEO wirklich braucht. Ich bewundere zum Beispiel Sistrix. Er ist der Einzige, der nicht kopiert, sondern sich neue Sachen ausdenkt!
SEOPhilipp: Was über OpenSEOdata hast Du bisher der Öffentlichkeit vorenthalten – und erzählst es hier und heute zum ersten Mal?
Fabian: Den Namen hat sich Andreas ausgedacht. Wir waren gerade zum Lunch in der Kantine. Übrigens ein klasse SEO!
SEOPhilipp: Welcher Andreas? Ich dachte, alle guten SEOs heißen Markus?
Fabian: Ich glaube, die guten heißen Marcus. Andreas ist mein Zögling und arbeitet im Untergrund :-).
SEOPhilipp: Ein kleiner Blick in die Zukunft: Wie wird sich SEO in den nächsten fünf Jahren verändern und was müssen SEO-Tools mitbringen, um den neuen Anforderungen gerecht zu werden?
Fabian: Ok, mein Epik: openSEOdata definiert die elementare Keyword-Basis, nach der sich alle richten, die Formel für einen einheitlichen Sichtbarkeitsindex und einer Standardstruktur für Datenspeicherung – definiert durch die Community. Mittlerweile ist die Community auf über 200 Member gewachsen, die täglich neue Ideen einbringen. Die ersten Tools stellen auf die Datenbasis von openSEOdata um und supporten das Projekt. openSEOdata wird zum Paradebeispiel und es gibt erste Schwesterprojekte in UK und FR. Google bekommt Wind von der Sache und verbietet es – ach quatsch, fördert es.
SEOPhilipp: Kommen wir zum Schluss. Die letzte Frage bietet unseren Interview-Partnern traditionell Raum, ihren Ärger loszuwerden. Hier hast Du die Möglichkeit, den überschätztesten SEO, den einfältigsten SEO-Blog oder ein skandalös schlechtes SEO-Tool zu bashen – Begründung optional. Dein ätzender Pfeil der Kritik trifft …?
Fabian: Puh, also da will ich niemandem zu nahe treten. Ich läster‘ relativ wenig, weil sowas immer zurückkommt :-).
SEOPhilipp: Ach komm schon! Nichts und niemand ist dir in den letzten Monaten sauer aufgestoßen?
Fabian: Ich habe vor ein paar Tagen ein Video von einem Banksprecher gesehen. Seine Bank wurde von Wikileaks-Anhängern lahmgelegt. Er sprach von vereinzelten Angriffen und dass sie eine spezielle Gruppe dahinter vermuten und diese nun hochnehmen werden. Er hat überhaupt nicht verstanden, dass die Aktionen dezentral sind und keiner Steuerung unterliegen. Solche Leute regen mich auf, weil sie null Ahnung haben, was hier abgeht und mit wem sie sich da eigentlich anlegen. Ach ja, und dann natürlich die USA *g*.
SEOPhilipp: Vielen Dank für das Gespräch und schon mal frohe Weihnachten.
Fabian Rossbacher über sich:
Meine ersten Berührungspunkte mit einem PC hatte ich mit 8 Jahren. Meine Mutter hat stets versucht, PCs von mir fernzuhalten, weil sie böse sind. Da mein Großvater aber eine Computerfirma hatte, dauerte es nicht lange, bis ich einen haben durfte. Anfangs habe ich nur gespielt. Es fehlte mir aber RAM und deswegen musste ich die autoexec.bat und config.sys (wem das noch was sagt) patchen. Tja und so ging es los. Mit 9 dann Basic und Pascal, in der Schule Logo, Delphi, c und Java. Mit 17 habe ich dann meinen ersten Coderjob bei scout24 angenommen. Ich habe mehr Zeit im Büro als im Klassenraum verbracht, was sich natürlich in meinen Noten widergespiegelt hat. Nach der 11ten Klasse habe ich eine Ausbildung zum IT-FA-Anwendungsentwickler begonnen. Dank guter Leistung durfte ich verkürzen und habe ein Jahr gearbeitet.
Da ein Diplom sexy ist, habe ich dieses nebenberuflich gemacht und 2008 meinen eigenen Laden aufgemacht. Seitdem unterstütze ich Kunden im Java Enterprise-Bereich Architektur, Online-Marketing und entwickle eigene Projekte und Websites. Mein liebstes Steckenpferd ist natürlich openSEOdata :-).
7 Antworten
Ich war gerade echt gespannt, als ich den Beitrag las. Leider wird die Seite gerade überarbeitet. Es interessiert mich echt, was nun nach drei Jahren aus so einem Projekt geworden ist.
jojo sagt wie’s geht. Mache demnächst einen Blogpost genau
zu diesem Thema. Dann wissen auch die Toolanbieter endlich wie es
geht 😉
Wo ist das Problem? Das AdWords-Tool ist nun wirklich keine große Herausforderung. Man muss auch nicht 10 Millionen Abfragen machen …. und eine Aktualisierung macht bestenfalls monatlich Sinn.
Seh aber noch nicht so ganz wo das hinführen soll und wie braucbar das Endergebnis wird. Abwarten …
Vielen Dank für deinen Kommentar. Ich hab zwar schon davon gehört, dass man die Captchas automatisiert lösen kann, aber ist es auch ebenso einfach zu vermeiden, dass Google einen bei so vielen Anfragen nicht als Bot identifiziert und sperrt?
Die Captchas schickt man nach Indien\Pakistan und bekommt die Lösung zurück. Ist recht kostengünstig …. Das Abfragelimit wird sich über Proxies nicht schwieriger lösen lassen, als bei der Google-Suche. Für meinen kleinen Bedarf hatte ich damals ein Wörterbuch durchgejagt und auf Proxies ganz verzichtet und das auf einem altem PC innerhalb von ein paar Wochen in Ruhe durchlaufen lassen.
Suchvolumen und CPC aus dem öffentlichen Adwords-Tool. Bei 10 Millionen Keywords. Schön wöchentlich aktualisieren. Warum nicht stündlich? … das glauben dir doch nicht mal die SEO-Trainees, lieber Fabian.
Wieso fällt mir darauf wiedermal nur folgendes Bild ein
http://awesome.blogsport.de/images/hatersgonnahate.gif 🙂