Projektkonzept: 80% SEO Traffic = Erfolg?

September 28, 2007 | In SEO | 10 Kommentare

Die großen Verlagshäuser in Deutschland drängen immer weiter ins Online-Business. Nichts wird ausgelassen, hier ein bisschen Web 2.0, da ein bisschen Preisvergleich und natürlich die klassische Strategie über die Werbefinanzierung. Doch zunehmend bemerkt man, dass bei einem neu aufgesetzten Projekt, welches aus einem Verlagsnetzwerk angelinkt wird, der Traffic aus den organischen Ergebnissen einer Suchmaschine schneller wächst, als man sich das dachte… Schnell überlegt man, wie man diesen Channel weiter optimieren kann, um noch schneller zu wachsen -> SEO.

Doch was entsteht durch eine solche einseitige Strategie? -> Projekte wie vielleicht das Mittelstandswiki, welche in Ihren Mediadaten angeben, dass bis zu 80% des derzeitigen Traffics über Google kommt…

Zitat: Bis zu 80 Prozent aller Besucher erreichen das MittelstandsWiki und seine Journale über die Suchmaschine Google (Quelle: Google Analytics). Quelle.

…und diese 80%, welche nach eigenen Angaben ca. 60.000 PVs entsprechen müssten,  versucht man für Liste 33,- Euro/TKP/468×60 zu verkaufen.

Dagegen stehen die Kosten für die Redaktion, Server & Optimierung…. und nicht zu vergessen das Risiko, dass man von ein auf den anderen Tag aus dem Index von Google fällt und einem dann 80% Traffic abgehen. Die Frage die nun daraus ergibt bezieht sich weniger auf die Rentabilität eines solchen Konzepts als vielmehr auf das Risiko und die Seriosität sowie die Zuverlässigkeit des Traffics die sich aus einer solchen Abhängigkeit ergibt. Seine Besucher vorwiegend aus organischem Google Traffic zu generieren mag für alle Beteiligten nur eher kurzfristig bzw. ergänzend anzusehen sein. Meiner Meinung nach ist ein Projekt, welches auschliesslich auf diesem Pfeiler basiert, langfristig eine wacklige Angelegeneinheit. Sicher gibt es derzeit viele solcher Projekte im Web die nach diesem Business-Modell funktionieren, doch die erfolgreichen Projekte unter Ihnen nutzen den Antrieb aus den Suchmaschinen, um den Besucher nachhaltig zu binden und zu branden, um damit weitere Standbeine zu sichern.

Serps im Firefox nur zum Anschauen

September 27, 2007 | In Misc | 2 Kommentare

…wenn das nicht mal ein Bug ist im FF ist… durch das Leerzeichen (%20) in der URL wird der href in den Serps zerstört und somit nicht mehr klickbar. Funktionierte bei mir nur im Firefox 2.0.0.7

Google Trends jetzt mit tagesaktuellen Werten

September 25, 2007 | In Trendbarometer | 4 Kommentare

Seit gestern gibt es die Keywordtrends von Google im 24 Stunden Takt. In der Vergangenheit hinkten die Trend-Charts von Google immer der Zeit hinterher. Eine Verzögerung von bis zu 6 Wochen galt als "normal". Doch das ist nun Geschichte, seit dem 24.09.2007 werden die Suchwort-Trends im Tagesrhythmus aktualisiert. Aktuelle Produkt-Launches oder regionale News-Events können nun wunderbar verfolgt und in kürzester Zeit ausgewertet werden.

Ein weiterer Vorteil des rasanten Updates dieser Werte ist eine verbesserte Keyword-Recherche, da zu den meisten Events einen gewisser Vorlauf von Branchen-Insidern existiert und man bereits in einem frühen Stadium ein Such-Rauschen erkennen kann.

Google Hottrends - Suchtrends auf Stundenbasis - gibt es leider von Google noch nicht für den deutschsprachigen Markt. Allerdings lässt der Länderhinweis (USA) darauf deuten, dass man in absehbarer Zeit auch diese Trends weiter lokalisieren wird.

Yigg nich

September 21, 2007 | In Tratsch | Keine Kommentare

Gerade höre ich mir den aktuellen Podcast von SEO FM an und was muss ich feststellen…!?!… eine IP Sperre wurde vor den User Login von Yigg gepflanzt -> :(

Es erscheint die Meldung:

Signup Error
The use of this website as registered user is limited to Germany, Austria, Luxemburg, Switzerland and Liechtenstein.
Questions? write to staff@yigg.de

 

Angestellte von großen Companies wie Siemens, GE oder Cisco, welche über UK oder US Proxies surfen (müssen) haben also keine Chance den Yigg-Diesnt zu nutzen…

Ok, dann halt nich! Nehmen wir eben Webnews :D

 

Suchen im TV & Radio - Bild v.s. Text

September 18, 2007 | In SEO | 1 Kommentar

Spracherkennung, Transcripts, Dialekte verstehen… Dinge die in Zukunft immer wichtiger werden, wenn Videos, IPTV, Audio-Streams und andere Rich-Media Spielerein das Web überfluten. Jede Menge Content, welcher "duchsuchbar" gemacht werden muss, da ihn sonst kein Mensch findet. Persönlich stehe ich bei der Aussage…:

"Hochwertiger Rich-Media Content, welcher nicht in den Suchmaschinen auftaucht ist besser als minderwertiger Text-Content, welcher gefunden werden kann."

…auf der Seite des Text-Contents. Zumindest in der Hinsicht, dass es ohne diesen Content derzeit noch nicht geht und man diese Art Content zwangsläufig benötigt, um die Suche zu füttern, damit man für seinen hochwertigen Rich-Media Content auch die notwenidge Aufmerksamkeit erzeugt. Es sei denn, man bedient sich der von den Suchmaschinen bevorzugten Plattformen wie Youtube, Yahoo! Video oder Ähnlichen, um seinen Video-Content, herausgerissen aus dem ursprünglichen Kontext, für die Suchmaschinen auffindbar zu machen. Diese Lösung ist jedoch nicht zufriedenstellend, da man sich in ein Abhängigkeit der jeweiligen Plattform begibt und zudem den meist teuren und hochwertigen Content aus seinem Umfeld reisst.

Dazu ein Beispiel: Ein Filmproduzent setzt eine Website zu seinem Film auf und zeigt auf dieser Website den Trailer zum Film. Dieser Trailer muss nun, um in den Universal Serch mit einzufliessen, zwangsläufig aus der Filmseite herausgerissen werden und auf einem dieser Videoportale eingestellt werden. Damit wird der Trailer aus seinem Umfeld gerissen. In dem Fall bestimmt also das Format "Video" das neue Umfeld.

Eine grundlegende Aussage im Bezug auf die Zuordnung von Inhalten besagt: Thema vor Form und genau dieser Grundregel widersprechen die unzähligen Videoportale.

Ansich ist dieser Trend nur ein Eingeständnis dafür, dass die Technologie noch nicht den Ansprüchen dieser Inhalte entspricht. Den Spagat zwischen Text & Bild wird man noch solange weiterführen müssen, bis die Crawler dieser Welt in der Lage sind auch die eigentlichen Inhalte der Videos und Streams zu analysieren und zu verstehen. Einen guten Ansatz bietet da zum Beispiel die Suchmaschine Spactor, eine MediaClipping Produktion, welche die gescannten Daten aus TV und Radio für den Endverbraucher durchsuchbar macht. Zwar liegt der Fokus dieser Suche nicht auf dem Finden von Informationen, sondern nur auf dem Finden von Nennungen eines bestimmten Begriffs, um dessen Medienwirksamkeit zu messen…allerdings ist dies ein guter Ansatz in Richtung Tierfenanalyse von Video und Audio-Content. Der Knackpunkt bei dieser Suche liegt in der automatisierten Spracherkennung und deren digitaler Umwandlung. Gerade bei Eigennamen erkennt man in der dieser Beta-Suche recht gut, dass diese Spracherkennung noch in den Kinderschuhen steckt und oft schnelle, undeutliche oder dialektische Aussagen falsch ausgewertet werden. Nachdem MediaClipping nun erfolgreich die zweite Finanzierungsrunde überstanden hat, darf man gespannt sein, wie sich die Technologie in dieser Richtung entwickelt. Meiner Auffassung nach eine dringend notwendige Technologie im heutigen Web 2.0.

 

Erweiterte Suche in Gmail

September 12, 2007 | In Misc | 2 Kommentare

Einer der Gründe warum ich persönlich Gmail bevorzuge ist die Suchfunktion. Die Suche innerhalb eines großen Mailvolumens performant zu halten ist eine Herausforderung an der viele Webmail-Anbieter noch heute zu knabbern haben. Bei GMX zum Beispiel werde ich jedes mal bis zu 15 Minuten vertröstet, bis denn dann mal der Suchindex für meine Mails erstellt wurde und ich ein Ergebnis geliefert bekomme. Ich bin zwar schon heil froh, dass GMX nach ettlichen Jahren überhaupt eine Suchfunktion eingebaut hat, doch diese zeitverzögerte Suche ist schlicht unbrauchbar, da man im normalen Tagesablauf nicht die Zeit hat bis zu 15 Minuten zu warten, nur für eine Suche, die mir dann sagt "leider nicht gefunden…".  Gmail hingegen nutzt das Know-How und die Technologie der bekannten Suche, um die Mails schnell und präzise zu finden. Doch das eigentlich Interessante innerhalb der Gmailsuche ist meiner Erachtens die erweiterte Suche von Gmail. Diese lässt verschiedene Operatoren zu, die zum Beispiel auch das labeln einer größeren Anzahl von Mails im Nachhinein extrem einfach macht. Zu den speziellen Operatoren gehören zum Beispiel die bekannten Felder aus dem Mail-Header from:, to:, subject, cc: oder bcc. Eine ausführliche Liste der spezifischen Suchoperatoren findet man auf den Seiten des Google Supports.

Google indexiert sich mal wieder selbst

September 6, 2007 | In SEO | Keine Kommentare

Diesmal werden verschiedene Google Queries über eine .edu Domain wieder in den Index aufgenommen. Und das Dillema ist perfekt, wenn dann ein Suchpartner wie CNN als Linkspender für diese Queries dient. Dieser Edu-Mirror wird als "text only" Version mit der Software von Useablenet betrieben und wird direkt von der Startseite der Homepage der Universitäten des US Bundesstaates Georgia angelinkt und dient mit Sicherheit nur zur Betrachtung einer barrierefreien Version der Website. Dass dieser Mirror auch dazu verwendet werden kann, komplette Website zu in den Google Serps zu hijacken, ist den Betreibern sicher so nicht bewusst. Zudem hat es den Anschein, als würde man nur eine Demo-Version oder Edu-Version von Lift Assistive einsetzen, da hin und wieder und meistens bei nicht edu Hosts das Surfen über diesen "text-only" Modus unterbrochen wird und die Software von Usablenet darauf hinweisst, dass, wenn man weitersurfen will, die kostenlose Trail-Version nutzen kann. Diese Trail-Version beinhaltet dann Werbeeinblendungen.

Ein Link von der Google Home

September 6, 2007 | In SEO | 1 Kommentar

So ein Startseitenlink von der Google Homepage wie im Fall vom "mehr" -Link zieht scheinbar so, dass es reicht sich bei mehr als 400 Mio Ergebnissen auf 1 zu setzen. Folgt man diesem Muster müsste es für die anderen Links auf der Startseite ähnlich gute Resultate geben. Doch bei dem weniger umkämpften Suchwort "Unternehmensangebote" reicht es nur für Platz 2. Ein ähnliches Ergebnisse bekommt man auch für das Suchwort "Werbeprogramme" und bei "Erweiterte Suche" schafft man es trotz Robots.txt Ausschluss bei > 25 Mio. Ergebnissen auf #1.

Was schliesst man nun daraus?

- die Ergebnisse wurden manuell korrigiert und "mehr" & "Sprachtools" und "Erweiterete Suche" hat man vergessen anzupassen?
- Links von starken Seiten setzen sich über alle Optimierungsstrategien hinweg.
- Werden die Links auf dem Footer in dem Fall anders gewichtet?

Mal was Passendes für die Tratsch-Ecke

September 6, 2007 | In Tratsch | 3 Kommentare

"Obwohl Google keine Beziehungen zu SEOs unterhält und diesbezüglich auch keine Empfehlungen ausspricht…" ;)

[via Google Support]

¹ Keine Rechtsberatung!

Powered by WordPress with Pool theme design by Borja Fernandez.
Uwe Tippmann