RobotReplay - Klick- und Surfverhalten analysieren

Mai 30, 2007 | In SEO Stats | 4 Kommentare

Manchmal haben Datenbankfehler auch ihr Gutes. Denn als ich heute morgen wie gewohnt die aktuellen Beiträge im Abakus Forum durchschauen wollte, macht mir die Forendatenbank einen Strich durch die Rechnung und erwiderte jede Anfrage nur mit einer Fehlermeldung. Ein guter Anlass mal wieder zum Kollegen Bindl ins OmTalk-Forum zu schauen, in der Hoffnung ein paar interessante Branchen-News lesen zu können. Fehlanzeige: das interessanteste am OmTalk-Forum ist… und bleibt wahrscheinlich auch, die Linktausch-Partnerbörse, welche sich wie eine Ansammlung von Kleinanzeigeninseraten liest.

Doch was war das? -> immer wenn ich meine Maus über einen Link oder ein Element bewegte, versuchte die Seite eine Verbindung mit dem Host robotreplay.com herzustellen… Grund genung sich mal diese Domain näher anzuschauen. RobotReplay ist ein Analysedienst der, wie Dr. Web beschreibt, “versucht einen alten Traum der Webdesigner und Seitenbetreiber zu erfüllen”. Der Dienst ermöglichst es das Klickverhalten und die Mausbewegungen anonymer Benutzer mitschneiden zu lassen. RobotReplay erstellt aus den Daten ein Video der einzelnen Besucher-Sessions, welche man dann, innerhalb des Benutzeraccounts abspielen lassen kann. Bei größeren Websites sammeln sich so rasch unzählige Aufzeichnungen an, welche sich nur durch einen manuellen Review auswerten lassen.

Wann und Wo eignet es sich RobotReplay einzusetzen?

Meiner Meinung nach eigent sich dieser Dienst hervorragend zur Usability-Analyse von Landingpages, um diese noch effizienter zu gestalten. In Anbetracht dessen, dass RobotReplay Passwörter aus Formularen in Klartext übermittelt, sollte man RobotPlay zum Schutz des Nutzers nicht auf Seiten verwenden auf denen derartige, sicherheitskritische Formulare eingebaut sind. Ansonsten eignet sich RobotReplay hervorragend zur Ursachenforschung für hohe Absprungraten. Da der Dienst durch den manuellen Review sehr zeitintensiv ist und die Performance & Verfügbarbeit solcher Dienste immer zu Wünschen übrig lässt, sollte man RobotReplay nur gezielt bzw. temporär einsetzen. Ein weiterer Nachteil den man bedenken sollte, ist der Fakt, dass sich die Anaylse-Videos immer auf den aktuellen Inhalt der Seite beziehen, hat dieser sich zwischenzeitlich verändert, so entspricht der Verlauf der Session nicht mehr dem Ursprung und die Analyse wird ungenau und im Zweifel unbrauchbar.

Ergänzend: Weitere, ähnliche Anbieter für einen derartigen Service sind Tapefailure sowie Clicktale, Crazyegg, Clickdensity, Clickheat, Mapsurface, Clicktracks und Many Eyes von IBM.

Is Google the enemy? - Frenemy - Google Zeitgeist Europe

Mai 22, 2007 | In Misc | Keine Kommentare

Freund oder Feind, war eine der bestimmenden Aussagen auf der zum zweiten Mal stattgefundenen Google Veranstaltung. Auf diesem Event, welches im Grove Hotel nördlich von London stattfindet, treffen sich führende Köpfe aus der Internet & Medienbranche, um sich über aktuelle und zukünftige Themen der Branche auszutauschen. Dylan Thwaites berichtet dabei über die allgemeine Stimmung auf der Veranstaltung und die Spannungen zwischen den einzelnen Partein. Wer sich einen Eindruck über die letztjährige Google Zeitgeist Europe machen will, kann dies bei Loiclemeur tun - generell findet man nicht viele öffentliche Informationen zu dieser privaten Veranstaltung, da das bloggen und berichten über die einzelnen Sessions laut Loïc Le Meur nicht gestattet war. Ich denke der Ausdruck “Frenemy” trifft dabei den Nagel auf den Kopf und vereinigt die aktuelle, angespannte Lage der Branche.

Update: Videos zur Verstaltung gibt es hier.

Musikkassetten & Schallplatten digitalisieren lassen

Mai 22, 2007 | In Shops | 5 Kommentare

Durch Zufall bin ich einen Anbieter gestoßen, der sich darauf spezialisiert hat die guten alten Schallplatten und Musikkassetten zu digitalisieren. Dabei werden die Musikstücke entweder direkt auf CD im Vinylformat verewigt oder als MP3 umgewandelt. Da ich einer Generation angehöre, die mit Schallplatten aufgewachsen ist und diese Platten seit verdammt langer Zeit im Keller aufbewahrt, um sie später mal wieder anhören zu können - finde ich es eine klasse Idee die Scheiben zu digitalisieren. Dann kann der alte Schallplattenspieler endlich sein Zeitliches segnen :)

Google vs MySpace

Mai 18, 2007 | In Trendbarometer | 2 Kommentare

Gleich krachts weltweit:

In US überstieg das MySpace Suchvolumen ziemlich genau letztes Jahr das Keyword “google”.

KITT im Ausverkauf

Mai 18, 2007 | In Misc | 1 Kommentar

Für knapp $150.000 kann man jetzt KITT, das Orginal, aus der Serie Knight-Rider kaufen!

Crawlen war gestern - Neu: mit dem Feed direkt in die Serps

Mai 2, 2007 | In SEO | 1 Kommentar

Breaking: Nie wieder stabile Serps über einen Zeitraum, länger als eine Stunde!

10.00 Uhr Platz 5, 10:30 Uhr Platz 8, 11:00 Uhr Platz 11… Horror für die Auswertung, eine Katastrophe für jeden, der positionsbasierend (Top 10) abrechnet und fatal zur Ermittlung des wahren Potential einer Position in den Serps.

Gibts nicht? Doch, einige (hab nicht alle getestet) News-Quellen, welche bei Google News als solche gehandelt werden, kommen seit kurzer Zeit in den Genuss ihre Newsfeeds direkt in den Serps zu platzieren. Neu daran ist, dass die News nicht wie gewohnt in einem Newsblock über den Serps erscheinen, sondern mit unter die natürlichen Serps gemischt werden.

Anders konnte ich mir es nicht erklären, dass eine News die heute morgen 08:08 Uhr veröffentlicht wurde, bereits 09:00 Uhr auf Platz 8 bei einem “Newskeyword” gerankt hat, mitten unter normalen Websites und Blogs. Verdächtig fand ich das “fresh date”, welches auf den 1. Mai verwiess - die News selbst wurde jedoch erst heute am 2. Mai erstellt… die Möglichkeiten wie sowas zustande kommt, lässt sich in der Regel auf ein paar wenige Beispielfälle beschränken. Entweder das Datum der Veröffentlichung bei der Newsquelle stimmt nicht oder Google feeded die Nachrichten nun direkt in die Serps.

Die zweitere Wahrscheinlichkeit lag aufgrund der Änderungen der Einblendung der Google News in U.S. vor ein paar Tagen irgendwie näher. Kleiner feiner Unterschied in U.S.: die Kennzeichnung (news results for google news), welche zum Ausdruck bringt, dass es sich bei dem jeweiligen Newsergebnis um eine feedgenerierte News von Google News handelt, fehlt in den deutschen Serps. Derzeit unterscheiden sich diese Nachrichten nur in einem Punkt von den “normalen” Ergebnissen -> Sie haben alle keinen Cache-Link (was jedoch auch nur soviel heisst, dass es eben keinen Cache gibt).

Eine Test-Query zum Finden solcher News ist denkbar einfach - nehmt dazu einfach das aktuelle Datum und den gewünschten Host der Newsquelle. Zum Beispiel “03.05.2007″ site:golem.de - sollte im Laufe des morgigen Tages ein paar Ergebnisse ausspucken.

Ok, soweit so gut. Vielleicht ist es auch nur ein lokaler Test, da es in DE parallel zu den eingeschmuggelten News noch den “Newsblock” gibt. Sollte es jedoch Bestand haben, denke ich, dass in geraumer Zeit auch ausgewählte Blogs auch auf diese einen direkten und zeitnahen Zugang zu den Serps bekommen. Ich denke auch, dass SEOs von Firmen, welche als Newsquellen aktuellen News in den Index pushen können, nun verstärkt verschiedene Versionen testen, ganz nach dem Motto, wenn es 9:00 Uhr nicht gescheit rankt, dann wird solange an den On-Site Faktoren geschraubt bis die News besser rankt ;) Glück für die Newsquellen, Pech für diejenigen die keine direkte Schnittstelle in die Serps haben und auf den Crawler warten müssen.

Google verbessert damit die Aktualität seines Index und schafft gleichzeitig sich ständig wechselnde Ergebnisse. Das hat zur Folge, dass die anfangs beschriebenen Szenarien ihren Lauf nehmen…

Viel Erfolg!

Update: Google arbeitet weiter daran den Index noch aktueller zu gestalten. Dabei spielen neben den Newsquellen nun auch Blogs eine signifikante Rolle. Zwar schaffen es in der Regel nur die Startseiten Blogs innerhalb weniger Stunden in die Serps, doch reicht dies meist aus, um am Longtail tagesaktueller Events und heißen Themen teilzuhaben. Den Status haben meiner Recherche nach extrem viele Blogs (deutschsprachig) bekommen. Darunter befinden sich auch viele kleinere, fachspezifische Blogs mit einer geringen Postingfrequenz wie zum Beispiel auch dieses Blog hier. Es bleibt abzuwarten, ob neben den Startseiten der Blogs, demnächst auch die hochoptimierten Permalinks in den Index gelangen - denn die Einstiegsseiten der Blogs haben meist nur eine geringes Potential bei eventbasierten Keywords direkt in die Top 3 einzusteigen, wohingegen es eine optimierte Blog-URL bei der regulären Positionierung (nach ca. 48 Stunden) meist in die Top 3 oder zumindest in die Top 10 schafft.

¹ Keine Rechtsberatung!

Powered by WordPress with Pool theme design by Borja Fernandez.
Uwe Tippmann