Thumbs up! Google WMT nun mit Advanced SEO Metric

April 14, 2010 | In SEO | 11 Kommentare

Google Webmaster Tools SEO Metrics

Seit heute, bietet Google in den Google Webmaster Tools erweiterte Informationen zur SEO Performance der eigenen Webseite an. Dabei generiert Google einen Chart mit den Einblendungen und der Klickrate der eigenen Domain in der organischen Suche für die häufigsten Suchanfragen bei denen die eigene Webseite angezeigt wurde. Das ganze lässt sich noch regional (Google.de, Google.at…), zeitlich sowie auf die einzelnen Suchtypen (Bildersuche, Websuche, mobile Suche…) eingrenzen.

Das schöne daran ist, dass dies eine gute Grundlage bilden könnte, um den Erfolg oder Mißerfolg einer SEO Dienstleistung zu messen. Google zeigt detailiert zu den wichtigsten Keywords die Klickraten auf den einzelnen Positionen. Eine hervorragende Basis zur Optimierung von Descriptions und Title Elementen.

Aus der Praxis: ABAKUS Internet Marketing ist eine Agentur für Suchmaschinenoptimierung welche diese Zahlen seit Anfang an im Reporting seiner Kunden verwendet. Die Daten bilden damit einen hervorragenden Ausgleich zu den klassichen SEO Tools die sich am Markt befinden. Mit eine höheren Datengenauigkeit, welche Google bereits angekündigt hatte, gewinnt dieses Feature noch weiter an Bedeutung und wird sich langfristig als Daten-Dashboard durchsetzen können.

Kennt man diese Daten von anderen Webseiten bzw. beobachtet man die eigenen Werte über einen längeren Zeitraum, könnte man hier sogar einen Benchmark erzeugen, um so ein Feeling zu entwickeln was die besten CTR Werte für das entsprechende Keyword auf der jeweiligen Position sind.

Fazit: Das ist m.E. das erste wirklich brauchebare Feature in den Webmaster Tools und ist m.E. eines der Killerfeatures die "leider" dazu führen werden, dass man als seriöse Webseite, welche im Internet im Kanal Suche punkten will nicht mehr an diesen Tools vorbeikommt. Zudem führt dieses Feature m.E. nun auch eine neue Qualität der Optimierungsdienste im Online Marketing ein. Thumbs up!

Keine lokalen Google Maps Ergebnisse bei SEO & Webdesign Keywords

April 14, 2010 | In SEO | 5 Kommentare

Wie Ende 2009 in U.S. bereits vollzogen, hat Google nun auch in Deutschland die lokale "Onebox" / lokalen Google Maps Ergebnisse für die SEO & Webdesigner Branche entfernt.* Das heisst für "seo hamburg", "suchmaschinenoptimierung berlin" oder "webdesign köln" werden nun keine Kartenmodule mehr in den Ergebnissen angezeigt. Google selbst behauptet, dass dieser Schritt besser die Intention der Nutzer trifft… Google spricht auch lediglich von einer Einschränkung der Onebox-Einblendungen…

*auf den von mir getesteten Google Servern / Stand 14.4.10

SEO DIVER - SEO Tool launched

März 1, 2010 | In SEO | 3 Kommentare

Nach gut 8 Monaten Entwicklung war es am vergangenen Freitag endlich soweit - im Rahmen der diesjährigen SEMSEO stellte ich das neue SEO Tool mit dem Namen SEO DIVER vor. Als Suchspezialist wissen wir, dass die heutige Websuche und damit verbundene Vielfalt der Suchfilter, Einstellungen, Personalisierungen und universellen Module eine echte Herausforderung für jeden Online Markteer darstellen kann. Um da einen Überblick zu behalten muss man die Zusammenhänge zwischen Suchverhalten und Technologie verstehen. Der SEO DIVER soll hierbei eine unterstützende Aufgabe übernehmen und dem Nutzer das Leben im täglichen Umgang mit der Suche als Marketinginstrument erleichtern. Zudem bietet die breite Basis an aktuellen Suchbegriffen eine weitere unabhängige Quelle für aufkommende SEA/SEO Kampagnen. Ein solides Reporting der wichtigsten Kennzahlen, eine tiefgehende Backlink-Recherche sowie die Vergleichbarkeit mit Mitbewerbern runden den Umgang mit diesem Tool ab.

 

Immer wenn Google sonntags klingelt

Februar 23, 2010 | In SEO | 1 Kommentar

Ich behaupte einfach mal: Trust ist ein wichtiger Faktor, um Schwellenwerte zu überwinden. Einer dieser Schwellenwerte bezieht sich auf das Gesamtmaß (Deckel) an Klicks aus dem organischen Index. Die Kombination aus Trust und indexierten Seiten steuert dieses Gesamtmaß an Traffic. Glaubt man dieser These, kommt sofort verschiedene Fragen auf wie zum Beispiel:

a) Wann bekomme ich das nächste Trust-Update?

b) Woran erkenne ich, ob es eine Erhöhung des Deckels gab?

c) Wie weit bin ich vom nächsten (Trust) Update entfernt?

Meinen Analysen nach kann ich nun folgende Antworten darauf geben:

zu a) Wenn es eine algorithmische Stufe nach oben geht, dann ist das in der Regel immer an einem Sonntag. (Stand Q4 2009)

zu b) Der organische Traffic (bitte hier nur organischen Google Traffic bewerten) erhöht sich visuell wie eine Treppe um ein Volumen von 15% - 25%

zu c) Die Gretchenfrage - auf die ich leider keine konrekte Antwort parat habe - hierzu Bedarf es eine Analyse über einen längeren Zeitraum.

Trotz PageRank 8 nicht in den Top 100

Dezember 29, 2009 | In SEO | 1 Kommentar

Nein, keine Penalty, lediglich ein Beispiel für die Überbewertung des Google PageRank im Bezug auf das Ranking in der Google Websuche. Trotz PageRank 8 nicht in den Top 100 - diese oder eine ähnliche Frage könnten sich Betrachter dieser Website stellen - eine uralte (1995) deutschsprachige .de Domain mit exzellenten Backlinks renomierter Facheinrichtungen und einem wunderschönen Google PR von 9/10 Punkten (seit über einem Jahr). Was will man mehr?

Ah… ein Ranking…da war doch was… ok - bei diesem PageRank sollten ein paar kleine On-Page Optimierungen doch ausreichen… Title fixed, Uniqueness, Breadcrumb fixed, Headlines fixed… doch das Ranking der Inhalte auf den Unterseiten (z.B. "Suchmaschinenoptimierung" oder Vergleichbarem) welchen einen PageRank von 8 vorgeben, bleibt aus. Ein guter Show Case, wenn mal wieder jemand auf dem PageRank pocht. #Passcode via Facebook.

Personalisierte Google Suche II

Dezember 6, 2009 | In SEO | 6 Kommentare

Der nachfolgende Artikel knüpft an meinen damaligen Artikel (03/2008) und der aktuellen Google-Diskussion bzgl. der Einführung der personalisierten Suche für nicht eingeloggte Nutzer an. Das die persönliche Suche ein klares Prio-Produkt bei Google darstellt ist keine Besonderheit und wurde auch auf den einschlägigen Konferenzen oft genug vermittelt. Ich stellte mir gar oft die Frage, welche Services Google noch alles so "um die Suche" bastelt, um dem Nutzer einen Grund zu geben sich einen Google Account zuzulegen und diesen auch regelmäsig zu nutzen…

Heute…. erschliesst sich mir der kürzlich vollzogene Schritt - das Suchverhalten aller Cookie-fähigen Clients für 180 Tage zu personalisieren - in einer logischen Konsequenz aus wirtschaftlich getriebenen Faktoren (Steigerung des CPC durch Behavioral Targeting) aber überwiegend auch aus Relevanzgründen.
Ich bin überzeugt davon, dass die wirtschaftlichen Interessen bei dieser Umstellung nicht der ausschlaggebende Grund waren, sondern vielmehr die Erfahrung und gesammelten Messdaten. Diese Daten haben Google nun ausreichend Beleg dafür gegeben, dieses "Feature" im Sinne der Relevanzsteigerung für alle Nutzer anzubieten.
Stellt das Relevanz-Team einer Suchmaschine fest, dass eine Maßnahme einen signifikanten Anstieg der Relevanz einer Ergebnisseite herbeiführt und sich dieses Verhalten global ausrollen lässt, ist die Verlockung groß eine solche Maßnahme auszurollen… und wenn es zu dem noch in die wirtschaftlichen Ansichten der Aktionäre passt, erst recht.

Dass es genügend Testdaten gegeben hat, zeigen uns Zahlen, welche nur von unabhängigen Quellen eingefangen wurden, demnach wurde in den USA bereits jede 2te Query von einem eingeloggten Nutzer durchgeführt. In Frankreich sollen es 30% sein und im paranoiden Deutschland immerhin knapp 20%. Ein Zeugnis für die erfolgreichen Strategien den anonymen Nutzer in einen bekannten Google-Nutzer zu verwandeln.

Spannend wird es, wenn versucht wird, persönliche Profile anhand bestehender Profile zu harmonisieren, um deren lückenhaftes Suchverhalten besser vorhersehen zu können. Zum Beispiel mit der Prognose eines Search Refinements aufgrund von vorhandenen Daten  - jemand sucht nach "zelt" und innerhalb von 180 Tagen sucht die Person nach "urlaub italien", dann errechnet sich anhand ähnlicher, vorhandener Suchprofile eine Wahrscheinlichkeit von 60%, dass der Nutzer im Anschluss an "urlaub italien" eine Anfrage stellt die da lautet "zeltplatz italien meer"… dieses Refinement könnte man nun direkt in der Ergebnisseite von "urlaub italien" anzeigen lassen, noch bevor der Suchende es eingetippt hat ;) Eine Art Google Orakel, nur besser.

Welche Auswirkungen hat diese Umstellung nun auf den Bereich SEO?

Das persönliche Klickverhalten spielt laut Google eine maßgebliche Rolle. Wenn wir auf der ersten SERP eine Klickrate von 93% im Schnitt generieren, dann besteht die Wichtigkeit in der Optimierung, den Kunden in die Sichtbarkeit der ersten Seite bei seinem Kunden zu bringen. Gelingt dies, gilt es die Klickraten zu optimieren. Klassische Elemente wie URL, Snippet und Titel mit all ihren Facetten werden eine zunehmend große Rolle spielen. Auch die Erschaffung von Online Brands und deren Markenbildung beim Google-Nutzer tragen zur Verbesserung der Klickraten maßgeblich bei.

Angenommen die persönliche Suche bevorzugt einen spezifischen Host bei der zukünftigen Suchanfrage im Ranking, dann wird die SEO-Schlacht, wie so oft, im Longtail geschlagen. Denn auch ein Klick bei einer extremen Longtail-Query wird dem Host einen Pluspunkt verschaffen, den er im Short-Head bitter notwendig haben wird… Bedient der Host keinen Longtail, passend zu seiner Zielgruppe, werden die Anstregungen in Sachen Markenbildung so manches Budget zum Glühen bringen. Je mehr relevante "Klicks" die zu optimierende Seite bei seiner Zielgruppe generiert, desto einfacher hat sie es bei nachfolgenden Suchanfragen. Conversion getriebene Firmen werden natürlich alles daran setzen, dass der Suchende bereits bei der ersten Anfrage direkt zum Kunden gewandelt wird, ohne erneut suchen zu müssen.

Was ist ein statisches Ranking-Reporting (Software) noch wert?

Nichts, da dieses Reporting genau nur einen Nutzer simuliert, den Profillosen, Unspezifischen, ja man könnte den Nutzer "suchverhaltensgestört" bezeichnen, da dieser keine natürliche Suchhistorie aufweisen kann. Die Kunst eines guten SEO Reportings wird es in Zukunft sein, eine Art Standardprofil der jeweiligen Zielgruppe zu entwerfen und deren Positionen zu begutachten bzw. eine Durchschnittsposition aller Nutzer zu errechnen. Im Zuge des allgemeinen Unverständnis über die Funktionsweise von Google und der komplexen Strukturen wie man das oben genannte wohl abbilden solle, wird sich der klassiche Ranking-Report, als Abbild einer Momentaufnahme eines suchverhaltensgestörten Google-Nutzers aber noch eine ganze Weile halten. Sofern nichts "Neues" kommt, werden sich bei vielen wohl Meßwerte der bekannten Tracking-Systeme als Erfolgsmaßstab durchsetzen - d.h. allerdings dass man erst nach dem Klick in der SERP schlauer sein wird, davor ist man im Zweifel blind.

Das Standardprofil eines Suchenden!

Es stellt sich die Frage wieviele Klick-Vorlieben ein Nutzer pro Keyword so haben kann - ich tippe auf 1 - 599. Ok, ein personalisiertes Suchergebnis auf einen Brand/Host kann sich frühestens aus dem zweiten Klick auf einen Host bei unterschiedlichen Suchbegriffen bilden. Bei einem durschnittlichen Suchvolumen in Deutschland von 100 Suchanfragen / Monat ergeben sind 600 Anfragen pro 180 Tage - jede Suchanfrage, nach dem ersten Klick könnte theoretisch eine Abfrage sein, welche vom vorrangeschrittenen Suchvorgang beeinflusst wird.  Dabei gibt es eine thematische unterschiedliche Wahrscheinlichkeit, je nachdem, welches Themengebiet betroffen ist. (siehe Suchverhalten in Deutschland). Vorwiegend davon betroffen sind:

  • wiederkehrende Suchanfragen
  • Suchen in der gleichen Nische bzw. im gleichen Themengebiet
  • Suchanfragen, welche von themenübergreifenden Content-Portalen bedient werden können

Fazit: Ich bin gespannt, welche Neuerungen diese Entwicklung hervorrufen wird. Positiv ist, dass bei diesem Konzept der "kleine" Affiliate durch die Erstellung von Longtail-Inhalten immernoch die Chance bekommt eine signifikante Rolle in der Websuche spielen kann. 

IP to Location

August 8, 2009 | In Trendbarometer | 4 Kommentare

Die IP einem genauen Standort zuzuordnen ist der Traum eines jeden Entwicklers und Marketing-Strategen, wenn es um das Ausliefern von Inhalten mit regionalen Bezug geht. Ob Sprache, Land, Stadt, Strasse, Hausnummer, je genauer man den Nutzer lokalisieren kann, desto zielgerichteter kann man die Inhalte aussteuern. Im Internet gibt es verschiedenen Datenbanken, welche mit verschiedenen Ansätzen den Standort einer IP-Adresse zuordnen wollen. Die Herausforderung besteht jedoch in der Beständigkeit dieser Daten. Die Zuordnungen ändern sich bei dynamischen IP Adressen sehr häufig, mobile Endgeräte (iPhones, Notebooks usw..) wechseln stetig den Standort und selbst feste IP Adressen werden hin und wieder neu vergeben und ändern ihren Besitzer und damit ggf. den Standort. Eine IP Adresse auf ein Land einzugrenzen ist oft nicht das Problem, geht es aber eine exakte Standortanalyse versagen die meisten Datenbanken.

Es gibt verschiedenen Wege seine Datenbank mit aktuellen Geo-Location Daten anzureichern. Die noch recht neue Geolocation API, welche vom Google definiert und vom W3C übernommen wurde, stellt einen Weg dar. Dabei sendet der Browser seine Daten verschlüsselt an eine API, welche anhand verschiedenster Details versucht den Standort zu ermitteln. Gut wenn man dann noch als Default Location Provider im Mozilla FireFox eingebaut wird.

Ein weiterer Weg ist natürlich den Nutzer zu fragen woher er kommt. - klingt old school - ist aber extrem effektiv, wenn man es geschickt anstellt…. zB. bietet man einen Service an, bei dem der Nutzer sich registrieren muss und seine Adresse oder eine mit einer Adresse verknüpften Information (Kreditkarte - Google Checkout, Maps etc) angibt oder man liefert auf einer gut besuchten Website einfach regional falsch zugeordnete Daten aus - der Nutzer ärgert sich, hat aber die Option seinen Standort sehr einfach zu definieren, damit er in Zukunft ein besseres Erlebnis hat (z.B. Google local onebox).

Am Ende gibt es noch ganz interessante technologische Ansätze und Datenquellen, welche mit Hilfe von GPS fähigen Geräten die Wifi Spots (und deren MAC-Adressen) mit einer Position versehen können. Theoretisch kann m.E. jedes iPhone zum WiFi-Spion genutzt werden.

Zusammengefasst gewinnt im Werbemarkt aber auch im Bezug auf die Suchrelevanz u.a. der Anbieter mit der aktuellesten Datenbank standortbezogener Daten. Da Google m.E. hier extrem gute Karten hat und aufgrund der Maße an Nutzern stetig eine Vielzahl neuer Daten hinzubekommt, dürften es andere Firmen schwer fallen eine ähnliche Datenbasis zu schaffen. Einzig Microsoft und Apple  (mal von den Regierungen + Militärs abgesehen) könnten m.E durch die Nähe zum Nutzer (Internet Explorer, iPhone) eine ähnliche Datenbank aufbauen.

Keine Treffer für Hüffelsheim

August 3, 2009 | In SEO | 5 Kommentare

Der Blog entwickelt sich zum Perpetuum Mobile… aus den teilweise sinnfreien Rankings wie z.B. Platz 1 für "keine treffer" bei Google… entwickelt sich doch direkt dieser Blogpost… denn für die Suche nach "keine treffer" in der Google-Suche blendet Google automatisch Ergebnisse für das den Ortsnamen "Hüffelsheim" ein - scheinbar liegen diese zwei Begriffe so dicht beieinander, dass Google einen Zusammenhang erkennt… der genaue Hintergrund bleibt mir jedoch verborgen… gab es etwa keine Treffer für Hüffelsheim, haben alle beim Schützenfest in Hüffelsheim keine Treffer erzielt oder gibt es einfach nur keinen (P)feffer in Hüffelsheim… wir werden es wohl nie genau herrausfinden… ;)

keine Treffer für Hüffelsheim bei Google

 

Update: Dem Hüffelsheimer Comedian Matthias Jung (davor noch nie gehört / gesehen) ist das mit dem Google Treffer auch aufgefallen…(siehe Website)

Anzeigen öffentlicher SearchWiki Kommentare - SWM

April 27, 2009 | In SEO | 3 Kommentare

Google testet zur Zeit mit einigen Google Account das in den Staaten etablierte SearchWiki Feature, bei dem der Suchende die Möglichkeit bekommt seine Suchergebnisse neu zu ordnen und zu bewerten. Dabei besteht auch die Möglichkeit ein öffenltiches Kommentar zu jedem Ergebnis abzugeben. Will man nun das Kommentar eines anderen Nutzers zu einem speziellen Ergebnis sehen - muss man zugegebener Maßen etwas umständlich - über die Liste aller "bewerteten Ergebnisse" gehen und dort auf "X Kommentare" klicken - siehe Screenshot. Zu dieser Liste gelangt man, indem man z.B. in der URL den Parameter "&swm=2" anhängt oder am Ende einer jeden SERP auf "Alle Einträge für dieses Such-Wiki anzeigen" klickt.

Google Accounts, welche derzeit nicht für Deutschland freigeschaltet sind, kommen zu über die englische Version z.B. www.google.com/search?q=keyword&hl=en&swm=2 zu der entsprechenden Liste. In der Liste kann dann jedes Kommentar einzeln auch als "hilfreich" oder eben "unnütz" bewertet werden.

Es ist derzeit extrem spannend zu beobachten, wie so langsam die deutschsprachigen Seiten mit Kommentaren und Votes versehen werden ;)

Google SearchWiki - SWM

SearchWiki - Vom Nutzer zum Suchmaschinenoptimierer

April 26, 2009 | In SEO | 5 Kommentare

Ok, an dieser Stelle nur ein paar kurze, persönliche Anmerkungen zur Einführung des SearchWiki Features bei Google Deutschland. SearchWiki ermöglicht eingeloggten Googlenutzern Ergebnisse in der Suche zu bewerten und damit nach oben zu schieben, ganz aus der Ergebnisliste zu entfernen oder nach oben geschobene Ergebnisse wieder an ihre ursprüngliche Position zu setzen. Zudem können ähnlich wie SearchPad von Yahoo!  Ergebnisse kommentiert werden. Das heisst, es gibt in absehbarer Zukunft (bei der Marktdurchdringung im Suchbereich sicher früher als später) einiges an Daten, welche Google rein theoretisch in den Algo fließen lassen bzw. mit denen man bestehende Signale anreichern könnte. Da wären "positive Votes im Bezug auf eine spezielle Abfrage", "negative Votes im Bezug auf eine spezifische Abfrage (entfernen, Zurückstufung eines hochgewerteten Ergebnisses" und Kommentare (z.B. zur unterstützenden, redaktionellen Auswertung bei Unklarheiten der Relevanz). Anfangs sollen diese Nutzerbewertungen nicht das Ranking beeinflussen, das ist meiner Meinung nach nur eine Hinhalte-Taktik. Google und auch andere Suchmaschinen, welche Daten von Nutzern im Bezug auf die Abfrage sammeln erschaffen sich einen unschätzbaren Mehrwert - denn wechselt der Nutzer die Suchmaschine, fehlen all’ seine persönlich, über "die Jahre" mühselig aufgebauten Daten. Den Vorteil den Nutzer mit personalisierten Daten an die Suche zu binden, erklärte Horowitz bereits 2006 in einem Interview gegenüber dem Focus. Die Daten verändern zudem sehr wohl die Ergebnisse und zwar mit der ersten Bewertung - zumindest für alle, die bewertet haben - und indirekt für alle "eingeloggten" Nutzer die anhand der nutzerübergreifenden Werte wie "Anzahl derer die gevotet haben" oder die öffentlichen Kommentare lesen können.

Ich bin fest davon überzeugt, dass wenn ausreichend Daten vorhanden sind, diese Werte auch als Signal zur Berechnung der algorithmischen Suche herrangezogen werden, natürlich nicht ausschließlich, nur unterstützend. Wenn die Votings in ausreichender Zahl vorhanden sind, kann ich mir gut vorstellen, dass man in Verbindung mit Dingen wie "Alter des Google-Accounts" bzw. "Reputation des Google Accounts", der für den Vote benutzt wurde - dieses Signal irgendwann mal stärker gewichtet als den verstaubten blauen "Link". Eine verifizierte, glaubhafte Nutzerbewertung ist schlichtweg demokratischer als ein Link, bei dem man nicht genau weiss, ob dieser gekauft, getauscht oder tatsächlich redaktionell gesetzt wurde…

…bereits heute bewertet Google eine "Bewertung / Review" eines Ergebnis der lokalen Suche (Google Maps), so dass selbst ein Blinder dessen Effekt nach kurzer Zeit zu sehen bekommt…

Fazit: Wie bisher (z.B.die CTR als algorithmisches Signal) ist jeder Google-Nutzer ein Suchmaschinenoptimierer, nun eben ein bisschen mehr als vorher ;)

Ran an den Speck

April 16, 2009 | In SEO | 1 Kommentar

Noch dreht sich das Rad :)

Seiten auf Deutsch

April 5, 2009 | In SEO | 1 Kommentar

Meinen Beobachtungen nach testet Google zur Zeit bei einigen Nutzern in Deutschland eine automatische Weiterleitung auf die Suchoption "Seiten auf Deutsch". Aufgefallen ist mir dies bislang nur bei Ergebisseiten, bei denen der nachfolgende Tipp (in Google-Sprache: lrtip=1) erscheint:

"Tipp: Suchen nur nach Ergebnissen auf Deutsch . Sie können Ihre bevorzugten Spracheinstellungen in Einstellungen angeben."

Der Tipp wird in der Regel bei Suchanfragen eingeblendet, bei denen m.E. sehr oft bzw. überproportional die Option "Seiten auf Deutsch" angewählt wird oder der Sprachraum der Query nicht 100%ig zugeordnet werden kann. 

Ich vermute, dass die automatische Weiterleitung / Umstellung auf die "Seiten auf Deutsch" Option die Relevanz weiter erhöhen soll. Gerade bei englischsprachigen, generischen Begriffen oder internationalen Abkürzungen, welche auch im Wortschatz eines deutschsprachigen Nutzers vorkommen (z.B. free, call you, web brands, NGO network, usw..) kommt es bei der Suche oft zu Relevanzproblemen.

SEOs / Webmaster sollten bei einer erfolgreichen Umsetzung diesesTests in den Livebetrieb nur gewinnen können, da große internationale Seiten ihre Top-Platzierungen in diesem Zusammenhang abgeben und lokal (auf Deutsch) optimierte Webseiten mehr Klicks abbekommen.

Vom Cookie zur IP

April 2, 2009 | In SEO | 9 Kommentare

Was für ein Wahnsinn! Google hat sich vor einigen Tagen dazu entschlossen, seine "local onebox" - welche für die lokalen Suchergebnisse in der Ergebnisseite zuständig und an der, meist riesigen, Landkarte zu erkennen ist - IP basierend auszuliefern. Bislang wurden diese lokalen Infos im Ergebnis in einem Cookie gespeichert - hat man also damals nach "friseur hamburg" gesucht - bekamm man einen entsprechenden Cookie verpasst… und beim nächsten Mal wurden dann direkt Hamburger Ergebnisse in der "local onebox" angezeigt… machte Sinn!

Heute wird die IP lokalisiert - nja sagen wir besser der Einwahlknoten zu dem die IP passt… und dementsprechend ein lokales Ergebnis geliefert. Das heisst, wenn man Glück hat ist die eigene dynamische IP dem richtigen "Heimartort" zugeordnet… wenn man Pech hat und das passiert doch häufige als man annimmt bekommt man dieser Tage lokale Ergebnisse aus Ortschaften, die eigentlich nur bekannt sind, weil sie technisch der Einwahlknoten eines ISPs sind … oder weil sie zufällig der Location des Proxy Servers entsprechen. Bei der Vielzahl an Firmenproxies z.B. Siemens, Porsche, Verlagshäuser, große Kliniken und Universitäten entstehen so ganz schnell eine Menge höchst unrelevanter Ergebnisse - da die Location des Proxies nicht mit der Location des Suchenden übereinstimmt. Ein weitere Punkt ist die Entfernung zum nächstgelegenen Einwahlknoten, welche auf dem Land durchaus mal 50km oder mehr sein können und damit die Zuordnung ungenau machen… man übnerlege sich nur mal, wie sinnfrei es wird, wenn man zwischen zwei Städten wohnt..und immer Ergebnisse aus der Stadt bekommt, welche 2km weiter weg ist aber zufällig den Knotenpunkt beherbergt ;)

Ich persönlich kann damit leben… Ich warte auf den Bericht in der Bild ->  Dank Google erweiterte ein Pizza-Lieferant aus Sulzbach im Taunus (Arcor Sitz) sein Auslieferungsradius auf 900km.

SEO for local 3.0

März 15, 2009 | In Tratsch | 5 Kommentare

Da denkt man mal eine Minute nicht an SEO und genießt einen leckeren Kefir aus der Heimat und schaut völlig ahnungslos auf das Etikett der Flasche… das geschulte SEO Auge erkennt sofort - hier war ein SEO am Werk - wie jetzt?! …. ein SEO soll das Etikett der Kefir-Flasche bearbeitet haben?…. es ist doch nur Kefir, kein Wodka ;)

Ein generischer Begriff streifte die Matrix - BIOMILCH - sitzt doch die Andechser Molkerei Scheitz auf der Biomilchstr. 1 - das nenn’ ich mal originell! Das Siemens auf der Siemensstr. sitzt und Daimler auf der Daimlerstr… ist nichts Ausgewöhnliches. Doch wenn ein Unternehmen seinen Strassennamen über einen generischen Begriff definiert, dann wird es interessant… die "Suchmaschinenoptimierer Str." wäre doch mal eine gute Idee für einen strukturschwachen Standort, um neue Gewerbe anzulocken ;) - Schwimmbadstr., Fensterstr., Netzstr., Fernsehstr. und Gartenstr…. gibt es schliesslich auch schon ewig.

Jawohl - alle sind böse!

Januar 31, 2009 | In SEO | 5 Kommentare

Google testet seine Marktmacht und erklärt mal eben alle Websites als "böse" :

Irgendwie Lustig

Selbst die eigenen Seiten von Google sind böse und können den Computer beschädigen… endlich haben sie es eingesehen, gewusst haben wir es schon länger…

Google ist böse

Was dieser technische Gau den Website-Betreibern dieser Erde an Umsatz kostet… ich will es gar nicht ausrechnen… den Image-Schaden der dadurch entsteht… könnte Google das Genick brechen… sofern ein paar findige Anwälte sich endlich mal auf ihre Arbeit konzentrieren und nicht immer mit Kanonen auf Spatzen schiessen würden!

RU Links auf dem Radar von Google

Januar 15, 2009 | In SEO | 8 Kommentare

da steht -> "Signal suggestion: reduce the impact of links from Russia on "American" PageRank" - egal, das Thema kommt nun bei Google auf die Agenda und wird wahrscheinlich dahingehend enden, dass der Einfluss von Links aus Billiglohnländern anderes bewertet wird oder im besten Falle man die Sprache des Inhalts und das Linkziel wieder enger in Verbindung bringt. Passt der Content einer Seite nicht zum Linkziel, gibts dann halt nen Dämpfungsfaktor der es unattraktiv macht sich solche Links zuzulegen…. und wenn der Content nicht zum Linkziel passt… der Ankertext aber schon… dann geht der Spamflag auf 1 ;)

Textqualität

Januar 14, 2009 | In Trendbarometer | 1 Kommentar

Ganz ohne Verlage soll sich der moderne Journalismus im Netz abspielen, schreibt Don in seinem aktuellen Beitrag - dabei verkommt der Schreiberling doch zunehmend zum Sozialfall. Die Nachfrage wird den Markt bestimmen und in Zeiten in denen die Menschen das Lesen verlernen wird es in Zukunft schwer werden sich als Journalist zu behaupten. Das Niveau der Texte im Netz sinkt m.E. dank der Vielfalt der Blogs und Foren auf eine Stufe, auf der sich die Vielzahl der Leser einpendelt und abfindet. Hochwertiger Journalismus im Internet formt sich meiner Schätzung nach zu einer Nische für einen einstelligen Prozentsatz der Netzbevölkerung. Der Trend zur Globalisierung, ob sprachlicher Natur oder auf Unternehmens- und Produktebene rollt, von seiner Effizienz getrieben, unaufhaltsam weiter.

Aus Sicht der Suchmaschine, welche in vielen Fällen darüber entscheidet wessen Text der Suchende findet, müsste es gelingen dessen Qualität oder die Reputation des Autoren zu erkennen - nur dann könnte m.E. der Ruf nach einem starken Journalismus eine Basis finden.

Follow Links in Knol

Januar 7, 2009 | In SEO | 11 Kommentare

Tolles Konzept, da sollten sich andere Linksilos mal was abschauen. Der Trend geht halt immer weiter in diese Richtung

LinkCheck nun auch für RU Links

Januar 2, 2009 | In SEO | 1 Kommentar

Um sich die stärksten Links aus Russland anzeigen zu lassen, habe ich das SEO Tool LinkCheck nun um genau diese Optionen erweitert. Damit kann man die Backlinks einer Domain auf die TLD ".ru" reduzieren und die Gewichtung auf russische Verhältnisse anpassen. Die Einstellungen sollen dabei behilflich sein, zwischen wichtigen und weniger wichtigen russischen Links zu unterscheiden, um ggf. andere Begründungen als die reine Domainpopularität bei der Analyse Dritter benutzen zu können.

SEO Tools nun iPhone tauglich

Dezember 29, 2008 | In SEO | Keine Kommentare

Da sich das iPhone in SEO-Kreisen zunehmend großer Beliebtheit erfreut und ich mir nun auch einen solchen Knochen zugelegt habe, dachte ich mir, dass es von Vorteil wäre, wenn man meine SEO Tools & Backlink-Checker auch in einem iPhone-freundlichen Layout benutzen könnte. Gesagt, getan - absofort steht allen iPhone Nutzern ein schlankeres und einfach bedienbares Layout zur Nutzung zur Verfügung. Dabei verwende ich Stylesheet, welches auf den Safari + iPhone reagiert - die Darstellung wurde optimiert. Dabei verschwindet die Sidebar, um mehr Platz in der Breite zu bekommen und die Navigation wandert unter den Content-Bereich. Zudem bekommen iPhone Nutzer nun auch die Möglichkeit ihren Login für 1 Woche in einem Cookie zu speichern, um sich nicht ständig wieder neu einloggen zu müssen. Die Navigation zwischen den einzelnen Tools ist breiter als üblich, sodass auch iPhone-Nutzer mit dicken Fingern *haha* zielgenau die Tools ansteuern können.

Weitere Verbesserungen im Umgang mit dem iPhone und den SEO Tools werden nach und nach eingepflegt. Da ich selbst die Tools täglich, auch vom iPhone aus nutze… liegt es auf Hand die Nutzung noch komfortabler zu gestalten.

« Vorherige SeiteNächste Seite »

¹ Keine Rechtsberatung!

Powered by WordPress with Pool theme design by Borja Fernandez.
Uwe Tippmann