Wissen wohin der Benutzer schaut – Maus-Tracking

Die Usability einer Webseite ist unumstritten am Erfolg oder Mißerfolg maßgeblich beteiligt. Wer eine schlechte Menüführung oder einen unstrukturierten Seitenaufbau seinen Besuchern vorsetzt, wird meist mit Abneigung, kurzen Haltezeiten und schlechten Verkaufszahlen konfrontiert. Aber was tun, wenn selbst die 144 Regeln zur Verbesserung der Usability nichts geholfen haben? Genau -> Man analysiert das Maus- und Augenverhalten des Benutzers! Auf der letzten WWW2006 vom 22–26.5.2006 in Edinburgh gab es eine interessante Studie der Münchner Unternehmung Media Informatics Group der LMU, die darauf aus ist/war das Benutzerverhalten auf Webseiten bis zum Excess zu verfolgen 🙂

Daraus entstand der USAProxy mit dem es, zusammen mit einem kleinen JavaScript, möglich ist, so ziemlich jedes aktive Benutzerverhalten mitzuschneiden. Unter anderem auch die Mausbewegungen. Da das Auge meist der Maus folgt, kann man so auch respektable Analysen (heat maps) erstellen, die sonst nur mit sehr aufwendigen und teuren Verfahren zu erstellen sind. Die Installation und Handhabe des USAProxys ist meiner Auffassung nach kinderleicht. Runterladen, entpacken, starten, im IE/FF einstellen, JavaScript in die Seite einsetzen und schon kann es losgehen.

Ja, klar, den anonymen Benutzer kann man damit nicht tracken, sondern nur den Nutzer der den Proxy auch im Einsatz hat. Doch für eine „erste“ Analyse dieser Art reichen meist die Freunde und Bekannten in der Firma oder daheim aus. Bei der Auswertung / Visualisierung der Logfiles kann sich dann jeder selbst einen kleinen „Parser“ je nach Bedarf schreiben.

In Anbetracht dessen, dass Google sich vor nicht all zu langer Zeit ein derart ähnliches Verfahren patentiert hat, um mögliche Aktionen, Klicks, Abbrüche etc. vorherzusehen, sind die Auswertungen mit dem USAProxy schon eine verdammt gute Sache!

Veröffentlicht unter SEO | Kommentare deaktiviert für Wissen wohin der Benutzer schaut – Maus-Tracking

AOL Suchdaten-Auswertung

Nach dem Malheur von AOL, die zur Herausgabe von AOL-Suchdaten führte, kann man nun dank der Sistrix GmbH hier eine allgemeine Auswertung dieser Daten bewundern. Der Unterschied zu anderen Statistiken ist der, dass man bei dieser Auswertung davon ausgehen kann, dass diese nicht zugunsten von irgendwelcher Partein manipuliert wurden. Das heisst, es hinterlässt einen realistischen und aktuellen Eindruck über das amerikanische Suchverhalten. Die Erkenntnis, dass die Amerikaner die Suchmaschine immer häufiger dazu benutzen, um nach einer Webadresse zu suchen, lässt den Trend ableiten, dass Suchmaschinen immer mehr als Einstiegsplattform ins Netz genutzt werden. Dem Nutzer ist die Zieladresse bereits bekannt, er tippt jedoch alles, egal was, immer zuerst in den Suchschlitz statt in das Adressfeld ein und klickt dann auf das erste Ergebnis, um zum Ziel zu gelangen. Das begründet auch den extremen Unterschied zwischen dem Klickvolumen von Platz 1 und Platz 2. Theoretisch ergibt sich erst ein tatsächliches Click Rating, wenn man die Queries die auf eine URL gerichtet waren herausfiltert, da diese meiner Meinung nach die Auswertung verfälschen. Dieses Benutzerverhalten ist ein gefundenes Fressen für die Suchmaschinenbetreiber, da diese mit jeder Anfrage die Möglichkeit haben, den Benutzer von seinem eigenen Ziel abzubringen. Interessant wäre dazu auch eine Auswertung, die analysiert wie das Klickverhalten bei Suchenden aussieht, die nach einer URL gesucht haben und dann NICHT auf das erste Ergebnis geklickt haben. Dennoch alles in allem Respekt an die Sistrix GmbH für die Veröffentlichung dieser tollen Auswertungen.

Update: Eine Auswertung der ersten 2000 angeklickten URLs, auch sortierbar nach TLDs, sowie eine ausgefeilte Domainsuche und Keywordsuche, findet mat bei askthebrain. Auch auf www.aolsearchdatabase.com musste man nicht lange warten 🙂

Veröffentlicht unter SEO | Kommentare deaktiviert für AOL Suchdaten-Auswertung

Nun ist es durch – MySpace Suche und Werbung geht an Google

Die derzeit aufstrebendste Gemeinschaft am Community-Himmel ist ungeschlagen MySpace.com. Man spricht davon, dass über diese Community allein derzeit ca. 5% aller Suchanfragen getätigt werden sollen und in den USA mehr Leute auf myspace.com gehen als auf google.com -> ein dicker Brocken in Anbetracht des weltweiten Volumens! Derzeit liefert Overture (Yahoo!) die SERPs für MySpace aus. Fox Interactive Media, die derzeit für diese Angelegenheiten bei MySpace.com verantwortlich sind, haben sich mit Google auf eine mehrjährige strategische Partnerschaft geeinigt (man spricht von 900 Mio US$), die besagt, dass die MySpace Suche und die Werbung auf MySpace durch Google Produkte ersetzt wird. Man ist bei Google zudem sehr zuversichtlich weitere Verträge mit anderen News Corp. Unternehmungen in Zukunft einzugehen. Es bleibt abzuwarten wann MySpace auch in Deutschland seine Tore öffnet und anfängt den Markt aufzurollen, denn wie man bekanntlich weiß schlafen die „Anderen“ nicht.

Übrigens ist mir aufgefallen das MySpace einen Mix an unterschiedlichen Systemen benutzt und mal auf ColdFusion FuseBox setzt, jedoch auch Seiten auf ASPx laufen lässt, was aus technischer Sicht einen eher unprofessionellen Eindruck hinterlässt.

via Googlesystem

Veröffentlicht unter SEO | Kommentare deaktiviert für Nun ist es durch – MySpace Suche und Werbung geht an Google

Content Management

An Inhalte zu kommen ist eine Seite der Medaille. Die Inhalte danach richtig zu verwerten die andere Seite. Viele größere Firmen setzen auf so genannte „Marktführer“ im Bereich der Content Management Systeme. Um ein paar Namen zu nennen: RedDot, Contens, Interred oder CoreMedia – alle haben eins gemeinsam: sie sind in Sachen SEO verbesserungswürdig. CoreMedia zum Beispiel hat ein Problem mit doppelt-indexierten Seiten (duplicate content). Das web.de Portal CMS nutzt bei seinen News immer den gleichen Title-Tag. Interred generiert suchmaschinen- und benutzerunfreundliche URLs und Contents arbeitet mit grausamen Index-Weiterleitungen. Generell ist mir bislang kein Enterprise CMS aufgefallen, welches zu 100% SEO-freundlich gestaltet wurde. Zudem werden nach wie vor von den Redakteuren und Autoren die notwendigen Beschreibungen, Titel und Keywords in der Pflege vernachlässigt, sodass man all zu oft mit fehlenden oder unzureichenden Metas in den Artikeln konfrontiert wird. Vielleicht sollte man in Anbetracht der Wichtigkeit dieser Kriterien im Hinblick auf den kostenlosen Traffic, ein Incentive auf gute Pflege ausloben 🙂

Update: Das von mir aufgefasste Beispiel mit den doppelt indexierten Seiten am Beispiel CoreMedia wurde mittlerweile behoben! Allerdings nur in diesem speziellen Fall. Das Problem ansich wurde damit wie man hier sieht, nicht behoben.

Veröffentlicht unter SEO | 6 Kommentare

Optimierung durch Community-Profile

Dieser Artikel widmet sich einer Produkt– und PersonenOptimierungsstrategie für Suchmaschinen, die darauf ausgelegt ist, bestehende Ressourcen, vorwiegend Autoritäten, dazu zu benutzen sein Ranking zu verbessern. Viele größere Communitys (ja es heisst Communitys und nicht Communities im Deutschen laut Duden New Economy) besitzen den Status einer Autorität. Allerdings wird dieser Rankingvorteil nur sehr selten auf die entsprechenden Benutzerseiten weitergegeben und wenn doch, dann wird die Weitergabe des Rankingvorteils durch einen entsprechenden noindex oder nofollow Tag unterbunden.
Jedoch kann man diese Art Profilseiten dennoch positiv in eine Optimierungsstrategie mit einfliessen lassen, wenn man berücksichtigt, dass diese Profilseiten meist professionell in den Suchmaschinen platziert werden. Denn in der Regel ist der Portal / Community-Betreiber bemüht die Inhalte seiner Benutzer in den Index zu bekommen, um von den Klicks aus den organischen SERPs zu profitieren.
Dabei sollte man jedoch zwischen den verschiedenen Arten der Communitys bzw. der Portal unterscheiden. Denn Profilseiten bzw. Mitgliederseiten bei Massenhostern wie Geocities oder Lycos Tripod werden von den Suchmaschinen meist eigenständige Seiten angesehen und profitieren und selten von den SEO Dienstleistungen der Betreiber. Allerdings sollte man es in Anbetracht der zunehmenden Bedeutung von IP-Popularität es nicht vernachlässigen, sich von diesen IPs zu versorgen, sofern sich der Aufwand sich in Grenzen hält. Anders hingegen reagieren Profil- und Mitgliederseiten von Communitys wie Yahoo!, MySpace, uboot.com oder Technorati und demnächst auch eBay Profiles, um nur einige zu nennen.
Im Prinzip funktionieren diese Profilseiten wie wenn man bei Wikipedia eine eigene Seite zu seinem Keyword erstellt nur mit dem Unterschied, dass es nicht gelöscht wird :), da es ja das eigene Profil / Blog oder Mitgliedsseite darstellt. All diese oben genannten Communitys betreiben professionelles SEO und sind bemüht die Profilseite optimal im Index zu platzieren.

Zusammenfassend:
Durch gezieltes steuern der Inhalte kann man so eine inhaltlich optimierte Kampagne mit extrem geringem finanziellen und durchaus zumutbarem, zeitlichen Aufwand starten. Die Strategie eignet sich in erster Linie dazu um neue Produkte (branding, name popularity) oder Personennamen zu pushen.

Veröffentlicht unter SEO | Ein Kommentar

Veraltete / Insolvente Firmen statt abgelaufener Domains

Dank der zunehmend steigenden Anfragen nach einer lokalen Suche und deren Einbindung in die „normalen“ SERPs wird es immer wichtiger auch in den angeschlossenen Branchenbüchern bzw. Verzeichnissen so dazustehen, dass man möglichst bei der Ausgabe der „ersten 3“ lokalen Ergebnisse mit zu finden ist. Stichwort „Local Search Optimization„. Nehmen wir mal Google als Beispiel. Google nährt sich bei der Ausgabe der lokalen Serps aus verschiedensten, teilweise im eigenen Index wiederzufindenden Verzeichnissen (zB. schober und die die sich davon nähren wie kijiji/opusforum, dhd24, flix, klicktel, cylex, yellowmap usw.) und Webseiten bei denen Google es schafft, den Inhalt zu einer eindeutigen Adresse zu verbinden. Je nach dem in welchem Umfang die Daten zur Verfügung stehen, werden diese auch direkt mit in den Adress-Details mit ausgegeben. Teilweise findet man so ziemlich vollständige Adresseneinträge mit bis zu 3 Telefon bzw. Faxnummern und einer Web-Adresse.

Welche Kriterien sind nun für das Ranking der lokalen Suche wichtig? Dazu gibt es derzeit noch keine mir bekannten Dauer-Tests, allerdings hier meine Favoriten die das Ranking positiv beeinflussen können:

  • Nähe zum Stadtzentrum bzw. geringe Entfernung zum Stadtkern.
  • Google bewertet die Verzeichniseinträge nach einer unterschiedlichen Gewichtung, so konnte ich feststellen, dass ein Eintrag der ausschliesslich bei dhd24 (schober) erscheint, mehr Gewichtung im Ranking hat, als ein Adresseintrag der ausschliesslich bei flix zu finden war, dieser jedoch immer noch höher gerankt war als ein Eintrag den man ausschliesslich auf einer „normalen“ Website gefunden hat. Das heisst, Google hat ein internen „TrustRank“ im Bezug auf die Verzeichnisse und der Adressherkunft.
  • Mehrere Einträge in verschiedenen Verzeichnissen.

Die Wichtigkeit einer Top-Platzierung ist in Anbetracht dessen, dass die ersten 3 lokalen Ergebnisse direkt in den normalen SERPs mit ausgegeben werden, enorm hoch. Denn wenn man zB. nach „Webdesign Hamburg“ sucht, dann ist man mit einem Platz 1 in den lokalen SERPs auch automatisch ein Platz 1 in den normalen SERPs.

Allerdings gibt es einen entscheidenden Nachteil dieser lokalen SERPs. Die Aktualität und Richtigkeit der Adresseinträge. Firmen ziehen um, gehen pleite, ändern Ihr Geschäftsfeld, werden übernommen / fusionieren oder werden aufgelöst. Die Branchenbücher und Verzeichnisse kommen mit dem Update der Daten nicht zeitnah hinterher. Teilweise werden Adressen ausgegeben die es bereits seit mehreren Jahren nicht mehr aktiv gibt.

Da die Optimierung in Zukunft theoretisch so ausschaut, dass man sich eine Briefkastenfirma in der Stadtmitte mietet (neue Geschäftsidee?), um möglichst dicht am Stadtkern zu sein, ist es im Vergleich dazu ebenso lukrativ und denkbar sich nach Firmen umzuschauen die aus dem aktiven Dienst ausgeschieden sind, um deren Details zu übernehmen, Falschangaben bei den entsprechenden Brancheninseraten zu tätigen oder sich darum zu kümmern wie Telefon / Faxnummern an neue Besitzer übergeben werden können. Ich denke, dass uns da in Zukunft sicher noch einiges an „unsauberen“ Methoden begegnen wird.

Veröffentlicht unter SEO | 2 Kommentare

Standorte bei Google Maps speichern

Google Maps hat ein neues Feature, welches die lokale Suche mit der persönlichen Suche verbindet. Ab sofort kann der, über den Google Account eingeloggte, Nutzer Standorte archivieren bzw. merken, um zu einem späteren Zeitpunkt wieder darauf zugreifen zu können. Gespeicherte Standorte werden zusätzlich bei der Suche nach ähnlichen Suchanfragen als „Vorschlag„, ähnlich wie bei Google Suggest, vorgegeben. Zudem gibt es eine Suchhistorie der zu letzt gesuchten Ziele. Diese Entwicklung zeigt mehr und mehr den Versuch das persönliche Benutzerprofil mit der Suche zu verbinden, um dem Suchenden die Suche zu vereinfachen bzw. das mühevolle Denken abzunehmen 🙂

via Google Karten

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Standorte bei Google Maps speichern

Community-Building mal anders

Dieser Service hat in der SEO-Welt noch gefehlt! Ein Dienstleister der sich darauf spezialisiert hat Foren mit Leben zu füllen und leeren Foren Starthilfe zu geben. ForumStars nennt sich dieser Service. Meiner Auffassung nach ein extrem nützlicher Service, da gerade in der Anfangszeit der Teufelskreis: „keine Beiträge -> keine Leser -> keine Autoren -> keine Beiträge“ nur schwer zu brechen ist. Zwar gehört zu einem gut laufenden Community noch etwas mehr dazu als nur „Inhalte“ zu präsentieren, allerdings stellen die Inhalte das Futter für die Suchmaschinen dar und darüber kommen ja bekanntlich die neuen Besucher. Im Moment gibt es zum Start von ForumStars ein Schnupperangebot für Leute die sich von der Qualität der Beiträge überzeugen wollen. Abgerechnet wird bei ForumStars nach Posts/Threads und neu registrierten Besuchern, vorwiegend in Paketen und Bundles. Ich denke jedoch, dass man bei ForumStars schnell begreifen wird, dass es neben dem Content schreiben noch viel cooler ist, wenn man durch ein großes Team neue Trends setzen und Meinungen in die „richtige Richtung“ lenken kann. Wie wär’s mit OpinionStars? 🙂

Veröffentlicht unter SEO | 2 Kommentare

Suchen und Wissen – Die persönliche Suche

Gestern bin ich darauf eingegangen wie man mit Hilfe der Lokalisierung der Suchergebnisse die Relevanz der Suchergebnisseiten erhöhen kann. Neben diesem Versuch, bessere Ergebnisse zu liefern, kann man zunehmend feststellen, dass das persönliche Suchprofil und verschiedene andere persönliche Kriterien bei der Erstellung relevanter SERPs eine große Rolle in der Zukunft der Suchmaschinen spielen wird. Meiner Auffassung nach das Resultat basierend auf der Erkenntnis, dass der Benutzer seine Suchanfrage nicht exakt genug definieren kann. Gerade in Regionen in das Internet nicht zu einem unabdinglichen Massenmedium herangewachsen ist, kann man feststellen das die Formulierungen der Anfragen immer ungenauer werden. Zum Beispiel wird in den USA laut einer Studie von Onestat wesentlich genauer gesucht als im Vergleich in Deutschland. Um diesem Mißstand nun etwas entgegen wirken zu können, werkelt man an der Umsetzung der auf persönlichen Informationen basierenden SERPs. Dabei könnte man mehrere Kriterien verwenden:

  • Das persönliche Profil – Alter, Geschlecht, Haarfarbe, Wohnort (Stichwort: lokale Suche), Größe usw. je nachdem in welchem Kontext sich diese Eigenschaften mit verarbeiten lassen
  • Die persönliche Suchhistorie / Suchverhalten – Zuletzt wurde nach „roten Bananen“ gesucht, demzufolge zeigt man dem Suchenden bei der Suche nach „Tomaten“ vorrangig blaue Tomaten statt der üblichen roten Tomaten.
  • Favoriten / Bookmarks – Anhand der Lieblingsseiten oder der oft besuchten oder meist geklicktesten Seiten lässt sich ein bevorzugtes Besucherverhalten analysieren und man kann dem Suchenden unterstützend, passende oder artverwandte Links mit in die SERPs mixen.
  • Kaufverhalten – Wenn man das Kaufverhalten mit in die SERPs einfliessen lässt, dann kann die Suchmaschine bei einer kommerziellen Suchanfrage die jeweiligen Kaufvorlieben mit einfliessen lassen und wenn man eben nach „Spiele“ sucht, dann werden die der Sony Playstation höher gerankt als die von Nintendo, da man im Kaufverhalten festgestellt hat, dass der Suchende immer nur PSX Spiele gekauft hat.
  • e-Mails / Chatlogs – Derartige Inhalte bieten sich hervorragend dazu an, um diese mit in SERPs-Kochtopf für die persönliche SERP zu werfen, da man anhand dieser Details ableiten kann über was man und mit wem man so kommuniziert.

Zusammenfassend ist das für den Datenschützer natürlich der absolute Albtraum. Allerdings bedarf es ja nur der Zustimmung des Suchenden, um diesen Ganzen Zauber als „genehmigt“ abzustempeln. Das heisst, dass der Trend der Suchmaschine sich immer mehr in Richtung „Community“ bewegt. Denn mit der Registrierung in einer dieser riesen „Suchmaschinen-Communities“ akzeptiert man meist die Verarbeitung seiner Daten. Dieser Trend lässt auch darauf hoffen, dass Yahoo! und MSN in den nächsten Jahren im Bereich der Suchmaschinen noch ein ganzes Stück aufholen können, da sie im Vergleich zu Google derzeit noch die größere Benutzer-Gemeinschaft besitzen.

Veröffentlicht unter SEO | Kommentare deaktiviert für Suchen und Wissen – Die persönliche Suche

Suchen und Wissen – Die lokale Suche

Wer sucht will was wissen oder sich vergewissern, sonst würde er nicht suchen. Im Kampf der Suchmaschinen geht es im weitesten Sinne meist darum wer dem Suchenden die beste Antwort auf seine Anfrage liefert. Die sogenannte Relevanz. Viele behaupten nun, dass ein großer Teil dieser Relevanz mit Hilfe der lokalen Suche erschlagen werden kann, denn man geht davon aus, dass wenn zum Beispiel der Benutzer nach einem Autohaus sucht, er eines in seiner Umgebung meint und nicht ein Autohaus in 600km Entfernung. Das trifft sicher auch auf die meisten, jedoch nicht auf alle Anfragen dieser Art zu. Um diese Art der Relevanz zu erzeugen, kommt man demzufolge nicht an der Lokalisierung der auszugebenden Ergebnisse vorbei. Jetzt macht es natürlich wenig Sinn eine private Homepage per Geokoordinaten anhand des Serverstandortes zu lokalisieren – vielmehr bedarf es einer Kombination aus Inhalt + Adresse.
Wenn der gefundene Inhalt einer eindeutigen Adresse zugeordnet werden kann, ist man in der Lage lokale Ergebnisse zu präsentieren. Mal abgesehen von Meta Tags wie ICMB oder geo.position ist man auf eine Adresse angewiesen. In Deutschland hat man ja Glück, dass viele Seite über ein Impressum verfügen und man sich diesem zur Lokalisierung bedienen könnte. Wie das datenschutzrechtlich ausschaut, lass ich mal offen. Bei Gewerbetreibenden ist es dagegen schon einfacher, da diese ja gefunden werden wollen. Stellt sich für die Suchmaschinen die Frage, wer hat den umfangreichsten und best-gepflegtesten Adressebestand? Zu dieser Frage gibt es unterschiedliche Antworten:

  • Behörden – Durch Pflichtmeldungen und Zwangsbestimmungen sind die Behörden die beste Datenquelle in Sachen Adressen, der Nachteil ist meist die Bürokratie (Datenschutz), mangelnde Kooperationsbereitschaft, Unbestechlichkeit und der fehlende Weitblick für die Gesellschaft + gepaart mit der Erhöhung der Tabaksteuer
  • Adressverlage – Deren Job ist es eine möglichst umfangreiche Datenbank mit Firmenadressen für zahlende Kunden zur Verfügung zu stellen. Ideal wenn man daran denkt, dass der Schlüssel der lokalen Suche in „Inhalt+Adresse“ liegt.
  • Branchenbücher – An sich bestehen die Branchenbücher aus Adressen der Adressverlage und Adresssammler + zusätzliche Informationen die durch Aquise, Aktionen oder schlicht der Reichweite. Dies bedeutet, dass man in einem Branchenbuch Adressen finden kann, die man bei einem Adressverlag nicht findet. Auch ist die Wahrscheinlichkeit recht hoch, dass in spezialisierten Branchenbüchern die Infos zur Adresse wesentlich detaillierter aufbereitet sind.
  • Adressendaten aus einer intelligenten Auswertung gespiderter Daten – Ansich hat die Suchmaschine die meisten Adressen bereits im Index. Die Kunst liegt nur oder nun darin, dass die Suchmaschinen diese Adressen so strukturieren müssen, damit diese verarbeitet werden können.
  • Lokale Infos aus lokalen Communities – Wenn in einer Webcommunity mit einer genauen lokalen Zuordnung eine Party oder ein Restaurant bewertet, beschrieben oder benannt wird, könnte man diese Infos auch in die lokale Suche mit einfliessen lassen. Ich denke da an Communities wie www.qype.com

Der Trend der Suchmaschinen in diesem Bereich lässt sich derzeit gut abschätzen – Kooperationen mit einzelnen Branchenbüchern sind bereits aktiv (zB.: Yahoo mit DasÖrtliche Service- und Marketinggesellschaft mbH) und Google arbeitet mit Hochdruck an der Auswertung und Kategorisierung der Adressen in Verbindung mit den Inhalten aus dem eigenen Index bei der hauseigenen lokalen Suche. Auch erkennbar ist, dass kleinere, spezialisierte lokale Guides auch in Zukunft ein langes Leben in den Suchmaschinen haben werden, da man davon ausgehen kann, dass die Suchmaschinen nur bis zu einem gewissen Level herunter Kooperationen eingehen werden. Das heisst, ein lokales Verzeichnis für die besten Biergärten im Münchner Raum mit ausreichenden Hintergrund-Information zu diesen Lokalitäten, wäre eine gute Investition in die Suchmaschinen-Zukunft 🙂 …und da sich die Schober AG auch mit dem Geomarketing beschäftigt, ist dies sicher ein heißer Übernahme – Kandidat für investitionsfreudige Suchmaschinen-Betreiber.

Zum Schluss noch ein Veranstaltungs-Tipp: Kompetenzforum Geomarketing am 13. und 14. September 2006 im ehemaligen Deutschen Bundestag in Bonn. Sicher ein Pflichttermin für alle die den Trend um den Kampf der Relevanz weiter verfolgen wollen.

Veröffentlicht unter SEO | Kommentare deaktiviert für Suchen und Wissen – Die lokale Suche

So nun aber…

Gleich vorweg, ich (Uwe Tippmann) halte nix vom Bloggen. Allerdings finde ich es nun an der Zeit meine Gedanken hin und wieder zu archivieren und mit Anderen zu teilen. Deswegen freue ich mich schon jetzt auf kommende Kommentare, Anregungen und Ideen.

Veröffentlicht unter Persönliches | 3 Kommentare