Posts Tagged ‘SEO

19
Mrz
15

Wahrheit als Rankingfaktor oder “Learning to trust is one of life’s most difficult tasks.” – Isaac Watts

In einem Paper von Dong, X. L., E. Gabrilovich, K. Murphy, V. Dang, W. Horn, C. Lugaresi, S. Sun & W. Zhang (2015). Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources. Proceedings of the VLDB Endowment wird von den Googlemitarbeitern ein ganz neuer Ansatz der Releveanzbewertung von Websites – die Korrektheit der enthaltenen Fakteninformationen – als zusätzliches endogenes Signal vorgestellt. Diese Fakten werden aus den Websites extrahiert und gegen eine vorhandene  Faktendatenbasis gematched. Im Beispielfall konnte für 119 Mio. Webpages ein Glaubwürdigkeits-Score, der Knowledge Based Trust berechnet werden, indem die extrahierten Daten (Fakten) mit einer Datenbasis, bestehend aus 2,8 Mrd. Fakten, die aus dem Web extrahiert wurden, verglichen wurden. Durch manuelle Evaluierung konnte die Effektivität dieser Methode nachgewiesen werden, die vielleicht in naher Zukunft Eingang in die Rankingfaktorenwelt finden kann.

Google To Rank Pages On Knowledge Based Trust

19
Mrz
15

Google Ranking 2015… Alle Jahre wieder..

Google Ranking Faktoren

werden die Informationen zu den Google-Rankingfaktoren benutzt, um bei den SEO-Agenturen ordentlich Traffic zu generieren. So auch in diesem Jahr, prinzipiell ist gegen diese sehr schöne Darstellung von eliteseo nichts einzuwenden. Allerdings sind die Erläuterungen zu LSI (Rankingfaktoren 19 & 20) doch eher für einen Computerbummi geeignet und würden damit sehr wenig zur Einlösung der „Transparenzverpflichtung für meinungsrelevante Algorithmen
(#au_weia,_wie_sehen_denn_meinungsunrelevante_Algorithmen_aus?) beitragen.

14
Apr
11

Blekko: mit Transparenz und Slashtags gegen Google

Der geneigte Blogleser weiß bereits, dass der Übermacht der Suchmaschinengiganten nur mit innovativen Ideen zu begegnen ist. Blekko, ein weiteres California based Startup, seit Oktober 2010 dem Closed-Beta-Stadium entwachsen, versucht mit einem neuartigen Filterkonzept via Slashtags und erstaunlicher Transparenz bei der Offenlegung der Rankingprinzipien sich den MetaTag Google-Killer zu verdienen.

Hier ein Beispiel wie der Slashtag /seo für einfache SEO-Analysen genutzt werden kann (Anfrageterm war TU Ilmenau).

Slashtags stellen dabei Filterkonzepte dar, mit deren Hilfe der Nutzer die Relevanz seiner Ergebnissemenge anpassen kann. Eine Vielzahl von vordefinierten Slashtags helfen, die Ergebnisse nach vordefinierten Kriterien zu strukturieren (/date macht das – richtig – nach dem Datum, /shop soll einen Preisvergleich machen <– naja selbst ausprobieren, in jedem Fall fehlt noch etwas kritische Masse). Vielleicht auch, weil Wert auf Qualität gelegt wird, denn erst im März wurden 1,1 Mio. Webseiten als Spam erkannt und von Blekko geblockt. Oder weil der Index sehr am angloamerikanischen Raum konzentriert ist, was deutlich wird, wenn man sich die SERP für die Beispielsuche nach „TU Ilmenau“ mit dem Slashtag /rank betrachtet (in der ersten Zeile sind die Rankingkriterien aufgeführt). Hier gilt es noch etwas Risikokapital zu investieren damit Blekko aus dem Insider-Tip-Stadium rauswächst.

 

 

 

 

 

 

 

 

 

 

22
Apr
10

Geschwindigkeit als SEO-Kriterium

Letzte Woche hat Google bekanntgegeben, dass künftig auch die Zugriffszeiten in das Ranking der Webseiten einfließen werden. Wer jetzt aber einen spürbaren Geschwindigkeitszuwachs erwartet oder glaubt jetzt ausschließlich auf schnelle Seiten geleitet zu werden wird wohl enttäuscht. Schließlich fließen in das Page-Ranking mehr als 200 Faktoren ein, was die Wirkung eines einzelnen Faktors deutlich abschwächt.

Allerdings sollte ein Dienst, welcher so stark frequentiert wird wie Google nicht individuell, sondern eher statistisch aufgefasst werden. 1% der Websites haben durch das neue Ranking ihre Position verändert. Betroffen hiervon sind besonders Seiten mit sehr schlechten Zugriffszeiten. Hiervon profitiert die Gesamtsumme der Nutzer deutlich stärker, als der Einzelne. Denn die statistische Anzahl der Klicks welche auf eine Seite getätigt werden, sinkt deutlich mit Verschlechterung des Rankings und somit einer Anzeige auf den hinteren Plätzen der Suchmaschiene. Und somit sinkt kann sich durch Bevorzugung schnellerer Seiten die Gesamtwartezeit  aller Nutzer signifikant verkürzen.

Ein zweiter Effekt, marktwirtschaftlicher Art, könnte sein, dass einige Betreiber von Webservern zu Investitionen in ihre Infrastruktur genötigt werden, um ihren Kunden zu einem besseren Ranking zu verhelfen. Und von dieser Art der Suchmaschinenenoptimierung können alle auch individuell profitieren.

Bisher kommen nur Nutzer der Englischsprachigen Version von google.com in den Genuss des neuen Rankings, wann das Feature die deutsche Seite erreicht, ist derzeit noch nicht bekannt. Angeblich werden die Performancedaten der Webseiten mit Hilfe der Google Toolbar gesammelt. Allerdings nur wenn die Datenweitergabe aktiviert ist. (Thnx Sebastian)

Hier noch ein Beispiel dafür, wie solche Performancedaten aussehen können (Das Beispiel kommt von Webpagetest.org für den IR-Blog).

Analyse der Zugriffsgeschwindigkeit für diesen Blog

30
Nov
08

SEO Tips von Google…

sind wie Blitzerinfos von der Polizei … und doch die Ersteren gibt es: Im Official Google Webmaster Blog. Und genau hier wurde kürzlich „Google’s Search Engine Optimization Starter Guide“ (eine sehr schöne zitierwürdige SEO-Quelle) und damit ein hochkompakter Guide zur Erhöhung der ‚Crawlability‚ und des ‚Indexing‚ ,ursprünglich für die Google-Mitarbeiter gedacht, veröffentlicht.

Hier gibt es also die Informationen vom Nutzer selbst und nicht als Teil eines Geschäftsmodell wie bei vielen anderen SEO Ressourcen (hier übrigens noch ein sehr umfangreicher Guide von Aurel Gergey).

…und noch ein Gratistip von mir:
Immer wenn es passt, Googleblogs zitieren, die Jungs sind so freundlich und liefern Backlinks zurück (und wann bekommt man so einfach einen Backlink von einer PR-7-Site).

06
Nov
08

Webometrics für’s Volk …

bietet Seitwert mit einer ‚Art Qualitätsindex von einer Webseite‘ für  deutsche Webseiten an. Das Konglomerat aus unterschiedlichen ‚Kennzahlen‘ (von Gewichtung bei Google und Yahoo, Alexa-Traffic, Backlinkzahlen von Social Bookmarkdiensten, DMOZ oder Wikipedia, Domainalter und einigen technischen Details) wird zu einem Wert zwischen 1 und 100 normiert und ist zwar nett anzuschauen aber eigentlich nur im Vergleich zu möglichen Mitbewerbern interessant.

Das Ranking für heute:

  1. www.heise.de www.heise.de 83,54
  2. www.spiegel.de www.spiegel.de 77,09
  3. www.xing.com www.xing.com 75,69
    … und auf Rang 2126: www.tu-ilmenau.de 42,36

cubestat cubestat ist da schon konsequenter: Hier wird der Wert einer Website gleich in $ beziffert und  aus möglichen Werbeerträgen und Zugriffszahlen berechnet. Hier die Ergebnisse für die Beispiele von oben:

www.heise.de
Website Worth: $1,100,503.47
Daily Pageviews: 502,513

Daily Ads Revenue: $1,507.54

www.spiegel.de
Website Worth: $7,551,724.44
Daily Pageviews: 3,448,276
Daily Ads Revenue: $10,344.83

www.xing.com
Website Worth: $1,740,859.47
Daily Pageviews: 794,913
Daily Ads Revenue: $2,384.74

… und nicht zuletzt

www.tu-ilmenau.de
Website Worth: $49,833.45
Daily Pageviews: 22,755
Daily Ads Revenue: $68.27

Eine sehr hilfreiche Zusammenstellung von Werkzeugen für das Monitoring der Webseitenpopularität findet sich bei sixrevision.

11
Sep
08

The winner takes it all…

haben schon ABBA getönt, aber es gibt auch andere Doppelbuchstabler, die damit Erfolg haben. Wir vertrauen eben mehr und mehr dem was uns eine Suchmaschine anbietet. Die Leute von Think Eyetracking haben nach 2005  erneut eine Studie zum Suchverhalten gemacht. Ausgangspunkt: Ergebnismenge (zu einem ganz allgemeinen Topic – hier oasis) wird präsentiert: Wo schaut der Nutzer hin bevor er klickt?

  • 2005: ausgiebig auf die gesamte Seite
  • 2008: Konzentration auf die Top (3) Resultate
Bearch Behaviour 2005

Search Behaviour 2005 / 2008

Damit werden die Ergebnisse anderer Untersuchungen bestätigt.

Fazit: SEO rules!

04
Sep
08

100 und 1 SEO Tools …

hat Jürgen Lammers in seinem SEO-Blog zusammengestellt. Hier eine Auswahl:

 

Statistik-Tools:

  • Google Analytics – Erstklassiges kostenloses Statistiktool, inkl. Zieltracking etc.
  • Linkboy Counter – Statistiktool in abgespeckter Google Analytics Version
  • Alexa.com – Tool zum Analysieren des Traffics von Webseiten …

 

Ranking der Suchmaschinen überwachen:

  • Rank Tracker – Schnelles Windowstool, um das Ranking in den Suchmaschinen zu überwachen! (kostenpflichtig!)
  • Free Google Monitor – kostenloses Tool um das Google Ranking zu überwachen
  • Check Rankings – kostenloses Tool, um das Ranking zu überwachen …

Keyword Analyse:

  • Google Keyword Tool – Geniales Google Tool zum Analysieren von Suchhäufigkeit und Mitbewerberdichte von Keywords.
  • Google Trends – Trendanalyse von Suchphrasen, Besonders geeignet, um saisonale Schwankungen von Keywords festzustellen.
  • Abakus Topword – Analysiert eine Webseite nach den Top Keywords und Keywordphrasen …

 

Backlinkchecker:

 

Tools zum Linkaufbau:

  • Link Assistent – Erstklassiges Linkaufbautool. Überwacht Links, hilft Emails an Webmaster zu versenden … (kostenpflichtig)
  • Linkvendor Linkwert – Ermittelt den Linkwert eines Links
  • Linkvendor Linkanalyse – Interne und Externe Links einer Webseite werden ermittelt und mit Anchor Text ausgegeben …

Pagerank-Tools:

Google Adsense Tools:

 

Tools zur Onpageoptimierung:

Copyright / DC Tools:

  • UN.CO.VER – prüft Texte auf Unique Content
  • Copyscape – Tool sucht nach Kopien des Inhalts im Internet – ideal um DC zu prüfen
  • Plagaware – Schützt eine Webseite vor Contentklau

 

Website Spider:

Umfangreiche SEO Tools:

 

Die vollständige Liste wie gesagt bei http://www.geld-verdienen.tv/tools/101-seo-tools.html.

11
Jul
08

SEO Material

… gibt es als 2seitiges PDF-Cheat Sheet (na ja als Einstieg gant gut geeignet) und unter folgenden Links:

oder dann einfach bei dmoz oder Wikipedia

15
Jun
08

Keyword Density Analyzer

Keyword Density beschreibt, wie häufig ein Keywords für das man ein gutes Ranking erreichen möchte, im Quelltext einer Webseite vorkommt. Bei speziell optimierten Seiten beträgt die Keyword Density zwischen 5-8%. Alle Werte darüber werden dann als Spam (oder gezielte SuMa-Manipulation) interpretiert. Der Keyword Density Analyzer berechnet für die Kombination Website – Keyword die enstprechende Dichte. Auch wenn Suchmaschinen aktuell die Keyword Density nur noch zu einem sehr geringen Anteil in Ihr Ranking einbeziehen, ist der Wert 0% für die Homepage der WiWi Fakultät für das Keyword Master suboptimal.

Weitere Tools gibt es hier:




Juli 2020
M D M D F S S
 12345
6789101112
13141516171819
20212223242526
2728293031  

RSS Digital News

  • Ein Fehler ist aufgetaucht - der Feed funktioniert zur Zeit nicht. Probiere es später noch einmal.

Blog Stats

  • 9.855 hits

Sneak Peek vom Turner-Blog

Um neue Beiträge per E-Mail zu erhalten, hier die E-Mail-Adresse eingeben.

Schließe dich 2 anderen Followern an