36 SEO-Gerüchte, die sich kaum ausrotten lassen

Das Search Engine Land ruft die SEO-Familie auf, bei der Verbreitung der SEO-Wahrheit mitzuhelfen. Dem will ich natürlich gerne Folge leisten, inklusive Übersetzungsservice. Hier der Beitrag:

„Jeden Tag entsteht ein neues SEO-Gerücht, aber leider wird dafür nicht gleichzeitig ein altes Gerücht aus der Welt geschafft. Es werden also immer mehr Gerüchte, und sie lassen sich auch fast nicht mehr ausrotten, weil sie von diversen Verkäufertypen immer wieder neu aufgewärmt und selbst aus der tiefsten Versenkung wieder hervorgeholt werden. Man kann sich darüber auf Konferenzen den Mund fusselig reden, man kann SEO-Checklisten wie diese erstellen oder sogar Bücher schreiben. Aber man wird trotzdem immer wieder gefragt, wie man gute Meta-Keywörter schreibt.

Man kann Gerüchten sogar zuvorkommen, bevor sie sich in den Köpfen festsetzen, so wie es Matt Cutts mit dem Thema Geschwindigkeit der Seite und Suchergebnissen gemacht hat. Aber egal wie sehr sich Matt angestrengt hat - ich bin sicher, dass wir mehr als einmal hören und lesen werden, dass „die Seitengeschwindigkeit ein wichtiger neuer Faktor für das Ranking“ sein wird und dass „die Berücksichtigung der Seitengeschwindigkeit großen Sites helfen wird, die mehr für das Hosting zahlen können“.

Manchmal werden Gerüchte aufgedeckt, allerdings nur, um dann racheartig zurück zu kommen. Betrachten wir das Meta-Keyword-Tag als Beispiel. Dieses nutzlose Tag wurde von Google noch nie unterstützt. Es scheint so, als hätte es Yahoo eine Zeit lang verwendet. Bei der SMX East-Konferenz im Jahr 2009 gaben auch sie bekannt, dass sie es nicht mehr verwenden. In Tests konnte allerdings gezeigt werden, dass diese Aussage falsch war. Und so wird es von Yahoo wohl doch noch verwendet - wenn auch mit geringem Einfluss…

Ich mag keine falschen Informationen, die aber in unserer Branche weit verbreitet sind. Und ich kämpfe dagegen an und versuche, die Wahrheit zu verbreiten, indem ich in diesem Beitrag die schlimmsten Gerüchte aufdecke. Denn wir sollten für unsere Kunden und ihren Erfolg mit SEO und SEM die „Quelle der Wahrheit“ sein.

Nun aber direkt zur Liste….

1. Unsere SEO-Agentur ist von Google anerkannt. Folgendes Zitat stammt aus einer Mail, die ein Freund letztes Jahr von einer SEO-Agentur erhalten hat:

Wir sind…Google zertifiziert, ein Partner von Google, der als Optimierer anerkannt ist. Es gibt nur wenige solcher Partner, aber wir sind einer davon! Gehen Sie auf http://www.google.com/websiteoptimizer/woac.html, wählen Sie als Region “United States” und scrollen Sie in die Mitte der Seite zu National Positions.

Hmm….die Firma findet man dort aber gar nicht mehr.

2. Meiden Sie Google Analytics, weil sie Google dadurch aushorcht und die Informationen gegen Sie verwendet. Das kommt direkt von den Anhängern der Verschwörungstheorie. Google hat wiederholt versichert, dass sie weder die Informationen über Traffic noch über die Konversion verwenden, um Sie als Spammer darzustellen.

3. Ihr Page Rank, so wie er vom Google Toolbar angezeigt wird, steht in engem Zusammenhang mit Ihrem Google-Ranking. Wenn das wahr wäre, wäre Ihr Job als SEO um einiges einfacher! Man muss nur ein paar Tests mit dem SEO-Tool für Firefox durchführen, und dann sieht man, dass Seiten mit einem geringen Page Rank immer vor Seiten mit einem hohen Page Rank liegen. Es ist naiv, anzunehmen, dass der Page Rank aus der Google Toolbar der gleiche ist, den Google intern für seinen Ranking-Algorithmus verwendet.

4. Eine xml-Sitemap treibt das Google-Ranking in die Höhe. Das habe ich von einem Diskussionsteilnehmer in einer SEO-Runde bei einer Konferenz gehört (Namen werden allerdings nicht genannt). Ich bin förmlich zusammengezuckt, habe mir aber auf die Zunge gebissen, um ihm nicht vor allen Zuhörern zu widersprechen. Hätte ich das tun sollen? Habe ich dem Publikum einen Bärendienst erwiesen, indem ich dieses Gerücht so stehen gelassen habe? Ich habe mit mir selbst gerungen. Wie dem auch sei - Google verwendet ihre Sitemaps als Wegweiser und möglicherweise als Hinweis auf doppelte Inhalte. Keine URL erhält aber mehr Link-Juice, weil sie in der xml-Sitemap steht, egal mit welcher Priorität.

5. Mit der Personalisierung gibt es keine absolute Nr. 1-Position mehr, weil jeder unterschiedliche Ergebnisse sieht. Es stimmt zwar, dass Google Suchergebnisse an Hand der bisherigen Suche des Benutzers personalisiert (und das passiert inzwischen sogar ohne Login bei Google). Die Unterschiede zwischen personalisierten und nicht-personalisierten Ergebnissen sind allerdings ziemlich gering. Das können Sie selbst prüfen: Wiederholen Sie Ihre Suchläufe und fügen Sie beim zweiten Mal &pws=0 am Ende der Suchergebnis-URL ein. Sie werden feststellen, wie viel (oder wenig) sich dadurch ändert.

6. Meta-Tags steigern das Ranking. Ich kann das mit den Meta-Tags nicht mehr hören. Es ist pure Zeitverschwendung, die Meta-Keywords zu optimieren. Punkt. Sie wurden derart von Spammern missbraucht, dass sie von den Suchmaschinen schon seit Jahren nicht mehr verwendet werden. Und was ist mit den anderen Meta-Tags, z.B. Description, Autor, Robots, fragen Sie? Keines dieser Tags hat einen echten Einfluss auf den Ranking-Algorithmus.

7. Es ist ratsam, ein Meta-Robots-Tag einzufügen, dass index und follow angibt. Das ist die Folge des vorangegangenen Punkts. Es ist komplett überflüssig. Die Suchmaschinen gehen alle davon aus, dass sie indizieren und Links verfolgen dürfen, sofern es nicht anders angegeben ist.

8. Es ist hilfreich, wenn die wichtigen Schlüsselwörter in HTML-Kommentar-Tags und Titel-Attributen (von IMG und a href-Tags) enthalten sind. Seit wann kriegen Kommentare oder Titel-Attribute überhaupt eine Bedeutung?

9. Länderspezifische Seiten erzeugen „duplicate content“ für Google. Google ist schlau genug, Ihre .com.au-Site Nutzern von Google Australien und die .co.nz-Site Nutzern von Google Neuseeland anzubieten. Sie verwenden keine cc-TLD? Dann stellen Sie das geografische Ziel in den Google Webmaster Tools ein - dafür ist es da. Und wo liegt das Problem?

10. Sie können Suchmaschinen davon abhalten, Seiten zu indizieren, auf die mit Javascript-Links verlinkt wird. Es sind viele Fälle dokumentiert, in denen Google Links in JavaScript verfolgt. Die Google-Ingenieure haben angegeben, dass sie zunehmend JavaScript-Links indizieren. Man sollte sich zwar nicht darauf verlassen, dass Google die JavaScript-Links durchläuft, aber auch nicht vom kompletten Gegenteil ausgehen.

11. Der Googlebot liest keine css-Dateien. Gehen Sie besser davon aus, dass Google die css-Dateien prüft, um Spam-Praktiken wie versteckte divs zu finden.

12. URLs sollten mit .html enden. Seit wann hat das eine Bedeutung?

13. Man kann das Ranking der Startseite für einen Begriff erhöhen, wenn man diesen in den Ankertext der internen Links einfügt. Tests von SEOmoz haben gezeigt, dass der Ankertext der Links auf die Startseite meist ignoriert wird. Es ist egal, ob man „Home“ oder „Immobilien San Diego“ als Ankertext verwendet.

14. Es ist wichtig für das Ranking, dass man seine Startseite häufig (z.B. täglich) aktualisiert. Auch das ist ein weiterer Trugschluss des schon genannten Diskussionsteilnehmers. Viele alte Startseiten werden gut gerankt, vielen Dank.

15. Der Handel mit Links steigert den Page Rank und das Ranking. Besonders, wenn es massiv und mit völlig irrelevanten Sites betrieben wird, stimmt’s? Hmm, nein. Linktausch hat einen zweifelhaften Wert: jeder Algorithmus kann ihn leicht entdecken und abziehen. Auch ihre eigene Version des Yahoo-Verzeichnisses auf Ihrer Site hilft weder den Benutzern noch der Suchmaschinen-Optimierung.

16. Ausgehende Links (z.B. zu Google.com) helfen beim Ranking. Falsch. Außer wenn Sie Ihren kompletten Page Rank bunkern, indem Sie überhaupt nicht verlinken - was aber in jedem Fall unnatürlich aussieht. Es verhält sich anders herum, d.h. Links auf Ihre Site machen den Unterschied.

17. Es gilt als „Cloaking“ - ist deshalb verboten und riskant - die URLs in ihren Links selektiv und nur für die Spider zu bereinigen. Wenn Sie ehrenhafte Absichten verfolgen, haben Sie nichts zu befürchten. Das haben die wichtigsten Suchmaschinen mehrfach betont. Sie helfen den Suchmaschinen, wenn Sie Session-IDs, Tracking-Parameter und andere überflüssige Paramtern aus den URLs entfernen - ob über User-Agents, Cookies oder anderweitig. Denn wenn das schlecht wäre, würde es Yahoo wohl kaum tun, oder? Machen sie den Test: gehen Sie mit dem Googlebot-User Agent-String (z.B. im Firefox mit der user Agent Switcher-Extension) auf die Yahoo.com-Homepage. Sie werden sehen, dass der „ylt“-Parameter aus allen Links entfernt wurde.

18. Wenn Sie eine Meta-Description definieren, wird diese von Google im Snippet verwendet. Es gibt etliche Beispiele, die das Gegenteil beweisen.

19. Fett geschriebene Wörter in einem Google-Listing bedeuten, dass sie zur Bestimmung des Rankings berücksichtigt wurden. Auch dieses Phänomen - in Kreisen des Informations-Retrievals als „KwiC“ bekannt - wird ausschließlich für die Usability gemacht.

20. H1-Tags sind lebenswichtige Elemente für die Suchmaschinen-Optimierung. Untersuchungen von SEOmoz haben nur eine geringe Korrelation zwischen H1-Tags und dem Ranking gezeigt. Man sollte aber dennoch gute H1-Überschriften verwenden, primär für die Usability und Zugänglichkeit, nicht so sehr für die Suchmaschinen-Optimierung.

21. Es gibt ein paar spezielle Ranking-Zeichen für Google Mobile Search, und dazu zählt das Markup „XHTML Mobile“. Die Ergebnisse der Google Mobile Search sind ein Abbild der Ergebnisse der Google Web-Suche. Erstellen Sie Versionen Ihrer Site, die für mobile Geräte geeignet sind, aber tun sie das für die Benutzer und nicht für die Suchmaschinen-Optimierung.

22. SEO ist schwarze Magie. Und die wird überwiegend in dunklen Räumen von gewieften SEO-Beratern durchgeführt. Der Kunde oder der Rest des Unternehmens hat damit nichts zu tun. Wenn SEOs wirklich so wären, würden sich unsere Lebensläufe wie Kriminalromane lesen.

23. Mit der Disallow-Anweisung in der robots.txt kann man Seiten aus dem Index von Google entfernen. Über disallow kann man ein Google-Listing ohne Snippet und Titel herbeiführen. Das schaut aber nicht gut aus. Um Seiten aus dem Index herauszuhalten, sollte man die noindex-Anweisung in der robots.txt oder das Meta-Robots noindex-Tag verwenden - keine disallow-Anweisung.

24. Die Suchmaschinen-Optimierung ist eine einmalige Aktivität, einmal abgeschlossen und fertig. Wie oft hört man „Wir sind mit der Suchmaschinen-Optimierung Ihrer Site fertig“? Ich würde dann am liebsten und aus vollem Hals „Nein!“ rufen. SEO geht weiter. So, wie eine Website nie fertig ist, ist auch die Suchmaschinen-Optimierung nie fertig. Im Katalog-Marketing kennt man das am besten: dort wird jeder Quadratzentimeter des gedruckten Katalogs optimiert. Denn es gilt stets, noch mehr Performance herauszuholen. Besonders in der IT gilt oft die Einstellung „einmal tun und dann vergessen“. Alles wird wie ein Projekt betrachtet, die Aufgaben werden abgearbeitet, das Ticket geschlossen und fertig. Und dafür kann man ihnen nicht mal einen Vorwurf machen.

25. Automatisierte Suchmaschinen-Optimierung ist Black-Hat oder Spam. Automatisierung ist nicht per se schlecht. Es zeigt sogar eine gewisse Reife des Markts, wenn starke Tools und Technologien für eine umfangreiche Automatisierung verfügbar sind. Ohne Automatisierung wäre es schwierig bis unmöglich, die SEO-Maßnahmen für die großen Mengen an Inhalten durchzuführen. Und dafür gibt es auch gute Argumente.

26. Eine Sitemap ist nichts für die Benutzer. Eine gute (html- oder xml-)Sitemap ist gleichermaßen für Benutzer wie für Spider gedacht. Immer wenn Sie Seiten, Beiträge oder Links einzig für die Suchmaschinen erstellen und hoffen, dass sie von den Benutzern nicht gesehen werden, riskieren sie Ärger.

27. Es muss nicht auf alle Seiten verlinkt werden, damit die Spider diese sehen. Schreiben Sie einfach alle URLs in die xml-Sitemap. Verwaiste Seiten erreichen meist nur für die ausgefallensten Suchbegriffe gute Ergebnisse. Wenn Ihre Webseite nicht mal so gut ist, dass Sie darauf verlinken möchten, welche Schlussfolgerungen erwarten Sie dann von den Suchmaschinen hinsichtlich Qualität und Wert der Seite?

28. Google indiziert keine Seiten, die nur über das Suchformular der Seite zugänglich sind. Das war einmal zutreffend, aber Google kann zumindest seit 2008 Formulare ausfüllen und die Ergebnisse durchlaufen. Das bedeutet aber nicht, dass man der Zugänglichkeit seiner Site keine Beachtung schenken sollte, wenn man keine enttäuschenden Ergebnisse erhalten möchte.

29. Mit klitzekleinen Links unten auf der Startseite kann man das Ranking der Unterseiten steigern. Noch besser ist es, wenn die Links die gleiche Farbe wie der Hintergrund bekommen oder per css aus dem sichtbaren Bereich geschoben werden, so dass sie das Aussehen der Startseite nicht verändern! (Das ist ironisch gemeint, tun sie es also nicht wirklich).

30. Es ist gut für das Ranking, wenn man auf Dienstleister zurückgreift, die versprechen, Ihre Site bei „hunderten von Suchmaschinen“ anzumelden. Wenn Sie das glauben, dann glauben Sie sicher auch, dass einen Prinzen in Nigeria gibt, der dringend Ihre Hilfe braucht, um einen größeren Geldbetrag außer Landes zu schmuggeln, wofür sie reich belohnt werden.

31. Der Page Rank der Startseite einer Domain hat eine Bedeutung. Wie in „Ich habe eine PR6-Site“. Es hat tatsächlich keine Bedeutung. Wie schon gesagt ist der Toolbar-Page Rank bestenfalls irreführend und schlimmstenfalls falsch. Ein hoher Page Rank auf der Startseite entspricht nicht notwendigerweise einem hohen Page Rank von Unterseiten, der von der internen Linkstruktur der Site abhängt.

32. Es ist eine gute Möglichkeit, den Aufbau von Links an einen Dienstleister zu übergeben, der weit weg sitzt, nach Aufwand bezahlt wird und keine Ahnung von Ihrer Branche hat. Und eine weise Geschäftsentscheidung…. NEIN! Die Blogosphäre ist schon mit nutzlosen Spamkommentaren in gebrochenem Englisch von Link-Buildern aus der 3. Welt überfüllt. Das sollten Sie nicht auch noch steigern, indem Sie sie anheuern, auch noch Ihre Site zu „promoten“.

33. Die Klickrate auf die Suchergebnisse ist ausschlaggebend. Wenn das wahr wäre, könnten diese gleichen Link-Builder den ganzen Tag auf Suchergebnisse klicken.

34. Die Keywort-Dichte ist der Hit. In der Tat ist die Überwachung der Schlüsselwort-Dichte Wahnsinn.

35. Domainnamen mit Bindestrichen sind am besten für die Suchmaschinen-Optimierung. So wie in san-diego-immobilien-fuer-spass-und-gewinn.com. Trennen Sie Schlüsselwörter im Rest der URL nach dem .com, aber nicht im Domainnamen selber.

36. Toller Content = Tolles Ranking. So wie gute Politik mit erfolgreichen Politikern gleichgesetzt werden kann, oder?

Zur Liste beigetragen haben und der Dank gilt: Chris Smith, Rand Fishkin und Eric Enge.“

Neueste Posts

Die größten Akquisitionen von Google, Amazon und Apple und einige Learnings daraus!
Neue Ausgabe des eStrategy-Magazin verfügbar 360 Stories – ein Spiel für Teams Die B2B E-Commerce Pyramide
Digital Storytelling - ein Kurztrip in die Kreativität und wieder zurück

Archiv

Dezember November Oktober September August Juli Juni Mai April März Februar Januar
Dezember November Oktober September August Juni Mai April Februar Januar
Dezember November Oktober September August Juli Juni März Februar
Oktober September August Juli Juni Mai April März Januar
Dezember November Oktober September August Juli Mai April Februar
November Oktober September April Februar
Dezember September Juni Mai Februar Januar
Juli Mai April März Februar Januar
September August Juli März
Oktober September Juli Juni Mai März Februar
Februar

Kategorien

E-Commerce Unternehmensmeldung Online-Marketing Magento Commerce Neos TYPO3 SEO SEA Usability Digitale Transformation Agile Projektentwicklung Corporate Web Analytics Künstliche Intelligenz Mobile Marketing Social Media Veranstaltungen Research & Development

Unser Herz schlägt online -
Deins Auch?


Wir stellen uns jeden Tag neuen Heraus-forderungen des Online-Business – immer auf der Suche nach spannenden Lösungs-ansätzen und sinnvollen Technologien. Eine Vielzahl namhafter Kunden vertrauen auf das Online Know-how „Made in Kolbermoor / Rosenheim und München“. 

Lust auf TechDivision? Hier geht zu unseren Stellenanzeigen

eStrategy Magazin


Erfahren Sie mehr zu den Themen E-Commerce, Online-Marketing, Mobile, Projektmanagement, Webentwicklung und E-Recht in unserem kostenlosen Online-Magazin.

Jetzt herunterladen!

Whitepaper:
Agiles Projektmanagement


In unserem kostenlosen Whitepaper versuchen wir Basiswissen und Erfahrungen aus vielen Jahren täglicher Projekt- und Unternehmenspraxis zu vermitteln, mit denen Sie die Anforderungen des Arbeitslebens von Heute besser bewältigen können.

Jetzt herunterladen!

Autor

Haben wir Ihr Interesse mit unserem Blog geweckt?

Wir sind der richtige Partner für anspruchsvolle Projekte im Bereich E-Commerce, Corporate Web, Consulting und Online-Marketing. Sprechen Sie mit uns!

Autor

Josef Willkommer Geschäftsführer / CMO