Wie Sie mit Suchmaschinenoptimierung Platzierungen auf der ersten Seite erhalten.
— 19.08.2020 / aktualisiert am 17.09.2025, Dieter Wiemkes —
Die erste Seite bei Google, Bing und Yahoo erreichen
01. Optimierung für Suchmaschinen– — „... der Köder muss dem Fisch schmecken!“
02. Falls der Fisch den Köder nicht mag — Google entscheidet nach Qualität.
03. Benötigt man eine spezielle SEO-Agentur? — Ja, in Spezialfällen.
04. Optimierung durch GEO für AI / KI — Generative Engine Optimization.
05. Bietet Ihr Web Sicherheit? — nicht mehr ohne SSL und HTTPS.
06. Ist Ihr Web mit Backlinks gut verlinkt? — Wichtig: Links von außerhalb.
07. Haben Sie doppelten Content vermieden? — Duplicate Content wird bestraft.
08. Sind Dateien aktuell oder „abgelaufen“? — Aktualität ist Ranking-Kriterium.
09. Mobile First: Wird das Web schnell geladen? — Statische Seiten sind beste Wahl.
10. „robots.txt“ und „sitemap.xml“ — für Crawler unverzichtbar.
11. Bei Google, Bing und Yahoo angemeldet? — Als Eigentümer eintragen.
12. Holistischer Content — qualitativ hochwertiger Mehrwert.
13. Alte Anzüge auftragen? — Google sieht das Alter und wendet sich ab.
14. Das war es jetzt? — Nein, Webseiten müssen leben.
Das Design und der Inhalt Ihrer Website müssen in erster Linie Ihre Zielgruppe ansprechen. Ihre Website soll modern, interessant, glaubwürdig und praktisch sein. Ihr Angebot soll durch relevante Inhalte zum Stöbern anregen und Kompetenz vermitteln.
Trivial auf den Punkt gebracht: Ihre Website soll Interessenten gefallen!
Um jedoch in den Suchmaschinen - vor allem bei den Marktführern Google, Bing und Yahoo - überhaupt gefunden zu werden und dann auch noch auf der ersten Seite zu landen, ist es notwendig, den Kern Ihres Angebots wertig darzustellen. Dies gelingt am besten durch eine interessante inhaltliche Aufbereitung Ihrer Produkte oder Dienstleistungen, die Anreicherung mit ansprechendem Bildmaterial und begleitende SEO-Maßnahmen.
Es ist keinesfalls ausreichend, auf mehreren Seiten nur einige Bilder und 2 Zeilen Text darunter zu schreiben. Wie es ein Kunde erlebt hat, führt das dazu, dass Google mitteilte, die entsprechenden Seiten nicht mehr indexieren zu wollen. Dann zeigt Google an: „Gecrawlt - zurzeit nicht indexiert“. Das bedeutet: Google hat die Seite besucht (gecrawlt), aber sich gegen eine Indexierung entschieden. Das ist kein technischer Fehler, sondern eine qualitative Entscheidung von Google. Die Ursachen sind meist:
Thin Content / schwacher Mehrwert
Die Seite ist inhaltlich zu kurz, kaum einzigartig, evtl. sind nur nur Textvarianten vorhanden („Türchen-Seite“).
Abhilfe: Einzigartige Texte, Bilder, Details, Nutzenargumente und FAQ einfügen. Reine Bildergalerien mit dünnem Text müssen unbedingt vermieden werden.
Duplicate Content
Ähnliche Texte befinden sich auf anderen Seiten oder sehr ähnlichen Unterseiten. Beispiel: fast identische Landingpages für verschiedene Projekte / Nummern.
Abhilfe: Gleiche Texte verhindern, bzw. sie umschreiben.
Verlinkungen fehlen
Die Seite ist von anderen Seiten der Domain kaum oder gar nicht verlinkt. Sie hat zu wenig Autorität bzw. Crawling-Priorität. Google hat die Seite zwar bereits erfasst, sie wird jedoch erst indexiert, wenn mehr Signale (Backlinks, Traffic) vorliegen.
Abhilfe: Die entsprechenden Seiten intern von Hauptkategorien, Blogartikeln, Startseite oder Footer besser verlinken. Wenn möglich, extern von relevanten Projekten oder Social Media auf die Seiten verlinken.
Meta- oder Canonical-Probleme
Es muss geprüft werden, ob ein „noindex“-Tag, Canonical auf eine andere URL oder eine blockierende robots.txt vorhanden ist.
Abhilfe: Mit dem GSC-Tool „URL-Prüfung“ checken auf noindex, Canonical, Crawling-Fehler und robots.txt.
Strukturierte Daten nach schema.org / Rich Snippets fehlen
Google wünscht seit einiger Zeit das Einfügen eines kleinen JSON-LD-Scriptes in jeder HTML-Seite. JSON-LD ist das von Google bevorzugte Format für strukturierte Daten. Diese Maßnahme kann die Performance einer Website in den Suchergebnissen verbessern, weil Suchmaschinen so besser erkennen können, wann sie eine bestimmte Seite ihren Nutzern anzeigen sollen. Suchmaschinen nutzen diese strukturierten Daten, um Nutzern direkt mehr Informationen über eine Seite anzuzeigen. Diese Suchergebnisse werden auch Rich Snippets genannt und machen die Ergebnisse dynamischer. So ist für Suchende bereits vor dem Anklicken besser ersichtlich, worum es auf einer Website geht.
Abhilfe: Ein JSON-LD-Script in jeder HTML-Seite hinzufügen.
Spezialisierte SEO-Agenturen haben ihre Daseinsberechtigung. Aber lassen Sie sich nicht von dubiosen Versprechungen täuschen!
Grundsätzlich gilt: Google & Co. kann man nicht austricksen, auch wenn das immer wieder versucht wird, zum Beispiel durch Suchmaschinen-Spamming. Um eine gute Platzierung zu erreichen, muss man einfach gute und ehrliche Arbeit leisten. Es sollte jedoch nicht notwendig sein, im Nachhinein eine SEO-Agentur zu beauftragen, um die Platzierung der eigenen Website zu verbessern. Wenn das nötig ist, haben die Ersteller Ihrer Website etwas falsch gemacht. Die zahlreichen Grundsätze, die es zu beachten gilt, hätten von Anfang an bei der Erstellung und Veröffentlichung der Website berücksichtigt werden müssen.
Neben vielen Details, die es zu beachten gilt, ist es beispielsweise selbstverständlich, einen professionell aufbereiteten Quellcode (Programmierquelltext) zu erstellen und entsprechende Meta-Tags einzufügen. Die Meta-Tags geben den Suchmaschinen zusätzliche Informationen bei der Indexierung und beeinflussen auch das Ergebnis im PageRank.
In Zeiten der künstlichen Intelligenz reicht es jedoch nicht mehr aus, nur die Grundlagen der Suchmaschinenoptimierung zu berücksichtigen. Das wird aktuell bei der AI-/KI-Search-Optimierung deutlich. Hier ist profundes Fachwissen erforderlich!
Die Suche verändert sich derzeit schneller als je zuvor. Google AI Overviews, ChatGPT, Perplexity und andere AI-Suchsysteme beeinflussen bereits heute die Sichtbarkeit von Marken komplett. Nutzer erwarten keine Liste mit Suchergebnissen mehr, sondern direkte Antworten, oft mit Empfehlungen für Produkte oder Dienstleistungen. Googles normale Suchergebnisse erhalten deutlich weniger Klicks, die Anzahl der klassischen Klickpfade nimmt bereits enorm ab. Unternehmen verlieren Kunden, weil sie in den durch AI generierten Antworten fehlen. Dieser Rückgang wird jedoch nicht sofort bemerkt. Es wird übersehen, dass sich die Spielregeln geändert haben. Ihre Marke muss durch eine GEO-Strategie so positioniert werden, dass Ihre Antworten in den generierten Antworten enthalten sind.
Neben den oben beschriebenen Rich Snippets (bzw. Schema.org-Zeilen) sind auch kleinste Maßnahmen wichtig. So ist vielen nicht bekannt, dass durch eine kleine Datei llms.txt im Root des Webs die AI-Suchmaschinen eine Initiierung erhalten, die Website zu durchsuchen und Inhalte aufzunehmen. In der Datei lassen sich Vorgaben zur Indexierung festlegen. Die Vorteile sind:
Höhere Sichtbarkeit der Inhalte in AI-Systemen
Die Inhalte sollten von Sprachmodellen wie ChatGPT, Google Gemini, Perplexity oder Claude (Anthropic) legal und aktiv verarbeitet werden dürfen, z.B. für:
- Antwortvorschläge bei Nutzerfragen, die zu den Themen passen.
- Verlinkung oder Inhaltszitate, sofern erlaubt (z.B. bei Creative Commons-Lizenzierung).
- Erhöhung der Reichweite, wenn die Inhalte in AI-Chatbots, Recherche-Tools oder Copiloten erscheinen.
Beispiel: Ein Nutzer fragt ChatGPT nach einem Thema, das Sie gut auf Ihrer Website behandeln - der Inhalt kann (sofern relevant) direkt oder in umformulierter Form in die Antwort einfließen.
Positive Signalisierung gegenüber der AI-Industrie
Mit der llms.txt zeigen Sie Transparenz und Offenheit gegenüber AI-Systemen. Das kann mittel- bis langfristig vorteilhaft sein, denn:
- Seriöse Anbieter bevorzugen Sites mit klaren Freigaben (Compliance).
- Ihre Inhalte werden nicht ausgeschlossen (was passieren kann, wenn keine Datei vorhanden ist und Anbieter auf Vorsicht setzen).
- Sie gestalten aktiv mit, statt passiv ausgesiebt zu werden.
Potenzielle Backlinks und Traffic
Wenn die Inhalte in AI-generierten Antworten zitiert oder referenziert werden, kann das:
- Neue Besucher auf Ihre Website bringen.
- Ihre Autorität als Quelle stärken.
- Indirekt Ihr SEO verbessern, etwa durch Erwähnungen, geteilte Links, Social Signals etc.
Zukunftssicherheit bei Rechtsfragen
Durch die llms.txt haben Sie:
- Belegt, dass Sie Ihre Inhalte bewusst freigegeben haben (rechtlicher Vorteil, z.B. bei Fragen rund um Urheberrecht oder Lizenzen).
- Eine klare Verhandlungsbasis, falls Sie später monetäre Nutzung, Attribution oder Einschränkungen definieren wollen.
Technische Fehler blockieren Erfolge. Fehlendes Schema-Markup / Rich Snippets, langsame Ladezeiten oder mobile Schwächen verhindern, dass die AI Inhalte interpretieren kann. Ohne technische Basis wird Ihr Web nicht in AI Overviews oder Chatbots erscheinen. Wer obendrein ohne die Definition klarer Ziele startet, stochert im Nebel und verzettelt sich mit Einzelmaßnahmen. Nur eine permanente und nachhaltige Präsenz in generativen Suchsystemen sogt für Erfolge!
Bei der Datenübertragung über das veraltete HTTP-Protokoll wird eine unsichere, unverschlüsselte Verbindung zum Server aufgebaut, die anfällig für Man-in-the-Middle-Angriffe ist. Jeder, der sich zwischen Ihrem Computer und der von Ihnen besuchten Website befindet, einschließlich Ihres Internet Service Providers (ISP), kann den Datenverkehr abhören und genau nachvollziehen, welche Websites Sie besuchen und was Sie dort genau tun. Sichere und verschlüsselte Verbindungen sind nur mit HTTPS möglich. In der heutigen Zeit der digitalen Unsicherheit sollte es daher selbstverständlich sein, dass Ihr Web sicher ist und mit SSL (Secure Socket Layer) verschlüsselt und weniger anfällig für Hacker ist.
Ob eine Website verschlüsselt ist, erkennen Sie am Schlosssymbol vor der Adresse im Browser und am HTTPS (Hyper Text Transfer Protocol Secure) vor dem Domainnamen. Auch aus rechtlicher Sicht ist es ratsam, auf Verschlüsselung zu setzen. Die unzureichende, fehlerhafte oder fehlende Umsetzung geeigneter Maßnahmen kann nach § 13 des Gesetzes über Digitale-Dienste-Gesetz (DDG) mit einem Bußgeld von bis zu 50.000 € geahndet werden. Wenn Sie bereits eine funktionale und ansprechende Homepage haben, müssen Sie wahrscheinlich nicht alles neu machen. Möglicherweise lässt sich Ihr Internetauftritt mit relativ geringem Aufwand auf die Verschlüsselung mit SSL / HTTPS umstellen.
Wichtige Ranking-Kriterien sind auch die Querverweise innerhalb der Website und die notwendigen Links von außen auf Ihre Website. Eine Suchmaschine kann jedoch nicht allein aufgrund des Inhalts einer Website entscheiden, ob das Thema besonders wichtig ist. Für die Suchmaschine ist es auch fraglich, ob zwischen der Suchanfrage des Nutzers und der verlinkten Seite ein wirklich interessanter Zusammenhang besteht. Durch die Analyse der Verweise (Backlinks) von anderen Websites auf eine einzelne Seite können Suchmaschinen jedoch feststellen, welche Websites zu einem bestimmten Thema häufiger referenziert werden. Ein Backlink wird also als qualitativ hochwertiger Verweis von einer einzelnen Website auf eine andere interpretiert.
Links, die auf die Startseite der Domain verweisen, erhöhen nur die allgemeine Autorität einer Website. Links, die auf spezifische Unterseiten oder Inhalte verweisen, können dagegen das Ranking der Website direkt verbessern. Neben Einträgen in thematisch passenden Webverzeichnissen und Webkatalogen sind daher auch Links von Kunden und Lieferanten - oder auch von sozialen Profilen - auf Ihre Website entscheidend für das Ranking.
Sie sollten auf jeden Fall in den lokalen Branchenverzeichnissen und vor allem bei „Google My Business“ oder in „Bing places for business“ vertreten sein. Das sorgt für ein besseres Ranking. Überprüfen Sie regelmäßig, ob die Einträge noch aktuell sind. Es wirft ein schlechtes Licht auf das Unternehmen, wenn nicht darauf geachtet wird, dass die eigenen Firmeneinträge korrekt und gepflegt erscheinen.
Wichtig sind auch „sprechende Links“ auf Ihren Webseiten. Ein Link mit dem Wort „hier“ sagt den Suchmaschinen nichts. Verzeichnisse, Dateien, Überschriften und sogar der Domainname sollten aussagekräftige Bezeichnungen enthalten. Achten Sie darauf, dass Ihre Website auch in „Google Maps“ und anderen Kartendiensten korrekt eingetragen ist. Alle Links werden bewertet und ergeben einen Linkpopularitätswert.
Eines sollten Sie vermeiden: Tragen Sie Ihre Website nicht in dubiose „Linkfarmen“ ein. Das würde zu einer Abwertung führen.
Denken Sie auch an die Bilder, die Sie im Web verwenden, und geben Sie ihnen aussagekräftige Namen und beschreibende Tags, so genannte Alt-Texte (Alternativtexte). Diese Texte werden angezeigt, wenn die Bilder nicht geladen werden können oder Ihre Website von sehbehinderten Nutzern besucht wird.
Doppelte Texte (Duplicate Content) auf der eigenen Website, gleiche oder ähnliche Inhalte auf anderen Websites führen unweigerlich zu Abstrafungen wegen Manipulationsverdacht. Diese Seiten werden schlechter gerankt oder sogar aus dem Index entfernt und erscheinen nicht mehr in den Suchergebnissen.
Im Header (Kopf) der HTML-Datei oder in der HTACCRSS-Datei (im Root-Verzeichnis des Servers) wird über einen Meta-Tag-Wert („expires“) festgelegt, wie lange der Browser des Nutzers die Seitenelemente im Cache (Speicher) halten soll. Beim Browser-Caching und auf Cache-Servern werden also Bilder und Texte lokal gespeichert. Bei einem erneuten Besuch der Seite wird dadurch der Datenverkehr im Web erheblich reduziert. Die Ladezeiten bei nachfolgenden Besuchen der Seite werden deutlich reduziert, da die Seitenelemente schneller angezeigt werden können.
In einer Datei mit der Bezeichnung „.htaccess“ kann dem Server mitgeteilt werden, wann Seiteninhalte für bestimmte Dateitypen neu geladen und auf Proxy-Server verteilt werden sollen, um das Laden zu beschleunigen. In der .htaccess-Datei kann auch festgelegt werden, dass bestimmte Dateitypen komprimiert (und damit schneller) übertragen werden sollen. All diese und weitere Details sorgen dafür, dass Webinhalte schneller geladen und damit auch schneller im Browser angezeigt werden. Folgerichtig fließen diese Maßnahmen auch in die Gesamtbewertung des Rankings ein.
Achten Sie auch auf die Aktualität Ihrer Website. Seit Jahren unveränderte Seiten lassen darauf schließen, dass Sie Ihrer Website keine Bedeutung beimessen. Suchmaschinen interpretieren aber auch die Aktualität der Seite als Ranking-Kriterium.
Weil die Crawler nicht jede Website jeden Tag nach Neuerungen durchsuchen, muss dafür gesorgt werden, dass die Suchmaschinen mit Hinweisen auf geänderte und neue Seiten versorgt werden. Am besten geschieht das durch das Einreichen einer sitemap.xml-Datei in der Google Search Console (GSC) und den Bing Webmaster Tools. Dort kann zusätzlich auch eine kurzfristige Überprüfung der Webseite durch die Eingabe und das Aktivieren der Prüfzeile erfolgen.
Eine weitere aktuelle Möglichkeit ist die Nutzung von „indexnow“, das von einigen führenden Suchmaschinen ins Leben gerufen wurde. Dabei wird nach deren Aussage ermöglicht, die beteiligten Suchmaschinen sofort und ohne Zeitverlust zur Indexierung anzustoßen.
Logisch ist auch, dass Webseiten, die mit statischem HTML erstellt wurden, wesentlich schneller geladen werden können als solche, die mit einem CMS erstellt wurden. Was CMS-Systeme aus Datenbanken und anderen „unübersichtlichen“ Quellen zusammensuchen müssen, verlangsamt den Aufbau der Webseite im Browser! Statische HTML-Seiten sind daher die beste Wahl für kleinere Websites, insbesondere auch für die Suchmaschinenoptimierung! Es hat sich gezeigt, dass CMS (z.B. WordPress oder Joomla) oft ungeeignet sind und statische Webseiten die bessere Alternative darstellen. Dies gilt umso mehr für die Nutzung auf Smartphones, wo schnelles Laden besonders wichtig ist. Schnelligkeit ist ein nicht zu vernachlässigender Aspekt, den Suchmaschinen mit einem guten Ranking belohnen.
Dass diese Aussage stimmt, sehen Sie an den Beispielen unserer Kunden. Hier sehen Sie, dass fast alle unsere Kunden mit den für sie wichtigen Begriffen auf der ersten Seite der Suchmaschinen zu finden sind!
Selbstverständlich dürfte es sein, dass alle größeren Bilder mit dem Attribut „Lazy Loading" versehen werden. Es handelt sich um eine verzögerte Darstellung. Bilder werden also erst dann vom Server geladen, wenn sie durch das Scrollen sichtbar werden sollen.
Diese Datei sollte im Root-Verzeichnis Ihrer Website nicht fehlen. Die Datei mit dem Namen „robots.txt“ teilt den Suchmaschinen mit, welche Verzeichnisse und Dateien indexiert werden sollen und welche nicht. Die Crawler der Suchmaschinen richten sich strikt nach den in dieser Datei festgelegten Werten.
Die Datei „sitemap.xml“ listet alle Seiten Ihrer Website in einer für die Crawler verarbeitbaren Form auf. Zusätzlich werden Informationen über das Erstellungsdatum und die gewünschte Besuchshäufigkeit der Crawler eingefügt.
Zusätzlich sollte eine Image-Sitemap erstellt werden, um Suchmaschinen über die Bilder auf Ihrer Website zu informieren, insbesondere über solche, die sonst möglicherweise nicht gefunden werden (z.B. Bilder, auf die Ihre Website über JavaScript zugreift). Die Image-Sitemap kann separat erstellt werden oder Image-Sitemap-Tags können zu einer bestehenden Sitemap hinzugefügt werden.
Ein Eintrag als Eigentümer in den Suchmaschinen ist hilfreich. Um glaubwürdig zu versichern, dass Sie der Eigentümer der Website sind, müssen Codeschnipsel, die von den Suchmaschinen erstellt und ausgeliefert werden, im Root-Verzeichnis der Website platziert werden. Beim nächsten Besuch eines Webcrawlers (Suchroboter) wird dieses Snippet ausgelesen und fließt in die Bewertungsalgorithmen ein.
Ziel - nicht nur von Google - ist es, den Nutzern einen Mehrwert zu bieten. Das beste Ranking in den Suchmaschinen wird durch die Präsentation ganzheitlicher Inhalte erreicht. Ein Thema sollte so umfassend behandelt werden, dass es die bestmögliche und qualitativ hochwertigste Antwort auf eine Suchanfrage bietet. Suchmaschinen gehen davon aus, dass ein thematisch umfassend beschriebener (also ganzheitlicher) Text Ihre Zielgruppen mehr interessiert als beispielsweise eine Aneinanderreihung von Suchbegriffen. Daher sollten Sie Ihr Thema umfassend, qualitativ hochwertig, detailliert und gebündelt beschreiben.
Mal ehrlich: Im wirklichen Leben präsentiert man sich doch auch nicht in Kleidung, die 20 Jahre alt ist, oder?
Surft man durch ein antiquiert wirkendes Web, entsteht allzu leicht der Eindruck, dass mit dem Unternehmen etwas nicht stimmen kann, wenn es sich derart rückständig präsentiert und aktuelle Erkenntnisse nicht anwendet. Google & Co. merken sich, dass das Web veraltet und damit uninteressant für die Nutzung ist. Höchste Zeit also, umzudenken und einen Web-Relaunch konzipieren zu lassen. Beim Relaunch können dann die hier beschriebenen Kriterien von Anfang an berücksichtigt werden.
Auf keinen Fall! Sie sollten nicht nur Ihren Zielgruppen stets aktuelle und qualitativ hochwertige Inhalte präsentieren, sondern auch den Suchmaschinen. Diese stellen mit ausgeklügelten Algorithmen fest, ob Ihre Webseiten „leben“. Die Algorithmen bestimmen, ob Ihre Webseiten aktuell und damit für die Nutzerinnen und Nutzer der Suchmaschinen interessant bleiben. Werden die Webseiten häufiger aktualisiert, wird dies mit besseren Rankingergebnissen belohnt. Je öfter Ihre Webseite aktualisiert wird und neue Artikel veröffentlicht werden, desto häufiger wird sie von den Suchmaschinen besucht. Aktuelle und vor allem umfassende Inhalte sind also das wichtigste Kriterium.