Suchmaschinenoptimierung (SEO)
Bei Suchmaschinenoptimierung geht es verkürzt gesagt darum, zu bestimmten Suchen auf Google auf Platz 1 zu landen.
Auch für Kulturbetriebe ist das ein relevantes Thema, da Google von allen Zielgruppen häufig eingesetzt wird und es daher bei einigen Suchbegriffen einen Wettbewerb um Platz 1 gibt. Wie ihr diesen Wettbewerb gewinnen könnt, lernt ihr in diesem Kapitel.
Wie funktioniert eine Suchmaschine?
Der Google Bot folgt Links und lädt jede Webseite herunter. Diese werden anhand von > 200 Kriterien bewertet. Wenn jemand bei Google einen Suchbegriff eingibt, durchforstet Google alle Seiten und erstellt eine Liste aus 10 Webseiten (Seite 1), die auf deine Suche passen.
Diese Liste nennt man SERP (Search Engine Result Page). Sie besteht aus Snippets mit:
- Link
- Titel
- Beschreibung
- Zusatz
SERP: Search Engine Result Page
Die Darstellung und das Ranking der SERP ändert sich ständig. Daher braucht es gesonderte Tools, um eine durchschnittliche Platzierung zu erkennen.
Google like a pro
Es gibt ein paar “Operators”, um die Google-Suche besser zu nutzen. Auf dieser Webseite findet ihr eine ausführliche Übersicht. Niemand muss alle auswendig lernen.
Ein paar, die ich oft nutze:
- site: URL
- -site: URL
- filetype:
- related: URL
- “suchbegriff”
- “OR” “AND”
Ein Nutzungs-Beispiel, um eure Texte auf fremden Webseiten zu finden:
-site:EURE-URL “text den man checken will”
Auf der SERP findet ihr dann alle Webseiten, die exakt diesen Text nutzen.
Marktanalyse
Wie entwickelt sich die Nachfrage nach “Theater” generell?
Hier der Link zur Google Trends Analyse als Live-Grafik, die immer aktuelle Daten liefert.
Was erkennt man? Die Suchanfragen zum Thema Theater gehen seit Jahren zurück, laut der Statistik des deutschen Bühnenvereines bleiben die Besuche jedoch eher konstant.
Suchbegriffe
- schuhe kaufen
- theater in der nähe
- heute in berlin
Die Wörter, die man in Google eingibt, nennen sich Suchbegriffe oder auch Keywords. Da die Suchergebnisse sich immer auf das Keyword beziehen, kann man nicht sagen, dass man “generell gut rankt”. Zuerst muss man “Keywords/Suchbegriffe” definieren, für die man gut ranken möchte.
Nach was suchen die Besucher*Innen?
Das lässt sich mit Umfragen oder digitalen Tools, wie Matomo, Sistrix oder Google Suggest herausfinden. Bei einem Publikum, dass jedoch noch viel “analog” macht, gibt auch eine andere gute Informationsquellen …
- Kassenmitarbeiter*Innen
- Abonnement Hotlines
- Musikschullehrer*Innen
Keyword Mapping
Wir brauchen eine Keyword-Map, die uns zeigt, welche Suchbegriffe für euch wichtig sind und mit welchen Unterseiten wir darauf ranken möchten.
Das kann eine einfache Excel Datei oder ein Google Sheet sein, das mindestens diese Informationen enthält:
Keyword | URL |
---|---|
Digitale Bühne | https://url.de/digitale-buehne |
Livestream | https://url.de/livestream |
Programm, Spielplan | https://www.url.de/programm |
Die Erstelung ist deshalb so wichtig, da ihr dabei bemerkt, dass es vielleicht mehrere Seiten gibt, die auf das gleiche Keyword ranken sollen (nicht gut). Oder, dass es Unterseiten gibt, die überhaupt nicht für SEO relevant sind. Außerdem erkennt ihr, dass es wichtige Keywords gibt, für die es noch keine passende Unterseite gibt!
Der SISTRIX Sichtbarkeitsindex
Der Sichtbarkeitsindex der Firma Sistrix (SI) gibt an, wie gut man bei Google rankt. Aber habe ich nicht eben gesagt, dass man nicht “generell gut ranken kann?”. Ja, das stimmt. Daher berechnet sich der SI aus vielen konkreten Rankings:
Je höher das Suchvolumen der Keywords und je besser das Ranking für diese Keywords desto höher der SI.
Beispiele für Sichtbarkeitsindizes
- visitberlin: 15
- berlin-buehnen.de: 1.6
- deutschestheater.de: 1.2
- gorki.de: 0.5
- schaubuehne.de: 0.3
- tanzimaugust.de: 0.03
- ufafabrik: 0,05
Wie jede KPI (“Key Performance Indicator”) sollte auch diese nicht als heiliger Gral gelten. Wenn man beispielweise eine Veranstaltung mit einem Promi anbietet, steigt der SI an, da zu Promis ein hohes Suchvolumen gehört. Das heißt aber nicht, dass man sein SEO verbessert hat.
Technisches SEO
Die wichtigsten Bereiche, mit denen wir uns befassen werden
- Crawling & Indexierung
- URL
- Duplicate Content
- HTML Tags
- robots.txt
- XML-Sitemap
Grundlegendes
Mit technisches SEO sind heute keine Pokale mehr zu gewinnen, dennoch ist eine sauber programmierte Webseite das Fundament, um überhaupt am Rennen um SEITE 1 teilnehmen zu dürfen.
Programmierer vs. Content Management System
Viele technischen SEO Kniffe lassen sich mit dem CMS (z.B. Typo3) umsetzen. Falls das nicht klappt, empfehle ich den Einsatz eines Programmierers. Viele sind in SEO geschult und wissen, was sie tun.
SEO ist keine Wissenschaft
Viele der Empfehlungen in diesem Workshop sind “Best Practices”. Es gibt jedoch keine wissenschaftliche Grundlage, auf der sie aufbauen. Google kann entscheiden, auf eurer Webseite anders zu handeln.
Crawling und Indexierung
Der Google Bot bewegt sich von Link zu Link (Crawling) und speichert eine Kopie der Webseite auf Google Servern ab (Indexierung).
Ablauf
- Crawling
- Indexierung
- Ranking
Crawling ist ein wiederkehrendes Element – unser Einfluss auf die Frequenz ist jedoch beschränkt. Bei den meisten Webseiten ist das jedoch auch nicht so wichtig. Nur z.B. News-Webseiten sollten möglichst häufig gecrawlt werden, damit Google die aktuellsten Meldungen bieten kann.
URL
Steht für: Uniform Resource Locator
Beispiel: https://www.holgerkurtz.de/deep-dive/suchmaschinenoptimierung
–
https://
- ein Protokoll. Das s zeigt, dass die Webseite bereits ein SSL Zertifikat hat.
- das Zertifikat wurde von Google als Sicherheitsstandard im Internet etabliert und als Rankingfaktor genannt.
–
www.
- eine Subdomain, es gibt auch Webseiten die als Standard einfach https://domain.de/rest haben
- gibt auch andere Subdomains, wie “shop.domain.de” für Google ist das eine komplett andere Webseite
- Blog daher besser /blog/ als blog.domain.de
- Ländervariante darf aber en.domain.com sein, wenn nicht generell international
holgerkurtz
- Domainname (für Menschen)
- Man sollte auch Varianten registieren lassen, da sich Menschen oft vertippen
.de
- Top Level Domain (aka “Endung”) wie .de und .com stehen für Deutschland oder Company.
- gibt auch .tv – steht aber nicht für Television 1
/deep-dive/
- ein Verzeichnis, in dem meist mehrere verwandte Dateien liegen
suchmaschinenoptimierung
- HTML5 Datei (hier ohne Endung, da es ein Verzeihnis ist2)
- NUR DIESE ranken bei Google
Tipps für Verzeichnis & Datei:
- selbsterklärend
- keyword haltig
- alles klarin, keine Leerzeichen oder Sonderzeichen/Umlaute
- direkt aufrufbar mit Übersicht
Welche URL ist am stärksten?
Stark im Sinne von: Welche URL rankt am besten für keywords mit möglichst hohen Suchvolumina?
Um das herauszufinden können wir in die Google Search Console oder in ein SEO Tool wie Sistrix reinschauen. Die Google Search Console ist quasi euer professioneller Zugriff auf Google Daten. Ihr müsst euch dort anmelden und dann verifizieren, dass ihr wirklich ein Admin der Webseite seid. Dazu gibt es verschiedene Möglichkeiten, die Google auch selsbt erklärt.
Duplicate Content
Da Google Serverkosten sparen möchte, bestraft es Webseiten, die mit mehreren URLs das gleiche darstellen. Das passiert häufiger als man denkt.
Es gilt die Devise des Highlanders:
“Es kann nur einen geben” (nach Julian Dziki, seokratie.de)
Gefahrenherde
- Filter
- Produkte in mehreren Kategorien
- Mobile Subdomain
- Text im Footer
- Parameter in der URL
- Mehrfach genutzte Title & Description Tags
Wie findet man duplicate Content? Zum einen könnt ihr über die Suchoperatoren, die ihr bereits gelernt habt, eine Suchanfrage erstellen, die alle Unterseiten ausgibt, die für ein bestimmtes Keyword ranken:
site:EURE-URL suchbegriff
Vermutlich kommt nicht nur eine einzige eurer Unterseiten. Das ist erstmal nicht tragisch, doch schaut mal auf den Seiten, ob sie sich wirklich unterscheiden. Sind es vlt. wirklich zu großen Teilen die gleichen Inhalte?
Wenn ja, dann gibt es bestimmte HTML Tags, die ihr einsetzen könnt, um das Problem zu lösen. Wir lernen sie im Verlauf des nächsten Abschnitts kennen: no-index, canonical, hreflang.
HTML Tags
Die Hypertext Markup Language sagt dem Browser, was er wie darstellen soll. So wird aus einer Textdatei eine Webseite. Wir machen eine sehr kurze Einführung in das Thema, damit ihr die gängigsten Termini kennt.
Zur Veranschaulichung habe ich ein kleines, interaktives Webseitenprojekt gestartet
Überschriften
<h2> Überschrift h2 </h2>
<h3> Überschrift h3 </h3>
Überschriften strukturieren einen Text und geben ihm ein leicht zu überfliegendes Layout. Man sollte die größte Überschrift h1 nur einmal verwenden, h2 darf öfter vorkommen. h-tags haben nichts in Menüs, Seitenleisten oder Footern zu suchen, denn man kann auch normalen Text groß abbilden, wenn es das Design erfordert.
Kreativer Einsatz von Überschriften
- https://www.linkedin.com/posts/daniel-niedermayer-8618b43a_seo-activity-6909868610245046272-gtGc/
Der Bedarf, ein Ikea Möbelstück zu kaufen entsteht häufig in Situationen, die erstmal wenig mit den Namen von Ikea Möbeln zu tun haben. Ikea kam hier auf die Idee, die Namen (und damit die Überschriften) für SEO zu optimieren, sodass sie auf die Suchanfrage passen. Das klingt erstmal Stumpf, wurde hier aber sehr in den Einklang mit der Brand gebracht.
Quelle: https://www.linkedin.com/posts/daniel-niedermayer-8618b43a_seo-activity-6909868610245046272-gtGc
Paragraphen & Listen
<p> Einfacher Fließtext </p>
<ul>
<li> 1 </li>
<li> 2 </li>
<li> 3 </li>
</ul>
Viele Bilder, Videos und aufwendige 3D Animationen wirken auf das Branding ein, sind jedoch für SEO meist problematisch, da sie wenig Infos geben und eventuell lange Ladezeiten aufweisen.
Gut strukturierte Texte sind hingegen wichtig. Was kann eure Webseite, warum gibt es sie? Das sollte alles schriftlich beantwortet werden, damit die Leser und Google es verstehen.
Titel
<title> SEO Workshop </title>
In diesem Tag steht der Titel der Unterseite, die u.A. bei Google auf der SERP angezeigt wird.
Tipps
- Keyword direkt am Anfang
- Danach von Konkurrenz absetzen
- Einmalig
- Frage in Google + gesuchte Antwort kombinieren
- Markennamen rein? Nur, wenn sein muss
3.4 Description
<meta name="description" content="Hier steht eine Beschreibung">
Die “Description” ist quasi eine Zusammenfassung der Unterseite. Auch sie wird bei Google angezeigt.
Tipps
- Keyword rein
- Erklären, Aufmerksam machen: Klick erzeugen
- Kurze, einfache Sprache mit unterstützenden Satzzeichen
- Einmalig
- Was erwartet die User auf der Unterseite?
3.5 noindex
Wenn eine Unterseite nicht in den SERPS erscheinen soll, kann man das “noindex” HTML Tag einbinden.
<meta name="robots" content="noindex" />
Wann sollte man es einsetzen?
- Um das Crawling Budget zu verteilen
- Bei Problemen mit dem Urheberrecht
- Bei Ergebnisseiten der eigenen Webseiten-Suche
- Kaufseiten (Anmeldung, Warenkorb, Zahlungsmittel)
3.6 canonical
Nicht jede Unterseite kann wirkich einmaligen Inhalt zeigen. Wenn z.B. das CMS bei einer Veranstaltung mit mehreren Terminen immer eine URL pro Termin erstellt, würde Google dies abstrafen, um doppelte Inhalte zu vermeiden (dazu später mehr).
Wenn eine 301 Weiterleitung oder noindex keinen Sinn ergibt, hilft oft das “canonical tag” – auch domainübergreifend.
<link rel="canonical" href="https://www.haupturl.de/hauptseite" />
Beide URLs bleiben indexiert, aber die kanonische URLs rankt besser.
Anwendungsmöglichkeiten
- dynamische URLs (Filter)
- PDF Version einer Webseite
- duplicate Content auf fremden Domains
- darunter kann auch die eigene Subdomain fallen
canonical kommt von “Kanon”, dem Teil einer Religion, der als verbindlich gilt.
3.7 next & prev Tag
Häufig gibt es sogenannte paginierte Seiten. Also Unterseiten, die man wie ein Buch durchblättern kann. Dadurch entstehen viele URLs, die aber im Prinzip nichts bei Google zu suchen haben.
Bis vor kurzem hätte ich an dieser Stelle den Einsatz von prev und next Tags empfohlen, aber seit kurzem heißt es von Google-Seite, dass man diese Seiten automatisch erkennt und optimiert indexiert.
Also vertrauen wir mal auf Google. Falls es Probleme gibt, kann man als doppelten Boden die Tags einfügen.
next-Tag:
<link rel="next" href="url der nächsten Seite">
<link rel="prev" href="url der vorigen Seite">
3.8 hreflang Tag
Webseiten in anderen Sprachen (häufig mit einer anderen TLD), gelten als fremde Domain. Also ist auch hier duplicate Content Alarm. Um das Problem zu lösen, muss man in allen URls das hreflang Tag einfügen.
Beispiel: Englische Übersetzung auf domain.de/en/~
<link rel="alternate" href="URL Deutsch" hreflang="de-DE" />
<link rel="alternate" href="URL UK" hreflang="en-GB" />
Schon ist das Problem gelöst und Google weiß, welche URL in welchem Land in den SERPs erscheinen soll.
Da man nicht für jedes Land/Sprache ein eigenes Tag impelemtieren kann, gibt es auch die Version “hreflang=x-default”. Dieses verlinkt dann meist auf die englische Version.
Weitere HTML5 Tags
Ist eure Webseite bereits auf html5?
Quelle und weitere Erklärungen: http://html5doctor.com
4. robots.txt Datei
Diese Textdatei zeigt der Suchmaschine, welche URLs sie indexieren soll bzw. auslassen kann. Damit lässt sich das “Crawling Budget” verteilen. Generell sollte man die Datei jedoch nur einsetzen, wenn es keine Alternative gibt.
Sie ist jedoch optional. Bei kleineren Webseiten ist sie nicht unbedingt nötig.
Als Beispiel können wir uns die robots.txt von Google anschauen
Immer zu finden unter: domain.de/robots.txt
5. XML-Sitemap
Eine Sitemap verbessert nicht das Ranking, hilft aber Google bei der Indexierung. Das kann dazu führen, dass Google die Domain häufiger (und fehlerfreie) crawlt.
Eine Sitemap ist im .xml Format und sollte direkt und automatisch im CMS erstellt werden – wenn man sie denn braucht.
Die Sitemap kann in der Google Search Console eingereicht werden, sodass Google davon erfährt.
On-Page
- Ausklappen
- Text
- Bilder
- Mobile First
- Ladezeit
- Strukturierte Daten
- Core Web Vitals
- Content
1. Ausklappen
- Wichtigen Text nicht verstecken
- Ausklappen je nach Implementierung aber auch ok
Text, der nicht direkt geladen wird, oder ausgeklappt wird, wird als “nicht so wichtig” gedeutet. Daher sollte man auch nur “nicht so wichtigen” Text ausklappbar machen, um es übersichtlich zu halten. Die Implementierung sollte auf SEO Tauglichkeit geprüft werden.
2. Text
- 🚀 Hollistischen Content schaffen
- Text, Bilder, Videos auch zu Nebenthemen
- Es gibt keine perfekte Textlänge, aber wer mehr schreibt, bietet meist das bessere Angebot (>200 Worte)
- Texte nicht wiederholen (siehe duplicate Content)
“Put key information in text, not graphics, on the site.” (Google)
2.1 Gendern
Gendern ist heute noch problematisch für SEO, da “Künstler” & “Künstlerin” unterschiedliche Suchbegriffe sind. “Künstlerin” hat jedoch weniger Suchvolumen. “Künstler*In” noch viel weniger.
🕵 Beispiel Hebbel am Ufer
- https://www.hebbel-am-ufer.de/programm/kuenstlerinnen/
- Im Titel “Künstler*Innen”
🚀 Würde Meta-Beschreibungen im generischen Maskulin verfassen, aber de Rest gendern.
Google steht derzeit in der Kritik dazu. Ich vermute, dass bald gegenderte Sprache zum generischen Maskulin einfach als Variante hinzugefügt wird.
Weiterführende Literartur dazu:
- Gendergerechte Sprache in der Unternehmenskommunikation – Top oder Flop?
- Gendern und SEO vereinbaren: Geht das?
3. Bilder
🚀 Das Ausfüllen des “Alt-tags” bei Bildern lohnt sich. Möglichst das Keyword nutzen und nicht vergessen: Bilder können auch als Link genutzt werden.
Mehrmals verwendete Bilder sollten nicht mehrmals hochgealden werden, sondern das selbe Bild sollte man mehrmals einbinden.
4. Mobile First
Seit April 2021 betrachtet Google nur noch die mobile Version einer Webseite – auch bei Desktop Suchanfragen. Das hat zur Folge, das Webseite vor allem gut mobil optimiert sein müssen.
Wie umsetzen?
- mobile first designen, desktop second
- subdomain (m.domain.de) oder responsives Design oder dynamischer Content
- responsiv empfohlene Lösung, subdomain auch gut
5. Ladezeiten
Eine Webseite kann gar nicht schnell genug sein. Man verliert sehr schnell sehr viele User, wenn eine Webeite länger als 3 Sekunden lädt.
Tipps
- Bilder komprimieren (webp > JPEG > PNG)
- CSS, JS verringern und erst laden, wenn HTML fertig ist
- Lazy Load für Inhalte
- Serverhosting verbessern
- serverseitige Komprimierung
- serverseitiges Caching
- aktuelle HTTP Protokolle (HTTP/2)
- Server bietet aktuelle Software, schnelle SSDs, Wartung?
Informationen zu WebP:
https://developers.google.com/speed/webp
Stukturierte Daten
Suchmaschinen versuche, das Wissen der Welt in Tabellen zu packen. Wenn man Google dabei unterstützt, indem man seine Daten stukturiert, wird man mit einem besseren Ranking belohnt.
Möglichkeiten:
- schema.org
- JSON-LD
Beispiel einer Veranstaltung:
- https://www.muenchenmusik.de/mm/veranstaltungen/beethoven-symphonie-nr-9-16422
Google Tool, um Implementierung von strukturierten Daten zu testen:
https://search.google.com/structured-data/testing-tool/u/0/
Weiterführung
- Wie kann man diese Daten generieren?
- Welche Daten gibt es?
Mehr zu diesem Thema, findet ihr in dem gesonderten Deep-Dive zu Thema: Strukturierte Daten mit JSON-LD
7. Core Web Vitals
Google nimmt schon seit langem das Nutzerverhalten in die Bewertung einer Webseite mit rein. Beim worst case kommt der User aus den SERPs, klickt auf deine Webseite und kehrt nach ein paar Sekunden wieder in die SERPs zurück.
Google ist dann gescheitert!
Um die User Experience zu verbessern, veröffentliche Google 3 Bereiche, die gemessen werden und in denen man sich verbessern muss.
Tests lassen sich auch über “Pagespeed Insights” erstellen
First Contentful Paint (FCP)
- Gibt an, wann der erste Text oder das erste Bild gezeichnet wird. (<2.5)
Largest Contentful Paint(LCP)
- Gibt an, wann der längste Text bzw. das größte Bild gezeichnet wird.
First Input Delay (FID)
- Die Zeit bis Interaktivität entspricht der Zeit, die vergeht, bis die Seite vollständig interaktiv ist. (<100 Millisekunden)
Cumulative Layout Shift (CLS)
- Misst die Bewegung sichtbarer Elemente innerhalb des Darstellungsbereichs (Seite schiebt sich nach unten)
8. Content
- Was stößt auf Interesse?
-
In welchen Situationen entstehen Bedarfe?
Doch was sollte man überhaupt als Content erschaffen? Zu welchen Keywords lohnt es sicht, Inhalte zu erstellen?
Um Content zu erstellen, den die User auch benötigen, beginnt man mit einer Keyword-Recherche. Siehe dazu auch den Beitrag “Content-Marketing”.
Tools zur Recherche
- Sistrix, AHREF, semrush
- Google Suggest
- Google Auto Complete
- Keywords Everywhere (Chrome Erweiterung)
- Google Ads (Keyword Planner)
- answerthepublic.com
🦄 Gute Keywords haben wenig Konkurrenz aber ein hohes Suchvolumen 🦄
Beim Tool Google Ads ist die Angabe des Suchvolumens pro Keyword nur dann korrekt, wenn man auch Google Ads schaltet. Je mehr Geld man investiert, desto genauer sind die Daten. Die kostenpflichtigen Tools haben eine validere Datenbasis und erleichtern die Arbeit.
Wenn man nun zu einem Thema die nötigen Keywords hat, kann man darauf aufbauend einen Beitrag erstellen, der seo optimiert gelayoutet ist, Bilder, Videos und vlt. Ton enthält und gengerell Content enthält, den es auf einer anderen Webseite noch NICHT gibt.
Off-Page
- Weiterleitungen
- 404 Fehlerseite
- Externe Links
- Interne Links
1. Weiterleitungen
Bei Änderungen an einer Webseite können sich URLs ändern, neue hinzustoßen oder alte unnötig werden. Eine falsche Weiterleitung kann ein Online-Geschäft in den Bankrott führen.
Probleme
- Externe Links laufen ins Leere
- duplicate Content, wenn Inhalte sehr ähnlich
Wann weiterleiten?
- Sobald zwei Unterseiten identisch sind
- Wenn sich eine URL ändert, erhält die alte eine 301-Weiterleitung
- www. auf http(s)
- .com auf .de
Weiterleitungen lass sich meist im CMS einrichten.
Status Code 418 “I’m a teapot”: Aprilscherz von 1998
https://www.google.com/teapot
Technischer Hintergrund zur Weiterleitung
In die .htaccess Datei auf dem Server wird ein mod_rewrite Modul implementiert, der Anfragen umwandelt. Aber das muss man nicht selbst machen.
2. 404 Fehlerseite
Wenn eine Webseite nicht erreichbar ist, sollte eine 404 Seite angezeigt werden. Eine solche Seite kann eine Suche beinhalten, ein Angebot oder etwas Kreatives? Warum keine “geheime” Geschichte erzählen?
Exkurs: Wie Google erfolgreich wurde
Google war weder die erste noch die einzige Suchmaschine. Doch zwei Faktoren gab ihr einen Wettbewerbsvorteil.
- Pay per Click
- Google hatte kein Interesse daran, den Nutzer lange die SERPs zu zeigen, um den Umsatz zu erhöhen, sondern macht nur Umsatz, wenn jemand einen guten Treffer findet
- Externe Links
- In ihrer Dissertation beschreiben Larry Page und Sergey Brin den PageRank Algorithmus, der die Relevanz einer Webseite davon abhängig macht, wie viele – und welche – andere Webseiten auf sie verlinken.
Links waren früher der wichtigste Rankingfaktor.
3. Externe vs. Interne Links
Die Wahrheit über “Blogparaden”
Überspitzt formuliert: Blogparaden dienen dazu, externe Links von anderen thematisch passenden Webseiten zu erhalten.
3. Externe Links
Da früher viel gefaket wurde, sind die Regeln bei externe Links strenger geworden.
Der perfekte externe Link
- kommt von einer Webseite, die viel Traffic hat
- und über dein Thema schreibt
- und bekannt ist
- und setzt ihn so:
Alles über das neue Programm findest du hier
Man hat selten einen Einfluss auf die Gestaltung externer Links, aber es gilt, dass der Link möglichst “natürlich” gesetzt werden soll und nicht mehr alle externen Links auf dem Keyword als Linktext gesetzt werden. Anders ist das bei internen Links.
4. Interne Links
Bei internen Links gilt quasi das Gegenteil.
Der perfekte interne Link
- ist auf deiner Startseite (oder wichtigsten Unterseite)
- ist auf dem Keyword, für das du ranken möchstens gesetzt
- ist der erste und einzige Link auf der Startseite (#Linkjuice!)
Alles über das neue Programm des Theaters findest du auf dieser Übersicht.
Wenn eine Seite 100 Links enthält, ist jeder Link weniger Wert, als wenn eine Seite nur 2 Links enthält. Also keine unnötigen Links setzen, sondern immer bewusst die Linkkraft (aka Linkjuice) verteilen.
Linkkraft wird von oben nach unten verteilt. Also solltes du wichtige Links am Anfang setzen. Vergiss nicht, dass das Menü auch aus Links (als Liste) besteht. Daher ist das Menü auch so wichtig für eine gute interne Linkstruktur!