Manchmal bringt es nichts, das Verzeichnis in der robots.txt-Datei mit DISALLOW auszusperren. Google indexiert die dahinterliegenden URLs trotzdem.
Die URLs des Verzeichnis mit NOINDEX auszuweisen ist manchmal auch keine Lösung, denn GoogleBot muss die URLs erst crawlen, um die Meta-Information zu lesen und zu verstehen. Das wollen wir nicht!
Linkmaskierung und GoogleBot sind dicke Freunde! Wir erreichen eine gezielte Steuerrung zu indexierender (und crawlender) Seiten.
Um eine gezielte Steuerung von indexierten Seiten durch GoogleBot zu erreichen, maskieren wir die internen Links wie folgt:
[li class="authorization-link login"]
[span class="masked-link" onclick="location.href=
'.../customer/account/login/referer/
aHR0cHM6Ly9kZXYubGl0dGxlaGlwc3Rhci5jb20vZGUva2luZGVybW9kZS0yLTEwai8/'
"]join now[/span][/li]
So hat der obige interne Link unmaskiert ausgesehen:
[li class="authorization-link login"]
[a href='.../customer/account/login/referer/
aHR0cHM6Ly9kZXYubGl0dGxlaGlwc3Rhci5jb20vZGUva2luZGVybW9kZS0yLTEwai8/']join now[/a][/li]
Effektive Linkmaskierung mit onclick-Event schafft hier Abhilfe und ist auch garantiert kein Hexenwerk!
Schnell und effektiv ist die Linkmaskierung mit dem onclick-Event. GoogleBot erfasst nur URLs in einem sauberen [a href=""]
Sobald wir das href-Attribut durch ein onclick-Event austauschen, erkennt Google dies nicht als (internen) Link und folgt der URL folglich nicht. Genau was wir wollen!
FAQ: Indexierte URLs trotz robots.txt DISALLOW oder meta robots NOINDEX
Warum indexiert Google meine URL trotz robots.txt DISALLOW?
Ja das kommt vor! Und zwar immer dann, wenn GoogleBot die Ziel-URL für wichtig erachtet. Z.B. durch viele interne Links oder externe (Backlinks). GoogleBot wird die URL dabei nicht crawlen, aber den URL-Pfad in den Suchindex mit aufnehmen. Diesen Umstand wollen wir nicht haben, denn es müllt den GoogleIndex und die Google Search Console mit nutzlosen Seiten zu.
Warum ist meta robots NOINDEX auf meiner Seite nicht immer sinnvoll?
Die häufige Verwendung des Meta-Tag NOINDEX für interne Seiten ist nicht von Vorteil. Zum einen muss GoogleBot jede einzelne URL crawlen (besuchen), um den NOINDEX-Verweis zu sehen und zu gewichten. Zum anderen ruft GoogleBot in unregelmäßigen Abständen die URL immer wieder auf, um zu überprüfen, ob das NOINDEX-Tag mittlerweile verschwunden ist oder noch gültig ist. Diesen Umstand wollen wir nicht haben, denn es verschwendet Crawl-Ressourcen.
Wie kann Linkmaskierung im SEO mir helfen?
Linkmaskierung bedeutet, dass wir einen Link ahref= auf eine interne Seite vor GoogleBot verstecken. Google sieht diesen Link nicht und kann ihm auch nicht folgen. Also sieht Google die Zielseite auch nicht. Für Nutzer verändert sich allerdings nichts. Der Link ist und bleibt klickbar. Linkmaskierung ist Bestandteil der Index-Hygiene in der Suchmaschinenoptimierung.
Wie erstelle ich Linkmaskierung mit onclick-Event richtig?
Linkmaskierung kann auf zwei unterschiedlichen Wegen umgesetzt werden. Mittels PRG-Prattern (Post-Redirect-Get-Pattern) oder dem onclick-Event. Auf dieser Seite wird beschrieben, wie die Linkmaskierung mittels onclick-Evet umgesetzt wird. Linkmaskierung mittels onclick-Event ist der denkbar einfachste Weg, um Linkmaskierung umzusetzen.
Warum soll ich das onclick-Event nutzen und nicht das onload-Event?
Für die Linkmaskierung wird bitte immer das onclick-Event genutzt. Mit dem onclick-Ereignis in JavaScript wird eine Funktion erst ausgeführt, wenn das besagte Element auch tatsächlich geklickt wird. Mit dem onload-Ereignis wird in JavaScript ein Element unmittelbar nach dem Laden (Rendern) der Seite ausgeführt. Linkmaskierung funktioniert nur mit dem onclick-Event.
Wer kann mir helfen und Linkmaskierung für mich umsetzen?
Der strategische SEO-Berater Rene Dhemant aus Köln arbeitet bei großen Shop-Systemen regelmäßig mit der Linkmaskierung und ist mit der Umsetzung mehr als vertraut. Egal ob PRG-Pattern oder onClick-Events für interne Links. Als SEO-Freelancer berät Sie Rene Dhemant fundiert und nachweislich wirksam.