Alte Dorfstraße 89, 27367 Sottrum
04261 / 98199-30
SEO Audit anfordern

Mixed Content kann das Crawling blockieren

Das Google die Thematik rund um SSL sehr erst nimmt ist nichts Neues. Nun hat Google einen weiteren Schritt angekündigt, der unsichere Seiten oder Inhalte wie Bilder über HTTP noch weiter einschränken soll. Explizit geht es darum, dass Seiten mit HTTP und HTTPS zukünftig zu Problemen beim Crawling führen werden. Was bedeutet das für die eigene Seite und welche Schritte muss man nun einleiten?

Der Tweet von Google zum Thema Mixed Content

Google informiert auf Twitter regelmäßig über relevante Aspekte für Webseitenbetreiber. Das es einen Hinweis auf Mixed Content in Chrome gibt ist zwar nichts Neues, doch der Aspekt zum Thema Crawling war bis dahin für viele Nutzer kein so wichtiges Thema. Mit dem Tweet vom 15. November 2019 hat Google jedoch klar gemacht, dass hier von den Seitenbetreibern aus ganz klarer Handlungsbedarf besteht.

Wie kann ich das Problem mit mixed Content erkennen?

Wenn man auf der eigenen Seite per HTTP eingebunden hat, zeigt Chrome einem das beim Schloss soweit an. Nun kann man recht einfach über “Rechtsklick -> Untersuchen” die entsprechende Datei finden. Auf einem OnePager mag das noch so gehen, bei mehreren Unterseiten wird es dagegen sehr mühselig.

Eine einfache Methode für etwas größere Seiten sind Tools wie Screaming Frog, so lässt sich die eigene Seite schnell crawlen und eventuelle Seiten mit HTTP schnell erkennen. Die kostenfreie Version reicht dabei für die meisten kleineren Seiten aus.

So erkennt man Seiten und Objekte, die nicht über HTTPS laufen

  1. Screaming Frog öffnen

    Das Tool funktioniert sowohl unter Windows, Mac als auch Linux

  2. Die eigene URL in der Leiste eintragen

    Dabei darauf achten, dass die URL auch mit HTTPS eingetragen wird

  3. Auf der rechten Seite im Reiter “Overview” zum Punkt “Protocol” gehen und prüfen, ob hier etwas bei “HTTP” drin steht.

Was mache ich, wenn mixed Content gefunden wird?

Bei Verlinkungen

Generell lässt sich das Problem recht schnell beheben, die Inhalte müssen nur an der entsprechenden Stelle richtig verlinkt / eingebaut werden. Im Screaming Frog wählt man dazu den entsprechenden Eintrag aus und schaut unten unter “Inlinks”, damit man weiß, wo man den entsprechenden Eintrag ändern muss.

In so einem Fall sollte man dazu schauen, dass man generell die Seite nicht über mehrere URLs aufrufbar hat (Duplicate Content). Dafür gibt es einerseits Plugins oder diesen kurzen Snippet für die .htaccess:

RewriteEngine On
RewriteCond %{SERVER_PORT} 80
RewriteRule ^(.*)$ https://yourdomain.de/$1 [R,L]

Bei eingebetteten Inhalten

Bei eingebetteten Inhalten wie Bildern oder iFrames muss der Inhalt natürlich zuerst einmal per HTTPS aufrufbar sein. Das ist insbesondere bei externen Inhalten zu beachten, die lange nicht aktualisiert wurden. Generell muss man aber auch hier nur die URL entsprechend anpassen, das war es auch schon.

Sollte man es selbst nicht vollständig hinbekommen, können wir gerne helfen. Einfach kurz Kontakt aufnehmen und wir lösen gemeinsam das Problem.

Was passiert, wenn ich weiter mixed Content habe?

Sollte man es ignorieren, kann das zu Problemen beim Google Bot führen. Im Klartext bedeutet das, dass Rankings gefährdet werden. Dazu wird Google zukünftig auch im Chrome zu drastischen Mitteln greifen und mixed Content gar nicht erst darstellen. Zu viel Zeit sollte man sich dabei entsprechend nicht lassen. Die Änderungen können meist sehr schnell umgesetzt werden und sollten daher eigentlich keine Probleme darstellen. Google ebnet damit weiter den Weg zu einem sichereren Internet, was sicher für alle Gut ist.

PRV POST
NXT POST
Avatar for Benedikt Voigt

BEVO Media betreibe ich nun bereits seit 2013, dabei habe ich mich auf SEO und UX spezialisiert.

Wir wissen alle was jetzt kommt:  Mit Zustimmung akzeptieren Sie die Verwendung von Cookies in Übereinstimmung mit unseren Cookie-Richtlinien.