24Sep, 2017

SSL, AMP und PageSpeed: Warum die jüngsten Rankingfaktoren relativ sind

Das Internet wird mobiler, sicherer & schneller. Google reagiert darauf und lässt immer neue Ranking Faktoren hinzukommen, während alte Faktoren (insbesondere klassische OnPage Optimierung) an Bedeutung verlieren. Was interessiert den User schließlich auch, ob der Quellcode nach Bilderbuch geschrieben wurde, solange die Performance keine Einbuße nimmt und der Besucher der Seite zufrieden ist?

SSL

Seitdem Google offiziell bestätigt hat, dass SSL ein wichtiger Ranking-Faktor ist, kamen Webmaster in aller Welt aus dem Fluchen nicht raus. Denn obwohl abzusehen ist, dass SSL-Zertifikate bald schon zum Standard erklärt und automatisch mit jedem Hosting Paket fertig konfiguriert mitgeliefert werden, stellen die Sicherheitszertifikate für hauptberufliche Webmaster, die oft zig Dutzende von Webseiten ihr Eigen nennen, einen nicht zu unterschätzenden Kostenfaktor dar. Ich selbst habe zu Glanzzeiten mehr als 200 Domains gleichzeitig betrieben. Bezieht man diese zu günstigen Konditionen, belaufen sich die monatlichen Fixkosten auf weniger als 100 Euro. Muss ich allerdings für jede Domain ein zusätzliches Zertifikat vorschalten, haben sich die Kosten selbst beim günstigen Anbieter ganz schnell vervierfacht. Für Studenten wie mich untragbar und für Agenturen, die tausende von Seiten im Portfolio haben – Demand Media und anderen Sweatshops möchte ich an der Stelle natürlich keine Träne nachweinen – nicht weniger unschön.

Wir bei DMT haben genau auf einer Seite ein SSL-Zertifikat installiert und das ist jenes auf unserer offiziellen Firmenwebsite, auf der sich Online Shop und Kontaktformular befinden. Es werden also sensitive Informationen übermittelt die kinderleicht abgefangen werden, sofern man sie nicht mit einem Zertifikat verschlüsselt. Aber: Macht die Installation eines SSL-Zertifikats auch für Seiten Sinn, auf denen überhaupt keine (sensitiven) Informationen übermittelt werden? Wohl eher nicht. Und es ist ja auch nicht so, als wäre es ohne SSL plötzlich unmöglich, zu ranken. Soll heißen wer sich von Wettbewerb umgeben sieht, der ohne SSL auskommt, der kann auch ruhigen Gewissens zuerst andere Faktoren optimieren bevor er sich diesem zuwendet. Natürlich gilt all dies für Webmaster, die mehrere Dutzend Seiten betreuen oder deren Geschäftsmodell das vorsieht. Wer ohnehin nur überschaubar viele Webseiten die Seinen nennt, sollte an Sicherheit auch dann nicht sparen, wenn sie für Belange des Users kaum ins Gewicht fällt.

AMP

Das mobile Internet soll schneller werden, meint Google. Und hat kurzerhand AMP ins Leben gerufen. Auch hier gilt: AMP bringt lediglich Vorteile in der mobilen Suche. Wer mit einem Desktop PC unterwegs ist, braucht auch keine mobilen Versionen von Webseiten. Ob sich Webmaster mit AMP beschäftigen sollten hängt davon ab, wie wichtig mobiler Traffic tatsächlich ist. Auch wenn sich bei dem Satz einige SEOs an die Stirn fassen werden: Ich habe selbst Webseiten, für die mobiler Traffic fast wertlos ist, weil sie extra für große Bildschirme konzipiert wurden – vor allem Spieleseiten. Jetzt möchte ich natürlich nicht behaupten, das wäre die Zukunft und man dürfe es sich 2017 noch erlauben, Mobile zu ignorieren. Nur sollte AMP für viele Seiten eher eines der letzten Themen sein, das auf der Optimierungs-Agenda steht. Es sei denn, die Sache ist mit der Installation eines Plug-Ins erledigt (wie bei WordPress und anderen prominenten CMS). In dem Fall sehe auch ich keinen validen Grund, AMP nicht per Mausklick abzuhaken.

PageSpeed

Kommen wir zum ausschlaggebenden Grund, aus dem ich heute Morgen auf dem Weg ins Büro beschlossen habe, ein paar Worte zum Thema „Ladezeiten“ zu verlieren: Als ich gerade eben mein Handy angeschaltet habe, um den Tag zu begrüßen und im Stau meine E-Mails zu lesen, erreichte mich eine Nachricht von Daniel (unserem Mediengestalter und Retusche-Profi), der mich auf die furchtbar langsamen Ladezeiten unserer Website aufmerksam machte.

An der Stelle müsst Ihr wissen, dass auf sxoagentur.de eine ganze Menge Plug-Ins installiert sind, die gewöhnliche Webseiten nicht benötigen. Zum Beispiel zur Rechnungsstellung, fürs Projektmanagement oder für das integrierte WooCommerce-Shopsystem. Tatsächlich habe ich gestern den halben Tag nichts Anderes gemacht, als Plug-Ins auszumisten, Bilder zu komprimieren usw. Und Daniel hat mit seiner Anmerkung natürlich Recht, denn unsere Seite hat mit 56/100 eine furchtbar schlechte Bewertung vom Google PageSpeed Tool erhalten.

Erinnern wir uns aber für einen kurzen Moment an den eigentlichen Grund, aus dem Ladezeiten für Google einen wichtigen Rankingfaktor darstellen und schnelle Ladezeiten folglich mit besseren Rankings belohnt werden: Den User, niemand sonst! Jetzt sollte man annehmen, dass eine Wertung von 56 bei möglichen 100 Punkten den absoluten Super-GAU bedeuten und wir froh sein können, wenn überhaupt noch ein Besucher die nötige Geduld mitbringt, auf das Fertigladen unserer Website zu warten und nicht vorher abzuspringen. Schauen wir uns die Ladezeit aber Mal in Sekunden ausgedrückt an, verpufft jede Befürchtung dahingehend im Wind:

Gerade einmal 1,2 Sekunden benötigt unsere Agenturseite zum vollständigen Laden. Einzig die Tatsache, dass ein Tool viele Vorschläge unterbreitet zur Optimierung bedeutet eben noch lange nicht, dass diese auch einen merklichen Effekt auf unsere Bottom Line haben werden. Eines tut Optimierung aber immer: Geld oder zumindest Zeit kosten. Und diese müssen in einem vernünftigen Verhältnis zur Performance-Steigerung der Website stehen. Nehmen wir an, es würde sich bei unserer Seite um die eines Klienten handeln, der uns mit einem freien monatlichen Budget das Vertrauen entgegenbringt, dass wir keine „Phantomarbeiten“ durchführen, nur um Stunden berechnen zu können.

Die von PageSpeed Tool vorgeschlagenen Maßnahmen durchzuführen würde mit Sicherheit mehrere Stunden Zeit in Anspruch nehmen. Müssen serverseitig Arbeiten durchgeführt werden (etwa das Hosting Paket neu aufgesetzt oder ein Content Delivery Netzwerk zwischengeschaltet), dauert dies locker auch Mal einen ganzen Tag. Und wenn der Hoster nervt (was ALLE Hoster tun), ist man auch gerne Mal mehrere Tage nicht zu erreichen. Was bei kommerziellen Webseiten nicht nur den Verlust des Tagesgeschäfts, sondern auch ganz schnell die De-Indexierung und Herabstufung von Content bedeutet.

Und jetzt stellen wir uns Mal ehrlich die Frage: Lohnt sich all der Aufwand und das Risiko, nur um die Ladezeit von 1,2 Sekunden auf 0,5 zu senken?

Auch hier sollten wir uns wieder ins Gedächtnis rufen, aus welchem Grund wir als SEOs überhaupt Ladezeiten und damit die User Experience optimieren: Um die Bounce Rate zu senken. Und warum tun wir das? Um die Konversionsrate zu maximieren. Um zu evaluieren, ob sich eine weitere Optimierung unseres PageSpeeds rentiert, müssen wir also die Korrelation zwischen Ladezeit und Absprung- bzw. Konversionsrate bestimmen. Hierfür bietet sich wie so oft der Blick in ein paar Statistiken an, die man im Netz zuhauf findet. Ich habe mir zwei Beispiele rausgesucht, die bei der Gelegenheit auch verdeutlichen, wie wichtig es ist, gerade bei SEO-Studien da Kleingedruckte zu lesen: Walmart Studie (Quelle: http://www.webperformancetoday.com/2012/02/28/4-awesome-slides-showing-how-page-speed-correlates-to-business-metrics-at-walmart-com/)

Die Grafiken sind hierbei leicht verwirrend, denn während in der Walmart Grafik ersichtlich ist, dass es sich bei den blauen Balken um die prozentuale Anzahl der betroffenen Seiten handelt und der Balken ganz rechts nicht etwa bedeutet, dass die Conversion Rate bei Seiten mit einer Ladezeit über 15 Sekunden höher ist, verwirrt die Darstellung von Tagman durch die fehlende Auszeichnung der Balken als Population. Stattdessen liest sich die Grafik ohne weitere Informationen wie folgt: Die Conversion Rate steigt bzw. die Bounce Rate fällt dort im Bereich zwischen 0 und 2 Sekunden mit der Ladezeit; Dasselbe gilt für den Balken am äußersten rechten Rand: Tagman Research (Quelle: http://blog.tagman.com/2012/03/just-one-second-delay-in-page-load-can-cause-7-loss-in-customer-conversions/)

Interpretieren könnte man die Grafik aber auch wie folgt: Wer auf ein Suchergebnis klickt und in derselben Sekunde noch den „Zurück“-Button des Browsers, der hat sich in aller Regel ganz einfach verklickt. Denn obwohl das menschliche Gehirn visuelle Informationen bzw. Bilder zigtausend Mal schneller verarbeitet als geschriebene Sprache, würde es wohl dennoch einen Clark Kent benötigen, um innerhalb von Millisekunden ein Suchergebnis als irrelevant zu klassifizieren. Andere Grafiken, deren x-Achse mit „Sessions“ beschriftet ist, möchten wiederum vermitteln, dass Besucher auf langsamen Webseiten weniger Pages aufrufen bzw. sich kürzer auf der entsprechenden Website aufhalten. Paradox, oder? Langsame Ladezeiten bewirken einen kürzeren Aufenthalt. Leider, weil der User es erst gar nicht bis zum Check-Out schafft und nicht, weil er schneller „fertig“ ist.

%3Cp%3ELange%20Rede%2C%20kurzer%20Sinn%3A%20Ladezeiten%20sind%20zwar%20enorm%20wichtig%20-%20ob%20Ihre%20Website%20nun%20aber%20zwei%20oder%20drei%20Sekunden%20lang%20zum%20Aufbau%20ben%C3%B6tigt%2C%20ist%20eher%20zweitrangig.%20Sollten%20Sie%20also%20keine%20eklatanten%20Probleme%20mit%20der%20Ladezeit%20Ihrer%20Assets%20haben%2C%20d%C3%BCrfte%20Ihre%20Zeit%20in%20andere%20Optimierungsma%C3%9Fnahmen%20sinnvoller%20investiert%20sein!%3C%2Fp%3E%0A%3Cp%3E%3Cstrong%3EUnsicher%3F%C2%A0%3C%2Fstrong%3ESprechen%20Sie%20uns%20doch%20einfach%20an%20%26amp%3B%20fragen%20Sie%20nach%20einer%20unverbindlichen%20Kurzanalyse%20Ihrer%20Ladezeiten!%3C%2Fp%3E%0A

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.