So meisterte der DR!FT Onlineshop „Das Ding des Jahres“ auf ProSieben
Bei TV-Shows zur besten Sendezeit, wie etwa „Die Höhle der Löwen“ oder auch die Erfinder-Show „Das Ding des Jahres“, werden Onlineshops oder auch Webseiten extremen Lastspitzen ausgesetzt. Wie man dem hohen Besucheransturm standhalten kann, zeigen wir am Beispiel unseres Kunden DR!FT by Sturmkind, der bei seinem TV-Auftritt auf Cloud-Hosting von Amazon Web Services (AWS) setzt. Außerdem verraten wir, wie man sich bereits im Vorfeld optimal auf Lastspitzen vorbereiten kann.
Traffic zur Prime-Time
Um außergewöhnliche aber auch alltagstaugliche Erfindungen ging es in dem neuen TV-Format „Das Ding des Jahres“ auf ProSieben. Ins Leben gerufen wurde die TV-Reihe durch Entertainer Stefan Raab. Die besten Voraussetzungen für einen reichweitenstarken Auftritt, bei dem auch unser Kunde Sturmkind mit von der Partie war. Knapp 2 Millionen Zuschauer*innen verfolgten die erste Sendung am 9. Februar 2018 zur Prime-Time.
Mit seinem DR!FT Racer, einem kleinen Smartphone-App gesteuerten Auto, schaffte es das Unternehmen bis ins Finale der Show (Ausstrahlung am 10. März 2018 mit etwa 1,34 Mio Zuschauer*innen). Die Vision sei, so Martin Müller (Gründer von Sturmkind), „endlich richtige Autorennen im eigenen Wohnzimmer austragen zu können. Rennen, bei denen auch spannende Überholmanöver möglich sind“. Für seine Idee konnte Sturmkind bereits viele Menschen begeistern, darunter 1282 Kickstarter-Unterstützer. Auch die Teilnahme am neuen TV-Format sorgte für viel Reichweite.
Damit der Onlineshop während der TV-Auftritte durch den schlagartigen Anstieg der gleichzeitigen Nutzer*innen nicht in die Knie gezwungen wird, galt es nun die richtigen Vorkehrungen zu treffen. Zusammen mit der betreuenden E-Commerce-Agentur BORDONARO haben wir den Shopware-Shop fit für die Sendung gemacht.
Die Herausforderung
Lastverhalten bei TV-Sendung
Sturmkind war zunächst von einem Auftritt bei “Das Ding des Jahres” ausgegangen, schaffte es durch das Zuschauer-Voting dann sogar bis ins Finale der Sendung. Natürlich war zu Beginn nicht klar, welche Resonanz die Präsenz im TV auf den Shop haben würde. Die Sendung war brandneu, aber der Sender konnte im Vorfeld dennoch Vergleichszahlen für ähnliche Sendungen vorlegen. Sturmkind hatte die Vermutung, dass der bisher genutzte dedizierte Web-Server für potentiell mehrere Millionen Zuschauer*innen nicht ausreichen würde. Da wir bei Skaylink mit dem Lastverhalten von Shops bei TV-Sendungen sehr vertraut sind, konnten wir diese Annahmen anhand von Berechnungen bestätigen.
Flexibilität der Hosting-Lösung
Für viele unserer Kunden ist das wichtigste Kriterium bei Hochlast-Szenarien eine hohe Flexibilität der Hosting-Lösung: Es muss möglich sein, zu jedem Zeitpunkt Hardware in beliebiger Menge ad hoc nutzen zu können. Nicht selten fällt kurz vor der Sendung die Entscheidung, die Rechenkapazitäten dann doch noch etwas zu erhöhen… Mit den richtigen Vorbereitungen kostet uns das nur wenige “Klicks”.
Die Lösung
Die richtige Vorbereitung ist entscheidend
Im ersten Schritt haben wir mit Sturmkind und der betreuenden Agentur BORDONARO die Gesamtanforderungen abgesteckt. Dies beinhaltete Fragen zur Sendung, Produkt, Besucherverhalten und natürlich der Applikation. Im nächsten Schritt haben wir kritisch überlegt, welche Lösungsmöglichkeiten es gibt. Sturmkind nutzt Shopware als Shop-Lösung, über welche die DR!FT-Racer online verkauft werden. Eine Alternative zum Shop (z.B. Microsite) kam nicht in Frage. Somit bestand die Herausforderung in der Optimierung des Shops und einer passgenauen Hosting-Lösung für eine Prime-Time-Sendung. Da wir bei Skaylink selbst keine Software-Entwicklung anbieten, arbeiten wir immer eng mit den Dienstleistern unserer Kunden zusammen und geben unser Know-How in Bezug auf AWS und die speziellen Herausforderungen wie Hochlast an die Agentur weiter. Somit müssen unsere Kunden ihren Shop oder ihre Website nicht in fremde Hände geben.

Tipp: Keine Sendung ist wie die andere
Hierbei ist wichtig zu wissen, dass es nicht “die TV-Sendung” gibt. So haben z.B. Anzahl und Demografie der Zuschauer*innen, Zeitpunkt der Ausstrahlung und Bekanntheit des Senders wesentliche Auswirkungen auf die Anzahl an Besucher*innen auf der Website. Dazu kommt das Produkt: ist es für eine große Zielgruppe interessant? Lädt es zu Spontankäufen ein? Einen großen Einfluss hat – natürlich – die konkrete Präsentation des Produkts in der Sendung: Wie lange wird das Produkt gezeigt? Wie gut wird es präsentiert? Erkennen die Zuschauer*innen schnell den Nutzen und wollen es kaufen? Dies sind alles Indikatoren, die bei der Vorbereitung auf die Sendung sehr hilfreich sind.


Technische Umsetzungen sowohl auf Shop- als auch Infrastruktur-Seite
Während wir von Skaylink die AWS-Infrastruktur implementierten, begann BORDONARO mit der Optimierung des Shopware-Shops. Hauptziel war es hierbei, möglichst viele Anfragen an den Shop durch statische Seiten bedienen zu können. Statische Seiten können hochskalierbar durch spezielle CDN-Dienste ausgeliefert werden. Im Umkehrschluss sollten möglichst wenige Inhalte dynamisch ausgeliefert werden, da dies Rechenleistung bedarf und zwar sehr gut, aber eben nicht so gut wie ein CDN skaliert. Dieses Kernprinzip wenden wir bei allen Hochlast-Projekten an. Im Rahmen der Anpassung wurden die meisten dynamischen Elemente auf Startseite, Kategorie-Liste und Produktseiten ersetzt. Unbedingt notwendige dynamische Elemente wurden per Ajax nachgeladen.
Die wesentlichen Elemente sind auf der Infrastrukturseite hochskalierbare CDN-Lösungen für statische Inhalte (AWS CloudFront), automatisch skalierbare Web-Server, spezielle Datenbank-Lösungen von AWS für maximale Performance (AWS Aurora). Folgende Komponenten kamen dabei zum Einsatz:
- CDN: 2 Endpunkte für Full Page Cache (FPC) und Medien, Freischaltung bis zu 250.000 Requests/s
- Load Balancer: Application Load Balancer (ALB)
- Web-Server: EC2, 12 x c4.2xlarge (15.0 GiB, 8 vCPUs) mit Apache2 und php-fpm
- Redis: 3.2 cache.r4.large (15.25 GiB, 2 vCPUs)
- Shared Folder: EFS (NFS)
- MySQL Aurora: Cluster r4.4xlarge (122 GiB, 16 vCPUs) mit Master und Failover Read Replica

Hält das? Testen, testen, testen!
Mit Abschluss der initialen Optimierung geht die Arbeit erst richtig los: die gesamte Umgebung muss nach allen Regeln der Kunst getestet werden. Zunächst wurden Lastszenarien definiert und in Cluster aufgeteilt. Ein Lastszenario besteht hierbei aus einem Klickpfad und der Anzahl gleichzeitiger Besucher*innen. Über Cluster fassen wir diese Szenarien zusammen. So lassen sich im Shop-Umfeld z.B. Startseite, Kategorie-Liste und Produktseiten als ein Cluster betrachten, während ein anderer Cluster der Warenkorb und Checkout ist. Diese Last-Cluster werden nun mittels spezieller Tools wie loader.io stress-getestet. So unterzogen wir bspw. die Landingpage einem Volumen-Lasttest mit 471.674,8 Aufrufen pro Minute und den Checkout mit 4,5 Abschlüssen pro Sekunde. Durch die Tests decken wir Problemstellen in Infrastruktur und Applikation auf, die dann behoben werden. Weiterhin ist schnell erkennbar, welche Größenordnung an Besucher*innen die Lösung aushält. Daran lassen sich z.B. die tatsächliche Dimensionierung der Hardware abmessen. Tests und Korrekturen werden solange durchgeführt, bis das gewünschte Ergebnis erreicht ist.
Das Ergebnis

Kurz vor der ersten Sendung ging es – ehrlich gesagt – noch einmal heiß her. Das kennt sicherlich jeder, der ein wenig mit Software-Entwicklung vertraut ist. Die Sendung selbst verlief dagegen sehr entspannt. Unser Standby-Team war während der Sendung immer auf Abruf verfügbar und verfolgte gespannt auf den Monitoren im Büro den Verlauf der Sendung. Der Shop und die Infrastruktur funktionierten wie erwartet.
Beim Lastverhalten waren wir initial von einem steilen Lastanstieg mit einer sehr hohen Anzahl an gleichzeitigen Besucher*innrn und dann einem schnellen Abfall dieses “Peaks” ausgegangen. Tatsächlich stiegen die Zugriffe bei der ersten Ausstrahlung zwar zunächst steil auf ca. 15.000 gleichzeitige Nutzer*innen an, blieben dann aber während der gesamten Sendung bis nach Mitternacht auf einem gleichbleibend hohen Niveau im hohen vierstelligen Bereich.
Für Sturmkind äußerte sich dieses stetige und anhaltende Interesse am DR!FT Racer in außerordentlich guten Abverkaufszahlen. So wurden bis Sonntagabend mehrere 100.000 € umgesetzt. Bei der zweiten Sendung waren wir ebenso gut vorbereitet. Leider entschieden die Zuschauer*innen gleich zu Beginn der Sendung, dass der DR!FT Racer nicht ins Finale darf.
Während der Sendung wurde für einen kurzen Zeitraum eine sehr starke AWS- Infrastruktur eingestellt. Im Anschluss an die TV-Show wurde diese mit wenigen Klicks auf das für einen Normalbetrieb notwendige Maß zurückgefahren. Hier zeigt sich einmal mehr einer der Vorteile der AWS-Cloud: Jederzeit Zugriff auf ausreichend Rechenkapazität, die man nur nach Nutzung bezahlt.
Alles in allem haben sich die guten Vorbereitungen wieder einmal ausgezahlt gemacht. Oder um es mit den Worten unseres Kunden zu sagen: „Ihr habt einen großartigen Job gemacht! 😀“.
Weitere Case Studies

Wie Six Offene Systeme in die AWS Cloud startete

KWS und Skaylink treiben digitales Produktportfolio voran

Mit dem IT Risk Assessment zentralen Herausforderungen der VAIT begegnen

Case Study „Rent an AWS Cloud Engineer“
Starten wir gemeinsam in die Zukunft
Unsicher, wohin die digitale Reise bei Ihnen führen soll? Unsere Expert*innen stehen Ihnen gerne unverbindlich für Ihre Fragen zur Verfügung!
Einfach das nebenstehende Formular ausfüllen und wir melden uns umgehend bei Ihnen.