Kuatsu Logo

Starke Kundenbindung durch eindrucksvolle Apps.

Als App-Agentur aus Frankfurt planen, gestalten und entwickeln wir hochskalierbare Mobile und Web Apps für maximale Nutzer- und Kundenzufriedenheit.

KFC Logo
Pizza Hut Logo
TeleDoctor24 Logo
schuelerjobs.de Logo
Passbase Logo
Expensify Logo
WeatherBets Logo
chat & talk Logo
KFC Logo
Pizza Hut Logo
TeleDoctor24 Logo
schuelerjobs.de Logo
Passbase Logo
Expensify Logo
WeatherBets Logo
chat & talk Logo

Wir sind hauptberufliche Problemlöser und Nutzerbegeisterer.

Egal, ob Sie bestehende Prozesse vereinfachen und die Kundenbindung erhöhen möchten, oder eine neue, digitale User Experience auf den Markt bringen möchten: Die Chance ist groß, dass wir Ihr Problem mit unserem bewährten Framework für die Entwicklung performanter und nutzerorientierter Apps bereits gelöst haben.

Ich habe Bedenken bezüglich des Erfolgs meiner Idee.

Nach mehreren Jahren Erfahrung nicht nur als Freelancer, sondern auch als Founder und Unternehmer, wissen wir, worauf es ankommt. Mittels Orientation Sprint und der Implementierung eines MVP können wir Ihre Idee auf Herz und Nieren testen – noch bevor viel Zeit und Geld in den Sand gesetzt wurde.

Durch die schnelle Umsetzung und die Möglichkeit, das Produkt bereits in einer frühen Phase mit echten Nutzern im Rahmen von User Tests zu testen, können wir gemeinsam mit Ihnen die Erfolgsaussichten Ihrer Idee evaluieren und dank einer agilen Arbeitsweise noch während des Projekts Konzeptanpassungen vornehmen

Ich habe das nötige Know-How nicht im Haus.

Als kleine Boutique-Agentur sind wir während des gesamten Projekts nicht nur ein Dienstleister, sondern Ihr Partner. Dabei arbeiten wir entweder mit Ihrem Team zusammen oder bieten Ihnen eine Komplettlösung an, mit der Sie sich voll und ganz auf das Skalieren und Ihr Kerngeschäft konzentrieren können.

Durch unser breites Netzwerk an Experten können wir Ihnen auch bei der Umsetzung von Webseiten, Marketing- und Branding-Maßnahmen sowie mit strategischer Beratung zur Seite stehen.

Meine Nutzer sind unzufrieden mit der aktuellen User Experience.

Die hervorragende User Experience und die intuitive Bedienbarkeit unserer Apps ist kein Zufall. Unser junges Team ist mit Ihrer Zielgruppe aufgewachsen und weiß, worauf es bei einer herausragenden User Journey ankommt.

Im Rahmen eines Orientation Sprints und weiteren, agilen Weiterentwicklungen basierend auf aktuellem Nutzerfeedback erschaffen wir gemeinsam mit Ihnen eine App, die Ihre Nutzer begeistert.

Meine Prozesse sind ineffizient und kostenintensiv.

Apps müssen nicht immer für einen Endnutzer Vorteile bieten, sondern eignen sich auch hervorragend, um interne Prozesse zu vereinfachen und Kosten drastisch zu senken.

Mittels unseres bewährten und validierten Frameworks erarbeiten wir mit Ihnen geeignete Maßnahmen. Dabei betrachten wir nicht nur die technische Machbarkeit, sondern auch die wirtschaftliche Sinnhaftigkeit.

Durch die Implementierung eines MVP ist es möglich, die Auswirkungen der digitalisierten Prozesse bereits in einer frühen Phase zu evaluieren und zu optimieren.

Wieso wir Ihre App entwickeln sollten.

Erfahrung und Expertise – nicht nur als Dienstleister.

Unser Kollektiv aus Freelancern bringt zusammen jahrzehntelange Erfahrung in der Konzeption und Entwicklung von Apps mit. Unser Gründer Max bringt zusätzliche Erfahrung als CTO disruptiver, schnellwachsender Start-ups mit und kennt die Herausforderungen bei der App-Entwicklung von Unternehmensseite.

Erfahrung und Expertise – nicht nur als Dienstleister.

High Tech, die funktioniert.

Viele alteingesessene Agenturen verwenden dieselben Technologien, die sie schon vor 10 Jahren verwendet haben – auf Kosten der Projektlaufzeit und des Budgets. Wir wissen, worauf es bei Ihrer App ankommt und bauen eine skalierbarere, performantere und oftmals kostengünstigere Lösung. Und das in Rekordgeschwindigkeit.

Volle Transparenz, persönlicher Draht.

Wir sind eine kleine Boutique-Agentur, bei welcher Sie nicht mit einem Sales Manager abgespeist werden. Ihr persönlicher Ansprechpartner ist direkt in die Umsetzung involviert und sorgt für Austausch auf Augenhöhe. Auch ermöglichen wir Ihnen, in regelmäßigen Updates den Projektverlauf aktiv mitzubestimmen.

Apps, die begeistern.

Die Erfolgsgeschichten unserer Kunden sprechen für sich. Apps aus unserer Agentur begeistern jeden Tag Tausende von Nutzern. User Experience und Intuitivität sind bei uns keine leeren Worthülsen, sondern Werte, die wir leben.

Wir lassen Sie nicht im Regen stehen.

Auch nach erfolgreichem Launch Ihrer App hört unser Service nicht auf. Wir unterstützen Sie bei der Wartung, Weiterentwicklung und Optimierung Ihrer App und stehen Ihnen jederzeit auch beratend zur Seite.

Bisherige Erfolge.

TeleDoctor24

Arztbesuche. Aber digital und unkompliziert.

Mobile App EntwicklungWeb App EntwicklungUI DesignUX DesignWordPressStrategische Beratung

Wie digitalisiert man den Arztbesuch, um ihn einfacher, komfortabler und stressfrei zu machen? Dieser Frage haben wir uns zusammen mit TeleDoctor24 gestellt und haben einen voll-digitalen Hub für Patienten entwickelt, in welchem sie sich von Ärzten beraten lassen und rechtsgültige elektronische Rezepte erhalten sowie einlösen können.

TeleDoctor24 Logo

Robben.App

Mobile App Entwicklung

Jedes Jahr geraten bis zu 3.000 Meeressäuger, meist Seehunde, an der schleswig-holsteinischen Küste in Not. Der telefonische Meldeprozess bei der Polizei war bislang langwierig und durch ungenaue Ortsangaben fehleranfällig.

Für die Umsetzung der Robben.App waren wir im Auftrag von und in Zusammenarbeit mit Essenberger Design für die technische Implementierung zuständig. Nicht nur wurde der Meldevorgang digitalisiert und Nutzer für richtige Verhaltensweisen sensibilisiert, sondern auch wertvolle Minuten bis Stunden bei der Lokalisierung des Tieres gespart. Ein echter Mehrwert für Finder, Seehundjäger und Tiere.

Robben.App Icon

Seh-Check-App & Online

Die Plattform für gutes Sehen.

Mobile App EntwicklungWeb App Entwicklung

Im Auftrag der kitz.kommunikation GmbH haben wir die technische Umsetzung der neuen Online Seh-Checks für das Webportal seh-check.de des Kuratorium Gutes Sehen e.V., sowie kurze Zeit später als native Smartphone-App, übernommen. Nutzer können eine erste Einschätzung ihres Sehvermögens mittels mehreren zur Verfügung stehenden Seh-Checks erhalten.

Seh-Check-App Logo

chat & talk

Die App für echte Gespräche.

Mobile App EntwicklungWeb App EntwicklungUX Design

chat & talk ist das Bindeglied zwischen der virtuellen und reellen Welt. Mit einem cleveren, innovativen Social Media Konzept soll die Kommunikationsbarriere vom Smartphone in die echte Welt durchbrochen werden. Wir übernahmen die vollständige Realisierung des Projekts samt Entwicklung bis zum Launch.

chat & talk Logo

Fragen und Antworten.

Wie lange dauert die Entwicklung einer App?

Die genaue Dauer des Projekts hängt von zahlreichen, individuellen Faktoren ab. Während ein kleiner MVP ohne komplexe Logik oftmals in wenigen Wochen auf den Markt gebracht werden kann, kann die Entwicklung einer größeren App mit externen Schnittstellen, komplexen Algorithmen und breitgefächerten Datenstrukturen oftmals mehrere Monate dauern.

Wir beraten Sie jedoch im Rahmen eines ersten Kennenlernens gerne über die Möglichkeiten und die individuellen Herausforderungen bei Ihrem Projekt.

Mit welchen Kosten ist bei einer App-Entwicklung zu rechnen?

Genau wie die Projektdauer sind auch die Kosten für die Entwicklung einer App sehr individuell und daher nicht pauschal zu beantworten. Aus unserer Erfahrung bewegen sich die meisten, neu auf den Markt gebrachten Apps jedoch in einer vier- bis fünfstelligen Preisspanne.

Sprechen Sie uns gerne an, um eine erste auf Ihr Projekt zugeschnittene Kosteneinschätzung zu erhalten. Wir arbeiten dank tiefgreifender Projektplanung prinzipiell mit einem Festpreis, wodurch Sie von Anfang bis Ende die volle Kostenkontrolle haben.

Mit welchen Unternehmensgrößen arbeitet ihr zusammen?

Unsere Agenturhistorie reicht von der Zusammenarbeit mit Startups und kleinen bis mittelständischen Unternehmen (KMUs) bis hin zu Großkonzernen. Dabei haben wir bereits mit zahlreichen Unternehmen aus den unterschiedlichsten Bereichen zusammengearbeitet und konnten so in zahlreichen, diversen Branchen wertvolle Erfahrungen sammeln.

Wir sind uns sicher, dass wir auch für Ihr Projekt der richtige Partner sind.

Warum sollte ich mit euch zusammenarbeiten?

Wir sind keine klassische, alteingesessene Software-Agentur. Kuatsu ist eine kleine Boutique-Agentur, die als Kollektiv aus erfahrenen Freelancern und jungen Talenten zusammen arbeitet. Unser Team ist weitenteils mit dem Internet und Apps aufgewachsen und spricht die gleiche Sprache wie Ihre Zielgruppe.

Durch unsere schlanken Entwicklungsansätze, unser bewährtes Framework und unsere Spezialisierung auf die Entwicklung moderner Apps können wir Projekte oftmals schneller, performanter und kostengünstiger umsetzen als klassische Agenturen.

Dadurch sorgen wir in Ihrem Unternehmen für einfachere Prozesse, gesenkte Kosten und nicht zuletzt für zufriedene Kunden und Nutzer.

Mit welchen Technologien arbeitet ihr?

Während der Entwicklung setzen wir unter anderem auf TypeScript, React, React Native, Node.js, PostgreSQL, Docker und die Cloud.

Während andere, nicht spezialisierte Agenturen diese Technologien und Libraries innerhalb des Ecosystems zwar verwenden, sind wir aktive Contributor in der Open-Source-Community. Die Grundsteine, auf welchen Apps entwickelt werden, entspringen somit zum Teil unserer eigenen Feder. Neben einem weitreichenden Netzwerk an Entwicklern ermöglichst uns dies auch, Code individueller auf Ihre Bedürfnisse anzupassen.

Wie geht es nach dem Launch weiter?

Auch nach einem erfolgreichem Launch lassen wir Sie nicht allein. Wir unterstützen Sie gerne bei der kontinuierlichen Optimierung und Weiterentwicklung Ihres Produkts und stehen Ihnen auch nach dem Launch mit Rat und Tat zur Seite.

Wir sind an dem Aufbau langfristiger Partnerschaften interessiert und freuen uns auf eine erfolgreiche Zusammenarbeit.

Meinungen und Gedanken.

Kekse auf einem Keksblech
24. Januar 2023

Wo ist eigentlich euer Cookie Banner?

Vielleicht haben Sie mittlerweile auch einen Reflex wie wir entwickelt: Jedes Mal, wenn Sie eine neue Webseite öffnen, wandert Ihr Mauszeiger ganz automatisch in die Mitte, um das Wegdrücken des unter einer tiefen Hassliebe leidenden Cookie-Banners vorzubereiten. Umso verwunderter waren Sie vielleicht, als Sie auf unsere Webseite stießen. Wo ist denn nun eigentlich unser Cookie-Banner? Die Antwort ist keine Fehlfunktion Ihres Browsers oder ein unterbewusstes und vergessenes Wegdrücken des Banners: Wir haben keinen Cookie-Banner. Aber wie ist das möglich? Ein Exkurs in die Entwicklung des Datenschutzes im Internet und weshalb Abmahnanwälte bei uns wenig Chance haben (und wie diesen auch bei Ihrer Webseite die Lust vergehen kann). Cookies: Wieso, weshalb, warum Mit Auftreten des Phänomens "Web 2.0" wurde gefühlt auf wöchentlicher Basis eine neue Methode entwickelt, Webseiten-Besucher möglichst effektiv in ihrem Surfverhalten zu tracken. Das reicht von der Erfassen der IP-Adresse über skurrile Methoden, Nutzer über Browsereigenschaften wie die Bildschirmauflösung zu "fingerprinten" bis eben zum Speichern einer kleinen Datenmenge auf dem Computer des Nutzers: dem Cookie. Über die Jahre ist die Verwendung solcher Trackingmaßnahmen jedoch ausgeufert und (zumindest in der Europäischen Union) schlussendlich, zurecht, in einem harten, gesetzlichen Vorgehen gegen diese geendet: Der europäischen Datenschutzgrundverordnung (DSGVO) und dem deutschen Bundesdatenschutzgesetz (BDSG). Auch wenn das Effektivwerden dieser gesetzlichen Änderungen einen langen Vorlauf hatte, fühlte es sich dann am 25. Mai 2018 plötzlich doch so an, als wäre über Nacht die Sintflut über das Internet hereingebrochen. Mit der DSGVO und der plötzlichen Verwunderung darüber, dass personenbezogene Daten einem rechtlichen Schutz unterliegen, mussten neue, datenschutzfreundliche Methoden her, um Analyse zu betreiben. Dachte der eine oder andere vielleicht zumindest. Die Realität sah nämlich ganz anders aus: Rechtliche Grauzonen wie das (inzwischen gekippte) "US-EU Privacy Shield" oder eben die Cookie-Banner entstanden, um die invasiven Tracking-Methoden weiterhin aufrecht zu erhalten. Tracking auf datensparsam Auch vor Inkrafttreten der DSGVO haben wir auf unserer Webseite bereits auf die Verwendung von Tools verzichtet, die bekanntermaßen eher sorglos mit Daten von Nutzern umgingen. Dazu gehörten insbesondere Google Analytics, welches mit neuer Rechtsprechung inzwischen tatsächlich auch in der Praxis immer mehr Boden in der EU verliert. Wie aber bekommen wir es hin, so ganz ohne Cookies und damit Cookie-Banner auszukommen? Den Status Quo analysieren Wenn keine Cookies oder andere invasive Tracking-Mechanismen verwendet werden, benötigt man keinen Banner. So weit, so selbstverständlich. Dies betrifft übrigens nur technisch nicht unbedingt notwendige Cookies. Technisch zwingend notwending sind jedoch ohnehin nur die wenigsten Cookies (darunter zählen z.B. Cookies, welche den Inhalt eines Warenkorbs speichern). Die Reichweite von Cookies ist jedoch vielen nicht so genau bewusst: So gut wie jedes Drittanbieter-Tool, welches Sie auf Ihrer Webseite einbinden, speichert Cookies auf dem Rechner des Nutzers und/oder funkt nachhause. Oft handelt es sich hierbei sogar um US-Unternehmen, womit die Übertragung der Daten insbesondere nach dem Ungültigwerden des "Privacy Shields" umso problematischer ist. Das muss jedoch nicht sein: Es gibt genügend datenschutzfreundliche Alternativen für so gut wie jedes Problem. Der erste Schritt muss hierbei jedoch sein, den aktuellen Status bzw. die aktuell durch die eigene Webseite gespeicherten Cookies zu analysieren. Hierzu können Sie entweder browsereigene Funktionalitäten (den "Web-Inspektor") nutzen oder aber auf Tools wie PrivacyScore zurückgreifen. Notieren Sie sich sämtliche Cookies und Verbindungen zu Drittanbietern und analysieren bzw. recherchieren Sie, woher diese stammen. Datensparsame Alternativen Nachdem Sie wissen, wohin Ihre Webseite überall nachhause telefoniert und welche Daten auf dem Rechner des Nutzers alle gespeichert werden (und v.a. wieso), können Sie diese Drittanbieter durch andere Anbieter ersetzen, welche sich dem Schutz personenbezogener Daten zugeschworen haben. Eines vorab: Der große Nachteil (oder Vorteil?) hierbei ist allerdings, dass viele dieser Tools kostenpflichtig sind. Wo kein Geld mit Daten Ihrer Nutzer verdient werden kann, muss nunmal anders Geld verdient werden. Viele dieser Tools sind jedoch open-source und können zum Teil kostenfrei auf eigenen Servern gehostet werden (was nochmal eine ganze Ecke datenschutzfreundlicher ist!), was jedoch ein technisches Verständnis oder immerhin eine gute IT-Abteilung (ebenfalls sinnvollerweise mit technischem Verständnis) erfordert. Nachfolgend listen wir Ihnen einige der Tools und Methoden auf, welche wir nutzen, um so datensparsam wie möglich zu agieren und gänzlich auf lästige Cookie-Banner verzichten zu können. Google Analytics Machen wir uns nichts vor: Der Elefant im Raum ist immer noch Google Analytics. Viel zu gewöhnt sind wir an dieses mächtige Werkzeug bereits. Leider ist es unter allen Tools, die man auf seine Webseite so einbinden kann, auch jenes, welches am sorglosesten mit den Daten der Nutzer umgeht. Verschiedenste Rechtsurteile haben inzwischen auch dafür gesorgt, dass der Einsatz von Google Analytics in der EU in der Praxis unmöglich ist. Eine datenschutzfreundliche Alternative, welche wir verwenden, ist das Tool Simple Analytics der niederländischen, gleichnamigen Firma. Simple Analytics verzichtet gänzlich auf das Setzen von Cookies. Beim Öffnen der Webseite wird ein Skript von Simple Analytics abgerufen (von europäischen Servern), welches die Aufgabe übernimmt, den Nutzer während seines Website-Besuchs zu tracken. Dabei wird jedoch insbesondere auch auf das Tracken der IP-Adresse oder anderen personenbezogenen Daten verzichtet. Das Tracking läuft gänzlich über den HTTP-Referrer. Um nicht gänzlich in technische Details zu verschwinden, können Sie bei Interesse hier mehr erfahren . Eine weitere Alternative ist unter anderem Matomo, welches auch auf eigenen Servern gehostet werden kann. Google Maps Google Maps war lange Zeit die einzige Verbindung zu einem Drittserver, die auf unserer Webseite erfolgte. Leider gibt es hier noch immer keine datenschutzfreundliche, aber zugleich einfach zu implementierende Alternative. Auf unserer alten Webseite verwendeten wir daher die OpenStreetMap . Das Problem? Grundsätzlich kommt diese zwar ohne das Setzen von Cookies aus, der Abruf der Kartendaten erfolgt jedoch trotzdem von OpenStreetMap-Servern, denen Fastly CDN (ein Content Delivery Network), welches auf amerikanischen Servern betrieben wird, vorgeschaltet ist. Auch ist die Datenschutzerklärung von OpenStreetMap selbst nicht rechtskonform. Die Verwendung der OpenStreetMap im Auslieferungszustand ist datenschutzrechtlich insofern nicht rechtens. Daher haben wir uns hier mit einem kleinen Trick beholfen, welchen wir auch für andere Drittanbieterdienste verwenden: Wir haben einen sogenannten HTTP Proxy zwischen die Verbindung von Ihrem Browser und den OpenStreetMap-Servern geschaltet. Bei Abruf der Karte fragt Ihr Browser die Kartendaten also nicht direkt bei OpenStreetMap an, sondern auf unserem Server. Unser Server leitet die Anfrage dann an OpenStreetMap weiter. OpenStreetMap kann daher nur den Zugriff über die IP-Adresse unseres Servers sehen. Ihre IP-Adresse bleibt verborgen. Zwar kann OpenStreetMap grundsätzlich auch datenschutzkonform mittels dem eigenen Hosten eines so genannten "Tile Servers" betrieben werden. Die Installation und Wartung eines solchen Servers ist jedoch so unverschämt kompliziert, dass sich das für die meisten Anwender nicht lohnen dürfte. Hier bleibt insofern in Zukunft zu hoffen, dass sich der Markt hierhingehend noch etwas öffnet und einfach zu verwendende, "out of the box" datenschutzkonforme Optionen hinzukommen. Zoom & Co. Zoom, Microsoft Teams, Google Meet... na, kräuseln sich bei Ihnen auch schon die Nackenhaare? Viele dieser Videokonferenz-Tools werden von US-Unternehmen betrieben und sind insofern datenschutzrechtlich nicht unbedingt die besten Optionen. Dabei gibt es, ganz anders als bei Kartendiensten, zahlreiche datenschutzfreundliche Alternativen auf dem Markt. Eine beliebte Option ist unter anderem Jitsi Meet , da diese vollständig open-source ist und auf eigener Hardware bereitgestellt werden kann. Mittels ein paar kleinen, zusätzlichen Konfigurationen wie dem Deaktivieren der Gravatar-Einbindung werden damit keinerlei Verbindungen zu Drittservern mehr hergestellt. Selbst im Auslieferungszustand erfüllt Jitsi jedoch bereits die geltenden Datenschutzvorschriften. Wer lieber auf eine Cloud-Lösung setzt, könnte an der europäischen Videokonferenzsoftware Whereby gefallen finden. Google Fonts Zugegebenermaßen vielleicht etwas am Thema vorbei, da keine Cookies per se gespeichert werden, aber hinsichtlich der immer noch weiten Verbreitung mindestens genauso wichtig: Google Fonts. Grundsätzlich ist die Verwendung der hübschen, von Google zur Verfügung gestellten Schriftarten auch datenschutzrechtlich kein Problem. Wir verwenden mit "Inter" immerhin auch eine (welche Ihnen gerade das Lesen dieses Textes ermöglicht!). Das Problem, welches auf vielen Webseiten weiterhin besteht und in den letzten Wochen zu einer regelrechten Abmahnwelle geführt hat , ist die Einbindung der Fonts per Link-Tag zu den Servern von Google. Statt dessen müssen die Fonts zwingend lokal eingebunden werden, das heißt, auf dem selben Server gehostet werden wie der Rest Ihrer Webseite. Die Einbindung ist nicht allzu kompliziert und wird durch nützliche Tools wie den "Google Web Fonts Helper" noch weiter vereinfacht.

Bild eines Roboters als Metapher für künstliche Intelligenz
25. August 2022

KI in der Praxis: Wie sie Ihr Unternehmen unterstützen kann

Als moderne Digitalagentur versuchen wir stets, uns weiter fortzubilden und mit unserer Umwelt zu wachsen. Eine Technologie, die in den letzten Jahren rasant an Fahrt aufgenommen hat und inzwischen jedem ein Begriff sein dürfte, ist die Künstliche Intelligenz (KI / AI), bzw. um genau zu sein, Machine Learning. Unlängst ist diese Technologie in zahlreiche Branchen eingedrungen und macht Arbeitsabläufe einfacher, effizienter und kostengünstiger. Vor kurzem hatten wir die Möglichkeit, ein ML-Projekt für einen Kunden von Grund auf zu entwickeln und in der Praxis zu testen. Ein Erfahrungsbericht. Was ist Machine Learning überhaupt? Machine Learning ist eine Disziplin im breiteren Feld der "künstlichen Intelligenz". Bisher war es in der Softwareentwicklung so, dass ein Entwickler Regeln geschrieben hat, mit welcher ein Computer Eingaben verwerten und Ergebnisse ausgeben konnte. Im Vorfeld bekannt waren auf dem "klassischen Weg" daher stets die Eingaben und die Regeln. Die Ausgaben waren Unbekannte in der Gleichung. Machine Learning stellt dieses Konzept etwas auf den Kopf: Anstatt dem Computer Eingaben und Regeln zu geben, belassen wir die Regeln als Unbekannte und geben dem Computer somit nur noch die Eingaben - mitsamt dazugehörigen Ausgaben. Das hört sich vielleicht zunächst etwas komisch an, ist aber, zumindest oberflächlich, leicht erklärt. Wir füttern ein Machine Learning Modell mit tausenden von Eingabe-Ausgabe-Kombinationen (Trainingsdaten), woraufhin der Computer die Regeln, wie er von einer Eingabe auf eine dazugehörige Ausgabe kommt, selbst "erlernt". Dazu betrachtet er die Trainingsdaten in zahlreichen Durchläufen (auch "Epochen" genannt) und verändert dabei immer ein wenig die Gewichtung der Verbindungen zwischen den einzelnen Neuronen, die im KI-Modell definiert wurden. Damit funktioniert ein Machine Learning Modell ähnlich zum menschlichen Gehirn, nur sehr viel kleiner und weniger komplex. Ein KI-Modell kann daher nicht eigenständig denken oder gar empathisch werden. Statt dessen kann es nur innerhalb der vordefinierten Grenzen, also der gegebenen Trainingsdaten, lernen und handeln. Wenn im Training alles richtig läuft, kann ein optimales KI-Modell dann aus den gegebenen Trainingsdaten generalisieren , also die gelernten Regeln auf neue, noch nicht gesehene Eingaben, anwenden und zu schlüssigen Ergebnissen kommen. Damit das funktioniert, sind zahlreiche Komponenten essentiell, unter anderem die Qualität als auch Quantität der Trainingsdaten, die Aufbereitung dieser, die Anzahl der Epochen, die Hyperparameter (hierzu kommen wir später noch) und vieles mehr. Fußball ist reiner Zufall! Oder? Vor einiger Zeit kam ein Interessent mit einer klaren Aufgabenstellung zu uns in die Agentur: "Entwickelt eine Fußball-Formel!". Okay, zugegeben: Vielleicht nicht ganz so im Wortlaut, aber Ziel des Projektes war es, Gewinnwahrscheinlichkeiten im Fußball für eine internationale Sportplattform zu berechnen. Das Prinzip dürfte einigen bereits aus dem Bereich der Sportwetten bekannt vorkommen. Sportwettenanbieter (Buchmacher) berechnen für jedes Spiel, auf welches auf ihrer Plattform gewettet werden kann, Wahrscheinlichkeiten für unterschiedlichste Spielereignisse, beispielsweise den Gewinner des Spiels oder die Anzahl der Tore. Buchmacher setzen hierfür auf eine Vielzahl an Algorithmen. Das Prinzip des Machine Learnings hingegen ist noch recht neu. Die Frage, die der Kunde mit diesem Projekt erörtern und beantworten wollte, war daher: "Kann ein Machine Learning Modell den Buchmacher schlagen?". Nach agilem Verfeinern der Projektanforderungen sowie dem Sammeln von tausenden Datensätzen aus vergangenen Spielen unterschiedlichster Fußballligen, u.a. der Bundesliga, legten wir also mit der Umsetzung los. Das erste Test-Modell Um uns mit den Daten vertraut und erste Gehversuche zu machen, haben wir uns direkt an ein erstes Test-Modell gesetzt. Bevor es aber an die eigentliche Entwicklung des Machine Learning Modells gehen kann, ist es zunächst wichtig, die Trainingsdaten so aufzubereiten, dass ein neuronales Netzwerk mit diesen überhaupt arbeiten kann. Für das erste Modell haben wir die folgenden Datenpunkte als Eingabeparameter verwendet: Heim-Team-ID Auswärts-Team-ID Arena-ID Saison (Jahr) Spielrunde Wochentag Abendspiel Heim-Team Ligapunkte Auswärts-Team Ligapunkte Dies stellt unserer Ansicht nach eine solide Basis dar, um erste, sehr einfache Vorhersagen über den Spielausgang treffen zu können. Die IDs (Identifier) wie für die Teams und die Arena wurden "one-hot encoded". Würden wir diese nicht entsprechend enkodieren, könnte ein ML-Modell diese gegebenenfalls als einfache, numerische Werte betrachten und so falsche Schlussfolgerungen ziehen. Daher ist es wichtig, diese klar voneinander zu trennen, was in der Praxis oft durch eine One-Hot-Encoding geschieht, womit die Datenwerte in ein eindimensionales Array aus Nullen und Einsen überführt werden, in welchen jeweils genau ein Wert eine Eins ist, und alle anderen Werte eine Null. Andere Werte wie die Spielrunde oder die Ligapunkte haben wir hingegen als numerische Werte belassen. Auch haben wir für dieses Modell der Einfachheit halber alle Datensätze, in welchen einer oder mehrere dieser Datenpunkte gefehlt haben, entfernt. So ist garantiert, dass das ML-Modell mit möglichst "puren" und einfachen Daten lernt. Entwerfen des Modells Im nächsten Schritt ging es um die Konzeption des eigentlichen ML-Modells. Auch hier haben wir uns für den ersten Prototypen auf ein möglichst einfaches Modell beschränkt, um dieses im Nachhinein bestmöglich optimieren und feinjustieren zu können. Für die Entwicklung des Modells wurde das bekannte Framework Tensorflow von Google verwendet sowie das darauf aufbauende bzw. abstrahierende Framework Keras. Mit Keras ist es sehr einfach, simple Modelle mit "vorgefertigten" Netzwerkschichten zu entwerfen. Um nicht zu sehr ins Technische auszuschweifen, sei an dieser Stelle gesagt, dass wir nach einigen Versuchen bei einem Modell mit einem eingehenden Flatten-Layer (welcher die Kombination aus one-hot-encoded und numerischen Werten in ein simples, eindimensionales Array konvertiert), zwei unsichtbaren Dense-Layern mit dazugehörigen Dropouts sowie einem Ausgangs-Layer gelandet sind. Ergebnisse und Auswertung Zu unserem Glück begann mit Fertigstellung des ersten Prototypen gerade die neue Saison der Fußball-Bundesliga. Ein perfekter Moment, um die KI direkt live auszuprobieren. Nachdem jeder in der Agentur persönliche Wetten getroffen hat, durfte die KI an die Reihe. Zunächst war ein zugegebenermaßen eher einfaches Spiel an der Reihe: Eintracht Frankfurt gegen den FC Bayern München. Die KI prognostizierte einen Gewinn der Münchner zu 66%. Hätten die Münchner stattdessen den Heimvorteil gehabt, progonostizierte die KI eine Gewinnchance von über 75%. Schlüssig - und am Ende tatsächlich richtig. Die Bayern gewannen das Spiel 1:6. Interessant war, dass die prognostizierte Gewinnchance der Münchner mit voranschreitenden Spieltagen immer weiter stieg. Ein Zeichen dafür, dass der KI zu Beginn der Saison noch wichtige Daten fehlen, um wirklich überzeugende Vorhersagen zu treffen. Die grafische Auswertung anhand der Testdaten (also Datensätze, welche die KI im Trainingsprozess nicht gesehen hat, sondern welche nur für die Auswertung des Modells verwendet werden) war hingegen eher ernüchternd, wenn auch absolut den Erwartungen entsprechend: Zu erkennen ist hier, dass die Präzision der Vorhersagen der KI bei rund 50% konvergiert. Somit liegt die Präzision definitiv weit höher als die reine Zufallswahrscheinlichkeit von 33% bei drei möglichen Spielausgängen (Heimsieg, Unentschieden, Auswärtssieg). Mit 50% kann jedoch noch kein Krieg gegen die Wettquoten der Buchmacher gewonnen werden. Das zweite Modell "Jarvis" Also zurück an die Blaupausen. Basierend auf unseren Erfahrungen mit dem ersten Modell wurde dieses feinjustiert, auch wurden die verwendeten Datenpunkte angepasst und die Aufbereitung der Daten etwas modifiziert. Da es sich bei diesem Modell um das beim Kunden produktiv eingesetzte Modell handelt, können wir an dieser Stelle natürlich nicht allzuviele Details verraten. Jedoch haben wir die Datenpunkte beispielsweise um die Startaufstellungen sowie zahlreiche Details zu den jeweiligen Spielern ergänzt. Das Modell hat somit Gelegenheit, auch die einzelnen Aufstellungen zu betrachten und gegeneinander zu vergleichen. Das Alter der Datensätze wurde zusätzlich begrenzt, sodass keine Datensätze aus sehr alten Saisons, beispielsweise 2011, mehr ins Training einfließen. Abschließend haben wir die Hyperparameter des Modells feinjustiert. Die optimalen Hyperparameter, also beispielsweise der verwendete Optimizer, die Anzahl der versteckten Layer im Modell, oder auch die verwendete Loss-Funktion, sind Gegenstand zahlreicher Diskussionen in Entwickler-Communities und der Wissenschaft und für jedes Modell individuell. Eine beliebte und einfache Möglichkeit, diese zu optimieren, ist über einen automatischen Tuner wie "KerasTuner". Bei der Verwendung von KerasTuner wird das Modell mit immer verschiedenen Hyperparametern trainiert, welche wiederum über bestimmte Algorithmen stets angepasst werden. So werden die optimalen Rahmenbedingungen für die Funktionalität des Modells geschaffen. Nach erfolgreicher Erweiterung der verwendeten Datenpunkte sowie Feinjustierung der Hyperparameter konnte das Modell vollends überzeugen. Unser bestes Modell konnte eine Präzision (Accuracy) auf den Validierungsdaten von über 71% erreichen. Somit ist dieses Modell rund 42% besser als unser erstes Modell - ein voller Erfolg. Mit 71% wurde darüberhinaus etwas anderes geschafft: Die Gewinnwahrscheinlichkeit des Favoriten einiger, ausgewählter Buchmacher lag durchgehend bei knapp unter 71%. Somit konnte unser Modell bessere Werte als die von Buchmachern verwendeten Algorithmen erreichen. Natürlich mussten wir der künstlichen Intelligenz daraufhin auch einen Namen geben: Sie wurde liebevoll Jarvis getauft, angelehnt an die künstliche Intelligenz von Tony Stark in den "Iron Man" Filmen. Takeaways und Fazit An diesem praktischen Projekt kann gesehen werden, welche Erfolge bereits mit einfachen KI-Modellen in komplizierten Märkten erreicht werden können, und welche Dimensionen mittels der Optimierung der verwendeten Trainingsdaten und Hyperparameter erreicht werden können. Die Entwicklung von Machine Learning Modellen wird unser Agenturleben in den nächsten Jahren immer stärker begleiten - wir sind darauf vorbereitet.

Illustration eines Mannes, der sich einen Web Vitals Bericht von Lighthouse ansieht
23. Januar 2022

Core Web Vitals: Ein Field Guide für 2022

Es ist längst kein Industriegeheimnis mehr, dass Google verschiedene Faktoren für das Ranking von Webseiten in ihrer Suche einsetzt und einer davon die Geschwindigkeit der jeweiligen Webseite ist. Doch was genau bedeutet es eigentlich, wenn man über die Geschwindigkeit einer Webseite, oder auch den "PageSpeed" dieser, spricht? In diesem Field Guide möchten wir Ihnen einen Einblick in die Web Vitals von Google geben, wie diese zum Ranking in der Suche beitragen und in welchem Maß und auch erste Tipps zur Optimierung der Web Vitals Ihrer Webseite mit auf den Weg geben. Was sind Core Web Vitals? Um die Core Web Vitals optimieren zu können, muss man erst einmal verstehen, worum es sich dabei eigentlich genau handelt. Zunächst: Oft werden "Web Vitals" und "Core Web Vitals" synonym verwendet, teilweise auch in Fachartikeln. Ganz korrekt ist dies jedoch nicht – bei den Core Web Vitals handelt es sich um eine Teilmenge der Web Vitals. Die Core Web Vitals bestehen aus nur drei Metriken der eigentlichen Web Vitals, welche laut Google für jede Webseite gemessen und optimiert werden sollten. Im weiteren Verlauf dieses Artikels werden wir uns daher selbstverständlich mit diesen Messwerten auseinandersetzen, jedoch auch mit anderen Daten der breiteren Web Vitals, die unserer Ansicht nach mindestens genauso wichtig sind. Aber zurück zum Ursprung: Bereits seit einiger Zeit stand Google in Verdacht, die Ladegeschwindigkeit einer Webseite als Rankingfaktor zu nehmen. Im Jahr 2021 hat Google dann ein Update für ihren Rankingalgorithmus heraus gebracht, in welchem erstmals ganz offiziell von solch einem Faktor die Rede war. Google wollte fortan die Seiten nach "Web Vitals" ranken. Eine Menge an vordefinierten Messwerten, welche die Geschwindigkeit und im engeren Sinn auch die Bedienbarkeit einer jeden Webseite messen, gewichten und auswerten können. Das Prinzip ist einfach zu verstehen: Google hat ein bestimmtes Bild davon, wie eine Webseite aufgebaut zu sein hat. Allerdings können sie den Inhalt und den Aufbau der Webseiten, die in der Suche angezeigt werden, nicht beeinflussen. Sehr wohl aber die Reihenfolge, in welcher sie angezeigt werden. Wenn Sie also planen, auf einen der Topränge in der Google-Suche für ein heißes Keyword zu kommen, werden Sie an der Optimierung Ihrer Web Vitals nicht vorbei kommen. In diesem Artikel werden wir uns hauptsächlich mit den nachfolgenden Web Vitals auseinander setzen: Largest Contentful Paint (LCP) . Diese Core-Metrik wertet aus, wie lang Ihre Webseite benötigt, um das größte Element im initialen Viewport dieser anzuzeigen. Das "größte Element" wird dabei mittels verschiedener Faktoren ermittelt. Google stellt jedoch Tools zur Verfügung, mit welchen sie einsehen können, was der Ansicht von Google nach das größte Element ist – und wo entsprechend Optimierungsbedarf besteht. Cumulative Layout Shift (CLS) . Diese Kennzahl ist ebenfalls in den Core Web Vitals enthalten und lässt sich leicht an einem Ihnen sicher schon einmal begegneten Beispiel erklären: Sie laden eine Webseite, auf der Sie vielleicht schon einmal waren. Sie wissen daher, dass es in der Mitte einen Button gibt, auf welchen Sie drücken müssen. Sie versuchen diesen noch während des Ladevorgangs zu betätigen – erwischen ihn jedoch einfach nicht, da sich das Layout der Webseite während des Ladevorgangs noch verschiebt. Für den Nutzer sehr ärgerlich, weshalb Google dies in die Berechnung des Performance-Scores mit einfließen lässt. First Contentful Paint (FCP) . Dieser Messwert ist zwar nicht in den Core Web Vitals enthalten (sondern nur in der Obermenge Web Vitals), ist unserer Ansicht nach jedoch einer der häufigsten Bruchstellen der Performance einer Webseite, weswegen wir uns dieser auch widmen müssen. Hier wird ausgewertet, wie lange es dauert, bis überhaupt irgendwas (soll heißen, etwas für den Nutzer sinnvolles) auf der Webseite angezeigt wird. Diese Metrik hängt natürgemäß stark vom Time To First Byte (TTFB) ab (ebenfalls nicht in den Core Web Vitals enthalten), welchem wir uns auch noch kurz widmen werden. First Input Delay (FID) . Diese Metrik ist wieder in den Core Web Vitals enthalten. Sie misst die Zeitspanne, die von der ersten Interaktion des Nutzers mit der Webseite (beispielsweise ein Klick auf einen Link) vergeht, bis es tatsächlich im Browser zu einer Reaktion auf diese Interaktion kommt. Der FID ist daher die Kernmetrik, die misst, wie responsiv die Webseite auf Nutzerinteraktionen ist. Es gibt innerhalb der Obermenge Web Vitals noch einige Messwerte mehr, welche jedoch einen kleineren Einfluss auf den Score haben, oder aber sehr selten zu Problemen führen, weshalb wir uns in diesem Artikel nur auf die oberen vier (bzw. fünf) Metriken beschränken werden. Ein paar Randbemerkungen Die obigen Messwerte und ihr Gewicht innerhalb der Berechnung des Performance-Scores sind nicht in Stein gemeißelt. Google aktualisiert ihre Algorithmen regelmäßig, und so auch die (Core) Web Vitals. Dadurch können sich auch die benötigten Optimierungen immer wieder ändern. Wenn Sie daher nicht gerade SEO hauptberuflich ausführen, kann es schwierig sein, aktuell zu bleiben. Eine Digitalagentur, welche sich mit Core Web Vitals tiefgreifend auseinandergesetzt hat, kann Ihre Webseite nachhaltig optimieren. Bei Kuatsu haben wir bereits viel Zeit in die Optimierung von Kundenprojekten als auch unserer eigenen Webseite (mehr dazu gleich!) investiert. Falls Sie also Ihre Zeit lieber in das Voranbringen Ihres Unternehmens stecken und das Optimieren der Core Web Vitals einem professionellen Anbieter überlassen möchten, sprechen Sie uns gerne an.. Darüber hinaus sollten Sie beachten, dass Google die Web Vitals immer doppelt berechnet: Einmal für Mobilgeräte und einmal für Desktops. Die Desktop-Scores liegen im Prinzip immer höher als die Mobile-Scores, da Google bei der Berechnung letzterer auch eine künstliche Drosselung der Netzwerkgeschwindigkeit auf langsames 4G- oder gar 3G-Niveau vornimmt. Dabei sind die Mobile Scores eigentlich wichtiger als die Desktop Scores: Weltweit kommen laut einer Datenerhebung von StatCounter bereits mehr als 57% aller Seitenaufrufe von Mobilgeräten – Tendenz steigend. Die Optimierung Ihrer Webseite sollte daher stets primär auf Mobilgeräte ausgerichtet sein. Auf einem grünen Desktop-Score sollten Sie sich daher nicht zwangsweise ausruhen. Was sind meine Web Vital Scores? Bevor es an die Optimierung geht, sollte man natürlich erstmal den Status quo analysieren um zu sehen, wo Optimierungen gerade am meisten benötigt werden. Dabei führen mehrere Wege nach Rom. Google PageSpeed Insights Der einfachste Weg, an den Performance-Score der eigenen Webseite zu kommen, führt über die Google PageSpeed Insights . Hier muss nur die URL zur zu prüfenden Seite eingegeben werden, und die Server von Google übernehmen die Messung. Hierbei gilt es jedoch zu beachten, dass bei der Messung über die PageSpeed Insights nicht nur die aktuelle Messung in einer kontrollierten Umgebung ("Lab Data") in den Score mit einfließt, sondern auch "Field Data". Google bezieht hier also die Erfahrungen von echten Nutzern mit ein, welche Ihre Webseite aufgerufen haben (beispielsweise über Google Chrome). Die Web Vitals lassen sich daher auch nicht austricksen, indem man bei einer kontrollierten Messung einfach sämtliche Bilder und Skripte entfernt. Google bezieht die Daten für die Scores auch von echten Sitzungen. Auch sollten Sie beachten, dass bei einer Messung über die PageSpeed Insights gegebenenfalls auch Ihr Serverstandort eine entscheidende Rolle spielt. Da die Messung über Googles Server erfolgt, kann es sein, dass erst eine sehr lange Verbindung zu Ihrem Server aufgebaut werden muss, was einige Scores natürlich katastrophal in den Keller ziehen kann. PageSpeed Insights misst von einem aus vier verschiedenen Standorten, basierend auf Ihrem aktuellen Standort: Nordwesten der USA (Oregon) Südwesten der USA (South Carolina) Europa (Niederlande) Asien (Taiwan) Die Abdeckung ist daher nicht schlecht, aber wenn Ihr Server beispielsweise in Australien steht, kann die Verbindung durchaus einige Zeit in Anspruch nehmen. Selbst aus den Niederlandern zu einem Rechenzentrum in Frankfurt vergeht bereits einige Zeit. Sie sehen also: Sie sollten sich nicht nur auf die PageSpeed Insights verlassen, da die Messung darüber nicht unbedingt die Erfahrungen echter Nutzer widerspiegelt. Lighthouse Lighthouse ist ein Open-Source Tool, welches direkt von Google bereitstellt wird, und neben den Web Vitals auch zahlreiche andere wichtige Metriken zu Ihrer Webseite erfasst, unter anderem die Barrierefreiheit oder On-Page SEO. Lighthouse läuft lokal auf Ihrem Rechner, simuliert jedoch eine kontrollierte Umgebung, in welcher die Messwerte genau genommen werden können. Das Beste daran: Oftmals müssen Sie dafür nicht einmal zusätzliche Software herunterladen, zumindest wenn Sie als Browser Google Chrome verwenden. Lighthouse ist direkt in den "Chrome Dev Tools" integriert, welche Sie per Rechtsklick, einem Klick auf "Untersuchen" im Kontextmenü und der anschließenden Auswahl von "Lighthouse" innerhalb der oberen Toolleiste aufrufen können. Als Beispiel einmal eine Mobile Performance-Messung unserer Webseite mittels Lighthouse über die Dev Tools: Andere Wege Es gibt noch einige andere Wege, die Web Vitals zu messen, unter anderem über die Google Search Console. Diese richten sich aber eher an erfahrene SEOs. Für Anfänger, die die Performance der eigenen Webseite einschätzen wollen, eignen sich am besten die oben genannten PageSpeed Insights und Lighthouse. Largest Contentful Paint (LCP): Bedeutung und Optimierung Der Largest Contentful Paint (LCP) misst, wie lange es dauert, bis das größte inhaltliche Element innerhalb des initialen Viewports (also der Bereich, den der Nutzer bei Seitenaufruf sieht) fertig dargestellt ist. Das können beispielsweise große Banner-Bilder sein, große Textblöcke, Videos, Buttons, aber auch eher unscheinbare Elemente. Das größte, inhaltliche Element auf unserer neuen Webseite ist laut Google beispielsweise das Logo im Navigationsbereich. Aber keine Sorge: Um das jeweilige Element zu finden, ist keine große Schnitzeljagd von Nöten. Sowohl PageSpeed Insights als auch Lighthouse zeigen Ihnen das Element mittels einem Klick auf "LCP" direkt an. Google hat, wie bei jeder Metrik in den Web Vitals, sehr genaue Vorstellungen davon, wie schnell das Laden dieses Elements vonstatten zu gehen hat. Ein guter LCP ist demnach eine Ladezeit von unter 2,5 Sekunden , während alles über 4 Sekunden sehr schlecht ist und damit starken Handlungsbedarf hat. Alles dazwischen ist zwar in Ordnung, aber immer noch verbesserungswürdig. Und hinsichtlich der Gewichtung von 25% dieses Messwerts im Performance-Score sehen wir persönlich generell für alle Werte über 2,5 Sekunden einen dringenden Optimierungsbedarf. Checkliste für die LCP-Optimierung Eine grundlegende Optimierung des LCP ist Gott sei Dank relativ einfach erledigt. Manchmal sind jedoch noch mehr tiefgreifende Optimierungen notwendig, um einen wirklich guten LCP-Wert zu erhalten. Die gängigsten Methoden zur Optimierung findest du aber hier in unserer Checkliste: Verwendung eines Content Delivery Network. Ist das betroffene Element ein Bild, Video oder eine ähnliche, eingebundene Ressource, ist die naheliegendste Option, die Ladezeit dieser Ressource selbst zu verringern. Eine einfache Möglichkeit, dies zu bewerkstelligen, ist die Bereitstellung dieser Ressource über ein Content Delivery Network (CDN). Ein CDN ist ausschließlich darauf optimiert, Ressourcen wie Bilder so schnell wie möglich für jeden Nutzer auf dem Globus bereitstellen zu können. Dafür werden verschiedene Load Balancing Techniken eingesetzt. Durch Verbindung all dieser Techniken ergibt sich eine viel schnellere Ladezeit, als wenn die Ressource lokal vom eigenen Server bereitgestellt wird. Auch wird dadurch gleichzeitig Last vom eigenen Server genommen, welche anderswo sicher benötigt wird. Eine beliebte CDN-Lösung, welche auch wir auf unserer Webseite einsetzen, ist Cloudinary . Ressourcen komprimieren und in einem modernen Format bereitstellen . Oft wirst du über diese Empfehlung auch in den PageSpeed Insights oder Lighthouse stolpern. Prinzipiell sollten Ressourcen, auch das LCP-Element, so gut wie möglich komprimiert werden, um so wenig Datenverkehr wie möglich zu erzeugen. Für Bilder gibt es zahlreiche Tools, um diese verlustfrei zu komprimieren. Aber auch auf dem Webserver selbst sollte Kompression, beispielsweise mittels Gzip, aktiviert sein. Bilder sollten darüber hinaus bevorzugt in einem modernen Format wie WebP oder JPEG2000 bereitgestellt werden, da diese eine sehr viel geringere Dateigröße bieten. Da jedoch nicht jeder Browser diese Formate unterstützt, sollten als Fallback immer die alten, aber möglichst komprimierten, Formate vorliegen. Versuchen Sie auch, Rastergrafiken richtig zu dimensionieren und keine 1000x1000px große JPEG für ein kleines Logo im Navigationsbereich an den Nutzer zu senden. Clientseitiges JavaScript- und CSS-Rendering minimieren. Es macht wenig Sinn, eine große Google Maps Bibliothek bereits bei Seitenaufruf in den Browser zu laden, wenn diese erst am Seitenende benötigt wird. Versuchen Sie, das verwendete JavaScript und CSS weitestgehend zu minimieren und jenes, das benötigt wird, möglichst im Ladezyklus der Webseite mittels async und defer nach hinten zu verschieben. Während JavaScript oder CSS in den Browser geladen wird, kann das Document Object Model (DOM), in welches die eigentliche HTML-Struktur Ihrer Webseite, und damit auch das LCP-Element, geladen wird, nicht weiter ausgebaut werden. Cumulative Layout Shift (CLS): Bedeutung und Optimierung Der Cumulative Layout Shift (CLS) misst, vereinfacht gesagt, die visuelle Stabilität Ihrer Webseite während des Ladevorgangs. Um noch einmal das Beispiel von oben aufzugreifen: Stellen Sie sich einen Button vor, den Sie noch während des Ladevorgangs drücken möchten, der aber immer wieder seine Position ändert. Nervenaufreibend, nicht? Genau das soll mit einer Optimierung des CLS verhindert werden. Die CLS-Metrik spricht daher in erster Linie für eine gute Usability der Webseite. Kein Nutzer möchte versehentlich auf den Button klicken, der ihn zum Abschluss eines Jahres-Abos führt, wenn er eigentlich nur eine Ausgabe einer Zeitschrift erwerben wollte. Wie aber lässt sich diese Layout-Verschiebung in einen vergleichbaren Wert packen? Für Google ist dieser Wert das Produkt aus der sogenannten Impact Fraction und der Distance Fraction. Die Impact Fraction sagt aus, wie stark ein instabiles Element des Layouts den Viewport zwischen zwei Frames beeinflusst. Wie bitte? Nochmal anhand eines Beispiels: Stellen Sie sich ein Element vor, das bei Seitenaufruf 50% der Viewport-Höhe einnimmt. Durch ein instabiles Layout wird es jedoch plötzlich um 25% nach unten verschoben. Damit hat das Element nun eine Impact Fraction von 75% (also 0,75). Die Distance Fraction ist im Prinzip der bewegliche Anteil der Impact Fraction. In unserem Beispiel läge die Distance Fraction bei 25%, da sich das Element um diesen Wert verschoben hat. Besteht der CLS nur aus diesem Element, hätten wir also eine gesamte Impact Fraction von 0,75 und eine Distance Fraction von 0,25, was multipliziert miteinander einen CLS von 0,1875 ergibt. Dieser Score wäre laut Google ausbaufähig. Nur ein Score bis maximal 0,1 gilt als gut, alles über 0,25 als schlecht. Checkliste für die CLS-Optimierung Nachdem wir die technischen Feinheiten geklärt haben, ist nun die Frage, wie wir diese Layout-Verschiebungen am besten verhindern können. Mit Platzhaltern arbeiten. Laden Sie beispielsweise ein Button-Element während des Ladevorgangs per JavaScript nach und fügen dann einen Button oberhalb eines Textblocks ein, unterliegt der Textblock einem Layout Shift. Sie sollten daher mittels einem Platzhalter, der optimalerweise genauso groß wie der einzufügende Button ist, arbeiten, und diesen Platzhalter anschließend durch den Button ersetzen. So weiß der Textblock bereits zu Anfang, "wo er hin gehört" und wird nicht mehr verschoben. Breiten und Höhen für Bilder definieren. Der Browser schafft während des Ladevorgangs automatisch Platzhalter für Bilder und Videos, wenn er weiß, wie viel Platz er frei halten muss. Dies kann er nur, wenn die jeweiligen Elemente mit Breiten- und Höhenangaben ausgestattet sind. Webfonts während des Ladevorgangs durch System-Fonts ersetzen. Arbeiten Sie mit Webfonts, achten Sie stets darauf, dass für diese ein ähnlicher System-Font als Ersatz angegeben ist. Nicht nur können Sie so auch ältere Browser, die ggf. Webfonts nicht anzeigen können, unterstützen, aber auch wird der Text bereits angezeigt, bevor die jeweilige Font geladen wurde, sodass auch hier Layout Shifts vermieden werden. Layout-Verschiebungen in Animationen vermeiden. Arbeiten Sie mit Animationen oder CSS-Übergängen, sollten Sie darauf achten, dass dadurch nicht das gesamte Layout verschoben wird, wenn beispielsweise die Größe eines Elements animiert wird. Auch hier sollten Sie ein Wrapper-Element schaffen, welches die maximale Größe des animierten Elements hat, sodass außenliegende Elemente nicht verschoben werden. First Contentful Paint (FCP): Bedeutung und Optimierung Der First Contentful Paint (FCP) ist eng verwandt mit dem LCP und misst, wann das erste inhaltliche Element auf der Webseite angezeigt wird. Bis zum FCP ist die Webseite daher weiß und für den Nutzer unbrauchbar. Der FCP sollte selbstverständlich weit früher als der LCP sein. Google gibt einen Wert von unter 1,8 Sekunden als gut an, während alles über 3 Sekunden schlecht ist. Bei der Optimierung des FCP kommen viele Faktoren zusammen, welche teilweise auch direkte (positive) Auswirkungen auf die anderen Metriken haben. Time To First Byte (TTFB) als Subfaktor für den FCP Der FCP hängt naturgemäß stark davon ab, wie lang der Server benötigt, um das erste Byte an den Nutzer zu senden. Dieser Zeitraum wird auch Time To First Byte, oder auch TTFB genannt. Hierzu zählen Dinge wie die DNS-Anfrage, welche den Hostnamen (z.B. kuatsu.dev) in die IP-Adresse des Servers auflöst, oder auch SSL-Handshakes. All dies hat aber eine Sache gemeinsam: Sie sind Sache des Servers und können nur optimiert werden, indem der Server optimiert wird. Große, unübersichtliche Datenbanken können ein Grund für einen langen TTFB sein, oder auch schlechte Webserver-Konfigurationen. Die beste Konfiguration nützt jedoch nichts, wenn der Hosting-Provider schlichtweg nicht gut genug ist oder die Webseite von einem einzigen Server am anderen Ende der Welt im Vergleich zum Nutzer bereitgestellt wird. In der Checkliste für die FCP-Optimierung finden Sie auch einige Punkte, die direkt mit dem TTFB zusammenhängen. Checkliste für die FCP-Optimierung Wir haben nun also erkannt, dass der FCP einer der wichtigsten Einflüsse auf die Nutzerzufriedenheit ist. Doch wie optimieren wie diesen Messwert? Hierzu gibt es unzählige Möglichkeiten, wovon Google zahlreiche in ihrem eigenen Blog-Eintrag vorstellt. Wir widmen uns einigen von diesen in unserer Checkliste. CSS und JavaScript minimieren . Wir haben bereits weiter oben gelernt, dass das Document Object Model während des Ladevorgangs von JavaScript oder CSS noch nicht aufgebaut werden kann. Daher ist es selbstredend, dass diese möglichst minimiert werden müssen. Es gibt sogenannte "Minifier" oder "Uglifier", welche Ihr CSS und JavaScript nehmen und dieses mittels ausgeklügelter Methoden so klein schrumpfen lassen wie möglich. Nutzen Sie diese Möglichkeit. Ungenutzes CSS und JavaScript entfernen . Eng verwandt mit der letzten Optimierungsmöglichkeit: Entfernen Sie CSS und JavaScript, das nicht benötigt wird. Hier kommt oft der Nachteil eeines großen WordPress Themes oder Ähnlichem zu Vorschein, welche oft mehrere Megabyte an CSS und JavaScript mit sich schleppen, welche für Ihre persönliche Webseite wahrscheinlich gar nicht benötigt werden. Für WordPress gibt es einige Plug-ins wie Asset CleanUp, mit welchen sie nicht benötigte Assets weitestmöglich entfernen können. Bei vielen Themes ist dies jedoch nicht immer perfekt möglich, weshalb die beste Lösung hier immer noch ist, auf vorgefertigte Themes zu verzichten und statt dessen ein eigenes Theme zu entwickeln oder auf einen auf Performance optimierten Page Builder wie Oxygen zu setzen. Caching verwenden . Die meisten Webserver bieten eine Vielzahl an Möglichkeiten, Caching zu aktivieren. Dadurch werden bestimmte Ressourcen nicht bei jedem Seitenaufruf neu generiert, sondern für eine gewisse Zeit zwischengespeichert. Auch für WordPress gibt es einige Plug-ins, die in Verbindung mit den entsprechenden Webserver-Anpassungen für massive Verbesserungen im FCP-Wert sorgen können. Bei jeder von uns angefertigten WordPress-Webseite ist daher eine WP Rocket Lizenz und Vorkonfiguration mit inbegriffen. Server-Side Generation (SSG) verwenden. Zugegeben: Nun kommen wir an einen Punkt, wo nicht mehr von Optimierung die Rede ist, sondern von einer völlig neuen Webseite. Ein Static Site Generator wie Next.js erstellt statische HTML-Seiten und übernimmt einen Großteil des JavaScripts auf dem Server. Im Nutzer-Browser werden daher keine dutzenden API-Anfragen für das Anzeigen eines Blogs mehr gemacht, sondern der Server führt diese Anfragen noch vor dem Ladevorgang aus und stellt eine fertige HTML-Seite bereit. Übrigens: Auch wir verwenden Next.js und Static Site Generation. Bitte beachten Sie, dass sich einige der zuvor genannten Optimierungsmöglichkeiten, vor allem im Bereich des Largest Contentful Paint (LCP), mit jenen des FCP überschneiden, und wir diese deshalb hier nicht noch einmal aufzählen. First Input Delay (FID): Bedeutung und Optimierung Der First Input Delay (FID) steht für die Zeit, die es benötigt, bis ein Nutzer auf Ihrer Webseite interaktiv eine Aktion ausführen kann. Klickt ein Nutzer also während des Ladevorgangs auf einen Button, dauert es diesen Zeitraum, bis eine Reaktion entsteht. Auch hier gibt Google Referenzwerte vor: Eine Zeit von unter 100ms gilt als gut, alles über 300ms hingegen als schlecht. Checkliste für die FID-Optimierung Der First Input Delay kann sich als besonders knifflig bzw. technisch zu optimieren herausstellen. Oft ist es hier so, dass nur eine detaillierte Bestandsaufnahme der aktuellen Webseite und eine tiefgreifende, technische Optimierung einen schlechten FID beheben können. Hier sind jedoch einige Maßnahmen, die vorgenommen werden können: Den Haupt-Thread entlasten . Das Rendering in JavaScript läuft über den Haupt-Thread. Werden in diesem jedoch gleichzeitig noch API-Anfragen und komplexe Berechnungen durchgeführt, muss das Rendering und damit auch die Reaktion auf eine Nutzerinteraktion warten. Dies kann beispielsweise durch den Einsatz von Web Workern oder dem Verwenden von asynchronem JavaScript behoben werden. Auswirkungen von Third-Party Code minimieren . Verwenden Sie viele JavaScript-Bibliotheken wie Google Analytics, Google Maps, Facebook Pixel usw. spiegelt sich dies in der Interaktivität Ihrer Webseite wider. Solche Bibliotheken sollten Sie daher prinzipiell erst nach laden, nachdem das Document Object Model (DOM) fertig geladen wurde. Hierzu können Sie unter anderem die async oder defer Attribute im script -Tag nutzen. Fazit Seit Juli 2021 sind die Core Web Vitals offizieller Bestandteil des Google Rankings und wurden spätestens dann zur Hausaufgabe eines jeden ernstzunehmenden SEOs. Doch nicht nur für eine gute Aufstellung in der Google-Suche sollten Sie diesen Messwerten Beachtung schenken: Am Ende stellen sie gute Metriken da, um die echte Bedienbarkeit und Nutzerfreundlichkeit Ihrer Webseite zu messen und zu vergleichen. Eine Digitalagentur, die sich auf die Optimierung der Web Vitals spezialisiert hat, kann daher nicht nur das Google Ranking verbessern, sondern auch für einen echten Mehrwert bei den Nutzern sorgen.

Foto eines Smartphones mit einer geöffneten App vor einer farbenfrohen Wand
12. Januar 2022

4 Vorteile von hybriden Apps in 2022

Bei der Entwicklung bzw. Planung einer neuen App stoßen die meisten schnell auf eine Frage: Hybrid oder nativ? Die meisten Apps sollen auf mehreren Systemen gleichzeitig laufen, meist iOS, Android und gegebenenfalls als Web App. Daher sollte man unbedingt die Vorteile, aber auch Nachteile sowie die Einsatzzwecke dieser beiden Ansätze verstehen. Beide dieser Herangehensweisen erfüllen ihren eigenen Zweck und passen für unterschiedliche Projekte. Wieso wir im Kundengespräch jedoch für die meisten Anwendungszwecke die Entwicklung einer hybriden App (oft auch cross-platform genannt und nicht zu verwechseln mit WebView Apps oder PWAs, also Progressive Web Apps) empfehlen, möchten wir hier anhand von sieben Vorteilen eben dieser aufzeigen. Eine einzige Codebase Der größte Vorteil von hybriden Apps war es schon immer, dass nur eine einzige Codebase verwaltet werden muss. Während bei der nativen App-Entwicklung für jedes zu unterstützende System eine eigene App programmiert werden muss, verfolgt die hybride Entwicklung einen Universalansatz. Es wird nur eine einzige App geschrieben, welche anschließend in eine native App kompiliert wird um so auf den gängigen Systemen zu laufen. Der Vorteil dürfte auf der Hand liegen: Sowohl am Budget als auch der benötigten Arbeitszeit für die Entwicklung kann mächtig gespart werden. Anstatt mehrere Entwickler an verschiedenen Systemen arbeiten zu lassen, kann oft ein einziges Entwicklungsteam die Programmierung für alle Systeme im Raketentempo vornehmen. Dieser Vorteil ergibt sich nicht nur bei der ersten Entwicklung, sondern auch im weiteren Verlauf. Wenn neue Funktionen hinzugefügt oder die App anderweitig gewartet werden soll, sind Anpassungen binnen weniger Arbeitsstunden erledigt und auf allen Systemen gleichzeitig einsatzbereit. Dies spart nicht nur Kosten, sondern ist auch für die Nutzer umso erfreulicher. Performance wie der große Bruder Vor nicht allzu langer Zeit standen hybride Apps noch massiv in Verruf. Zu diesen Zeiten entstand gerade das noch heute sehr populäre Ionic Framework, welches eines der Vorreiter in seinem Bereich war. Leider hatten Apps, die damals auf diese Art und Weise programmiert wurden, ein massives Problem: Performance. Selbst für den Laien war es einfach, zu erkennen, dass eine App nicht für das jeweilige System optimiert war. Grafikfehler, Stotterer und Abstürze gehörten zur Tagesordnung. Inzwischen eilen hybride Apps, und die Frameworks in denen sie programmiert sind wie React Native oder Flutter, ihrem Ruf jedoch meilenweit voraus. Performance-Probleme gibt es inzwischen kaum noch. Ganz im Gegenteil sogar erreichen diese nahezu ähnliche Geschwindigkeiten wie rein native Apps. Der Nutzer kann in den meisten Fällen keinen Unterschied mehr feststellen. Dadurch setzen sie sich sehr stark von sogenannten WebView Apps ab, welche noch immer mit selbigen Problemen zu kämpfen haben. WebView Apps unterscheiden sich von hybriden Apps, welche zu nativen Apps kompiliert und optimiert werden, dadurch, dass diese einfach gesagt nur eine Webseite in einem Wrapper anzeigen. Dass sich hierdurch automatisch Performanzprobleme ergeben, dürfte klar sein. Eine App, die native UI-Funktionalitäten und System-APIs unterstützt (wie es moderne, hybride Apps tun) wird immer schneller sein, als eine Webseite, die auf dem Smartphone gerendert wird. Großartige User Experience Dieser Punkt geht Hand in Hand mit dem vorherigen Punkt. Durch die native Performance hybrider Apps und der Möglichkeit, System-APIs wie Apple Health, HomeKit oder ähnliche einzubauen, ergibt sich eine fantastische Nutzererfahrung. Und selbst wenn eine Systemfunktionalität mal nicht von Haus aus vom verwendeten Framework verwendet wird, ist es in den allermeisten Fällen möglich, diese mit relativ wenig Aufwand nachzurüsten. Offline-Nutzbarkeit In diesem Punkt stellen wir die hybride App weniger in den Vergleich zur nativen App, sondern viel mehr zum „kleinen Bruder“ – der WebView App. Der Kernvorteil gegenüber einer solchen liegt nämlich darin, dass die App unabhängig von einer bestehenden Internetverbindung genutzt werden kann. Die App ist mitsamt allen benötigten Funktionalitäten auf dem Gerät des Nutzers installiert und muss sich daher nicht bei jedem Öffnen neu laden. Zugegeben : Durch cleveren Einsatz von Caching können viele Web Apps inzwischen auch offline laufen (man spricht dann auch von einer PWA, also einer Progressive Web App). Oft ist es jedoch so, dass hier bestimmte Features trotz dessen nicht ohne Internetverbindung funktionieren, da diese nicht auf alle System-APIs zurückgreifen können und so oft eine dauerhafte Serververbindung benötigen. Dieses Problem gibt es beim Einsatz von hybriden Apps nicht. Auch ist die Entwicklung einer hybriden App inzwischen oft günstiger als die einer offline verfügbaren Progressive Web App. Ein kleiner Disclaimer… Auch wenn wir von der hybriden App-Entwicklung absolut überzeugt sind, so eignet sie sich jedoch nicht für alle Arten von Projekten. In bestimmten Fällen macht es durchaus Sinn, native Apps für jedes zu unterstützende System zu entwickeln. Vor allem wenn es um neu erschienene Systemfunktionalitäten geht, kommt die hybride App-Entwicklung oft an ihre Grenzen. Auch wenn herausragende Performance wichtig für die Funktion der App ist, kann eine hybride App – trotz der sich immer weiter verbessernden Performanz dieser – vielleicht nicht mehr mithalten.

Alle Beiträge →

Genug über uns. Lassen Sie uns in einem 30 Minuten Call über Ihr Projekt sprechen und gemeinsam Lösungen erarbeiten.

Oder schreiben Sie uns eine E-Mail →