top of page

CV

David Epding im Portrait

Kurz & einfach

  • Technical SEO/GEO & Content Optimierungen, Data Analytics, Automatisierung & Prozess-Optimierung, LLM/ML Python Tools

  • 7 Jahre auf Unternehmensseite bei CHECK24+ 2.5 Jahre SEO Consultant in einer Agentur + Start-up Erfahrung​

  • Master in BWL/ Marketing/ Marktforschung mit Web Dev Erfahrung

  • Charakteristik: Selbstsicher, offen, empathisch, loyal &
    analytisch, unternehmerisch, prozessorientiert, detailverliebt

Wozu möchtest Du mehr wissen:

Oder zusammenfassen mit:

Tool Stack & Qualifikationen

 GEO/SEO     Data Analytics     Projekt-Management     
 Web Development    ML    LLM    NLP    People-Management 

  Screaming Frog       SISTRIX    SEMrush    Ahrefs     DataForSEO    Searchmetrics    Chrome Dev Tools 

  Python        Streamlit    Chrome Extensions 

  Tableau       QlikSense    MATOMO    Google Tag Manager 

  ChatGPT       Claude        Gemini       Perplexity     Cursor     NotebookLM    HeyGen    make.com 

  Drupal     Typo3     Wordpress     WIX  

  Shopify     Magento  

 Deutsch     Englisch     Spanisch    Portugiesisch  

Karriere & Erfahrungen

<1 Jahr
08/2025 bis heute

Experte Business Intelligence Manager

check24-frame.png
  • Projekt-Management für die Konzeption & Entwicklung neuer LLM/KI Features

  • Umsetzung von Data Analytics, Tracking und Data Science Projekten

6,5 Jahre

02/2019 bis 07/2025

Stellv. Teamlead & Senior SEO/GEO

check24-frame.png
  • Full-Stack SEO/GEO und stellv. Teamlead im Team mit IT für das Drupal CMS, eigener Redaktion und zwei direkt unterstellten Data Analytics Werkstudenten, als Dienstleister für mehrere Versicherungs-Produkte

  • Planung und Umsetzung von On-Page Maßnahmen mit Fokus auf Technisches SEO sowie Content-Ausbau und -Optimierungen sowie Content Marketing Kampagnen für Outreach

  • Aufbau einer Reporting- und Daten-Infrastruktur mit ETL-Prozessen in Tableau, Tableau Prep und Python für Daten von Google Search Console, SISTRIX, SEMrush, LRT, automatisierten Screaming Frog Crawls, Website-Daten von MATOMO, Logfiles und QA Alerts via E-Mail und Slack

  • Verantwortung für Quartals-Reviews des Teams zur Präsentation der SEO/GEO Performance sowie durchgeführter & geplanter Maßnahmen gegenüber den Geschäftsführern der betreuten Versicherungs-Produkte

  • Entwicklung von Mini-Tools & Browser-Apps in Python und Tableau zur Teilautomatisierung sowie Qualitäts-Verbesserung der SEO Arbeit

  • Etablierung von Tests von Generative AI Lösungen zur Prozessoptimierung & Effizienzsteigerung sowie Durchführung einer eigenen Studie zu AI Overviews und der Verbesserung der Sichtbarkeit in LLMs wie ChatGPT, Claude, Gemini und Co.

  • Co-Lead der Produkt-übergreifenden Fokusgruppe Tableau/Data Analytics sowie des CHECK24-weiten Austauschs der SEO/GEO Experten

  • Technische SEO-Audits und -Beratung von anderen CHECK24 Produkt-Bereichen wie Reise, Shopping, Profis, Steuer, Internet, Mobilfunk und bei domain-weiten Herausforderungen

2,5 Jahre
07/2016 bis 12/2018

Senior SEO Consultant 

OMMAX Digital Solutions
  • Betreuung diverser B2C & B2B SEO Projekte für Dienstleister und E-Commerce Shops in der Größe von 100 URLs bis hin über 3 Mio. URLs aus den Branchen HoReCa, Logistik, IT, Healthcare, Textil etc.

  • Planung & Umsetzung von SEO Strategien für Budgets von 25.000 EUR monatlich entweder als Projekt-Lead oder Teil eines Projekt-Teams

  • Experte für customized Screaming Frog Crawls und jede Art von technischer SEO Analyse

  • Interne & externe Workshops für unterschiedlichste SEO Themen und Erfahrungs-Level

4 Jahre

06/2012 bis 06/2016

Werkstudent Web Development
&  Eventmanagement

hotelkit - simplify everyday work

Unterstützung im Web Development des SaaS für Hotels im Front- und Backend (PHP, HTML, CSS, Angular JS), bspw. einem Umfrage-Feature sowie dem Monitoring von Messwerten für die Qualitäts-Checks in Hotels

< 1 Jahr

01/2011 bis 07/2011

Praktikant Marketingplanung & steuerung / Marktforschung

Unterstützung bei Datenanalysen und der Marktforschung wie bspw. der Auswertung von Käufermigrationen des New Cars Buyers Survery

Bildung

4 Jahre
10/2011 bis 06/2015

M.Sc. BWL
@TU Dresden

  • Spezialisierung in Kommunikation, Produkt- und Innovationsmangement sowie Wirtschaftsinformatik

  • Masterarbeit: Unternehmens-Greenwashing aus Konsumentensicht - Entwicklung und empirische Validierung eines Konstrukts (Note: 1,3)

<1 Jahr
09/2013 bis 02/2014

ERASMUS Auslandssemester
@Universidad de Alcalá, Madrid

3 Jahre
10/2007 bis 06/2010

B.Sc. WiWi 
 
@TU Dresden

  • Spezialisierung in Marketing, Marktforschung

  • Bachelorarbeit: Konzeptualisierung des Konstrukts Konsumentenverwirrtheit und dessen Einflussfaktoren - Eine Analyse anhand von Gruppendiskussionen (Note: 1,7)

Hobbys & Persönliches

Was zeichnet Dich persönlich aus?

Ich bin ein ganz lebensfroher Mensch mit Empathie und dem Blick für das große Ganze und Klitzekleine. Und manchmal kommuniziere ich viel zu kryptisch, manchmal zu viel, aber immer offen.

Nachdem meine Fußballer-Karriere nach einem Kreuzbandriss schon früh endete, und das Knie mittlerweile selbst beim Laufen zwickt, widme ich mich in meiner Freizeit anderen schönen Dingen:

Meine 3-jährige Tochter, die mich auf Trapp hält, eine gute Serie auf Netflix, ein paar Partien Schach oder ein neues Python-Script bringen mir genauso Freude wie eine gute Session Age of Empires IV.

Früher habe ich mit meiner Frau auch Salsa getanzt und häufiger gekocht und mich auf Geschmacksreise begeben.

Und während meine Zuneigung zu Fröschen stark von Screaming Frog beeinflusst wurde, bin ich mir bei dem Gorilla-Hype noch nicht so sicher - wahrscheinlich ist es einfach ihre Erscheinung als imposante, mächtige Tiere, die in ihren Ruhepausen wie Buddhas der Tropenwälder anmuten.

In a Nutshell:

  • Wortspielführer

  • Schach

  • Age of Empires IV

  • Pythonista

  • Papa sein

  • Salsa

  • Frosch oder Gorilla (Screaming oder AI)​

Q & A

Was zeichnet guten Content aus?

Guter Content maximiert den Mehrwert für alle Nutzer bzw. die unterschiedlichen Leser-Gruppen, idealerweise so kurz, einfach & entertainend wie möglich.

D.h.

  • Klare, einfache, direkte Sprache

  • Pyramide: Direkte Antwort zuerst, Details folgend, roter Faden

  • Chunkability: Jeder Abschnitt, jeder Satz, jeder Teilsatz sollte für sich stehen und in Search oder LLMs zitierbar sein.

  • "Fettungs-Polizei": Fettungen verbessern die Lesbarkeit und helfen Chunks zitierbar zu formulieren.

  • Enriched Content Formate: Liste > Tabelle > Infografik > Video > Audio

Was ist bei der Datenanalyse wichtig?

Oft vernachlässigt, ist für mich vor allem ein gutes Verständnis der Daten die Grundlage für eine zielführende Analyse. Nur gut getrackte, valide und fehlerfreie/-arme Daten können stichhaltige Erkenntnisse generieren. Das Wissen über Limitationen hilft, die Daten richtig zu interpretieren und zielführende Maßnahmen abzuleiten.

 

Vorgehen:

  1. Daten verstehen:
    Was sagen die Daten aus? Wie wurden sie getrackt? Welche Verzerrungen gibt es durch die Tracking-Methodik? Wie gut wird das Datenset die Fragestellung beantworten können bzw. mit welchen Limitationen?

  2. QA & Ausreißer:
    Wie valide sind die Daten? Welche Anomalien finden sich? Sind die Daten vollständig?

  3. Analyse top to bottom (explorativ):
    Visualisierung der Daten auf oberster Aggregations-Ebene. Danach der Drilldown in die unterschiedlichen Dimensionen. Berechnung relevanter, vergleichbarer Metriken.

  4. Message bestimmt Visualisierung:
    Wie kann die Erkenntnis am besten an die/den Stakeholder kommuniziert werden? Welche Informationen/Daten sind wirklich wichtig für die Message? Welche sind als ergänzende Darstellung sinnvoll, welche überflüssig? 

  5. Key Takeaways formulieren:
    Jede Darstellung muss klare, formulierte Key Takeaways enthalten, die für jeden Betrachter eindeutig sind & Next Steps bzw. Maßnahmen definieren.

Wie gehst du bei der Automatisierung vor?

Automatisierung muss Teil jedes Prozesses sein, d.h. idealerweise überlege ich bei jeder Aufgabe, inwiefern sie repetitiv und automatisierbar ist.

  1. Sparpotenzial: Wie aufwendig ist die Aufgabe? Wie häufig fällt sie an?

  2. Prozessschritte automatisierbar: Welche Teile der Aufgabe sind automatisierbar? 

  3. Qualitäts-Potenzial: wie stark kann Automatisierung die Output-Qualität erhöhen?

  4. Prototyping: Welche Tools stehen für die Automatisierung zur Verfügung? Wie aufwendig ist es, eine (Teil-)Automatisierung prototyp-haft zu testen

  5. MVP priorisieren: Wie aufwendig ist es, den Prototypen in eine verlässliche, produktive Lösung zu überführen? Wie können die 80/20 MVP-Version sowie weitere Verbesserungs-Iterationen aussehen?

Wie gehst du beim Technical SEO Audit vor?

It depends. Jede Webseite, jedes Unternehmen, jedes Produkt ist anders. In jedem Fall hilft mir ein gut eingestellter Screaming Frog Crawl die wichtigsten Themen zu identifizieren. Ob ich dann mit Python oder im Browser bzw. mit den Chrome Dev Tools nachforschen muss, ob die Analyse schnell oder vollständig sein soll, oder ich einfach so im Quelltext herumstöbere, VPNs, Inkognito Browser oder Drittanbieter-Tools nutze, entscheidet das jeweilige Projekt / die jeweilige Fragestellung.

  1. Technische Basics: Screaming Frog + Browser + robots.txt

  2. Deep Dive Topics: Chrome Dev Tools (von Cookies über Netzwerkanalyse bis hin zum Rendering) + Screaming Frog (Extractions vs. JS Scripte) + sonstige Drittanbieter Tools (W3C Validator, JS Switch, Lighthouse)

  3. Quantifizierung & Priorisierung: Dokumentation der Findings entweder qualitativ auf Slides und/oder quantitativ in Excel-Listen und entsprechender Priorisierung nach Impact (für die SEO Performance insgesamt vs. für das Unternehmen)

Dein spannendstes Technical SEO Projekt?

Puh, technische SEO Themen sind alle spannend. Wenn ich ein Projekt herausgreifen müsste: Tarife-Infos auf den Landing Pages ausspielen.

Klingt erst einmal trivial: Worin lagen die technischen Herausforderungen? 

Nunja, wir betreuten mehrere Versicherungs-Produkte, die alle andere Systeme für ihre Tarif-Vergleiche nutzen und somit unterschiedliche API Schnittstellen zur Verfügung stellten.

Während manche Produkte bereits eigens Tarife cachten, riefen andere realtime die Informationen von 20+ Versicherern ab - APIs, die selbst teilweise über 20 Sekunden Respone Time hatten, wodurch einige Ergebnisse immer erst nachgeliefert werden.

Gleichzeitig mussten die Tarife für Google und Co. beständig und vollständig auf der Webseite in einem geeigneten Format präsentiert werden.​

Daher wurde ein aufwendiges Caching & Error Handling aufgesetzt und Server-Side in das raw HTML gerendered, das über dedizierte Server und VMs synchron gehalten werden musste.

Das Handling von Tarif-Abfragen wurde zur effizienten Aussteuerung & Skalierung ins CMS integriert sowie unter Einhaltung der gängigen Kachel-Optik ein optimiertes HTML Table Element entwickelt, dass strukturiertes Retrieval der Infos durch Crawler ermöglichte und die User-Experience durch eine Tab-Lösung und die Andeutung von Ladevorgängen abgerundet.

  1. Caching-Lösung mit Checks & Error Handling sowie Server-Side Rendering

  2. HTML Optimierung in Form von Tabellen Format bei gleichzeitiger Kachel-Optik für den Nutzer

  3. Server & VM Synchronisierung mussten gecheckt werden

War es ein Erfolg?

  • Schnelles Ausrollen über mehrere Landing Pages & Zielgruppen ermöglicht

  • Tarif-Informationen wurden von Google aufgegriffen & auch in den SERPs ausgespielt (führten jedoch zu CTR Verlusten, sodass wir data-nosnippet hinzugefügt haben)

  • Keine direkt zuordenbaren, signifikanten Ranking-Gewinne - evtl. bedingt durch bereits sehr gutes Ranking - jedoch gutes Feature für UX, LLM Sichtbarkeit & Engagement Metriken

Was ist das beste selbst gebaute Mini-Tool?

Am wertvollsten war mMn. ein Wettbewerber-Monitoring Tool, dass ich auf der Basis von Screaming Frog, Python & Tableau gebaut hatte.

Durch das monatliche Crawlen von 20+ Wettbewerbern konnten wir strategische On-Page SEO Maßnahmen nachvollziehen, auf neuen Content sowie neue Landing Pages der Konkurrenz umgehend reagieren.

Durch semi-automatisierte Exporte & Python-Skripte waren die Daten schnell für die interaktive Visualisierung und Analyse in Tableau verfügbar, um eigene Maßnahmen abzuleiten.​

Gleichzeitig konnten wir Ranking-Bewegungen immer im Kontext dieser On-Page Tätigkeiten bewerten.

In a nutshell:

  1. Automatisierte Screaming Frog Crawls von 20+ Wettbewerbern monatlich

  2. ETL mittels Python Skript zur Bestimmung von Content Changes sowie neuer/entfernter URLs & Bilder

  3. Interaktive Tableau App zum zielgerichteten Deep Dive zum Ableiten von SEO Maßnahmen

Was ist dir für die Zusammenarbeit wichtig?

Ich bin ein Teamplayer, der für den Erfolg auch gern die Führung übernehmen kann.
Wichtig dabei ist mir ein offener, transparenter und ehrlicher Austausch und ein rücksichtsvolles Miteinander. Ich versuche immer erst einmal meinen Gegenüber zu verstehen und bei Konflikten diplomatische Lösungen für die Sache / das gemeinsame Ziel zu finden.

  1. Teamplayer: Mit Blick für die Menschen um mich herum, einen Beitrag für das gemeinsame Ziel leisten wollen.

  2. Offene Kommunikation: Ich kommuniziere sehr gerne offen und direkt, mit Verständnis für mein Gegenüber, so transparent wie möglich und schätze das auch selbst bei Feedback jeglicher Art

  3. Fordernd & fördernd: Ich liebe Herausforderungen und an diesen zu wachsen. Wichtig ist mir aber auch, das Vertrauen in meine Person zu spüren & in meiner Entwicklung  gefördert zu werden.

© 2026 David Epding.            Erstellt mit Wix.com.

david epding logo

David Epding ist GEO & SEO, Data Analytics und Automation Manager mit über 10 Jahren Erfahrung in Technischem SEO mit breiter Expertise für LLMs und langjähriger Erfahrung in der Daten-Analyse.

bottom of page