QA-Strategien die messbare Ergebnisse liefern: Von 90% schnelleren Tests bis 120K Einsparung

Von Roland Golla
0 Kommentar
Surreales Bild: Schmelzende Uhr über Testpyramide symbolisiert 90% Zeitgewinn

„Unsere Tests laufen, aber die Kosten explodieren“ – kennt ihr das Gefühl? Während euer Entwicklungsteam immer schneller Features ausliefern soll, wächst der Testaufwand exponentiell. Die gute Nachricht: Mit der richtigen QA-Strategie spart ihr nicht nur Zeit, sondern auch massiv Kosten. Nach über 15 Jahren Erfahrung in Softwarequalität, Open Source und Remote Consulting zeigen wir euch heute, wie ihr messbare Erfolge erzielt.

Warum eine durchdachte QA-Strategie euer Business transformiert

Die Zahlen sprechen für sich: Unternehmen mit ausgereiften QA-Strategien reduzieren ihre Release-Testzeit um bis zu 90%, sparen 120.000 Euro pro Jahr an operativen Kosten und verbessern die Performance ihrer Systeme um 30%. Das sind keine theoretischen Werte – das sind reale Ergebnisse aus der Praxis.

Eine klare QA-Strategie bedeutet für euer Team:

  • Schnellere Time-to-Market durch automatisierte Feedback-Loops
  • Drastisch reduzierte Wartungskosten bei höherer Testabdeckung
  • Verlässliche Releases selbst unter Extrembedingungen wie Black Friday
  • Einheitliche Qualitätsstandards über alle Vendor-Teams hinweg
  • Hunderte gesparte Manntage durch intelligente Testautomatisierung

Das Team von Never Code Alone hat in zahlreichen Projekten erlebt, wie die richtige Balance zwischen Automatisierung und strategischer Planung den Unterschied zwischen chaotischen Releases und reibungslosen Deployments macht.

Wie berechne ich den ROI meiner Testautomatisierung konkret?

Der ROI eurer Testautomatisierung lässt sich präzise berechnen – und sollte es auch. Die grundlegende Formel ist simpel:

ROI = (Einsparungen – Investitionskosten) / Investitionskosten × 100

In der Praxis sieht das so aus: Wenn ihr 50.000 Euro in Testautomatisierung investiert und dadurch 200.000 Euro an manuellen Testkosten über drei Jahre spart, liegt euer ROI bei 300%.

Die Einsparungen berechnet ihr aus:

  • Reduzierte manuelle Testzeit (Stundensatz × eingesparte Stunden)
  • Vermiedene Produktionsfehler (durchschnittliche Kosten pro Bug × verhinderte Bugs)
  • Schnellere Release-Zyklen (Umsatzpotential × gewonnene Tage)
  • Eingesparte Tool-Kosten durch Tool-Konsolidierung

Die Investitionskosten umfassen:

  • Tool-Lizenzen und Infrastruktur
  • Entwicklung der Test-Frameworks
  • Schulungen für euer Team
  • Laufende Wartung der Testsuites

Pro-Tipp aus der Praxis: Berechnet den ROI nicht nur einmalig, sondern trackt ihn quartalsweise. So seht ihr, ob eure Automatisierungsstrategie tatsächlich skaliert oder ob ihr nachsteuern müsst.

Wann lohnt sich der Umstieg auf Testautomatisierung wirklich?

Die 100%-Automatisierung ist ein Mythos – und oft kontraproduktiv. Die entscheidende Frage ist: Welche Tests automatisiere ich, um maximalen Nutzen zu erzielen?

Automatisierung lohnt sich primär für:

Regressionstests: Tests, die ihr bei jedem Release wiederholt ausführt. Bereits ab dem dritten Testzyklus amortisiert sich die Investition. In agilen Teams mit täglichen oder mehrmals täglichen Deployments erreicht ihr den Break-Even-Point oft schon nach wenigen Wochen.

Smoke Tests: Kritische User-Journeys, die die Grundfunktionalität sicherstellen. Diese Tests müssen schnell laufen und 100% verlässlich sein – perfekt für Automatisierung.

Performance-Tests: Lasttests mit hunderten simulierten Usern sind manuell nicht durchführbar. Hier ist Automatisierung keine Option, sondern Notwendigkeit.

API-Tests: Backend-Tests ohne UI-Overhead sind stabil, schnell und einfach zu warten. Oft der beste Einstiegspunkt für Testautomatisierung.

Manuelle Tests bleiben unverzichtbar für:

  • Exploratives Testen und UX-Validierung
  • Tests mit häufig wechselnden Requirements
  • Komplexe Edge Cases mit geringer Wiederholungsfrequenz
  • Usability-Aspekte, die menschliches Urteilsvermögen erfordern

Consulting-Tipp: Startet mit euren Regressionstests. Das sind typischerweise 60-70% eurer Testfälle, die ihr bei jedem Release wiederholt. Hier ist der Quick Win garantiert.

Welche Tests automatisiere ich zuerst für maximalen Impact?

Die Priorisierung eurer Testautomatisierung entscheidet über Erfolg oder Frust. Nach dem Pareto-Prinzip liefern euch 20% der richtigen Tests 80% des Nutzens.

Test-Priorisierungs-Matrix:


  1. Kritische User-Journeys (Prio 1): Login, Checkout, Zahlungsprozesse – alles, was direkt umsatzrelevant ist. Diese Tests müssen immer grün sein.



  2. Häufig ausgeführte Tests (Prio 2): Tests, die ihr täglich oder mehrmals täglich durchführt. Hier multipliziert sich die Zeitersparnis massiv.



  3. Stabile Tests mit klaren Erwartungen (Prio 3): Tests, die selten ändern und eindeutige Pass/Fail-Kriterien haben. Minimale Wartung, maximaler Nutzen.



  4. Datenintensive Tests (Prio 4): Tests, die verschiedene Datenkonstellationen durchspielen müssen. Automatisierung mit Data-Driven-Ansätzen zahlt sich aus.


Vermeidet diese Fallen:

  • Neue Features, die sich noch täglich ändern
  • Komplexe UI-Tests ohne stabiles Page Object Model
  • Tests, die nur einmal im Jahr laufen
  • Alles, was kaptcha-ähnliche Mechanismen beinhaltet

Team-Synergie: Involviert eure Developer früh. Tests, die schon beim Coding testability im Blick haben, sind 10x einfacher zu automatisieren als nachträglich aufgesetzte Tests.

Wie reduziere ich die Wartungskosten meiner automatisierten Tests?

Der größte Killer für Testautomatisierung sind explodierende Wartungskosten. Tests, die nach jedem UI-Update brechen, sind wertlos – egal wie schnell sie laufen.

Best Practices für wartbare Tests:

Page Object Model (POM) konsequent nutzen: Eure Testlogik sollte niemals direkt auf UI-Elemente zugreifen. Kapselt alle Selektoren in Page Objects. Ändert sich die UI, müsst ihr nur eine Stelle anpassen statt 200 Tests.

Robuste Selektoren wählen: IDs und data-test-Attribute sind stabil. XPath mit div[3]/span[2] bricht beim nächsten Design-Update. Investiert Zeit in solide Selektorstrategien.

Self-Healing-Tests implementieren: Moderne Tools wie Playwright oder Cypress bieten automatische Element-Lokalisierung. Nutzt diese Features aktiv.

Klare Wartestrategien: Flaky Tests entstehen meist durch Race Conditions. Nutzt explizite Waits statt Thread.sleep(). Wartet auf konkrete Zustände, nicht auf Zeitspannen.

Continuous Maintenance Budget: Plant 15-20% eurer Automatisierungskapazität fest für Wartung ein. Tests, die nicht gepflegt werden, verfallen exponentiell.

Metriken die zählen:

  • Test-Stabilität: >95% sollte euer Ziel sein
  • Durchschnittliche Reparaturzeit: <30 Minuten pro gebrochenem Test
  • Wartungsaufwand pro Sprint: sollte konstant bleiben, nicht wachsen

Pragmatischer Ansatz: Löscht Tests, die mehr kosten als sie bringen. Ein wartungsintensiver E2E-Test für ein Feature, das 0,1% eurer User nutzen, ist verschwendete Kapazität.

Wie überzeuge ich meine Stakeholder von der Investition?

Die technische Notwendigkeit ist euch klar – aber wie kommuniziert ihr das an Entscheider, die in Business-Metriken denken?

Die Sprache der Entscheider sprechen:

Statt „Wir brauchen Selenium für unsere Regressionstests“ sagt ihr:
„Wir können die Release-Zyklen von 4 Wochen auf 2 Wochen halbieren und gleichzeitig die Produktionsfehler um 60% senken. Das bedeutet schnellere Features und zufriedenere Kunden.“

Konkrete Business Cases präsentieren:

Szenario 1 – Time-to-Market:
„Aktuell benötigen wir 5 Tage für manuelle Regressionstests vor jedem Release. Mit Automatisierung reduzieren wir das auf 4 Stunden. Das sind 16 zusätzliche Releases pro Jahr – 16 Chancen, schneller auf den Markt zu reagieren.“

Szenario 2 – Risikominimierung:
„Ein kritischer Bug in Production kostet uns durchschnittlich 50.000 Euro (Umsatzverlust, Support, Reputationsschaden). Automatisierte Tests fangen 80% dieser Bugs vor dem Deployment ab. Das sind potentielle Einsparungen von 400.000 Euro jährlich.“

Szenario 3 – Skalierung:
„Jeder neue Developer vergrößert unsere Codebase – und damit das Risiko für Regressionen. Ohne Automatisierung müssten wir unser QA-Team proportional vergrößern. Mit Automatisierung skalieren die Testkosten nur um 10%, nicht um 100%.“

Die 3-Jahres-Perspektive:

  • Jahr 1: Break-Even durch initiale Zeitersparnis
  • Jahr 2: 200% ROI durch reduzierte Maintenance und stabilere Releases
  • Jahr 3+: 400% ROI durch vollständig etablierte Testkultur und minimal wachsende Kosten

Entscheider-Perspektive: Frameworks wie Playwright oder Cypress haben minimale Einstiegshürden. Ihr könnt in 2 Wochen einen Pilot aufsetzen und erste Erfolge demonstrieren – mit überschaubarem Budget-Risiko.

Welche Testautomatisierungstools passen zu welchem Projekttyp?

Die Tool-Landschaft ist komplex, aber die Entscheidung muss es nicht sein. Wählt Tools basierend auf euren konkreten Anforderungen, nicht nach Hype.

Web-Anwendungen:

Playwright (Empfehlung 2025): Cross-Browser-Tests aus einer Codebasis. Excellente Developer Experience, robuste Auto-Wait-Mechanismen, parallele Ausführung out-of-the-box. Perfekt für moderne SPAs.

Cypress: Hervorragend für rapid prototyping und Developer-getriebene Tests. Einschränkung: Nur Chromium-Browser nativ, andere Browser über Workarounds.

Selenium: Der Veteran – reif, stabil, aber Setup-intensiv. Wählt Selenium, wenn ihr legacy Browser-Support benötigt oder existierende Selenium-Infrastruktur habt.

API-Testing:

Postman/Newman: Ideal für schnelle API-Tests und Monitoring. Grafische Oberfläche für manuelle Exploration, CLI für CI/CD-Integration.

REST Assured (Java): Wenn euer Backend Java spricht und eure Entwickler in dieser Sprache zuhause sind. Nahtlose Integration in JUnit/TestNG.

Performance-Testing:

K6: Moderne, developer-friendly Performance-Tests als Code. Scripting in JavaScript, excellente Cloud-Integration für große Lasttests.

JMeter: Tool-Standard für Enterprise-Projekte. Steile Lernkurve, aber unschlagbar für komplexe Lastszenarien mit verschiedenen Protokollen.

Mobile Testing:

Appium: Cross-Platform-Standard für native und hybrid Apps. Selenium-ähnliche API, große Community, aber komplexes Setup.

Maestro: Newcomer mit ultra-schnellem Feedback für Flutter und React Native Apps. Wert für iOS/Android-Projekte mit modernen Frameworks.

Tool-Entscheidungs-Matrix:

  • Projekt-Lebensdauer <6 Monate: Minimaler Tool-Overhead (Playwright + Postman)
  • Legacy-System mit stabilem Tech-Stack: Selenium + JMeter
  • Startup mit hoher Entwicklungsgeschwindigkeit: Cypress + K6
  • Enterprise mit Multi-Team-Setup: Playwright + REST Assured + TestRail

Consulting-Tipp: Vermeidet Tool-Wildwuchs. Zwei Tools gut beherrscht schlägt fünf Tools oberflächlich eingesetzt. Fokus auf Maintainability statt Feature-Vollständigkeit.

Wie integriere ich Testautomatisierung nahtlos in meine CI/CD Pipeline?

Automatisierte Tests, die nur lokal laufen, sind wie ein Airbag, der nur funktioniert, wenn ihr daran denkt ihn einzuschalten. Die CI/CD-Integration macht eure Tests zum permanenten Safety Net.

Pipeline-Architektur Best Practices:

Stufe 1 – Pre-Commit Hooks:
Schnelle Unit- und Linter-Tests laufen beim git commit. Stoppt offensichtliche Fehler, bevor sie überhaupt in die Codebase kommen. Laufzeit: <30 Sekunden.

Stufe 2 – Pull Request Pipeline:
Integration-Tests und kritische E2E-Flows laufen automatisch bei jedem PR. Blockiert Merges bei Fehlern. Laufzeit: 5-10 Minuten.

Stufe 3 – Nightly Full Suite:
Vollständige Regression-Suite inklusive Performance-Tests läuft nachts. Findet subtile Bugs ohne Development-Flow zu blockieren. Laufzeit: 1-3 Stunden.

Stufe 4 – Pre-Production Smoke Tests:
Nach Deployment auf Staging-Umgebung: Schneller Smoke Test der kritischen Pfade. Validation vor Production-Deployment. Laufzeit: 5 Minuten.

Docker-Integration für konsistente Test-Umgebungen:

# docker-compose.test.yml
version: '3.8'
services:
  test-runner:
    build: ./tests
    depends_on:
      - app
      - database
    environment:
      - BASE_URL=http://app:3000
      - DB_HOST=database
    volumes:
      - ./test-results:/results

GitHub Actions Beispiel:

name: E2E Tests
on: [pull_request]
jobs:
  test:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v3
      - name: Run E2E Suite
        run: |
          npm ci
          npx playwright test
      - uses: actions/upload-artifact@v3
        if: always()
        with:
          name: playwright-report
          path: playwright-report/

Flaky-Test-Management:
Tests, die intermittierend feilen, zerstören das Vertrauen in eure Pipeline. Nutzt automatische Test-Retries (max. 3x) und trackt Flakiness-Metriken. Tests mit >5% Flakiness gehören deaktiviert oder repariert – nie ignoriert.

Pipeline-Debugging: Test-Logs und Screenshots bei Fehlschlag sind Gold wert. Configuriert eure CI, sodass ihr in 2 Minuten verstehen könnt, was schiefgelaufen ist – ohne Debugger auf eurer lokalen Maschine zu starten.

Wie vermeide ich flaky tests die mein Team frustrieren?

Flaky Tests sind der Tod jeder Automatisierungsstrategie. Ein Test, dem euer Team nicht vertraut, ist wertlos – selbst wenn er zu 80% verlässlich ist.

Root Causes für Flakiness systematisch eliminieren:

Timing-Probleme (häufigste Ursache):

  • Symptom: Test läuft lokal, failet in CI
  • Fix: Explizite Waits auf konkrete Zustände statt sleep()
  • Playwright-Beispiel: await page.waitForSelector('#submit-button:not([disabled])')

Externe Dependencies:

  • Symptom: Tests failen, wenn Third-Party-Service langsam ist
  • Fix: Mock externe APIs für Unit-/Integration-Tests; echte Calls nur in E2E-Smoke-Tests
  • Strategie: Nutzt Tools wie MSW oder WireMock

Test-Reihenfolge-Abhängigkeiten:

  • Symptom: Tests laufen grün einzeln, fail in Suite
  • Fix: Jeder Test muss 100% isoliert sein – eigener Setup und Teardown
  • Best Practice: Datenbank-Rollback nach jedem Test, keine shared State

Nicht-deterministische Daten:

  • Symptom: Test failet bei Zeitstempel-Checks oder zufälligen IDs
  • Fix: Fixed Test-Data oder Relative-Time-Assertions
  • Beispiel: Statt expect(date).toBe('2025-10-05')expect(date).toBeRecent()

Browser-Race-Conditions:

  • Symptom: Element-Interaktionen failen sporadisch
  • Fix: Wartet auf Sichtbarkeit UND Interaktivität
  • Cypress-Pattern: cy.get('#button').should('be.visible').and('not.be.disabled').click()

Monitoring und Alerting:
Implementiert ein Flaky-Test-Dashboard. Trackt:

  • Flakiness-Rate pro Test (<5% Target)
  • Anzahl Retries pro Pipeline-Run
  • Tests mit steigender Flakiness-Trend

Zero-Tolerance-Policy: Tests mit konstanter Flakiness >10% werden deaktiviert, nicht ignoriert. Lieber 200 verlässliche Tests als 250 Tests, von denen 50 euer Team nerven.

Team-Kultur: Jeder Entwickler, der einen flaky Test verursacht, ist verantwortlich für den Fix – nicht das QA-Team. Testability ist ein Entwickler-Concern, keine Nachbearbeitung.

Wie messe ich den Erfolg meiner QA-Strategie mit konkreten KPIs?

Ihr könnt nicht managen, was ihr nicht messt. Effektive QA-Strategien leben von datengetriebenen Entscheidungen.

Die wichtigsten KPIs für euer QA-Dashboard:

1. Deployment Frequency
Wie oft deployed ihr produktiv? Teams mit starker QA-Strategie schaffen mehrere Deployments pro Tag. Baseline messen, dann kontinuierlich steigern.

2. Lead Time for Changes
Zeit von Code-Commit bis Production-Deployment. Automatisierte Tests verkürzen diese dramatisch. Target: <24 Stunden für reguläre Features.

3. Change Failure Rate
Prozentsatz der Deployments, die Rollbacks oder Hotfixes erfordern. Excellente QA hält das unter 5%. Alles über 15% signalisiert systematische Probleme.

4. Mean Time to Recovery (MTTR)
Wie schnell detected und fixt ihr Production-Bugs? Gute Testabdeckung verkürzt MTTR, weil ihr Regressionen sofort seht. Target: <1 Stunde für kritische Issues.

5. Test-Coverage-Metriken

  • Code Coverage: >80% für kritische Pfade (aber keine Religion daraus machen)
  • Requirement Coverage: Sind alle User Stories getestet? Target: 100%
  • Risk Coverage: Sind alle High-Risk-Areas abgedeckt? Target: 100%

6. Testautomatisierungs-Effizienz

  • Automatisierungsgrad: Prozentsatz automatisierter vs. manueller Tests
  • ROI pro automatisiertem Test: Zeitersparnis / Wartungsaufwand
  • Flakiness-Rate: <5% über alle automatisierten Tests

7. Bug Escape Rate
Bugs, die trotz Tests in Production landen. Teilt nach Severity:

  • Critical Bugs in Production: Target: 0 pro Quartal
  • Major Bugs: Target: <3 pro Release
  • Minor Bugs: Akzeptabel, aber trackt den Trend

Dashboard-Visualisierung:
Nutzt Tools wie Grafana oder Datadog für Echtzeit-Monitoring. Euer QA-Dashboard sollte auf einen Blick zeigen:

  • Ist die aktuelle Release-Kandidat deployable?
  • Welche Test-Areas haben erhöhte Failure-Rates?
  • Entwickelt sich der ROI eurer Automatisierung positiv?

Business-Metriken koppeln:
Korreliert eure QA-KPIs mit Business-Metriken:

  • Customer Satisfaction Score (CSAT) vs. Bug Escape Rate
  • Revenue Impact vs. Feature-Deployment-Speed
  • Support-Ticket-Volume vs. Test Coverage

Pragmatischer Ansatz: Startet mit 3-5 KPIs, die ihr wirklich konsequent trackt. Ein perfektes Dashboard, das niemand ansieht, hilft nicht. Fünf fokussierte Metriken, die weekly im Team-Meeting besprochen werden, ändern Verhalten.

Wie balanciere ich manuelle und automatisierte Tests optimal?

Die Zukunft ist hybrid – nicht entweder-oder. Teams, die ausschließlich auf Automatisierung oder ausschließlich auf manuelle Tests setzen, verschenken Potential.

Die Testing-Pyramide richtig interpretieren:

Layer 1 – Unit Tests (70% der Tests):
Entwickler-geschrieben, extrem schnell, hochautomatisiert. Diese Tests laufen bei jedem Commit und geben sofortiges Feedback.

Layer 2 – Integration Tests (20% der Tests):
Testen Komponenten-Interaktionen. Mix aus automatisierten API-Tests und einigen manuellen Smoke-Tests für kritische Integrationen.

Layer 3 – E2E Tests (10% der Tests):
Vollständige User-Journeys. Automatisiert für Happy Paths und kritische Flows; manuell für exploratives Testing und UX-Validierung.

Wann setzt ihr Automatisierung ein:

  • Stabile, sich wiederholende Tests
  • Regressionstests nach Code-Änderungen
  • Performance- und Last-Tests
  • Cross-Browser/Cross-Device-Kompatibilität
  • Tests, die viele Datenkonstellationen durchspielen

Wann setzt ihr manuelle Tests ein:

  • Exploratives Testing neuer Features
  • Usability und User Experience Evaluation
  • Ad-hoc-Tests bei kritischen Bug-Fixes
  • Tests, die menschliche Intuition erfordern (z.B. „fühlt sich die Animation smooth an?“)
  • Komplexe Edge Cases, die selten auftreten

Das Reality-Check-Framework:

  1. Test-Frequenz: Läuft der Test >10x pro Monat? → Automatisieren
  2. Test-Stabilität: Ändert sich die Funktionalität monatlich? → Manuell
  3. Business Impact: Ist der Testbereich umsatzrelevant? → Automatisieren
  4. ROI-Berechnung: Amortisiert sich Automatisierung in <6 Monaten? → Automatisieren

Team-Dynamik optimieren:

  • Developer schreiben Unit- und Integration-Tests parallel zur Feature-Entwicklung
  • QA-Engineers bauen stabile E2E-Frameworks und reviewen Developer-Tests
  • QA-Testers fokussieren auf exploratives Testing und Edge-Case-Hunting
  • Alle gemeinsam pflegen die Test-Suites kontinuierlich

Workflow-Optimierung: Nutzt Feature-Flags für stufenweises Rollout. So könnt ihr neue Features automatisiert testen, während sie nur für interne User sichtbar sind. Manuelle Tests für finales UX-Polish, bevor ihr an 100% der User ausspielt.

Der entscheidende Vorteil für euer Projekt

Eine durchdachte QA-Strategie ist kein Kostenfaktor – sie ist ein Business Enabler. Teams mit ausgereiften Testing-Prozessen liefern:

  • 3x schnellere Release-Zyklen: Von monatlichen zu wöchentlichen oder täglichen Deployments
  • 80% weniger Production-Incidents: Bugs werden gefangen, bevor User sie sehen
  • 50% reduzierte Gesamt-QA-Kosten: Initiale Automatisierungs-Investition amortisiert sich in 6-12 Monaten
  • Verlässliche Skalierung: Euer Testaufwand wächst linear, nicht exponentiell mit eurer Codebase
  • Bessere Developer Experience: Schnelles Feedback macht Entwickler produktiver und zufriedener

Das Beste: Ihr müsst nicht alles auf einmal umsetzen. Startet mit High-Impact-Tests, messt den Erfolg, skaliert iterativ.

Direkte Unterstützung für euer Team

Ihr wollt eure QA-Strategie auf das nächste Level heben? Oder braucht ihr Unterstützung beim Aufbau robuster Test-Frameworks? Mit über 15 Jahren Expertise in Softwarequalität, Open Source und Remote Consulting helfen wir euch gerne weiter.

Kontakt: roland@nevercodealone.de

Gemeinsam entwickeln wir QA-Strategien, die messbare Ergebnisse liefern – keine theoretischen Konzepte, sondern praktische Lösungen die funktionieren.

Fazit: Von Chaos zu messbaren Erfolgen

Der Weg zu einer robusten QA-Strategie ist kein Sprint, sondern ein Marathon. Aber jeder Schritt zahlt sich aus: schnellere Releases, zufriedenere Developer, weniger Production-Fires.

Startet heute: Identifiziert eure 10 kritischsten Testfälle, berechnet den potenziellen ROI, und automatisiert den ersten. Die Zeit, die ihr dadurch gewinnt, ist der erste Schritt zu einer Software-Qualität, die euer Business voranbringt.

Never Code Alone – Gemeinsam für bessere Software-Qualität!

0 Kommentar

Tutorials und Top Posts

Gib uns Feedback

Diese Seite benutzt Cookies. Ein Akzeptieren hilft uns die Seite zu verbessern. Ok Mehr dazu