Postleitzahlen spiegeln Einkommen, Mieten, Infrastruktur und historische Trennlinien. Gerätetypen können Kaufkraft nur scheinbar repräsentieren, während Surfverhalten oft Zufall, Neugier oder Barrierefreiheit widerspiegelt. Werden solche Signale unkritisch gewichtet, entstehen festzementierte Muster. Verantwortungsvolle Modelle prüfen Sensitivität und Stabilität, dämpfen übermächtige Prädiktoren und dokumentieren, warum ein Feature existiert, wie es begrenzt wird und wann es entfernt gehört.
Wenn historische Preise bestimmte Gruppen systematisch benachteiligt haben, lernt ein Modell genau diese Ungleichheit nach. Ein sauberer Split, gezielte Rebalancings, synthetische Ergänzungen und Fairness-Aggregate über relevante Untergruppen sind Pflicht. Wichtig bleibt zudem, Domänenwissen einzubinden: Welche Segmente sind sensibel, welche Korrelationen gesellschaftlich problematisch, und wo braucht es harte Schranken, statt nachträgliche Korrekturen mit unklarem Verhalten?
Vieles wird Browser-Cache oder Cookies zugeschrieben, obwohl externe Faktoren dominieren: Kontingente, Konkurrenzpreise, Tageszeiten, Lieferkosten oder Währungsfluktuationen. Solide Tests nutzen kontrollierte Szenarien, mehrere Accounts, reproduzierbare Zeitfenster, Logging und unabhängige Verifizierung. Wer Abweichungen dokumentiert, Screenshots teilt und Kontext sammelt, trennt Anekdoten von Mustern und verwandelt diffuse Sorge in überprüfbare Evidenz, die produktiv diskutiert werden kann.

Artikel 22 DSGVO adressiert automatisierte Entscheidungen mit rechtlicher oder ähnlich erheblicher Wirkung. Preise können erheblich sein, wenn Zugangsmöglichkeiten faktisch eingeschränkt werden. Transparenz, Rechtsgrundlage, Zweckbindung, Datenminimierung und verständliche Erläuterungen sind entscheidend. Betroffene sollten Widerspruchsrechte leicht ausüben können, Kontaktstellen finden und nachvollziehen, welche Datenkategorien genutzt werden, welche Schutzmaßnahmen greifen und wie unabhängige Prüfungen organisiert sind.

Die Omnibus-Richtlinie verpflichtet Händler, klar zu informieren, wenn Preise auf automatisierter Entscheidungsfindung oder individualisierten Signalen beruhen. Das schafft Bewusstsein, ersetzt jedoch keine echte Fairness-Prüfung. Gute Praxis kombiniert präzise Hinweise, Beispiele, leicht verständliche FAQ, Kontakthilfen und Versionsverläufe der Preislogik, damit Kundinnen und Kunden nicht nur Bescheid wissen, sondern sinnvolle, selbstbestimmte Handlungsoptionen erhalten.

Das Allgemeine Gleichbehandlungsgesetz schützt vor Benachteiligung aufgrund sensibler Merkmale im Massengeschäft. Auch wenn Algorithmen solche Merkmale nicht direkt sehen, können Stellvertreter wie Wohnort oder Nutzungszeit gefährliche Nähe erzeugen. Unternehmen sollten risikoreiche Features streng prüfen, Proxy-Effekte messen, Abbruchkriterien definieren und klare Eskalationswege einrichten, damit Hinweise auf unzulässige Muster zügig, transparent und wirksam adressiert werden.
All Rights Reserved.