Datenschutz bei Ad-Tech und Big-Data Tools, schon lange ein Fremdwort – Von personalisierter Werbung zur staatlichen Verfolgung

Von personalisierter Werbung zur staatlichen Verfolgung

Wenn das Geschäftsmodell zur Gefahr wird

„Datenschutz bei Ad-Tech und Big-Data Tools, schon lange ein Fremdwort“ – dieser Satz beschreibt nicht nur eine provokative These, sondern eine Realität, die sich immer klarer abzeichnet: Die Werkzeuge, die ursprünglich zur Optimierung digitaler Werbung entwickelt wurden, sind längst zu mächtigen Instrumenten geworden, deren Einsatz über das kommerzielle Umfeld hinausreicht – bis in die staatliche Überwachung.

Kern dieses Wandels ist die enorme Datenmacht privater Konzerne, die ihre Geschäftsmodelle auf massives Tracking, prädiktive Analytik und KI-gestützte Vorhersagesysteme gestützt haben – und mit denen inzwischen nicht nur Nutzerverhalten vermessen, sondern auch soziale, politische oder sogar juristische Entscheidungen beeinflusst werden können. (Verfassungsblog)

Der vorliegende Beitrag erläutert, wie sich Ad-Tech und Big Data zu einem Risiko für Datenschutz und Grundrechte entwickelt haben, warum der Datenschutz in diesem Bereich oft versagt, und welche Gefahren daraus für die Rechtsstaatlichkeit und demokratische Gesellschaften entstehen.


1. Ad-Tech und Big Data: Mehr als nur personalisierte Werbung

1.1 Definition und Geschäftsmodell

„AdTech“ – kurz für Advertising Technology – beschreibt die Summe von Technologien und Plattformen, mit denen digitale Werbung automatisiert ausgespielt, gemessen und optimiert wird. Was als Technik zur Auslieferung relevanter Werbung begann, ist heute ein datenintensives Ökosystem, das auf der systematischen Sammlung und Analyse personenbezogener Daten basiert.

Diese Daten stammen aus unterschiedlichsten Quellen:

  • Web-Tracking (Cookies, Pixel)
  • App-Nutzung
  • Standortdaten
  • Interaktionen in sozialen Netzwerken
  • Verhaltensbasierte Profile

Durch prädiktive Algorithmen werden aus diesen Rohdaten umfangreiche Profile erstellt, die scheinbar weit über das hinausgehen, was Nutzer bewusst preisgegeben haben. So lassen sich psychologische Merkmale, Interessen, demografische Zuordnungen und sogar Krankheitsrisiken extrapolieren – und gezielt für Werbeausspielung nutzen.

1.2 Vom werblichen zu systemischen Einsatz

Was ursprünglich für personalisierte Werbung gedacht war, kann heute für weit mehr verwendet werden. Die US-Behörde Immigration and Customs Enforcement (ICE) hat angekündigt, Ad-Tech- und Big-Data-Tools privater Unternehmen einsetzen zu wollen, um vermeintlich illegal aufhältige Personen zu identifizieren und zu verfolgen.

Das zeigt: Die Technologie ist längst nicht mehr nur ein Mittel des Marketings – sie kann in staatliche Machtinstrumente übergehen, die tief in die informationelle Privatsphäre und Selbstbestimmung eingreifen.


2. Datenschutz bei Ad-Tech und Big-Data Tools, schon lange ein Fremdwort – Warum?

2.1 Zweckbindung unterlaufen

Ein zentrales Prinzip des Datenschutzrechts – sowohl in der EU-DSGVO als auch in internationalen Datenschutznormen – ist die Zweckbindung: Daten dürfen nur für den Zweck verarbeitet werden, der bei der Erhebung angegeben wurde. Doch gerade im Reich von Ad-Tech und Big Data wird dieses Prinzip systematisch unterlaufen: Daten, die für eine Funktion erhoben wurden (z. B. zur Auslieferung personalisierter Werbung), werden später sekundär genutzt oder kommerziell weiterverwertet, ohne dass Nutzer hiervon ausreichend Kenntnis haben oder zuzustimmen.

Das führt zu einem grundlegenden Problem: Die technologischen Infrastrukturen, die heute über die digitale Identität einer Person entscheiden, operieren jenseits der ursprünglichen Zweckbindung – und damit jenseits des eigentlich geltenden Datenschutzrechts.

2.2 Datenaggregation und Vorhersagemacht

Die prädiktiven Algorithmen der Ad-Tech-Industrie sind darauf ausgelegt, mit enormen Datenmengen Muster, Tendenzen und sogar Persönlichkeitsmerkmale zu erkennen. Dazu werden Daten nicht nur gesammelt, sondern verknüpft, kombiniert und analysiert – ein Prozess, der weit über das hinausgeht, was Nutzer bewusst preisgeben.

Das erzeugt eine Form der „informationellen Vorhersagemacht“. Ein Algorithmus kann anhand vergangener Aktivitäten vorhersagen, welche Entscheidungen, Interessen oder sogar Eigenschaften eine Person haben könnte – selbst wenn sie diese Informationen nie bewusst mitgeteilt hat.


3. Der Missbrauch privater Dateninstrumente durch staatliche Stellen

3.1 Der Fall ICE als Warnsignal

Die Ankündigung der US Immigration and Customs Enforcement Agency (ICE), Tools der privaten Werbe- und Datenindustrie zu nutzen, markiert eine neue Stufe der Zweckentfremdung dieser Technologie:
Statt zur Optimierung von Werbung oder Produktempfehlungen sollen Modelle zur Vorhersage von personenbezogenen Merkmalen zur Identifikation, Überwachung und potenziellen Verfolgung von Menschen dienen, die sich angeblich ohne gültige Aufenthaltsrechte im Land befinden.

Das zeigt in drastischer Weise, wie ein ursprünglich kommerzielles Tool für staatliche Kontroll- und Zwangsmaßnahmen missbraucht werden kann – eine Entwicklung, die weitreichende Implikationen für Freiheitsrechte, Datenschutz und Rechtsstaatlichkeit hat.

3.2 Erosion rechtsstaatlicher Garantien

Wenn private Daten und prädiktive Modelle in staatliche Entscheidungsprozesse einfließen, entstehen neue Gefahren:

  • Fehlende Transparenz darüber, wie Entscheidungen getroffen werden
  • Intransparente Datensammlungen, die Nutzer nie wirklich verstanden oder akzeptiert haben
  • Algorithmische Vorhersagen, die über Leben und Freiheit Einzelner mitentscheiden könnten

Diese Verschmelzung von privater Datenmacht und staatlicher Autorität birgt ein hohes Potenzial für Missbrauch – gerade dort, wo Rechenschaftspflichten, gerichtliche Kontrolle und die informierte Zustimmung der Betroffenen fehlen.


4. Rechtliche Rahmenbedingungen: Schwache Schutzmechanismen gegen starke Datenmacht

4.1 Zweckbindung im Datenschutzrecht

In der europäischen DSGVO ist die Zweckbindung ein zentrales Element: Daten dürfen nur für den festgelegten Zweck verarbeitet werden und müssen anschließend gelöscht oder anonymisiert werden, wenn sie nicht mehr benötigt werden. Doch in der Praxis zeigt sich oft ein Mangel an Durchsetzung dieser Regeln, insbesondere wenn kommerzielle Interessen und Datenschhadowsysteme ins Spiel kommen.

Die EU hat zwar mit der DSGVO und ergänzenden Regulierungen wie dem Transparenz- und Targeting-Verbot politischer Werbung (TTPW-VO) strengere Regeln im Bereich personalisierter Werbung eingeführt, dennoch bleibt die Durchsetzung und Kontrolle ein Problemfeld.

4.2 „Function Creep“ und Sekundärnutzung

Ein weiterer zentraler rechtlicher Kritikpunkt ist der sogenannte Function Creep: Daten, die ursprünglich für einen Zweck erhoben wurden, werden für andere, nicht vorhergesehene Zwecke genutzt – zum Beispiel für Behördenanalysen, predictive policing oder staatliche Risikoanalysen.

Diese Praxis ist nicht nur eine Herausforderung für die DSGVO, sondern stellt das gesamte Konzept der Zweckbindung infrage und macht deutlich, wie schwach die Kontrollmechanismen oft tatsächlich sind.


5. Gesellschaftliche und demokratische Risiken von Ad-Tech und Big Data

5.1 Profilbildung und Manipulation

Durch die umfangreiche Sammlung und Nutzung personenbezogener Daten können sehr detaillierte Profile von Nutzer:innen erstellt werden – sogenannte „Datenschatten“, die weit über bewusst preisgegebene Informationen hinausgehen. Solche Profile eröffnen Möglichkeiten zur gezielten Beeinflussung von Meinungen, Verhaltensweisen und politischen Präferenzen.

Zudem zeigen Studien, dass schon nicht-personenbezogene Daten (non-PII) in Kombination enorme Rückschlüsse auf identifizierbare Personen zulassen können – ein Effekt, der sich etwa im Nanotargeting zeigt.

5.2 Demokratie und Grundrechte

Die gezielte Aussteuerung von politischen Inhalten oder Werbung kann die öffentliche Meinung beeinflussen und den Wettbewerb verzerren. Der Chaos Computer Club (CCC) und andere Organisationen warnen davor, dass personalisierte Werbung nicht nur ein Datenschutzthema ist, sondern auch eine demokratische Herausforderung darstellt.


6. Warum „Datenschutz bei Ad-Tech und Big-Data Tools“ ?

6.1 Datenschutzrecht als Freiheitsgarant

Datenschutz schützt nicht nur Daten – er schützt die informationelle Selbstbestimmung, die Autonomie des Individuums und die demokratische Struktur unserer Gesellschaft. Ohne wirksamen Datenschutz wird die Macht zur Informationsverarbeitung zu einer Macht über Menschen.

Wenn Unternehmen massive Datensätze sammeln, verknüpfen und auswerten können, ohne dass Betroffene Kontrolle oder Transparenz haben, dann versetzt das Geschäftsmodelle adtech-basierter Plattformen in eine Machtposition, die nur schwer demokratisch legitimierbar ist.

6.2 Zweckbindung, Kontrolle und Transparenz als Schutzmechanismen

Um verwertbare Datenschutzstandards zu gewährleisten, muss der Zweckbindungsgrundsatz konsequent umgesetzt und kontrolliert werden – nicht nur formal, sondern auch technisch und organisatorisch. Nur so kann verhindert werden, dass Daten für weitreichende oder grundrechtsgefährdende Zwecke genutzt werden, ohne dass die Betroffenen darüber informiert sind oder dieser Nutzung zugestimmt haben.


7. Lösungsansätze: Wie kann Datenschutz wirklich wirksam werden?

7.1 Stärkere Rechtsdurchsetzung

Die DSGVO bietet in ihrer theoretischen Struktur starke Instrumente – doch ohne konsequente Durchsetzung durch die Datenschutzbehörden bleiben diese oft wirkungslos. Hier braucht es mehr Ressourcen, klare Sanktionen und transparente Kontrollmechanismen.

7.2 Zweckbindung auch für Modelle und Algorithmen

Ein innovativer Ansatz wäre, den Zweckbindungsgrundsatz nicht nur auf Daten, sondern auch auf die KI-Modelle und Vorhersagesysteme selbst anzuwenden. Das würde verhindern, dass einmal trainierte Algorithmen in völlig anderen Kontexten genutzt werden als ursprünglich vorgesehen.

7.3 Transparenz für Nutzer und Betroffene

Nutzer:innen müssen wissen, welche Daten gesammelt werden, wie sie verwendet werden und welche Rechte sie haben – inklusive des Rechts auf Widerspruch, Auskunft und Löschung. Das erfordert nicht nur rechtliche Vorgaben, sondern auch verständliche Informationspflichten seitens der Diensteanbieter.


8. Fazit: Datenschutz bei Ad-Tech und Big-Data Tools, schon lange ein Fremdwort – aber nicht alternativlos

Die Realität zeigt: Datenschutz bei Ad-Tech und Big-Data Tools ist häufig nur ein Lippenbekenntnis. Nutzerdaten werden systematisch gesammelt, verknüpft und für Zwecke genutzt, die weit über die ursprüngliche Zustimmung hinausgehen. Diese Praxis untergräbt nicht nur den Datenschutz, sondern gefährdet informationelle Selbstbestimmung, demokratische Prozesse und rechtsstaatliche Prinzipien.

Doch es gibt Wege, dem entgegenzuwirken:

Strengere Rechtsdurchsetzung
Zweckbindung nicht nur auf Daten, sondern auch auf Modelle
Transparenz und Kontrolle für Betroffene

Nur wenn diese Mechanismen konsequent umgesetzt werden, kann Datenschutz bei Ad-Tech und Big-Data Tools wieder mehr sein als ein Fremdwort – und zu einem wirksamen Schutz der Freiheitsrechte in der digitalen Gesellschaft werden.