Künstliche Intelligenz und Datenschutz

Dieser Text erschien ursprünglich in Ausgabe 01/2026 vom Fundraising-Magazin.

Wie sieht eine sichere Lösung für gemeinützige Organisationen aus?

Die Frage ist nicht, ob wir digitalen Dienstleistern blind vertrauen, sondern wie wir durch technische und  organisatorische Maßnahmen Kontrolle über Künstliche Intelligenz behalten. Datenminimierung, Verschlüsselung und lokale Lösungen wo möglich – das ist angewandtes Vertrauen.

Von Maik Meid

Ersetzt Künstliche Intelligenz (KI) bald Fundraiserinnen und Fundraiser? Diese Frage kursiert derzeit auf LinkedIn und zeigt, wie sehr wir das Thema verfehlen. Ich bin mir sehr sicher, dies wird nicht passieren. Im Gegenteil: Je  mehr im Alltag mit KI gearbeitet wird, desto bedeutsamer wird der Faktor Mensch in spendensammelnden Organisationen. Denn Menschen spenden immer noch und auch in Zukunft für und durch Menschen. Es gibt  Gründe, warum Methoden mit direkter menschlicher Interaktion am besten funktionieren und Community-Fundraising so erfolgreich ist.

Vertrauen als Kernkompetenz

Das eigentliche Problem ist nicht KI-Nutzung, sondern ihre unreflektierte Übernahme, auch im Fundraising. In Vereinen ist KI fest mit Datenschutz und Ethik verbunden, noch weit vor Effizienzsteigerung oder Arbeitsentlastung. So positiv dies ist, so oft scheinen die Diskussionen um vermeintlich leichtere Themen der Vorwand zu sein, sich (noch) nicht tiefer mit strategischen und technischen Fragen zu befassen. Da-
tenschutz und Ethik scheinen oft als Stopper der Weiterentwicklung zu stehen. Ganz so einfach ist es nicht. Vertrauen bleibt die Kernkompetenz im Fundraising, sowohl gegenüber Spendenden als auch bei der Auswahl von KI-Tools.

Kein kompletter Datenschutz möglich

Daher dieser Appell: Wählen Sie bei der Einführung von KI einen pragmatisch-operativen Ansatz! Die  unangenehme Wahrheit: Perfektion gibt es nicht. Organisationen müssen entscheiden, welches Risiko sie eingehen wollen. Wer bei KI 100 Prozent Datenschutz fordert, aber gleichzeitig Meta- und Google-Dienste nutzt, hat diese Entscheidung längst getroffen – nur unreflektiert.

Zur Ethik gehört auch Verantwortung gegen über den eigenen Mitarbeitenden. Sie brauchen keine Verbote, sondern Orientierung: Welche Tools dürfen wir nutzen? Welche Daten sind tabu und warum? Wer KI-Systeme ohne Schulung einführt, riskiert nicht nur Datenpannen, sondern auch Vertrauensverlust im Team.

Eine These als Beispiel: Überall dort, wo heute bereits Stockfotos eingesetzt werden, können auch künstlich generierte Medien verwendet werden. Leider bieten viele Stockarchive mittlerweile eine hohe Anzahl KI-generierter Medien, die als „Poverty Porn“ bezeichnet werden. Es sind realitätsverzerrende, stereotypische und stark emotiona lisierende Darstellungen – etwa aus Katastrophengebieten. Aus Effizienz- und Kostengründen eigentlich ideal: keine Fotorechte, keine Lizenzen, keine Fotografen im Feld. Aber sollen durch solche Realitätsverzerrung Spenderinnen und Spender gewonnen werden? Hier trifft Praxis auf die Grundkompetenzen der Organisation.

Guidelines an die Orga anpassen

Es geht nicht um die technische Kennzeichnung als „künstlich generiert“, sondern darum, ob die Organisation überhaupt auf diese Weise kommunizieren möchte. Der Aufbau einer KI-Ethik ist vergleichbar mit einer Spendenannahmepraxis. Idealerweise wird sie vor dem Einsatz formuliert. Solche Guidelines müssen nicht neu erfunden werden – es gibt genügend öffentlich zugängliche Vorlagen. Kopiert werden sollten sie aber nicht, denn sie müssen passen wie ein Maßanzug. Wichtig: Diese Guidelines sind nur Theorie. Entscheidend ist, wie sie tatsächlich ausgelegt und umgesetzt werden. KI dient als Unterstützung, nicht als Ersatz. Die finale Entscheidung liegt stets
beim Menschen.

Verständnis für den Umgang mit Daten

Alle größeren Werkzeuge im Bereich generativer KI besitzen Einstellungen, in denen sensible Daten nicht übertragen werden. Das ist sinnvoll, es bleibt aber unklar, ob man diesen Funktionen vertrauen kann. Es ist unrealistisch, anzunehmen, dass ein komplett datenschutzkonformer Einsatz möglich ist. Das ist aber auch unnötig. Es sollte primär darum gehen, ein Verständnis dafür zu entwickeln, welche Daten in eine generative KI eingegeben werden können und wann die Eingabe kritisch wird. Dieser Privacy by Design-Gedanke muss durch Lust am Thema, Mut und Neugier in den Organisationen ankommen – nicht durch Angst vor Fehlern.

Transparenz, wo nötig

Der KI-Einsatz darf offengelegt werden, wo Transparenz notwendig ist. Wenn möglich, sollten beim Einsatz personenbezogener Daten lokale Techniken vorgezogen oderMaskierungstechniken eingesetzt werden.

KI-Ethik sollte stets die Grenze zwischen Überzeugung und Manipulation im Blick behalten. Der Respekt vor der Entscheidungsfreiheit der Spendenden muss oberstes Gebot bleiben. Ein sensibler Umgang mit KI funktioniert nur, wenn Vor- und Nachteile erkannt und in die Kultur der Organisation eingebaut werden. Die Fundraising-Branche steht am Scheideweg: Entweder wir gestalten den KI-Einsatz aktiv und reflektiert, oder wir werden von der Entwicklung überrollt. Einen dritten Weg gibt es nicht. Die Zeit der Ausreden ist vorbei.

Drei konkrete Schritte für den Einstieg

1. Klären Sie intern, welche Datentypen in welche KI-Tools dürfen. Erstellen Sie zunächst eine einfache Ampel-Liste.
2. Nutzen Sie die Privacy-Einstellungen der KI-Tools konsequent.
3. Schulen Sie Ihr Team in Datensensibilität, nicht durch Verbote, sondern durch Verständnis.