Dieser Beitrag erschien als erstes in den „Roten Seiten“ der Zeitschrift „Stiftung & Sponsoring“, Ausgabe 03 im Juni 2024. Alle Rechte vorbehalten.
1. Einleitung
„Technologische Trends werden in der Regel in ihrer kurzfristigen Auswirkung überschätzt und langfristig unterschätzt.“ Diese Aussage des amerikanischen Organisationsberaters Roy Amara kann im Prinzip auf sämtliche durch Technik erzeugte Entwicklungen der vergangenen Jahre projiziert werden. Die Erfindung des Smartphones im Jahr 2007 wurde gehypt und es wurden viele Aussagen getroffen, welche Veränderungen z. B. beim Medienkonsum zu erwarten sind.
Welche grundsätzlichen gesellschaftlichen und soziologischen Veränderungen inklusive Nebenwirkungen das Smartphone jedoch weltweit auslösen würde, konnte zu diesem Zeitpunkt niemand absehen. Bereits 2017 hatte sich vieles stärker gewandelt als zuvor gedacht. Heute lässt sich gut von einer die Einführung begleitenden Naivität sprechen. Entscheidend bei der Einschätzung ist, ob eine neue Technik Probleme löst, die real existieren. Ein Gegenbeispiel ist die 2014 medial stark gehypte Blockchain-Technologie rund um Kryptowährungen und NFT. Diese ist zwar technisch interessant, bietet aber bis heute nahezu keine Lösungen für existierende Probleme.
Bei der Entwicklung von Technik und der Akzeptanz der Künstlichen Intelligenz (KI) wissen wir aufgrund vorliegender Anwendungsbeispiele bereits jetzt, dass dies anders sein wird. Es handelt sich um eine disruptive Entwicklung, die vor keiner gesellschaftlichen Ebene halt machen wird.2 Denn sie löst Probleme und wird Auswirkungen auf unser Zusammenleben haben, auf unsere Art zu arbeiten und wie wir in Zukunft Wirtschaft und Gemeinnützigkeit betreiben werden. Viele Fachleute sprechen hier von einer exponentiellen Entwicklungskurve, wobei die erkennbare Steigung noch nicht erreicht ist – auch wenn sie subjektiv gefühlt bereits vorhanden ist. Auch wenn viele Auswirkungen und Entwicklungen aktuell noch nicht absehbar sind, sollten sich gemeinnützige Organisationen, Vereine und Stiftungen mit dieser Entwicklung spätestens jetzt beschäftigen.
Der Fokus dieser Ausführungen liegt dabei aktuell nicht auf der Frage – und der oft in Organisationen vorhandenen Skepsis –, wie generative KI die Welt und Gesellschaft verändern wird. Er liegt eher in der Frage, wie KI bereits heute im Alltag einer Organisation verankert sein und persönliche Arbeitsschritte und Prozesse beeinflussen und im Sinne der Mission und Vision der Organisation verbessern kann. All dies in Verbindung mit dem Aufbau von Akzeptanz bei den vor Ort arbeitenden Menschen.
Vorweg erwähnt werden muss, dass die Halbwertszeit von Informationen zum Thema KI sehr schnell abnimmt und dass sich Annahmen und Fakten täglich ändern können. Ein gedruckter Artikel zu KI und gemeinnützigen Organisationen sollte daher bei der Lektüre kritisch betrachtet und das Datum des Redaktionsschlusses und der Veröffentlichung beachtet werden. Kurz vor Redaktionsschluss brachte der Anbieter OpenAI für sein Modell ChatGPT eine neue Version 4o heraus. Nach ersten Einblicken wird auch diese Version erneut eine enorme Weiterentwicklung darstellen und die in diesem Text gezeigten Beispiele qualitativ überholen.
Der Einsatz von KI in der Projektund Feldarbeit von gemeinnützigen Organisationen, im Bereich der wissenschaftlichen Forschung, der Prävention, Logistik oder wirtschaftlichen Zusammenarbeit wird in diesem Beitrag nicht berücksichtigt. Der Schwerpunkt liegt auf den Arbeitsbereichen Management, Öffentlichkeitsarbeit und Fundraising in Bezug auf generative KI und nicht auf prädiktiver KI.
2. KI in gemeinnützigen Organisationen
2.1 Warum ist jetzt die Zeit reif?
Die ersten Ideen zur Entwicklung einer KI sind alt. Bereits in den 1930er-Jahren hat der Wissenschaftler Alan Turing die ersten informatorischen Theorien veröffentlicht, die später als Grundlagen zur Entwicklung von KI galten. Der nach ihm benannte Turing-Test beschrieb bereits 1950 das Vorgehen, ob und wie eine Maschine ähnlich einem Menschen agieren und kommunizieren kann. Der Test gilt bis heute als bedeutende Grundlage für das Verständnis von KI.
Warum also beschäftigen sich Organisationen nicht bereits seit Jahrzehnten mit dieser Thematik? Man muss erwähnen, dass größere Hilfsorganisationen mit großen Datenbeständen dies bereits seit Jahren tun und sich mit Machine Learning5 und der damit verbundenen Optimierung der Ansprache von Spendenden auseinandersetzen. Auch Datendienstleister können seit Jahren auf der Basis von großen Informationsbeständen Scoring-Modelle für Fundraising-Daten und -kampagnen entwickeln. Es fehlten bislang aber Anwendungen und Organisationen für ein breites Publikum sowie Akzeptanz und Einsatzbereitschaft.
Erst in den vergangenen Jahren haben sich Modelle und Anwendungen der generativen KI entwickelt, die für Einzelanwendende alltagstauglich geworden sind. Das von der US-Firma OpenAI mit erheblichen Finanzmitteln von Microsoft entwickelte Tool ChatGPT wurde im November 2022 veröffentlicht und ist das bekannteste Beispiel für generative KI. Erst mit der zu diesem Zeitpunkt sich abzeichnenden Revolution in der Beantwortung auch von komplexen Aufgaben in menschenähnlicher Sprache wuchs das allgemeine Interesse. Zum Zeitpunkt der Erstellung dieses Textes sind die beruf lichen sozialen Netzwerke gefüllt mit KI-Themen. Es vergeht kein Tag ohne Veränderungen und Neuigkeiten im Bereich der KI-Anwendung. Neue Anwendungen werden entwickelt, während bestehende Anwendungen innovative Aktualisierungen erfahren. Der Kenntnisstand von vor wenigen Wochen ist zum Teil bereits überholt. Internationale Konzerne wie Google und Microsoft investieren Milliarden von Euro in den weiteren Ausbau von Strukturen. Der Run auf die Technologien und Serverkapazitäten scheint schier grenzenlos.
Kurze und schnelle Lösungen werden angepriesen und KI-Beratende bieten schnell gestrickte Dienstleistungen gegen hohe Honorare an. Von der allgemeinen Faszination über weltrettende Utopien (und auch angeblich weltzerstörenden Dystopien8) ist alles in der beruf lichen Welt vertreten, verbunden mit viel Unsicherheit und Unwissen. Viele wichtige Fragen wie die nach Ethik, Urheberrecht und Datenschutz bleiben weitgehend offen. Alles wirkt aktuell ein wenig wie im Wilden Westen.
Dies liegt daran, dass es noch aktuell auf Organisationsebene keine breiten Erfahrungen in der Anwendung des Themas generative KI über ChatGPT hinaus gibt, die Mehrheit aber feststellt, dass sich hier etwas gewaltig verändert. Entscheidend ist nun, den Überblick nicht zu verlieren und sich den grundlegenden Fragen zu stellen, die nicht mehr weggehen werden.
Der Ansatz dieses Beitrags ist: Frage nicht (nur), was KI alles (auf der Welt, bei mir, in der Gesellschaft) verändern wird. Dies geschieht ohnehin und wir kriegen das mit. Frage daher, wie KI dir aktuell im beruflichen (und auch privaten) Alltag ganz konkret weiterhelfen kann.
2.2 KI als Teil von Digitalisierung und Qualitätsmanagement
Gemeinnützige Organisationen können sich der in Kapitel 2.1 beschriebenen Entwicklung nicht entziehen. Während sich vor ca. 15 Jahren das Thema Social Media medial und gesellschaftlich entwickelte, hinkten Vereine und Stiftungen hinterher und überlegen teilweise bis heute, ob sie dort präsent sein müssen. Beim Thema KI hingegen wird es vermutlich schneller gehen. Wer sich nicht rechtzeitig mit Strategien beschäftigt, wird womöglich Schwierigkeiten bekommen, Schritt zu halten, wenn sich das Arbeitsumfeld verändert und das Arbeitstempo massiv beschleunigt.
Der Aufbau von inhaltlichen, strategischen und technischen Strukturen und Strategien rund um KI fällt in den Bereich der Digitalisierung. Organisationen, die hier bereits ihre Hausarbeiten erledigt haben, sind im Vorteil. Ebenso Organisationen, die Qualitätsmanagement nutzen, um Prozesse darzustellen und diese optimieren. Sie können – zumindest in der Theorie – sehr schnell ihre Arbeitsbereiche auf KI-Optimierungsmöglichkeiten hin untersuchen.
Organisationen, die in der Digitalisierung noch nicht weit gekommen sind, bekommen mit der KI nun ein weiteres Stück Arbeit hinzu. Hier wiederum kann KI aber als Beschleuniger wirken. Wer die digitale Transformation bislang vernachlässigt hat, kann sich an der Implementierung von KI durch das Thema arbeiten. Weniger Arbeit wird dies zwar nicht sein, aber dafür im Sinne der kontinuierlichen Verbesserung.
2.3 Warum müssen sich gemeinnützige Organisationen mit generativer KI auseinandersetzen?
Die Gründe, sich als gemeinnützige Organisation mit KI auseinanderzusetzen, sind vielfältig. Dabei ist der gesellschaftliche und soziologische Druck eventuell nur ein Element. Viele Akteurinnen und Akteure aus Vereinen und Stiftungen merken, in welchem Maße das Thema in der beruf lichen Welt angekommen ist und dass Lösungswege für offene Fragen gesucht werden. Diese umfassen z. B. die Kompensation des Fachkräftemangels durch KI, über Effizienzsteigerung bis zur Fehlervermeidung. Es gibt dabei viele Ideen und denkbare Optionen für Vereine. Die ersten Erfahrungen in Organisationen zeigen auch: sobald Menschen erst einmal begonnen haben, Werkzeuge auszuprobieren, entstehen schnell Ideen für den weiteren Einsatz und die Steigerung der persönlichen Effektivität.
Werkzeuge der generativen KI sorgen dafür, dass quasi en-passant Disziplinen der Arbeit von Organisationen in Management, Öffentlichkeitsarbeit und Fundraising angepasst und Schwerpunkte verlagert werden. So werden Arbeiten mit und an Texten stark vereinfacht. Transkriptionen, Übersetzungen oder redaktionelle Planungen können (teil-)automatisiert werden. Umfangreiches Datenmaterial kann schnell ausgewertet und zusammengefasst werden. Schnell zur Verfügung stehende Transkriptionen erleichtern das Protokollieren von Arbeitsgruppen. Bildsprache für kommende Kampagnen kann anhand automatisierter Bilder ausprobiert und getestet werden. Social-Media-Posts und Newsletter-Beiträge können vorformuliert werden. Kalender können – so dies der persönlichen Arbeitsweise entspricht – automatisch Termine an freie Stellen schieben und Zeiten blocken.
Insgesamt sorgt der Einsatz von KI nach einer sehr individuellen Einarbeitungsphase bei den Mitarbeitenden für Zeitersparnis und somit mittelbis langfristig zu Einsparungen bei den Ressourcen und zur Steigerung der Effektivität.
Beispiele für Anwendungen in den Organisationseinheiten
Management und Personal
- Finanzmonitoring
- Datenanalysen
- Risiko-Analysen
- AutomatisierteVerbuchungen
- Überprüfungen von Strategien
- AutomatisierteEinsatzplanung
- Kompetenzmanagement
- Bewerbungsscreening
- Stellenausschreibungenoptimieren
- Wissensmanagement
- Optimierung von Arbeitsprozessen und Workflows
Öffentlichkeitsarbeit
- Automatisierung von Kommunikation
- Medienüberwachung
- Wettbewerbsanalyse
- Erstellung von Redaktionsplänen inkl. Themenideen
- Erstellung von Drehbüchern
- Erstellung von Inhalten
- Suchmaschinenoptimierung
- Erstellung von digitalen Anzeigenkampagnen
- Entwicklung von Personas und simulierte Gespräche mit diesen
- Website-Analyse
- Texte in Leichte Sprache bringen
- Übersetzungen
- Alt-Texte und SEO-Angabenen twickeln
- Unterstützung bei der Newsletter-Erstellung
- Transkriptionen und Untertitel
- Protokolle schreiben lassen
Fundraising
- Fundraising-Management inkl. Scoring
- CRM-Analysen
- Fördermittelakquise und Optimierung der Antragsstellung
- Matching von Freiwilligen
- Unterstützung bei der Ansprache von Spendenden
- Kampagnen-Entwicklung und Ideen für Aktionen finden
- Materialentwicklung
- Großspenden-Recherche
- Ideen für Sponsoring entwickeln
- Konversationen verbessern
- Sponsoring-Ideen finden und Recherche von Unternehmen
Allgemeine Verwaltung
- Kommunikationsautomatisierung
- Erstellen von Präsentationen
- Tabellenanalysen
- Reiseplanungen
2.4 Voraussetzungen für den Einsatz von KI
Mindestens drei Dinge müssen stimmen, wenn sich Organisationen der Thematik nähern möchten: das Mindset, die Prozesse und die Technik. Aus dem Fundraising ist der Begriff der Institutional Readiness bekannt.Dieser beschreibt, dass innerhalb der Organisation alle beteiligten Menschen vom Vorhaben überzeugt sein müssen, dieses kennen und den beschriebenen Weg mitgehen. Für den Einsatz von generativer KI ist dies die perfekte Blaupause. Daher kann unterstellt werden, dass es dynamische Organisationen mit allgemeinem Anpassungs- und Veränderungswillen einfacher haben werden als weniger agile Vereine und Stiftungen.
Mindset bezieht sich sowohl auf die verantwortlichen Leitungen als auch die Mitarbeitenden. Alle müssen sich aus eigener Überzeugung heraus verändern wollen! Wobei der Wille nicht vorgeschrieben werden kann, sondern in kleinen Impulsen an die Mitarbeitenden herangetragen werden sollte. KI in der Organisation bedeutet, ständig neu zu lernen, auszuprobieren und sich in dem aktuell noch sehr dynamischen Geschehen stetig anzupassen. Die Benennung einer „KI-Beauftragten“ wird nicht ausreichen, handelt es sich ja nicht bloß um eine Querschnittsaufgabe, sondern um eine Generalüberholung der gesamten Prozesse. Eine für das Thema KI beauftragte Person ist dennoch der erste richtige Ansatz, um den Umbau und die Anpassungen, z.B. in der Form des Projektmanagements, zu koordinieren.
Auf Prozessorientierung wurde bereits kurz eingegangen. Existiert ein funktionierendes und gelebtes Qualitätsmanagementsystem (QM-System), so kann über die vorhandenen Prozesse das aktuelle Potenzial ermittelt werden und Stück für Stück in kleinen Schritten Versuche der KI-Einführung in diese Prozesse geübt werden. Existiert kein QM-System, so steht zunächst der Check der Prozesse der Mitarbeitenden an. In einem ersten Schritt sollten diese für sich untersuchen, welche Arbeiten konkret viel Zeit einnehmen, eher nervig oder unangenehm sind und in der Ausführung optimierbar sind. „Hoheitliche“ oder sensible Prozesse sollten erst nach einer gewissen Erfahrung mit KI-Werkzeugen angegangen werden. Der Erfolg bei der Umsetzung von kleinen Prozessen schafft Akzeptanz und Interesse, diesen Effekt bei anderen Aufgaben zu wiederholen.
Technik ist in der Einführungsphase keine große Herausforderung. Die meisten der derzeit im Einsatz befindlichen Werkzeuge sind über Apps oder den Browser nutzbar und in Spezialsoftware integriert. Die Rechenkapazitäten werden dadurch ausgelagert. Lediglich Transkriptionen und lokale Bildgeneratoren können lokal und damit datenschutzkonform entstehen, wo klassische kleine Office-Rechner an die Leistungsgrenze kommen können. Auch über handelsübliche Smartphones lässt sich aktuell bereits eine Menge umsetzen.
Die durch die erwähnte Auslagerung der Rechenleistung bei externen Anbietern entstehenden Kosten werden i. d. R. durch monatliche Gebühren abgerechnet. Zum aktuellen Zeitpunkt decken diese nach Angaben der Betreibenden zum Teil nur die eigenen Kosten ab, um die Akzeptanz zu steigern. Eine Verstetigung des Marktes in Verbindung mit technologischer Entwicklung sowie politische Prozesse werden hier in Zukunft an der Preisschraube drehen.
Microsoft ist derzeit dabei, den persönlichen Assistenten Copilot flächendeckend auf die Rechner der Office-Nutzenden zu bringen und sogar die neuen Tastaturen mit einer weiteren Taste zur Aktivierung dieses Copilots auszustatten. Die Umsetzung kann einen weiteren Schritt in Richtung Akzeptanz der neuen Technologie bedeuten. Aktuell jedoch sind die qualitativen Ergebnisse dieses Copilots noch gewöhnungsbedürftig, was einen gegenteiligen Effekt auslösen könnte. Funktionieren neue Tools in der Organisation nicht auf Anhieb oder wie angekündigt oder geben sie nicht die gewünschten Ergebnisse heraus, kann dies zur Ablehnung der neuen Technologie führen. Ein positives Gegenbeispiel ist der auf Mac-Rechnern laufende Assistent Elephas, der – verbunden mit einer noch steilen Lernkurve – den Arbeitsalltag bereichern kann.
Bei vielen Organisationen gehört zur Technik auch die Frage nach den Bezahlungsmöglichkeiten der Tools. Die meisten Werkzeuge bieten die Zahlung per PayPal oder Kreditkarte an. Allerdings stößt dies noch auf Herausforderungen in Vereinen und Stiftungen.
Zu beachten ist vor allem auch: KI-Systeme sind anfällig für Fehler. Bei den Ergebnissen handelt es sich um mathematische/statistische Wahrscheinlichkeiten aus Berechnungen der Basis riesiger Datenmengen. Aus dem Datenbestand wird die mathematisch beste Variante genutzt. Ergebnisse können sich bei mehrfach gestellter, gleicher Frage ändern. Die Systeme haben aktuell große Schwächen und begehen Fehler, indem sie aus ihren Trainingsdaten falsche Verknüpfungen herstellen. Sie wissen nicht, was sie produzieren und können Kontexte kaum einordnen. So wissen Bildgeneratoren beispielsweise nicht um die Wirkung eines Spiegels. Sprachmodelle sind oft nicht in der Lage, historische Zusammenhänge richtig darzustellen. Ein weiteres Beispiel dazu befindet sich in Kapitel 5.1, in dem Vorschläge für eine Kampagne der Bürgerstiftung in Hattingen entwickelt werden, ohne dass das System korrigiert, dass es diese Bürgerstiftung gar nicht gibt (siehe Abb. 1 auf S. 8).
Auch wenn davon auszugehen, ist, dass diese Berechnungen zeitnah und regelmäßig um ein Vielfaches besser werden, so ist Vorsicht geboten. Es sollten alle mit einer KI generierten Inhalte hinterfragt und weiterrecherchiert werden, weil die Systeme „halluzinieren“ können. Generative KI kann dabei helfen, Dinge in der Organisation abzukürzen und effektiver zu gestalten. Sind die Ergebnisse zu 100 % richtig? Sehr wahrscheinlich nicht. Finden Sie die Fehler bei zeitsparenden Anfragen bei der Kontrolle? In einigen Fällen ja, in anderen nicht. Deshalb lauten die entscheidenden Fragen: Sind Sie auch nach der Kontrolle schneller und effektiver, als wenn Sie es selbst gemacht hätten? Und konnten Sie einen umfassenden Fehlercheck durchführen? Dann ist der Einsatz von generativer KI sinnvoll. Zu berücksichtigen ist auch, dass eine KI aufgrund ihrer eventuell zu einseitig verwendeten Trainingsdaten voreingenommen sein kann und bei bestimmten Themen das Meinungsbild der Entwickler-Teams widerspiegelt.
3. Ethische Fragen
Bei Präsentationen und Workshops über Möglichkeiten der generativen KI in Organisationen kommt nach den ersten gezeigten Beispielen schnell die berechtigte Frage nach der ethischen Dimension auf. Gesellschaftliche Entwicklungen durch einen KI-Einsatz betrachten aktuell andere Akteure wie der Deutsche Ethikrat16 oder die Organisation AlgorithmWatch und sind nicht Teil dieses Beitrags.
Es stellen sich jedoch grundsätzliche Fragen nach Nutzungsfähigkeit und Quelle von Trainingsdaten der im Einsatz befindlichen Modelle, nach Authentizität von Darstellungen und der Erkennbarmachung generierter Ergebnisse. Gleich dahinter entstehen Fragen, wie generative KI den Einsatz von Menschen verändert oder gar gefährdet. Wie umgehen mit Arbeitsbereichen, die in Zukunft von generativer KI sehr stark beeinflusst und beschleunigt werden? Bei im Netz auffindbaren Umfragen unterschiedlicher Protagonisten (außerhalb der Gemeinnützigkeit) wird zum Teil deutlich, dass zum aktuellen Zeitpunkt die Nutzung von Werkzeugen eher als Chance zur Weiterentwicklung und als Unterstützung gesehen und akzeptiert wird.18 Negative Veränderungen erfahren besonders Arbeitsfelder, die mit Übersetzungen und Texterstellungen zu tun haben.
Eine weitere Frage: Die Nutzung von nicht lokal funktionierenden Werkzeugen unterliegt in den meisten Fällen voreingestellten Filtern. Wie gehen Organisationen damit um, dass andere Anbieter diese Filter vorschreiben?
Auf der anderen Seite eröffnet eine (Bild-)Kreation ohne jegliche Art von Filtern sofort Türen in Welten, die besser verschlossen bleiben sollten.
Dürfen potenzielle Spenderinnen und Spender innerhalb oder außerhalb der Geschäftszeiten auf der Website von einem Chatbot betreut werden? Können und dürfen automatische Telefonassistenzen Gespräche von interessierten Menschen annehmen oder widerspricht dies der Authentizität der Organisation? Inwieweit dürfen künstlich generierte Bilder bisherige Fotografien ersetzen und unter welchen Umständen (z.B. Kostengründe, Schutzbedürftigkeit von Personen) darf dies geschehen?
Ganz pragmatisch gedacht: Gemeinnützige Organisationen sind gut beraten, Stellung zu beziehen und eine Meinung für den Einsatz von generativer KI zu entwickeln. Diese kann konkrete Weisungen für Mitarbeitende enthalten, ähnlich einer weit verbreiteten Social-Media-Guideline. Organisationen wie das Evangelische Werk für Diakonie und Entwicklung oder die Social Impact gGmbH sind hier ein Stück voraus und haben bereits Handreichungen entwickelt, die zur Orientierung dienen können. Diese Guidelines enthalten Hinweise zu Verantwortlichkeiten, dem allgemeinen Umgang, Transparenz und Hinweisen, Datenschutz, Anti-Diskriminierungen, Kontrolle, Filtern, Qualif izierungen, Weiterentwicklungen und Wirtschaftlichkeit.
Solche Guidelines, deren Einhaltung, Überprüfung und Weiterentwicklung werden zeitnah zur Grundausstattung für den Einsatz von generativer KI in gemeinnützigen Organisationen, Vereinen und Stiftungen gehören.
4. Datenschutz und Recht
Derzeit sind viele rechtliche Fragen noch nicht beantwortet. Es vergeht auch hier keine Woche, in der in Newslettern und Podcasts nicht auf aktuelle neue (internationale) Prozesse verwiesen wird. Derzeit im Fokus stehen Fragen u. a. nach Urheberrecht, Datenschutzrecht, Patentrecht, Haftungsrecht und Arbeitsrecht.
In der praktischen Anwendung zielt aktuell sehr viel auf die Frage ab, was „man eigentlich darf“. Darf das generierte Bild einfach so verwendet werden? Darf der von ChatGPT generierte Text (unabhängig von der Sinnhaftigkeit) 1:1 auf der Website eingesetzt werden?
Die „gute“ Nachricht ist, dass der aktuellen Lage und der Einschätzung vieler Juristinnen und Juristen nach die Frage nach dem Urheberrecht bei der Nutzung der Medien zunächst geklärt ist. Bilder fallen nur unter das Urheberrecht, wenn eine geistige (und einem Menschen vorbehaltene) Schöpfung nach § 2 Abs. 2 UrhR sowie eine gewisse Schöpfungshöhe vorliegt. Generierte Bilder und Texte werden von einer Maschine entwickelt und sind daher keine geistige Schöpfung. Sie können frei genutzt werden, was aktuell auch immer wieder international bestätigt wird.21 Die Frage nach der Schöpfungshöhe beim Erdenken und der Entwicklung eines Prompts, der Eingabeaufforderung für die meisten Generatoren, ist derzeit noch nicht eindeutig geklärt. OpenAI beispielsweise hat seine Rechte an mit ChatGPT generierten Texten vollständig abgetreten.
Auch wenn die generierten Medien trotz Zufälligkeit bei der Berechnung und mit sehr geringer Wahrscheinlichkeit Ähnlichkeiten mit vorhandenen Menschen oder Marken enthalten, können Unsicherheiten entstehen. Dies betrifft dann Nutzungsrechte, Markenrechte und eventuell auch Patentrechte. Es bleibt also komplex.
Zu klären ist auch die Frage nach der ungefragten Sammlung und Nutzung von Trainingsdaten für die als Grundlage jegliches Werkzeugs generativer KI dienenden Sprachmodelle. Stellvertretend hierfür steht der Prozess des Stockfotografen Robert Kneschke gegen den Verein LAION e. V. im Jahr 2024.22 Kneschkes Bilder befinden sich nach seinen Aussagen ungefragt in den Daten, die LAION e. V. als Trainingsdaten für Sprachmodelle zur Verfügung stellt. Das Urteil könnte Weichen stellen. Ähnliche internationale Klagen und Prozesse sind im Netz auffindbar.
Auch im Bereich des Datenschutzes stellen sich noch viele Fragen. Festzustellen ist, dass sich die Unternehmen der bekanntesten im Einsatz befindlichen Tools im außereuropäischen Ausland befinden und sich somit zunächst nicht im Geltungsbereich der Datenschutz-Grundverordnung (DGSVO) befinden. Die meisten Tools erfüllen die DSGVO-Kriterien höchstwahrscheinlich nicht. Und es ist ebenso anzumerken, dass bei etlichen Anbietern mit jeder Anfrage, jedem „füttern“ eines Sprachmodells durch Hinweise, PDFs oder Bilder das zur Verfügung gestellte Material Teil der Trainingsdaten wird. OpenAI selbst empfiehlt sogar ausdrücklich, keine personenbezogenen Daten in ChatGPT hineinzugeben.
So können beispielsweise das Hochladen eines Lebenslaufs einer Bewerberin oder die Überprüfung von Quartals-Leistungszahlen einer Stiftung in ein Sprachmodell, das Hochladen eines Fotos eines Menschen beim Anbieter PimEyes oder die Liste von Teilnehmenden eines Seminars sofort zu einem markanten Datenschutzverstoß führen. Die auf Datenschutz spezialisierte Non-Profit-Organisation noyb hat kurz vor Redaktionsschluss eine Datenschutz-Beschwerde gegen OpenAI eingereicht und weist damit auf die noch große Schwachstellen im System hin. Ebenso sind in der Vergangenheit immer wieder Daten aus unterschiedlichen Systemen durch Fehler oder Angriffe geleakt worden. Es muss allerdings auch erwähnt sein, dass es hier unterschiedliche Herangehensweisen gibt. Andere Anbieter orientieren sich sehr wohl an der Einhaltung von DSGVO-Kriterien.
Bei der Nutzung von lokalen (und nicht an das Internet angebundenen) Modellen kann dies wiederum anders aussehen, wobei diese Modelle in den Organisationen noch nicht verbreitet sind). Aber beispielsweise können heute bereits Transkriptionen gut lokal funktionieren, ohne eine Anbindung an das Internet.
Die hier gestellten Fragen sind alle um ein Vielfaches komplexer und es wird in den kommenden Jahren eine Vielzahl an Prozessen und vermutlich auch Grundsatzentscheidungen führen. Bis dahin gilt es, pragmatische Wege in und für Organisationen zu finden.
Praxistipp:
Es gilt, sehr sensibel zu sein und für jeden Anwendungsfall zu prüfen, welcher Anbieter passt und genau hinzuschauen, was in den jeweiligen Geschäftsbedingungen steht. Ebenso entwickeln sich Anwendungen auch mit der Zeit weiter und implementieren Datenschutzeinstellungen innerhalb ihrer Weiterentwicklung. Schulungen innerhalb der Organisationen müssen hier dringend priorisiert werden. Mitarbeitenden muss deutlich gemacht werden, was sensible Informationen sind und wie mit diesen umzugehen ist. Eine Überprüfung, ob und wie Daten gespeichert werden, ist für Nutzerinnen und Nutzer nahezu unmöglich.
5. Anwendungsbereiche
Bei der Beschäftigung mit allen Themen rund um die generative KI stehen die klassische Anwendung und der Nutzen für Arbeit und Wissensgewinnung von Menschen im Fokus. Hier entstehen erstaunliche Ergebnisse, die noch vor wenigen Jahren völlig abwegig erschienen, den Arbeitsalltag so vieler Menschen verändert haben und es weiter tun werden. In den letzten Jahren wurden viele KI-Anwendungen entwickelt, die versuchen mit unterschiedlichen Geschäftsmodellen, Kundinnen und Kunden zu gewinnen.
Dieser Markt ist sehr labil und mit Vertrauen in Anbieter sollte vorsichtig umgegangen werden. Die Investitionen in Entwicklung und Rechenkapazitäten sind immens, sodass kein Anbieter auf Dauer reine kostenlose Dienstleistungen anbieten wird. Lediglich zu Testzwecken und in Beta-Phasen wird einem Teil der Nutzenden die Möglichkeit gegeben, neue Funktionen auszuprobieren.
Insgesamt beschränkt sich die Nutzung generativer KI pragmatisch derzeit auf drei Anwendungsbereiche:
- Generierung von Ergebnissen auf Textbasis
- Generierung von Bildern und Illustrationen
- Generierung von Audio- und Sprachinhalten
Praxisbeispiel:
Besonders interessant (und auch ein Stück weit komplex) wird die Verknüpfung der Ergebnisse miteinander. So kann beispielsweise aus einer Audiodatei eines Mitschnitts einer Rede folgende Kette/Verästelung an Anwendungen entstehen.
Audiodatei → Transkription der Rede in deutschen Text:
- Übersetzung der Rede in andere Sprachen
- Zusammenfassung der Rede in 1.000 Zeichen für die Mitgliederzeitschrift
- Erstellung eines LinkedIn-Posts aus der Rede
- Erstellung einer Mindmap mit den Kernaussagen der Rede zur Weiterarbeit
- Erarbeitung von Fragen oder Kernthesen, die aus dieser Rede entstanden sind
- Erarbeitung eines Arbeitspapiers für einen VHS-Kurs „Deutsch für Fremdsprachler“
5.1 Textgenerierung – Text to Text
Mit der Generierung von Texten und sprachlichen Inhalten ist die aktuelle Welle der generativen KI in den Organisationen angekommen. Symbolisch für Erfolg und Aufmerksamkeit steht hier das Sprachmodell ChatGPT, das zum Zeitpunkt des Redaktionsschlusses in der Version 4 nutzbar ist. Google ist mit der aktuellen Version Gemini 1.5 präsent.
Textgenerierende Modelle können i. d. R. sowohl über eine eigene Website genutzt und „befragt“ werden oder aber über die Nutzung einer Schnittstelle in anderen Programmen auf dem Rechner oder dem Smartphone ihren Dienst tun. Die Eingabe erfolgt über Text und Zeichen (Prompts), mittlerweile besteht aber auch eine gut funktionierende Lösung, sich mit dem Modell via Smartphone über Stimme zu unterhalten und das Modell als Dialogpartner zu nutzen. (Ein Anwendungsbereich wäre hier z. B. die Simulation eines wichtigen Gesprächs mit einer Großspenderin.)
Während sich auf dem Markt der Anbieter die Superlative der Rechenwerte und Ergebnisgeschwindigkeiten und Qualitäten ständig ändern und sich Nutzende fragen, welches Modell nun das schnellste und effektivste sei, ist jedes Tool nur so gut, wie es zum einen bedient wird und zum anderen mit Daten trainiert wurde. Ebenso spielen Unterschiede beim Datenschutz und der Herkunft sowie Aktualität von Trainingsdaten eine Rolle. Dennoch kann festgehalten werden, dass ältere (und meist kostenfreie) Modelle (z. B. ChatGPT 3.5) bei komplexeren Fragen keine zufriedenstellenden Ergebnisse (mehr) produzieren und im Sinne der Abwägung von zeitlichem Einsatz, Akzeptanz und Nutzbarkeit auf die Modelle zurückgegriffen werden sollte, die niedrigere Gebühren kosten.
Neben ChatGPT sind folgende „LLM“ (Large Language Models) derzeit im pragmatischen Fokus:
- Claude.ai 3
- Mixtral – Französisches Projekt mit dem Fokus auf DSGVO-Konformität
- Groq – Anbieter mit Auswahloption unterschiedlicher Modelle
- Gemini AI – Sprachmodell von Google
- Llama 3 – Sprachmodell von Meta
- Perplexity – Verbindung von Sprachmodell und Suchmaschine
- Grok – Sprachmodell von X
Die allermeisten dieser LLM generieren ihre Inhalte nicht auf lokalen Servern, was eine sehr hohe Datensensibilität bei der Eingabe erfordert. Es ist davon auszugehen, dass jedes genutzte Dokument oder Foto Teil der allgemeinen Trainingsdaten dieses Anbieters wird.
Lokale Modelle existieren zwar, spielen aber im Alltag gemeinnütziger Organisationen noch keine große Rolle. Zum aktuellen Zeitpunkt arbeitet Apple sehr wahrscheinlich an einem Sprachmodell, welches lokal und datenschutzkonform auf neueren Geräten lauffähig sein soll. Man vermutet eine Veröffentlichung im Herbst 2024. Ein solcher Schritt wird sehr wahrscheinlich für eine weitere breitere Akzeptanz sorgen.
Alle Sprachmodelle eint, dass sie über sog. Prompts mit Aufgaben betraut werden. Während es im Internet große Diskussionen um den „perfekten Prompt“ gibt, sei so viel vorausgesetzt: Ein Prompt gibt der Maschine die konkre-
ten Informationen mit, die sie für die Bearbeitung der Aufgabe benötigt. Hierbei helfen Modelle, die alle unterschiedliche, aber dennoch ähnliche Herangehensweisen haben. Ebenso die Länge der Eingaben sind von Modell zu Modell unterschiedlich, spielen aber in der Praxis derzeit noch eine recht geringe Rolle.
Das „GUIDE-Modell“ ist ein Modell der Prompterstellung, das zur Eselsbrücke taugt.
- GOAL: Was soll der Prompt erreichen? Was soll das Ergebnis sein?
- USER: Für wen ist das Ergebnis? Welche Rolle soll das Modell einnehmen?
- INSTRUCTION: Konkrete Anweisung in Teilschritten
- DETAILS: Wichtige Details für ein gutes Ergebnis.
- EXAMPLES: Eventuell Beigabe von Beispielen, wie ein gutes Ergebnis aussehen könnte
Praxisbeispiel:
Prompt: „Du bist erfahrener Kampagnenentwickler mit 20 Jahren Berufserfahrung. Erstelle 10 Ideen für den Claim einer Jahreskampagne 2025 der Bürgerstiftung Hattingen. Der Claim soll alle Menschen in der Stadt erreichen, freundlich sein und zu vielen geplanten Mitmachaktionen aufrufen. Gib dem jeweiligen Claim in einer zweiten Zeile zusätzlich konkrete Handlungsaufforderungen zum Mitmachen. Entscheidend ist die regionale Verwurzelung des Claims und die Identifikation der Menschen mit der Stadt Hattingen und der Umgebung.
Stelle mir gerne Nachfragen, falls Du weitere Informationen brauchst.“
Ergebnis:

Ergebnis der Promptfrage, abgerufen am 1.5.2024
Zusammengefasst: Schreiben Sie einfache Aufforderungen und konkrete Handlungshinweise. Definieren Sie die Rolle des Modells. Übergeben Sie so viele Detailinformationen wie möglich. Definieren Sie, was für ein Ergebnis sie erwarten und welche Anforderungen für ein gutes Ergebnis ausschlaggebend sind. Das System kann nur Ergebnisse herausgeben, mit denen es gefüttert wurde. Es kann nicht denken, sondern berechnet die Ergebnisse auf Basis statistischer Werte und Wahrscheinlichkeiten. Es kennt keine Zusammenhänge. In dem genannten Beispiel der Bürgerstiftung Hattingen weiß ChatGPT beispielsweise nicht, dass es gar keine Bürgerstiftung in Hattingen gibt (siehe Abb. 1).
Eine Sonderstellung nehmen Systeme ein, die tagesaktuelle Daten mit den Vorzügen eines Sprachmodells verbinden und somit eine hervorragende Brücke zur Alltagsnutzung schlagen. Anbieter wie „Perplexity“ stellen eine KI unterstützte Suchmaschine dar. Etliche Meinungen stellen in Aussicht, dass diese „schlauen Suchmaschinen“ bereits in absehbarer Zeit Suchmaschinen wie Google in ihrer Attraktivität und Nutzung ablösen werden, u. a. weil sie dialogisch funktionieren.
Die im Anhang aufgelisteten Anwendungsbereiche für textbasierte Ergebnisse stellen nur einen Ausschnitt von Möglichkeiten dar (siehe S. 13).

Screenshot Perplexity, abgerufen am 21.4.2024
5.2 Generierung und Bearbeitung von Bildern und Illustrationen – Text to Image | Image to Image | Image to Text
Die Qualität in der Bildgenerierung durch generative KI hat in den letzten 1,5 Jahren derartige Fortschritte gemacht, dass generierte Bilder im Alltag gemeinnütziger Organisationen nicht mehr ignoriert werden können.
Während beim Bildgenerator Midjourney in der Version 1 im November 2022 bei der Frage nach der Entwicklung eines Hot Dogs vor dunklem Hintergrund kaum sinnvoll erkennbare Ergebnisse entstanden (siehe Abb. 3), so ist bereits im Mai 2023 in Version 5.1 erkennbar, wohin die Reise geht (siehe Abb. 4). Die aktuelle Version 6 besticht durch noch viel mehr Detailmöglichkeiten und Optionen.

„Hot Dog vor dunklem Hintergrund“, Tool: Midjourney V1 vom Februar 2022

„Hot Dog vor dunklem Hintergrund“, Tool: Midjourney V5.2 vom Mai 2023
Dies rückt folgende Anwendungsszenarien in den Praxis-Fokus:
- Künstliche Erstellung von Bildinhalten aus Texten/Prompts (Text to Image)
- Künstliche Bearbeitung/Anpassung/Erweiterung von vorhandenen Bildinhalten
- Künstliche Erstellung von Bildinhalten aus vorhandenen Bildinhalten (Image to Image)
Aktuelle, zum Zeitpunkt des Redaktionsschlusses auf dem Markt gebräuchliche Bildgeneratoren sind:
- Midjourney – derzeit das Angebot mit der höchsten Abbildungsfähigkeit und dem höchsten Detailgrad
- DALLE 3 – Bildgenerator von OpenAI, der auch in ChatGPT eingebunden ist
- Stable Diffusion – Open Source Modell, das auch lokal funktioniert
- Adobe Firefly – in die Adobe Welt eingebundene Möglichkeit
- Llama 3 – Metas Bildgenerator (aktuell in Deutschland noch nicht nutzbar)
Darüber hinaus existieren unzählige kleinere Modelle, die zum Teil weitere Alleinstellungsmerkmale besitzen. So hat beispielsweise das Tool Ideogram die allgemein noch problematische Herausforderung gut gelöst, Schriften und Texte in Bildern darzustellen (siehe Abb. 5 auf S. 10).

Künstlich generiertes Bild mit Ideogram und fehlerfrei dargestellten Wörtern
Ähnlich wie bei den Sprachmodellen werden Bildgeneratoren mit Prompts oder prompt-ähnlichen Steuerungen bedient. Die Tücke steckt hier in den Details: Jeder Anbieter besitzt Unterschiede in der Bedienung und bei den Feineinstellungen. So kennen einige Tools die Möglichkeit, gezielt unerwünschte Ergebnisse auszuschließen. Am Beispiel von Midjourney können allgemein gültige Regeln für den Promptaufbau abgeleitet werden. Ein Prompt stellt sich dann wie folgt zusammen:
- Prefix: Was für ein Medium soll es werden? Foto, Illustration, Drone Shot, Diagramm, Gemälde, usw.
- Szene: Ein oder mehrere Objekte tun Dinge in einer Umgebung
- Suffix: Beleuchtung, Besonderheit, Farbgebung, Winkel, Zeitpunkt, Stimmung, Emotionen, Kamera, Stil, Film Stil, Regisseur, Künstler, usw.
- Parameter: Individuell notwendige Angaben für das Tool, beispielsweise Formatverhältnisse, Ikonizitätsgrad, usw.
Praxisbeispiel:
Prompt: Drone Shot of crocodiles in a swimmingpool, playing waterball, high energy, action mood — ar 16:9 — style raw — v 6.0
- Mit Midjourney generiertes Bild durch den o. a. Prompt
- Stil: Ölgemälde
- Stil: Kinderbuchzeichnung
- Stil: Simpsons-Comic
- Stil: 1980er-Jahre Wandgraffiti
Etliche KI-Bearbeitungsfunktion sind bereits in die klassischen Werkzeuge von Öffentlichkeitsarbeit und Kommunikation eingeflossen. So besitzen die Adobe Tools, allen voran Photoshop, KI-Bordmittel, die sich von Version zu Version weiterentwickeln. Stundenlange Freistellungen von Personen mit wehenden Haaren sind bereits jetzt Vergangenheit und ersparen eine Menge Zeit im Alltag.
Beim Einsatz von künstlich generierten Bildern und Medien stellen sich weitere Fragen an gemeinnützige Organisationen. Wie weit weicht eine mögliche flächendeckende Nutzung die Authentizität auf? Sollte nicht gerade deshalb der Fokus auf „echte Fotos“ gerichtet werden, insbesondere im Fundraising? Unbenommen existieren viele Vorteile in der schnellen Generierung, z. B. für den Einsatz in Newslettern oder dort, wo Symbolbilder schnell weiterhelfen. Wo genau stecken die Grenzen der Anwendbarkeit? Hier müssen die Organisationen Lösungswege für sich selbst beschreiten.
5.3 Generierung und Bearbeitung von Audio- und Sprachinhalten – Text to Speech | Audio to Audio
Zum Zeitpunkt der Texterstellung hat OpenAI bekannt gegeben, beliebige 15-sekündige Aufzeichnungen einer Stimme zu benötigen, um diese zu klonen.32 Eine künstlich generierte Person ist somit in der Lage, in vielen Sprachen der Welt auf Klick unterschiedliche Botschaften zu kommunizieren. Gemeinnützige Anwendungsbereiche können dort entstehen, wo beispielsweise internationale Arbeit stattfindet. Podcasts können übersetzt, Videos neugestaltet werden. Ebenso ist davon auszugehen, dass in absehbarer Zeit Live-Audioübersetzungen technisch über vorhandene alltägliche Ausrüstungen wie Smartphones und Kopfhörer umsetzbar sein werden. Im Bereich von Videokonferenzen und durch den Einsatz von Untertiteln finden diese Übersetzungen bereits statt, allerdings mit noch unterschiedlicher Qualität. Videoproduktionen und Erklärfilme können ohne Sprecherinnen und Sprecher umgesetzt werden, Menschen aus anderen Ländern in ihrer eigenen Sprache im Projekt begrüßt werden. Interessant wird die Entwicklung im Bereich der Telefonie. Auch hier gibt es bereits vielversprechende technische Ansätze und erste Versuche. So ist auch hier davon auszugehen, dass in absehbarer Zeit flüssige Telefonate mit künstlichen Intelligenzen durchgeführt werden können. Ob diese Anwendungen für die jeweilige Organisation wünschenswert und inhaltlich vertretbar sind, muss gründlich überlegt sein.
Aktuelle Tool-Beispiele für Text to Speech-Anwendungen:
- HeyGen
- ElevenLabs
- Synthesia
- Murf.ai
Für den Alltag in gemeinnützigen Organisationen kann ein weiterer Einsatzbereich viel Arbeit abnehmen: Transkriptionen von Sitzungen, Meetings, Reden oder Anlässen können einfach (auch lokal und somit datenschutzkonform) in Text umgewandelt werden. Darüber hinaus existieren viele Smartphone-Apps, die eingesprochene Audio-Notizen in sinnvolle Gedanken oder konkrete Aufgaben verwandeln. Ein weiterer Anwendungsbereich ist die Generierung von Untertiteln für Videos.
Die Nutzung dieser Transkriptions-Werkzeuge funktioniert in zwei Möglichkeiten:
- Hochladen von Audio-Dateien (oder direktes Einsprechen) in ein Tool via Browser oder App: Die Dateien werden im Anschluss extern analysiert, gewandelt und die gewünschten Ergebnisse zurückgespielt. Anwendungen: WhisperAI, Voicenotes, Collato, u. a.
- Umwandlung der Daten unter der Nutzung lokal vorliegender Modelle: Die Daten werden nicht im Internet, sondern auf dem Rechner lokal gewandelt und die Ergebnisse zur Verfügung gestellt. Beispielhafte Anwendung: MacWhisper
Ein für gemeinnützige Organisationen wahrscheinlich eher weniger relevantes Anwendungsgebiet ist die qualitativ immer besser werdende Entwicklung im Bereich der Musikproduktion. Auch hier gab es in den vergangenen Wochen vor Textveröffentlichung entscheidende Entwicklungsschritte. Gefüttert mit mehr oder weniger konkreten Ideen für ein Lied, sind die Anbieter nun in der Lage, ansprechende Musik mit Texten zu entwickeln. Interessant aktuell für die Untermalung von eigenen produzierten Videos oder im Rahmen der Kultur- oder Jugendarbeit.
Aktuelle Tool-Beispiele für Anwendungen der Musikerstellung:
- stud.io
- suno.ai
5.4 Video – Text to Video | Image to Video
Zum aktuellen Zeitpunkt ist die Nutzung von künstlich generierten Videos noch sehr rechen-, und damit energie- und kostenintensiv. Auch wenn der Anbieter OpenAI mit dem im 1. Quartal 2024 vorgestellten neuen Modell SORA Unruhe in die Filmindustrie gebracht hat34 und mittlerweile einige ausgewählte, aus diesem Modell heraus entstandene Videos im Internet zu finden sind, so ist die flächendeckende und für jedermann mögliche Nutzung dieser Technologie im Rahmen der Generierung minutenlanger Sequenzen aus Kapazitäts- und somit Kostengründen sehr wahrscheinlich noch einige Zeit entfernt. Allerdings kann davon ausgegangen werden, dass in naher Zukunft weitere sehr beeindruckende Demonstrationen zu betrachten sind.
Dennoch hat sich auch hier in den letzten Monaten die Qualität bei der Generierung von Video-Avataren massiv verbessert. Avatare sind in diesem Zusammenhang simulierte Abbildungen von realen oder künstlich erzeugten Menschen, die in unterschiedlichen Sprachen Sätze formulieren und teilweise in den Dialog treten können. Denkbare Einsatzbereiche sind hier die Übersetzung von Grußbotschaften, Spendenaufrufen oder Anleitungen und Hinweisen in unterschiedliche Sprachen. Das ukrainische Verteidigungsministerium setzt seit April 2024 einen künstlichen Avatar für die Kommunikation konsularischer Belange ein.
Im April 2024 erweiterte der Anbieter Heygen sein Angebot um die Möglichkeit, diese Avatare nun auch in Bewegung durch den Raum oder eine Gegend zu animieren und sprechen zu lassen. Hinzu kommt die sich ständig weiterentwickelnde Fähigkeit der Erkennung von Emotionen und die Einbindung dieser in die Avatar-Bewegungen und -kommunikation.
Langfristig gesehen werden die Entwicklungen in dieser Technologiesparte massive Veränderungen in der Öffentlichkeitsarbeit von Stiftungen und Vereinen mit sich bringen können. Auch wenn diese heute noch spekulativ sind, so sollten sie bereits jetzt bei der Planung von Kampagnen berücksichtigt werden.
6. Implementierung in die Organisation
Zum aktuellen Zeitpunkt ist sehr wahrscheinlich kaum eine gemeinnützige Organisation in Deutschland mit hoher Expertise in der Anwendung von generativer KI ausgestattet. Leuchtturm-Projekte gibt es viele, insbesondere in den Bereichen von Feldanwendung oder Forschung. Die Anfragen in der Praxis zeigen jedoch, dass ein großer Bedarf an Heranführung an das Thema existiert. Basis- und Anwendungswissen generierende Workshops und Webinare sind stark nachgefragt. Sie vermitteln Interesse und ein Stück weit auch notwendiges Handwerkszeug, bleiben aber aufgrund der zeitlichen Dimension i.d.R. oberflächlich. Der Aufbau von Kompetenz innerhalb der Organisationen kann erst im Anschluss durch Nutzung und Erfahrungsaustausch entstehen.
Die Implementierung der Nutzung und Anwendung generativer KI ist vergleichbar mit Prozessen der Digitalisierung oder ähnlich gelagerten Querschnittsprozessen in einer Organisation. Sie betreffen jede Abteilung und Organisationseinheit. Vereine und Stiftungen mit Erfahrungen im Projekt- oder Changemanagement sind hier im Vorteil.
Grob angelehnt an den an Unternehmen ausgerichteten Ideen des KI-Unternehmers Rory Flynn können fünf Stufen der Implementierung von KI in eine gemeinnützige Organisation identifiziert werden:
Stufe 1: Entdecken und Ausprobieren von Tools – bereits jetzt im Alltag feststellbar
Beispiel: Eine Mitarbeiterin aus dem Fundraising hat festgestellt, dass ChatGPT sehr gut darin ist, Spenden-Dankbriefe aus der Sie-Form in die Du-Form umzuschreiben. Sie nutzt dies immer weiter und findet Wege, den Arbeitsalltag ein Stück weit zu erleichtern, Dinge abzukürzen und dadurch Zeit für andere Aufgaben freizumachen.
Stufe 2: Akzeptanz, tägliches Nutzen und Annehmen – bereits jetzt im Alltag von Organisationen erkennbar
Beispiel: Ein Mitarbeiter aus dem Bereich Öffentlichkeitsarbeit transkribiert sämtliche Podcasts nachträglich, um die Inhalte barriereärmer zu gestalten und gleichzeitig durchsuchbar zu machen. Dies gehört zu seiner Standardroutine. Gleichzeitig nutzt er die Software, um bei der Veröffentlichung des Podcasts einen LinkedIn-Post zu generieren. Die Ergebnisse stellt er dem Team automatisiert zur Verfügung.
Stufe 3: Integration in die Organisation und Operationalisierung
Beispiel: Die oben genannten Mitarbeitenden tauschen sich untereinander auch unter Zuhilfenahme der Tools aus (z. B. ChatGPT-Teams-Funktion).36 Die Arbeitsschritte werden dokumentiert und f ließen in den Prozessablauf sowie in das Qualitätsmanagement mit ein. Neue Prozesse werden so entwickelt, dass KI selbstverständlich ein Teil der Lösung sein kann und stets mitgedacht wird.
Stufe 4: Zusammenschließen und Automatisierung
Beispiel: Die vorhandenen Prozesse und Tools tauschen sich untereinander aus und es entstehen sinnvolle Workflows innerhalb einer Abteilung und im Austausch mit anderen. Die Beantwortung von Fragestellungen wird automatisiert.
Stufe 5: Anpassung und Entwicklung eigener Systeme Beispiel: Eine Organisation entwickelt eigene Datenmodelle und trainiert eine eigenständige Künstliche Intelligenz, die sich primär mit dem vorhandenen eigenen Wissen auseinandersetzt, die eigenen Herausforderungen kennt und diese automatisiert angeht („DiakonieGPT“ oder „CaritasGPT“).
Zum Zeitpunkt des Redaktionsschlusses sind dem Autor nach eigener Recherche und Austausch mit im Arbeitsbereich tätigen Kolleginnen und Kollegen keine bereits im Einsatz befindlichen Beispiele aus Organisationen bekannt, die über Stufe 2 hinaus gehen. Viele probieren KI aus, fest verankert in Strukturen ist nahezu noch nirgendwo etwas. Nach einer Untersuchung durch das Handelsblatt sind Vorhaben der hier als Stufe 5 bezeichneten Entwicklung derzeit Unternehmen der Größe wie Siemens vorbehalten. Die Bertelsmann-Stiftung fördert aktuell einige Unternehmen der Sozialwirtschaft in einem begleiteten Prozess, um erste Schritte umzusetzen.
Wie und in welcher Form eine Implementierung stattfinden kann, hängt stark von den internen Voraussetzungen ab.39 Organisationen beschäftigen sich derzeit mit der Einführung eines Code of Conducts, um einen allgemeinen Umgang mit KI zu definieren und Rahmenbedingungen zu schaffen.40 Mindestens ein kleines Budget ermöglicht die Nutzung von Werkzeugen auf der Ebene der Mitarbeitenden, nicht zu vergessen notwendige Investitionen für den Schul- und Fortbildungsbereich.
Um interne Akzeptanz zu erwirken, müssen positive Effekte in konkreten Prozessen und Ergebnissen dargestellt, Fortbildungsmöglichkeiten geschaffen und ein offener Austausch gefördert werden. Dies kann z. B. durch kurze wöchentliche Stehcafé-Runden in einer Abteilung geschehen, wo neueste Erkenntnisse geteilt werden. Praktikabel ist außerdem, das generierte Wissen (funktionierende Prompts, Werkzeuge, Ergebnisse) zu speichern und aufbereitet anderen Kolleginnen und Kollegen zur Verfügung zu stellen, z. B. in einem Prompt-Archiv.
Um es deutlich zu sagen: Bis zu einem Break-even in der Kosten-Nutzen-Betrachtung wird noch einige Zeit vergehen, wenn auch davon auszugehen ist, dass aufgrund der erstaunlichen Ergebnisse von Werkzeugen der generativen KI die Zeit weniger lang sein wird als bei der praktischen Umsetzung anderer Digitalisierungsprojekte.
Bis das erste eigenständige Sprachmodell eines Dachverbands entstanden ist, wird nicht nur aus finanziellen Gründen ebenso noch einige Zeit vergehen.
7. Kurz & Knapp
Zum aktuellen Zeitpunkt gibt es keine wirkliche Expertise für generative KI in gemeinnützigen Organisationen, dafür ist der Zeitpunkt des wachsenden Interesses noch zu nah. Zwar sind einige Vereine und Stiftungen im Feld- und Projektbereich voraus und setzen Kenntnisse in meist wissenschaftlich begleiteten Vorhaben um, die breite Masse jedoch fängt bei null an. Weil es keine flächendeckende Expertise gibt, so gibt es zum Zeitpunkt der Texterstellung auch nahezu keine Personen, die diese Expertise in die Organisation hineinbringen können. Die Organisationen sind daher auf das Interesse und die Kompetenz der eigenen Aktiven und den Austausch miteinander angewiesen.
Nicht alles ist gewollt: So setzen Unternehmen mittlerweile immer mehr auf den Einsatz von Chatbots und automatisiertem Customer-Service. Ob ein Einsatz beispielsweise im Fundraising sinnvoll ist, muss zumindest intensiv diskutiert werden. Gleiches gilt für den Einsatz von Menschen auf generierten Bildern und Medien. Möchten Organisationen ihre Glaubwürdigkeit nicht verlieren und ihre aus guten Gründen hoch gesteckten Compliance-Regeln zugunsten der Spendenden nicht aufs Spiel setzen, so bringt die KI-Entwicklung teils einen gegenteiligen Effekt mit sich.
Mehr KI-Einsatz im Allgemeinen sollte zu mehr „echten“ Fotos aufseiten von Organisationen führen. Mehr KI im Allgemeinen sollte zu weniger Chatbots auf Seiten der Gemeinnützigen führen. Sie sind es, die es sich eben aktuell nicht leisten können, auf Menschen zu verzichten. Sie müssen und sollten weiterhin transparent sein und echte, überprüfbare und nachvollziehbare Berichterstattung und Öffentlichkeitsarbeit bieten.
Zurzeit geschehen fortlaufend Veränderungen im Bereich der Entwicklung und Anwendung generativer KI. So hat kurz vor Redaktionsschluss OpenAI mit dem neuen Modell ChatGPT 4o erneut Qualitätskriterien erhöht. Ein gedruckter Beitrag kann daher nur allgemeine Orientierung bieten. Die Steigerung der Effektivität der Anwendungen und die inhaltliche Qualität der Ergebnisse zum Zeitpunkt der Lektüre bleiben außen vor. Dies gilt es im Blick zu behalten. Wenn auch die anfängliche Euphorie ob einer neuen Profession allmählich abebbt, so wird die Existenz einer omnipräsenten digitalen Assistenz alltäglich, wie früher der Umgang mit Stift und Papier. All dies muss durch regelmäßige Fortbildungen in die Organisation hineinkommen, realisiert durch ein zur Verfügung gestelltes Budget. Prompten wird eine allgemein zu erlernende Kulturtechnik. Und nicht zuletzt sollten Einsatz und Ergebnisse generativer KI den Menschen in den Organisationen Spaß machen, um die Akzeptanz zu steigern und den Einsatz alltäglich zu machen. Gelingt dies, so sind in gemeinnützigen Organisationen massive qualitative Entwicklungsschritte denkbar.
Beispielhafte Ideen und mögliche Anwendungsbereiche, deren Erarbeitung durch den Einsatz generativer KI vereinfacht werden können
Alt-Texte und SEO-Angaben entwickeln
Ideen für Sponsoring entwickeln
Scoring entwickeln
Analyse von Spendertrends und -verhalten
Kampagnen-Entwicklung, Ideen für Aktionen finden
Sentiment-Analyse in sozialen Medien
Automatisierte Einsatzplanung
Kampagnen visuelle Inhalte erstellen
SEO-Elemente analysieren und erstellen
Automatisierte Verbuchungen
Kommunikationsautomatisierung
Social Media-Inhalte generieren
Automatische Übersetzungen von Materialien
Kompetenzmanagement
Sprachüberprüfungen
Automatisierung von Kommunikation
Konversationen verbessern
Stellenausschreibungen optimieren
Berichte und allgemeine Analysen erstellen
Liveaudiotranskription
Suchmaschinenoptimierung
Bewerbungsscreening
Logo-Entwicklung
SWOT-Analysen erstellen
Bilder beschreiben und Meta-Daten entwickeln
Matching von Freiwilligen
Tabellenanalysen
CRM-Analysen
Materialentwicklung
Tabellen bearbeiten
Datenanalysen
Medienüberwachung
Texte in Leichte Sprache bringen
Dinge verstehen nach Pareto-Prinzip
Newsletter-Erstellung
TOWS-Matrix erstellen
E-Mail-Kampagnen erstellen und personalisieren
Optimierung von Arbeitsprozessen und Workflows
Transkriptionen und Untertitel
Entwicklung von Personas und Diskussion mit diesen
Personalisierung von Website-Inhalten
Umschreiben vorhandener Medien auf die Bedürfnisse anderer Zielgruppen
Entwicklung personalisierter Spendenaufrufe
Personas entwickeln
Unterstützung bei der Ansprache von Spendenden
Erstellen von Präsentationen
Podcasts und Audiobeiträge Sprach- generierung
Videoinhalte durch KI-gesteuerte Tools erstellen
Erstellung von digitalen Anzeigen- Kampagnen
Pressemitteilungen automatisch erstellen
Videos zusammenfassen als Text
Erstellung von Drehbüchern
Protokolle schreiben lassen
Website-Analyse
Erstellung von Inhalten
PDFs zusammenfassen
Wettbewerbsanalyse
Excel-Dateien klug bearbeiten
Predictive Analytics
Wissensmanagement
Finanzmonitoring
Redaktionsplanung
Workshops planen
Fundraising-Management inkl. Scoring
Reden schreiben
Überprüfungen von Strategien
Fördermittelakquise und Optimierung der Antragsstellung
Reiseplanungen und Reisekosten- abrechnungen
Übersetzung von Texten und Videos
Großspenden-Recherche
Risiko-Analysen
Quellen + ANMERKUNGEN:
1. Roy Charles Amara, Wikipedia (abgerufen am 3.5.2024).
2. Mewes, Bernd: KI-Disruption: Einstellungsstopps, Aktieneinbrüche und Chatbot-Verbote, (abgerufen am 3.5.2024); Linden, Michael: Hochschule streicht wegen KI Bachelorarbeiten, (abgerufen am 3.5.2024).
3. Die Beilage ist Ende Mai 2024 in Druck gegangen.
4. Alan Turing, Wikipedia; Turing-Test, Wikipedia (beide abgerufen am 3.5.2024).
5. Maschinelles Lernen, Wikipedia (abgerufen am 3.5.2024).
6. ChatGPT, (abgerufen am 3.5.2024).
7. Linden, Michael: OpenAI legt bei ChatGPT Plus eine Pause ein, (abgerufen am 3.5.2024).
8. Stöckel, Marc: Kind-Gruppe kann nach Cyberangriff Filialen nicht beliefern, (abgerufen am 3.5.2024).
9. Gerade in der Sozialwirtschaft gibt es etliche Organisationen, die Qualitätsmanagement zwar offiziell eingeführt haben, die Umsetzung aber nicht leben. In diesem Fall wird die Einführung ähnlich komplex wie bei Organisationen ohne eingeführtes Qualitätsmanagement.
10. Kiefer, Katrin: Von der inneren Haltung gemeinnütziger Organisationen – Institutional Readiness für erfolgreiches Fundraising, / (abgerufen am 3.5.2024).
11. Beispiel Whisper lokal: Junghärtchen, Immo: Spracherkennung im Eigenbau, (abgerufen am 3.5.2024).
12. Beispiel Stable Diffusion via Diffusionbee (abgerufen am 3.5.2024).
13. Beispiel Draw Things (abgerufen am 3.5.2024).
14. Janssen, Jan-Keno: Microsofts Copilot für Office ist eine Frechheit | c‘t 3003 (abgerufen am 21.4.2024).
15. Beispiel Elephas (abgerufen am 3.5.2024).
16. Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz. Stellungnahme (abgerufen am 21.4.2024).
17. AlgorithmWatch (abgerufen am 21.4.2024).
18. Chiu, Henley Wing: The jobs being replaced by AI – an analysis of 5M freelancing jobs (abgerufen am 21.4.2024).
19. Vgl. Linden, Michael: Taylor-Swift-Fans kämpfen auf X gegen KI-Pornobilder (abgerufen am 30.4.2024).
20. Evangelisches Werk für Diakonie und Entwicklung e. V.: Leitlinien zur Nutzung von Künstlicher Intelligenz im Evangelischen Werk für Diakonie und Entwicklung e. V. (abgerufen am 21.4.2024); Social Impact gGmbH: KI Compliance der Social Impact gGmbh, (abgerufen am 21.4.2024).
21. Vgl. Krempl, Stefan: Urteil in Prag: KI-generiertes Bild kann von jedermann frei genutzt werden, (abgerufen am 21.04.2024).
22. Vgl. Kneschke, Robert: Gerichtstermin im Verfahren gegen LAION e. V. wegen Urheberrechtsverletzung steht fest (abgerufen am 21.4.2024).
23. Vgl. Huber, Daniel S.: Vorsicht, der Einsatz von ChatGPT verstößt aktuell gegen den Datenschutz, (abgerufen am 14.5.2024)
24. Vgl. Zapf, Elke: PimEyes: Datenschutzbeauftragter eröffnet Bußgeldverfahren, (abgerufen am 21.4.2024).
25. Vgl. beck-aktuell: Datenschützer reichen Beschwerde ein: ChatGPT erfindet Daten über Personen, (abgerufen am 14.5.2024)
26. Vgl. Donath, Andreas: Samsung-Ingenieure geben ChatGPT vertrauliche Daten preis, (abgerufen am 14.5.2024)
27. Bleich, Holger: Auslegungssache 100: Generative KI vs. DSGVO – (abgerufen am 21.4.2024).
28. Vgl. Meid, Maik: Linkliste KI für Nonprofits, (abgerufen am 29.4.2024).
29. Vgl. Bastian, Matthias: Apple setzt angeblich voll auf lokale KI und will bald mit eigenem LLM starten, (abgerufen am 30.4.2024).
30. Vgl. Prompt Engineering Guide, (abgerufen am 29.4.2024).
31. Vgl. Kapitel 3
32. Vgl. David, Emilia: OpenAI’s voice cloning AI model only needs a 15-second sample to work, (abgerufen am 2.5.2024).
33. Vgl. Kapitel 5.
34. Milmo, Dan: Tyler Perry halts $800m studio expansion after being shocked by AI, (abgerufen am 21.4.2024).
35. Vgl. VisitUkraine Today: MFA presents AI avatar to comment on consular information: what is known, (abgerufen am 2.5.2024).
36. OpenAI: Introducing ChatGPT Team, (abgerufen am 30.4.2024).
37. Bombke, Luisa u.a.: Was firmeneigene Versionen von ChatGPT wirklich bringen, (abgerufen am 30.4.2024).
38. Vgl. Bertelsmann Stiftung: reframe[Tech] – Algorithmen fürs Gemeinwohl, (abgerufen am 30.4.2024), siehe auch Gundlach, Julia / Staiger, Franziska: Zukunftssicherung des Sozialstaats. Neue Zusammenarbeit mit Künstlicher Intelligenz und ihre Tücken, S&S 3/2024, S. 12 – 13. Ein Beitrag der Stiftung Mercator zu Use Cases ist für S&S in Vorbereitung.
39. Vgl. Kap. 2.4
40. Vgl. Vorlagen des Evangelischen Werks für Diakonie und Entwicklung e. V., Leitlinien zur Nutzung von Künstlicher Intelligenz und Social Impact gGmbH, KI Compliance der Social Impact gGmbH.
41. Z. B. die Stiftung Aktive Bürgerschaft, die erste Einblicke zu ihren eigenen Erfahrungen teilt,
42. Vgl. Bombke, Lusia: Mitarbeitende durch KI ersetzt: Sind Call-Center am Ende?, (abgerufen am 2.5.2024).