Zum Inhalt

Wie die KI-Technologie Flüchtenden hilft und Propaganda erkennt

In Krisensituationen sind schnelle Informationsverarbeitung und effektive Kommunikation von entscheidender Bedeutung. Kilian Sprenkamp beleuchtet in der Kolumne DSI Insights auf Inside IT das Potenzial von Large Language Models (LLMs) wie GPT-4 für den öffentlichen Sektor, insbesondere in den Bereichen Flüchtlingshilfe und Propagandaerkennung. Er zeigt anhand konkreter Anwendungen, wie KI-gestützte Chatbots und Analysetools bereits heute in Krisenkontexten eingesetzt werden. 

Autor: Kilian Sprenkamp

LLMs können in Krisensituationen bei der schnellen Informationsverarbeitung und effektiven Kommunikation helfen.

Mit dem Release von ChatGPT im November 2022 hat sich die öffentliche Wahrnehmung rund um das Thema Künstliche Intelligenz (KI) stark verändert. Oft wurde darüber diskutiert, welche Auswirkungen es haben wird, dass Chatbots nun Websites programmieren oder innert Sekunden ein ganzes Buch zusammenzufassen können. Sogenannten Large Language Models (LLMs) wie GPT-4 haben jedoch noch weit grösseres Potenzial. So sind in Krisensituationen beispielsweise schnelle Informationsverarbeitung und effektive Kommunikation von grösster Bedeutung. LLMs können hier wichtige Unterstützung bieten. Andererseits bergen KI-Technologien auch Risiken. Es stellt sich daher Frage, wie öffentliche Institutionen diese Technologie sinnvoll nutzen können.
Wenn Krisen eintreten, entstehen in Echtzeit Daten aus unzähligen Quellen, die Menschen nicht vollständig analysieren können. Ein Beispiel für eine solche Krise ist der Russisch-Ukrainische Krieg, der ein schnelles Handeln des öffentlichen Sektors erforderte. LLMs wie GPT-4 sind in der Lage, grosse Datenmengen effizient zu verarbeiten. Regierungen können LLMs für effizientere Bürgerdienste und Datenanalysen nutzen.
Meine Forschung konzentriert sich darauf, wie LLMs im Russisch-Ukrainischen Krieg eingesetzt werden können, wobei ich mich auf Flüchtlingshilfe und Propagandaerkennung konzentriere.

Flüchtlingshilfe

In der Flüchtlingshilfe veranschaulichen zwei Tools, wie LLMs vertriebene Bevölkerungsgruppen stärken und Entscheidungstragende unterstützen können.
RefuGPT ist ein Telegram-Chatbot, der von GPT-4 betrieben wird und Flüchtenden Antworten zu Themen wie Gesundheitsversorgung und Sozialleistungen bietet. Durch die Nutzung offizieller Daten und von Community-Informationen stellt RefuGPT klare, umsetzbare Antworten in einem Q&A-Format bereit, wodurch bürokratische Prozesse vereinfacht werden.
R2G («Refugee to Government») sammelt Telegram-Nachrichten von ukrainischen Flüchtlingskanälen, um Bedürfnisse der Gemeinschaft in Echtzeit zu identifizieren. R2G erkennt Probleme wie die Suche einer Unterkunft oder Zugang zum Gesundheitssystem in den Telegram-Texten. Dies ermöglicht öffentlichen Einrichtungen und NGOs, dringenden Handlungsbedarf sichtbar zu machen, und bietet Entscheidungsträgern durch einen GPT-4-basierten Chatbot strukturierte Einblicke. Zukünftig soll R2G von internationalen Flüchtlingsorganisationen eingesetzt werden, um sicherzustellen, dass politische Massnahmen den tatsächlichen Bedürfnissen der Geflüchteten entsprechen.

Erkennung von Propaganda

Im Fall der Propagandaerkennung ist Apollolytics eine Browsererweiterung, die hilft, manipulative Inhalte in Onlinenachrichten zu erkennen und zu verstehen. Nutzerinnen und Nutzer können einen beliebigen Text auf einer Webseite markieren, um Propaganda zu erkennen. Im Hintergrund analysiert GPT-4 den Textausschnitt, kennzeichnet mögliche Propagandatechniken und liefert kurze Erklärungen. Erkannte Passagen werden dann im Artikel hervorgehoben, so dass ersichtlich wird, wo subtile Manipulationen stattfinden könnten.
Über die blosse Kennzeichnung von Propaganda hinaus bietet Apollolytics auch die Möglichkeit, Kontext über die Propagandapassage zu generieren. Behörden können damit Online-Diskussionen überwachen und aufkommende Desinformationskampagnen in Echtzeit erkennen, was eine schnelle und transparente Reaktion erleichtert.
Demobilder der Browser-Erweiterung

Apollolytics Browser-Erweiterung 

Insights für den öffentlichen Sektor

Aus diesen Anwendungsbereichen lassen sich drei zentrale Erkenntnisse für den Einsatz von LLMs in Krisen ableiten:
  • Kontext von LLMs: Der öffentliche Sektor kann LLMs durch die Verknüpfung mit externen Datenquellen verbessern. Dies ermöglicht genauere und kontextspezifischere Antworten, insbesondere in dynamischen Situationen wie Flüchtlingskrisen, indem aktuelle und relevante Informationen genutzt werden. Ähnlich stellt Apollolytics mehr Kontext bereit, wenn LLMs auf als Propaganda markierte Texte zugreifen und diese verarbeiten können.
  • Wahl des LLM-Typs: Organisationen müssen entscheiden, ob sie Closed-Source-LLMs (z.Bsp.GPT von OpenAI) oder Open-Source-LLMs (z.Bsp. Llama von Meta) einsetzen wollen. Closed-Source-LLMs verfügen über umfangreiche Wissensbasen und sind einfach über APIs zugänglich. Im Gegensatz dazu bieten Open-Source-LLMs mehr Flexibilität und Anpassungsmöglichkeiten für spezifische Anwendungsfälle, erfordern jedoch eine eigene Hosting-Infrastruktur.
  • Ethik im Kriseneinsatz: Es ist wichtig, ein Gleichgewicht zwischen den Vorteilen von LLMs und dem Schutz individueller Rechte zu finden. In Krisenzeiten muss die Dringlichkeit des Einsatzes von LLMs gegen den Datenschutz abgewogen werden. Beispielsweise entspricht die Nutzung von R2G der Datenschutz-Grundverordnung, wirft jedoch ethische Fragen auf.
Zudem können Tools wie R2G durch böswillige Akteure genutzt werden, um Geflüchtete zu gefährden, daher sollte der Einsatz solcher Tools Transparent mit der Öffentlichkeit diskutiert werden.
Die Applikationen RefuGPT, R2G und Apollolytics demonstrieren, wie LLMs den öffentlichen Sektor in Krisensituationen durch gezielte Flüchtlingshilfe und effektive
Propagandaerkennung unterstützen können. Für die konkreten Kriseneinsätze sollten Behörden die entsprechenden LLMs mit externen Datenquellen verknüpfen, um genauere Antworten zu erhalten. Zudem müssen sie entscheiden, ob sie Closed- oder Open-Source-LLMs einsetzen wollen, und gewährleisten, dass LLMs ethisch verantwortungsbewusst eingesetzt werden, sodass Transparenz und Datenschutz gewährleistet sind.

Der Artikel bezieht sich auf die Projekte «Government as a Platform» (2. Projekt-Call) und «Propagandaerkennung mit AI» (1. Founder-Call). Kilian Sprenkamp arbeitet bei beiden Projekten mit.