Austrian Lab for AI Trust veröffentlicht umfassende Analysen zum verantwortungsvollen Einsatz Künstlicher Intelligenz in sensiblen Bereichen
Zwei neue ALAIT-Dossiers beleuchten, wie KI bei der Bekämpfung von Hass im Netz und bei staatlichen Transferleistungen helfen kann – und welche Gefahren dabei lauern.
Die Künstliche Intelligenz dringt in immer mehr Lebensbereiche vor – auch in solche, die für die Gesellschaft besonders sensibel sind. Wie können automatisierte Systeme dabei helfen, Hassrede in sozialen Medien zu erkennen? Und welche Rolle spielt KI bei der Vergabe von Sozialhilfe, Familienbeihilfe oder Wohnbeihilfe? Zwei neue Forschungsdossiers des Austrian Lab for AI Trust (ALAIT) geben darauf nun fundierte Antworten und zeigen sowohl die Potenziale als auch die Schattenseiten dieser Technologien auf.
Das ALAIT-Projekt wurde vom Bundesministerium für Innovation, Mobilität und Infrastruktur (BMIMI) initiiert und wird über die Österreichische Forschungsförderungsgesellschaft (FFG) abgewickelt. Ziel ist es, den öffentlichen Diskurs über Vertrauen in Künstliche Intelligenz zu fördern und Wissen über die Technologie breit zugänglich zu machen.
Innovationsminister Peter Hanke betont die Bedeutung von Aufklärung und Information: "Künstliche Intelligenz verändert unsere Wirtschaft und Gesellschaft tiefgreifend. Bei dem Vordringen der Technologie treffen auch Ängste und Hoffnungen in der Gesellschaft aufeinander." Fortschritt durch KI sei nur dann möglich, wenn der Einsatz nachvollziehbar und vertrauenswürdig bleibe. Das ALAIT-Projekt solle dabei unterstützen, Risiken bewusst zu reflektieren und neue Chancen zu nutzen.
Die nun veröffentlichten Dossiers richten sich an Entscheidungsträgerinnen und Entscheidungsträger in Politik, Wirtschaft und Verwaltung, aber auch an Wissenschaftlerinnen und Wissenschaftler sowie alle Interessierten, die sich mit der verantwortungsvollen Nutzung von KI-Technologien auseinandersetzen möchten.
Das erste der beiden neuen Dossiers widmet sich einem der drängendsten Probleme der digitalen Kommunikation: Hassrede in sozialen Medien. Beleidigungen, Drohungen und Hetze sind auf Online-Plattformen allgegenwärtig und stellen nicht nur für die Betroffenen eine enorme Belastung dar, sondern vergiften auch den öffentlichen Diskurs.
Aufgrund gesetzlicher Verpflichtungen, insbesondere durch den europäischen Digital Services Act (DSA), setzen große Plattformen zunehmend auf KI-gestützte Systeme, um problematische Inhalte automatisch zu erkennen und zu entfernen. Die schiere Menge an täglich veröffentlichten Beiträgen macht eine rein menschliche Moderation praktisch unmöglich.
Die Chancen dieser Technologie sind beachtlich. KI-Systeme können rund um die Uhr arbeiten und Millionen von Beiträgen in Echtzeit analysieren. Dadurch lässt sich die Reaktionszeit bei der Entfernung schädlicher Inhalte drastisch verkürzen. Für die Nutzerinnen und Nutzer der Plattformen bedeutet das ein angenehmeres und sichereres Online-Erlebnis.
Ein weiterer wichtiger Aspekt betrifft die Menschen, die bisher mit der manuellen Überprüfung problematischer Inhalte betraut waren. Content-Moderatorinnen und -Moderatoren sind durch ihre Arbeit enormen psychischen Belastungen ausgesetzt, da sie täglich mit verstörenden Inhalten konfrontiert werden. KI-Systeme können diese Belastung reduzieren, indem sie einen Großteil der Vorarbeit übernehmen.
Für die Betreiber der Plattformen bietet die Technologie zudem die Möglichkeit, gesetzliche Vorgaben effizient einzuhalten. Der Digital Services Act verpflichtet sie zur aktiven Bekämpfung illegaler Inhalte – eine Aufgabe, die ohne technische Unterstützung kaum zu bewältigen wäre.
Doch das Dossier zeigt auch deutlich die Grenzen und Risiken der automatisierten Hassrede-Erkennung auf. Ein zentrales Problem ist das mangelnde Kontextverständnis der Algorithmen. Sprache ist komplex, vielschichtig und oft mehrdeutig. Ironie, Sarkasmus oder verschlüsselte Ausdrucksweisen stellen für KI-Systeme eine erhebliche Herausforderung dar.
Die Folge sind Fehlklassifikationen in beide Richtungen: Einerseits schlüpfen tatsächlich problematische Inhalte durch das Raster, wenn sie geschickt formuliert oder in einem für die Maschine nicht erkennbaren Code verfasst sind. Andererseits werden harmlose Beiträge fälschlicherweise als Hassrede eingestuft und entfernt – mit potenziell gravierenden Auswirkungen auf die Meinungsfreiheit.
Besonders besorgniserregend ist die Beobachtung, dass marginalisierte Gruppen von diesen Fehlern überproportional betroffen sein können. Wenn beispielsweise Begriffe, die innerhalb einer Community zur Selbstbezeichnung verwendet werden, vom Algorithmus als beleidigend eingestuft werden, führt das zu einer weiteren Benachteiligung ohnehin schon vulnerabler Gruppen.
Ein weiteres Problemfeld ist die mangelnde Transparenz vieler KI-Systeme. Oft ist für Außenstehende – und manchmal selbst für die Betreiber – nicht nachvollziehbar, warum ein bestimmter Inhalt als problematisch eingestuft wurde. Diese "Black Box"-Problematik erschwert nicht nur die Kontrolle der Systeme, sondern untergräbt auch das Vertrauen der Nutzerinnen und Nutzer.
Das ALAIT-Dossier betont daher die Notwendigkeit menschlicher Aufsicht bei der automatisierten Content-Moderation. KI sollte als Werkzeug zur Unterstützung menschlicher Entscheidungen dienen, nicht als deren Ersatz. Zudem sei kulturelle Sensibilität bei der Entwicklung und dem Einsatz solcher Systeme unerlässlich, da Hassrede in verschiedenen Sprachen und Kulturen unterschiedliche Formen annehmen kann.
Das zweite neue Dossier befasst sich mit einem Themenfeld, das in Österreich bereits in der Vergangenheit für heftige Debatten gesorgt hat: dem Einsatz von prädiktiver Analytik bei der Vergabe staatlicher Transferleistungen. Gemeint sind Systeme, die auf Basis von Datenanalysen Vorhersagen treffen und damit Entscheidungen über Familienbeihilfe, Sozialhilfe, Wohnbeihilfe und ähnliche Leistungen unterstützen sollen.
Die potenziellen Vorteile solcher Systeme liegen auf der Hand: Durch die Analyse großer Datenmengen können Verwaltungsprozesse beschleunigt und Kosten gesenkt werden. In einer Zeit knapper öffentlicher Ressourcen ist das ein gewichtiges Argument. Predictive Analytics kann dabei helfen, Anträge schneller zu bearbeiten und Wartezeiten für die Betroffenen zu verkürzen.
Zudem bietet die Technologie die Möglichkeit, Risiken frühzeitig zu identifizieren. Wenn ein System beispielsweise erkennt, dass bestimmte Antragstellerinnen und Antragsteller ein erhöhtes Risiko haben, in finanzielle Schwierigkeiten zu geraten, könnten präventive Maßnahmen eingeleitet werden, bevor es zu einer Krise kommt.
Befürworter argumentieren auch mit einer erhöhten Transparenz und Objektivität: Wenn Entscheidungen auf nachvollziehbaren Daten basieren, könnten willkürliche oder von persönlichen Vorurteilen beeinflusste Entscheidungen einzelner Sachbearbeiterinnen und Sachbearbeiter reduziert werden.
Doch gerade an diesem Punkt setzt auch die Kritik an, die das ALAIT-Dossier ausführlich darstellt. Die Qualität der zugrunde liegenden Daten ist entscheidend für die Fairness der Ergebnisse. Wenn historische Daten bereits Verzerrungen oder Diskriminierungen enthalten, werden diese durch algorithmische Systeme nicht etwa korrigiert, sondern perpetuiert und möglicherweise sogar verstärkt.
Ein klassisches Beispiel: Wenn ein System auf Basis vergangener Entscheidungen trainiert wird und diese Entscheidungen bereits von Vorurteilen geprägt waren – etwa gegenüber bestimmten Herkunftsgruppen oder Wohnvierteln –, wird das KI-System diese Muster übernehmen und fortschreiben. Die Diskriminierung wird damit sozusagen "automatisiert" und erhält einen Anschein von Objektivität, der ihre Hinterfragung erschwert.
Unvollständige Informationen stellen ein weiteres Problem dar. Wenn relevante Daten fehlen oder nicht erfasst werden, können systematische Falschentscheidungen die Folge sein. Menschen, deren Lebenssituation sich nicht in den verfügbaren Datenkategorien abbilden lässt, drohen durch das Raster zu fallen.
Eine besondere Gefahr sieht das Dossier im sogenannten "Automation Bias": der menschlichen Tendenz, automatisierten Systemen mehr zu vertrauen als dem eigenen Urteil oder dem Urteil anderer Menschen. Wenn Sachbearbeiterinnen und Sachbearbeiter die Empfehlungen eines KI-Systems unkritisch übernehmen, geht die menschliche Kontrolle über Entscheidungen de facto verloren – selbst wenn formell noch ein Mensch die finale Entscheidung trifft.
Dies ist besonders problematisch in Bereichen, in denen die Entscheidungen existenzielle Auswirkungen auf die Betroffenen haben können. Ob jemand Sozialhilfe erhält oder nicht, kann über Wohnung, Ernährung und gesellschaftliche Teilhabe entscheiden. Solche Entscheidungen allein auf Basis algorithmischer Empfehlungen zu treffen, wirft schwerwiegende ethische Fragen auf.
Das ALAIT-Dossier betont die Notwendigkeit, bereits bei der Entwicklung solcher Systeme Transparenz als zentrales Designprinzip zu verankern. Betroffene müssen verstehen können, auf welcher Grundlage Entscheidungen über sie getroffen werden. Dies erfordert nicht nur technische Dokumentation, sondern auch eine allgemeinverständliche Kommunikation der verwendeten Kriterien und Verfahren.
Ebenso unabdingbar sei eine sorgfältige Abwägung, welche Merkmale einer Person überhaupt in algorithmischen Systemen verarbeitet werden dürfen. Nicht jede Information, die theoretisch für Vorhersagen nützlich sein könnte, sollte auch verwendet werden. Hier sind ethische und rechtliche Grenzen zu ziehen, die das Persönlichkeitsrecht und den Schutz vor Diskriminierung gewährleisten.
Die beiden neuen ALAIT-Dossiers machen deutlich, dass der Einsatz von Künstlicher Intelligenz in sensiblen gesellschaftlichen Bereichen ein Balanceakt ist. Die Technologie bietet unbestreitbare Chancen: Sie kann helfen, die digitale Kommunikation sicherer zu gestalten und staatliche Verwaltungsprozesse effizienter zu machen. Gleichzeitig birgt sie aber auch erhebliche Risiken für Grundrechte wie Meinungsfreiheit und Gleichbehandlung.
Der Schlüssel zu einem verantwortungsvollen Einsatz liegt laut den Forschungsergebnissen in mehreren Faktoren: Transparenz über die Funktionsweise der Systeme, menschliche Aufsicht und Kontrollmöglichkeiten, qualitativ hochwertige und unverzerrte Trainingsdaten sowie eine kontinuierliche Überprüfung der Ergebnisse auf unbeabsichtigte Diskriminierungen.
Österreich steht mit diesen Herausforderungen nicht allein. In ganz Europa wird derzeit intensiv diskutiert, wie der Einsatz von KI reguliert werden kann, ohne Innovationen zu ersticken. Der EU AI Act, der erste umfassende Rechtsrahmen für Künstliche Intelligenz weltweit, tritt schrittweise in Kraft und wird auch für österreichische Behörden und Unternehmen neue Verpflichtungen mit sich bringen.
Die ALAIT-Dossiers leisten einen wichtigen Beitrag zur Versachlichung einer oft emotional geführten Debatte. Statt pauschaler Technikbegeisterung oder -ablehnung bieten sie eine differenzierte Analyse, die sowohl Chancen als auch Risiken benennt und konkrete Handlungsempfehlungen gibt.
Für Entscheidungsträgerinnen und Entscheidungsträger in Politik und Verwaltung sind solche Informationen unverzichtbar, wenn sie fundierte Entscheidungen über den Einsatz von KI-Technologien treffen wollen. Aber auch für die breite Öffentlichkeit ist es wichtig, die Funktionsweise und die Grenzen dieser Systeme zu verstehen – schließlich betreffen die Entscheidungen, die mit ihrer Hilfe getroffen werden, potenziell jeden und jede von uns.
Die Dossiers stehen auf der Projektseite des Austrian Lab for AI Trust zum kostenlosen Download zur Verfügung. Sie sind Teil einer wachsenden Sammlung von Publikationen, die verschiedene Anwendungsfelder von Künstlicher Intelligenz aus der Perspektive des Vertrauens und der gesellschaftlichen Verantwortung beleuchten.