Neue ALAIT-Dossiers: Wie KI gegen Hass im Netz und bei der Vergabe von Sozialhilfe und Co. eingesetzt werden kann

Wien (OTS) – Die Vor- und Nachteile der Nutzung von Künstlicher
Intelligenz (KI)
im Kampf gegen Hass im Netz beziehungswiese bei der Vergabe von
staatlichen Transferleistungen sind Inhalt zweier neuer Dossiers des
Austrian Lab for AI Trust (ALAIT). Die unter
science.apa.at/project/alait/ abrufbaren Publikationen sind im Rahmen
des Forschungsprojekts zur Förderung des öffentlichen Diskurses über
Vertrauen in KI entstanden. ALAIT wurde vom österreichischen
Bundesministerium für Innovation, Mobilität und Infrastruktur (BMIMI)
in Auftrag gegeben, die Förderabwicklung erfolgt über die FFG.

Zwtl.: Vertrauen in KI durch Wissensvermittlung fördern

„Künstliche Intelligenz verändert unsere Wirtschaft und
Gesellschaft tiefgreifend. Bei dem Vordringen der Technologie treffen
auch Ängste und Hoffnungen in der Gesellschaft aufeinander.
Künstliche Intelligenz bringt uns dann Fortschritt, wenn ihr Einsatz
nachvollziehbar und vertrauenswürdig bleibt. Daher sind für mich die
Themen Information, Aufklärung und Beratung essenziell. Das Projekt
ALAIT unterstützt dabei, Risiken bewusst zu reflektieren und die
neuen Chancen zu nutzen“, so Innovationsminister Peter Hanke.

Die ALAIT-Dossiers bieten nicht nur tiefgehende Einblicke in die
Funktionsweise und Möglichkeiten von KI im jeweiligen Einsatzgebiet,
sondern beleuchten auch die damit verbundenen ethischen und
gesellschaftlichen Herausforderungen. Die Dossiers richten sich an
Entscheidungsträger:innen , Wissenschafter:innen und alle
Interessierten, die sich mit der verantwortungsvollen Nutzung von KI-
Technologien auseinandersetzen.

Zwtl.: Hate Speech Detection: KI-Systeme gegen Hass im Netz

Das erste neue Dossier widmet sich der KI-gestützten Erkennung
beleidigender Aussagen in sozialen Medien und bewertet seinen
Einsatz. Online-Plattformen setzen aufgrund gesetzlicher
Verpflichtungen in Europa vermehrt KI-Systeme zur Erkennung und
Entfernung von Hassrede ein. Diese Technologie verspricht, die
digitale Kommunikation sicherer und inklusiver zu gestalten.

Zu den Chancen zählen eine verbesserte Moderation von Inhalten,
die Reduktion psychischer Belastungen für Content-Moderator:innen und
ein angenehmeres Erlebnis für Nutzer:innen der Plattformen. Besonders
hervorzuheben ist die Möglichkeit, durch KI die enorme Menge an
problematischen Inhalten effizient zu bewältigen und gleichzeitig die
Einhaltung gesetzlicher Vorgaben wie des Digital Services Act zu
unterstützen.

Doch auch die Risiken sind nicht zu unterschätzen: KI-Systeme
kämpfen mit Kontextverständnis, was zu Fehlklassifikationen führen
kann. Ironie, Sarkasmus oder verschlüsselte Sprache bleiben oft
unentdeckt, während harmlose Inhalte fälschlicherweise als
beleidigend eingestuft werden. Dies kann die Meinungsfreiheit
einschränken und marginalisierte Gruppen weiter benachteiligen. Zudem
birgt die mangelnde Transparenz der Systeme die Gefahr, dass
Entscheidungen nicht nachvollziehbar sind. Für den Praxiseinsatz
betont das Dossier deshalb die Notwendigkeit menschlicher Aufsicht
und kultureller Sensibilität.

Zwtl.: Predictive Analytics: Unterstützung bei Vergabe von
staatlichen Hilfen

Das zweite Dossier untersucht den Einsatz von Predictive
Analytics in der öffentlichen Vergabe von staatlichen
Transferleistungen wie etwa Familienbeihilfe, Sozialhilfe oder
Wohnbeihilfe. Hier wird KI eingesetzt, um Muster in Daten zu erkennen
und Vorhersagen zu treffen, die die Entscheidungsfindung bei
Ausschreibungen und Vergaben unterstützen können. Die Vorteile sind
offensichtlich: Durch die Analyse großer Datenmengen können Prozesse
beschleunigt, Kosten gesenkt und die Transparenz erhöht werden.
Besonders in komplexen Vergabeverfahren bietet Predictive Analytics
die Möglichkeit, Risiken frühzeitig zu identifizieren und
Entscheidungen datenbasiert zu optimieren.

Dennoch gibt es auch hier Herausforderungen. Die Qualität der
zugrunde liegenden Daten ist entscheidend, da Verzerrungen oder
unvollständige Informationen zu systematischen Falschentscheidungen
führen können. Zudem besteht die Gefahr, dass durch den Einsatz von
KI die menschliche Kontrolle über Entscheidungen verloren geht, da
Menschen dazu neigen, Maschinen mehr zu vertrauen. Im Dossier wird
hervorgehoben, dass die Abwägung, welche Merkmale einer Person in
algorithmischen Systemen verarbeitet werden und zur
Entscheidungsfindung beitragen, unabdingbar ist. Zudem ist
Transparenz, die bereits im Design des Systems angelegt ist,
notwendig, damit die Technologie fair und für alle nachvollziehbar
eingesetzt wird.

Die KI-Trust-Dossiers stehen auf der Projektseite zum Download
zur Verfügung.

Service: Weitere Informationen zum Projekt ALAIT