interview
Christiane Woopen
,
Vorsitzende des Europäischen Ethikrates
Klug entwickelte algorithmische Systeme
werden das Leben vereinfachen
dbb magazin
Gibt es bereits Anwendungs
beispiele von Künstlicher Intel
ligenz im deutschen öffent
lichen Dienst?
Christiane Woopen
Der öffentliche Dienst besteht
aus sehr unterschiedlichen Be
reichen, in denen die Digita
lisierung und der Einsatz von
maschinellem Lernen und algo
rithmischen Systemen unter
schiedlich weit fortgeschritten
sind. In der öffentlichen Ver
waltung beispielsweise gehört
Deutschland im europaweiten
Vergleich nicht gerade zu den
Vorreitern. Im Digital Economy
und Society Index 2018 (Index
für die digitale Wirtschaft und
Gesellschaft) der Europäischen
Kommission belegt Deutsch
land insgesamt Platz 14, be
zogen auf digitale öffentliche
Dienste sogar nur auf Platz 22.
Immerhin ist mittlerweile der
Prototyp des Bürgerportals
online. Zudem wächst gemäß
dem Smart-City-Atlas von Bit
kom und Fraunhofer IESE der
Anteil der Kommunen, die ei-
ne digitale Agenda erarbeiten
und sich zur Smart City ent
wickeln wollen. Ein konkretes
Anwendungsbeispiel in Bun
desbehörden ist die Spracher
kennung für arabische Haupt
dialekte des Bundesamts für
Migration und Flüchtlinge.
In welchen Bereichen sehen
Sie die größten Potenziale von
KI im öffentlichen Dienst?
Große Potenziale sehe ich
beispielsweise für die Schnel
ligkeit und die Servicequali-
tät bei der Erledigung von
Routinediensten in der öffent
lichen Verwaltung und den
Sozialversicherungen, für die
Entlastung – nicht Entlassung!
– von Personal etwa in Ämtern
und Gerichten, für die Erhe
bung und Auswertung von
Daten zur Gestaltung des öf
fentlichen Raums insbesonde
re im Bereich Mobilität und
Energie, für die Bürgerbetei
ligung bei kommunalen Stra
tegien und für die Betrugser
kennung. Konkret kann zum
Beispiel das Bundesamt für
Justiz genannt werden, das im
Rahmen des neuen Verfahrens
der Musterfeststellungsklage
die Aufgabe hat, Fälle massen
hafter Verletzungen des Ver
braucherrechts als Dienstleis
tung für Gerichte zu bündeln.
Künstliche Intelligenz basiert
auf der Auswertung großer
Datenmengen. Wie kann man
sicherstellen, dass die gesam
melten Daten nicht missbraucht
werden, den Bürger und seine
Verhaltensweisen unrecht-
mäßig zu analysieren?
Zum einen haben wir mit der
europäischen Datenschutz-
Grundverordnung bereits eine
starke Regulierung zum Schutz
personenbezogener Daten und
zur Vermeidung von Diskrimi
nierungen, durch die Men
schen aufgrund automatisier
ter Verarbeitung ihrer Daten
ungerechterweise benachtei
ligt werden können. Darüber
hinaus braucht es aber zusätz
liche Mechanismen, um die
Technik immer in den Dienst
des Menschen zu stellen und
die Einhaltung wesentlicher
ethischer und rechtlicher
Prinzipien zu garantieren.
Je höher das Gefährdungspo
tenzial eines algorithmischen
Systems im Hinblick auf die
Verletzung von Rechten und
Freiheiten des Bürgers ist, bis
hin zu Verletzungen seiner
persönlichen Freiheit und In
tegrität, umso strikter muss
die staatliche Regulierung
und Aufsicht sein. Das kann
auch bedeuten, bestimmte
Anwendungen vollständig
zu verbieten. Dabei kommt
es nicht vorrangig darauf an,
ob das algorithmische System
als sogenannte Künstliche In
telligenz gilt oder aber kein
selbstlernendes System ist. Im
Mittelpunkt steht vielmehr das
Risiko, das mit der Anwendung
verbunden ist. Die Datenethik
kommission der Bundesregie
rung wird unter anderem hier
zu im Oktober Empfehlungen
abgeben.
Ein Wesenszug von Künstlicher
Intelligenz ist ja, dass die Rech
ner zunächst von Menschen
angelernte Schlüsse aus der
Analyse der Daten ziehen – sie
aber in einem zweiten Schritt
diese Schlüsse konkretisieren
und auch abändern. Ist es für
einen Menschen überhaupt
möglich, die Analysen von
Künstlicher Intelligenz auf
lange Sicht stets nachzuvoll
ziehen und gegebenenfalls
zu korrigieren? Und wie kann
das sichergestellt werden?
Derzeit gelten Systeme ma
schinellen Lernens als Black
box-Systeme, bei denen jeden
falls nicht ohne riesengroßen
Aufwand nachvollzogen wer
den kann, wie sie zu ihren
Schlussfolgerungen kom-
men. Da dies natürlich unbe
friedigend ist, wird an der Ent
wicklung von sogenanntem
erklärbaremMaschinenlernen
gearbeitet, bei dem die ein
zelnen Rechenschritte und
Schlussfolgerungen nachvoll
ziehbar sind. Das würde eine
Kontrolle und Korrektur ver
einfachen. Aber auch ohne
diese Erklärbarkeit kann man
die Daten, mit denen eine
<<
Christiane Woopen
© Reiner Zensen
4
dbb
>
dbb magazin | Juni 2019