interview
„Künstliche Intelligenz“ trai
niert wird, die Zwischener
gebnisse in komplexen algo
rithmischen Systemen und
das Gesamtergebnis überprü
fen, etwa im Hinblick auf Dis
kriminierungen. Wie schon er
wähnt, ist eine solche Überprü
fung je nach dem Grad einer
möglichen Gefährdung von
Menschen und Umwelt durch
den Einsatz algorithmischer
Systeme mehr oder weniger
streng handzuhaben.
Ist es für Sie ethisch vertret-
bar, insbesondere hoheitliche
Dienstleistungen an künstliche
Intelligenz outzusourcen? Und
wer übernimmt in diesen Fäl-
len die Verantwortung für
das Handeln der KI?
Die Verantwortung muss im
mer von Menschen und legi
timierten Institutionen getra
gen werden. Eine Maschine
kann keine Verantwortung
übernehmen, sie hat keine ei
genen Werte, keine Fähigkeit
zu moralischer Abwägung
oder zur Gewichtung gesell
schaftlicher Folgen.
Ob eine bestimmte Aufgabe
von Maschinen erledigt wer
den kann und sollte, hängt
unter anderem davon ab, wie
sehr diese Aufgabe auf eine
Interaktion und Beziehung
zwischen Menschen angewie
sen ist – besonders klar wird
das am Beispiel der Pflege
hilfsbedürftiger Menschen.
Wenn aber eine Aufgabe
nicht auf zwischenmensch-
liche Beziehungen angewie-
sen ist und besonders gut
und effizient durch eine Ma
schine erledigt werden kann,
dann spricht auch bei hoheit
lichen Aufgaben aus meiner
Sicht nichts dagegen – etwa
bei einem Risikomanagement
system zur Steuerung der In
tensität von Fallprüfungen bei
Steuererklärungen. Vielleicht
macht die Maschine ja in man
chen Bereichen sogar weniger
Fehler. Es muss natürlich Trans
parenz bestehen und die Mög
lichkeit oder in bestimmten
Fällen von vorneherein die
Pflicht geben, ein algorith
misch ermitteltes Ergebnis
zu überprüfen. Zudemmuss
der Betroffene gegebenen-
falls auch Einspruch erheben
können.
Wichtig ist in allen Fällen,
dass das algorithmische Sys
tem eine hohe Qualität hat
und entsprechende Kontrol-
len durchgeführt werden.
Auch bei nicht hoheitlichen
Aufgaben können die Entschei
dungen der Verwaltung enor
me Auswirkungen auf das Le
ben der Bürger haben – zum
Beispiel bei der Einschätzung,
welcher Arbeitssuchende an
welchen potenziellen Arbeit
geber vermittelt werden kann.
Wie könnte eine Regelung aus
sehen, bei der die Betroffenen
im Zweifel den Anspruch auf
eine von einem Menschen ge
troffene Einschätzung durchset
zen können? Ist das überhaupt
nötig, weil ja auch Menschen
hier fehlerhafte Entscheidun
gen treffen können?
Auch hier gilt meiner Über
zeugung nach, dass in einem
Rechtsstaat die Bürger einen
Anspruch darauf haben, Rechts
mittel auch gegen nicht hoheit
liche Entscheidungen der Ver
waltung einzulegen, die sie
ungerecht finden und durch
die sie sich diskriminiert füh
len. Gerade bei der Vermitt
lung von Lebenschancen wie
einem Arbeitsverhältnis ist
es zudem ethisch geboten,
besonders sorgfältig vorzu
gehen und dem einzelnen
Menschen gerecht zu werden.
Es spricht vieles dafür, dass
das durch eine Kombination
aus digitalen Hilfsmitteln wie
Datenbanken und algorith
mischen Auswertungstech
niken auf der einen Seite und
menschlichem Urteilsvermö
gen auf der anderen Seite am
besten zu gewährleisten ist.
Wenn man demMenschen
gerecht werden möchte, muss
es auch die Möglichkeit zu Ein
zelfallentscheidungen und zur
Abweichung von hochstandar
disierten Systemen geben.
Hier ist eine schwierige Ba
lance zu erreichen: Einerseits
darf ein technisches System
in sensiblen Bereichen nicht
so starr sein, dass wichtige in
dividuelle Faktoren ausnahms
los ignoriert werden, anderer
seits darf die Flexibilität für
menschliche Eingriffe in das
Ergebnis nicht missbraucht
werden. Eine solche Balance
haben wir auch schon ohne
„Künstliche Intelligenz“ her
zustellen, es wird unter den
Bedingungen moderner Tech
nologie nur schwieriger. Ein
Beispiel hierfür kann die Be
willigung von Leistungen der
Sozialversicherung sein. Vieles
wird sich hier routinemäßig
automatisiert machen lassen,
manches aber eben auch nicht,
weil die Einzelfälle sehr kom
plex sein können.
Wenn künstliche Intelligenz
in den öffentlichen Dienst Ein
zug hält, müssen sowohl die
Beschäftigten als auch die
Bürger für die Technik sensi
bilisiert werden. Welche Mög
lichkeiten gibt es Ihrer Mei
nung nach, hier schnell einen
routinierten Umgang zu eta
blieren, der nicht auf einen er
heblichen Mehraufwand für
die Beschäftigten hinausläuft?
An dem Aufwand für eine –
im übrigen fortlaufende –
Qualifizierung und Fortbil
dung für die Mitarbeiterinnen
und Mitarbeiter kommen wir
nicht vorbei. Technik entwi
ckelt sich außerordentlich
schnell, und in kurzen Zeit
abständen erleben wir tech
nologische Fortschritte, die
für die Ausübung vieler Tätig
keiten relevant sind. Das er
fordert von den Beschäftigten
die Bereitschaft, sich auf den
Wandel ihrer Tätigkeiten und
die Weiterentwicklung der ei
genen Kompetenzen einzulas
sen. Vom Arbeitgeber verlangt
es geeignete Rahmenbedin
gungen zu schaffen, diesen
Bedarf zu erfüllen und auch
in geeigneter Weise zu kom
munizieren. Sorgen müssen
wir natürlich für diejenigen,
für die der Erwerb neuer Kom
petenzen nicht möglich ist.
Auch an einer Phase von Un
sicherheiten und Unzufrieden
heiten der Bürgerinnen und
Bürger werden wir wohl
nicht vorbeikommen. Erfor
derliche Nachfragen oder
sogar Beschwerden und Ein
sprüche können aber durch
gute Anleitungen, durch klug
aufgesetzte, gründlich vor
Einführung reflektierte und
qualitativ abgesicherte digita-
le Anwendungen so weit wie
möglich reduziert werden. Am
besten beteiligt man schon bei
der Entwicklung von technolo
gisch gestützten Dienstleistun
gen die zukünftigen Nutzerin
nen und Nutzer. Dann lernt
man ihre Präferenzen und
auch mögliche Schwierigkei-
ten und Barrieren kennen.
Letztlich bin ich davon über
zeugt, dass klug entwickelte
und eingesetzte algorithmi
sche Systeme das Leben der
Menschen im privaten wie
beruflichen Bereich verein
fachen und bereichern wer-
den. Sie werden uns Zeit
verschaffen und Möglich-
keiten eröffnen, um uns
mit den Dingen zu beschäf
tigen, die uns wichtig sind.
Wir haben allerdings die
nicht ganz einfache Verant
wortung, sie so zu gestalten,
dass sie dem Individuum und
der Gesellschaft dienen.
<<
Dr. Christiane Woopen .
. ist seit 2017 Vorsitzende
des Europäischen Ethikrates
(European Group on Ethics
in Science and New Tech
nologies – EGE). Woopen
bekleidet seit 2009 die Pro
fessur für Ethik und Theorie
der Medizin an der Univer
sität zu Köln. Im Jahr 2013
wurde sie zudem zur Direk
torin von CERES gewählt,
einem Zentrum für die in
terdisziplinäre Forschung,
Aus- und Fortbildung sowie
Beratung zu gesellschafts
relevanten Themen im Be
reich Gesundheit.
5
dbb
>
dbb magazin | Juni 2019