Damit KI in der öffentlichen Verwaltung nicht zu Lametta wird

Komplexe algorithmische Systeme können Verwaltungshandeln sinnvoll unterstützen. Das wird aber nur gelingen, wenn Verwaltungen und Behörden die Kompetenz haben, zu verstehen, für welche Zwecke KI sinnvoll ist, was sie leistet und wo ihre Grenzen liegen. Eine Gastkolumne von Angela Müller, Leiterin von Algorithm-Watch Schweiz.

Von Angela Müller · 18. November 2022

Systeme mit sogenannter Künstlicher Intelligenz sind die vermeintlichen Wunderwaffen zahlreicher IT-Anbieter. Selbstverständlich sollen sie auch dazu eingesetzt werden, die öffentliche Verwaltung zu revolutionieren: indem sie das beste Personal aussuchen und optimal fördern, Verwaltungsabläufe effizienter und Dienstleistungen für die Bevölkerung einfacher machen – und nebenbei viel Geld sparen.

Wer genauer hinschaut, stellt fest, dass es sich dabei gar nicht so selten um Schlangenöl handelt – das heisst auf Hochglanz polierte Produkte, die lediglich vorgeben, bislang unerreichbare Leistungen vollbringen zu können, tatsächlich aber mitunter eher gefährlich als hilfreich sind. Die Liste ist lang: Personalsoftware, die aus Videoanalysen Persönlichkeitsprofile erstellen und Führungsqualitäten erkennen soll, dann aber dieselbe Person vollständig anders einschätzt, wenn sie ihr Haar statt offen unter einem Kopftuch trägt. Ein Sprachassistenzsystem, das Kindern vorschlägt, lebensgefährliche Experimente mit Steckdosen zu unternehmen. Und Passfotoautomaten mit BiometrieTechnologie, die dunkelhäutige Menschen nicht erkennen.

Ziel muss sein, dass der Einsatz der Systeme den Nutzen für Mensch und Gesellschaft erhöht. Angela Müller

Komplexe algorithmische Systeme können Verwaltungshandeln sinnvoll unterstützen. Das wird aber nur gelingen, wenn zum einen die Kundinnen – Verwaltungen und Behörden – die Kompetenz haben, das Marketing-Lametta der Anbieter zu durchschauen und zu verstehen, für welche Zwecke die Systeme tatsächlich sinnvoll sind, was sie konkret leisten können und wo ihre Grenzen liegen. Zum anderen müssen die Folgen eines Einsatzes abgeschätzt werden, um Fehler wie die genannten zu verhindern. Grundsätze dafür sind, dass Schäden vermieden und zugleich die Autonomie der Betroffenen, Gerechtigkeit und Fairness gesichert werden. Das Ziel muss sein, dass der Einsatz der Systeme tatsächlich den Nutzen für Mensch und Gesellschaft erhöht – also für uns alle, nicht nur für einige wenige. Das mag nach hehren, abstrakten Zielen klingen, die innovativen Ideen eher im Weg stehen. Das Gegenteil ist der Fall. IT-Praktiker:innen wissen, dass es oft wesentlich mehr kostet, ein misslungenes System wieder geradezubiegen, als von Beginn an in eine gute Planung zu investieren. Pragmatische Werkzeuge für Folgeabschätzungen helfen, Risiken und Fehlerquellen früh zu erkennen und zu vermeiden. Das schützt die Rechte der Bevölkerung, verbessert die Verfahren und spart so letztlich Ressourcen der Öffentlichkeit und der Nutzer:innen. So trägt die Verwaltung gleich auf mehrfache Weise dazu bei, ihr Ansehen zu stärken und ihre Glaubwürdigkeit auch in Zukunft zu sichern. Eine Investition, die sich auszahlt.

Gastkolumnen im Abraxas Magazin

Das Abraxas Magazin lädt Gastautorinnen und -autoren dazu ein, pointiert zu Aspekten der Digitalisierung Stellung zu nehmen. Die Texte geben die Ansichten und Meinungen der Autorinnen und Autoren wieder und können von der Position von Abraxas abweichen.

Angela Müller

Über Angela Müller

Angela Müller ist Leiterin von Algorithm-Watch Schweiz. Die Non-Profit-Organisation beleuchtet die Auswirkungen algorithmischer Systeme auf Mensch und Gesellschaft und setzt sich dafür ein, dass diese Grundrechte achten und das Gemeinwohl schützen. Angela Müller hat politische Philosophie studiert und an der Universität Zürich eine rechtswissenschaftliche Dissertation zum Thema Menschenrechte im Kontext von Globalisierung und neuen Technologien verfasst.