Systeme mit sogenannter Künstlicher Intelligenz sind die vermeintlichen Wunderwaffen zahlreicher IT-Anbieter. Selbstverständlich sollen sie auch dazu eingesetzt werden, die öffentliche Verwaltung zu revolutionieren: indem sie das beste Personal aussuchen und optimal fördern, Verwaltungsabläufe effizienter und Dienstleistungen für die Bevölkerung einfacher machen – und nebenbei viel Geld sparen.
Wer genauer hinschaut, stellt fest, dass es sich dabei gar nicht so selten um Schlangenöl handelt – das heisst auf Hochglanz polierte Produkte, die lediglich vorgeben, bislang unerreichbare Leistungen vollbringen zu können, tatsächlich aber mitunter eher gefährlich als hilfreich sind. Die Liste ist lang: Personalsoftware, die aus Videoanalysen Persönlichkeitsprofile erstellen und Führungsqualitäten erkennen soll, dann aber dieselbe Person vollständig anders einschätzt, wenn sie ihr Haar statt offen unter einem Kopftuch trägt. Ein Sprachassistenzsystem, das Kindern vorschlägt, lebensgefährliche Experimente mit Steckdosen zu unternehmen. Und Passfotoautomaten mit BiometrieTechnologie, die dunkelhäutige Menschen nicht erkennen.
Komplexe algorithmische Systeme können Verwaltungshandeln sinnvoll unterstützen. Das wird aber nur gelingen, wenn zum einen die Kundinnen – Verwaltungen und Behörden – die Kompetenz haben, das Marketing-Lametta der Anbieter zu durchschauen und zu verstehen, für welche Zwecke die Systeme tatsächlich sinnvoll sind, was sie konkret leisten können und wo ihre Grenzen liegen. Zum anderen müssen die Folgen eines Einsatzes abgeschätzt werden, um Fehler wie die genannten zu verhindern. Grundsätze dafür sind, dass Schäden vermieden und zugleich die Autonomie der Betroffenen, Gerechtigkeit und Fairness gesichert werden. Das Ziel muss sein, dass der Einsatz der Systeme tatsächlich den Nutzen für Mensch und Gesellschaft erhöht – also für uns alle, nicht nur für einige wenige. Das mag nach hehren, abstrakten Zielen klingen, die innovativen Ideen eher im Weg stehen. Das Gegenteil ist der Fall. IT-Praktiker:innen wissen, dass es oft wesentlich mehr kostet, ein misslungenes System wieder geradezubiegen, als von Beginn an in eine gute Planung zu investieren. Pragmatische Werkzeuge für Folgeabschätzungen helfen, Risiken und Fehlerquellen früh zu erkennen und zu vermeiden. Das schützt die Rechte der Bevölkerung, verbessert die Verfahren und spart so letztlich Ressourcen der Öffentlichkeit und der Nutzer:innen. So trägt die Verwaltung gleich auf mehrfache Weise dazu bei, ihr Ansehen zu stärken und ihre Glaubwürdigkeit auch in Zukunft zu sichern. Eine Investition, die sich auszahlt.
Gastkolumnen im Abraxas Magazin
Das Abraxas Magazin lädt Gastautorinnen und -autoren dazu ein, pointiert zu Aspekten der Digitalisierung Stellung zu nehmen. Die Texte geben die Ansichten und Meinungen der Autorinnen und Autoren wieder und können von der Position von Abraxas abweichen.
Über Angela Müller
Angela Müller ist Leiterin von Algorithm-Watch Schweiz. Die Non-Profit-Organisation beleuchtet die Auswirkungen algorithmischer Systeme auf Mensch und Gesellschaft und setzt sich dafür ein, dass diese Grundrechte achten und das Gemeinwohl schützen. Angela Müller hat politische Philosophie studiert und an der Universität Zürich eine rechtswissenschaftliche Dissertation zum Thema Menschenrechte im Kontext von Globalisierung und neuen Technologien verfasst.