Software richtet über Jobsuchende
Wenn die Entscheidung für Förderungen nur auf Daten beruht, wird den Arbeitssuchenden die Chance verwährt, ihr Anliegen persönlich anzusprechen und mit Argumenten zu überzeugen.

Software richtet über Jobsuchende

Bei der Entscheidung, wie Arbeitslose gefördert werden, hilft in Österreich jetzt ein Algorithmus. Es geht um Effizienz und um die Gefahr, dass Einzelne dadurch diskriminiert werden.

Kommentar: Max Böhner

Bereits vor Wochen hat der österreichische Arbeitsmarktservice (AMS) – das Pendant zum deutschen Jobcenter und zur Bundesagentur für Arbeit – bekannt gegeben, dass ab Mitte November ein Algorithmus Jobsuchende in Kategorien unterteilen wird. Bislang hält sich die Kritik überraschend in Grenzen.

Dass diese Automatisierung Frauen, Ausländer/innen und Ältere maßgeblich bei der Jobsuche und -vermittlung benachteiligen dürfte, wird zwar thematisiert und zum Teil problematisiert, doch lautstarken Protest hat es noch nicht gegeben. Im Gegensatz dazu lobt der AMS die Effizienz der Automatisierung, da Fördergelder dadurch besser verteilt werden könnten.

Drei Kategorien für die Jobsuche

Laut Statistik waren im September 2018 knapp 280.000 Personen beim AMS als arbeitslos gemeldet, zusätzlich befanden sich rund 65.000 Menschen in Schulungen. Um Arbeitslose vermitteln zu können, bietet Österreich, wie auch Deutschland, Weiterbildungen an. Für wen welche Maßnahmen sinnvoll sind, soll das automatisierte Verfahren nun schon vor dem ersten persönlichen Beratungsgespräch ermitteln.

Dabei werden Arbeitslose fortan in drei Kategorien unterteilt: in Menschen mit hohen, mittleren und niedrigen Chancen auf Vermittelbarkeit. Menschen in der untersten Kategorie werden eher keine oder nur eine kostengünstige Weiterbildung genießen können und landen stattdessen in günstigeren Kurzzeitprogrammen.

Testphase bis 2020

Im November hat die Testphase begonnen, ab 2020 soll die Software der Firma „Synthesis Forschung“ fest eingesetzt werden. Laut einem Schreiben, das der Tageszeitung „Der Standard“ vorliegt, sollen die Ressourcen künftig schwerpunktmäßig für Menschen in der mittleren Kategorie eingesetzt werden.

Die Begründung: Die mit den höchsten Chancen könnten sich selbst helfen und würden nur Stellenangebote benötigen, die in der niedrigsten mit den schlechtesten Perspektiven hingegen müssten (auch monetär) am stärksten gefördert werden – bei wenig vielversprechenden Aussichten. Es erscheint paradox, dass gerade an Menschen, die am meisten Unterstützung und Förderung benötigen, gespart werden soll.

Der Algorithmus berechnet die beruflichen Chancen mit Daten zu Ausbildung, Berufserfahrung, Alter, Geschlecht und Nationalität. Der AMS sehe darin keine Diskriminierung, da das System nicht selbst entscheide, so Pressesprecherin Beate Sprenger gegenüber dem Internetportal „netzpolitik.org“.

Die endgültige Entscheidung treffe der Berater oder die Beraterin. Spätestens hier muss man jedoch einhaken und sich wundern, ob nicht durch den Algorithmus eine Abwärtsspirale für ohnehin schon auf dem Arbeitsmarkt benachteiligte Gruppen ihren Gang nehmen könnte: für ältere Menschen, Frauen und Menschen mit Migrationshintergrund oder ohne österreichische Staatsbürgerschaft.

Diskriminierung durch Algorithmen

Johannes Kopf, Vorstand des AMS, leugnet hingegen das Diskriminierungs- und Benachteiligungspotential der Automatisierung: Der ermittelte Wert spiegele nur den Arbeitsmarkt wider, auf dem bestimmte Gruppen diskriminiert würden. Gerade diesen solle geholfen werden. Dass dem so sein wird, wenn es vor allem um Effizienz geht, lässt sich mehr als bezweifeln.

Zwar sieht es zumindest auf dem Papier nett aus, wenn ein neutrales System anstelle eines möglicherweise überforderten Mitarbeiters kategorisiert. Doch ist das grundlegende Problem, dass Algorithmen eben nie neutral sind, weil sie von Menschen gemacht sind.

Man kann zumindest für Frauen nur hoffen, dass die Verpflichtung des AMS greift, 50 Prozent der Fördermittel für Frauen auszugeben. Fragt sich nur, was mit älteren und nicht-österreichischen Menschen passiert, für die es eine solche Quote nicht gibt.

Johannes Kopf sagte zur Verteidigung des Systems auch: „Eine Abbildung der Realität kann nicht diskriminierend sein.“ Eine Fehleinschätzung: Wenn ein gesellschaftlicher Missstand perpetuiert wird, ist das schlicht und ergreifend diskriminierend. Amazon stellt hier ein gutes Beispiel dar. Das Unternehmen benachteiligte durch einen Algorithmus systematisch Frauen im Bewerbungsprozess. Der Algorithmus wurde mittlerweile abgeschafft.

 

  • Infodienst-Trainee-Stellen Der Artikel ist im WILA Arbeitsmarkt erschienen. Neben den Artikeln im Online-Magazin bietet das Abo-Produkt mehrere hundert ausgewählte aktuelle Stellen pro Wochen – von Montag bis Freitag aktualisiert und handverlesen speziell für Akademiker*innen mit einem generalistischen Studienhintergrund.
  • Die Abonnentinnen und Abonnenten erhalten durch den redaktionellen Teil und die Stellen-Datenbank einen breiten und dennoch konkreten Überblick über derzeitige Entwicklungen in Berufsfeldern und Branchen, können sich anhand der ausgewählten Jobs beruflich orientieren und bleiben so bei der Jobsuche am Ball. Unsere Erfahrung: Viele Abonnent*innen stoßen auf Tätigkeiten, die sie gar nicht auf dem Schirm hatten.

Neutralität nur auf dem ersten Blick

Die Entscheidungen des österreichischen Systems werden Sachbearbeiter/innen eher bestätigen als verwerfen, denn wer zweifelt „neutrale“ Berechnungen einer Maschine an? Da das System dem AMS zufolge nur eine 85-prozentige Trefferquote hat, also jeder siebte Mensch in eine falsche Schublade gesteckt wird, entpuppt sich diese Neutralität schnell als scheinheilig. Und doch erscheint es vielen Menschen vertrauenswürdiger und korrekter, in diesem Fall effizienter, wenn eine künstliche Intelligenz etwas berechnet.

Was in Deutschland noch unvorstellbar ist, wird nun in Österreich verwirklicht. Es ist ein weiterer Schritt der konservativen und rechtspopulistischen Regierung gegen ohnehin schon Benachteiligte. In Deutschland nutzen die Jobcenter bislang lediglich ein Programm, das das eigene Profil mit Stellenangeboten abgleicht und passende Jobs vorschlägt. Es findet hier keine Übertragung an die verteilenden und ausschlaggebenden Instanzen statt.

So sollte es auch sein, da kein Algorithmus gesellschaftliche Benachteiligungsstrukturen verfestigen sollte. Egal, wie viele Daten er kennt und vergleicht: Ein Algorithmus kann nie wie ein Mensch Menschenkenntnis und Empathie entwickeln. Fraglich ist außerdem, wo, wie lange und wie sicher diese Datenmassen eigentlich gespeichert werden und wer auf sie von wo aus Zugriff hat.

Lesen Sie außerdem:

Weitere WILA-Angebote