Irgendwie verständlich. Der Babysitter für den Nachwuchs sollte perfekt sein. Aber ein eigenes KI-System, das Social Media-Aktivitäten der Kandidaten untersucht und dann nicht wirklich nachvollziehbare Empfehlungen ausspricht? Die amerikanische Plattform „Predictim“ bietet genau diesen Dienst an – sehr zum Missfallen von Datenschützern und KI-Kritikern.
Sämtliche Social Media-Postings werden geprüft
Man nehme die Tausenden Postings von Facebook, Twitter und Instagram, die ein Babysitter-Bewerber jemals verfasst hat und lasse diese von einer künstlichen Intelligenz analysieren. Als Ergebnis erhält man ganz konkrete Hinweise zur Tauglichkeit als Babysitter bzw. mit der Person angeblich verbundene Risiken.
Zeigen Social Media den Charakter eines Menschen?
Beispielsweise, ob der Kandidat zum Drogenkonsum neigt. Oder ob die Gefahr von Mobbing, Respektlosigkeit oder schlechten Manieren besteht. Ganz einfach nach einem Punktesystem bewertet – 5 Punkte sind das schlechteste Ergebnis. Wie „Predictim“ zu den Ergebnissen kommt, verrät es zwar nicht. Aber die Eltern stört das nicht. Eine Mutter meint beispielsweise, dass Social Media den Charakter eines Menschen sehr gut zeigt. Überhaupt kommt das System in den USA sensationell an.
Der Bewerber bekommt seinen Screening-Bericht nicht zu sehen
Die potenziellen Babysitter müssen zwar mit dem Check einverstanden sein – aber natürlich wird hier Druck von den Predictim-Mitarbeitern gemacht, dass sie ansonsten gar keine Chance auf den Job haben. 25 Dollar fallen für die Eltern an. Sie erhalten einen exklusiven Bericht über das Screening, der auch Aussagen über Eigenschaften wie Höflichkeit, Teamgeist oder Manieren enthält. Der Bewerber selbst bekommt diesen Bericht nie zu Gesicht. Ein System, dass deine Persönlichkeit scannt und du hast keine Ahnung, ob du nicht als potenzieller Psychopath eingestuft wurdest – sehr nett …
Menschlicher Kontext? Fehlanzeige!
Klingt irgendwie dubios? Finden auch diverse Kritiker: Angebote wie Predictim bergen die große Gefahr, dass automatisch und ohne echte Prüfung vielleicht sogar lebensverändernde Entscheidungen getroffen werden. Das System arbeitet mit Black-Box-Algorithmen, die sehr wenig Auskunft darüber geben, wie sie das komplexe Innenleben eines Menschen auf dessen Gut- und Böswilligkeit herunterbrechen. Sogar Facebook hat Probleme, harmlose von Hate-Postings zu unterscheiden.
Und natürlich gibt es auch eine gewisse Fehleranfälligkeit, wie die Washington Post berichtet. Beispielweise verwendete eine Kandidatin Film- und Songzitate auf ihrem Facebook-Account und wurde deswegen als Risiko eingestuft. Es fehle einfach der „menschliche Kontext“, so die Electronic Frontier Foundation. Künstliche Intelligenz eben.
Entscheiden in Zukunft Maschinen über Jobs?
Experten fürchten den Vormarsch von Systemen wie Predictim. Sollen in Zukunft alle Jobs von einer Maschine vergeben werden? Eine Entwicklung in diese Richtung gibt es bereits, viele Unternehmen lassen Lebensläufe von Kandidaten analysieren. Amazon beispielsweise hat seine Entwicklungsarbeit an einem Recruiting-Algorithmus wieder gestoppt. Denn dieser hat männliche Kandidaten bevorzugt, aus Amazons Geschichte heraus, dass in einer von Männern dominierten Technikindustrie Frauen weibliche Kandidaten weniger effizient seien.
Teenager werden überredet, sensible Daten weiterzugeben
Einige KI-Experten glauben, dass derartige Systeme Vorurteile in Bezug auf Alter oder ethnologisches Profiling noch weiter befeuern werden. Außerdem machen sie sich Sorgen, dass junge Babysitter – oftmals noch Teenager – dazu überredet werden, intime persönliche Daten aus der Hand zu geben.
Quelle: Washington Post; Foto: crello.com
Erstellt am: 29. Dezember 2018