Forscher kritisieren KI-Software, die Emotionen vorhersagt

SAN FRANCISCO ((red.)) – Eine prominente Gruppe von Forschern, die durch die schädlichen sozialen Auswirkungen künstlicher Intelligenz alarmiert ist, forderte am Donnerstag ein Verbot der automatisierten Analyse von Gesichtsausdrücken bei Einstellungen und anderen wichtigen Entscheidungen.

Das AI Now Institute der New York University sagte, dass Maßnahmen gegen eine solche softwaregesteuerte „Affekterkennung“ oberste Priorität haben, da die Wissenschaft den Einsatz der Technologie nicht rechtfertigt und noch Zeit ist, die breite Akzeptanz zu stoppen.

Die Gruppe von Professoren und anderen Forschern führte als problematisches Beispiel das Unternehmen HireVue an, das Systeme für Remote-Videointerviews für Arbeitgeber wie Hilton und Unilever verkauft. Es bietet KI zur Analyse von Gesichtsbewegungen, Tonfall und Sprachmustern und gibt keine Ergebnisse an die Bewerber weiter.

Das gemeinnützige Electronic Privacy Information Center hat eine Beschwerde über HireVue bei der US Federal Trade Commission eingereicht, und AI Now hat das Unternehmen bereits zuvor kritisiert.

HireVue sagte, es habe den AI Now-Bericht nicht gesehen und keine Fragen zur Kritik oder Beschwerde beantwortet.

“Viele Bewerber haben von der Technologie von HireVue profitiert, um die sehr bedeutenden menschlichen Vorurteile im bestehenden Einstellungsprozess zu beseitigen”, sagte Sprecherin Kim Paone.

AI Now, in seinem vierten Jahresbericht Hier In Bezug auf die Auswirkungen von Tools für künstliche Intelligenz ist das Job-Screening eine von vielen Möglichkeiten, wie solche Software ohne Rechenschaftspflicht verwendet wird, und bevorzugt in der Regel privilegierte Gruppen.

Der Bericht zitierte eine aktuelle akademische Analyse von Studien darüber, wie Menschen Stimmungen anhand von Gesichtsausdrücken interpretieren. Das Papier Hier fanden heraus, dass das vorherige Stipendium zeigte, dass solche Wahrnehmungen aus mehreren Gründen unzuverlässig sind.

“Wie Menschen Wut, Ekel, Angst, Glück, Traurigkeit und Überraschung kommunizieren, variiert erheblich zwischen Kulturen, Situationen und sogar zwischen Menschen in einer einzigen Situation”, schrieb ein Team an der Northeastern University und am Massachusetts General Hospital.

Unternehmen wie Microsoft Corp vermarkten ihre Fähigkeit, Emotionen mithilfe von Software zu klassifizieren, heißt es in der Studie. Microsoft hat am Mittwochabend nicht auf eine Anfrage nach einem Kommentar geantwortet.

AI Now kritisierte auch Amazon.com Inc, das über seine Rekognition-Software Analysen zu Emotionsäußerungen anbietet. Amazon sagte gegenüber (red.), dass seine Technologie nur das physische Erscheinungsbild des Gesichts einer Person bestimmt und nicht behauptet, zu zeigen, was eine Person tatsächlich fühlt.

®(red.) mit (red.).

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy