Untersuchen, wie Menschen Vertrauen zu verkörperten virtuellen Agenten entwickeln

Die Teilnehmer machen sich in der Einführung mit beiden Agenten vertraut, bevor sie mit dem Experiment beginnen. Bildnachweis: Moradinezhad & Solovey.

Verkörperte virtuelle Agenten (EVAs), grafisch dargestellte virtuelle 3D-Charaktere, die menschliches Verhalten zeigen, könnten in einer Vielzahl von Einstellungen wertvolle Anwendungen haben. Sie könnten beispielsweise dazu verwendet werden, Menschen beim Üben ihrer Sprachkenntnisse zu helfen, oder sie könnten als Begleiter für ältere Menschen und Menschen mit psychischen oder Verhaltensstörungen dienen.

Forscher der Drexel University und des Worcester Polytechnic Institute haben kürzlich eine Studie durchgeführt, in der die Auswirkungen und die Bedeutung des Vertrauens in Interaktionen zwischen Menschen und EVAs untersucht wurden. Ihre Arbeit, veröffentlicht in Springer’s Internationale Zeitschrift für soziale Robotikkönnte die Entwicklung von EVAs beeinflussen, die für den Menschen angenehmer und leichter zu akzeptieren sind.

“Unser Experiment wurde in Form von zwei Q & A-Sitzungen mit Hilfe von zwei virtuellen Agenten (ein Agent für jede Sitzung) durchgeführt”, sagte Reza Moradinezhad, einer der Forscher, die die Studie durchgeführt haben, gegenüber TechXplore.

In dem von Moradinezhad und seiner Vorgesetzten Dr. Erin T. Solovey durchgeführten Experiment wurden einer Gruppe von Teilnehmern zwei Sätze von Multiple-Choice-Fragen präsentiert, die sie in Zusammenarbeit mit einer EVA beantworten sollten. Die Forscher verwendeten zwei EVAs, Agent A und Agent B genannt, und den Teilnehmern wurde für jeden Satz von Fragen ein anderer Agent zugewiesen.

Die im Experiment verwendeten Mittel verhielten sich unterschiedlich; einer war kooperativ und der andere nicht kooperativ. Während einige Teilnehmer mit einem kooperativen Agenten interagierten, während sie einen Satz von Fragen beantworteten, und mit einem nicht kooperativen Agenten, während sie den anderen beantworteten, wurde anderen unter beiden Bedingungen ein kooperativer Agent oder unter beiden Bedingungen ein nicht kooperativer Agent zugewiesen.

“Bevor unsere Teilnehmer eine Antwort auswählten und während sich der Cursor auf jeder der Antworten befand, zeigte der Agent einen bestimmten Gesichtsausdruck, der von einem breiten Lächeln mit zustimmendem Kopfnicken bis zu einem großen Stirnrunzeln und missbilligendem Kopfschütteln reichte”, sagte Moradinezhad erklärt. “Die Teilnehmer stellten fest, dass der äußerst positive Gesichtsausdruck nicht immer ein Indikator für die richtige Antwort ist, insbesondere im ‘unkooperativen’ Zustand.”

Das Hauptziel der von Moradinezhad und Dr. Solovey durchgeführten Studie war es, ein besseres Verständnis des Prozesses zu erlangen, durch den Menschen Vertrauen in EVAs entwickeln. Frühere Studien legen nahe, dass das Vertrauen eines Benutzers in Computersysteme davon abhängen kann, wie sehr er anderen Menschen vertraut.

“Zum Beispiel ist das Vertrauen in Computersysteme in der Regel gleich zu Beginn hoch, da sie als Werkzeug angesehen werden. Wenn ein Werkzeug da draußen ist, erwarten Sie, dass es so funktioniert, wie es soll, aber das Zögern, einem Menschen zu vertrauen, ist höher da gibt es mehr Unsicherheit “, sagte Moradinezhad. “Wenn ein Computersystem jedoch einen Fehler macht, sinkt das Vertrauen schnell, da es als Defekt angesehen wird und voraussichtlich bestehen bleibt. Bei Menschen hingegen, wenn bereits Vertrauen besteht, einige Beispiele von Verstößen schaden dem Vertrauen nicht wesentlich. ”

Da EVAs ähnliche Eigenschaften wie Menschen und konventionelle Computersysteme aufweisen, wollten Moradinezhad und Dr. Solovey herausfinden, wie Menschen Vertrauen zu ihnen entwickeln. Zu diesem Zweck beobachteten sie genau, wie sich das Vertrauen ihrer Teilnehmer in EVAs im Laufe der Zeit von der Teilnahme an dem Experiment bis zum Abschluss des Experiments entwickelte.

“Dies wurde anhand von drei identischen Vertrauensumfragen durchgeführt, bei denen die Teilnehmer gebeten wurden, beide Agenten (dh Agent A und B) zu bewerten”, sagte Moradinezhad. “Die erste Basisumfrage fand nach der Einführungssitzung statt, in der die Teilnehmer die Benutzeroberfläche sowie die Agenten und Gesichtsausdrücke sahen, aber keine Fragen beantworteten. Die zweite war, nachdem sie die ersten Fragen in Zusammenarbeit mit einer der Befragten beantwortet hatten Agenten. “

In der zweiten Umfrage baten die Forscher die Teilnehmer außerdem, ihr Vertrauen in den zweiten Agenten zu bewerten, obwohl sie noch nicht mit ihm interagiert hatten. Auf diese Weise konnten sie untersuchen, ob die Interaktion der Teilnehmer mit dem ersten Agenten ihr Vertrauen in den zweiten Agenten beeinträchtigt hatte, bevor sie mit ihm interagierten.

“In ähnlicher Weise haben wir in der dritten Vertrauensumfrage (die nach dem zweiten Satz mit dem zweiten Agenten zusammenarbeitete) auch den ersten Agenten einbezogen, um festzustellen, ob die Interaktion der Teilnehmer mit dem zweiten Agenten ihre Meinung über den ersten geändert hat. “Sagte Moradinezhad. “Wir hatten am Ende des Experiments auch ein offeneres Interview mit den Teilnehmern, um ihnen die Möglichkeit zu geben, ihre Erkenntnisse über das Experiment auszutauschen.”

Insgesamt stellten die Forscher fest, dass die Teilnehmer bei Fragen, die sie mit Genossenschaftsagenten beantworteten, besser abschnitten und mehr Vertrauen in diese Agenten zeigten. Sie beobachteten auch interessante Muster, wie sich das Vertrauen der Teilnehmer verlagerte, wenn sie zuerst mit einem kooperativen Agenten interagierten, gefolgt von einem nicht kooperativen Agenten.

“Im Zustand” kooperativ-unkooperativ “war der erste Agent kooperativ, was bedeutet, dass er den Teilnehmern in 80% der Fälle geholfen hat”, sagte Morandinezhad. “Unmittelbar nach der ersten Sitzung nahmen die Teilnehmer an einer Umfrage zur Vertrauenswürdigkeit der Agenten teil, und ihre Bewertungen für den ersten Agenten waren beträchtlich niedrig, selbst zu Zeiten, die mit Bewertungen vergleichbar waren, die andere Teilnehmer dem nicht kooperativen Agenten gaben. Dies steht im Einklang mit den Ergebnissen von Andere Studien, die besagen, dass Menschen hohe Erwartungen an die Automatisierung haben und sogar zu 80% kooperativ sind, können als nicht vertrauenswürdig angesehen werden. “

Während die Teilnehmer kooperative Agenten schlecht bewerteten, nachdem sie in der ersten Q & A-Sitzung mit ihnen zusammengearbeitet hatten, schien sich ihre Wahrnehmung dieser Agenten zu verändern, wenn sie in der zweiten Sitzung mit einem nicht kooperativen Agenten zusammenarbeiteten. Mit anderen Worten, das Erleben von Agenten, die sowohl kooperatives als auch unkooperatives Verhalten zeigten, schien eine größere Wertschätzung für kooperative Agenten hervorzurufen.

“Im offenen Interview stellten wir fest, dass die Teilnehmer erwarteten, dass Agenten ihnen ständig helfen, und als die Hilfe der Agenten bei einigen Fragen zu einer falschen Antwort führte, dachten sie, sie könnten dem Agenten nicht vertrauen”, erklärte Morandinezhad. “Nachdem sie jedoch mit dem zweiten Agenten zusammengearbeitet haben und erkannt haben, dass ein Agent viel schlechter sein kann als der erste Agent, bevorzugen sie, wie einer der Teilnehmer es ausdrückte, die Zusammenarbeit mit dem ersten Agenten. Dies zeigt, dass Vertrauen relativ ist und dass es wichtig ist, Benutzer über die Fähigkeiten und Mängel dieser Agenten aufzuklären. Andernfalls werden sie den Agenten möglicherweise völlig ignorieren und die Aufgabe selbst ausführen (ebenso wie einer unserer Teilnehmer, der deutlich schlechter abschnitt als der Rest der Gruppe ). “

Ein weiteres interessantes Muster, das von den Forschern beobachtet wurde, war, dass bei der Interaktion der Teilnehmer mit einem kooperativen Agenten in beiden Q & A-Sitzungen ihre Bewertungen für den ersten Agenten signifikant höher waren als für den zweiten. Dieser Befund könnte teilweise durch einen psychologischen Prozess erklärt werden, der als “Primat-Voreingenommenheit” bekannt ist.

“Primat-Voreingenommenheit ist eine kognitive Voreingenommenheit, um Elemente zu erinnern und zu bevorzugen, die am frühesten in einer Reihe eingeführt wurden”, sagte Morandinezhad. “Eine weitere mögliche Erklärung für unsere Beobachtungen könnte sein, dass die Teilnehmer im Durchschnitt eine geringere Leistung bei der zweiten Reihe von Fragen hatten und davon ausgegangen sind, dass der Agent bei der Unterstützung schlechtere Arbeit geleistet hat. Dies ist ein Indikator dafür, dass ähnliche Agenten, Selbst bei genau der gleichen Leistungsrate kann dies unter bestimmten Bedingungen in Bezug auf die Vertrauenswürdigkeit unterschiedlich gesehen werden (z. B. aufgrund der Reihenfolge ihres Erscheinungsbilds oder der Schwierigkeit der jeweiligen Aufgabe). “

Insgesamt deuten die Ergebnisse darauf hin, dass das Vertrauen eines menschlichen Benutzers in EVAs relativ ist und sich aufgrund einer Vielzahl von Faktoren ändern kann. Daher sollten Robotiker nicht davon ausgehen, dass Benutzer die Zuverlässigkeit eines Agenten genau einschätzen können.

“Angesichts unserer Ergebnisse halten wir es für wichtig, den Benutzern die Einschränkungen eines Agenten mitzuteilen, um ihnen einen Hinweis darauf zu geben, wie sehr ihnen vertraut werden kann”, sagte Morandinezhad. “Darüber hinaus zeigt unsere Studie, dass es möglich ist, das Vertrauen der Benutzer für einen Agenten durch ihre Interaktion mit einem anderen Agenten zu kalibrieren.”

Das könnte dir auch gefallen
Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.

Untersuchen, wie Menschen Vertrauen zu verkörperten virtuellen Agente…

Lesezeit: 6 min
0