Warum menschenähnliche Chatbots anders beleidigt werden

ec9f24b3 5dde 49be 84c6 576dfb0b4e1b
Bild: ©Karl J. Donath

Chatbots sollen es Internetnutzern leichter machen, benötigte Informationen schnell zu finden, indem sie auf Fragen und Wünsche direkt antworten. Die Reaktionen auf einen Chatbot sind allerdings nicht immer nur positiv: „Wenn ein Chatbot falsche oder verwirrende Antworten gibt, kann dies bei Nutzern Aggressivität gegenüber dem digitalen Gesprächspartner auslösen“, sagt Prof. Alfred Benedikt Brendel, Wirtschaftsinformatiker an der der TU Dresden. Aggressionen gegenüber dem virtuellen Assistenten können auch weitere negative Effekte haben – zum Beispiel auf die Einstellung der User zum Anbieter.

In einer Studie untersuchen die Forschenden, ob die Gestaltung von Chatbots einen Einfluss darauf hat, wie Nutzer auf unbefriedigende Antworten reagieren. Die Annahme ist, dass aggressives Verhalten seltener auftritt, wenn ein Chatbot mit menschlichen Attributen versehen wird. „In unseren Experimenten kam bei einem Teil der Befragten ein menschlicher Chatbot zum Einsatz, der mit Namen, Geschlecht und Bild versehen war. Er beantwortete Fragen sehr freundlich und verstärkte seine Botschaften mit passenden Emojis.“ Ein neutraler Chatbot, mit dem ein anderer Teil der Studienteilnehmer interagierte, enthielt hingegen keine dieser Gestaltungselemente.

Die Ergebnisse zeigen zunächst, dass der menschliche Chatbot generell die Zufriedenheit der Nutzerinnen und Nutzer steigert. Das wiederum reduziert auch das Auftreten von Frustration. Gibt ein Chatbot jedoch unbefriedigende Antworten führt dies entgegen der ursprünglichen Vermutung der Forscher aber auch bei einem Chatbot mit menschlichen Attributen zu Frustration und Aggressivität. Insgesamt zeigen etwa zehn Prozent der Teilnehmer aggressives Verhalten gegenüber den virtuellen Assistenten. Im Gegensatz zu einem neutralen Chatbot verringert sich bei einem menschlicheren Chatbot allerdings die Intensität des aggressiven Verhaltens. Laut Studie verwendeten User seltener beleidigende Äußerungen, wenn sie mit einem menschlichen Chatbot interagierten. Die Ergebnisse hätten insbesondere für die Praxis weitreichende Konsequenzen, erläutert Alfred Brendel, der Softwareentwicklern daher empfiehlt, bei der menschenähnlichen Gestaltung mit Bedacht vorzugehen.

www.tu-dresden.de