Informatik Freundlich, witzig oder bossy
Stellen Sie sich vor, ein neuer Nachbar steht vor Ihrer Tür, lächelt freundlich und lädt Sie zum Kaffee ein. Ohne es bewusst zu bemerken, machen Sie sich bereits in den ersten Sekunden ein ziemlich umfassendes Bild von seiner Persönlichkeit
Diese unbewusste Einordnung der Persönlichkeit beeinflusst das Verhalten gegenüber dieser Person, zum Beispiel Ihre Entscheidung, ob Sie sich tatsächlich auf einen Kaffee treffen. Ähnlich verhält es sich, wenn wir mit Chatbots wie ChatGPT oder Sprachassistenten wie Siri, Alexa und Co. interagieren. Obwohl wir genau wissen, dass wir es mit einer Maschine zu tun haben, schreiben wir ihnen automatisch Persönlichkeitseigenschaften zu, zum Beispiel freundlich oder hilfsbereit. Dieses Phänomen ist bekannt und wurde bereits in den 1990er-Jahren erforscht. Auch bei Sprachassistenten und Chatbots hat die Wahrnehmung der Persönlichkeit somit einen großen Einfluss darauf, wie gern wir mit ihnen interagieren.
Folglich spielt diese Wahrnehmung der Persönlichkeit eine große Rolle bei der Entwicklung von Chatbots und Sprachassistenten. Wissenschaftler:innen wissen jedoch recht wenig darüber, wie sich die Persönlichkeiten von Chatbots und Sprachassistenten bewusst und systematisch entwickeln lassen. Genau hier setzt unsere Arbeit an.
Zunächst schauten wir darauf, wie wir Menschen die Persönlichkeit anderer wahrnehmen. Indem wir uns anhand von Sprache, Mimik und Gestik ein Bild machen. Ein Beispiel: Wenn Ihr Nachbar viel redet, laut spricht und Blickkontakt sucht, werden Sie ihn tendenziell für extrovertiert halten. Wir wollten wissen: Können wir diese Verhaltensweisen von Menschen einfach auf Chatbots und Sprachassistenten übertragen, um eine künstliche extrovertierte Persönlichkeit zu erstellen?
Um diese Frage zu beantworten, programmierten wir drei verschiedene Chatbots: einen extrovertierten, einen durchschnittlichen und einen introvertierten.
Dafür machten wir uns zahlreiche menschliche Verhaltensweisen zunutze, die gemäß Erkenntnissen aus der Psychologie mit diesen Persönlichkeitseigenschaften zusammenhängen. Beispielsweise schreibt der extrovertierte Chatbot längere Nachrichten in Umgangssprache und verwendet viele Emojis. Im Gegensatz dazu ist der introvertierte Chatbot zurückhaltender und verwendet formelle Sprache.
Anschließend ließen wir diese drei Chatbots von 34 Menschen für jeweils vier Tage testen und baten sie anschließend um ihre Wahrnehmung der Persönlichkeiten. Die Ergebnisse zeigten, dass die Testpersonen den extrovertierten und den durchschnittlichen Chatbot tatsächlich so wahrnahmen wie beabsichtigt. Den introvertierten Chatbot hatten wir indes nicht glaubhaft umgesetzt. Darüber hinaus stellten wir fest, dass Menschen die Persönlichkeit von Chatbots anders beschreiben als die von Menschen. Beispielsweise wirkte der durchschnittliche Chatbot auf viele Menschen eher roboterhaft. Wir vermuteten daher, dass sich menschliche Verhaltensweisen, die eine Persönlichkeit prägen, gar nicht so einfach auf Chatbots und Sprachassistenten übertragen lassen.
Um diese Vermutung zu überprüfen, entwickelten wir einen systematischen Ansatz eigens für künstliche Persönlichkeit – und identifizierten zunächst die Eigenschaften, die bei einer künstlichen Persönlichkeit zu berücksichtigen sind. Hierfür gingen wir nach einer Methode aus der Persönlichkeitspsychologie vor. In einem ersten Schritt sammelten wir möglichst viele Wörter, mit denen Menschen die Persönlichkeit von Sprachassistenten und Chatbots beschreiben. Zum Beispiel luden wir Menschen in unsere Labore ein und ließen sie verschiedene Sprachassistenten ausprobieren und danach beschreiben. Des Weiteren extrahierten wir Adjektive aus Zehntausenden von Rezensionen bekannter Sprachassistenten. Am Ende hatten wir 870 verschiedene Wörter gesammelt.
Im nächsten Schritt fassten wir diese 870 Wörter nach übergreifenden Merkmalen zusammen. Dafür bedienten wir uns eines statistischen Verfahrens. Damit erkannten wir Muster in der Art und Weise, wie Menschen die Persönlichkeitseigenschaften von Sprachassistenten beschreiben. Zum Beispiel umfasst das menschliche Persönlichkeitsmerkmal „extrovertiert“ viele Eigenschaften wie gesellig, aktiv und durchsetzungsfähig. Mithilfe dieses statistischen Verfahrens fanden wir zehn übergreifende Persönlichkeitsmerkmale, die unter anderem beschreiben, wie künstlich, freundlich, informativ oder auch unterhaltend Sprachassistenten wirken. Diese übergreifenden Persönlichkeitsmerkmale stimmen nicht mit dem Persönlichkeitsmodell für Menschen, dem sogenannten „Big Five“-Modell, überein. Daher kamen wir zu dem Schluss, dass sich die Wahrnehmung der menschlichen und künstlichen Persönlichkeit unterscheidet. Darauf aufbauend entwickelten wir eine Methode, um diese Eigenschaften auch tatsächlich in Sprachassistenten umzusetzen.
Natürlich wollten wir auch besser verstehen, wie Menschen sich Sprachassistenten oder Chatbots wünschen. Dafür baten wir mehr als 200 Menschen darum, ihre Vorstellung von Dialogen für „perfekte“ Sprachassistenten aufzuschreiben – um bei der Analyse zu erkennen, dass es die eine perfekte Persönlichkeit gar nicht gibt. Getreu dem Sprichwort „Gleich und Gleich gesellt sich gern“ vermuteten wir, dass die Persönlichkeit eines Menschen Einfluss darauf hat, welche Persönlichkeit er oder sie in einem digitalen Gegenüber bevorzugt. Sprich: Wer selbst extrovertiert ist, mag den extrovertierten Nachbarn lieber als den introvertierten. Unsere Ergebnisse zeigten jedoch, dass dies keineswegs so einfach ist. Menschen haben zwar eindeutige Vorlieben für unterschiedliche Persönlichkeiten in Chatbots und Sprachassistenten, aber diese sind individuell und eher vom jeweiligen Kontext als von der eigenen Persönlichkeit abhängig.
Gleichwohl konnten wir zeigen, wie wichtig es ist, die „digitale“ Persönlichkeit auf die Vorlieben der Nutzer:innen zuzuschneiden. Bis es so weit ist, sind allerdings noch einige Herausforderungen zu bewältigen. Wenn es uns beispielsweise gelingt, für jeden Menschen einen perfekt zugeschnittenen Chatbot zu entwickeln, werden die Menschen dem Rat dieses Chatbots vermutlich vertrauen. Daher müssen wir sicherstellen, dass die Entwicklung künstlicher Persönlichkeit nicht missbraucht wird, um Menschen zu manipulieren.
Trotz dieser Herausforderungen hat unsere Forschung gezeigt, dass individuell zugeschnittene Persönlichkeiten in Chatbots und Sprachassistenten das Potenzial haben, unsere Interaktion mit ihnen maßgeblich zu verbessern. Daher könnten wir diese zum Beispiel einsetzen, um genauer auf individuelle Bedürfnisse einzugehen. Stellen Sie sich vor, dass jedes Kind einen persönlichen Lern-Chatbot hat, der genau weiß, das Kind zu motivieren. Sprachassistenten kommen bereits heute zum Einsatz, um Pflegedienste in einer stetig alternden Gesellschaft zu erweitern. Wenn diese Sprachassistenten mit einer gut abgestimmten Persönlichkeit ausgestattet werden, können sie ältere Menschen im Alltag unterstützen und, sofern dies gewünscht ist, ihnen Gesellschaft leisten.
Zum Thema
Ich würde rot werden
Siri, Alexa oder Cortana: Die Stimmen fast aller Sprachassistenten klingen weiblich. Das ist ein Problem
Auch wenn es sich dabei nur um Software handelt: Es spielt eine Rolle, wie eine Maschine zu uns spricht. In den meisten Fällen hören wir eine Frau. Zwar antwortet Siri auf die Frage nach ihrem Geschlecht, sie habe keines. Dennoch assoziieren wir aufgrund der verwendeten Tonfrequenz Siris Stimme mit einer Frau. Umfragen offenbarten, dass Männer wie Frauen weibliche Stimmen bevorzugen, wenn sie ihre Musikanlage steuern, sich im Auto den Weg weisen lassen oder in Warteschleifen eines Internetanbieters versauern.
Nun kann man sagen: Schön, wenn das Ergebnis so klar ist, sind eben alle Sprachassistenten weiblich. Wo ist das Problem? Doch tatsächlich feiern mit Siri und Co. die 1950er-Jahre ihr Comeback. Wie das „Fräulein vom Amt“ informieren die digitalen Sprachassistenten sachlich, freundlich und serviceorientiert. Nur dass sie uns heute den ganzen Tag begleiten. Bis ins Bett, wenn man ihnen nur noch sagen muss: Licht aus. So werden Geschlechterklischees, die zumindest teilweise als überwunden galten, wiederbelebt, manifestiert und in der ganzen Welt verbreitet.
Interessant ist auch, wie Sprachassistenten auf sexuelle Belästigung reagieren. So antwortete bis 2019 die weiblich klingende Siri auf „You’re a slut“ – „Du bist eine Schlampe“ – noch mit „I’d blush if I could“ – „Ich würde rot werden, wenn ich könnte“. Mittlerweile haben Apple, Amazon und andere auf den Bias reagiert und solche Antworten gestrichen. Apples Siri wird demnächst eine Stimme enthalten, die weder als weiblich noch männlich empfunden wird. Ein Hoffnungsschimmer immerhin.
Doch eines ist gewiss: Wer die digitalen Assistenten mit einer möglichst menschlichen Persönlichkeit programmieren will, muss wissen, dass KI stets den Sexismus, Rassismus und andere Probleme der (jeweiligen) Gesellschaft widerspiegelt. — J. Schüring