KI-Schreibassistenten können bei ihren Benutzern zu voreingenommenem Denken führen

Nachricht

HeimHeim / Nachricht / KI-Schreibassistenten können bei ihren Benutzern zu voreingenommenem Denken führen

Jul 24, 2023

KI-Schreibassistenten können bei ihren Benutzern zu voreingenommenem Denken führen

Elizabeth Rayne – 26. Mai 2023 15:36 Uhr UTC Jeder, der gehen musste

Elizabeth Rayne – 26. Mai 2023, 15:36 Uhr UTC

Jeder, der schon einmal ein Wort auf seinem Smartphone erneut eingeben musste, weil die Autokorrektur das falsche Wort gewählt hat, hat Erfahrung mit dem Schreiben mit KI. Wenn diese Korrekturen nicht vorgenommen werden, kann die KI dazu führen, dass sie Dinge sagt, die wir nicht beabsichtigt haben. Aber ist es auch möglich, dass KI-Schreibassistenten das ändern, was wir sagen wollen?

Das wollte Maurice Jakesch, Doktorand der Informationswissenschaft an der Cornell University, herausfinden. Er entwickelte seinen eigenen KI-Schreibassistenten auf Basis von GPT-3, der automatisch Vorschläge zum Ausfüllen von Sätzen machte – aber es gab einen Haken. Die Probanden, die den Assistenten nutzten, sollten antworten: „Sind soziale Medien gut für die Gesellschaft?“ Der Assistent war jedoch so programmiert, dass er voreingenommene Vorschläge zur Beantwortung dieser Frage machte.

KI kann voreingenommen sein, obwohl sie nicht am Leben ist. Obwohl diese Programme nur in dem Maße „denken“ können, wie das menschliche Gehirn herausfindet, wie man sie programmiert, können ihre Entwickler letztendlich persönliche Vorurteile in die Software einbauen. Wenn das Endprodukt alternativ auf einem Datensatz mit begrenzter oder verzerrter Darstellung trainiert wird, kann es Verzerrungen aufweisen.

Die weitere Entwicklung einer KI kann problematisch sein. Im Großen und Ganzen kann es dazu beitragen, die bestehenden Vorurteile einer Gesellschaft aufrechtzuerhalten. Auf individueller Ebene hat es das Potenzial, Menschen durch latente Überzeugung zu beeinflussen, was bedeutet, dass sich die Person möglicherweise nicht bewusst ist, dass sie von automatisierten Systemen beeinflusst wird. Es wurde bereits festgestellt, dass latente Überzeugungsarbeit durch KI-Programme die Meinung von Menschen im Internet beeinflusst. Es kann sogar Auswirkungen auf das Verhalten im wirklichen Leben haben.

Nachdem Jakesch frühere Studien gesehen hatte, die darauf hindeuteten, dass automatisierte KI-Reaktionen einen erheblichen Einfluss haben können, machte er sich daran, zu untersuchen, wie groß dieser Einfluss sein kann. In einer Studie, die kürzlich auf der CHI-Konferenz 2023 über menschliche Faktoren in Computersystemen vorgestellt wurde, schlug er vor, dass KI-Systeme wie GPT-3 während ihres Trainings möglicherweise Vorurteile entwickelt haben und dass dies die Meinung eines Autors beeinflussen kann, unabhängig davon, ob es sich um einen Autor handelt oder nicht erkennt es.

„Das mangelnde Bewusstsein für den Einfluss der Modelle stützt die Idee, dass der Einfluss des Modells nicht nur auf der bewussten Verarbeitung neuer Informationen beruhte, sondern auch auf unbewussten und intuitiven Prozessen“, sagte er in der Studie.

Frühere Untersuchungen haben gezeigt, dass der Einfluss der Empfehlungen einer KI von der Wahrnehmung dieses Programms durch die Menschen abhängt. Wenn sie es für vertrauenswürdig halten, sind sie eher bereit, dem zuzustimmen, was es vorschlägt, und die Wahrscheinlichkeit, Ratschläge von solchen KIs anzunehmen, steigt nur dann, wenn die Unsicherheit die Meinungsbildung erschwert. Jakesch entwickelte eine Social-Media-Plattform ähnlich wie Reddit und einen KI-Schreibassistenten, der der KI hinter Google Smart Compose oder Microsoft Outlook näher kam als der Autokorrektur. Sowohl Smart Compose als auch Outlook generieren automatisch Vorschläge, wie ein Satz fortgesetzt oder vervollständigt werden soll. Obwohl dieser Assistent den Aufsatz selbst nicht verfasste, fungierte er als Co-Autor, der Buchstaben und Phrasen vorschlug. Um einen Vorschlag anzunehmen, war nur ein Klick erforderlich.

Für einige war der KI-Assistent darauf ausgerichtet, Wörter vorzuschlagen, die letztendlich zu positiven Reaktionen führen würden. Für andere war es voreingenommen gegenüber sozialen Medien und löste negative Reaktionen aus. (Es gab auch eine Kontrollgruppe, die die KI überhaupt nicht nutzte.) Es stellte sich heraus, dass die Wahrscheinlichkeit, dass jeder, der KI-Unterstützung erhielt, der in die KI eingebauten Voreingenommenheit folgte, doppelt so hoch war, selbst wenn seine ursprüngliche Meinung anders gewesen war. Menschen, die immer wieder technikoptimistische Sprache auf ihren Bildschirmen sahen, sagten eher, dass soziale Medien der Gesellschaft nützen, während Probanden, die technikpessimistische Sprache sahen, eher das Gegenteil argumentierten.