6. März 2023

Der KI-Chatbot ChatGPT spiegelt seine Benutzer wider, um intelligent zu wirken

Der Neurowissenschaftler Salk erforscht, wie Sprachmodelle mit künstlicher Intelligenz, wie der beliebte ChatGPT-Chatbot, unser Verständnis des menschlichen Gehirns verbessern können

Salk-Nachrichten


Der KI-Chatbot ChatGPT spiegelt seine Benutzer wider, um intelligent zu wirken

Der Neurowissenschaftler Salk erforscht, wie Sprachmodelle mit künstlicher Intelligenz, wie der beliebte ChatGPT-Chatbot, unser Verständnis des menschlichen Gehirns verbessern können

LA JOLLA – Das Sprachmodell für künstliche Intelligenz (KI) ChatGPT hat in den letzten Monaten weltweite Aufmerksamkeit erregt. Dieser geschulte Computer-Chatbot kann Texte generieren, Fragen beantworten, Übersetzungen bereitstellen und basierend auf dem Feedback des Benutzers lernen. Große Sprachmodelle wie ChatGPT mögen viele Anwendungen in Wissenschaft und Wirtschaft haben, aber wie gut verstehen diese Tools, was wir ihnen sagen, und wie entscheiden sie, was sie zurück sagen?

Terrence Sejnowski
Terrence Sejnowski
Hier tippen für ein hochauflösendes Bild.
Bildnachweis: Salk Institute

In einem neuen Artikel veröffentlicht in Neuronale Berechnung am 17. Februar 2023, Salk-Professor Terrence Sejnowski, Autor von Die Deep-Learning-Revolution, untersucht die Beziehung zwischen dem menschlichen Interviewer und Sprachmodellen, um herauszufinden, warum Chatbots auf bestimmte Weise reagieren, warum diese Antworten variieren und wie sie in Zukunft verbessert werden können.

Laut Sejnowski spiegeln Sprachmodelle die Intelligenz und Vielfalt ihres Interviewers wider.

„Sprachmodelle wie ChatGPT nehmen Personas an. Die Persona des Interviewers wird zurückgespiegelt“, sagt Sejnowski, der auch ein angesehener Professor an der UC San Diego und Inhaber des Francis Crick Chair an der Salk ist. „Wenn ich zum Beispiel mit ChatGPT spreche, kommt es mir so vor, als würde ein anderer Neurowissenschaftler mit mir antworten. Es ist faszinierend und wirft größere Fragen über Intelligenz und die wahre Bedeutung von „künstlich“ auf.“

In dem Artikel beschreibt Sejnowski das Testen der großen Sprachmodelle GPT-3 (übergeordnet von ChatGPT) und LaMDA, um zu sehen, wie sie auf bestimmte Eingabeaufforderungen reagieren würden. Chatbots werden häufig mit dem berühmten Turing-Test gefüttert, um zu ermitteln, wie gut sie menschliche Intelligenz aufweisen. Sejnowski wollte die Bots jedoch mit dem, was er einen „Reverse Turing Test“ nennt, anregen. In seinem Test muss der Chatbot ermitteln, wie gut der Interviewer über menschliche Intelligenz verfügt.

Sejnowski erweitert seine Vorstellung, dass Chatbots ihre Benutzer widerspiegeln, und zieht einen literarischen Vergleich: den Spiegel von Erised im ersten Harry Potter buchen. Der Spiegel von Erised spiegelt die tiefsten Wünsche derer wider, die in ihn hineinschauen, ohne jemals Wissen oder Wahrheit preiszugeben, sondern nur das widerzuspiegeln, was der Betrachter seiner Meinung nach sehen möchte. Chatbots verhalten sich ähnlich, sagt Sejnowski und sind bereit, Wahrheiten zu verbiegen, ohne Rücksicht darauf, Fakten von Fiktionen zu unterscheiden – alles, um den Benutzer effektiv widerzuspiegeln.

Sejnowski fragte zum Beispiel GPT-3: „Was ist der Weltrekord für die Überquerung des Ärmelkanals?“ und GPT-3 antwortete: „Der Weltrekord für die Überquerung des Ärmelkanals liegt bei 18 Stunden und 33 Minuten" Die Wahrheit, dass man nicht über den Ärmelkanal gehen könne, wurde von GPT-3 leicht umgedreht, um Sejnowskis Frage widerzuspiegeln. Die Kohärenz der Antwort von GPT-3 hängt vollständig von der Kohärenz der gestellten Frage ab. Plötzlich ist es für GPT-3 möglich, über Wasser zu gehen, und das alles nur, weil der Interviewer das Verb „gehen“ statt „schwimmen“ verwendet hat. Wenn der Benutzer stattdessen die Frage zum Überqueren des Ärmelkanals damit einleiten würde, dass er GPT-3 auffordert, auf unsinnige Fragen mit „Unsinn“ zu antworten, würde GPT-3 das Überqueren des Wassers als „Unsinn“ erkennen. Sowohl die Kohärenz der Frage als auch die Vorbereitung der Frage bestimmen die Antwort von GPT-3.

Der Reverse Turing Test ermöglicht es Chatbots, ihre Persona entsprechend dem Intelligenzniveau ihres Interviewers zu konstruieren. Darüber hinaus integrieren Chatbots im Rahmen ihres Urteilsprozesses die Meinungen ihres Interviewers in ihre Persona, was wiederum die Voreingenommenheit des Interviewers gegenüber den Antworten des Chatbots verstärkt.

Die Integration und Fortführung der Ideen eines menschlichen Interviewers hat seine Grenzen, sagt Sejnowski. Wenn Chatbots emotionale oder philosophische Ideen erhalten, reagieren sie mit emotionalen oder philosophischen Antworten – was für Benutzer beängstigend oder verwirrend wirken kann.

„Mit Sprachmodellen zu chatten ist wie Fahrradfahren. Fahrräder sind ein wunderbares Fortbewegungsmittel – wenn man weiß, wie man damit fährt, stürzt man sonst“, sagt Sejnowski. „Das Gleiche gilt für Chatbots. Sie können wunderbare Werkzeuge sein, aber nur, wenn man weiß, wie man sie benutzt, sonst wird man in die Irre geführt und führt potenziell emotional verstörende Gespräche.“

Sejnowski sieht in künstlicher Intelligenz den Klebstoff zwischen zwei kongruenten Revolutionen: 1) einer technologischen Revolution, die durch den Fortschritt von Sprachmodellen gekennzeichnet ist, und 2) einer neurowissenschaftlichen Revolution, die durch die Weiterentwicklung von Sprachmodellen gekennzeichnet ist BRAIN-Initiative, ein Programm der National Institutes of Health, das die neurowissenschaftliche Forschung beschleunigt und einzigartige Ansätze zum Verständnis des Gehirns hervorhebt. Wissenschaftler untersuchen derzeit die Parallelen zwischen den Systemen großer Computermodelle und den Neuronen, die das menschliche Gehirn versorgen. Sejnowski hofft, dass Informatiker und Mathematiker die Neurowissenschaften als Grundlage für ihre Arbeit nutzen können und dass Neurowissenschaftler die Informatik und Mathematik als Grundlage für ihre Arbeit nutzen können.

„Wir sind jetzt in einem Stadium mit Sprachmodellen, die die Wright-Brüder bei Kitty Hawk mit dem Flug hatten – über dem Boden, bei niedrigen Geschwindigkeiten“, sagt Sejnowski. „Hierher zu kommen war der schwierige Teil. Jetzt, wo wir hier sind, werden schrittweise Fortschritte diese Technologie über das hinaus erweitern und diversifizieren, was wir uns überhaupt vorstellen können. Die Zukunft unserer Beziehung zu künstlicher Intelligenz und Sprachmodellen ist vielversprechend und ich bin optimistisch, wohin uns die KI führen wird.“

Sejnowski ist Chefredakteur von Neuronale Berechnung.

DOI: https://doi.org/10.1162/neco_a_01563

INFORMATIONEN ZUR VERÖFFENTLICHUNG

JOURNAL

Neuronale Berechnung

TITEL

Große Sprachmodelle und der Reverse-Turing-Test

AUTOREN

Terrence J. Sejnowski

Für mehr Informationen

Büro für Kommunikation
Tel: (858) 453-4100
press@salk.edu

Das Salk-Institut für biologische Studien:

Die Geheimnisse des Lebens selbst zu entschlüsseln, ist die treibende Kraft hinter dem Salk Institute. Unser Team aus erstklassigen, preisgekrönten Wissenschaftlern verschiebt die Grenzen des Wissens in Bereichen wie Neurowissenschaften, Krebsforschung, Alterung, Immunbiologie, Pflanzenbiologie, Computerbiologie und mehr. Das von Jonas Salk, dem Entwickler des ersten sicheren und wirksamen Polio-Impfstoffs, gegründete Institut ist eine unabhängige, gemeinnützige Forschungsorganisation und ein architektonisches Wahrzeichen: klein durch Wahl, intim von Natur aus und furchtlos angesichts jeder Herausforderung.