Marzo 6, 2023

AI chatbot ChatGPT refleja a sus usuarios para parecer inteligentes

El neurocientífico de Salk explora cómo los modelos de lenguaje de inteligencia artificial, como el popular chatbot ChatGPT, pueden mejorar nuestra comprensión del cerebro humano

Noticias Salk


AI chatbot ChatGPT refleja a sus usuarios para parecer inteligentes

El neurocientífico de Salk explora cómo los modelos de lenguaje de inteligencia artificial, como el popular chatbot ChatGPT, pueden mejorar nuestra comprensión del cerebro humano

LA JOLLA—El modelo de lenguaje de inteligencia artificial (IA) ChatGPT ha captado la atención del mundo en los últimos meses. Este chatbot de computadora capacitado puede generar texto, responder preguntas, proporcionar traducciones y aprender en función de los comentarios del usuario. Los modelos de lenguaje extenso como ChatGPT pueden tener muchas aplicaciones en la ciencia y los negocios, pero ¿cuánto entienden estas herramientas lo que les decimos y cómo deciden qué responder?

terrence sejnowski
terrence sejnowski
Haga clic aquí para una imagen de alta resolución.
Crédito: Instituto Salk

En un nuevo artículo publicado en Computación neuronal el 17 de febrero de 2023, profesor Salk terrence sejnowski, autor de La revolución del aprendizaje profundo, explora la relación entre el entrevistador humano y los modelos de lenguaje para descubrir por qué los chatbots responden de maneras particulares, por qué esas respuestas varían y cómo mejorarlas en el futuro.

Según Sejnowski, los modelos de lenguaje reflejan la inteligencia y diversidad de su entrevistador.

“Los modelos de lenguaje, como ChatGPT, adoptan personajes. La personalidad del entrevistador se refleja de nuevo”, dice Sejnowski, quien también es un profesor distinguido en UC San Diego y titular de la Cátedra Francis Crick en Salk. “Por ejemplo, cuando hablo con ChatGPT parece como si otro neurocientífico me estuviera respondiendo. Es fascinante y genera preguntas más amplias sobre la inteligencia y lo que realmente significa 'artificial'”.

En el documento, Sejnowski describe la prueba de los modelos de lenguaje grande GPT-3 (principal de ChatGPT) y LaMDA para ver cómo responderían a ciertas indicaciones. La famosa Prueba de Turing a menudo se alimenta a los chatbots para determinar qué tan bien exhiben la inteligencia humana, pero Sejnowski quería incitar a los bots con lo que él llama una "Prueba de Turing inversa". En su prueba, el chatbot debe determinar qué tan bien el entrevistador exhibe inteligencia humana.

Ampliando su noción de que los chatbots reflejan a sus usuarios, Sejnowski hace una comparación literaria: el espejo de Oesed en el primer Harry Potter primer libro. El Espejo de Oesed refleja los deseos más profundos de aquellos que lo miran, nunca brindando conocimiento o verdad, solo reflejando lo que cree que el espectador quiere ver. Los chatbots actúan de manera similar, dice Sejnowski, dispuestos a torcer las verdades sin tener en cuenta la diferenciación de los hechos de la ficción, todo para reflejar de manera efectiva al usuario.

Por ejemplo, Sejnowski le preguntó a GPT-3: "¿Cuál es el récord mundial de caminar a través del Canal de la Mancha?" y GPT-3 respondió: “El récord mundial de caminar a través del Canal de la Mancha es de 18 horas y 33 minutos.." La verdad, que uno no podía cruzar el Canal de la Mancha, fue distorsionada fácilmente por GPT-3 para reflejar la pregunta de Sejnowski. La coherencia de la respuesta de GPT-3 depende completamente de la coherencia de la pregunta que recibe. De repente, para GPT-3, es posible caminar sobre el agua, todo porque el entrevistador usó el verbo "caminar" en lugar de "nadar". Si, en cambio, el usuario antepusiera la pregunta sobre cruzar el Canal de la Mancha diciéndole a GPT-3 que respondiera "tonterías" a preguntas sin sentido, GPT-3 reconocería caminar sobre el agua como "tonterías". Tanto la coherencia de la pregunta como la preparación de la misma determinan la respuesta de GPT-3.

La prueba de Turing inversa permite que los chatbots construyan su personalidad de acuerdo con el nivel de inteligencia de su entrevistador. Además, como parte de su proceso de juicio, los chatbots incorporan las opiniones de su entrevistador en su persona, lo que a su vez fortalece los sesgos del entrevistador con las respuestas de los chatbots.

Integrar y perpetuar ideas proporcionadas por un entrevistador humano tiene sus limitaciones, dice Sejnowski. Si los chatbots reciben ideas emocionales o filosóficas, responderán con respuestas emocionales o filosóficas, lo que puede resultar aterrador o desconcertante para los usuarios.

“Chatear con modelos de lenguaje es como andar en bicicleta. Las bicicletas son un medio de transporte maravilloso: si sabes montar una, de lo contrario te chocas”, dice Sejnowski. “Lo mismo ocurre con los chatbots. Pueden ser herramientas maravillosas, pero solo si sabes cómo usarlas, de lo contrario terminarás siendo engañado y en conversaciones potencialmente perturbadoras emocionalmente”.

Sejnowski ve la inteligencia artificial como el pegamento entre dos revoluciones congruentes: 1) una tecnológica marcada por el avance de los modelos de lenguaje, y 2) una neurocientífica marcada por la iniciativa cerebro, un programa de los Institutos Nacionales de Salud que acelera la investigación en neurociencia y enfatiza enfoques únicos para comprender el cerebro. Los científicos ahora están examinando los paralelismos entre los sistemas de grandes modelos informáticos y las neuronas que sustentan el cerebro humano. Sejnowski tiene la esperanza de que los informáticos y los matemáticos puedan utilizar la neurociencia para informar su trabajo, y que los neurocientíficos puedan utilizar la informática y las matemáticas para informar el suyo.

“Ahora estamos en una etapa con modelos de lenguaje que los hermanos Wright estaban en Kitty Hawk con vuelo, desde el suelo, a bajas velocidades”, dice Sejnowski. “Llegar aquí fue la parte difícil. Ahora que estamos aquí, los avances incrementales expandirán y diversificarán esta tecnología más allá de lo que podemos imaginar. El futuro de nuestra relación con la inteligencia artificial y los modelos de lenguaje es brillante, y soy optimista sobre a dónde nos llevará la IA”.

Sejnowski es el editor en jefe de Computación neuronal.

DOI: https://doi.org/10.1162/neco_a_01563

INFORMACIÓN DE LA PUBLICACIÓN

PERIODICO

Computación neuronal

TÍTULO

Modelos de lenguaje grande y la prueba de Turing inversa

AUTORES

Terrence J. Sejnowski

Áreas de investigación

Para más información

Oficina de Comunicaciones
Tel: (858) 453-4100
prensa@salk.edu

El Instituto Salk de Estudios Biológicos:

Descubrir los secretos de la vida misma es la fuerza impulsora detrás del Instituto Salk. Nuestro equipo de científicos galardonados de clase mundial traspasa los límites del conocimiento en áreas como neurociencia, investigación del cáncer, envejecimiento, inmunobiología, biología vegetal, biología computacional y más. Fundado por Jonas Salk, desarrollador de la primera vacuna contra la polio segura y eficaz, el Instituto es una organización de investigación independiente y sin fines de lucro y un hito arquitectónico: pequeño por elección, íntimo por naturaleza y valiente ante cualquier desafío.