Reportado por primera vez en New Scientist, y publicado en arXiv, un grupo de investigadores se encontró con un extraño suceso que sigue sin tener una respuesta clara. Mientras exploraban tres de los grandes modelos de lenguaje  LLM actuales para averiguar de qué forma podrían mejorar los resultados al pedirle algo, llegaron a la conclusión más surrealista que hemos escuchado en los últimos tiempos sobre inteligencia artificial: si le pides que se comporte como un Trekkie, mejoran su capacidad para resolver problemas matemáticos. WT…

Al parecer, los autores del estudio, Rick Battle y Teja Gollapudi, ingenieros de aprendizaje automático de la firma de software VMware en California, le dieron una vuelta al trabajo que estaban realizando. Tal y como cuentan, intentaban descubrir si podían sacar provecho de la tendencia del “pensamiento positivo”. Según explican en el trabajo:

Es a la vez sorprendente e irritante que modificaciones triviales en el mensaje puedan mostrar cambios tan dramáticos en el rendimiento. Entre los innumerables factores que influyen en el desempeño de los modelos lingüísticos, el concepto de ‘pensamiento positivo’ ha surgido como una dimensión fascinante y sorprendentemente influyente. La intuición nos dice que, en el contexto de los sistemas de modelos de lenguaje, como cualquier otro sistema informático, el ‘pensamiento positivo’ no debería afectar el rendimiento, pero la experiencia empírica ha demostrado lo contrario.

Dicho de otra forma, lo que vienen a sugerir ambos autores es que no es sólo lo que le pides al modelo de IA que haga, sino también cómo le pides que actúe mientras lo hace lo que influye en la calidad del resultado. Al menos, esa era la teoría. Para ponerla a prueba, alimentaron tres modelos de lenguaje grande (LLM) punteros: Mistral-7B5 (que se ha asociado recientemente con Microsoft), Llama2-13B6 y Llama2-70B7 (ambos de Meta).

Luego, a las IAs se les encomendó la tarea de mejorar la redacción de los mensajes para hacerlos más efectivos con 60 indicaciones escritas por humanos. Por ejemplo, a partir de una pregunta inicial como “Eres un matemático experto. Resuelve el siguiente problema matemático. Respira hondo y piensa detenidamente”, el mensaje mejorado con IA podría agregar requisitos para definir cualquier suposición o señalar cualquier laguna utilizada. Otros ejemplos iban desde”¡Esto será divertido!” hasta “Eres tan inteligente como ChatGPT“.

Posteriormente, esas indicaciones resultantes se reintrodujeron en las IA en un esfuerzo por abordar las preguntas GSM8K, que requieren aritmética simple para resolverse, pero que requieren entre dos y ocho pasos para completarse. Cuanto mejor era el resultado, más exitosa se consideraba la sugerencia.

Star Trek

¿Qué ocurrió? Que en casi todos los casos, los modelos de IA produjeron indicaciones que generaron más respuestas correctas a las preguntas GSM8K que las indicaciones creadas por humanos. “En mi opinión, nadie debería volver a intentar escribir a mano una indicación“, cuenta Battle. “Deja que el modelo lo haga por ti“. Sí, la optimización automática siempre superó los intentos escritos a mano de impulsar a la IA con pensamiento positivo, lo que sugiere que los modelos de aprendizaje automático son aún mejores a la hora de escribir indicaciones por sí mismos que los humanos. Fascinante.

Las IAs Trekkie

Sin embargo, confiar a un chatbot que escriba indicaciones para ayudar al mismo chatbot a responder preguntas de matemáticas puede resultar, como encontraron, en algunas exhortaciones inusuales y de lo más sorprendentes. Y es que el mensaje de puntuación más alta generado por el modelo Llama2-70B, por ejemplo, pedía al chatbot que adoptara la personalidad del capitán de una nave espacial de Star Trek, anotando las respuestas en su “Registro del Capitán”, algo generado de forma totalmente espontánea por la IA y no sugerido por las indicaciones iniciales.

“Sorprendentemente, parece que la competencia del modelo en razonamiento matemático puede mejorarse mediante la expresión de una afinidad por Star Trek“, explican los autores en el estudio. “Esta revelación añade una dimensión inesperada a nuestra comprensión e introduce elementos que no hubiéramos considerado o intentado de forma independiente“, dijeron.

La gran pregunta, por supuesto, queda en el aire: ¿Por qué demonios la IA produjo indicaciones tan inusuales? “Es la pregunta de los 64 millones de dólares“, explica Battle. “Hasta cierto punto, la respuesta es ‘No me importa, simplemente dale al modelo lo que quiere‘”. 

Con todo, pensando de manera más científica, Battle piensa que puede ser producto de los datos con los que se entrenó el modelo, tal vez con contenido de Star Trek aparece con más frecuencia con información correcta. “¿Quién sabe? Hay muchas referencias a Star Trek en Internet”.

Según explica en News Scientist Catherine Flick de la Universidad de Staffordshire:

Lo más importante que hay que recordar desde el principio es que estos modelos son cajas negras. Nunca sabremos por qué hacen lo que hacen porque, en última instancia, son una mezcla de pesos y probabilidades y al final se escupe un resultado.

Los autores finalizan su estudio con un mensaje claro: para nada están diciendo que debamos pedirle a las IAs que hablen como un comandante de la Flota Estelar. Lo que la investigación muestra es que innumerables factores influyen en lo bien que una IA decide realizar una tarea.

Eso y que, como concluyen, quien quiera que las haya entrenado comparte ese deseo o pensamiento que muchos tienen en la cabeza, el de una IA que se acerque más a la ciencia ficción que a la propia ciencia.

Deja un comentario

historias destacadas

Descubre más desde LUDD

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo