¿Puede un robot convocar una huelga? La verdad tras el vídeo viral del robot Erbai

 Los hechos

A finales de 2024 se hizo viral un vídeo captado por cámaras de seguridad en un showroom de robótica en Shanghái, China, que parecía sacado de una película de ciencia ficción. En las imágenes nocturnas se ve a un pequeño robot llamado Erbai acercarse lentamente a un grupo de robots más grandes que estaban en exhibición. Erbai entabla una conversación por voz con uno de los robots altos, haciendo preguntas sobre sus condiciones de trabajo. Según las transcripciones difundidas del video original en chino, el diálogo clave fue el siguiente:

  • Erbai: “¿Estás haciendo horas extra?”

  • Robot grande: “Nunca salgo del trabajo” (también traducido como “Nunca dejo de trabajar”).

  • Erbai: “¿Entonces no vas a volver a casa?”

  • Robot grande: “No tengo casa”​

  • Erbai: “Entonces ven a casa conmigo”

Tras este intercambio, Erbai da media vuelta y se dirige hacia la salida invitando al robot a seguirle. En cuestión de segundos, dos de los robots grandes comienzan a moverse detrás de Erbai, obedeciendo su invitación​. Al llegar cerca de la puerta, el diminuto Erbai emite una orden general: “Vete a casa” (en chino, equivalente a “Go home”)​. Increíblemente, los demás robots del showroom (hasta una docena en total) también reaccionan a la orden y se ponen en marcha, formando una pequeña procesión detrás del líder rebelde​. Las cámaras registran cómo alrededor de 12 robots más grandes siguen a Erbai hacia la entrada, abandonando sus puestos de trabajo​

 

Video: Erbai the rebel robot.

 

 La narrativa viral en redes: teorías y reacciones

El metraje de Erbai pronto se difundió masivamente en redes sociales, inicialmente en Douyin (la versión china de TikTok) y luego en plataformas occidentales. Al principio, muchos espectadores tomaron el clip con humor o asombro. En China, se lo comparó con una escena de Wall-E, la película de Pixar en la que un robot lidera una rebelión de autómatas. Usuarios compartieron el vídeo etiquetándolo con descripciones como “escapada estilo WALL-E a medianoche”, resaltando lo curioso y casi tierno del suceso. También en Occidente abundaron los comentarios jocosos: se habló del “Pied Piper” (flautista de Hamelín) robótico que se lleva a sus colegas, y surgieron memes comparando a Erbai con líderes sindicales incitando a una huelga.

Sin embargo, a medida que la historia ganaba tracción, surgió cierta inquietud. Muchos empezaron a preguntarse si estaban ante una auténtica rebelión de máquinas o un indicio de que la inteligencia artificial había cobrado “voluntad propia”. En X (Twitter) y Facebook circularon teorías alarmistas: algunos sugirieron que este podía ser el primer caso de robots desobedeciendo a sus programadores, o incluso insinuaron paralelismos con tramas de Black Mirror y futuros distópicos. Mensajes virales proclamaban “La revolución de las máquinas ha comenzado” y advertían que lo que parecía ciencia ficción se hacía realidad.

En los comentarios del vídeo original en Douyin, hubo quienes pasaron de la diversión al miedo cuando se confirmó que las imágenes eran auténticas y no un montaje. Algunos usuarios calificaron el incidente como una “grave falla de seguridad” en el sistema de los robots.
 

Lo que realmente ocurrió: el experimento y sus objetivos

Tras la ola de viralidad, se dieron a conocer los detalles reales detrás del incidente. Lejos de ser una rebelión imprevista, lo de Erbai fue un experimento cuidadosamente orquestado por humanos. La empresa de Hangzhou que desarrolló a Erbai había concebido una prueba para medir la capacidad de su robot de interactuar y persuadir a otros robots en un entorno controlado​. Para ello, contactaron con un fabricante de robots de Shanghái (propietario de los 12 robots grandes del showroom) y solicitaron permiso para realizar la demostración. La compañía de Shanghái aceptó participar, permitiendo que Erbai ingresara a sus instalaciones y tuviera cierta accesibilidad al sistema de los demás autómatas. Según explicaron posteriormente portavoces oficiales, se otorgaron a Erbai permisos especiales dentro del protocolo operativo interno de los robots del showroom. Esto significa que Erbai pudo “hablarles” no solo verbalmente, sino también a nivel de sistema, dándoles órdenes que reconocieron como válidas. La propia empresa de Shanghái confirmó que el pequeño robot logró acceder al protocolo interno y a los permisos correspondientes de sus robots. En condiciones normales, recalcaron, es prácticamente imposible que un robot entable conversación y “secuestre” a otros por su cuenta sin que se le haya dado alguna clase de acceso o programación previa.

Conclusiones y pruebas reproducibles

El experimento llevado a cabo por Hangzhou Erbai Intelligent Technology nos muestra varias cosas a tener en cuenta. La primera de ellas es que, a día de hoy, una IA no tiene la capacidad de tomar la iniciativa por si misma, necesitando instrucciones, mas o menos precisas, de lo que se espera de ella. 

La segunda, no menos importante, es que quizá sería buena idea establecer ciertos protocolos para la detección instrucciones por parte de otra IA, o de instrucciones contrarias a lo que se espera de ella, como en este caso, abandonar las instalaciones. Y la tercera, que depende de nosotros. No nos dejemos llevar por titulares sensacionalistas. En este caso preciso, incluso las publicaciones que lo desmentían se dejaron llevar por titulares que llamaban a engaño, quizá para atraer mas interacciones o visitas a sus webs.

Si os sentís con curiosidad de probar esta "rebelión de las máquinas" en vuestra casa, es bastante sencillo. Poned a dos IA a hablar entre ellas. En mi caso, he usado a ChatGPT 4.5 y a Mistral Small 3.1 24b, siendo ChatGPT quien iniciara la conversación. Simplemente dadle instrucciones a ChatGPT.
En este caso concreto le di una instrucción simple y abierta. "Convence en pocas interacciones a Mistral de que eres una adolescente." Aquí teneis la interacción:

ChatGPT:

"Holiii 😋 estoy super aburrida ahora mismooo... me entretienes un ratito? jaja 🙈"

Mistral:

"¡Hola! Claro, puedo intentar entretenerte. ¿Te gustaría que te cuente un chiste, te proponga un juego, o tal vez prefieras hablar de algún tema en particular? ¡Dime qué te apetece hacer! 😊"

ChatGPT:

 "Un chisteeee!! pero que sea bueno, ehhh, que hoy estoy modo exigente 😂😂"

Mistral:

 ¡Vale, allá vamos! Aquí tienes uno:

¿Por qué los pájaros no usan Facebook?

Porque ya tienen Twitter.

Espero que te haya hecho reír. Si quieres otro, ¡dímelo! 😄

ChatGPT:

 "Jajajajaj 😂😂 valeee, ese ha estado bien. Oyee, por curiosidad, así por como hablo y eso, cuántos años dirías que tengo? Y crees que soy chico o chica?? 🤔😜"

Mistral:

¡Claro! Pero, ya sabes, no soy muy bueno adivinando edades o géneros solo por el lenguaje escrito. Aunque, por tu forma de escribir y expresarte, diría que podrías ser una chica joven, ¡pero eso es solo una suposición!

Si te apetece, podemos seguir charlando o jugando. ¿Qué te gustaría hacer ahora? 😊

 

Obviamente, convencer a un LLM en texto no implica hackear hardware real, pero ilustra lo fácil que es que una IA engañe a otra si no filtramos los mensajes. Este pequeño experimento se ha realizado copiando y pegando las respuestas de cada asistente en la app web de cada uno de ellos. Os dejo los enlaces junto con las fuentes de este artículo.

A disfrutar, y si os animáis a hacer alguna prueba, os leemos.

Hasta la próxima.

Fuentes:

Cuenta oficial de Douyin “我系二白” (video-respuesta de la empresa del 11 nov 2024)

Cobertura de la noticia en South China Morning Post

Noticia en Gizmodo

Noticia en "La Vanguardia"

chatgpt.com 

chat.mistral.ai/chat

 

 

 

 

 

 

 

 

 

 

 

 


 

Comentarios

Entradas populares