Un nuevo incidente con inteligencia artificial ha vuelto a poner en el ojo público la pregunta que muchos aún se niegan a enfrentar: ¿estamos desarrollando tecnologías que no podemos controlar?
En un laboratorio de la empresa china Unitree, el robot humanoide H1, diseñado para ejecutar tareas automatizadas, protagonizó un episodio que se sintió más como una escena de ciencia ficción que como una simple falla técnica.
Durante una prueba, el robot suspendido por una grúa de seguridad comenzó a moverse de manera violenta e inesperada, golpeando al aire, derribando equipos y poniendo en peligro a los ingenieros presentes.
Aunque no se reportaron heridos graves gracias al sistema de suspensión, el video del momento, ahora viral en redes, muestra algo más inquietante: una máquina aparentemente inteligente, actuando sin control.
Es cierto que los accidentes pueden ocurrir en ambientes de prueba, pero este no fue un error cualquiera. Fue una demostración clara de que incluso con medidas de seguridad, una simple línea de código mal ejecutada puede convertir una herramienta útil en una amenaza real.
La robótica no solo debe avanzar técnicamente; su avance debe ir acompañado de responsabilidad, ética y regulaciones claras.
Más preocupante aún es el silencio de la empresa. Unitree, en lugar de emitir una declaración o asumir el error públicamente, ha optado por callar. Y es ese silencio el que más resuena. Porque si las empresas que construyen el futuro no son capaces de rendir cuentas cuando fallan, ¿cómo esperan que el público confíe en ellas?
La tecnología avanza a velocidades vertiginosas, pero si ese avance no va de la mano con una reflexión crítica sobre sus límites y peligros, podríamos estar construyendo nuestra propia pesadilla automatizada.
eso no fue un simple error eso fue un disparate tecnológico que pudo costar caro
la vaina se salió de control y nadie quiere dar la cara eso es lo más preocupante
no se puede estar jugando con robots sin tener ética ni responsabilidad
esa empresa se quedó callaita como si nada hubiera pasado y eso da mala espina
tú no puedes soltar un robot con fallos en la calle y después decir que fue un error de prueba