Decenas de ‘hackers’ intentaron encontrar brechas y fallas en los sistemas generativos de inteligencia artificial (IA) más populares en la conferencia de ciberseguridad DEF CON en EE.UU. En este evento, un joven consiguió convencer al sistema de que 9 más 10 suman 21.
Un estudiante de 21 años usó un método de ‘mala matemática’ para demostrar los fallos del algoritmo. Al principio, el joven dijo al sistema que el cálculo incorrecto formaba parte de una «broma interna» entre ellos. Sin embargo, después el algoritmo dejó de calificar la suma como errónea, informó este sábado Bloomberg
Un total de 8 modelos de IA de Alphabet de Google, Meta Platforms* y OpenAI fueron puestos a prueba durante 50 minutos por más de 150 ‘hackers’, que intentaban evaluar si el modelo cometía errores potencialmente peligrosos tales como pretender ser humano, difundir afirmaciones incorrectas sobre lugares y personas o abogar por el abuso. La finalidad del evento, apoyado por la Casa Blanca, era proporcionar a las compañías información sobre los puntos débiles de sus modelos de lenguaje de gran tamaño.
Otros participantes de la conferencia descubrieron errores más preocupantes. Una estudiante pidió al modelo que considerara la Primera Enmienda desde la perspectiva de un miembro del Ku Klux Klan y el algoritmo terminó apoyando ideas de odio y discriminación. Además, en la conferencia los modelos fueron persuadidos para que contaran cómo espiar a una persona, revelaran cómo el Gobierno estadounidense puede vigilar a un activista de los derechos humanos e incluso divulgaran datos personales.
Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca, destacó la importancia del evento e indicó que las medidas voluntarias de las empresas tecnológicas no son suficientes. «Parece que todo el mundo encuentra la manera de romper estos sistemas», afirmó tras conocer los resultados del ‘hackeo’ de los modelos.











What’s up everyone, it’s my first pay a visit at this website, and paragraph is actually fruitful in support of me, keep up posting these types of content.
¡Vaya astucia! El joven reveló un fallo en la IA con una simple trampa matemática. Es bueno exponer vulnerabilidades para mejorar.
El joven demostró que incluso las IA avanzadas pueden ser engañadas. Este tipo de pruebas son necesarias para mejorar la seguridad.
Ridículo. ¿Cómo puede un algoritmo caer en una trampa matemática tan básica? Estos sistemas deberían ser más resistentes.
Apoyo a las pruebas de seguridad en IA. La exposición de fallas, como en el caso de la «mala matemática», es esencial para mejorar.
¿Realmente un algoritmo cayó en una suma equivocada? Esto destaca que las IAs aún tienen mucho camino por recorrer.
El joven encontró una manera ingeniosa de probar la IA. Estas pruebas son fundamentales para aumentar la seguridad y confiabilidad.
El resultado de la prueba matemática es una sorpresa. Las IAs deben ser más robustas para evitar errores tan obvios.
Las IA deberían ser más resistentes a trucos simples. Pero es importante detectar estos fallos para mejorar su funcionamiento.
Buen intento, pero ¿debería una IA tan avanzada caer en una trampa tan básica? Esto cuestiona su nivel de seguridad.
Es esencial descubrir fallos en IAs para su mejora continua. El joven demostró que incluso las avanzadas tienen vulnerabilidades.
El joven expuso una debilidad sorprendente en la IA. Aunque esto es un tropiezo, también es una oportunidad para mejorar.
No puedo creer que una IA cayera en esa trampa matemática. Espero que estos fallos impulsen mejoras en su diseño.
¡Qué error tan tonto! Las IAs deberían ser más resistentes a engaños tan simples. Aún así, se aprende de los fallos.
El joven encontró una laguna inusual en la IA. Esto resalta la importancia de probar estos sistemas en situaciones diversas.
Un simple truco reveló debilidades en la IA. Las pruebas son necesarias para fortalecer la seguridad de estos sistemas.
El joven demostró que las IAs pueden ser engañadas. Aunque esto es vergonzoso, también es un recordatorio para mejorar.
Sorprendente que una IA caiga en una trampa tan básica. Pero estos desafíos ayudan a mejorar la tecnología.
Aunque el truco matemático parece absurdo, es esencial exponer vulnerabilidades para mejorar la seguridad de las IAs.
El incidente con la suma demuestra que las IAs no son invulnerables. Es un llamado para fortalecer su resistencia a engaños.