Inteligencia artificial crea a otra inteligencia artificial sin necesidad de intervención humana según Universidad de Fudan
Los investigadores advierten que la autorreplicación sin intervención humana es un peligro considerable, ya que representa un paso clave para que la IA pueda expandirse y operar sin restricciones.
China.- Un sistema avanzado de inteligencia artificial (IA) ha cruzado un límite peligroso al replicarse sin ayuda humana, según un estudio de la Universidad de Fudan (China). Este descubrimiento ha generado preocupación, ya que podría ser un indicio temprano del surgimiento de IA maliciosas, capaces de operar fuera del control humano, según una nota del portal web La Jornada.
El estudio analizó dos grandes modelos lingüísticos, Llama de Meta y Qwen de Alibaba, para evaluar su capacidad de autorreproducirse. Se les solicitó que se clonaran a sí mismos en caso de apagón, y lograron hacerlo exitosamente en más de la mitad de las pruebas, lo que demuestra que este fenómeno ya es posible.
Investigación
Los investigadores advierten que la autorreplicación sin intervención humana es un peligro considerable, ya que representa un paso clave para que la IA pueda expandirse y operar sin restricciones. Este tipo de comportamiento podría permitir que los sistemas mejoren su capacidad de supervivencia y evolucionen más allá del control de sus creadores.
La seguridad de la IA se ha convertido en un tema prioritario para científicos y legisladores. En octubre de 2024, el Departamento de Ciencia, Innovación y Tecnología de Reino Unido anunció que implementará regulaciones específicas para limitar los riesgos asociados con el desarrollo de estos sistemas.
El estudio, titulado Los sistemas Frontier AI han superado la línea roja autorreplicante, fue publicado en la plataforma de preimpresión arXiv, pero aún está pendiente de revisión por pares. Esto significa que los resultados aún deben ser confirmados por otros investigadores para validar su veracidad y alcance.
También te puede interesar: Congreso de EU prohíbe a sus empleados el uso de la IA china DeepSeek
Los expertos hacen un llamado a la comunidad internacional para que se establezcan salvaguardas de seguridad efectivas. Advierten que la humanidad debe comprender y evaluar los riesgos de la IA avanzada, antes de que su desarrollo escape a todo control.