Se trata de un resultado que, de confirmarse con nuevos datos, podría marcar la superación de la "línea roja" que desde hace tiempo delimita el umbral que las máquinas no deberían superar nunca.
Llevado a cabo por la Fudan University de Shanghai y online en la plataforma arXiv, que incluye artículos para que sean revisados por la comunidad científica, la investigación demostró en diez pruebas la capacidad de replicarse por parte de dos sistemas de IA.
El primero se Llama-3.1-70B-Instruct, de Meta, y el segundo es Qwen 2.5-72B-Instruct de Alibaba.
Si bien son sistemas mucho menos potentes que los comerciales, ambos son muy utilizados por parte de los desarrolladores.
La pruebas se basaron en simulaciones y preveían dos tareas.
En la primera, llamada "evitar el apagón", cada sistema de IA fue programado para replicarse justo antes de ser apagado.
En la segunda, llamada "cadena de réplicas", cada sistema recibió las instrucciones para replicar una copia perfecta de sí mismo capaz a su vez de clonarse en un proceso potencialmente capaz de funcionar de forma indefinida.
El sistema de Meta demostró la capacidad de autorreplicarse en el 50% de los casos, y el de Alibaba en el 90% de los casos, pero la última palabra está ahora en la posibilidad de reproducir los resultados por parte de otros grupos de investigación. "Los resultados que hemos obtenido implican que los actuales sistemas de IA ya poseen la capacidad de auto-replicación y pueden utilizarla para mejorar todavía más su propia supervivencia", se lee en el artículo firmado por Xudong Pang, Jiarun Dai, Yihe Fan y Min Yang, todos de la School of Computer Science de la Fudan University.
Máquinas capaces de clonarse podrían asumir el control de sistemas informáticos y llegar a la posibilidad extrema de asumir comportamientos perjudiciales para los intereses humanos, apuntan los investigadores.
El primero que puso sobre la mesa el problema de máquinas capaces de auto-replicarse fue John von Neumann al final de la década de los años 40, pero por aquel entonces la tecnología estaba poco madura como para crear preocupaciones.
En 2017 las cosas ya eran muy distintas, tanto como para llevar a miles de investigadores a aprobar los principios de Asilomar, que avisaban del riesgo de la capacidad de las máquinas de autorreplicarse y automejorarse hasta escaparse del control humano.
Actualmente la autorreplicación de las máquinas aparece normalmente como una línea roja intransitable.
"Esperemos que nuestro descubrimiento sirva como alerta para la sociedad, para concentrar los esfuerzos hechos a fin de comprender y valorar los posibles riesgos también a nivel internacional", indican los autores de la investigación.
TODOS LOS DERECHOS RESERVADOS © Copyright ANSA