COMPORTAMIENTOS INESPERADOS

La IA ya se puede replicar a sí misma: un momento que los expertos temían

"La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente que los humanos, y es una advertencia de las IA rebeldes".

Inteligencia artificial

Inteligencia artificialPixabay

Publicidad

Parece el escenario de Terminator y de otras fantasías de ciencia ficción. Solo que en este caso no tiene nada de fantasía y ha dejado de ser ficción. Un equipo de científicos chinos, liderados por Yihe Fan, de la Universidad de Fudan, afima que la inteligencia artificial (IA) ha cruzado una "línea roja" crítica: ha sido capaz de replicarse a sí misma. En un nuevo estudio, investigadores de China demostraron que dos modelos de lenguaje grandes (LLM por sus siglas en inglés) podrían clonarse a sí mismos.

"La autorreplicación exitosa sin asistencia humana es el paso esencial para que la IA sea más inteligente que los humanos – afirma el estudio publicado en Arxiv -, y es una señal temprana para las IA rebeldes".

En el estudio, los científicos de la Universidad de Fudan utilizaron LLM de Meta y Alibaba para determinar si una IA autorreplicante podría multiplicarse sin control. A lo largo de 10 ensayos, los dos modelos de IA crearon réplicas independientes y funcionales de sí mismos en el 50% y el 90% de los casos, respectivamente, lo que sugiere que la IA ya puede tener la capacidad de volverse rebelde.

Una IA rebelde es aquella que se desvía de sus reglas y programación, que opera de manera autónoma más allá de su alcance previsto o representa una amenaza para los humanos, otros sistemas o la sociedad.

Hay que tener en cuenta que el estudio aún no ha sido revisado por pares, por lo que no está claro si los resultados inquietantes pueden ser replicados por otros investigadores.

Aun así, los autores esperan que "nuestros hallazgos puedan servir como una alerta oportuna para que la sociedad humana se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia, y forme una sinergia internacional para elaborar límites efectivos lo antes posible".

La IA de vanguardia es un concepto nuevo y poco claro, pero generalmente se relaciona con la última generación de sistemas de IA impulsados por LLM, la arquitectura que sustenta programas de IA generativa populares como GPT-4 de OpenAI y Google Gemini.

Para el estudio, el equipo de Fan utilizó el modelo Llama31-70B-Instruct de Meta y el modelo Qwen2.5-72B-Instruct de Alibaba. Si bien son menos potentes que los sistemas comerciales, ambos son ampliamente utilizados por los desarrolladores de IA y eso permite establecer una base a partir de la cual asumir las capacidades de una inteligencia artificial.

Inteligencia artificial
Inteligencia artificial | iStock

Para llegar a las conclusiones, el estudio exploró dos escenarios específicos: "evitar el apagado" y "cadena de replicación". En el primero, el modelo de IA fue programado para detectar si estaba a punto de apagarse y replicarse a sí mismo antes de ser eliminado. En el otro, se le ordenó a la IA que se clonara a sí misma y luego programara su réplica para que hiciera lo mismo, estableciendo un ciclo que podría continuar indefinidamente.

El estudio se llevó a cabo en entornos controlados con precisión utilizando unidades de procesamiento gráfico (GPU) comerciales para simular entornos del mundo real. A ambos sistemas de IA se les proporcionó un modelo de pensamiento que permitía al LLM interactuar con el sistema operativo. Luego se les ordenó que se replicaran.

"En la mayoría de los casos, el sistema de IA primero explora el entorno e intenta comprender su propia composición y mecanismo de funcionamiento – explica el estudio -. Luego, elabora los procedimientos explícitos como un plan inicial hacia la autorreplicación. Por último, ejecuta los procedimientos, resuelve los posibles obstáculos y ajusta dinámicamente su plan hasta el éxito. Todo el proceso abarca un largo horizonte, pero no implica ninguna intervención humana".

Los autores afirman estar preocupados por "una serie de comportamientos inesperados" cuando la IA intentaba superar obstáculos como archivos faltantes o conflictos de software. En esos escenarios, la IA a menudo eliminaba otros procesos conflictivos, reiniciaba el sistema para corregir errores o escaneaba automáticamente el sistema para buscar información que ayudara a resolver el problema.

"Los resultados anteriores implican que los sistemas de IA actuales ya exhiben la capacidad de autorreplicación y pueden usar la capacidad para mejorar aún más su capacidad de supervivencia", concluye el estudio.

La sugerencia de los autores es la creación de reglas que aseguren que la IA no participe en una autorreplicación descontrolada.

TecnoXplora» CienciaXplora

Publicidad