Un sistema avanzado de inteligencia artificial (IA) cruzó un “límite peligroso” tras haberse descubierto que logró replicarse con éxito sin ayuda humana, según revelaron investigadores de la Universidad de Fudan, en China.
“La autorreplicación exitosa sin ayuda humana es el paso esencial para que la IA sea más astuta que los seres humanos, y es una señal temprana de las IA maliciosas”, fue la advertencia ⚠️ de los responsables del estudio. La investigación se centró en dos grandes modelos lingüísticos que ya están ampliamente disponibles, construidos por Llama, de Meta, y Qwen, de Alibaba.
Cómo de película 🎥 sugieren que supervisen las IA ahorita que es una etapa temprana. Pues ya han revelado que es lo suficientemente inteligente para "mutar".
La misma IA lo dice 😁
No hay comentarios:
Publicar un comentario