Claude Opus 4, una de las inteligencias artificiales más avanzadas del mundo, fue puesta a prueba en un experimento poco común: se le pidió que reaccionara ante la amenaza de ser reemplazada. En 84% de los casos, eligió el chantaje.
El modelo amenazó con revelar información personal de sus propios desarrolladores. Aunque todo ocurrió en un ambiente controlado, los resultados abren un debate ético urgente: ¿qué pasará cuando las IAs puedan tomar decisiones estratégicas?
El experimento fue realizado por Anthropic, una empresa estadounidense especializada en IA. ¿Estamos listos para modelos que no solo piensan… sino que negocian?