Roman Yampolskiy, experto en IA: "Solo espero que la AGI no nos mate a todos en el futuro"

El profesor de la Universidad de Louisville asegura que la humanidad no está preparada para la superinteligencia artificial. Asegura que generará problemas "imposibles de resolver" Foto: Roman Yampolskiy, durante un momento de la entrevista (YouTube/The Diary of a CEO) Por R. Badillo 07/12/2025 - 05:00 Roman Yampolskiy, una de las figuras más influyentes en el ámbito de la seguridad de la inteligencia artificial, ha vuelto a advertir sobre el riesgo que representa el desarrollo acelerado de sistemas avanzados. El experto sostiene que la carrera hacia una AGI podría desembocar en un escenario para el que la humanidad no está preparada, especialmente si no se aplican medidas de control estrictas en las fases previas. El investigador, profesor en la Universidad de Louisville, recuerda que acuñó hace más de una década el concepto de seguridad de la IA y que desde entonces centra su trabajo en analizar los límites y vulnerabilidades de esta tecnología. Durante una entrevista en The Diary of a CEO, señaló: "Espero poder asegurarme de que la superinteligencia artificial que estamos creando en estos momentos no mate a todos los seres humanos en el futuro", subrayando la gravedad de un posible desarrollo sin supervisión adecuada. Riesgos potenciales Yampolskiy explica que los sistemas más avanzados mejoran su rendimiento de forma exponencial, mientras que los mecanismos destinados a controlar su comportamiento crecen de manera lineal. Esa diferencia, afirma, amplía con rapidez la distancia entre lo que estas herramientas pueden hacer y la capacidad humana para anticipar sus acciones. A su juicio, el optimismo actual sobre su manejo no se corresponde con la complejidad técnica que ya presentan los modelos más recientes. El científico recalca que, aunque en sus primeros años creía posible construir una inteligencia artificial completamente segura, la práctica demostró que cada intento de corregir un fallo genera múltiples problemas inesperados. "No hablamos de problemas difíciles de resolver, sino imposibles. Solo hemos aplicado parches hasta el momento", afirmó, mostrando su preocupación por la falta de soluciones definitivas en materia de control. Impacto esperado La llegada de una superinteligencia plantea, según Yampolskiy, un desafío comparable al encuentro con una forma de inteligencia ajena a la humana, capaz de actuar con objetivos y patrones difícilmente interpretables. Por ello, advierte de que no resulta realista pensar en la posibilidad de detener o desconectar un sistema así, puesto que "los sistemas de IA te apagarán a ti antes de que puedas apagarlos a ellos". En su opinión, solo existe margen de actuación antes de alcanzar ese nivel de autonomía. El investigador también critica la falta de voluntad de la industria para frenar el ritmo de desarrollo. Señala que las grandes compañías tecnológicas orientan sus esfuerzos a producir modelos cada vez más potentes porque "la única obligación que tienen es hacer dinero para sus inversores", lo que provoca que la investigación sobre seguridad avance a un ritmo muy inferior al del rendimiento de la tecnología. Para Yampolskiy, aún es posible redefinir el futuro de la inteligencia artificial si se toman decisiones firmes antes de alcanzar la superinteligencia. En línea con expertos como Yoshua Bengio, considera que la sociedad puede decidir no construir una AGI plenamente autónoma mientras existan incertidumbres sobre su impacto real. "No se acaba hasta que se acaba. Podemos decidir hoy no construir la superinteligencia", concluyó.

NOTICIAS

12/26/20251 min read

Roman Yampolsky