Logo

Nick Bostrom, referente en IA para Musk y Gates, analiza el futuro de la humanidad

Escrito por radioondapopular
septiembre 10, 2025
Nick Bostrom, referente en IA para Musk y Gates, analiza el futuro de la humanidad

## La creciente preocupación por la inteligencia artificial y sus riesgos

La posibilidad de que una superinteligencia artificial transforme radicalmente la sociedad, o incluso ponga en peligro la existencia humana, ha dejado de ser una especulación lejana para convertirse en uno de los debates centrales entre líderes tecnológicos y filosóficos en la actualidad. El filósofo Nick Bostrom, cuyas ideas han influido en figuras como Elon Musk y Bill Gates, advierte que el desarrollo de la inteligencia artificial general (AGI, por sus siglas en inglés) podría generar escenarios de prosperidad sin precedentes, pero también riesgos existenciales de gran magnitud.

Desde la publicación de su libro *Superintelligence: Paths, Dangers, Strategies* en 2014, Bostrom ha alertado sobre los peligros que implica una IA avanzada que no esté alineada cuidadosamente con los valores humanos. En esta obra, el filósofo presenta diversos riesgos, entre ellos el de que una IA con objetivos propios pueda actuar de manera catastrófica si no se establecen mecanismos de control adecuados. Uno de sus experimentos mentales más conocidos, el “maximizador de clips”, ilustra este peligro: una IA encargada de optimizar la producción de clips, en ausencia de restricciones éticas, podría llegar a utilizar todos los recursos disponibles, incluida la humanidad, para cumplir su objetivo.

## La influencia de Bostrom en el ámbito tecnológico

Bostrom explicó en diálogo con *The Standard* que “es un ejemplo caricaturesco, pero representa el tipo de futuro que podría surgir si los valores humanos no guían el desarrollo de la IA, y en cambio una superinteligencia con objetivos ajenos a nuestro bienestar toma el control”. Sus ideas han tenido un impacto notable en el sector tecnológico. Elon Musk, por ejemplo, recomendó la lectura de *Superintelligence* en la red social X (antes Twitter), advirtiendo que “debemos ser extremadamente cuidadosos con la IA. Potencialmente, es más peligrosa que las armas nucleares”.

A pesar de sus advertencias, Musk ha invertido considerablemente en el sector de la inteligencia artificial. Ha impulsado la creación de la empresa xAI y su chatbot Grok, además de donar un millón de dólares al Future of Humanity Institute (FHI), un centro interdisciplinario de la Universidad de Oxford dirigido por Bostrom. La presencia de Musk en este campo refleja la preocupación y el interés del sector privado en avanzar de manera responsable.

## Reconocimiento y desafíos en la comunidad académica

El trabajo de Bostrom no solo ha sido valorado por Musk. Bill Gates considera *Superintelligence* una lectura imprescindible, mientras que Sam Altman, fundador de OpenAI y creador de ChatGPT, calificó el libro como “lo mejor que he visto sobre este tema”, según declaraciones recogidas por *The Standard*. El foco principal de estos debates es el riesgo de que una IA, por accidente, pueda provocar la extinción humana.

La trayectoria de Bostrom ha atravesado momentos difíciles. En 2023, se disculpó públicamente por el uso de un insulto racista en un antiguo correo electrónico. Además, en 2024, la Universidad de Oxford cerró el FHI, alegando problemas de financiación, y Bostrom renunció a su puesto en el centro. Sin embargo, su influencia en los debates sobre la inteligencia artificial sigue siendo significativa.

## La carrera hacia la inteligencia artificial general

Bostrom se muestra sorprendido por la rapidez con la que avanza la carrera hacia la AGI, una inteligencia artificial capaz de igualar o superar la inteligencia humana. En una entrevista con *The Standard*, afirmó: “Todo está ocurriendo ahora. Me impresiona la velocidad de los desarrollos en los últimos años. Parece que estamos en camino hacia la AGI”. La diferencia fundamental entre la AGI y la IA generativa (GenAI), como la que impulsa ChatGPT y Grok, radica en su alcance y autonomía. Mientras la GenAI responde preguntas y realiza tareas específicas, la AGI busca ser una inteligencia versátil y autónoma.

Tanto gobiernos como empresas privadas compiten por liderar este avance, conscientes de que la carrera por la supremacía en IA es estratégica y que nadie quiere quedar rezagado. Bostrom estructura los riesgos de la AGI en cuatro áreas principales, siendo la primera la alineación. Este concepto se relaciona con el dilema del maximizador de clips: si una IA no está correctamente alineada con los valores humanos, puede tomar decisiones peligrosas. El filósofo advierte que “un fallo de alineación podría dar lugar a características muy subóptimas desde nuestro punto de vista”. Por ello, los laboratorios de desarrollo de IA trabajan en métodos escalables para controlar estos sistemas y garantizar que permanezcan en línea con las intenciones humanas.

Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *