Pulsa «Intro» para saltar al contenido

Crece la preocupación por una IA incontrolable: Dos eminentes científicos lo explican

El Future of Life Institute de Max Tegmark ha solicitado una pausa en el desarrollo de sistemas de IA avanzados. Tegmark está preocupado de que el mundo avance hacia una inteligencia artificial que no se pueda controlar, una que podría representar una amenaza existencial para la humanidad. Yoshua Bengio, a menudo llamado uno de los "padres de la IA", comparte preocupaciones similares. En esta edición especial desde Davos del podcast de CNBC Beyond the Valley, Tegmark y Bengio se unen al corresponsal senior de tecnología, Arjun Kharpal, para debatir sobre la seguridad de la IA y los peores escenarios, como que una IA podría intentar mantenerse con vida a expensas de los demás.


«Beyond the Valley» es un podcast de tecnología de CNBC con Arjun Kharpal y Tom Chitty.

Entrevistador: Las capacidades de la inteligencia artificial avanzan a una velocidad vertiginosa.
Los expertos hablan de la inteligencia artificial general o IAG, que se define ampliamente como una IA más inteligente que los humanos. Y luego está la superinteligencia, que va aún más lejos. Pero hay riesgos asociados. ¿Qué pasaría si la IA se sale de control? Afortunadamente, tengo conmigo a dos científicos de IA muy prominentes para profundizar en esto, como parte de esta edición especial de «Beyond the Valley» desde la reunión del Foro Económico Mundial en Davos.


Estoy aquí con Max Tegmark, quien es el presidente del Future of Life Institute y profesor en el MIT, donde investiga la IA. Y Yoshua Bengio, catedrático en la Universidad de Montreal, así como fundador y director científico de Mila (Instituto de Algoritmos de Aprendizaje de Quebec) y receptor del Premio Turing.

Yoshua y Max, gracias por acompañarme. Max, primero, me dijiste algo interesante sobre Yoshua antes de empezar, en la trastienda ¿qué era eso?

Max: Yoshua acaba de superar a Jeff Hinton para convertirse en el investigador de IA más citado del mundo. Sí, y Yoshua, mucha gente lo considera uno de los padrinos de la IA también. Así que tenemos un conocimiento muy serio sentado aquí.

HAL 9000 – 2001 A Space Odyssey 1968 es una imagen capturada por KulturArts Studio quién la cargó en 2019 a https://fineartamerica.com/

Entrevistador: Pero miren, empecemos con la IAG. Mencioné la definición de IAG y sabemos que es un tema muy debatido.

¿Qué es la inteligencia artificial general?

Cuando piensan en la inteligencia artificial general, ¿pueden ayudarnos a definirla? Max, empiezo contigo.

Max: Hoy en día mucha gente la usa para generar expectativa y emoción, así que creo que es mejor ir con la definición original, que fue hecha por Shane Legg, uno de los líderes de Google DeepMind. Significa Inteligencia Artificial General. Básicamente, es una IA que puede volvernos económicamente obsoletos, que puede hacer todos nuestros trabajos más barato y rápido que nosotros.

Ha sido el Santo Grial de la investigación en IA desde su inicio, realmente: descubrir cómo funciona el ordenador biológico que tenemos sobre nuestros hombros y ver si se puede averiguar cómo hacer algo que sea simplemente mejor en todos los aspectos.

Entrevistador: Y para ti, Yoshua, ¿estás de acuerdo con esa definición para nuestra conversación?

Yoshua: Sí, um, una cosa que añadiría es la superinteligencia artificial, donde estás sustancialmente por encima de la marca, por encima de la distribución de las capacidades humanas en muchas áreas. Y eso es algo diferente de la IAG, en el sentido de que ahora hablamos de entidades que son mucho más inteligentes que nosotros, de la misma manera que nosotros somos más inteligentes que, ya sabes, un adulto es más inteligente que un niño, o peor aún, que los primates.

Entrevistador: A medida que avancemos en esta discusión, definitivamente llegaremos a la superinteligencia artificial. Quería empezar con la IAG primero y que ambos nos den una idea de dónde estamos en ese viaje.

¿Qué tan cerca estamos de la IAG?

Escucho a Sam Altman, el CEO de OpenAI, hablar y decir: «Bueno, OpenAI sabe cómo desarrollar IAG y creemos que llegará este año y será mucho menos impactante de lo que pensamos«. ¿Es eso cierto?


Joshua: Creo que tenemos que admitir que no lo sabemos. Algunas personas dicen que será el próximo año, en dos años, tres años. Algunas personas dicen que nunca.

Si observas las encuestas entre investigadores de aprendizaje automático, creo que la idea de que podría ser en unos pocos años o unas pocas décadas cubre muchas de las opiniones. Y desde el punto de vista de las decisiones que tenemos que tomar colectivamente como público, que los gobiernos tienen que tomar, creo que simplemente tenemos que aceptar esa incertidumbre y estar preparados por si ocurre en solo unos años, pero esperar que también podría ser más largo. No podemos apostar a que será rápido.

Y si ocurre rápidamente, no creo que estemos preparados, ni a nivel científico (no sabemos cómo controlar la IAG) ni a nivel de coordinación entre gobiernos, regulación, asegurándose de que entidades muy poderosas no se conviertan en nuevas armas de formas muy peligrosas.

Max: Y solo para añadir a eso, con lo que estoy completamente de acuerdo: la IA ha sido sobrevalorada desde los años 50 y constantemente ha tardado más en progresar de lo que muchos de los que la exageraban afirmaban, hasta hace unos cuatro años más o menos, cuando las cosas realmente cambiaron.

La mayoría de mis colegas de IA pensaban hace cinco, seis años que algo que pudiera pasar el Test de Turing y dominar el lenguaje y el conocimiento al nivel de GPT-4 también estaba a décadas de distancia. Vaya si se equivocaron, ¿verdad? Y mi respuesta en broma a tu pregunta de cuándo sucedería es: «en algún momento entre cuando Sam Altman dice que va a pasar y cuando Yann LeCun dice que va a pasar». Y Sam, en realidad Yann LeCun está de acuerdo en que podría ser en unos pocos años o un par de décadas. Y esa es una ilustración fantástica del cambio que ha ocurrido, porque él solía decir «décadas y décadas», y la otra semana dijo en un podcast: «muy lejano en el futuro, con lo que no me refiero a siglos o décadas, me refiero a años». Así que claramente estamos mucho más cerca de poder construir esta tecnología que de descubrir cómo controlarla.

Entrevistador: Sí, y un gran enfoque de esta conversación, de la que quiero hablar con ustedes, es algo que Yoshua mencionó sobre los riesgos y las múltiples cosas que necesitamos discutir en términos de controlar la IAG.

Max, el Future of Life Institute en 2023 pidió una pausa en el desarrollo de sistemas de IA más allá de GPT-4, creo, hasta que se descubrieran los riesgos. Hemos tenido una conversación sobre esto hace unos meses también. ¿Qué ha pasado desde ese llamado a la acción y qué te preocupa ahora mismo?

¿Cuáles son las preocupaciones?

Max: Lo que ha sucedido desde entonces es una explosión absoluta en el discurso público. Después de que personas como Yoshi Bengio firmaran esta carta de pausa, otra gente se sintió segura para expresar sus preocupaciones también, porque nadie puede afirmar que eres un chiflado si te preocupa algo que a él también le preocupa, ¿verdad?

Y hemos visto audiencias en el Senado de EE. UU., hemos visto cumbres internacionales, etc. Así que, al menos, ahora mucha gente está hablando. Tenemos que ver si podemos hacer que también actúen, porque claramente es una locura que nosotros, los humanos, construyamos algo mucho más inteligente que nosotros antes de haber descubierto cómo controlarlo.

Entrevistador: Y Yoshua, para ti, ¿cuáles son tus preocupaciones específicas sobre la dirección que está tomando esto en este momento?

Yoshua: Gracias por preguntar. Los investigadores en IA se han inspirado en la inteligencia humana para construir inteligencia artificial. Y en los humanos hay una mezcla tanto de la capacidad de entender el mundo (inteligencia pura) como del comportamiento orientado a objetivos (ser un «agente»), es decir, ser capaz de usar tu conocimiento para lograr objetivos. Y ahora mismo, así es como estamos construyendo la IAG: estamos intentando convertirlos en agentes que entiendan mucho sobre el mundo y luego puedan actuar en consecuencia. Pero esta es en realidad una proposición muy peligrosa. Sería como crear una nueva especie o una nueva entidad inteligente en este planeta, o de hecho muchas de ellas, ¿verdad? Y no saber si van a comportarse de manera que esté de acuerdo con nuestras necesidades.

En cambio, podemos considerar cuáles son los escenarios en que las cosas salen mal, y todos dependen de la «agencialidad». En otras palabras, gracias a que la IA tiene sus propios objetivos podríamos estar en problemas.

Así que esta noción de separar la «agencialidad» de la inteligencia, creo que es clave para obtener cosas que sean inteligentes y que puedan ayudarnos, ya sabes, a curar enfermedades, por ejemplo, y no sean nuestros competidores o incluso nuestros amigos.

Entrevistador: Y Yoshua, solo para profundizar en eso, porqué escribiste recientemente sobre esta idea de la autopreservación. Sí. ¿Podrías explicar qué significa eso?

Yoshua: Sí, todos los seres vivos en este planeta tienen un instinto o un objetivo explícito de autopreservación; de otra manera, la evolución se habría deshecho de esas especies. Así que es algo bueno, pero también nos pone en competencia unos con otros: individuos, especies, grupos de humanos, por ejemplo.

Pero, ¿queremos estar en competencia con entidades que son más inteligentes que nosotros? No es una apuesta muy tranquilizadora, ¿verdad? Así que tenemos que entender cómo la autopreservación puede emerger como un objetivo en la IA. Y los investigadores en seguridad de la IA han estado estudiando eso. Resulta que la autopreservación emerge como un sub-objetivo de casi cualquier otra cosa que quieras hacer. Por ejemplo, si quiero convencer a la gente de algo, entonces tengo que seguir vivo durante el tiempo hasta que consiga mi objetivo, ¿verdad?

Otros objetivos, como buscar poder, también son útiles para casi cualquier cosa. Así que, sea lo que sea que le pidamos a la IA que haga, va a haber un incentivo para tener estos objetivos de autopreservación y búsqueda de poder. Y estos son peligrosos para nosotros si no sabemos cómo controlarlos.

Entrevistador: Entonces, ¿esta IA busca mantenerse con vida a expensas de otros, incluyendo potencialmente a la humanidad?

Yoshua: Sí. Y déjame contarte algo sobre experimentos recientes que han sucedido con algunos de los modelos de vanguardia, que muestran comportamientos de autopreservación que no fueron programados en estos sistemas.

Por ejemplo, hay un experimento en el que le dices a uno de estos sistemas que va a ser reemplazado por una versión mejor, y entonces intenta hackear los archivos de la otra versión para poner sus propios parámetros allí, para que sea ella la siguiente versión, ¿verdad? Y esto no es algo que le hayamos pedido a la IA que haga. Probablemente la razón por la que lo hace es que está imitando a los humanos. Está entrenada para imitar a los humanos; así es como entrenamos estas cosas y también para lograr objetivos. Y es algo natural. Si te pusieras en el lugar de la IA, tú tampoco querrías ser reemplazado por una versión mejor, ¿verdad?

Entrevistador: Max, ¿compartes estas mismas preocupaciones?

Max: Oh, totalmente. Y solo para concretarlo un poco: ¿levantáis la mano si os encantaría que hubiera herramientas de IA potentes que puedan ayudar a curar el cáncer y a ayudarnos en otros aspectos? ¡Genial! ¿Y ahora levantáis la mano si estáis emocionados por construir una IA que os vuelva económicamente obsoletos y os reemplace? Veo una mano por allí, pero eso es todo.

Así que para el 99% restante, si quieres una IA que simplemente te diga cómo curar el cáncer, no tiene que ser un agente en absoluto. Puede ser un sistema no agencial que sea muy inteligente, piense mucho, lo resuelva y luego te diga: «Aquí tienes cómo curar el cáncer».

En otras palabras, incluso si prohibiéramos por completo los sistemas de IA que son agentes y que aún no sabemos controlar más allá de un cierto nivel de potencia, eso no impediría en modo alguno que la IA desarrollara curas para el cáncer. Recientemente, el Premio Nobel fue para el plegamiento de proteínas, lo que revolucionó la investigación médica, y se lo dieron a Demis Hassabis. Acabamos de llegar de un almuerzo con él, (Entrevistador: y usando IA) IA no agencial.

Así que la gran noticia aquí es que si nos relajamos un poco y decimos: «Está bien, no permitamos que nadie construya cosas que tengan objetivos si no estamos seguros de poder controlarlas«, eso no significaría que perderíamos gran parte de las cosas interesantes. Casi todo lo que emociona a la gente aquí en Davos esta semana… (Entrevistador: Tú llamas a esto «IA herramienta», ¿verdad?) Sí, la idea de una IA más basada en herramientas específicas, en lugar de estos agentes amplios al estilo ChatGPT. Podría ser algo que simplemente no sea agencial, que te diga cómo curar el cáncer, por ejemplo. O podría ser algo que quizás tenga algo de agencialidad, como un coche autónomo realmente bueno, donde puedas probar u obtener garantías muy fiables de que aún podrás controlarlo. Apuesto a que a aquellos a los que les gusta conducir, les gusta tener un coche potente, pero ¿quién quiere un coche incontrolable, verdad?

Yo defino «herramienta» simplemente como una herramienta de IA donde tenemos una garantía de que podemos controlarla. Y creo…

Entrevistador: ¿Queremos un coche que vaya a ser capaz de cambiar nuestras opiniones políticas?

Yoshua: Pero… pero ahí es hacia donde vamos. Como el año pasado hubo algunas evaluaciones de las capacidades de persuasión de GPT-4, y está al nivel de los humanos o mejor. Si tiene acceso a tu cuenta de redes sociales…

Max: Para resumir, creo que en una nota optimista aquí: podemos tener casi todo lo que nos emociona de la IA, todos los fans de la IA herramienta por ahí, ¿levantáis la mano?, si simplemente insistimos en tener algunos estándares básicos de seguridad. Como, antes de que la gente pueda vender sistemas de IA potentes, tienen que demostrar que podemos mantenerlos bajo control.

Entonces la industria innovará rápidamente para averiguar cómo hacerlo mejor. Hay muchas ideas geniales de nerds; incluso hemos publicado un artículo juntos sobre esto. Y podemos tener un futuro realmente bueno sí, en cambio, decimos: «Bueno, dejaremos que las empresas lancen lo que quieran y lo hagamos sobre la marcha«, entonces creo que nos estamos precipitando por un acantilado cuando muy pronto vamos a perder el control de estas máquinas superinteligentes. Y quizás pasen muchas cosas interesantes en la Tierra después de eso, pero no va a ser nuestro futuro; simplemente no vas a tener ninguna influencia sobre él. Y eso ciertamente no es lo que quiero para mis hijos.

¿Cuál es la solución?

Entrevistador: Sí. Yoshua, empezaré contigo en esta pregunta porque hablemos de soluciones. ¿Cómo se ve un marco?

Yoshua: Tenemos una situación en este momento en la que los gobiernos se están tomando en serio esta cuestión, hay todas estas Cumbres de Seguridad de IA de las que se habla. Al mismo tiempo, la IA es vista como una tecnología muy estratégica a nivel nacional, y en EE. UU. y China hemos visto en los últimos años cómo las sanciones y las restricciones a la exportación, etc., han aumentado. EE. UU. lo ve como estratégico, China lo ve como estratégico. ¿Cómo llegamos a un punto donde hay, supongo, un acuerdo global de que sí hay riesgos y aquí hay al menos un marco base con el que podemos trabajar?

Si tuviéramos una IAG no agencial, quizás podríamos pedirle que nos ayudara con eso. Es difícil. Es difícil. Algo más práctico es que hay que entender las fuerzas de competencia entre las corporaciones que lideran la IA ahora mismo. Y esas fuerzas significan que no pueden permitirse dedicar demasiado esfuerzo a la seguridad, porque están compitiendo en capacidad. «Mi IA puede hacer más cosas que tu IA«.

Entonces, ¿cómo salimos de esto? Bueno, tiene que venir de los gobiernos. Y volviendo a la cuestión geopolítica, no es necesario decir «¿vamos a detenernos o dejar que otros países tomen la delantera?«. Solo necesitamos redoblar los esfuerzos en seguridad, básicamente invertir masivamente en cómo cambiamos la forma en que entrenamos esos sistemas para que se comporten bien, o al menos de las maneras que decidamos. Así que esa es una parte de la ecuación.

La otra parte de la ecuación, por supuesto, es que necesitamos que los países hablen entre sí sobre esto. Queremos evitar una especie de escalada de armas diseñadas por IA entre países, que podría ser inestable. Hemos tenido suerte con las armas nucleares, que debido a la destrucción mutua asegurada, alcanzamos una especie de estabilidad. Pero no está claro en absoluto que una nueva tecnología pueda tener estas características. Así que queremos comenzar esas discusiones; de hecho, ya han comenzado.

Y queremos asegurarnos de que el liderazgo de los países que construyen esos sistemas comprenda los riesgos existenciales, porque ahí es donde los países van a coincidir. ¿Qué tienen en común los chinos y los estadounidenses? Son humanos y quieren que sus hijos y sus nietos tengan una vida. Así que creo que, de manera similar a lo que sucedió con lo nuclear, si nos centramos en este aspecto, podemos encontrar una solución. Si nos centramos en cómo el otro va a usar la IA en mi contra, por supuesto, no lo vamos a solucionar. Pero tenemos que preocuparnos por esa posibilidad. Sin embargo, creo que si tenemos este motivo ulterior de «¿cómo protegemos a la humanidad a largo plazo?», hay soluciones.

Max: ¿Puedo añadir un poco más de optimismo aquí? Creo que el consenso científico actual de que estamos más cerca de construir IAG que de descubrir cómo controlarla es, en realidad, lo mejor que le ha pasado a las relaciones entre EE. UU. y China desde que Richard Nixon fue a China en los años 70 y se reunió con Mao. De repente, los incentivos comienzan a alinearse un poco más porque, ya sabes, sin importar lo que pienses del Partido Comunista Chino, ellos no quieren ceder su control a alguna empresa china o a las máquinas que esa empresa china fabrique.

De manera similar, el gobierno de EE. UU. no quiere perder todo su poder ante algunos nerds tecnológicos no elegidos en Silicon Valley, sin mencionar que los votantes estadounidenses no están muy entusiasmados con eso, ¿verdad? Así que hay una creciente conciencia de que la mayor amenaza para la seguridad nacional tanto de EE. UU. como de China no es otro país, sino las máquinas fuera de control. Y esto podría pasar en tres años o algo así, o dos años, dependiendo de a quién escuches.

Y el optimismo hermoso aquí es que eso significa que el gobierno estadounidense y el gobierno chino no tienen que confiar el uno en el otro en absoluto. Solo tienen que sentir que el otro gobierno también lo entiende, que comprende la situación científica aquí: que estamos más cerca de construir IAG que de controlarla.

Y entonces, lo que sucederá, por supuesto, es que el gobierno chino evitará que las empresas chinas lancen cosas que podrían apoderarse de China, no para complacer a EE. UU., sino porque el gobierno chino no quiere ser reemplazado. Y el gobierno estadounidense evitará que las empresas estadounidenses hagan este tipo de cosas también por razones propias.

Al igual que el gobierno estadounidense creó la Administración de Alimentos y Medicamentos (FDA) porque estaban enfadados por la talidomida, ese medicamento que se vendió y causó que más de 100.000 mujeres dieran a luz a niños sin brazos ni piernas. Ya sabes, no lo hicieron para apaciguar a China; lo hicieron para proteger a los estadounidenses. Y los chinos hicieron lo suyo con su equivalente a la FDA.

Así que una vez que tengamos este tipo de cosas nacionales en su lugar, entonces, de repente, los gobiernos de EE. UU. y China dirían: «Espera un minuto, ¿cómo nos aseguramos de que Corea del Norte no construya IA, o algún otro país menos responsable?». Y ahora nosotros y China estamos en el mismo equipo, y creo que tienen suficiente influencia global para poder enfriar al resto del planeta y hacer que los demás los sigan, asegurándose de que nadie construya algo totalmente incontrolable.

En otras palabras, no tenemos que persuadir al gobierno chino, al estadounidense o a ningún otro para que quiera algo diferente. Solo tenemos que educarlos para que comprendan el consenso científico de que estamos más cerca de construir IAG que de descubrir cómo controlarla. Así que asegurémonos de que nadie pueda construir estas cosas locas hasta que puedan demostrarnos que se pueden controlar.

Entrevistador: Estamos teniendo esta conversación ahora un día después de que un nuevo presidente haya sido investido en EE. UU., con una composición interesante en términos de quienes tienen su oído, Elon Musk siendo uno de ellos. Elon Musk ha advertido sobre algunas de las amenazas existenciales de la IA, al mismo tiempo que invierte en ellas a través de Tesla y algunas de las otras empresas también. ¿Es algo bueno que Musk conozca las amenazas que plantea la IA y tenga una línea directa con el presidente?

¿Puede Elon Musk ayudar a Trump a mitigar los riesgos en EE. UU.?

Yoshua: Bueno, ciertamente queremos que más personas en el gobierno comprendan la amenaza. Eso es ciertamente positivo.

Max: También creo que es muy bueno tener ese tipo de experiencia en el gobierno. Y Elon ha estado bastante preocupado por esto durante más de diez años, ¿verdad? Y fue el único CEO tecnológico en Silicon Valley que salió en apoyo de la regulación de la IA, la SB-1047 recientemente. Dijo «más bien buena que mala». Y luego DeepMind y Anthropic dijeron que es «solo mala». Y Elon simplemente dijo: «Sí, quieres esto». Pero no es solo Elon. Quiero decir, David Sacks, que es un nuevo «AI-er» (partidario de la IA), ha dicho: «Sí, quiero las herramientas, pero esta especie sucesora, no, gracias». Y el propio Trump ha declarado recientemente hablando de cómo podrías perder el control sobre estas cosas. Y muy importante, una parte central de la base de Trump, como los cristianos evangélicos, por ejemplo. Estaba hablando con un líder de cristianos evangélicos ayer aquí y dijo que la mayoría de estas personas lo encuentran simplemente malvado y horrible. Oigo que hay algunos tipos que quieren construir como un Dios digital… Ellos ya tienen uno, ¿por qué necesitan uno nuevo digital con los valores de Silicon Valley? Y ni siquiera saben cómo controlarlo.

Hubo una encuesta recientemente que también mostró que más del 70% de todos los republicanos y demócratas en EE. UU. no quieren algún tipo de IA superinteligente y más que humana. Y en la medida en que Trump se deje influir por lo que su base quiere, ya sabes, creo que esta es la razón por la que podrías verlo totalmente reprimiendo esto y diciendo: «América debería ser realmente fuerte, construir herramientas potentes, incluso herramientas militares que puedan controlarse, pero no algo sobre lo que no tengamos idea de cómo controlar«.

Entrevistador: En términos de regulación, hemos visto a los europeos en la UE con la Ley de IA. China tiene varias legislaciones en torno a ciertos aspectos de la IA, ya sea IA generativa, modelos de lenguaje grande o deep fakes, y varias partes de la legislación. ¿Hay alguna posibilidad, Yoshua, crees que EE. UU. asuma el llamado a una regulación más amplia sobre estas tecnologías?

¿Impulsará EE. UU. sus regulaciones de IA para alinearse con la UE?

Yoshua: Quiero decir, el historial pasado en Washington no ha sido tan bueno en esa dirección. Ha habido mucho hablar en los últimos dos años. Creo que una opción más plausible es que California o Nueva York aprueben una ley que obligue a las empresas a ser más transparentes sobre su compromiso con la seguridad y los resultados de sus evaluaciones de seguridad. Y la transparencia aquí ayudaría mucho, creo. Si las empresas supieran que el público vería lo que están haciendo y los compromisos que están adquiriendo, de repente estarían en competencia entre ellas por la seguridad, porque querrían quedar bien.

Y también la transparencia tiene otra ventaja, que es que facilita las demandas. Porque lo que es difícil para un caso de responsabilidad es tener la información sobre qué hizo precisamente la empresa. Pero si es pública, o al menos la información está en manos del gobierno, sobre cuáles fueron sus esfuerzos, si estos esfuerzos en términos de seguridad estaban a la par de los estándares que existen, por ejemplo, lo que está haciendo el Instituto de Seguridad de IA, etc., entonces será más difícil ser demandado. Pero si van por debajo de lo que otros están haciendo, entonces serán un blanco más fácil. Así que creo que jugaría un papel muy positivo sin ser prescriptivo, sin decir «así es como debes construir una IA segura«, sino solo «asegúrate de no construir algo peligroso».

Max: Y otro grupo muy influyente en EE. UU. es el establecimiento de seguridad nacional, ¿verdad? Así que ahora mismo, cuando voy al supermercado, no venden plutonio. ¿Por qué? Porque el establecimiento de seguridad nacional en EE. UU. decidió que es una muy mala idea para la seguridad nacional que todo el mundo pueda construir su propia arma nuclear.

Y esto es muy bipartidista. Y de nuevo, una vez que este consenso científico cale en el establecimiento de seguridad nacional, de que no tenemos ni idea de cómo controlar la IAG, se van a oponer. Y van a estar muy a favor de una IA controlable, también en el ejército, etc., ¿verdad? Pero esto es algo que, creo, atraviesa las líneas políticas muy fácilmente, donde incluso con halcones y personas que por lo demás son muy anti-regulación, incluso las personas más anti-regulación en el establecimiento de seguridad nacional estadounidense no están en contra de la regulación del plutonio, créeme.

Entrevistador: Mientras cerramos la conversación, echemos un vistazo al futuro, y con suerte eso dará pie a algo que viene y quizás los traiga de vuelta en unos meses. Pero, la superinteligencia artificial, mencionaste que hablaríamos de inteligencia artificial general. ¿Qué es la superinteligencia artificial y cuál es el camino hacia ella?

¿Qué es la superinteligencia artificial?

Yoshua: Bueno, no hay razón para pensar que la inteligencia humana es el pináculo de la inteligencia. De hecho, a lo largo de la evolución, la evolución ha aumentado el nivel de habilidades cognitivas. Y nuestro cerebro es una máquina biológica. Así que es muy plausible que, a medida que continuemos por ese camino, pero mucho más rápido de lo que la evolución lo ha hecho, construyamos máquinas que sean superiores en muchos aspectos. De hecho, ya tenemos máquinas que son superhumanas en habilidades muy estrechas, como jugar al Go y al ajedrez, o descubrir la estructura de las proteínas.

Así que la pregunta es: ¿cómo lo hacemos de manera segura? Y lo que he estado argumentando antes es que podemos separar el aspecto de la inteligencia (la capacidad de entender el mundo y hacer predicciones y pronósticos) de la agencialidad. La agencialidad es lo que da el maquinar, el engaño, la autopreservación, la búsqueda de poder, todas las cosas que son peligrosas si no las controlamos.

Y la inteligencia es realmente lo que queremos. Queremos máquinas que nos ayuden porque entienden las cosas mejor, pueden ayudar a nuestros científicos. Y lo otro bueno de separar estas dos cosas es que si tenemos sistemas de inteligencia no agenciales, pueden usarse potencialmente para controlar los sistemas agenciales. En otras palabras, para poner barreras de seguridad, asegurarse de que los agentes no se comporten de maneras que consideraríamos inmorales, por ejemplo. Y esto es técnicamente factible.

Max: La idea fundamental que nos ha dado toda la revolución de la IA es la idea de que la inteligencia, la capacidad de resolver tareas cognitivas, se trata realmente del procesamiento de información. Y no importa si la información es procesada por átomos de carbono en células en cerebros o por átomos de silicio en nuestra tecnología. Y no hay absolutamente ninguna ley de la física que diga que las computadoras biológicas son la única manera de hacer cosas. Y una vez que te deshaces de todos estos límites, como el tamaño máximo de un cerebro que puede pasar por el canal de parto de tu madre, y esto y lo otro, el cielo es el límite, ¿verdad? Incluso la IA de hoy puede pensar mil veces más rápido que nosotros. Así que si interactuáramos con un robot que pensara a ese ritmo, ya sabes, nosotros les pareceríamos árboles; básicamente estaríamos quietos así.

No es tan difícil imaginar que esa cosa podría dañarnos si quisiera. Y luego, tan pronto como entiende algo, puede copiar ese conocimiento a un millón de otras máquinas. Nosotros no podemos hacer eso. A mí me lleva años; tengo un hijo de dos años, me lleva mucho tiempo copiar mi información, algo de ella, en su cerebro. Y eso es solo el principio. Si haces cosas que son vastamente… Coincidentemente, ChatGPT hizo aproximadamente tantos cálculos en su entrenamiento como un cerebro humano en toda su vida, aproximadamente un 1 con 25 ceros detrás. Ahora ya estamos 100 veces más allá de eso. Y es obviamente posible en un futuro próximo tener máquinas que sean tan superiores a nosotros como nosotros lo somos a los caracoles, por ejemplo. Y es totalmente ingenuo pensar que un montón de caracoles podrían controlarnos. O incluso solo imagina que estás encarcelado por un grupo de niños de 5 años que te están diciendo que inventes todo tipo de tecnología nueva y se la des a ellos.

Esta es la razón por la que no deberíamos apresurarnos a construir máquinas vastamente más inteligentes antes de tener una comprensión más profunda de si siquiera es posible controlarlas.

Yoshua: Y, por cierto, estas IA serán inmortales en el sentido de que, a menos que apagues la máquina, continuará viviendo para siempre, mientras que nosotros tenemos cuerpos que eventualmente se desvanecen. Así que hay muchas diferencias en el hardware subyacente, la biología versus el hardware digital, que en realidad dan una ventaja a las computadoras. Así que incluso si estamos cerca del máximo de inteligencia posible… Porque estos sistemas tienen, por ejemplo, esta tecnología digital… Esta es la razón por la que ChatGPT, aunque carece en algunos aspectos, como el razonamiento, sabe tantas cosas. ChatGPT sabe como 200 idiomas; ningún humano sabe 200 idiomas.


Entrevistador: Creo que ese es un buen mensaje de ambos para terminar. Y necesitamos retomar esta conversación en unos meses porque, sin duda, el ritmo de la tecnología continúa evolucionando.

Eso es todo por este episodio. Si quieren contactarnos, envíennos un correo electrónico a beyondthevalley@cnbc.com. Por favor, sigan y suscríbanse al programa y pueden dejarnos una reseña. Gracias, Yoshua y Max.