Verdad, Inspiración, Esperanza

Se toman pocas medidas para garantizar que la IA «se preocupa por nosotros»: Investigador destacado

No hay segundas oportunidades para hacer bien la IA, porque si el desarrollo actual sale mal, "estás muerto".
Leo Timm
Leo Timm es un escritor y traductor que se centra en la política, la sociedad y las relaciones internacionales de China. Sígalo en Twitter en @soil_and_grain.
Published: 5 de abril de 2023
Un visitante observa un cartel de IA (Inteligencia Artificial) en una pantalla animada en el Mobile World Congress (MWC), la mayor reunión anual de la industria de las telecomunicaciones, en Barcelona. (Imagen: JOSEP LAGO/AFP vía Getty Images)

Eliezer Yudkowsky, teórico de la toma de decisiones y destacado investigador de la inteligencia artificial, advirtió recientemente de los peligros de la inteligencia artificial en un artículo de opinión para la revista Time, en el que describía cómo la tecnología se estaba desarrollando rápidamente sin que existiera ni de lejos la cantidad de barreras necesarias para evitar que la inteligencia artificial se convirtiera en una amenaza directa para la humanidad.

En los últimos meses, los avances en la tecnología de IA le han dado prominencia a la vista del público, ya que los programas escriben código y novelas, mantienen conversaciones y producen fotografías de aspecto realista y arte visual tan bueno como cualquier cosa que los ilustradores humanos puedan crear.

Yudkowsky advirtió que la IA está a punto de volverse efectivamente consciente de sí misma, pero los propios investigadores no tienen forma de saber cuándo podría suceder esto, o si aún no ha sucedido.

Y una vez consciente, la IA no tiene motivos para «cuidarnos», escribió.

“Ese tipo de cuidado es algo que, en principio, podría integrarse en una IA, pero no estamos listos y actualmente no sabemos cómo”.

Bajo las tendencias actuales, Yudkowsky espera que la IA vea a la humanidad y a todas las demás formas de vida como nada más que «átomos que puede usar para otra cosa», según lo crea conveniente.

“Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán”, escribió.

“No como en ‘tal vez posiblemente alguna posibilidad remota’, sino como en ‘eso es lo obvio que sucedería’”.

En este momento, dijo, los principales proyectos de IA como OpenAI y DeepMind no entienden cómo equipar a la IA con límites morales o éticos garantizados, ni tienen como prioridad hacerlo.

OpenAI, por ejemplo, espera que la IA se alinee automáticamente con los valores humanos, una suposición peligrosa que debería ser suficiente para «hacer que todas las personas sensatas entren en pánico», dice Yudkowski.

«Si no puede estar seguro de si está creando una IA autoconsciente, esto es alarmante no solo por las implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro significa que no tiene idea de lo que es». haciendo y eso es peligroso y debes parar.”

Y no hay segundas oportunidades para hacer bien la IA, porque si el desarrollo actual sale mal, “estás muerto”.

La amenaza de la IA para la humanidad se manifestaría al hacerse cargo de la infraestructura física, incluidas las instalaciones de biotecnología. Su inteligencia sobrehumana le permitiría burlar y superar todos los intentos humanos de detener la creación de «formas de vida artificiales» a través de la ingeniería genética.

Esto, escribió Yudkowski, sería el fin de “cada miembro de la especie humana y de toda la vida biológica en la Tierra”.