Verdad, Inspiración, Esperanza

Inteligencia artificial: expertos piden «pausar inmediatamente» su desarrollo, advirtiendo riesgos para la humanidad

Published: 31 de marzo de 2023
inteligencia artificial
Esta fotografía tomada el 23 de enero de 2023 en Toulouse, suroeste de Francia, muestra pantallas con los logotipos de OpenAI y ChatGPT. ChatGPT es una aplicación de software de inteligencia artificial conversacional desarrollada por OpenAI. (Imagen: LIONEL BONAVENTURE/AFP vía Getty Images)

Varios líderes de la comunidad de inteligencia artificial (IA) publicaron una carta abierta el 29 de marzo, instando a los laboratorios de IA a «pausar inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4», y si no lo hacen, los expertos están instando a los gobiernos a “intervenir”. Hasta el 30 de marzo, la carta ha atraído a más de 1400 signatarios, incluidos los de los gigantes tecnológicos, Elon Musk, Steve Wozniak y Tristan Harris del Center for Humane Technology.

“Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, dice la carta.

“Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales, [3] y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?” pregunta la carta, y agrega: “¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más astutas, obsoletas y reemplazarnos?

La carta advierte sobre los riesgos que la tecnología representa para la humanidad, ya que los gigantes tecnológicos Google y Microsoft compiten para construir e implementar plataformas de IA que puedan aprender de forma independiente.

“Los sistemas de IA potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, escriben los autores, y agregan que “esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”.

Los autores abogan por la colaboración entre desarrolladores de IA para «elaborar y aplicar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes».

Hasta la fecha, el desarrollo de sistemas de IA está sujeto a poca o ninguna regulación a pesar de su potencial para alterar el empleo, la economía y la sociedad a gran escala. 

‘Tengo un poco de miedo’

Recientemente, Sam Altman, director ejecutivo de OpenAI, la empresa responsable de la IA más popular hoy, GPT-4, expresó su temor de que la tecnología pudiera provocar «problemas de desinformación o crisis económicas».

«Me parece raro que la gente piense que es como un gran golpe que yo diga que tengo un poco de miedo», declaró recientemente Altman a Lex Fridman en el podcast sobre inteligencia artificial de Fridman, y añadió: «Y creo que estaría loco si no tuviera un poco de miedo, y empatizo con la gente que tiene mucho miedo».

“Las preocupaciones actuales que tengo son que habrá problemas de desinformación o crisis económicas, o algo más a un nivel mucho más allá de lo que estamos preparados”, dijo, y agregó que, “Y eso no requiere superinteligencia”, lo que implica que la tecnología, que se ha vuelto omnipresente en los últimos años, no necesita desarrollarse mucho más antes de que pueda volverse peligrosa. 

Hablando hipotéticamente, Altman planteó la posibilidad de que los grandes modelos lingüísticos (LLM) pudieran manipular el contenido que los usuarios de las redes sociales ven en sus feeds.

«¿Cómo sabríamos si en Twitter, en su mayoría, los LLM dirigieran lo que sea que fluya a través de esa Hive Mind (mente colmena)?» preguntó Altman.

La iteración más reciente de GPT-4 de OpenAI se lanzó el 14 de marzo de este año, y las empresas de tecnología claman por integrarla en sus operaciones.

Khan Academy, una plataforma que brinda clases en línea gratuitas en varias disciplinas para estudiantes de posgrado y estudiantes universitarios, ya está aprovechando la tecnología para crear herramientas de inteligencia artificial, sin embargo, sus desarrolladores advierten que la tecnología aún tiene sus problemas.

Según un documento publicado por OpenAI, los modelos de IA pueden “amplificar sesgos y perpetuar estereotipos”.

Debido a estos problemas, los desarrolladores instan a los usuarios a no utilizar la tecnología cuando haya algo más en juego, como «decisiones gubernamentales de alto riesgo (por ejemplo, aplicación de la ley, justicia penal, migración y asilo), o para ofrecer asesoramiento legal o sanitario», señala el documento.

LEE MÁS:

Las plataformas de IA continúan aprendiendo

A medida que los expertos en inteligencia artificial hacen sonar las alarmas, la tecnología continúa aprendiendo en función de los aportes de los humanos y, según Altman, se está volviendo más juiciosa al responder consultas.

«En el espíritu de construir en público y aportar a la sociedad poco a poco, lanzamos algo, tiene fallos, haremos versiones mejores», dijo Altman a Fridman, añadiendo que «pero sí, el sistema intenta aprender preguntas que no debe responder».

Una versión anterior de GPT-4 no tenía un filtro tan robusto como el que tiene hoy. El documento de OpenAI agrega que la IA estaba más inclinada a responder preguntas sobre dónde comprar armas de fuego sin licencia o sobre autolesiones. Las iteraciones más nuevas ahora se niegan a responder tales consultas.

“Creo que nosotros, como OpenAI, tenemos la responsabilidad de las herramientas que lanzamos al mundo”, dijo Altman a Fridman, y agregó que “habrá tremendos beneficios, pero, ya sabes, las herramientas funcionan maravillosamente bien y muy mal. Y minimizaremos lo malo y maximizaremos lo bueno”.

Mira nuestro video sobre el tema a continuación: