Un grupo de informáticos de Collaborations Pharmaceuticals Inc (CPI), una empresa que tradicionalmente se centra en la búsqueda de nuevos tratamientos farmacológicos para enfermedades raras, utilizó un algoritmo de aprendizaje automático para inventar 40.000 moléculas potencialmente letales, en sólo seis horas, algunas de las cuales son similares al VX, el agente nervioso más potente jamás desarrollado.
Según The Verge, los científicos pusieron su inteligencia artificial en una especie de modo de «mal actor» para demostrar la facilidad con la que se podría abusar de la tecnología y luego publicaron sus hallazgos en Nature Machine Intelligence el 7 de marzo.
En conversación con The Verge, Fabio Urbina, autor principal del artículo, dijo: «Lo que más llamó la atención al principio fue que muchos de los compuestos generados eran más tóxicos que el VX. Y la razón por la que esto es sorprendente es porque el VX es básicamente uno de los compuestos más potentes conocidos. Lo que significa que se necesita una cantidad muy, muy, muy pequeña para que sea letal».
El trabajo de Urbina consiste principalmente en aplicar nuevos modelos de aprendizaje automático en el ámbito del descubrimiento de fármacos para identificar la toxicidad en los nuevos medicamentos con el fin de evitarla, sin embargo, se hizo la siguiente pregunta: «en lugar de alejarnos de la toxicidad, ¿qué tal si nos acercamos a ella?».
Urbina explicó que el catalizador de la pregunta fue una invitación para presentarla en la Conferencia de Convergencia organizada por el Instituto Federal Suizo de Protección Nuclear, Biológica y Química, el Laboratorio Spiez. Se pidió a su equipo que «informara a la comunidad en general de los nuevos desarrollos con herramientas que pueden tener implicaciones para la Convención sobre Armas Químicas y Biológicas», informó The Verge.
Cómo lo hicieron
Success
You are now signed up for our newsletter
Success
Check your email to complete sign up
Al comienzo no fueron muy precisos en mostrar todos los detalles de la investigación, luego Urbina explicó que su equipo utilizó conjuntos de datos establecidos de moléculas que ya habían sido probadas para ver si son tóxicas o no para construir sus modelos. Entonces decidieron centrarse en el VX debido a su altísima toxicidad y, en lugar de intentar evitar su toxicidad, entrenaron al algoritmo para que lo buscara.
El VX es un inhibidor de lo que se conoce como acetilcolinesterasa. La acetilcolinesterasa es utilizada por las neuronas para indicar al cuerpo que mueva los músculos. La razón por la que el VX es tan letal es que bloquea el uso de la acetilcolinesterasa en los músculos del diafragma y los pulmones de una persona, paralizando el sistema respiratorio.
El equipo de investigadores utilizó conjuntos de datos para crear un modelo de aprendizaje automático que aprendiera qué partes de la estructura molecular del VX son importantes para la toxicidad y cuáles no. A continuación, le dieron al modelo de aprendizaje automático una serie de nuevas moléculas, potencialmente nuevos fármacos, y las combinaron con las partes tóxicas de la molécula de VX. El proceso se utilizaba tradicionalmente para «expulsar» las moléculas potencialmente tóxicas, pero los investigadores invirtieron este proceso para identificar las moléculas de alta toxicidad.
Según Urbina, «ahora se pueden generar nuevas moléculas en todo el espacio de la química, y son una especie de moléculas al azar. Pero una cosa que podemos hacer es decirle al modelo generativo en qué dirección queremos ir. Lo hacemos dándole una pequeña función de puntuación, que le da una alta puntuación si las moléculas que genera van hacia algo que queremos. En lugar de dar una puntuación baja a las moléculas tóxicas, damos una puntuación alta a las moléculas tóxicas».
El enfoque fue increíblemente exitoso y perturbadoramente fácil. El modelo produjo decenas de miles de moléculas letales que se parecían al VX, así como a «otros agentes de guerra química».
LEE TAMBIÉN: Juegos de Guerra al límite: el escándalo de biolaboratorios ucranianos como estrategia política contra Rusia
Un «límite moral gris»
En su artículo, los científicos escribieron que «cruzaron una frontera moral gris, demostrando que es posible diseñar moléculas tóxicas potenciales virtuales sin mucho esfuerzo, tiempo o recursos computacionales», y añadieron que «podemos borrar fácilmente los miles de moléculas que creamos, pero no podemos borrar el conocimiento de cómo crearlas».
En un principio, el equipo era reacio a publicar sus hallazgos por el riesgo de un posible uso indebido, pero decidió publicarlos como una forma de «adelantarse a esto» porque «si es posible que lo hagamos nosotros, es probable que algún agente enemigo en algún lugar ya esté pensando en ello o lo haga en el futuro».
Urbina dijo: «No quiero sonar muy sensacionalista sobre esto, pero es bastante fácil para alguien replicar lo que hicimos».
Explicó que si alguien buscara en Google «modelos generativos» podría encontrar fácilmente una serie de modelos generativos de una sola línea que la gente publicó de forma gratuita. Luego explicó que si uno busca «conjuntos de datos de toxicidad» encontrará un gran número de conjuntos de datos de toxicidad de código abierto.
Combinando estas dos cosas, con el conocimiento de cómo construir modelos de aprendizaje automático -una habilidad que se puede aprender viendo vídeos de YouTube- alguien sólo necesitaría una conexión a Internet y un ordenador para «replicar fácilmente lo que hicimos, y no sólo para VX, sino para prácticamente cualquier otro conjunto de datos de toxicidad de código abierto que exista».
Y añadió: «Por supuesto, requiere cierta experiencia. Si alguien se pusiera a hacer esto sin saber nada de química, probablemente terminaría generando cosas poco útiles. Y aún queda el siguiente paso de tener que sintetizar esas moléculas».
Esto debería servir de «llamada de atención»
Urbina explicó que cuando se empieza a trabajar en el campo de la química se forma a los investigadores para que sean conscientes de los posibles usos indebidos. «Cuando empiezas a trabajar en el ámbito de la química, te informan sobre el mal uso de la misma, y en cierto modo eres responsable de asegurarte de evitarlo en la medida de lo posible». Sin embargo, para los investigadores que trabajan en el campo de la inteligencia artificial, «no hay nada de eso. No hay ninguna orientación sobre el mal uso de la tecnología».
«Sin ser excesivamente alarmista, esto debería servir de llamada de atención para nuestros colegas», dijo Urbina.
Continuó diciendo que la «concientización» del asunto es un paso inicial para evitar un escenario peor afirmando que «sólo queremos que más investigadores reconozcan y sean conscientes del potencial mal uso».
«No quiero ser alarmista al decir que va a haber una guerra química impulsada por la IA. No creo que sea el caso ahora. No creo que vaya a ser el caso pronto. Pero es algo que empieza a ser una posibilidad», dijo Urbina a The Verge.