En los últimos meses, una preocupación ha comenzado a tomar fuerza entre expertos en bioseguridad, inteligencia artificial y responsabilidad social: la IA podría aumentar riesgo de pandemias de forma significativa. Según un reciente estudio difundido por TIME, los avances en esta tecnología podrían haber quintuplicado la posibilidad de una pandemia causada por humanos, todo en tan solo un año.
Detrás de esta predicción se encuentran advertencias de empresas como OpenAI y Anthropic, que han alertado sobre el potencial mal uso de herramientas avanzadas de IA. Lo preocupante no es únicamente lo que la tecnología puede hacer, sino lo accesible que se ha vuelto para actores sin experiencia previa en biotecnología. Un riesgo latente que toca tanto al sector privado como al público, y que interpela directamente a quienes trabajamos por un futuro más ético y seguro.
El dato que encendió las alarmas: ¿una IA más peligrosa que útil?
El estudio realizado entre diciembre de 2024 y febrero de 2025 encuestó a 68 expertos en bioseguridad y pronosticadores especializados. En promedio, calcularon un 0.3 % de riesgo anual de una pandemia de origen humano. Sin embargo, si la IA igualara la capacidad de un equipo de virólogos, esa cifra aumentaría a un 1.5 %.

Es decir, la IA podría aumentar riesgo de pandemias hasta cinco veces. Esta conclusión surge del cruce entre predicciones y capacidades reales de modelos actuales, como ChatGPT o Claude, que ya superan a expertos humanos en pruebas de resolución de problemas complejos de virología.
El dato no es menor. Históricamente, la barrera técnica para crear armas biológicas había sido un factor de contención. Hoy, esa barrera podría desaparecer gracias a la IA.
¿Qué hace que este riesgo sea tan diferente?
El problema no es únicamente la existencia de la tecnología, sino su capacidad para democratizar conocimientos peligrosos. Chatbots avanzados pueden guiar a usuarios sin formación previa a través de pasos técnicos complejos para modificar virus.
Seth Donoughe, investigador de SecureBio, fue uno de los primeros en demostrar empíricamente que los mejores sistemas de IA ya rebasan las capacidades humanas en pruebas virológicas. La implicación es clara: el conocimiento letal ya no está restringido a laboratorios gubernamentales.
En este nuevo panorama, la IA podría aumentar riesgo de pandemias al permitir que personas con intenciones maliciosas accedan a procedimientos antes reservados a especialistas.
Una predicción que llegó antes de lo esperado
Uno de los hallazgos más perturbadores del estudio es la desconexión entre la percepción de los expertos y la realidad tecnológica. La mayoría creía que la IA no alcanzaría capacidades virológicas avanzadas hasta después de 2030. Pero las pruebas revelaron que eso ya ocurrió.
Esto muestra no solo lo rápido que evoluciona la IA, sino también lo difícil que es predecir sus implicaciones sociales. Aun con márgenes de error, los datos sugieren que la IA podría aumentar riesgo de pandemias mucho antes de lo que imaginábamos. Este desajuste entre expectativa y realidad debe impulsar una nueva ética anticipatoria.

Medidas urgentes: salvaguardas a nivel de modelo
El informe identifica dos categorías clave de mitigación. La primera incluye medidas a nivel de diseño de los modelos, como limitar respuestas a prompts maliciosos o restringir el acceso a modelos de “pesos abiertos”.
Empresas como OpenAI y Anthropic ya están tomando cartas en el asunto, pero los expertos afirman que estas acciones deben acelerarse y estandarizarse. La protección contra el jailbreaking de los modelos es una medida concreta y urgente.
Para contener el hecho de que la IA podría aumentar riesgo de pandemias, es necesario tratar estos riesgos como amenazas globales, con una gobernanza colaborativa y transparente.
Control en la cadena de suministro biotecnológica
El segundo tipo de salvaguardas implica regular a las empresas que sintetizan ácidos nucleicos. Actualmente, no están obligadas a verificar los códigos genéticos que reciben antes de producir materiales biológicos.
Esto abre la puerta a que un actor con acceso a IA envíe un código peligroso y reciba en casa componentes para crear un patógeno. Una regulación que imponga controles como “conozca a su cliente” podría marcar la diferencia.
Aquí, la responsabilidad social empresarial se vuelve vital: las empresas biotecnológicas no pueden seguir operando sin protocolos éticos robustos.
¿Cómo se puede reducir el riesgo?
A pesar de las cifras alarmantes, el estudio también traza una ruta de mitigación. Si se aplican las medidas sugeridas, el riesgo anual podría reducirse al 0.4 %, apenas por encima del 0.3 % original.
La clave está en actuar ahora. Esperar una regulación posterior a un incidente sería irresponsable y costoso. Si la IA podría aumentar riesgo de pandemias, entonces también puede ser parte de la solución.

La responsabilidad recae no solo en los desarrolladores de IA, sino en gobiernos, laboratorios, universidades y organizaciones de la sociedad civil.
¿Dónde queda la responsabilidad social?
Desde la perspectiva de responsabilidad social, este tema exige una respuesta ética multisectorial. Las empresas tecnológicas deben adoptar políticas de IA segura, con principios claros de no maleficencia.
Al mismo tiempo, los organismos públicos deben colaborar para crear marcos regulatorios que combinen innovación con prevención. La transparencia y la auditoría de algoritmos se vuelven imprescindibles.
Debemos incorporar esta conversación a nuestra agenda: si la IA podría aumentar riesgo de pandemias, también estamos frente a una deuda moral con las generaciones futuras.
Una nueva frontera para la ética y la prevención
La posibilidad de que la inteligencia artificial facilite la creación de pandemias no es ciencia ficción: es una advertencia basada en datos actuales. La velocidad de avance tecnológico requiere una ética que no reaccione tarde, sino que se anticipe.
La IA podría aumentar riesgo de pandemias si no se toman medidas preventivas inmediatas. Pero también puede impulsarnos a diseñar un sistema de gobernanza global más justo, transparente y resiliente.
En tiempos de disrupción, la responsabilidad social ya no es una opción: es la única vía para proteger lo más valioso que tenemos en común, nuestra salud y nuestro futuro colectivo.