Coronavirus y un ensayo del Tecnoceno
Por Flavia Costa | Ilustración Julieta De Marziani
En los últimos cuarenta años vivimos una aceleración técnica inédita que permitió desarrollar un tráfico aéreo intensísimo, avances biotecnológicos e inteligencia artificial. A la par, la densidad de población y las desigualdades sociales crecieron como nunca. La pandemia de coronavirus es consecuencia de la combinación de estos vértigos, dice Flavia Costa: un “accidente normal” de esta era a la que llama Tecnoceno, que tiene entre sus hitos clave el accidente nuclear de Chernóbil, el atentado a las Torres Gemelas y el despliegue por el Y2K. La vida en el planeta está en juego y lo estará por cientos de generaciones. Una política global de control de riesgos mediante la cooperación se vuelve la única política vital, o biopolítica afirmativa, razonable.
Cuatro años tardó en el siglo XIV la peste negra para llegar desde Asia hasta Europa, donde entre 1346 y 1353 mató a unas 25 millones de personas, más del 30 por ciento de la población de entonces –en Florencia, apenas sobrevivió la quinta parte de sus habitantes–. En 2020, el virus Sars-CoV-2 llegó de un extremo al otro de la Tierra en cuestión de días: hoy un tercio de la población del mundo vive bajo medidas de aislamiento obligatorio, y un 93 por ciento tiene algún tipo de limitación de movimiento fronterizo, tratando de contener su avance. Un estado de excepción sanitario que parece indicar que estamos al inicio de algo, en una suerte de prólogo –como decía días atrás el escritor italiano Alessandro Baricco–, o en un complejo experimento social que, como sabemos, no necesita haber sido organizado de antemano para resultar netamente funcional y operativo.
Si la pandemia del coronavirus logró ser tan arrolladora fue por la combinación de dos aceleraciones: en primer lugar la de la velocidad de contagio, que es mucho mayor en esta nueva mutación que en otros virus de la misma familia –la tasa de contagio estimada por la OMS es de entre 1,4 y 2,5 y otras fuentes hablan de un rango de casi 3; es decir, entre dos y tres veces más contagioso que el virus de la gripe A-H1N1–: en pocas palabras, la aceleración del bios. Y en segundo lugar, la velocidad para pasar de ciudad en ciudad, de país en país, de un hemisferio a otro en pocas horas, en particular, gracias al tráfico aéreo internacional: la aceleración técnica. En combinación, estos dos vértigos arriesgan con saturar los sistemas sanitarios de cualquier Estado y han logrado poner en suspenso por tiempo indefinido buena parte de la vida cotidiana del planeta.
De ahí una medida que, vista de cerca, es completamente infrecuente: la suspensión de un 70 por ciento de los vuelos internacionales y buena parte de los nacionales. La gravedad de la situación es tal que, a mediados de abril, la Asociación de Transporte Aéreo Internacional (IATA) advirtió que, de seguir las cosas como hoy, “más de la mitad de las compañías aéreas del mundo desparecerán para junio”.
Sólo dos veces antes en la historia reciente se habían interrumpido los vuelos a nivel internacional, aunque nunca en esta magnitud ni durante tanto tiempo. Una, después del ataque aéreo a las Torres Gemelas en Nueva York, el 11 de septiembre de 2001. Entonces la aviación internacional vivió un parate que duró semanas y que provocó en el sector una crisis sin precedentes hasta entonces, de la que se recompuso recién dos años más tarde.
La otra vez en la que se detuvieron casi por completo los vuelos –si bien por poco más de 24 horas— fue en la víspera y durante las primeras horas del cambio de milenio. ¿La causa? El hoy apenas recordado “error del milenio” o “Y2K bug”, cuando se esperaba que, en el pasaje del año 1999 al año 2000, pudiera ocurrir un potencial colapso informático a nivel mundial. La hipótesis del “error” se sostenía en que las primeras computadoras, creadas a mediados del siglo pasado, apenas tenían memoria y por ende los programadores, para ahorrar, habían programado las fechas con dos dígitos y no con cuatro —99 en lugar de 1999–. El problema, se comenzó a anunciar a mediados de la década de 1990, podría resultar en una catástrofe en cascada, que comenzara con la falla de algunos sistemas primarios, como los suministros de energía o de transportes, y que desencadenara problemas graves en otros sistemas, como en el funcionamiento de centrales atómicas, torres de control aéreo, redes del sistema financiero u operadores de salud que dependieran directa o indirectamente de máquinas. En diciembre de 1998 se formó un equipo de cooperación internacional que coordinó acciones en 120 países, con fondos del Banco Mundial, y que dio por cumplida su misión en marzo de 2000. Se calcula que, en conjunto, entre operaciones públicas y privadas, se gastaron más de 300 mil millones de dólares del momento. No es fácil ponderar cuánto hubo de exageración y cuánto de potencial desastre efectivamente contenido, pero el Y2K fue quizás el primer ensayo, asumamos aun a riesgo de la ingenuidad que de resolución exitosa, de prevenir un nuevo tipo de accidente sistémico que no solo es “general” por su extensión geográfica, sino por su incidencia multiescalar, ya que atraviesa los niveles local, nacional y global, y transversal, porque afecta ámbitos expertos muy diferentes entre sí.
Volviendo al inicio, conocemos bastante sobre la aceleración técnica: sabemos que es uno de los ejes fundamentales de la gran transformación que viene atravesando el mundo en los últimos cuarenta años. Una transformación tanto en el nivel de las infraestructuras materiales (se han creado y tendido redes informáticas, cables submarinos interoceánicos, aeropuertos gigantes, medianos y pequeños, centrales nucleares, plantas petroquímicas, satélites, represas hidroeléctricas, laboratorios de biotecnología y de ingeniería genética) como en las energías que se liberan (algunas de altísima intensidad, como la atómica), pasando por inéditas formas de relación entre lo viviente y lo no vivo, entre lo humano y lo no humano, e incluso entre los seres humanos –como en la selección o “programación” de un niño por nacer cuya dotación genética pueda salvar la vida de su hermano, o en el desarrollo de un sistema financiero internacional manejado en un 80 por ciento por inteligencia artificial.
Conocemos menos, en cambio, sobre su efecto de conjunto. Una de las claves para entender lo que hoy está pasando es que esta aceleración nos ha llevado a un salto de escala en nuestra relación con el mundoambiente. Una nueva escala en la cual los ajustes sistémicos se dirimen no solo, ni principalmente, entre individuos y sociedades, como estábamos acostumbrados a pensar, ni entre individuos y Estado, o aun siquiera entre los Estados, sino que empezamos a participar cada vez con mayor asiduidad en situaciones que nos ponen, a los individuos, a las sociedades y a los Estados, ante problemas, incluidas potenciales catástrofes, de la escala de la especie, que involucran a la Tierra en su totalidad. Que pueden, como en el caso del accidente nuclear de Chernóbil, de 1986, poner en riesgo la vida de medio planeta, y cuyos efectos sobre el ecosistema perdurarán por tanto o más tiempo que el que ya lleva en la Tierra la humanidad. Se estima que la radioactividad emanada de la explosión del reactor de Chernóbil se extinguirá recién dentro de 300 mil años; y para darnos un idea, de hace 300 mil años datan justamente las más antiguas huellas de homo sapiens, encontradas en 2017 en el territorio de Marruecos.
De esto hablamos cuando nos referimos a nuestro tiempo como el del Tecnoceno: la época en la que, a través de poner en marcha tecnologías de alta complejidad y de altísimo riesgo, dejamos huellas en el mundo que exponen completamente no solo a las poblaciones de hoy, sino a las generaciones futuras en los próximos cientos de miles de años.
“ACCIDENTES NORMALES”
De allí que, si queremos ubicar el acontecimiento de esta pandemia en una serie, sugiero incluirla en la de los “accidentes normales” de la nueva escala abierta con el Tecnoceno. “Accidente normal” o “accidente sistémico” es el nombre que acuñó Charles Perrow, experto británico en la industria de la seguridad, y uno de los muy pocos que investigó de manera transversal diferentes tipos de industria, para describir una particular clase de incidente que es al mismo tiempo previsible e inevitable, y que es propio de las tecnologías de alto riesgo. En estas se combinan factores tecnológicos y organizacionales complejos, con “acoplamientos fuertes” –es decir, donde los procesos ocurren a gran velocidad y no pueden ser detenidos rápidamente—, como “las centrales nucleares, la producción de ADN recombinante o los cargueros que transportan sustancias de elevada toxicidad”.
Son accidentes inherentes al hecho mismo de que un sistema hipercomplejo esté funcionando. Es parte de su vida “normal”: no es producto de una guerra, de una negligencia operacional o de un sabotaje, sino que es inseparable de la productividad del sistema, de su desarrollo, de su incremento y de lo siempre contingente que se abre cuando se dispara una acción tecnológica hipercompleja hacia el futuro. La clave de todo esto, sin embargo, es que estos “accidentes normales”, si bien son inevitables, son previsibles, y es posible reducir considerablemente los riesgos si se toma en serio el hecho de estar habitando el mundo que efectivamente tenemos hoy ante, o con, nosotros.
Perrow, de hecho, inventó el término en 1979, después del incidente nuclear de Three Mile Island, en Pennsylvania, EEUU: el más importante de su tipo antes de Chernóbil y todavía hoy el tercero en envergadura después de este último y del de Fukushima, Japón, ocurrido en 2011. El 28 de marzo de 1979, uno de los dos reactores de la planta atómica estadounidense sufrió una fusión parcial del núcleo, por lo que la reacción nuclear dejó de estar controlada, la temperatura se incrementó exponencialmente y provocó el colapso de la estructura, expulsando cantidad de materiales radiactivos al medio ambiente.
Three Mile Island y Chernóbil fueron dos de los primeros, y más visibles, “accidentes normales” de escala planetaria. Ellos desencadenaron fugas de radioactividad que van a detenerse cuando muy posiblemente muchas especies ya no habiten la Tierra. Y si bien quizás cuesta verlo a primera vista, hay algo de “accidente normal” en esta pandemia, en el sentido de un problema al mismo tiempo previsible e inevitable debido a la dimensión de los sistemas en juego, tanto los tecnológicos como los “bio”.
EL “BIOS” COMO TECNOLOGÍA COMPLEJA
Veamos un poco de cerca la cuestión del bios. En su estudio El futuro de la vida, de 2003, el entomólogo Edward Wilson escribió que “el patrón de crecimiento de la población humana en el siglo XX se pareció más al de las bacterias que al de los primates”. Lo explicaba así: “Cuando el Homo sapiens pasó la barrera de los seis mil millones [en 1999], ya habíamos superado en cien veces la biomasa de cualquier especie de animal grande que haya existido en la Tierra”. Y concluía: “Ni nosotros ni el resto de los seres vivientes podemos permitirnos otro siglo así”.
En aquel libro Wilson se refería a animales salvajes, que nunca son muy numerosos. Pero incluso comparados con los animales domesticados, los humanos somos muchísimos: cinco veces más numerosos que los distintos tipos de ganado que criamos, engordamos e industrializamos para nuestro consumo. Los humanos llegamos a ser 6 mil millones en 1999 –en una de esas ceremonias entre rituales y paródicas que promueven las instituciones, el Fondo de Población de las Naciones Unidas fijó como fecha “oficial” el 12 de octubre de ese año, después del nacimiento del niño bosnio Adnan Nevic–. Se considera que se alcanzaron los 7 mil millones doce años después, en 2011. Hoy somos 7.600 millones, y se prevé que alcanzaremos los 10 mil millones cerca de 2050. Una velocidad fenomenal, si se recuerda que la humanidad había alcanzado los primeros mil millones a comienzos del siglo XIX y que esa cifra se triplicó recién para 1960. Haberse multiplicado por 2,5 en 60 años no deja de parecer el resultado de una industria muy aceitada, o en palabras de Perrow, de un sistema sociotécnico hipercomplejo que funciona a pleno.
El accidente a partir de este tipo de crecimiento había sido previsto hace ya varios años, incluso con una fidelidad pasmosa respecto de lo que habría de suceder poco más tarde, esto es, ahora mismo. En su libro Spillover. Animal infections and the next human pandemic [El desborde. Infecciones animales y la próxima pandemia humana], de 2013, el periodista e investigador David Quammen afirma que nuestra especie está en estado de “excedente” o “derrame”; que hemos sufrido un “vasto y repentino aumento de la población”, y que tarde o temprano ese tipo de aumento siempre se detiene: en forma gradual o por accidente. Y ahí mismo en el subtítulo hace su apuesta: a la vuelta de la esquina está la posibilidad de otra gran pandemia, que será causada, muy probablemente dice Quammen, por un virus. ¿Qué tipo de virus? Uno nuevo para los humanos, “probablemente una variante de coronavirus”, especifica. Estos, como el HIV, tienen genes escritos en ARN, no en ADN, por lo que pueden mutar con rapidez y son difíciles de tratar. ¿De dónde saldrá ese virus? De otro animal. De allí que la zoonosis, sintetiza, será una palabra “de uso intensivo en el siglo XXI”.
Las zoonosis están asociadas al hecho de que poblaciones humanas traban relación cercana con animales silvestres que no habían sido hasta el momento parte de la convivencia cotidiana, ya como animales de compañía, ya como parte de la dieta. Si bien en el planeta hay millones de virus que residen en animales que jamás detectamos cuando sus ecosistemas están intactos, a medida que invadimos y destruimos ambientes vírgenes, esa “perturbación ecológica hace que surjan enfermedades”, dice Quammen. Pero no se trata solo de que rompemos el equilibrio ecológico. Junto con eso, ofrecemos nuestro propio cuerpo como hábitat alternativo para los virus, que se ven muy beneficiados con este salto: adaptándose a nuestras células, se apoderan del huésped animal más abundante y movedizo del planeta. Un anfitrión que, por añadidura, es un carnívoro hambriento, y muchas veces no percibe otra alternativa mejor para alimentarse que incorporar nuevos animales a su dieta.
Porque en efecto no se trata solamente del volumen de la especie. Hay un agravante más delicado desde el punto de vista de las políticas de lo viviente, que es la dramática desigualdad en la distribución de los recursos, una desigualdad que no ha dejado de pronunciarse precisamente en las mismas décadas en que se acentuó el crecimiento de la población.
El año pasado, antes de la apertura de Foro Económico Mundial de Davos, en Suiza, se conoció el informe anual de la organización no gubernamental Oxfam sobre desigualdad, según el cual 2.153 personas tienen hoy más dinero que los 4.600 millones de personas más pobres del planeta, el 60 por ciento de la población mundial. También la ONU alertó sobre este tema: en 2018 un equipo de nueve relatores emitió un comunicado informando que el 82 por ciento de toda la riqueza creada en 2017 fue al 1 por ciento de la población más privilegiada, mientras que el 50 por ciento en los estratos sociales más bajos no vio ningún aumento en absoluto. Entre los rasgos sobresalientes de esta desigualdad, aquella ONG menciona el desfinanciamiento de los servicios públicos, principalmente el de salud.
Este punto es clave: no se trata entonces tanto de que “somos muchos” –es cierto que lo somos, y que eso entraña poderosos desafíos globales, sobre todo porque se ha acentuado en paralelo el proceso de urbanización, y no siempre en las condiciones adecuadas–. Pero el problema es que la riqueza existente, e incluso la que se genera año a año, está demasiado mal repartida y esto ocurre no de forma fortuita, sino deliberada. Esa es una de las razones principales por la cual no nos está resultando posible construir contenciones viables, de escala de conjunto, para los riesgos relativos a la vida que esta época supone.
No hace falta enumerar todas las previsiones que estuvieron a mano en los últimos años –la investigación de Quammen, el film “Contagio”, de Steven Soderbergh, los libros “La próxima plaga” de Laurie Garret y “Pandemias”, de Peter Doherty, entre muchos otros, ya nos fueron recordados puntillosamente en el último mes–. Sí, en cambio, vale tener en cuenta que todas estas previsiones deben ser tomadas en serio como base para una política de disminución de los riesgos. Ya después de la epidemia del SARS 1, en 2003, se había vuelto claro que las nuevas zoonosis estaban disparadas y que había que prepararse para ellas. Que era necesario investigarlas científicamente, y equipar a los sistemas de salud con más y mejores estrategias e insumos. Que el cuidado de la salud pública o colectiva no puede limitarse a brindar informaciones sobre cómo cuidarse, sino que debe ir acompañado de acciones más concretas –en otro trabajo llamé “biopolítica informacional” a esta particular forma de relación entre las agencias de gobierno y los ciudadanos, propia de la gubernamentalidad neoliberal, en la que se promueve que las personas estén informadas acerca de que deben cuidarse, y acaso cómo, mientras se desatienden y desfinancian las infraestructuras materiales, los equipamientos, la investigación científica y la formación de los trabajadores y profesionales de la salud para tratar con nuevas, y no tan nuevas, enfermedades–. Que estos casos deben afrontarse con rapidez e información, no mediante la política del secreto, como hicieron las autoridades chinas con el hoy fallecido oftalmólogo Li Wenliang, del hospital central de Wuhan, quien en enero fue intimidado y desmentido públicamente por alertar a sus colegas sobre la posibilidad de una nueva neumonía infecciosa parecida al SARS 1.
Porque aun si fueran ciertas algunas de las hipótesis que han circulado estas semanas sobre que este nuevo coronavirus no es el producto de una zoonosis, sino un invento de laboratorio que azarosa o deliberadamente saltó hacia el mundo exterior, el diagnóstico no cambiaría: la combinación entre el volumen de la especie, los desarrollos científico-técnico-industriales que hemos puesto en marcha y la poderosísima desigualdad que organiza nuestros intercambios ponen al planeta entero en situación de inmensa vulnerabilidad, por lo que una política global de control de riesgos mediante la cooperación, que deje de lado cualquier versión de “supervivencia del más apto”, se vuelve la única política vital, o biopolítica afirmativa, razonable.
Publicado en Revista Anfibia/Abril 2020