Saltar al contenido
Portada » Blog » Necesitamos renaturalizar internet

Necesitamos renaturalizar internet

Este ensayo está incluido en nuestro séptimo número, Todo nuevo bajo el Sol.
Suscríbete a Corriente Cálida para recibir nuestras publicaciones en papel.

Maria Farrell y Robin Berjon

El nombre del mundo es Bosque.
URSULA K. LE GUIN

A finales del siglo XVIII, los funcionarios de Prusia y Sajonia comenzaron a reorganizar sus complejos y diversos bosques en hileras rectas de árboles de una sola especie. Hasta entonces, los bosques habían sido fuente de alimento, pasto, refugio, medicina, leña y mucho más para las comunidades que vivían en ellos o en sus alrededores. Pero para el incipiente Estado moderno, no eran más que una reserva de madera.

La llamada «silvicultura científica» fue el growth hacking de su tiempo. Facilitó el recuento, la previsión y la recolección de madera, y permitió que los propietarios dejaran de depender de silvicultores locales cualificados para gestionar los bosques. Estos fueron reemplazados por trabajadores menos especializados, que seguían instrucciones algorítmicas básicas para mantener el monocultivo ordenado y el sotobosque despejado.

La información y el poder de decisión se concentraron en los altos mandos. Décadas después, cuando se taló la primera cosecha, se amasaron grandes fortunas, árbol estandarizado tras árbol estandarizado. Los bosques se replantaron con la esperanza de prolongar el auge. Quienes hayan leído al antropólogo político estadounidense James C. Scott, experto en anarquía y orden, saben bien lo que vino después.

El desastre fue tan grave que se acuñó una nueva palabra para describirlo: Waldsterben, o «muerte del bosque». Todos los árboles, de la misma especie y edad, fueron arrasados por tormentas, devastados por plagas y enfermedades; incluso los que lograron sobrevivir crecieron raquíticos y debilitados. Los bosques, ahora limpios y desnudos, estaban prácticamente muertos. Aquella primera cosecha magnífica no fue el inicio de una riqueza infinita, sino una extracción puntual de los milenios de fertilidad acumulada gracias a la biodiversidad y la simbiosis. La complejidad era la gallina de los huevos de oro, y fue sacrificada.

La historia de la silvicultura científica alemana encierra una verdad atemporal: al simplificar los sistemas complejos, los estamos destruyendo y las consecuencias pueden no ser visibles hasta que ya es demasiado tarde.

Ese impulso por eliminar el «desorden» que en realidad sostiene la resiliencia de la vida es lo que muchos biólogos conservacionistas denominan la «patología del ordeno y mando». Hoy, ese mismo afán por centralizar, controlar y extraer ha llevado a internet al mismo destino que aquellos bosques devastados.

La década de 2010 —los años de auge de internet— pudo haber sido aquella primera cosecha gloriosa que agotó una bonanza irrepetible de diversidad. La compleja red de interacciones humanas que floreció gracias a la diversidad tecnológica inicial de internet ha quedado ahora reducida a motores de extracción de datos que operan a escala global y generan enormes fortunas para unos pocos.

Nuestros espacios online no son ecosistemas, por mucho que a las empresas tecnológicas les guste emplear ese término. Son plantaciones: entornos altamente concentrados y controlados, más parecidos a la ganadería industrial de corrales de engorde o a las granjas de pollos en batería, que vuelven locos a los animales que están atrapados en su interior.

Todos lo sabemos. Lo percibimos cada vez que cogemos el teléfono. Pero lo que muchas personas aún no comprenden es hasta qué punto esta concentración está presente en la propia infraestructura de internet: los conductos y los protocolos, los cables y las redes, los motores de búsqueda y los navegadores. Son estas estructuras las que determinan cómo construimos y utilizamos la red, hoy y en el futuro.

Ese poder se ha concentrado en una serie de duopolios casi planetarios. En abril de 2024, por ejemplo, los navegadores de Google y Apple acaparaban cerca del 85% de la cuota de mercado mundial y los sistemas operativos de escritorio de Microsoft y Apple superaban el 80 %. Google gestionaba el 84% de las búsquedas globales, frente al 3% de Microsoft. Algo más de la mitad de los teléfonos móviles eran de Apple o Samsung, mientras que más del 99% de los sistemas operativos móviles funcionaban con software de Google o Apple. En computación en la nube, Amazon Web Services y Microsoft Azure concentraban más del 50% del mercado mundial. Los clientes de correo electrónico de Apple y Google gestionaban casi el 90% del correo electrónico global. Google y Cloudflare, por su parte, atendían en torno al 50% de las solicitudes del sistema de nombres de dominio (DNS) a escala mundial.

Tener dos versiones de todo puede ser suficiente para llenar un arca imaginaria y repoblar un mundo devastado, pero no basta para sostener una «red de redes» abierta y global, donde todas las personas tengan las mismas oportunidades de innovar y competir. Así pues, no resulta sorprendente que la ingeniera informática Leslie Daigle haya descrito la concentración y consolidación de la arquitectura técnica de la red como «el cambio climático del ecosistema de internet».

Los jardines vallados tienen raíces profundas

Internet hizo posible el surgimiento de los gigantes tecnológicos. Sus servicios se expandieron globalmente gracias a un núcleo abierto e interoperable. Sin embargo, durante la última década, estos actores han trabajado activamente para enclaustrar en sus dominios privados aquellos servicios diversos, competitivos y, a menudo, de código abierto o de provisión colectiva sobre los que se construyó internet. Si bien esta estrategia mejora su eficiencia operativa, también garantiza que esas condiciones favorables que propiciaron su aparición no se repitan en beneficio de nuevos competidores. Para los gigantes tecnológicos, la larga etapa de evolución de un internet abierto ha llegado a su fin. Su versión de la red no es un ecosistema: es un zoológico.

Google, Amazon, Microsoft y Meta están consolidando su control sobre la infraestructura subyacente mediante adquisiciones, integración vertical, despliegue de redes propias, creación de puntos de control y concentración de funciones de distintas capas técnicas dentro de un único silo de control vertical. Pueden hacerlo gracias a la enorme riqueza acumulada durante su irrepetible cosecha  de riqueza colectiva y global.

En suma, el cerramiento de las infraestructuras y la imposición de un monocultivo tecnológico están hipotecando nuestro futuro. Entre los usuarios de internet es común hablar de «la pila»: la arquitectura de capas de protocolos, software y hardware operada por distintos proveedores de servicios que, en conjunto, hacen posible el milagro cotidiano de la conexión. Se trata de un sistema complejo y dinámico, cuyo diseño incorpora un valor esencial: la separación de funciones clave para garantizar su resiliencia, preservar su generalidad y abrir espacio a la innovación.

Financiado en sus orígenes por el ejército estadounidense y diseñado por investigadores académicos para que funcionase incluso en tiempos de guerra, internet evolucionó hasta que fue capaz de funcionar en cualquier lugar, bajo cualquier condición y abierto a cualquier persona que quisiera conectarse. Pero lo que antes era una partida de Tetris dinámica y en constante evolución, con distintos «jugadores» y «capas», se está transformando hoy en un sistema continental de placas tectónicas compactadas. La infraestructura no es solo lo que vemos en la superficie: son también las fuerzas subterráneas que modelan montañas y provocan tsunamis. Quien controla la infraestructura determina el futuro. Si alguien tiene alguna duda, basta recordar que en Europa seguimos transitando por carreteras y habitando pueblos y ciudades trazados por el Imperio Romano hace dos mil años.

En 2019, algunos ingenieros del organismo mundial de normalización de internet, la Internet Engineering Task Force (IETF), dieron la voz de alarma. Leslie Daigle, una ingeniera de reconocido prestigio que había presidido tanto su comité de supervisión como su junta de arquitectura de internet, advirtió en un informe político de que la consolidación estaba provocando una osificación de las estructuras de red a lo largo de toda la pila, dificultando el desplazamiento de los operadores tradicionales y violando uno de los principios fundamentales de la red: que no debe haber «favoritos permanentes». La consolidación no solo elimina la competencia, sino que también reduce la variedad de relaciones posibles entre los operadores de servicios.

Como señaló Daigle: «Cuantas más soluciones se construyan e implementen basadas en la propiedad en lugar de soluciones colaborativas basadas en estándares abiertos, menos probabilidades habrá de que internet sobreviva como una plataforma apta para la futura innovación». La consolidación anula la colaboración entre proveedores de servicios a través de la pila, remplazando una red de relaciones diversas —competitivas, cooperativas— por una única relación de tipo depredador.

Desde entonces, las organizaciones responsables del desarrollo de estándares han puesto en marcha varias iniciativas para identificar y abordar el problema de la consolidación de la infraestructura, pero todas han fracasado. Atrapados en minucias técnicas, incapaces de distanciarse de los intereses de sus empleadores y de unos valores profesionales profundamente arraigados en la simplificación y el control, la mayoría de los ingenieros de internet simplemente han sido incapaces de ver el bosque debido a los árboles.

Si se la observa desde cerca, la concentración de poder en internet parece demasiado intrincada como para desentrañarla; desde lejos, parece demasiado compleja para abordarla. Pero ¿y si dejáramos de pensar en internet como si fuera un «hiperobjeto» apocalíptico y empezáramos a verlo como un ecosistema dañado y amenazado por la destrucción? ¿Y si, en lugar de contemplarlo con un horror impotente ante la invasión sobrenatural de quienes hoy lo controlan, lo miráramos con compasión, con espíritu constructivo y con esperanza?

Los tecnólogos son expertos en soluciones incrementales, pero para regenerar hábitats enteros necesitamos aprender de los ecólogos, que adoptan una visión sistémica e integral. Los ecólogos también saben cómo perseverar cuando el resto primero te ignora y luego asegura que ya es demasiado tarde; saben cómo movilizarse y actuar colectivamente, cómo crear focos de diversidad y resiliencia que les sobrevivan, abriendo espacio para un futuro próspero que sea posible imaginar, pero nunca controlar.

No necesitamos reparar la infraestructura de internet. Necesitamos renaturalizarla.

¿Qué es la renaturalización?

La renaturalización, según la Unión Internacional para la Conservación de la Naturaleza, «tiene como objetivo restaurar ecosistemas saludables mediante la creación de espacios silvestres y biodiversos». Se trata de un enfoque más ambicioso y tolerante al riesgo que la conservación tradicional, pues se centra en los ecosistemas en su conjunto para generar espacio donde puedan surgir redes tróficas complejas y relaciones inesperadas entre especies. No se trata tanto de salvar especies concretas en peligro de extinción. Las especies individuales no son más que componentes del ecosistema y centrarse exclusivamente en ellas puede hacer que perdamos de vista el conjunto. Los ecosistemas prosperan gracias a los múltiples puntos de contacto entre sus diversos elementos, como las redes informáticas. Y, al igual que estas, las interacciones en los ecosistemas son multifacéticas y generativas.

La renaturalización tiene mucho que ofrecer a quienes se preocupan por el futuro de internet. Como escribieron Paul Jepson y Cain Blythe en su libro Rewilding: The Radical New Science of Ecological Recovery [Renaturalización. La nueva ciencia radical de la recuperación ecológica], este enfoque se fija en «las propiedades emergentes de las interacciones entre las “cosas” en los ecosistemas […], un paso del pensamiento lineal al pensamiento sistémico».

Es una forma de abordar con optimismo y sentido práctico algo que parece irresoluble. No consiste en microgestionar, sino en generar las condiciones para que los «procesos ecológicos fomenten ecosistemas complejos y autoorganizados». La renaturalización aplica un principio que todo buen gestor conoce: contrata a los mejores, dales lo que necesitan para prosperar y luego déjales trabajar. Es justo lo contrario del modelo de ordeno y mando.

La renaturalización de internet es más que una metáfora: es un marco y un plan de acción. Nos ofrece una nueva perspectiva ante el complejo problema de la extracción y el control, además de nuevos medios y aliados para afrontarlo. Reconoce que desmantelar los monopolios de internet no es solo un desafío intelectual, sino también emocional. Responde a preguntas fundamentales: ¿cómo seguimos adelante cuando los monopolios concentran más dinero y poder que nunca? ¿Cómo actuamos colectivamente cuando corrompen nuestros espacios comunitarios, nuestras fuentes de financiación y nuestras redes? ¿Y cómo comunicamos a nuestras aliadas y aliados cómo va a producirse el camino hacia la reparación?

La renaturalización propone una visión positiva de las redes en las que queremos vivir y una narrativa compartida sobre cómo llegar a ellas. Es un injerto nuevo en el viejo y agotado tronco de la tecnología.

Lo que sabe la ecología

La ecología tiene mucho que enseñar sobre sistemas complejos y ese conocimiento puede resultar valioso para quienes trabajan con tecnología. Para empezar, sabe que los cambios en los referentes, límites y símbolos son reales.

Si naciste en torno a la década de los setenta, probablemente recuerdes muchos más insectos estampados en el parabrisas del coche de tus padres que en el tuyo. Las poblaciones mundiales de insectos terrestres están disminuyendo cerca de un 9% cada década. Si eras una persona curiosa o aficionada a la informática, quizá programaste tu propio ordenador para crear juegos básicos. Seguro que recuerdas una web más diversa, con muchas más cosas que leer que los mismos cinco sitios de siempre. Incluso puede que llegaras a escribir tu propio blog.

Pero muchas personas nacidas después del año 2000 probablemente asuman como normal un mundo con pocos insectos, escaso ruido ambiental de pájaros y un internet que se reduce a unas pocas redes sociales y aplicaciones de mensajería, en lugar de la web en su conjunto. Como explicaban Jepson y Blythe, los cambios en los referentes se producen «cuando cada generación da por sentado que la naturaleza que experimentó en su juventud es normal y acepta, sin darse cuenta, el deterioro y los daños heredados de generaciones anteriores». El daño ya está hecho. Incluso parece natural.

La ecología también sabe que los cambios en los referentes atenúan la urgencia colectiva y ahondan en las divisiones generacionales. A quienes se preocupan por el monocultivo y el control de internet se los tacha con frecuencia de nostálgicos, de añorar una supuesta era pionera. Pero resulta tremendamente difícil regenerar una infraestructura abierta y competitiva para las generaciones más jóvenes, que han crecido dando por sentado que internet consiste en dos o tres plataformas, dos tiendas de aplicaciones, dos sistemas operativos, dos navegadores, una nube/megatienda y un único motor de búsqueda. Si para ti internet es el rascacielos-silo en el que vives y lo único que ves fuera es otro silo igual de inmenso, ¿cómo vas imaginar algo distinto?

El poder digital concentrado produce los mismos síntomas que el ordeno y mando genera en los ecosistemas biológicos: una angustia aguda salpicada de colapsos repentinos cuando se alcanzan puntos de inflexión.

¿Qué escala se necesita para que la renaturalización tenga éxito? No es lo mismo reintroducir lobos en los 3.472 kilómetros cuadrados del Parque Nacional de Yellowstone que acordonar unos 52 kilómetros cuadrados de pólder —tierra ganada al mar— como en Oostvaardersplassen, cerca de Ámsterdam. Yellowstone, por su tamaño y su diversidad, probablemente sea lo suficientemente complejo como para adaptarse al cambio; en cambio, Oostvaardersplassen ha tenido grandes dificultades.

En los años ochenta el Gobierno neerlandés intentó regenerar una parte de los Oostvaardersplassen, una zona cubierta de maleza. Frans Vera, un ecólogo independiente vinculado al gobierno, sostenía que los juncos y los matorrales se apoderarían del terreno si no había herbívoros —ahora extintos— que pastaran en ellos como ocurría en el pasado. En lugar de los antiguos uros, la agencia estatal de gestión forestal introdujo la raza bovina alemana Heck, famosa por su mal carácter, y, en lugar de los extintos ponis de la estepa, una raza polaca semisalvaje.

Treinta años después, sin depredadores naturales y tras el fracaso de los planes para establecer un corredor de vida silvestre hacia otra reserva, había muchos más animales de los que la escasa vegetación invernal podía alimentar. La población quedó horrorizada ante la imagen de vacas y ponis famélicos y, desde 2018, las agencias gubernamentales instauraron controles de bienestar animal y sacrificios selectivos.

No bastaba con dar marcha atrás. Oostvaardersplassen era demasiado pequeña y estaba demasiado aislada como para ser realmente renaturalizada. Como los animales no tenían adónde ir, el sobrepastoreo y el colapso eran inevitables; una lección vergonzosa, pero necesaria. La renaturalización es un proceso continuo. No se trata de devolver los ecosistemas a un Edén mítico, sino de reconstruir la resiliencia restaurando procesos naturales autónomos y permitiendo que operen a gran escala para generar complejidad. Pero la renaturalización —que, en última instancia, es también una intervención humana— puede requerir de muchos intentos antes de dar con la tecla adecuada. 

Hagamos lo que hagamos, internet no va a volver a las antiguas interfaces que en su día fueron habituales, como FTP o Gopher, ni a la época en que las organizaciones gestionaban sus propios servidores de correo en lugar de recurrir a soluciones comerciales como G-Suite. Pero hay algunas de las herramientas que necesitamos que ya están aquí, especialmente en la web. Basta con observar el resurgimiento de los canales RSS, los boletines por correo electrónico y los blogs, a medida que vamos redescubriendo —una vez más— que confiar en una única aplicación para albergar conversaciones globales crea un punto aislado de fallo y de control. Están apareciendo nuevos sistemas, como el Fediverso, con sus islas federadas, o Bluesky, que ofrece selección algorítmica y moderación componible.

No sabemos qué nos depara el futuro. Nuestra tarea consiste en mantener abiertas tantas posibilidades como sea posible, confiando en que quienes vengan después sabrán aprovecharlas. En lugar de establecer pruebas de pureza para decidir qué tipo de internet se asemeja más al original, podemos evaluar los cambios según los valores que guiaron su diseño inicial. ¿Protegen las nuevas normas la «generalidad» de la red —es decir, su capacidad para permitir múltiples usos— o restringen su funcionalidad para optimizar la eficiencia de las grandes tecnológicas?

Ya en 1985, los ecólogos vegetales Steward T. A. Pickett y Peter S. White escribían en The Ecology of Natural Disturbance and Patch Dynamics [La ecología de las perturbaciones naturales y la dinámica de los parches] que «una paradoja esencial de la conservación de la naturaleza es que buscamos preservar lo que debe cambiar». Algunos ingenieros de internet comprenden muy bien esto. David Clark, profesor en el Instituto Tecnológico de Massachusetts y pionero en el desarrollo de los primeros protocolos de internet, llegó a escribir un libro entero sobre otras arquitecturas de red que podrían haberse construido si sus creadores hubieran priorizado valores distintos, como la seguridad o la gestión centralizada.

Pero nuestro internet despegó porque fue concebido como una red de uso general, diseñado para conectar a cualquier persona.

Se construyó para ser complejo e indomable, para permitir cosas que aún no podemos imaginar. Cuando entrevistamos a David Clark, nos dijo: «“Complejo” implica un sistema con comportamientos emergentes, un sistema cuyos resultados no se puedan modelar. Las intuiciones pueden fallarte. Pero un sistema demasiado simple implica oportunidades perdidas». Todo lo que creamos colectivamente y que realmente vale la pena es complejo y, por tanto, un poco más desordenado. Las grietas son las rendijas por las que entran nuevas personas e ideas.

La infraestructura de internet es hoy un ecosistema degradado, pero también un entorno construido, como una ciudad. Su imprevisibilidad es lo que lo hace generativo, valioso y profundamente humano. En 1961, Jane Jacobs —activista y autora de Muerte y vida de las grandes ciudades— defendió que los barrios de uso mixto eran más seguros, prósperos, felices y habitables que los diseños estériles y altamente controlados promovidos por urbanistas como Robert Moses en Nueva York.

Al igual que las torres al estilo Corbusier, llenas de delincuencia, donde Robert Moses hacinó a la población tras demoler barrios mixtos y construir autopistas a través de ellos, el internet actual —jerárquico y concentrado— se ha convertido, para muchas personas, en un lugar desagradable y nocivo. Sus dueños son difíciles de desalojar y sus intereses no coinciden con los nuestros.

Según escribió Jane Jacobs: «Como en todas las utopías, el derecho a tener planes de alguna importancia pertenecía únicamente a los responsables de planificación». Como entorno construido de arriba abajo, internet se ha convertido en algo que se nos impone, no en algo que transformamos colectivamente día tras día.

Los ecosistemas perduran porque las especies se controlan y equilibran entre sí. En ellos existen múltiples formas de relación: no solo extracción, sino también mutualismo, comensalismo, competencia y depredación. En los ecosistemas saludables, los depredadores están sometidos a límites: son solo una parte más de una red compleja que distribuye energía, no un billete solo de ida hacia el final de la evolución.

Bien lo saben los ecólogos: la diversidad es resiliencia.

El 18 de julio de 2001, once vagones de un tren de mercancías —de un total de sesenta— descarrilaron en el túnel de Howard Street, bajo Mid-Town Belvedere, un barrio al norte del centro de Baltimore. En cuestión de minutos, uno de los vagones, que transportaba un producto químico altamente inflamable, sufrió una perforación. El vertido se incendió y poco después el fuego se propagó a los vagones adyacentes, dando lugar a un incendio que tardó unos cinco días en ser extinguido. El desastre se amplificó rápidamente. Las gruesas paredes de ladrillo del túnel actuaron como un horno y la temperatura alcanzó casi los 2.000 grados Fahrenheit. Una tubería principal de más de un metro de diámetro, situada sobre el túnel, reventó y lo inundó con millones de galones de agua en pocas horas. Aun así, el efecto fue apenas un leve enfriamiento. Tres semanas después, una explosión asociada al mismo producto químico hizo saltar por los aires las tapas de las alcantarillas a más de tres kilómetros de distancia.

WorldCom, entonces la segunda mayor compañía de telefonía de larga distancia de Estados Unidos, tenía en ese túnel cables de fibra óptica que transportaban grandes volúmenes de tráfico telefónico e internet. Sin embargo, según David Clark, profesor del MIT, el plan de resiliencia de WorldCom preveía repartir el tráfico entre diferentes redes de fibra óptica, precisamente para evitar un colapso en caso de incidente.

Sobre el papel, WorldCom disponía de redundancia de red. Pero casi de inmediato el tráfico de internet en Estados Unidos se ralentizó y las líneas telefónicas de WorldCom —tanto las de la costa este como las transatlánticas— quedaron fuera de servicio. La estrecha topografía física de la región había concentrado todas esas redes de fibra en un único punto de estrangulamiento: el túnel de Howard Street. La resiliencia de WorldCom quedó, literalmente, reducida a cenizas. Contaba con redundancia tecnológica, pero no con diversidad.

A veces no percibimos el grado de concentración hasta que ya es demasiado tarde.

Clark trae a colación el incendio del túnel de Howard Street para ilustrar que los cuellos de botella no siempre son evidentes —especialmente a nivel operativo— y que incluso los sistemas más grandes, que aparentan ser seguros por su tamaño y recursos, pueden colapsar de forma repentina e inesperada.

En el internet actual, buena parte del tráfico circula a través de redes privadas propiedad de empresas tecnológicas, como los cables submarinos de Google y Meta. Asimismo, gran parte de ese tráfico es gestionado por unas pocas redes de distribución de contenidos dominantes —como Cloudflare y Akamai— que controlan sus propios servidores proxy y centros de datos. Del mismo modo, la resolución de nombres de dominio (DNS), que actúa como una guía telefónica de internet enlazando nombres de sitios web con sus direcciones numéricas, está cada vez más concentrada en un número reducido de resolutores.

Todo ello mejora la velocidad y eficiencia de la red, pero crea cuellos de botella invisibles, como el del túnel de Howard Street. Los proveedores centralizados afirman disponer de más recursos y estar mejor preparados para resistir ataques y caídas, pero también se convierten en objetivos más atractivos para quienes quieran atacarlos y en puntos únicos de fallo para todo el sistema.

El 21 de octubre de 2016, multitud de los principales sitios web estadounidenses dejaron de funcionar repentinamente. Los dominios de Airbnb, Amazon, PayPal, CNN o The New York Times simplemente no se resolvían. Todos ellos eran clientes de Dyn, un proveedor comercial de servicios DNS que había sido objeto de un ciberataque. Los atacantes infectaron decenas de miles de dispositivos conectados a internet con un software malicioso, creando una red de dispositivos secuestrados —una botnet— que utilizaron para bombardear a Dyn con consultas hasta provocar su colapso. Las marcas más importantes de internet en Estados Unidos quedaron inutilizadas por una red compuesta, básicamente, por monitores para bebés, cámaras web y otros dispositivos de consumo.

Aunque es probable que todas ellas contaran con planes de resiliencia y redundancias, quedaron dañadas porque falló un único punto de estrangulamiento en una capa crítica de la infraestructura.

Las interrupciones generalizadas provocadas por puntos de estrangulamiento centralizados se han vuelto tan frecuentes que algunos inversores incluso las interpretan como oportunidades. Cuando en 2021 un fallo en el proveedor de servicios en la nube Fastly dejó fuera de servicio numerosas webs de gran repercusión, el precio de sus acciones se disparó. Los inversores celebraban los titulares que revelaban la existencia de un proveedor técnico poco conocido que, al parecer, tenía bajo control un servicio esencial. Para ellos, aquel fallo crítico de infraestructura no era percibido como una fragilidad, sino como una ocasión para obtener beneficios.

El resultado de una infraestructura demasiado estrecha es una fragilidad inherente que solo advertimos cuando se produce una avería. Pero este monocultivo también se manifiesta de forma clara en nuestras herramientas de búsqueda y navegación. Buscar, navegar y socializar online son formas fundamentales de acceder al conocimiento, compartirlo y comunicarnos. Constituyen una infraestructura epistémica y democrática crítica a escala global, hoy controlada por un puñado de empresas estadounidenses.

Los accidentes, los incendios y las inundaciones pueden ser manifestaciones inevitables de la entropía, pero las infraestructuras sistémicamente concentradas y vulnerables son el resultado de decisiones deliberadas. Y podemos tomar mejores decisiones.

El aspecto y la percepción de un internet renaturalizado

Un internet renaturalizado ofrecerá muchas más opciones de servicios. Algunos, como los motores de búsqueda o las redes sociales, se fragmentarán —como ocurrió en su día con AT&T—. En lugar de que las grandes tecnológicas extraigan y vendan los datos personales de los usuarios, habrá distintos modelos de financiación para sostener la infraestructura que realmente necesitamos. Hoy en día existen muy pocas disposiciones explícitas para financiar bienes públicos esenciales como los protocolos de internet o los navegadores. Estos componentes fundamentales de la red están subvencionados por las grandes empresas tecnológicas, que ejercen así una influencia profunda sobre su desarrollo.

Renaturalizar también implica sacar de la gran pila tecnológica aquellos elementos que nunca debieron integrarse en ella y asumir los costes reales de la conectividad. Seguiremos pagando directamente por ciertos servicios —como la conexión básica— y otros, como los navegadores, podrán financiarse de forma indirecta pero transparente, como propondremos más adelante. Un internet renaturalizado ofrecerá múltiples formas de conectarse y relacionarse. No dependeremos de uno o dos únicos puntos de acceso cuando un golpe de Estado, como ha ocurrido en Egipto o Myanmar, intente cerrar internet en mitad de la noche. Ninguna entidad ocupará de forma permanente la cima del sistema. Un internet renaturalizado será un entorno más interesante, útil, estable y agradable.

A través de una exhaustiva investigación, la economista y premio Nobel Elinor Ostrom demostró que «cuando las personas están bien informadas sobre el problema al que se enfrentan y sobre quién más está implicado, y son capaces de crear entornos donde a lo largo del tiempo pueden surgir, crecer y mantenerse la confianza y la reciprocidad, con frecuencia toman decisiones costosas y positivas sin esperar a que una autoridad externa imponga normas, supervise su cumplimiento o evalúe sanciones». Ostrom documentó cómo las comunidades se autoorganizaban para gestionar recursos naturales comunes, desde la cooperación entre empresas de agua en California hasta los pescadores de langosta de Maine que se coordinaban para evitar la sobrepesca.

Esa misma lógica de autoorganización está presente en una función clave de internet: la coordinación del tráfico. Los puntos de intercambio de internet (IXP) son un ejemplo de gestión de bienes comunes donde los proveedores de servicios de internet (ISP) acuerdan colectivamente transportar los datos de los demás con costes muy bajos o nulos. Los operadores de red de todo tipo —compañías de telecomunicaciones, grandes tecnológicas, universidades, administraciones públicas y emisoras— necesitan enviar un gran volumen de datos a través de redes ajenas para que estos lleguen a su destino.

Si cada cual gestionara este tránsito mediante contratos individuales, el coste en tiempo y dinero sería muy superior. En lugar de eso, se suelen formar IXP, por lo general como asociaciones independientes sin ánimo de lucro. Más allá de la gestión eficiente del tráfico, los IXP han constituido, en muchos países —especialmente en los países en desarrollo—, la columna vertebral de comunidades técnicas dinámicas que a su vez impulsan el desarrollo económico.

Tanto entre las personas como en internet, las conexiones son generativas. Desde las normas técnicas hasta la gestión de recursos comunes, pasando por las redes de banda ancha locales conocidas como «altnets», la reconversión de internet ya dispone de un amplio repertorio de herramientas de acción colectiva listas para ser puestas en marcha.

Un nuevo impulso para la lucha contra los monopolios y la competencia

La lista de infraestructuras que deben diversificarse es extensa. Además de las tuberías y los protocolos, incluye sistemas operativos, navegadores, motores de búsqueda, el sistema de nombres de dominio, redes sociales, publicidad digital, proveedores de servicios en la nube, tiendas de aplicaciones, empresas de inteligencia artificial y mucho más. Todas estas tecnologías están interconectadas y se refuerzan mutuamente.

Pero demostrar lo que es posible en un ámbito crea oportunidades en otros. Y, para ello, podemos empezar por la regulación.

No siempre es necesaria una gran idea nueva —como la renaturalización— para enmarcar y movilizar un cambio estructural profundo. A veces basta con recuperar una idea antigua. La Orden ejecutiva sobre la promoción de la competencia en la economía estadounidense firmada por el presidente Biden en 2021 reactivó la ambición y la urgencia originales del pensamiento antimonopolio y en favor de los trabajadores, impulsado a principios del siglo XX por el jurista y juez del Tribunal Supremo Louis D. Brandeis, junto con normas y marcos previos incluso al New Deal de los años treinta.

La legislación antimonopolio estadounidense nació con el objetivo de frenar el poder de los oligarcas del petróleo, el acero y los ferrocarriles, cuya influencia era una amenaza para la joven democracia del país. Esta normativa otorgaba protecciones básicas a los trabajadores y entendía que la igualdad de oportunidades económicas era esencial para la libertad. Sin embargo, esa visión de la competencia como pilar democrático quedó debilitada por las políticas económicas de la Escuela de Chicago en los años setenta y por las sentencias judiciales dictadas durante la era Reagan, cuyo impacto se prolongó durante décadas. Según esta nueva ortodoxia, la intervención del Estado solo debía permitirse cuando el poder monopolístico derivara en un aumento de precios para el consumidor. Desde entonces, esa visión reduccionista —centrada exclusivamente en el perjuicio económico directo al consumidor— se ha extendido como monocultivo intelectual por todo el mundo.

Por eso los gobiernos se quedaron al margen mientras las grandes tecnológicas del siglo XXI se convertían en un oligopolio. Si el único criterio de actuación de un regulador es que el consumidor no pague ni un céntimo más, los servicios gratuitos o subvencionados con datos ni siquiera se plantean. (Aunque, por supuesto, los consumidores pagan de otras formas: estas plataformas extraen y monetizan su información personal). Este enfoque liberal permitió a las grandes empresas asfixiar a la competencia mediante la adquisición sistemática de competidores y la integración vertical de servicios clave, dando lugar a los problemas a los que nos enfrentamos hoy.

Los reguladores y las autoridades responsables de hacer cumplir la ley en Washington y en Bruselas afirman ahora haber aprendido la lección: no van a permitir que el dominio de la inteligencia artificial repita el patrón de concentración que se produjo con internet. La presidenta de la Comisión Federal de Comercio (FTC), Lina Khan, y el jefe de la división antimonopolio del Departamento de Justicia de Estados Unidos, Jonathan Kanter, están identificando los puntos críticos de la «pila» de la IA —desde el control de los chips de procesamiento, los conjuntos de datos y la capacidad computacional, hasta la innovación algorítmica, las plataformas de distribución y las interfaces de usuario— y analizándolos para determinar si ponen en riesgo la competencia sistémica. Esto es una señal prometedora para quienes buscan evitar que el dominio de las grandes tecnológicas se consolide también en el futuro de la inteligencia artificial.

Durante la firma de la orden ejecutiva sobre competencia en 2021, el presidente Biden afirmó: «El capitalismo sin competencia no es capitalismo, es explotación». Su equipo legal estaba cambiando los tipos de casos que acepta y ampliando las teorías jurídicas con las que argumentaba ante los jueces. En lugar de centrarse exclusivamente en el perjuicio al consumidor en forma de precios elevados —como ha sido habitual durante décadas—, los nuevos casos sostienen que el poder de mercado de las empresas dominantes también causa daños económicos a trabajadores, pequeñas empresas y al funcionamiento del mercado en su conjunto.

Khan y Kanter han dejado atrás los modelos estrechos y abstrusos de comportamiento del mercado y se apoyan en las experiencias reales de trabajadores sanitarios, agricultores o escritores. Saben que cerrar oportunidades económicas alimenta el auge de la extrema derecha. Por eso han convertido la política competitiva y la aplicación de las leyes antimonopolio explícitamente en un asunto de poder frente a democracia, de coacción frente a elección. Como afirmó Kanter en una reciente conferencia en Bruselas: «La concentración excesiva de poder es una amenaza […]. No se trata solo de precios o producción, sino de libertad y oportunidades».

Las autoridades de Washington y Bruselas han comenzado a actuar de forma preventiva para evitar que las grandes tecnológicas utilicen su dominio en un ámbito para hacerse con el control de otro. Bajo el escrutinio de la Comisión Federal de Comercio de Estados Unidos y de la Comisión Europea, Amazon abandonó recientemente su plan de adquirir el fabricante de electrodomésticos iRobot. Los reguladores a ambos lados del Atlántico también han tomado medidas para impedir que Apple utilice su posición dominante en la plataforma iPhone para restringir la competencia en su tienda de aplicaciones y extender su control a otros mercados emergentes, como el impulso de CarPlay entre los fabricantes de automóviles o la limitación del acceso a su monedero digital tap-to-pay en el sector financiero.

Sin embargo, hasta ahora estas acciones coercitivas se han concentrado en los aspectos más visibles y orientados al consumidor del internet privado y extractivo dominado por los gigantes tecnológicos. Las escasas y limitadas disposiciones del decreto ejecutivo de 2021 dirigidas a reducir el poder monopolístico sobre infraestructuras solo actúan sobre abusos que se produzcan en el futuro —como el acaparamiento del espectro radioeléctrico—, pero no sobre los monopolios que ya están consolidados. Sin duda, la forma más eficaz de combatir los monopolios es impedir que lleguen a formarse, pero si los reguladores y las autoridades responsables de hacer cumplir la ley no desmantelan el dominio actual de estas corporaciones, corremos el riesgo de vivir bajo el monopolio de las infraestructuras durante décadas, quizá incluso durante un siglo.

Incluso los responsables políticos más decididos han evitado, hasta ahora, aplicar las medidas más contundentes contra la concentración en mercados consolidados desde hace tiempo, como los requisitos de no discriminación, la interoperabilidad funcional o las separaciones estructurales, es decir, la división efectiva de las empresas. Para la mayoría, calificar los monopolios de los motores de búsqueda y las redes sociales como servicios públicos y obligarlos a operar como infraestructuras comunes abiertas a todos sigue siendo una medida demasiado radical.

Pero renaturalizar un entorno ya construido no consiste simplemente en sentarse a esperar a que formas de vida delicadas logren abrirse paso entre el hormigón. Se trata de derribar las estructuras que impiden que la luz llegue a quienes no son lo suficientemente ricos como para ocupar los pisos más altos.

Cuando el escritor y activista Cory Doctorow reflexionó sobre cómo liberarnos del dominio de las grandes tecnológicas, afirmó que, aunque desmantelar estos gigantes probablemente llevará décadas, garantizar una interoperabilidad sólida y obligatoria abriría espacio para la innovación y frenaría el flujo de dinero hacia las empresas más poderosas, dinero que de otro modo emplearían para reforzar sus defensas.

Doctorow describe la «comcom», o compatibilidad competitiva, como una especie de «interoperabilidad de guerrilla» lograda mediante ingeniería inversa, bots, técnicas de scraping y otras tácticas que no requerían permiso. Antes de que una maraña de leyes restrictivas la asfixiara, la comcom era la vía mediante la cual la gente aprendía a reparar coches y tractores, o a reescribir software. La comcom refleja ese comportamiento propio de los ecosistemas florecientes: «Probar todas las tácticas hasta que una funcione».

En un ecosistema, la diversidad de especies es, en esencia, diversidad de tácticas: cada estrategia exitosa abre un nuevo nicho ecológico. Ya sea un pulpo que se camufla como una serpiente marina, un cuco que introduce a sus polluelos en el nido de otro pájaro, una orquídea que imita a una abeja hembra o un parásito que altera la conducta de los roedores en los que se aloja para llevarlos a la muerte, cada micronicho es producto de una táctica que ha funcionado. La comcom no es más que eso: diversidad táctica, la forma en que los organismos interactúan dentro de sistemas complejos y dinámicos. Y, sin embargo, los seres humanos hemos alcanzado el colmo del pensamiento cortoplacista al permitir que los oligarcas intenten erradicar esa diversidad.

Se están haciendo esfuerzos. La Unión Europea ya cuenta con varios años de experiencia en mandatos de interoperabilidad y con valiosa información sobre cómo las empresas que desean eludir estas normas están trabajando activamente para hacerlo. En cambio, Estados Unidos aún se encuentra en una fase inicial en lo que respecta a garantizar la interoperabilidad del software —por ejemplo, en ámbitos como las videoconferencias—.

Quizá una forma de motivar y reforzar la acción de los reguladores y las autoridades encargadas de hacer cumplir la ley en todo el mundo consista en explicar que la arquitectura subterránea de internet se ha convertido en un territorio sombrío donde la evolución se ha detenido casi por completo. Los esfuerzos por hacer que el internet que está a la vistasea competitivo servirán de poco si no se aborda también la devastación que permanece oculta bajo la superficie.

Próximos pasos

Buena parte de lo que necesitamos ya está aquí. Más allá de que los responsables políticos hallen el valor, la perspectiva y nuevas estrategias jurídicas audaces, necesitamos políticas públicas decididas y favorables a la competencia en áreas clave como la contratación pública, la inversión y las infraestructuras físicas.

Las universidades deben rechazar la financiación de la investigación por parte de las grandes tecnológicas, pues esta casi siempre está condicionada, de forma explícita o implícita. En su lugar, necesitamos más investigación tecnológica financiada con fondos públicos y cuyos resultados sean de acceso abierto. Esta investigación debería centrarse en estudiar la concentración de poder en el ecosistema de internet y en explorar alternativas prácticas y sostenibles.

Debemos reconocer que buena parte de la infraestructura de internet funciona, de facto, como un servicio público sobre el que debemos recuperar el control. Para ello es necesario establecer incentivos normativos y financieros que apoyen alternativas como la gestión de recursos comunes, las redes comunitarias y los múltiples mecanismos de colaboración que, históricamente, la sociedad ha empleado para garantizar bienes públicos esenciales como las carreteras, la defensa o el acceso al agua potable.

Todo esto requiere de financiación. Los gobiernos han sido privados de ingresos fiscales procedentes de las ganancias extraordinarias —sin precedentes históricos— obtenidas por los actuales gigantes tecnológicos. Sabemos perfectamente dónde está el dinero. Lo que tenemos que hacer es recuperarlo.

Y aunque conocemos el diagnóstico, nos sigue resultando extraordinariamente difícil actuar de manera colectiva. ¿Por qué?

Encerrados en rígidas plantaciones tecnológicas en lugar de en ecosistemas diversos y funcionales, cuesta imaginar alternativas. Incluso quienes lo comprenden con claridad pueden sentirse impotentes y aislados. La renaturalización nos ofrece una vía para superar ese bloqueo: conecta todo lo que sabemos que debe hacerse y lo articula en torno a una visión compartida y un conjunto de herramientas nuevas.

Los ecologistas se enfrentan a sistemas de explotación similares y están organizándose con urgencia, a gran escala y de forma transversal. Tienen claro que los problemas no son casos aislados, sino expresiones de una misma patología: la lógica de ordeno y mando, de extracción y dominación, que el antropólogo político James C. Scott identificó por primera vez en la silvicultura científica. Las soluciones son comunes a la ecología y la tecnología: emplear el Estado de derecho de manera decidida para equilibrar un poder y un capital desiguales y aprovechar el impulso para llenar los vacíos con formas mejores de hacer las cosas.

Que internet siga siendo internet

Susan Leigh Star, socióloga y teórica de las infraestructuras y las redes, escribió en su influyente artículo de 1999, «The Ethnography of Infrastructure» [«La etnografía de las infraestructuras»]: «Si estudias una ciudad y descuidas sus alcantarillados y el suministro eléctrico (que es lo que han hecho muchas personas), estás descuidando aspectos esenciales de la justicia distributiva y el poder de planificación. Estudia un sistema de información y descuida sus estándares, cables y configuraciones, y estarás pasando por alto aspectos igualmente esenciales de la estética, la justicia y el cambio».

Los protocolos y estándares técnicos que sostienen la infraestructura de internet se desarrollan, en apariencia, en organizaciones de desarrollo de estándares (SDO) que son abiertas y colaborativas. Sin embargo, están cada vez más bajo el control de un puñado de grandes empresas. Lo que se presenta como estándares «voluntarios» suele ser, en realidad, el resultado de decisiones comerciales impuestas por los actores más poderosos del ecosistema.

El dominio de las organizaciones de SDO por parte de las grandes empresas también determina qué aspectos no se estandarizan. Un ejemplo evidente es la búsqueda en internet, que hoy de facto funciona como un monopolio global. Aunque en multitud de ocasiones se han propuesto en el seno de las SDO iniciativas para abordar directamente la creciente consolidación de internet, los avances han sido mínimos. Esta inacción está dañando seriamente la credibilidad de estas organizaciones, especialmente fuera de Estados Unidos. Las SDO deben transformarse de forma radical o van a perder el mandato implícito que ostentan como administradoras del futuro de internet a escala global.

Necesitamos que las normas de internet sigan siendo globales, abiertas y generativas. Son los modelos de cableado que dan forma planetaria a la red: hilos finos como telarañas, pero tan resistentes como el acero, que sostienen su interoperabilidad frente a la fragmentación y el dominio perpetuo.

Que las leyes y las normas funcionen de forma conjunta

En 2018, un pequeño grupo de activistas californianos logró que la Asamblea Legislativa aprobara la Ley de Privacidad del Consumidor de California. Entre sus disposiciones se incluía una cláusula aparentemente menor: el «derecho a optar por no vender ni compartir» información personal mediante un «control de privacidad global habilitado por el usuario», conocido como señal GPC (Global Privacy Control), que permitiría automatizar esta elección. La ley no especificaba cómo debía funcionar el GPC. Como era necesaria una norma técnica para que navegadores, empresas y proveedores pudieran entenderse, los detalles se delegaron a un grupo de expertos.

En julio de 2021, el fiscal general de California ordenó que todas las empresas debían respetar el nuevo GPC cuando los consumidores con sede en California visitaran sus webs. Actualmente, el grupo promotor está impulsando la especificación técnica en el marco del desarrollo de estándares web globales en el World Wide Web Consortium (W3C). Para los residentes de California, el GPC automatiza las solicitudes de «aceptar» o «rechazar» la venta de datos personales —como el seguimiento basado en cookies— en las webs que visitan. Sin embargo, esto aún no es compatible con los principales navegadores predeterminados, como Chrome o Safari. Su adopción generalizada va a llevar tiempo, pero representa un pequeño avance hacia la transformación de resultados concretos, alineando las prácticas antimonopolio con el conjunto de normas técnicas. Su aplicación ya empieza a extenderse a otros contextos.

El GPC no es el primer estándar abierto exigido por ley, pero sí fue diseñado desde el principio con el objetivo manifiesto de tender puentes entre la elaboración de políticas públicas y el establecimiento de estándares técnicos. La idea está ganando terreno: un informe reciente del Consejo de Derechos Humanos de las Naciones Unidas recomienda que los Estados deleguen «las funciones reguladoras a las organizaciones de normalización».

Que sean transparentes los proveedores de servicios, no los usuarios

Actualmente, internet ofrece una transparencia mínima respecto a los principales proveedores de su infraestructura. Por ejemplo, los navegadores son elementos altamente complejos que determinan cómo interactúan con la web miles de millones de personas y, sin embargo, se ofrecen de forma gratuita. Esto es posible porque los motores de búsqueda más utilizados establecen acuerdos financieros opacos con los navegadores, a los que pagan para que los configuren como opción predeterminada. Como la mayoría de los usuarios no cambian esa configuración, navegadores como Safari y Firefox obtienen ingresos estableciendo a Google como motor de búsqueda por defecto, lo que refuerza su dominio incluso cuando la calidad de sus resultados se deteriora.

Esto plantea un dilema: si las autoridades antimonopolio impusieran una mayor competencia en el sector, los navegadores perderían su principal fuente de ingresos. Las infraestructuras necesitan financiación, pero la escala planetaria de internet desafía los modelos tradicionales de financiación pública, dejando espacio para su apropiación privada.

Sin embargo, si interpretamos este sistema opaco como lo que realmente es —una suerte de impuesto no estatal—, entonces podemos imaginar alternativas. Los motores de búsqueda constituyen un lugar lógico para que los gobiernos impongan un mecanismo transparente de recaudación que sirva para financiar navegadores y otras infraestructuras esenciales de internet. Este modelo podría sostenerse bajo una supervisión abierta, transnacional y multilateral.

Cultivar el espacio para crecer

Debemos abandonar la idea de que la infraestructura de internet es demasiado compleja para ser reparada. Es el sistema subyacente sobre el que se apoya casi todo lo que hacemos. Ya en 2016, el ex primer ministro sueco Carl Bildt y el ex viceministro de Asuntos Exteriores de Canadá Gordon Smith advertían de que internet se estaba convirtiendo en «la infraestructura de todas las infraestructuras». Es la forma en que nos organizamos, nos conectamos y construimos conocimiento. Tal vez incluso sea, en potencia, una forma incipiente de inteligencia planetaria. Pero hoy está concentrada, es frágil y es profundamente tóxica.

Los ecólogos han redefinido su disciplina como una «ciencia de la crisis»: un campo que no solo busca comprender, sino también preservar. Los tecnólogos debemos hacer lo mismo. La renaturalización de internet conecta y amplifica lo que ya están haciendo muchas personas en materia de regulación, estandarización y nuevas formas de organizar y construir infraestructuras. Nos permite contar una historia común sobre el rumbo que queremos tomar. Es una visión compartida que admite múltiples estrategias. Los instrumentos que necesitamos para alejarnos de los monocultivos tecnológicos extractivos están a nuestro alcance, o listos para ser construidos.

María Farrell es escritora y ponente principal sobre tecnología y futuro. Ha trabajado en políticas tecnológicas en la Cámara de Comercio Internacional, la Corporación de Internet para la Asignación de Nombres y Números (ICANN) y el Banco Mundial.

Robin Berjon es experto en gobernanza digital y ha contribuido a numerosos estándares web, incluido el Control Global de Privacidad. Trabaja en nuevos protocolos web como el Sistema de Archivos Interplanetario (IPFS) y forma parte del Consejo de Administración del Consorcio World Wide Web (W3C) y del Panel Asesor Tecnológico de la Oficina del Comisionado de Información de Reino Unido.

Este texto fue publicado originalmente el 16 de abril de 2024 en Noema Magazine.

 

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.