Internet debería ser un bien público

Print Friendly, PDF & Email

Por Ben Tarnoff

Traducción por Lucía Abelleira Castro

Internet fue construida por instituciones públicas, entonces ¿por qué está controlada por corporaciones privadas?

El 1 de octubre el Internet cambiará y nadie lo notará. Esta transformación invisible afectará el  componente más importante que hace que Internet sea utilizable: el Sistema de Nombres de Dominio (DNS por sus siglas en inglés). Cuando se escribe el nombre de un sitio web en el navegador, el DNS es lo que convierte ese nombre en la cadena de números que especifican la ubicación real del sitio web. Al igual que una guía telefónica, el DNS hace coincidir nombres que son significativos para nosotros en números que no lo son.

Durante años, el gobierno de EE.UU. ha controlado el DNS. Pero en octubre, el sistema se convertirá en responsabilidad de una organización sin fines de lucro con sede en Los Ángeles llamada Corporación de Internet para la Asignación de Nombres y Números (ICANN por sus siglas en inglés).

De hecho, ICANN ya ha estado administrando el DNS desde finales de los 90 bajo un contrato con el Departamento de Comercio. La novedad es que ICANN tendrá autoridad independiente sobre el DNS en un nuevo modelo “multilateral” que se supone hará más internacional la gestión de Internet.

Es probable que el impacto real sea pequeño. Por ejemplo, las medidas de protección de marcas comerciales que vigilan el DNS en nombre de corporaciones seguirán vigentes. Y el hecho de que ICANN está ubicada en Los Ángeles y bajo la legislación estadounidense significa que el gobierno de los Estados Unidos seguirá ejerciendo su influencia, aunque de manera algo menos directa.

Pero el significado simbólico es enorme. El traspaso de octubre marca el último capítulo de la privatización de Internet. Concluye un proceso que se inició en la década de 1990, cuando el gobierno de los Estados Unidos privatizó una red construida con enormes gastos públicos.

A cambio, el gobierno no exigió nada: ninguna compensación ni restricciones o condiciones sobre cómo se desarrollaría Internet.

No había nada inevitable en este desenlace. Este reflejaba una elección ideológica, no una necesidad técnica. En lugar de confrontar problemas críticos de supervisión y acceso popular, la privatización excluyó la posibilidad de poner al Internet en un camino más democrático.

Pero la lucha no ha terminado. El inminente traspaso a ICANN ofrece una oportunidad para revisitar la historia, en gran parte desconocida, de cómo se produjo la privatización y cómo podríamos empezar a revertirla, reclamando Internet como un bien público.

Los orígenes públicos de Internet

A menudo, a Silicon Valley le gusta pretender que la innovación es el resultado de los empresarios que trabajan en garajes. Pero la mayor parte de la innovación de la que depende Silicon Valley proviene de la investigación gubernamental, por la sencilla razón de que el sector público puede permitirse asumir riesgos que el sector privado no puede.

Es precisamente el aislamiento de las fuerzas del mercado lo que le permite al gobierno financiar la labor científica a largo plazo, que termina produciendo muchas de las invenciones más rentables.

Esto es particularmente cierto en el caso de Internet. Internet era una idea tan radical e improbable que sólo décadas de financiación y planificación pública podían hacerla realidad. No solo debía inventarse la tecnología básica, sino que debía ser construida la infraestructura, los especialistas tenían que ser entrenados y los contratistas tenían que ser dotadas de personal, financiamiento y, en algunos casos, directamente desprendidas de agencias gubernamentales.

A veces se compara Internet con el sistema de carreteras interestatales, otro proyecto público importante. Pero como señala el activista legal Nathan Newman, la comparación sólo tiene sentido si el gobierno “hubiera imaginado primero la posibilidad de los automóviles, subvencionado la invención de la industria automovilística, financiado la tecnología del hormigón y el alquitrán y construido todo el sistema inicial”.

La Guerra Fría proporcionó el pretexto para este ambicioso proyecto. Nada aflojó los hilos políticos americanos como el miedo a quedarse atrás de la Unión Soviética. Este miedo tuvo su pico en 1957, cuando los soviéticos pusieron el primer satélite en el espacio. El lanzamiento del Sputnik produjo una verdadera sensación de crisis en el establishment estadounidense y condujo a un aumento sustancial de la financiación federal de la investigación.

Una consecuencia fue la creación de la Agencia de Proyectos de Investigación Avanzada (ARPA por sus siglas en inglés), que más tarde cambiaría su nombre por el de Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA por sus siglas en inglés).

ARPA se convirtió en el brazo de I+D en el Departamento de Defensa. En lugar de centralizar la investigación en los laboratorios del gobierno, ARPA adoptó un enfoque más distribuido, cultivando una comunidad de contratistas tanto en el mundo académico como en el sector privado.

A principios de la década de 1960, ARPA comenzó a invertir fuertemente en informática, construyendo grandes ordenadores centrales en universidades y otros sitios de investigación. Pero incluso para una agencia tan generosamente financiada como ARPA, esta ola de gastos no era sostenible. En aquellos días, una computadora costaba cientos de miles, si no millones, de dólares. Así que ARPA ideó una forma de compartir recursos informáticos de manera más eficiente entre sus contratistas: construyó una red.

Esta red era ARPANET y sentó las bases de Internet. ARPANET enlazó las computadoras a través de una tecnología experimental llamada packet-switching, que implicaba descomponer los mensajes en pequeños trozos llamados “paquetes”, dirigiéndolos a través de un laberinto de interruptores y volviéndolos a ensamblar en el otro extremo.

Hoy en día, este es el mecanismo que mueve los datos a través de internet, pero en su momento, la industria de las telecomunicaciones lo consideró absurdamente poco práctico. Años antes, la Fuerza Aérea había tratado de persuadir a AT&T para que construyera tal red, sin éxito. ARPA incluso ofreció ARPANET a AT&T después de que estuviera en funcionamiento, prefiriendo comprar tiempo en la red en lugar de administrarla ellos mismos.

Dada la oportunidad de adquirir la red informática más sofisticada del mundo, AT&T se negó. Los ejecutivos simplemente no podían ver  la posible ganancia en ella. 

Su miopía fue afortunada para el resto de nosotros. Bajo gestión pública, ARPANET floreció. El control gubernamental le dio a la red dos grandes ventajas.

La primera era el dinero: ARPANET podía verter dinero en el sistema sin tener que preocuparse por la rentabilidad. La agencia encargó una investigación pionera a los informáticos más talentosos del país a una escala que hubiera sido suicida para una corporación privada.

Y, lo que es igual de crucial, ARPA impuso una ética de código abierto que fomentaba la colaboración y la experimentación. Los contratistas que contribuyeron a ARPANET tuvieron que compartir el código fuente de sus creaciones o se arriesgarse a perder sus trabajos. Esto catalizó la creatividad científica, ya que los investigadores de una serie de instituciones diferentes podían perfeccionar y ampliar el trabajo del otro sin tener que vivir con el temor por la ley de propiedad intelectual.

La innovación más importante que se produjo fue la de los protocolos de Internet, que aparecieron por primera vez a mediados de la década de 1970. Estos protocolos hicieron posible que ARPANET evolucionara hasta convertirse en Internet, al proporcionar un lenguaje común que permitía que redes muy diferentes se comunicaran entre sí.

La naturaleza abierta y no patentada de Internet aumentó enormemente su utilidad. Prometió un único estándar de interoperabilidad para la comunicación digital: un medio universal en lugar de un mosaico de dialectos comerciales incompatibles.

Promovida por ARPA y adoptada por los investigadores, Internet creció rápidamente. Su popularidad pronto llevó a científicos ajenos al ejército y al selecto círculo de contratistas,a demandar acceso.

En respuesta, la Fundación Nacional de la Ciencia (NSF por sus siglas en inglés) emprendió una serie de iniciativas encaminadas a llevar Internet a casi todas las universidades del país. Éstas culminaron en la NSFNET, una red nacional que se convirtió en la nueva “columna vertebral” de Internet.

La columna vertebral era una colección de cables y computadoras que formaban la arteria principal de Internet. Se parecía a un río: los datos fluían de un extremo a otro, alimentando a los afluentes, que a su vez se ramificaban en corrientes cada vez más pequeñas.

Estos arroyos servían a usuarios individuales, que nunca tocaron la columna vertebral directamente. Si enviaban datos a otra parte de Internet, éstos viajaban por la cadena de afluentes hasta la columna vertebral y luego por otra cadena hasta llegar a la corriente que servía al receptor.

Una lección de este modelo es que Internet necesita muchas redes en sus bordes. El río es inútil sin afluentes que amplíen su alcance. Es por eso que la NSF, para asegurar una conectividad lo más amplia posible, también subvencionó una serie de redes regionales que vinculaban a las universidades y otras instituciones participantes con la columna vertebral de la NSFNET.

Todo esto no era barato, pero funcionó. Los académicos Jay P. Kesan y Rajiv C. Shah han estimado que el programa NSFNET costó más de 200 millones de dólares. Otras fuentes públicas, incluyendo gobiernos estatales, universidades apoyadas por el Estado y agencias federales, probablemente contribuyeron con otros 2 mil millones de dólares en redes con la NSFNET.

Gracias a esta avalancha de dinero público, una tecnología de comunicaciones de vanguardia incubada por ARPA se puso a disposición de los investigadores estadounidenses a finales de los años 80.

El camino a la privatización

Pero a principios de los 90 Internet se estaba convirtiendo en víctima de su propio éxito. La congestión plagaba la red y cada vez que la NSF la mejoraba, más gente se amontonaba.

En 1988, los usuarios enviaban menos de un millón de paquetes al mes. Para 1992, estaban enviando 150 mil millones. Así como las nuevas autopistas producen más tránsito, las mejoras de la NSF sólo alimentaron la demanda, sobrecargando el sistema.

Claramente a la gente le gustaba Internet. Y estos números habrían sido aún más altos si la NSF hubiera impuesto menos restricciones a sus usuarios. La Política de Uso Aceptable de la NSFNET (AUP por sus siglas en inglés) prohibió el tráfico comercial, preservando la red sólo para fines de investigación y educación. La NSF consideró que esto era una necesidad política, ya que el Congreso podría recortar la financiación si se consideraba que el dinero de los contribuyentes estaba subvencionando la industria.

Pero en la práctica, la AUP era en gran medida inaplicable, ya que empresas utilizaban regularmente la NSFNET. Y, en términos más generales, el sector privado había estado ganando dinero con la Internet durante décadas, tanto como contratistas beneficiarios de software, hardware y talento en ingeniería  desarrollado con fondos públicos.

La AUP puede haber sido una ficción legal, pero tuvo un efecto. Al excluir formalmente la actividad comercial, se generó un sistema paralelo de redes privadas. A principios del decenio de 1990, surgieron en todo el país una variedad de proveedores comerciales que ofrecían servicios digitales sin restricciones en cuanto al tipo de tráfico que podían transportar.

La mayoría de estas redes se originaron gracias a la financiación del gobierno y reclutaron a veteranos de ARPA por sus conocimientos técnicos. Pero cualesquiera que fueran sus ventajas, las redes comerciales tenían prohibido por la AUP conectarse a internet, lo que inevitablemente limitaba su valor.

Internet había prosperado bajo la propiedad pública pero estaba llegando a un punto de quiebre. La creciente demanda de los investigadores puso a prueba la red, mientras que la AUP impidió que llegara a un público aún más amplio.

Estos no eran problemas fáciles de resolver. Abrir Internet a todo el mundo, y crear la capacidad de acogerlos, presentaba importantes desafíos políticos y técnicos.

El director de NSFNET, Stephen Wolff, llegó a ver la privatización como la respuesta. Creía que ceder la Internet al sector privado traería dos grandes beneficios: aliviaría la congestión al provocar un flujo de nuevas inversiones y aboliría la AUP, permitiendo a los proveedores comerciales integrar sus redes con NSFNET. Liberada del control del gobierno, Internet podría convertirse en un medio de comunicación.

El primer paso tuvo lugar en 1991. Unos años antes, la NSF había adjudicado el contrato de explotación de su red a un consorcio de universidades de Michigan llamado Merit, en asociación con IBM y MCI. Este grupo había ofrecido un precio significativamente más bajo, percibiendo una oportunidad de negocio. En 1991, decidieron cobrar, creando una empresa subsidiaria con fines de lucro que comenzó a vender el acceso comercial a la NSFNET con la bendición de Wolff.

La movida enfureció al resto de la industria de las redes. Las compañías acusaron correctamente a la NSF de cerrar un acuerdo encubierto que garantice a sus contratistas un monopolio comercial y armaron el suficiente alboroto como para provocar audiencias en el Congreso en 1992.

Estas audiencias no discutieron la conveniencia de la privatización, sólo sus términos. Ahora que Wolff había puesto en marcha la privatización, los otros proveedores comerciales simplemente querían una parte de la acción.

Uno de sus jefes ejecutivos, William Schrader, testificó que las acciones de la NSF eran similares a “dar un parque federal a K-mart”. Sin embargo, la solución no era preservar el parque, sino dividirlo en varios K-marts.

Las audiencias obligaron a la NSF a aceptar un mayor papel de la industria en el diseño del futuro de la red. Como era de esperar, esto produjo una privatización aún más rápida y profunda. Anteriormente, la NSF había considerado reestructurar la NSFNET para permitir que más contratistas la dirigieran.

Para 1993, en respuesta a la aportación de la industria, la NSF había tomado la radical decisión de eliminar la NSFNET por completo. En lugar de una columna vertebral nacional habría varias, todas de propiedad de proveedores comerciales y operadas por ellos.

Los líderes de la industria afirmaron que el rediseño aseguraba un “campo de juego nivelado”. Más exactamente, el campo permaneció inclinado, pero abierto a unos pocos jugadores más. Si la vieja arquitectura de internet hubiera favorecido el monopolio, la nueva estaría hecha a medida para el oligopolio.

No había tantas compañías que hubieran consolidado la suficiente infraestructura para operar una columna vertebral. Cinco, para ser exactos. La NSF no estaba abriendo la Internet a la competencia sino transfieriéndola a un pequeño puñado de corporaciones que esperaban en los laterales.

Sorprendentemente, esta transferencia llegó sin condiciones. No habría supervisión federal de las nuevas columnas vertebrales de Internet, y no habría reglas que rigieran la forma en que los proveedores comerciales getionaran su infraestructura.

Tampoco habría más subsidios para las redes regionales sin fines de lucro que habían cableado campus y comunidades para Internet en los días de la NSFNET. Pronto fueron adquiridas o llevadas a la bancarrota por empresas con fines de lucro. En 1995, la NSF puso fin a la NSFNET. Con el paso de unos pocos años, la privatización se completó.

La rápida privatización de Internet no provocó ninguna oposición y apenas suscitó debates. Mientras Wolff lideraba el camino, actuaba desde un amplio consenso ideológico.

El triunfo del libre mercado en la década de 1990 y el intenso clima político de desregulación fomentado por los demócratas de Bill Clinton y los republicanos de Newt Gingrich, enmarcaron la plena propiedad privada de Internet como algo beneficioso e inevitable.

El colapso de la Unión Soviética reforzó esta opinión, ya que desaparecieron los fundamentos de la Guerra Fría para una fuerte planificación pública. Por último, la profundidad de la influencia de la industria en el proceso garantizó que la privatización adoptara una forma especialmente extrema.

Tal vez el factor más decisivo en el sorteo fue la ausencia de una campaña organizada que exigiera una alternativa. Un movimiento de este tipo podría haber propuesto una serie de medidas destinadas a popularizar Internet sin privatizarla completamente. En lugar de abandonar las redes regionales sin fines de lucro, el gobierno podría haberlas ampliado.

Financiadas con las tarifas extraídas de los proveedores de la columna vertebral comercial, estas redes permitirían al gobierno garantizar el acceso a Internet de alta velocidad y bajo costo a todos los estadounidenses como un derecho social. Mientras tanto, la FCC podría regular las columnas vertebrales, estableciendo las tarifas que se cobran entre sí por transportar el tráfico de Internet y supervisándolas como un servicio público.

Pero promulgar incluso una fracción de estas políticas habría requerido una movilización popular, la Internet era todavía relativamente oscura a principios de los años noventa, en gran parte confinada a los académicos y especialistas. Fue difícil crear una coalición en torno a la democratización de una tecnología que la mayoría de la gente ni siquiera sabía que existía.

En este panorama, la privatización obtuvo una victoria tan completa que se hizo casi invisible y silenciosamente revolucionó la tecnología que pronto revolucionaría el mundo.

Reclamando la plataforma popular

Veinte años más tarde, Internet ha crecido enormemente, pero la estructura propietaria de su infraestructura central es mayormente la misma. En 1995, cinco compañías eran propietarias de la columna vertebral de Internet. Hoy en día, hay entre siete y doce grandes proveedores de red troncal en los Estados Unidos, dependiendo de cómo se cuente, y más en el extranjero.

Si bien una larga cadena de fusiones y adquisiciones ha dado lugar a un cambio de marca y a una reorganización, muchas de las mayores empresas estadounidenses tienen vínculo con el oligopolio original, como AT&T, Cogent, Sprint y Verizon.

Las condiciones de la privatización han facilitado a los titulares la protección de su posición. Para formar una Internet unificada, las redes troncales deben interconectarse entre sí y con proveedores más pequeños. Así es como el tráfico viaja de una parte de Internet a otra. Sin embargo, como el gobierno no especificó ninguna política de interconexión cuando privatizó Internet, las redes troncales pueden negociar cualquier acuerdo que quieran.

Por lo general, se dejan interconectar gratuitamente entre sí, porque funciona en beneficio mutuo, pero le cobran a los proveedores más pequeños por el transporte del tráfico. Estos contratos no sólo no están regulados, sino que suelen ser secretos. Negociados a puerta cerrada con la ayuda de acuerdos de no divulgación, aseguran que el profundo funcionamiento de Internet no sólo sea controlado por las grandes empresas, sino que se oculte a la vista del público.

Más recientemente, nuevas concentraciones de poder han surgido. La columna vertebral no es la única pieza de Internet sostenida por relativamente pocas manos. Hoy en día, más de la mitad de los datos que fluyen a los usuarios estadounidenses en las horas pico provienen de sólo treinta empresas, con Netflix ocupando una parte especialmente importante.

Del mismo modo, los gigantes de las telecomunicaciones y cable como Comcast, Verizon y Time Warner Cable dominan el mercado del servicio de banda ancha. Estas dos industrias han transformado la arquitectura de Internet al construir atajos para sus redes, evitando la red troncal. Los proveedores de contenido como Netflix ahora conducen su vídeo directamente a proveedores de banda ancha como Comcast, evitando una ruta tortuosa a través de las entrañas de Internet.

Estos acuerdos han desencadenado una tormenta de controversia y han ayudado a dar los primeros pasos tentativos hacia la regulación de Internet en los Estados Unidos. En 2015, la FCC anunció su decisión más firme hasta la fecha, obligando el cumplimiento de la “neutralidad de la red”, el principio de que los proveedores de servicios de Internet deben tratar todos los datos de la misma manera, independientemente de si provienen de Netflix o del blog de alguien.

En la práctica, la neutralidad de la red es imposible dada la estructura actual de Internet. Pero como un grito de guerra, ha centrado una atención pública significativa en el control corporativo de Internet, y ha producido verdaderas victorias.

El fallo de la FCC reclasificó a los proveedores de banda ancha como “proveedores comunes de comunicaciones”, lo que los sujeta a la regulación de las telecomunicaciones por primera vez. Y la agencia ha prometido usar estos nuevos poderes para prohibir que las compañías de banda ancha bloqueen el tráfico a sitios particulares, disminuyan la velocidad de los clientes y acepten la «priorización pagada» de los proveedores de contenido.

La decisión de la FCC es un buen comienzo, pero no va lo suficientemente lejos. Rechaza explícitamente “la regulación prescriptiva de tarifas para toda la industria” y exime a los proveedores de banda ancha de muchas de las disposiciones de la Ley de Comunicaciones de la era del New Deal de 1934.

También se centra en la banda ancha, descuidando la red troncal de Internet. Pero la decisión es una cuña que puede ampliarse, especialmente porque la FCC ha dejado abiertos muchos de los detalles sobre su aplicación.

Otro frente prometedor es la banda ancha municipal. En 2010 la empresa de electricidad de la ciudad de Chattanooga, Tennessee, comenzó a vender a los residentes un servicio asequible de Internet de alta velocidad. Usando una red de fibra óptica construida en parte con fondos de estímulo federal, la empresa de servicios públicos ofrece una de las velocidades de Internet residencial más rápidas del mundo.

La industria de la banda ancha ha respondido enérgicamente, presionando a las legislaturas estatales para prohibir o limitar experimentos similares. Pero el éxito del modelo de Chattanooga ha inspirado movimientos en favor de la banda ancha municipal en varias otras ciudades, incluyendo Seattle, donde la concejala socialista Kshama Sawant ha defendido la idea durante mucho tiempo.

Estos pueden parecer pequeños pasos, pero apuntan a la posibilidad de construir un movimiento popular para revertir la privatización. Esto implica no sólo hacer campaña por una mayor supervisión de la FCC y de las empresas públicas de banda ancha, sino también cambiar la retórica en torno a la reforma de Internet.

Una de las más dañinas obsesiones entre los reformadores de Internet es la noción de que una mayor competencia democratizará Internet. Internet requiere mucha infraestructura para funcionar. Es un error dividir las grandes empresas propietarias de esta infraestructura en empresas cada vez más pequeñas con la esperanza de que, con el tiempo, el mercado se ponga en marcha para crear mejores resultados.

En lugar de tratar de escapar de la enormidad de Internet, deberíamos abrazarla y ponerla bajo control democrático. Esto significa sustituir a los proveedores privados por alternativas públicas cuando sea factible, y regularlos cuando no lo sea.

No hay nada en las tuberías o protocolos de Internet que obligue a producir inmensas concentraciones de poder corporativo. Esa es una decisión política y nosotros podemos elegir distinto.


Fuente original: https://www.jacobinmag.com/2016/08/internet-public-dns-privatization-icann-netflix/

Imagen: Jacobin