1: Orígenes de la Sociedad de la Información

Contenido:

I: Orígenes de la Sociedad de la Información

Definiciones y conceptos previos

            Bajo la denominación de «sociedad de la información» se han agrupado múltiples conceptos y pretensiones diversas e incluso contradictorias a veces. Pensar que la sociedad de la información, el mundo de las tecnologías y más concretamente todo lo que hacer referencia a la red, es ese mundo aséptico, carente de intencionalidad, que se movería como una especie de entidad caótica que se autoorganizara gracias a la confluente acción de empresas y usuarios, resulta ser el entorno ilusorio, el escaparate ficticio en el que muchos han cimentado las esperanzas de una nueva sociedad, en la que el avance de las nuevas tecnologías marcara las pautas, al margen de ideologías o controles. La realidad es bien distinta y los primeros indicios de esto podemos encontrarlo en la intencionalidad inherente de los propios términos con los que se tratan de definir los conceptos claves en los que se maneja la organización de esta pretendida sociedad emergente. Como certeramente afirma Armand Matterart[1]«el mercado de las palabras queda reducido a las palabras del mercado», y la uniformación del mundo comienza en las palabras que empleamos para designarlo.

           Sin lugar a dudas, cada modo de producción, cada sociedad, trae consigo una forma particular de establecer un ideario, una forma de identidad cultural entorno a la que se justifica. De este modo, la transformación de la sociedad capitalista, tal y como la hemos conocido a lo largo del siglo XX, hacia un modelo de desarrollo basado en la información, las comunicaciones y el poder basado en dispositivos electrónicos, se ha deslizado, de modo casi imperceptible durante el periodo de entresiglos, para apuntar hacia una profunda transformación del poder y la forma de ejercerlo. Una transformación, por otro lado, que acentúa las desigualdades regionales, a pesar de que la pretendida «aldea global» unificaría, más allá de las regiones, la cultura y el poder. La realidad es que los centros de poder, bajo una óptica exclusivamente mercantilista, bajo las directrices de la doctrina neoliberal, se han concentrado más aún entorno a grupos de poder cada vez con menor identidad nacional pero, tal vez por ello, más poderosos. Esa carencia de identidades, de ideologías fuertes y atractores colectivos, propios de la crisis de la postmodernidad [2] , se ha convertido en uno de los signos definitorios de nuestro tiempo, «vaciado» de utopías y alternativas sistémicas que no provengan de un ámbito idealizado de lo tecnológico, bajo cuya pretendida asepsia funcional se socavan los principios de lo público. La relativización y frivolización, la saturación de «información no deseada», en palabras de F. Machup, llevara con el tiempo a producir una transformación social y cultural en unos términos dirigidos y controlados de una manera que por sutil, es la más profundamente radical de toda la historia de la humanidad. De este modo, grupos concretos de comunicación como AOL- Time Warner Media, Disney, Sony, News corporation; Viacon y Bertelsmann, controlan el 70% de toda la producción audiovisual mundial, imponiendo unos roles estéticos y culturales mediatizados[3] .

           Como afirmara Marshal McLuhan, «el medio es el mensaje»[4], los contenidos han perdido sentido respecto a la tiranía de la forma, el imperio de la imagen y la nueva semántica de la información, en el que la tecnología y la ciencia son la nueva ideología, en una suerte de nuevo positivismo carente de competencia. En ese aspecto, las únicas respuestas organizadas que han quedado, ante este proceso de desarraigo de lo colectivo y carencia de identidad, han sido las construcciones realizadas de lo excluyente y las religiones cada vez más sesgadas y con rasgos cada vez más fundamentalistas. En este sentido, cabe hacer mención, a modo de curiosidad, cómo en los EEUU, cuando se propusiera la reserva de un tercio de la programación por cable para usos de organizaciones comunitarias, recayeran la práctica totalidad de ellas en iglesias evangélicas, sus organizaciones aledañas o directamente telepredicadores[5] .

           En este contexto, podríamos ir adelantando conclusiones respecto a  los motores del nuevo paradigma social, aunque sin perder la perspectiva que nunca han sido las  tecnologías las que impulsaran los cambios sociales por definición, sino que han sido elementos potenciadores, impulsos concretos a estas transformaciones; al igual que la máquina de vapor no trajo necesariamente la sociedad capitalista, tal y como se organizara,  las nuevas tecnologías de la información y la comunicación, tampoco son, por si mismas, los agentes del cambio social, sino parte del entramado, político, económico y cultural que en su conjunto supone un modelo diferente al que conociéramos un par de décadas antes. En esta nueva sociedad en permanente gestación, en transformación incesante, podemos puntuar nuevas pautas sociales, diversas formas de interacción del individuo con la sociedad y el poder, entendido como la auténtica fuente de cambio y dirección social más que como gobierno representativo o dirigente.

            Ese cambio social podría ser resumido en la transformación del ciudadano al espectador/consumidor, como forma concreta de resumir esta nueva aldea global dirigida por la doctrina ideológica del liberalismo, con un cada vez mayor aislamiento social y una saturación de imágenes en información de supuesto carácter neutral, a pesar del sesgo evidente hacia la doctrina dominante. En definitiva, no deja de ser una nueva forma de hegemonía, en términos gramscianos, característica básica de la «sobremodernidad» [6]

          Por tanto, la forma en la que se impulsa el cambio social no es en ningún sentido todo lo aséptica que el positivismo «mainframe» (opinión mayoritaria), tantas veces convenientemente inducido, pretende explicarnos. Ante esto, existe una narrativa de resistencia que aúna a defensores del software libre, periodistas independientes, activistas y organizaciones no integradas en los engranajes del sistema que plantean una forma diferente de interpretar el cambio[7].

1.2 Precursores de la red

           El afán por simplificar, codificar y reducir a impulsos eléctricos computables en formato binario de apagado-encendido (0-1) cualquier comunicación, bajo un sistema lógico, es un principio que podríamos detraer al propio origen de la ciencia matemática y que, de hecho, ha sido una búsqueda de una simplificación del lenguaje, de una forma de codificación informativa, como tratara de hacer Leibniz[8]. , al hablar de un proceso de automatización de la razón, del procesado mental en algo sintético, reducido a sus formas básicas; es decir, el origen de un proceso sintético que surgiera en sus orígenes como búsqueda de una certeza matemática y que finalmente ha devenido en clave de todo el proceso de comunicación de nuestra época.

            Gordon Moore[9] , directivo de la famosa compañía Intel, sintetizo lo que, en origen, podría tratarse de una ocurrencia sugerente, en toda una «ley» que de un modo u otro se ha convertido en una suerte de máxima de las compañías de fabricación de microprocesadores; la conocida como «Ley de Moore”, por la cual la capacidad de tratamiento de información de todos los microprocesadores se duplica cada año y medio. Efectivamente, podemos ver como las creencias y convicciones de los promotores de este nuevo paradigma, terminan siendo condicionantes capaces de provocar efectos tangibles en la realidad. A nadie nos sorprende que a veces, sobre todo teniendo en cuenta que es la propia Intel la promotora de nuevas tecnologías de «duplicado» de procesamiento, ajuste las presentaciones al público de sus tecnologías al patrón de Moore[10] .

Curiosamente, y a pesar de la imagen relativamente romántica de unos jóvenes creando las bases de la informática en un garaje, la realidad ha sido bien distinta y, a pesar de la iniciativa concreta de jóvenes investigadores, sus inquietudes y su capacidad, el origen financiero de todos estos progresos se debe, como casi todos los grandes avances técnicos del siglo pasado, a los fondos públicos aportados en buena medida por el departamento de defensa del gobierno norteamericano que, en origen no tenía objetivos militares y, en realidad, no tenía más objetivos que los que le fueron dando sus propios investigadores y primeros usuarios.

            Respecto a los orígenes de la red tal y como hoy en día la conocemos, existe una profusa bibliografía e incluso no resultaría nada complicado emplear la red y los instrumentos que esta nos ofrece para poder conocer algunas síntesis sobre sus orígenes, proceso más fácil aun cuando la mayor parte de sus protagonistas son empresarios o investigadores de éxito que continúan en primera línea en la actualidad, dado que el proceso que ha llevado a este nuevo paradigma tiene un origen relativamente reciente.

No hay red sin infraestructura distribuida

           El origen de la red de redes, tal y como hoy la conocemos, está estrechamente ligado al procesamiento de la información, al origen mismo de los transistores, los medios de almacenamiento y procesamiento y transmisión de la información. Podemos remontarnos a 1947, momento del origen del transistor, por parte de los investigadores de los laboratorios Bell, en Nueva Jersey, Bardeen, Brattain y Shockley, que les llevaría a ganar un Nobel de física por ello. Con este instrumento, se hizo posible el codificar impulsos eléctricos de un modo binario de interrupción-paso, lo que nos permite la codificación lógica de información y la comunicación con máquinas y entre estas mismas. Estos dispositivos, denominados semiconductores, debido a este proceso, comenzarían pronto a integrar miles (con el tiempo, millones) de transistores y pasarían a denominarse comúnmente chips. Sin embargo, hasta que no se pudo ensamblar en un material más adecuado, depurando el proceso de errores no pudo comenzar a comercializarse dotándole de un uso concreto.

           El paso a la integración de la tecnología basada en el silicio, gracias a la investigación de Gordon Teal, integrado en 1953 al anterior equipo, posibilitaría el proceso de miniaturización de componentes fabricados con instrumentos de precisión.  Todo esta conjunción, llegaría con la confluencia de diversas investigaciones sobre procesos planares e integración de microelectrónica, basada en el circuito integrado, idea de Jack Kilby, técnico de Texas instruments que lo patentara en 1957, aunque sería Bob Noyce, quien lo fabricara antes y lo llevara a una aplicación práctica; lo que  provocaría una auténtica explosión tecnológica en el terreno, que llevaría a la multiplicación de semiconductores, abaratando los precios de esto, ante la posibilidad de fabricación den cadena, en torno a un 85% en tan solo tres años. En torno a la mitad de esta producción sería absorbida por los usos militares.

            El siguiente gran salto cualitativo se dará en 1971, cuando el ingeniero de Intel, Ted Hoff, creara el primer microprocesador, lo que significaría integrar en un chip todo un ordenador, dando pie a poder trasladar e instalar en cualquier parte todo el procesado informático. Esto daría origen a un proceso constante de superación, integración y militarización que sigue constante en nuestros tiempos a pesar de los límites que se han creído insuperables en diferentes momentos.

           Para poder conocer este proceso, señalaremos cómo la potencia de los chips puede ser evaluada mediante tres características claves: la capacidad de integración, señalada por la mínima anchura de las líneas del chip, medida en micras (millonésima parte del metro); su capacidad de albergar memoria, expresada en bits (kbit, miles, Megabit, millones) y la velocidad del microprocesador, expresada en megahercios. De este modo, podemos sopesar el avance conocido, expresado en el crecimiento exponencial de las capacidades concretas, viendo cómo el primer procesador de 1971, contaba con unas líneas de unas  6,5 micras, en 1980 eran ya de  4 micras, una micra en 1987 y en 1995, el chip Intel Pentium contaba ya con 0,35 micras. De este modo, donde en 1971 se podían insertar 2300 transistores en un chip del tamaño aproximado de una chincheta, en 1993 contaba ya con 35 millones de transistores. Respecto a la memoria, expresada en DRAM (Dinamic Ramdom Access Memory), mientras en 1971 era de 1.024 bits, en 1993 era de 1.024.000. Con la velocidad ocurre lo mismo y los procesadores de mediados de los noventa eran ya 550 veces más rápidos que los primeros de los setenta, ajustándose de manera férrea a la citada «ley de Moore» y su duplicación de velocidad cada 18 meses [11] .

            El descenso en los precios de los microchips, su paulatina miniaturización y generalización en su uso, que cada vez se extiende a campos mayores, hasta constituir el componente de mayor precio en los automóviles a partir de la década de los 1990, se ha convertido, de este modo, en uno de los procesos básico para conocer el periodo más reciente de nuestra sociedad industrial[12] .

          De cualquier modo, los primeros ordenadores, al menos con la matriz reconocible hoy en día como tales, son hijos, como tantas otras tecnologías, de la segunda guerra mundial, como el Colossus británico de 1943, dedicada a descifrar los códigos enemigos [13]  o el Z-3 alemán producido para asistir los cálculos de rutas aéreas de sus bombarderos) [14]. En 1946, fruto de un programa de investigación del MIT (massachusset institute of tecnology), uno de los grandes referentes de todo el progreso tecnológico de nuestro tiempo, y el patrocinio del ejército estadounidense, surgiría en la universidad de Pensylvania ENIAC (Electrónical Numérical Integrator and Calculator), el primer ordenador propiamente dicho con fines generales. Un precursor de 30 toneladas, construido en módulos metálicos de 2 metros y medio de alto, constituido por 70.000 resistores y 18.000 tubos de vacío, con un consumo eléctrico que, en su momento, hacia resentirse la red eléctrica de Filadelfia al entrar en funcionamiento.

           Seis años después, el mismo equipo técnico, bajo la marca Rémington Rand, produciría el primer modelo comercial del producto, denominado UNIVAC-1, que cosecharía su primer gran éxito en el procesado del censo estadounidense de 1950. En 1953, con apoyos similares, financiación por parte de contratas militares e investigación por parte del MIT, IBM entraría en la carrera informática con su máquina de tubo de vació 701. Así al Mainframe (nombre que hace referencia a las cajas metálicas en las que se aloja)  desarrollado por Sperry Rand en 1958, IBM, contestaría con su propio modelo 7090, aunque no lograría la posición dominante que se le reconocería posteriormente hasta su mainframe 360/370, de 1964, momento a partir del cual en un proceso de «destrucción creativa» fiel a la descripción de Schumpeter, dejaría a la empresa en una posición de dominio casi absoluto de la industria informática [15] durante una época de relativa estabilidad en la producción de máquinas, con fines concreto  y  dirigidas a un mercado específico.

            Hasta la introducción del microchip en las máquinas de procesado; en concreto hasta llegar en 1971 a poder ubicar lo que hasta entonces era un ordenador en un chip no llegaría el gran salto. Bajo el curioso nombre de Altair (un personaje de la serie Star Trek), Ed Roberts construiría en 1975 una caja de cálculo en torno a un microprocesador, un ordenador a pequeña escala que sería la base del diseño del Apple I  luego del Apple II, el primer microordenador que se comercializaría con éxito; producto del trabajo de dos jóvenes, Steve Wozniak y Steve Jobs, que habían abandonado los estudios para realizar en los garajes de casa estas máquinas que se han convertido en el auténtico mito fundacional de la era de la información. En 1976, con tres socios y 91.000 dólares de capital, nace Apple computers, primera compañía en vender ordenadores como producto de consumo, que en 1992 ya había llegado a los 583 millones de dólares en ventas. La reacción del gigante IBM sería la presentación de su propio microordenador, bajo el nombre de Ordenador Personal (PC, Personal Computer), que sin embargo, al partir de desarrollos no elaborados por la propia empresa sino por otras fuentes diversas, se volvería vulnerable al clonaje, el versionado a partir de desarrollos fuera de la matriz, hecho que sucedería casi de inmediato a escala masiva, sobre todo en Asia, después de que Columbia Data Products clonase exitosamente la BIOS del IBM. Este hecho, llevaría a una difusión mayor, debido al abaratamiento de costes de máquinas clónicas, del modelo PC, frente al de las máquinas Apple, pese a su superioridad técnica. De hecho, volvería a ser el Macintosh de Apple, lanzado en 1984, el primer ordenador en comenzar a emplear una interfaz más accesible al usuario, fuera de la consola de comandos, con el empleo de iconos en un panel visual, desarrollada originalmente en el Centro de Investigación de Palo Alto de Xerox.

La vida en la máquina. La popularización del software para PC

            Llegados a este punto, alcanzamos el segundo gran hito para la popularización de la informática y su extensión. El software, como elemento básico de uso e interactuación con la máquina (hardware). Efectivamente, el éxito de la máquina Altair llevaría pronto a otros dos jóvenes, que también abandonaran sus estudios en Harwad, Bill Gates y Paul Hallen, a adaptar el lenguaje de programación BASIC (Beginners All-purpose Symbolic Instruction Code) a esta máquina, creando el Altair Basic, primer producto de la compañía Micro-Soft (Microsoft hoy en día).

           En 1981, la compañía recibiría el encargo de IBM de implementar un sistema operativo a sus máquinas PC. Con ese fin, Microsoft compró a Seattle Computer Products un clon de CP/M llamado 86-DOS, que IBM renombró como PC-DOS. Precisamente, la posibilidad de ser clonados de los PC de IBM, con el sistema operativo MS-DOS (Microsoft-Disk Operating System) como plataforma sería el acicate definitivo para el éxito de una compañía que, en principio surgiera como pequeño proveedor de software (incluso más bien como adaptador de este). Así, a pesar de que la interfaz de usuario y la propia máquina desarrollada por Apple era superior y de más fácil manejo, la popularización de un modelo de menor precio comenzó a imponerse y los MS-PC se convirtieron en casi un estándar, sobre todo cuando Apple decidiera no licenciar ni permitir otros desarrollos de su sistema ni sus máquinas por parte de terceros.

            En 1985, Microsoft lanzó Windows, su propio sistema operativo gráfico. Su primera versión, la 1.0, un desarrollo a medio camino entre una evolución gráfica de MS-DOS y un clónico de Mac OS, cosecharía su primer gran fracaso. Pero con la versión 3.1, Windows se consolidó y a pesar de las trabas legales que comenzaría a cosechar por sus prácticas comerciales, terminaría por imponerse como sistema casi universal de los PC (con cerca del 90% del mercado hasta la primera década del siglo XXI) [16].

           No sería hasta la masiva adopción de comunicaciones entre ordenadores personales y la expansión de la movilidad en las redes cuando comenzaría a decrecer dicho liderazgo. El resurgir de Apple tras el retorno de Steve Jobs a la compañía y su acertada campaña de extensión de dispositivos, comenzando con los primeros iPod y luego con el iPhone. Las Keynotes de Apple (presentaciones anuales de mejoras y productos) se han convertido en una liturgia consumista en la que medios y comunidad de usuarios-consumidores asisten en directo a estas a modo de gran evento a escala mundial[17].

          La universalización del uso de la tecnología móvil o portable, entendida en un sentido extenso, propiciará la definitiva expansión de la red a una escala generalizada en las poblaciones de los países desarrollados y en buena medida también propiciará la penetración de las comunicaciones y el acceso popular en otras naciones, incluso a pesar de la censura de estados como el iraní [18]. Los casos de censura en la red tendrán especial relevancia [19] , dado que jugarán un papel muy importante en situaciones de convulsión social como los de la denominada de forma generalizadora «Primavera árabe». Otro de los casos más destacados es el de China y su «gran cortafuegos» que prácticamente bloquea las comunicaciones fuera de su red.  De un modo u otro todos los estados han comenzado desde principios del presente siglo a prestar una especial atención al nuevo escenario que se presenta con esta nueva expansión y popularización de unas comunicaciones no centralizadas ni dirigidas[20] . Como veremos más adelante, la intervención y la vigilancia tomarán un papel predominante en la evolución de las diversas agencias de inteligencia estatales.

1.3 Nacimiento de la red

            Tratar sobre el origen de la red de redes y su desarrollo es volver a situarnos en primer lugar en el contexto de la guerra fría y por otro lado en el de conocer los grandes difusores de sus capacidades para el público general, en este caso por parte de estudiantes y desarrolladores en general pero en todo caso sin ánimo de lucro, con fines científicos y con una concepción que resulta curiosa y radicalmente diferente a las tentativas de los que se han obstinado en convertir en negocio cuestiones que, en principio no lo fueran en absoluto. De este modo, podemos sugerir que el nacimiento de la red como hoy se conoce es el producto de la confluencia de factores diversos, la convergencia de los intereses militares, con su financiación, la cooperación de grupos científicos, en ocasiones con individuos ligados a la contracultura y el interés de diversas corporaciones.

           La red de redes, como se conoce en muchas ocasiones a Internet y todos los servicios que la integran actualmente se debe tanto a un proceso de confluencia de intereses comerciales y militares, como a la desinteresada aportación de grupos de investigadores, usuarios y activistas en favor de una libertad todavía en disputa [21] . Un terreno que no difiere del de la misma participación democrática activa. La propia red se ha creado enmarcada dentro de ese estado de tensión entre tres vértices que contienen puntos de partida divergentes a propósito de cómo tiene que ser Internet, sobre cómo debe gestionarse y sobre que parámetros [22] [23].

           Como veremos, esta tensión subyacente se manifiesta tanto en la confluencia de intereses, como cuando investigación civil y militar colaboran, antes de hacer de Internet un gran negocio, como finalmente ocurre. Ya hemos adelantado que nuestro estudio, más que el mero relato de avances técnicos, ampliamente documentado, se va a centrar en las diferentes tensiones sociales [24] y políticas que se producen y condicionan la manera en la que la red de redes se conforma en la actualidad[25]. Por ello, serán varias las ocasiones en las que este relato se vea acotado por apreciaciones de este tipo, dado que el estado actual ha sido condicionado por la evolución para nada aislada de los elementos que la conforman.

            El auge de la «nueva economía» dominada por la doctrina neoliberal[26], convertirá el eje comercial en el dominante[27], hasta el punto de infiltrar la investigación militar y en general de las agencias de inteligencia de los estados y dejará en el terreno de la resistencia y el activismo a la investigación independiente y las comunidades de investigadores independientes[28]. Comunidades científicas como las que publican en Plos, que ofrecen acceso libre a las publicaciones científicas o la más conocida Wikipedia son ejemplos de esta evolución[29].

            Todos estos aspectos serán detallados más avanzado nuestro estudio pero deben tenerse en cuenta para comprender y ubicar la manera en la que se producen muchos de los avances de los que hoy en día disfrutamos.

Enlazando máquinas

           A la hora de establecer la fecha concreta del nacimiento de Internet no existe un consenso completo, aunque si existen ciertos hitos que son comunes y que en su conjunto nos dan una idea de cómo se gestó.

          Una de las primeras referencias por escrito, fuera de la ciencia ficción, a un sistema de comunicación de banda ancha entre máquinas, la encontramos en un escrito de 1960 por parte de J.C.R Licklider[30] . Efectivamente, será este mismo quien se encargue dos años después de la oficina de procesado de información de DARPA (Agencia de Proyectos de Investigación Avanzados de Defensa DE EEUU). Todas estas investigaciones culminarían en 1969 con la creación de la primera red sin nudo central, sobre un sistema de conmutación de paquetes de información denominado DARPANET.  Como describiremos en el capítulo 1.5 Ciencia, Universidades e Información, la participación de varias instituciones universitarias serán claves para esta primera red de cuatro nodos entre la UCLA, la UCSB, el Stanford Research Institute y la Universidad de Utah[31]. Será precisamente esta primera colaboración no militar la que promueva el cambio de denominación de esta primera red descentralizada por ARPANET en 1972[32].

          Una vez establecidos los parámetros base para la red, protocolos hoy en día muy extendidos como el correo electrónico, cuyo primer programa fuera escrito en 1971 por Ray Tomlinson o el Protocolo de Transmisión de Ficheros (FTP), todavía tan vigente en la actualidad proporcionado ese mismo año por un grupo de investigadores del MIT, aunque no sería hasta 1985 que se publicara para su uso público.

          En 1981 se terminará de definir el protocolo TCP/IP (Transfer Control Protocol / Internet Protocol), la base de todas las comunicaciones en red actuales[33].  ARPANET adopta este sistema en 1982. Al año siguiente se independiza de la red militar que la de la que surgiera, lo que potencia su extensión entre universidades e investigadores independientes[34].

          En el otro extremo, suele ser una cita común la referencia al por entonces técnico del Centro Europeo de Física de Partículas (CERN) que a partir de un informe presentado en 1989 para mejorar el sistema de gestión de la información del centro. Esta será la segunda clave principal para la extensión de la red. La descripción de su lenguaje principal y el método de presentarlo y conectarlo. Nos referimos al método de transmisión HTTP (Protocolo de transferencia de hipertexto) y el lenguaje HTML (Lenguaje de marcas de hipertexto).

          Sería el primer uso civil de una red informática y más aún, dado que los protocolos necesarios serían descritos de forma libre para que toda la comunidad dispusiera de ellos y extendiera esa interconectividad[35]. Estamos ante el origen de la red de redes. Una red abierta, con unos protocolos bien descritos y sin propietario, por tanto fácilmente adaptables y extensibles sin sobrecostes ni impedimentos.  Dos años después, el mismo CERN[36] describiría el primer programa capaz de interpretar sobre la marcha los hipertextos: el primer navegador web.

          Con la descripción del protocolo de transmisión de paquetes (TCP/IP), la forma de transferir texto mediante este (HTTP) y el lenguaje adecuado para verlo (HTML)[37] tenemos las bases sobre las que está construida nuestra red de redes. Todo ello producto de una serie de investigaciones abiertas, que en ningún momento restringieron el alcance de estas sino que por contra, difundieron de forma altruista o al menos no directamente interesada el producto de sus investigaciones para cimentar una red extensa que pudiera ser interpretada en cualquier lugar independientemente de la máquina.  Esta apreciación es fundamental dado que estamos señalando que sin esta extensión las redes que se estaban creando hasta el momento habrían sido incompatibles entre sí, encerradas en el marco de sus propias organizaciones. Mención especial tiene el método de BBS (Bulletin Board System –Sistema de tablón de anuncios), como la forma primigenia de comunicación entre redes de usuarios, precursora de los foros y los chats. En este apartado Fidonet[38], se convertiría en una de las primeras formas de comunicación directa entre usuarios y comunidades[39] con una extensión y una duración a lo largo del tiempo destacable.

           A partir de 1995 el WWW se presenta como el primer servicio que saca provecho del primer navegador propiamente dicho, Mosaic, que había sido escrito dos años antes.  A partir de esto y hasta el momento actual, las bases de la red mundial son las mismas, extendidas de manera uniforme a lo largo de todo el territorio mundial.  Resulta particularmente esclarecedor cómo estas bases se han mantenida sustancialmente inalteradas y por ello mismo, muy a pesar de ciertas divergencias expresadas tanto por países denominados emergentes, como por democracias occidentales.  Durante La Cumbre Mundial sobre la Sociedad de la Información (CMSI) celebrada en Túnez en 2005, ya se escenificaron los parámetros de ruptura. En primer lugar por el control real de los trece grandes nodos de la red (los que interpretan las DNS a nivel de nombres) controlados por EEUU de manera férrea[40], ubicados a lo largo de sus dos costas y comunicados con enlaces de fibra óptica submarina con el resto de nodos secundarios a lo largo de todos el territorio mundial[41].  En dicha cumbre EEUU y sus aliados consiguieron posponer el debate acerca de la ICANN (Internet Corporation for Assigned Names and Numbers), que es la entidad privada que controla en última instancia la mayor parte de los nombres de dominios en la red. Como veremos más adelante, aunque entidades nacionales pudieron tomar el control de sus dominios, como el caso español con los dominios .es y su controvertida gestión a propósito de la acreditación de nombres y la posibilidad de enajenar dominios[42], las bases de la red siguen en manos estadounidenses.

1.4 Redes, Espías y Satélites

          Efectivamente, se produjo un cambio respecto al paradigma de la seguridad, al socaire de una estabilidad relativa producto de una guerra fría que mantuvo durante varias décadas un estatus quo de «no agresión», entendida como despliegue directo y uso de todos los recursos disponibles, en el que se potenciara otras formas respecto a la inteligencia militar y una planificación de contingencias en caso de que finalmente se diera el peor horizonte de acontecimientos. De este modo, por un lado la denominada «inteligencia militar» comenzaría a recibir una financiación mayor por parte de las sucesivas administraciones norteamericanas, potenciando el avance técnico frente a la «clásica» red de informadores y espías de las agencias de información (CIA y NSA)[43] . Este interés y confianza en la aplicación de avances técnicos a la información militar llevaría incluso a grandes programas de reestructuración de dichas agencias, adelgazando la posición de su personal efectivo respecto a la inversión tecnológica, sobre todo desde la administración Reagan, que, como veremos más adelante[44], ha tenido consecuencias en la incapacidad de establecer seguimientos alguno de ciertas células terroristas en tiempos recientes. Bajo esa óptica, nacería ARPA (Advanced Research Projects Agency) en los 60’, como respuesta a la amenaza potencial que la tecnología deducible del lanzamiento del sputnik significaba. Con el fin de establecer un sistema de comunicaciones resistente a un eventual ataque nuclear, Paul Baran, diseñaría, en Rand Corporation, durante los años 1960-64, un sistema de conmutación de paquetes (grupos de información fragmentada y codificada digitalmente) independiente de ningún centro de mando o control, de manera que cada unidad concreta pudiese encontrar la ruta de forma autónoma para el envío y recepción de mensajes[45].

          Curiosamente, podemos hacer un seguimiento casi paralelo al de las diferentes administraciones, norteamericanas en su mayoría, y las formas que han ido tomando los diversos programas de control y comunicación militar. De este modo, las transferencias de fondos y el interés concreto han funcionado a impulsos bien definidos, sobre todo a través de contratas y programas diversos con un itinerario, la mayor parte de los casos, abocado al abandono, aunque con unas aplicaciones concretas que han posibilitado desarrollos independientes más que fructíferos, paralelo a los diferentes momentos, desde la «guerra fría», hasta la «lucha contra el terrorismo», la Netwar y la persecución de hactivistas.

          La red Echelon[46] [47]  será uno de los casos concretos en los que el espionaje tecnológico ha seguido el camino de los tiempos y los diversos focos de interés de los gobiernos liderados por el norteamericano y seguidos por aliados concretos, no todos ellos poseedores de toda la información que estas redes captan[48]. En 1948, con un hermetismo casi absoluto, hasta el grado de desconocerse la situación de muchas de las antenas en uso, surgía esta red, promovida por EEUU y cuatro aliados anglófonos (Canadá, Gran Bretaña, Australia y Nueva Zelanda). En esencia, Echelon es un sistema de escuchas global de todas las comunicaciones, cuyo caudal de datos es procesado por la NSA (agencia Nacional de Seguridad estadounidense), una intervención a escala mundial de todos los datos emitidos en llamadas telefónicas, faxes o correos electrónicos que emplea aparte de su propia red militar, satélites civiles con absoluta impunidad, caso del INTELSAT. Es, en definitiva, la concreción de las teorizaciones de la Global Information Dominace. De cualquier forma, lo que en principio fuera una forma de vigilancia militar, del enemigo soviético, pronto devendría en espionaje, inteligencia económica y fiscalización mundial; el caso reciente más conocido fue el del fracaso de las negociaciones de Airbus con el Gobierno Saudí a causa de unas informaciones que finalmente favorecieron a una contrata de Boeing[49] , esto llevaría en el año 2001 al parlamento europeo a realizar un informe llamado «Capacidades de Intercepción 2000″(23-adjunto), momento a partir del cual han ido surgiendo informaciones detalladas sobre el proyecto . ONG como Greenpeace también han denunciado estar entre sus objetivos, lo que demuestra cómo el itinerario de la captación de información ha ido derivando desde el fin de la guerra fría hacia otros fines[50] .

          Ya desde 1965, el pentágono había llevado adelante la iniciativa de satélites de comunicación, en aquel entonces bajo el contexto de la guerra fría, orientado a «todo el mundo libre» denominado INTELSAT (International Telecomunications Satellite Consortium), que pronto pasaría a un uso masivamente civil, bajo la tutela norteamericana, adalid del comercio y la comunicación.  En 1996, el pentágono crearía otra agencia de control, la National Imaginery and Mapping Agency, responsables, entre otros programas del conocido GPS (Global Positionig System) dedicado en principio a la dirección de misiles y posicionamiento de tropas y que posteriormente sería liberado para usos civiles, con señal degradada e intervenida en ciertos lugares, como forma de competir con el proyecto europeo Galileo, sistema de detección terrestre civil.  En conjunción con la US Air Force, un nuevo programa de cobertura espacial denominado Future Imagery Achitecture, compuesta de veinticuatro satélites espías, con una precisión de quince centímetros, supondrá el programa de espionaje más caro de la historia.

El mundo a partir del 11-S

           A partir de la USA Patriot Act, llevada adelante por la administración Bush tras el 11-S  y su nuevo ministerio, El Homeland Security Deparment, llevará adelante un sistema de espionaje autorizado y reconocido como nunca antes, centralizado en la TIA (Total Information Awareness), un banco de datos integral, de todos los individuos, en los que se compilan todos los datos posibles de carácter personal, inscripciones y registros varios, datos bancarios, transacciones, suscripciones personales etc[51] .         A día de hoy, aún no ha sido derogada ni la ley, ni cambiadas las agencias concretas dedicadas a dichos fines. Otros Países, como es el caso de china, con su Ghostnet[52], ya cuentan con sus agencias de intervención informática, aunque de estos casos conocemos aún menos informaciones sobre su funcionamiento y tan solo nos llegan rastros de sus intervenciones concretas[53].

           Curiosamente, la sección 215[54] de la Patriot Act ha expirado en junio de 2015[55] y la administración Obama ha establecido ciertos límites formales al control ciudadano extensivo por parte de la NSA, aunque en paralelo, ha mantenido resquicios legales para justificar su acción, lo que por la vía de los hechos supone un rechazo formal al espionaje pero un mantenimiento real de la vigilancia en la red de cualquier sujeto susceptible de ser incorporado como sospechoso, en un sentido muy amplio. Legislaciones como CISPA (Cyber Intelligence Sharing and Protection Act)[56], suponen un reconocimiento de que las agencias de inteligencia, especialmente los denominados centros de fusión contraterrorista, no sirvieron para su función formal[57] sino que han significado una conculcación de derechos privados sin resultado real que lo justifique[58]. Las sospechas se dispararían cuando el foco de buena parte de la atención de estas se revelara como dirigido al espionaje industrial y gubernamental.  La revelación del sistema PRISM[59], significará un punto de inflexión para este periodo de expansión del espionaje que ni siquiera la lucha contra la «ciberyihad», pudo contrarrestar suficientemente.

          Como fuimos sabiendo por sucesivas revelaciones de WikiLeaks y posteriormente de E. Sowden (véase 4.2 WikiLeaks, Whistleblowers, y grandes filtraciones) El espionaje gubernamental ha sido una constante que permea todas las comunicaciones a escala global. No será hasta que se desate el escándalo hasta que se ha sabido el alcance real de todo el sistema creado por los EEUU. No obstante, otros estados también han elaborado sus programas de espionaje propios, como el SITEL español, puesto en marcha en 2007[60].

          Pero no solo serán los estados los que se dedicarán a lo largo de este periodo de nuestra historia reciente a espiar y recabar datos de ciudadanos sino que grandes empresas han puesto el foco en el potencial de adquirir datos personales y procesarlos. El conocido como Big data, ha supuesto un salto en la calidad del procesado de información personal de personas a una escala no conocida a lo largo de la historia de la humanidad. En este sentido, poder filtrar y catalogar preferencias personales se ha convertido en una parte esencial para el foco publicitario, del que viven buena parte de los grandes de Internet.  Casos como los de Facebook o Google[61], recurrentemente enfrentados a la Comisión y el parlamento europeo al entrar en conflicto con las legislaciones nacionales y comunitarias sobre la protección de datos personales, no hacen más que apuntar la dirección que se está tomando en la catalogación ciudadana y el su seguimiento[62]. Todo esto no ha sido posible sin una expansión de los medios de comunicación masivos hasta una escala global en la que, mientras se posibilita el acceso a una información constante[63], se asiste a una sobresaturación de esta hasta la conversión del ciudadano en consumidor[64]; en espectador pasivo que no pasa del clicktivismo[65]

          Una formula ya conocida como la de Mohaw Valley[66] o el «método científico para romper huelgas» que pasa por la transferencia de estados de opinión hacia conceptos vacíos de contenido real, a modo de eslogan generalista. Un trabajo de «ingeniería de consenso», en palabras de Chomsky, capaz del encubrimiento del objetivo real por la vía de la disgregación de la opinión y la fabricación de consensos artificiales.  Así, «bajo un aparente sosiego, todo indica, por contra, el esfuerzo del control social de este conjunto de recursos materiales y sociales de que dispone la sociedad para asegurarse la conformidad del comportamiento de sus miembros en un conjunto de reglas» que «en efecto, están instalando nuevos métodos de coacción más sutiles, más insidiosos y eficaces«. 

          Así podemos ver como la expansión de las comunicaciones ha sido desde sus comienzos empapada de medios de espionaje y control, en primer lugar desde los propios gobiernos y seguidamente desde el mundo de la gran empresa  que a la larga han establecido ciertas confluencias de intereses en detrimento de unas democracias cada vez más vaciadas de contenido.  Como veremos, las posteriores revelaciones acerca de los nuevos sistemas de espionaje global con los que arranca el nuevo siglo, especialmente a partir de la segunda década, donde grandes filtraciones podrán al descubierto la sofisticación y el alcance de la vigilancia global, nos ubicarán en un contexto aún mayor de intervención estatal. 

1.5 Ciencia, Universidades e Información

          Continuado con los precursores de la red como existe hoy en día, la primera red de ordenadores, ARPANET[67], iniciaría su andadura en 1969, con la ubicación de sus primeros cuatro nodos en la Universidad de California en Los Ángeles, El Standfor Research Institute, La Universidad de California en Santa Bárbara y la Universidad de Utah.  Esta red, estaba abierta a los miembros colaboradores con el Departamento de Defensa y pronto comenzarían a usarse para fines propios por parte de los científicos del proyecto, creando incluso una red de mensajes para aficionados a la ciencia ficción[68], rasgo singular que heredarían futuras redes: la imposibilidad de diferenciar entre comunicaciones militares, científicas y personales. En 1983, esta situación levaría a la escisión entre ARPANET, dedicada ya a fines científicos, y MILNET, exclusivamente dedicada a asuntos militares.

          La Nacional Science Foundation, también comenzaría a desarrollar en los años ochenta otra red científica, CSNET y, en cooperación con IBM, otra red de disciplinas no científicas, denominada BITNET. A pesar de esa variabilidad, todas las redes usaban el backbone (red troncal de interconexiones) de ARPANET, y todavía a lo largo de toda esa década la red de redes sería denominada ARPANET-INTERNET y mantenida aun, en su estructura fundamental, por el Departamento de Defensa y gestionado por la National Science Foundation, que la mantendría operativa hasta febrero de 1990, momento en que esta última lanzaría de forma autónoma el proyecto NSFNET (National Science Foundations Network) y MILNET comenzaría a funcionar por separado. Sin embargo, NSFNET solo estaría operativa como red durante cinco años, tras los cuales, bajo a presión de diversas entidades privadas, que mantenían sus redes, y otras no lucrativas para integrarse todas ellas en una gran red descentralizada con las características básicas de lo que hoy conocemos como Internet, a partir de diferentes proveedores de servicios (ISP) que conectan entre sí a los nodos de interconexión a las diversas redes y servicios integrados. Esto dejaría a la red de redes sin ningún tipo de dirección centralizada, lo que en ciertos aspectos podría suponer un problema, por ejemplo a la hora de establecer cómo se establecen los nombres y direcciones concretas a los que dirigirse, después de la creación de los protocolos OSI, para la estandarización, mediante diversas capas y niveles, de las formas de interconexión.

La primera infraestructura internacional de la red

           En enero de 1992, la Nacional Science Foundation tomaría la iniciativa al impulsar la Internet Society, fundación sin ánimo de lucro que agruparía a las organizaciones coordinadoras que se habían gestado hasta el momento, la Internet Activity Board y la Internet Engineering Task Force, para principalmente coordinar a nivel internacional la asignación de dominios de Internet, asunto muy polémico que aún sigue dividiendo a las naciones hasta el punto crítico de la  Cumbre Mundial sobre la Sociedad de la Información (CMSI), de noviembre de 2005, celebrado precisamente en Túnez( país que no destaca por la apertura de sus redes o el acceso libre a la información)[69], donde se abrió la posibilidad de volver a disgregarse.

           En 1998, la creación de la ICCAN/IANA (Internet Corporation for Assigned Names and Numbers)[70], pretendía resolver los problemas en la asignación de nombres y direcciones. Sin embargo, su gestión no deja de ser polémica hoy en día, solo hay que observar su vertiginoso calendario de reuniones[71], sobre todo porque, a pesar de ser una fundación sin ánimo de lucro dedicada a organizar y gestionar una serie de nodos, no deja de ser a todas luces tendenciosa tanto su gestión como la distribución de estos. De hecho, la ICANN está constituida como una sociedad de derecho, radicada en California, por tanto bajo su jurisdicción legal y en última instancia, dependiente del Departamento de Comercio de EEUU. Su base de datos está controlada por otra entidad denominada VeriSign[72], otra empresa californiana que gestiona certificados y accesos seguros y validados a diversas webs de comunicación cifrada (la mayor parte de las https de bancos y otras empresas).

           Los trece nodos centrales de ICANN, controlados por servidores denominados «servidores raíces», están instalados en Estados Unidos (cuatro en California y seis cerca de Washington), en Europa (Estocolmo y Londres) y en Japón (Tokio). EEUU hasta el momento, se ha cerrado al debate sobre la apertura que reclaman otros países, bajo el argumentario de la defensa frente a ataques terroristas, impedir la censura o no caer en la burocracia[73] . Hasta el momento actual, todas las tentativas de crear un foro sobre el gobierno de Internet han caído en prácticas dilatorias y declaraciones de intenciones vacías de contenidos.

Definiendo las bases de comunicación

           Los protocolos que usara en sus comienzos ARPANET, pasaban por conexiones de 56.000 bits por segundo. En 1987, la mejora en infraestructuras físicas lograba alcanzar los 1,5 millones de bits por segundo y la NSFNET funcionaba en 1992 a 45 millones de bits/seg., capacidad suficiente para posibilitar el envío de 5000 páginas por segundo. Sin embargo, el principal cuello de botella se encontraba en la capacidad de los diversos ordenadores de poder intercomunicarse entre sí, en un lenguaje común, adaptado al envío y recepción de paquetes decodificables. En 1973, Víctor Cerf y Robert Kahn, científicos informáticos que investigaban en ARPA, diseñarían los que llegaría a ser la futura infraestructura de Internet, basándose en los trabajos iniciados por el segundo en su empresa de investigación, la BBN. Con tal fin, convocarían una reunión en Standford a la que asistieron investigadores del ARPA, diversas universidades y centros de investigación, entre los que destacaba el PARC/Xerox, donde los trabajos de otro destacado científico, Robert Metcalfe acabará por conformar el protocolo de las actuales redes de área local (LAN).

           La cooperación que se puso en marcha incluía, asimismo, otros centros europeos, entre los que destacaban los franceses del grupo Cyclades. Sobre las bases de este seminario, Cef, Metcalfe y Gerard Lelann (de Cyclades) conformarían las especificaciones del protocolo TCP (Protocolo de Control de Transmisión), ajustado a los requisitos descritos por los diferentes investigadores del seminario y las características de las redes existentes en ese momento. En 1978, Cerf, Postel (de la UCLA) y Cohen, continúan desarrollando este concepto nuevo de puerto, como mecanismo de transmisión diferenciada de información entre ordenadores, dividiendo el protocolo en dos segmentos, que a partir de ese momento serían llamados TCP/IP (Protocolo de Control de Transmisión/ Protocolo de Internet), dedicado por una parte al ordenador principal, denominado Host y la otra al ordenador final con su intérprete. Este sufriría aun una serie de modificaciones para ajustarse de forma casi universal a las redes y conexiones posibles hasta estabilizarse en la versión TCP/IP v4, estándar de comunicación desde entonces, al asumir dentro de este el estándar europeo x.25, que amenazaba con ser un formato diferente y no compatible. De hecho, su flexibilidad y la capacidad de crecer y ser escalado sin problema, llevaría pronto a la migración completa de ARPANET en enero de 1983 a este protocolo, siguiendo la estela de los que había hecho en Departamento de Defensa de los Estados Unidos al declarar al protocolo TCP/IP el estándar para las comunicaciones entre redes militares, en marzo de 1982.

           Todas estas acciones, acelerarán la convergencia tecnológica, al lograr estándares comunes sobre los que todos pudieran basarse a la hora de establecer comunicaciones o diseñar y emplear diversas aplicaciones en red, siendo el soporte efectivo aun de muchas de las aplicaciones más populares de Internet[74]. Todavía una adaptación final del sistema operativo UNIX, creado por los laboratorios Bell en 1969 y base casi universal de la informática del momento, sería necesaria. Esta, financiada de nuevo por ARPA, y llevada a cabo por desarrolladores de la universidad de Berkley, se llevaría a término en 1983 y se distribuiría a precio de distribución, al haberse elaborado con fondos públicos.

          La confluencia de medios que encontramos hoy en día en la red parte en buena medida de dichas especificaciones de base. Recientemente el protocolo HTML5 ha sido rediseñado para adaptarse a las nuevas tecnologías convergentes, entre las que destacan la integración de vídeo o la aceleración integrada en el navegador. El W3 Consortium[75], es la organización encargada de fijar los parámetros básicos de dicho lenguaje de programación que es de hecho el estándar web a día de hoy. La definición de estos parámetros no ha dejado al margen la polémica, al permitir la inclusión de DRM (gestión de bloqueos de derechos de autor) dentro de dicho código, aunque tales detalles se explicaran más adelante, adelantamos que esta visión favorable a los grandes negocios en la red constituirá parte del problema y las resistencias que mas adelante se desarrollen.

1.6 Hackers e investigación independiente

          El debate sobre la definición de Hacker, en su traslado al castellano no está exento de polémica. La propia definición de este en el diccionario de la RAE[76] es tan confuso como falto de apego a una realidad concreta que es actualidad hoy en día y forma parte del propio origen y desarrollo de Internet.  La definición tendenciosa que los asimila a «piratas informáticos»[77] algo bien alejado de una realidad en la que los expertos en seguridad informática, que deben tener amplios conocimientos técnicos y del arsenal de hacking para realizar su labor. Asociarlos a prácticas oscuras revela una falta de adecuación a una realidad que no es nueva. La reacción a este caso puntual por parte de la comunidad hispana, llevó incluso a una campaña en Change.org[78] para que se modificara esa definición[79], obteniendo la colaboración de personajes tan renombraados como Richard Stallman[80].

          Los expertos en seguridad deben conocer los instrumentos de análisis y explotación de redes e infraestructuras[81]. Con ello, reconocen un conocimiento avanzado de técnicas de hacking que al igual que otros instrumentos o herramientas pueden ser utilizados con muchos fines y que por ello no significa que estén diseñados para el empleo por parte de «malhechores». El Hacking ético, es la manera en la que se define la búsqueda de conocimiento y la exploración de debilidades y fallos, no para ser explotados sino para poner en conocimiento y mejorar los sistemas.  La definición en habla anglosajona atina mucho más al definir tres tipos de actividad Hacker[82]: La White Hat (sombrero blanco), que bajo ningún concepto hace uso de los conocimientos y descubrimientos que adquiere durante su actividad; una definición en la que suelen encajar los, peritos informáticos, Pentesters (especialistas en la búsqueda de vulnerabilidades de sistemas) y profesionales de la seguridad en general. Los Black Hat son el punto contrario, que buscan y explotan fallos para poner en peligro sistemas, tareas de espionaje, robos de identidad y cometer delitos en general. El punto intermedio es el denominado Grey Hat, muy vinculado al denominado «hactivismo» (activismo que hace uso de herramientas de hacking). Casos como los ataques a ciertas compañías, organizaciones y gobiernos por parte de comunidades de usuarios y grupos bajo el nombre de Anonymous, Lulzsec y otros, muchos de ellos surgidos a raíz de comunidades de usuarios como 4Chan[83], son ejemplo de ello. Entre sus acciones son típicos los ataques DDoS (denegación de servicio mediante el bombardeo de peticiones a un servidor hasta su saturación) o la suplantación y cambio de contenido de ciertas páginas a modo de protesta.

          La definición del afamado creador de una de las páginas más reputadas de habla inglesa BoingBoing y escritor Cory Doctorow[84], es muy acertada al hablar de «pioneros digitales» que buscan el conocimiento por encima de restricciones poco ajustadas a la realidad. Lo cierto es que esta subcultura, surgida alrededor de unas técnicas, ha adquirido un peso considerable en la creación de Internet y su intervención es uno de los pilares que ha condicionado la forma en la que sistemas y redes se integran en la actualidad[85]  . En más de una ocasión, nos encontraremos a lo largo de nuestro estudio con la reacción de la comunidad, cada vez más en sincronía con el activismo cívico, que ha comenzado a ser consciente del papel preponderante que las comunicaciones tienen en la defensa de derechos y libertades y el peligro real que existe de supresión de estas de forma no reconocida democráticamente por parte de unos estados cada vez más identificados con las prácticas lobistas que no deja de ser una forma sutil de definir legalmente la corrupción a gran escala[86] .

          Uno de los principios de la cultura «Hacker», aceptando el término que la propia comunidad de expertos ha venido a bien adoptar, es la puesta en común de sus investigaciones, el sentido colectivo, en cierto modo emparentado con una ética libertaria. Dos de sus figuras claves Richard Stallman[87] y Linus Torvalds, creadores de GNU (lo que hoy se entiende de forma simplificada como Software Libre) y del núcleo del sistema operativo Linux, respectivamente, han sido desde el principio claves en la difusión de esta óptica. En concreto Stallman, ha jugado un papel preponderante en la extensión de códigos abiertos en la programación, confrontando con el software privativo y comercial, cerrado e imposible, por tanto de ser mejorado y evaluado por la comunidad de informáticos, es decir, se trata de lo contrapuesto a una programación transparente y de libre acceso. El debate es bien extenso y abarca lo que explicaremos en sucesivos capítulos a propósito de derechos de autoría, propiedad intelectual y el papel de las patentes y el concepto de «propiedad» en la era de la información[88].

El hacking como investigación y mejora de las formas de comunicarse en la red

          A partir de la puesta en marcha de los medios para comunicarse y extender una red abierta y extensa de dispositivos informáticos , se produciría una interconexión a gran escala de redes y centros diversos, acelerando aún más el proceso de convergencia de aplicaciones y aunando investigaciones entre equipos cada vez más remotos. De hecho, los propios científicos protagonistas de estas investigaciones serían los primeros en ir migrando entre diversos centros y creando un ambiente de colaboración general en el que el flujo de ideas y cocimientos era una constante. Sin embargo, como hemos adelantado más arriba, junto con el pilar científico y militar, básicos a la hora de sentar la estructura fundamental de la red, se encuentra el de los propios usuarios o hackers, término que ha sufrido una curiosa deriva desde sus orígenes, como definición de la excelencia en el conocimiento, a una interpretación menos benigna que no deja de ser en muchos casos tendenciosa, que aportarían grandes innovaciones a esta red recién creadas. De hecho, esta nueva red en auge de principios de los ochenta no sería la misma sin la aportación y las implementaciones de usuarios desinteresados. Uno de los casos singulares más destacados sería el del correo electrónico, cuyo uso, a pesar de experimentos anteriores de escritura sobre servidores en tiempo compartido, forma primigenia de mantener e intercambiar informaciones direccionales, sería introducido por Ray Tomlinson, que buscaba una forma más directa de envío de información entre ordenadores contra destinatarios concretos y no sobre directorios de acceso compartido. Para tal fin, desarrollaría un par de aplicaciones de envío y recepción de mensajes. También empleó la arroba (@) para separar el nombre del usuario del servidor que aloja el programa de recepción de correo, eligiendo este carácter por ser el único término ausente de todos los apellidos y nombres. En poco tiempo, el correo electrónico pasaría a ser la aplicación más empleada en Internet, llegando a ser una de las formas de comunicación actuales más empleadas y de mayor implantación, paralela a la propia red[89] .

            Otro gran fruto de esta nueva contracultura de la red, los hackers, sería la invención del módem. En 1978, dos estudiantes de Chicago, Ward Christensen y Randy Suess, idearon la forma de enviarse y transferir información desde sus ordenadores personales domésticos durante el frío inverno de esta zona estadounidense, mediante un sistema que usara la línea de teléfono para acceder a las redes a las que en aquel momento solo algunas instituciones estaban conectadas. De hecho, el término módem (Modular/Desmodular), proviene de su función codificadora de datos a través de pulsos pasados a digital a través de una línea analógica y el proceso inverso por parte de la unidad receptora. En 1979, habían desarrollado el protocolo Módem, que permitía a los ordenadores la conexión y transferencia de archivos sin pasar por ningún servidor central y, lo que aún será más importante, difundirían el código fuente y las especificaciones de forma gratuita, lo que significaría la gran expansión de esta tecnología entre los ordenadores que hasta el momento se encontraban excluidos de las grandes redes corporativas o institucionales. Al poco, tres estudiantes de la Duke University y de la Universidad de Carolina del Norte, ambas no incluidas aun en ARPANET, crearían una versión modificada de los protocolos del sistema operativo UNIX para conectar ordenadores entre sí, empleando la red telefónica convencional.

           A partir de estas posibilidades de conexión universalizada, entre los poseedores de la tecnología y los conocimientos, se crearía un foro de discusión en línea (on line– a través de la red) sobre temas informáticos en principio denominado Usenet, primer sistema de comunicación entre internautas a gran escala. Los inventores del Usenet News, también permitirían el uso libre de su código, distribuido en una conferencia sobre Unix.

           Aprovechando el potencial de las BBS (Bulletin Board System –Sistema de tablón de anuncios) ya preexistentes, aunque integradas, en principio, en el sistema de las grandes redes dependiente de un servidor centralizado, Tom Jennings diseñaría en 1983, un sistema para envío de boletines de anuncios a través de Internet empelando un software específico diseñado para aprovechar el potencial del mecanismo de los módems. Esta nueva interfaz, daría origen a una de las redes más populares a lo largo de toda la década, Fidonet[90], ya que integraba las posibilidades de estas BBS de forma automática, simplificando el proceso de acceso. Al ser una red barata y abierta, se convertiría en una de las más populares, agrupando en 1990, 2.500 ordenadores solo en EEUU, y extendiéndose por todo el mundo[91], hasta que, el surgimiento de la World Wide Web (la red de hoy en día), mucho más dotada tecnológicamente, la fuera desplazando.

           Las primeras grandes comunidades virtuales surgirían al calor de estas aplicaciones concretas, desarrolladas por los propios usuarios, al margen o paralelamente a las investigaciones militares o académicas y puestas en común, en la mayor parte de los casos, en toda la colectividad. Estas redes, al margen de la Internet general, llegarían a suponer en su conjunto, al calor del progresivo abaratamiento de costes y la cada vez mayor integración de ordenadores en el ámbito académico, que inducía la adquisición de uno personal a los estudiantes, la red mayoritaria en cuanto a terminales y personas conectadas. A pesar de este éxito inicial, progresivamente irían decayendo en favor de servicios conectados directamente en la red global y como sucede de manera recurrente en los servicios más populares, terminarían en desuso. 

           Como hemos visto, ya desde sus orígenes el mundo y la ética hacker han formado parte sustancial de la gestación de las primeras formas de red que se formaran desde antes de la gran expansión de Internet.  Una de las tesis principales del presente trabajo será rastrear la importancia no reconocida que la capacidad de trabajo de comunidades de desarrolladores y activistas ha tenido en la manera en la que conocemos hoy en día Internet. La implementación de diferentes bloques no siempre unívocos es lo que hoy en día configura esta red.

1.7 La Gran Red Mundial- World Wide Web

          El nivel de penetración en la red de la población mundial[92] especialmente en estados de corte occidental[93] ha conseguido hoy en día unos niveles que hacen pensar en una sociedad cada vez más conectada. Internet está llegando a todas partes[94]. y no es un fenómeno nuevo, aunque su extensión crece de forma exponencial ya no se puede afirmar que sea un proceso para valorar como hecho periodístico sino que forma parte de los últimos tiempos de nuestra historia reciente[95]. El mundo actual no se puede comprender sin el impacto de las redes y estas tampoco sin saber cuáles han sido los agentes que han intervenido en su configuración[96] .

          Continuando con el hilo de los cambios y las entidades y personas que iniciaron el agregado de recursos y especificaciones que componen hoy la red mundial llegamos al momento en el que se define finalmente. Hasta este momento, hemos visto como se había establecido los niveles de enlace entre máquinas pero la proliferación de redes alternativas, con su diversidad de protocolos y normas de acceso, aisladas de hecho entre sí, hacía que hasta el momento no resultara del todo fácil, para el profano en temas informáticos, llegar a conectarse o integrarse desde casa a una de esas redes, que también arrastraban ciertas limitaciones en cuanto a la cantidad de datos transmisibles o la capacidad de transmitir lo que no fuera texto plano. Así, las redes que se habían configurado hasta el momento no habían podido dar el salto al usuario doméstico o la pequeña empresa.

            El siguiente salto tecnológico se daría en Europa, en el CERN (Conseil Européen pour la Recherche Nucléaire- Consejo Europeo para la Investigación Nuclear)[97] . Efectivamente, con la tentativa de poder gestionar mejor la información disponible mediante una interfaz informática y basándose en los conocimientos preexistentes sobre el hipertexto, Tim Berners-Lee y Robert Cailliau, ambos investigadores del centro, diseñarían el HTML ( HyperText Markup Language -Lenguaje de Marcas de Hipertexto), conjunto de instrucciones para el diseño accesible de documentación. Asimismo, diseñarían el primer Navegador (intérprete de estos hipertextos), con la idea de diseñar un formato de libre disposición de la información de manera horizontal. En su diseño, se habían inspirado más en los diseños autónomos de las redes informales que en los oficiales de ARPANET, lo que era posible dado que el HTML formateaba el documento a partir de los protocolos TCP/IP, independientemente de la máquina en cuestión. Para poder interpretar estos documentos alojados en diversos servidores o repositorios, colaborarían también en el estándar  HTTP (HyperText Transfer Protocol– Protocolo de Transferencia de Hipertexto)[98]       En conjunción a todo lo anterior, para saber direccionar la ubicación de los documentos y resolver su dirección específica, crearían un formato estandarizado de resolución de direcciones denominado URL (Uniform Resource Locator- Localizador Uniforme de recursos), a través del cual poder encaminar las peticiones de documentos HTML concretos, ofreciendo en un conjunto el protocolo y la ubicación concreta del recurso deseado. Con todo ello, crearían la World Wide Web (Gran Red Mundial), dado que, al ser por un lado la forma más simple y capacitada de resolución y gestión de protocolos y ser un estándar abierto, que el CERN distribuiría libremente a través de Internet, pasaría a ser la base de todo Internet futuro, al que las otras redes pronto se sumarían para convertirse en el primer formato de intercomunicación informático mundial. El primer servidor Web sería puesto en línea el 6 de agosto de 1991. Para aquel entonces, el CERN era ya el principal servidor de contenidos de Europa, con una catalogación por temas y no por dispositivos físicos donde se ubican realmente dichas informaciones, dotado, por tanto de un sistema más eficaz de consulta y una forma por primera vez «virtual» de gestionar estos. Los primeros sites (sitios o servidores de contenido) comenzarían inmediatamente a incorporar esos protocolos y formatos para mantener su información, sobre todo los grandes centros de investigación científica.

           Las bases de la red mundial ya estaban fijadas, establecidas bajo unos principios de código abierto, al margen de estándares patentados o propietarios y por tanto con la posibilidad de ser modificados o investigados abiertamente para poder implementar cualquier mejora. Precisamente esta motivación, sería la que impulsara a un joven becario de la NCSA (National Center for Supercomputer Aplications), Marc Andreessen, a buscar una forma de explorar la red mediante una interfaz gráfica, que empleara el ratón ,en lugar del modo texto, empleando la  consola con una serie de comandos prefijados como se accedía hasta entonces[99]. Con este fin, crearía Mosaic, el primer gran navegador con capacidades gráficas, que sería distribuido gratuitamente a través de la página de la NCSA desde noviembre de 1993, convirtiéndose de forma rápida en el navegador principal de toda la comunidad y contribuyendo, por su facilidad de uso respecto a los formatos anteriores, en uno de los grandes difusores de la World Wide Web. Justo después de su graduación, en 1994, Jim Clark, otro de los nombres claves en la producción de software libre y dueño por aquel entonces de Sillicon Grafics (una de las compañías claves en la elaboración de sistemas de modelado gráfico para ordenadores), le propondría crear una nueva empresa que denominarían Netscape Communications Inc. Netscape sería su producto estrella y durante mucho tiempo prácticamente el navegador que monopolizaría el 90% de los ordenadores que accedían a Internet. A partir de esto, la historia de este navegador en bien conocida por el público y una de las primeras grandes causas contra Microsoft[100]. Efectivamente, esta compañía reconocería pronto el posible potencial que los navegadores y las redes en general tenían en el futuro de la informática y en una de esas historias truculentas que tanto han caracterizado a muchas de estas empresas, y a Microsoft especialmente, se harían con el código fuente de Mosaic, para adquirir su licencia y elaborar en un desarrollo propio, denominado Internet Explorer, que incorporaría a su sistema operativo hasta terminar por copar el mercado anterior de Netscape, que finalmente, una vez desalojado del mercado en la práctica,  sería vendido al proveedor de contenidos AOL[101]. Con los años, el código liberado de éste pasaría a una fundación creada alrededor de un nuevo proyecto denominado Mozilla, cuyo producto estrella será el navegador Firefox.

          El caso antimonopolio de Microsoft (el primero de ellos) será seguido con gran interés por la prensa mundial y empresas del sector. La apuesta de Microsoft fue la de erradicar la competencia mientras hacía una potente campaña de imagen por parte de su fundador y CEO, Bill Gates, entre la que destaca la creación de la fundación Bill y Melinda Gates, que destina cantidades millonarias a diferentes proyectos benéficos. En el segundo Bloque del presente trabajo trataremos sobre los diversos frentes legales de la compañía y el papel de esta y otras grandes de la primera fase de expansión de la red en situaciones de monopolio[102].

1.8 Sistemas operativos y Red

           El último pilar para que la informática personal se popularizara y estos nuevos estándares de redes, ya fijados a principios de los noventa, se pudieran extender entre un público que transcendiera el ámbito académico o ligazón a usuarios de informática relativamente expertos sería el de los sistemas operativos y el subsiguiente software sobre el que hacer uso de las nuevas máquinas y sus accesos. Como ya resumiéramos antes, Unix era un sistema realmente caro para usuarios finales y estaba quedando circunscrito al ámbito académico y empresarial, mientras que los sistemas operativos de Apple mantenían una restricción en cuanto a que solo era posible hacerlos funcionar en su hardware propietario, ligando este a la propia máquina en la que corre. El terreno estaba quedando por tanto, expedito para el mercado de las máquinas clónicas corriendo sobre un sistema operativo que pronto se demostraría de facilidad de uso similar al Mac (Apple Macintosh) y lo que es más importante aún para su difusión definitiva, de fácil copia para los usuarios finales[103]. De hecho, es a partir de esa práctica de universalización de copias del ordenador de IBM y de copias (en muchos casos) del sistema operativo de Microsoft, en sus diversas versiones para usuarios finales, todas ellas sobre la base de MS-DOS, es decir su sistema de consola, a la que se superponían las sucesivas versiones de Windows, con su capa de modo gráfico GUI (Graphic User Interface) que, traída como remedo de la de Apple, sería la base definitiva de su popularidad[104]. Una de las claves del éxito del modelo Wintel (Sistema operativo Windows sobre procesadores Intel o compatibles) ha residido tanto en el abaratamiento de la una producción deslocalizada, con preeminencia de China, como en la capacidad de distribución del software de forma no controlada[105].

           Para servidores y empresas continuaría usándose sistemas propietarios de red, sobre todo basados en la robusta arquitectura de UNIX y sus derivaciones (como Sun Solaris en Bases de datos), donde las versiones profesionales de Windows (NT, 2000, 2003 o 2008) mantendrán cuotas de mercado más reducidas, a pesar de la estrategia de la compañía desde principio, los grandes servidores corporativos irán progresivamente apostando por alternativas de software libre (GNU)[106], especialmente entre algunas que ofrecen soporte profesional como Reh Hat o Suse Linux.

El beneficio comercial de la llamada piratería de Software

          Efectivamente, las copias «piratas» (sin licencia) del sistema operativo de Microsoft, así como de su paquete de  software ofimático «office«, que en principio fuera marginal frente a alternativas como WordPerfect o StarOffice, conseguirían copar el mercado de este tipo de máquinas a precios muy reducidos respecto a la competencia[107]. Aunque no declarada, siempre ha existido una posición ambigua al respecto[108]. Si bien es cierto que el objetivo de la compañía en diversas campañas contra las copias no licenciadas de sus aplicaciones y Sistemas operativos estaban orientadas a la gran empresa y la administración pública, con diversos y recurrentes acuerdos con estas últimas para la implantación de sus servicios, no existió un sistema de control de copias para usuarios domésticos, más allá de ciertas notificaciones en las versiones más recientes muy fáciles de remover y popularmente muy extendidas. De hecho, la estrategia OEM, incluyendo en equipos nuevos una versión del Sistema Operativo vinculada exclusivamente a estos, se ofrecía dentro del precio para grandes distribuidores que en la mayor parte de las ocasiones continuaban ofreciendo el producto al cliente final con la opción de venta sin sistema operativo, lo que nos confirma que no se trazó una estrategia contra el usuario doméstico. Una vez acostumbrado en un ámbito al uso de un software, el usuario medio resulta acomodaticio, por lo que busca tener el mismo software en todas las máquinas que emplea. Los descuentos del paquete Office para estudiantes, abundan en esta óptica: Acostumbrar a un uso para que luego, en la empresa, resulte complejo tratar de instalar alternativas. Aún hoy en día, tras el desarrollo de paquetes de código abierto (Open Source) Como OpenOffice[109] o el más reciente LibreOffice[110], que de hecho son en la práctica iguales al paquete de Microsoft, la mayor parte de la comunidad de usuarios sigue optando por emplear versiones no licenciadas de este último.

           Dicha laxitud, vino acrecentada por la nueva tendencia hacia el empleo de equipos portátiles, en donde comenzaría a disputarse el terreno de nuevo, sobre todo por los equipos de Apple en el mercado de estadounidense.  Contra esa tendencia hacía una marca, los fabricantes optarían por recuperar la anterior estrategia de equipos a menor coste frente a los iDevices (equipos de la marca Apple) que cuentan con un precio que le permite a la compañía unos mayores márgenes.

           Para un productor de software cualquiera y especialmente para Microsoft, tan vinculado a los fabricantes de equipos, sobre todo cuando enfrente tiene un entorno cerrado de equipo y software, como es todo el ecosistema creado por Apple, en el que sistema operativo, navegador, paquete ofimático e incluso herramientas de edición avanzada de fotografía y vídeo, son ofrecidas de una vez con la compra del equipo, lo que significa en la práctica una barrera muy compleja para introducir sus productos, la estrategia debe adaptarse a los nuevos tiempos.

          Que la estrategia de la compañía cambia de enfoque lo confirma el propio Satya Nadella[111], CEO de Microsoft, desde 2014, cuando apunta que la compañía siempre ha ofrecido el modelo Fremium (modelo gratuito con limitaciones) gracias a la piratería. Una situación que ya era un lugar común entre consejos de administración de la compañía, como revelara en 2007 uno de sus directivos. La constante ha sido en este sentido la anulación de la competencia mediante prácticas monopolistas[112] o de adquisición de innovaciones antes de que se extiendan[113]. El mercado de adquisiciones de las grandes de Internet, como se verá más adelante, se ha convertido en un agregado en el que casi no quedan resquicios para el negocio independiente, más allá de la expectativa de entrar en el mercado de adquisiciones tras un lanzamiento sin modelo real de negocio, como han sido los casos de YouTube, Skype o WhatsApp por nombrar los más destacados. 

Internet se hace móvil

          Por otro lado, Apple también abre un frente nuevo en la navegación, adelantándose a los nuevos tiempos en los que la movilidad y la versatilidad entre diversos equipos junto con una capacidad de acceso cada vez mayor a la red imponen nuevas pautas de navegación. La aparición del iPhone, en esencia una evolución estéticamente mejorada del PocketPC, que propiciaba Microsoft junto con Intel y de las anteriores Palm, y más adelante el iPad, una tableta que depuraba la idea del UMPC (Ultra Mobile PC) entre otras, dejaba a las marcas tradicionales, muy vinculadas a las pautas de Microsoft, totalmente fuera de mercado. De nuevo grandes empresas del sector móvil, verán como sus sistemas operativos, excesivamente rígidos y controlados, entran en crisis como el caso de Symbian, perteneciente a Nokia, que será definitivamente abandonado y lastrará las ventas del líder del sector del momento hasta la práctica insignificancia y su final adquisición, precisamente por Microsoft. Las agendas electrónicas de Palm y su sistema operativo PalmOs, llevaban activos desde 1996 y tenían cierto impacto en entornes empresariales. Más adelante Blackberry, retomaría la idea integrándola con una movilidad incipiente. Aun así, todos estos entornos ofrecían un escaso atractivo por diversos motivos para convertirse en un dispositivo convergente, en el que, aparatos portátiles para audición de música (incluso vídeo), telefonía, comunicación, agenda y ocio en general pudieran presentarse en un único dispositivo de bolsillo.  Los tímidos intentos de los Pocket Pc, chocarían con la barrera de un sistema operativo no suficientemente cuidado por parte de Microsoft, demasiado cerrado y que no avanzaba al ritmo de las comunidades de desarrolladores que al encontrarse con un software privativo, ofrecían muchas de sus soluciones como hacks (a modo de truco no oficial) de sistema o versiones underground, fuera del reconocimiento legal y por tanto muy minoritarias.

           Como vemos, ninguna innovación resultaría sustancial pero si la presentación y el momento de unir todas ellas en una solución convergente. Tras el intento fallido de un teléfono capaz de emplear iTunes (la plataforma de sincronización de contenidos de Apple), en colaboración con Motorola en 2005, se insistió en un dispositivo convergente totalmente controlado por la compañía.  La presentación del iPhone en enero de 2007, tendrá un gran impacto entre un sector tecnológico que como hemos apuntado no estaba avanzando lo suficiente respecto a las posibilidades que podía ofrecer un producto de estas características. La creación de una necesidad de consumo, junto con una presentación del producto impecable, proyectaron los niveles de ventas del dispositivo a cifras no alcanzadas por otros dispositivos con conexión a Internet. La  capacidad de soportar aplicaciones desarrolladas por terceros, tras su pertinente aprobación y la comisión de ventas por parte de la compañía de la manzana, así como una producción masiva en colaboración con diferentes factorías de ensamblado ubicadas en China, no exentas de polémicas como las reveladas por las condiciones de trabajo de las fábricas de FoxConn[114], crearían una hegemonía en el mercado de dispositivos inteligentes a la que no se respondería de forma adecuada hasta al menos un par de años después, con la tercera versión del sistema operativo móvil basado en Linux desarrollado por Google. 

          Efectivamente, no sería hasta que otra de las grandes compañías de Internet, Google, ofreciera a fabricantes la posibilidad de realizar dispositivos móviles con un sistema operativo de código abierto (aunque desarrollado en sus respectivas versiones por Google) que de nuevo aparecería una alternativa real a los productos propuestos por Apple. Auspiciado por la Open Handset Alliance[115], una fundación que agrupa a varias compañías tecnológicas, lideradas de forma indiscutible por Google, en pos de estándares abiertos para dispositivos móviles, el sistema operativo Android será la tabla de salvación de una serie de compañías que habían quedado fuera de mercado tras la implantación de iOs. La apuesta temprana de empresas como HTC, que lanzaría el primer dispositivo con este sistema operativo, el HTC Dream, o Samsung será la clave para plantear una alternativa clara al sistema de Apple. Tal es así que la reacción de esta compañía, arrastrada por el obcecamiento de su CEO, Steve Jobs, embarcará a Apple en una ofensiva jurídica por infracción de patentes que llegaría a límites esperpénticos, como el registro del uso de pantallas táctiles[116]. De hecho, la guerra de patentes desatada llevaría a varias compañías al registro de patentes cada vez más absurdas o de difícil defensa (como se verá en el bloque III del presente trabajo). Como curiosidad, en 2012 Samsung fabricaba más de un 60% de los componentes de los primeros iPhone, algunos de ellos tan esenciales como la propia pantalla o el procesador. 

            Como conclusión a este apartado, podemos señalar como la red de redes surge como un proceso en el que convergen agentes diferentes que no encajan con la imagen de mito fundacional que ciertamente es traída en múltiples ocasiones de jóvenes estudiantes que triunfan desde su garaje. El Internet actual es la confluencia del interés militar, primero producto de la guerra fría y que luego derivara a conceptos de «seguridad» y «lucha contra el terrorismo», el interés científico por investigar e implementar aplicaciones y el de agentes individuales y colectivos, en muchas ocasiones hackers y activistas del software libre, con objetivos diversos pero que dotaron a la red de su dimensión social colectiva y abierta que hoy conocemos.

          En palabras de Manuel Castells: «Fueron los hackers, generalmente universitarios, quienes desarrollaron Internet como red de comunicación informática global. Y fue la comunidad internauta la que se autogestionó, de forma diversa, a lo largo del tiempo, desde 1969, primer despliegue de Internet, hasta la constitución de ICANN en 2000. No hizo falta ni derecho de propiedad ni control burocrático para desarrollar la red de comunicación más potente de la historia. En realidad, fue la no existencia de esos controles lo que lo hizo posible»[117]. Sería efectivamente esta falta de controles, o la intencional imposibilidad de control, que no de vigilancia una de las características que hacen de la red de Internet uno de los medios de comunicación más libre que existe, dado que todas las comunicaciones pueden realizarse de forma completamente desintermediada. Esto no excluye que se esté dando una auténtica «guerra por el dominio de los recursos multimedia”, en palabras de Ignacio Ramonet[118]. Una guerra no siempre sutil, a través de cuyas aristas podemos deducir la profundidad de los cambios que implican y su incidencia social, como veremos en el siguiente capítulo.


[1]  Matterart, A .Historia de la sociedad de la información. Paidos: Barcelona. 2007

[2] Martín-Barbero, J. Tecnicidad, identidades, alteridades: desubicaciones y opacidades de la comunicación del nuevo siglo. En Sociedad Mediatizada. Gedisa. Barcelona.2007.

[3] McLuhan, M. La galaxia Guttember: génesis de homo tipographicus.Círculo de lectores, Barcelona. 1998.

[4] Óp. cit (2)

[5] Óp. Cit 1.

[6] . Augé, M. Sobre modernidad: del mundo tecnológico de hoy al desafío esencial del mañana. En Sociedad Mediatizada. Gedisa. Barcelona.2007

[7]  Kleim, N. La doctrina del Shock. El auge del capitalismo del desastre. Booket. Madrid. 2012

[8] Matterart, A .Historia de la sociedad de la información. Paidos: Barcelona. 2007.

[9]. Moore, G.E. “Progress in digital integrated electronics”, IEEE International Electron Devices Meeting, IEDM Technical Digest 1975, pp. 11-13

[10] http://www.computerhistory.org/semiconductor/timeline/1965-Moore.html

[11] http://www.computerhistory.org/semiconductor/timeline/1965-Moore.html

[12] Manuel Castells. La era de la información: economía, sociedad y cultura (Vol. 1): La sociedad red. Alianza editorial. Madrid. 2008

[13] http://www.codesandciphers.org.uk/lorenz/colossus.htm

[14]  Rojas, Raúl (1998). «How to make Zuse’s Z3 a universal computer»  IEEE Annals of the History of Computing (documento completo en: http://ieeexplore.ieee.org/search/wrapper.jsp?arnumber=707574#)

[15] . Manuel Castells. La era de la información: economía, sociedad y cultura (Vol. 1): La sociedad red. Alianza editorial. Madrid. 2008

[16]. Un buen análisis sobre la posición de mercado de cada

 tipo de ordenador podemos encontrarlo en: http://arstechnica.com/old/content/2005/12/total-share.ars/10.

[17] . Isaacson, W. Steve Jobs. Trinith & Banshee. NY. 2011

[18]18. http://es.globalvoicesonline.org/2015/05/21/iran-en-medio-del-debate-por-la-censura-inteligente-el-gobierno-afirma-que-facebook-permanecera-bloqueado/

[19] 19. Una extensa entrada de la Wikipedia trata sobre el caso particular de la censura en irán http://en.wikipedia.org/wiki/Internet_censorship_in_Iran

[20] 20. Sobre la censura y la maduración de ciudadana: El fin de la inocencia en la red: https://andradesfran.com/el-fin-de-la-inocencia-en-la-red/

[21] Manuel Castells. La galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Plaza & Janes. Barcelona. 2001

[22]  Manuel Castells. La era de la información: economía, sociedad y cultura (Vol. 1): La sociedad red. Alianza editorial. Madrid. 2008.

[23] Armand Matterart .Historia de la sociedad de la información. Paidos: Barcelona. 2007

[24] Marshal McLuhan. La galaxia Guttember: génesis de homo tipographicus.Círculo de lectores, Barcelona. 1998.

[25] Brockam, J. La tercera Cultura. Más allá de la revolución científica. Tusquets. Barcelona. 1996.

[26] Marc Augé. Sobremodernidad: del mundo tecnológico de hoy al desafío esencial del mañana. En Sociedad Mediatizada. Gedisa. Barcelona.2007.

[27] Jesús Martín-Barbero. Tecnicidad, identidades, alteridades: desubicaciones y opacidades de la comunicación del nuevo siglo. En Sociedad Mediatizada. Gedisa. Barcelona.2007

[28] . Ramonet, Ignacio. Pensamiento único y nuevos amos del mundo. Icaria. Barcelona. 2008

[29] Assange, J. Cypherpunks. La libertad y el futuro de internet. Deusto. Madrid. 2014.

[30] http://groups.csail.mit.edu/medg/people/psz/Licklider.html -1960

[31] Breve diagrama sobre las primeras redes http://www.computerhistory.org/internet_history/

[32] Mapas de la distribución de ARPANET por años http://som.csudh.edu/cis/lpress/history/arpamaps/

[33] Ramonet, Ignacio El control de Internet. En  Le Monde Diplomatique, 04/11/05

[34] Especificaciones del protocolo TCP/IP: http://www.rfc-es.org/rfc/rfc0793-es.txt

[35] Cronología de las comunicaciones y precursores del corro electrónico:

http://www.telecable.es/personales/carlosmg1/historia_correo.htm

[36] http://public.web.cern.ch/public/

[37] Especificaciones del HTTP del W3 consortium http://www.w3.org/Protocols/

[38]  Fidonet: http://www.fidonet.org/

[39] Fidonet España: http://www.fidospain.org/

[40] Matterland, A. ¿Hacia qué «Nuevo Orden Mundial de la Información»?. En Sociedad Mediatizada. Gedisa. Barcelona, 2007.

[41] Distribución de los nodos  servidores DNS raíz: http://norfipc.com/infografia/mapa-mundial-redes-conexion-internet.html

[42] Estos dominos son gestionados por una entidad estatal, dependiente del ministerio de Industria, que verifica la posesión de nombres comerciales. Este tipo de gestión sirve como filtro para las identidaddes empresariales, aunque también ha supuesto su cuestionamineto por parte de privados, que pueden ver cómo su labor puede ser tomada si su web coinicide con el nombre de algún organismo oficial que exija su posesión: http://www.dominios.es/dominios/

[43] Armand Matterart .Historia de la sociedad de la información. Paidos: Barcelona. 2007

[44] . Breve diagrama sobre las primeras redes http://www.computerhistory.org/internet_history/

[45] Mapas de la distribución de ARPANET por años http://som.csudh.edu/cis/lpress/history/arpamaps/

[46] Recopilación de informaciones sobre Echelon en castellano http://www.seprin.com/echelon.htm

[47] Otra compilación de datos sobre Echelon http://www.sindominio.net/metabolik/alephandria/txt/faq_echelon.htm

[48] VV.AA Echelon. La red de espionaje planetario. Melusina. Barcelona. 2007 

[49] Sobre el caso Airbus: http://news.bbc.co.uk/2/hi/europe/820758.stm

[50] Informe del parlamento europeo sobre Echelon: http://www.europarl.eu.int/tempcom/echelon/pdf/rapport_echelon_es.pdf

[51] Armand Matterart .Historia de la sociedad de la información. Paidos: Barcelona. 2007

[52] Un artículo muy interesante al respecto, publicado por el diario The New York Times:http://www.nytimes.com/2009/03/29/technology/29spy.html?_r=1&pagewanted=2&partner=rss&emc=rss%3Cbr%20%3E%3C/a%3E

[53] Padilla, M. El kit de la lucha en internet. Traficantes de sueños ed. Madrid. 2012 

[54] La EFF hizo un exaustivo seguimiento de la Patriot Act y su uso concreto: https://www.eff.org/es/issues/patriot-act

[55] Sobre la “caducidad” de la sección 215: https://www.eff.org/es/deeplinks/2015/01/section-215-patriot-act-expires-june-congress-ready

[56] Sobre CISPA: http://www.eldiario.es/turing/aprobacion-CISPA-legalizara-espionaje-ciudadano_0_122837866.html

[57] El uso poco adecuado de los centros de fusión de datos desataría la polémica en la prensa estadounidense: http://www.wired.com/2012/10/fusion-centers/

[58] Las peticiones cívicas para el cierre de estos centros será una campaña destacada de colectivos cívicos en EEUU a lo largo de 2012: https://www.eff.org/deeplinks/2012/10/new-senate-report-confirms-government-counterterrorism-centers-dont-stop

[59] Las revelaciones de E. Snowden sobre el espionaje masivo significará un punto de inflexión cuyas consecuencias todavía no han desarrollado todo su alcance: https://andradesfran.com/prism-el-escandalo-de-espionaje-ciudadano-masivo/

[60] Publicacion en el Boletión Oficial del Estado del sistema SITEL: http://www.boe.es/buscar/doc.php?id=BOE-B-2007-256021

[61] Al respecto, escribiría varios artículos en su momento, que abundan en el tema de la vigilancia cuidadana “paralegal”:  El avance de una videovigilancia y el análisis biométrico sin garantías ciudadanas: http://www.rebelion.org/noticia.php?id=170707

[62] Sin extender demasiado el tema, la pérdida paulatina del anonimato en nuestra sociedad es ya un hecho: Tu cara no es anónima https://andradesfran.com/tu-cara-no-es-anonima/ 

[63] Castells, M. La era de la información: economía, sociedad y cultura (Vol. 3): .Fin del milenio. Alianza editorial. Madrid. 2008

[64] Chomsky, Noam. El control de los medios de comunicación. Icaria. Barcelona. 2008.    

[65] Una de las primeras referencias al clicktivismo en castellano la encotramos en el Blog de Enrique Dans: http://www.enriquedans.com/2014/02/clicktivismo-disenando-respuestas-en-un-panorama-diferente.html 

[66] op cit.64

[67] Sobre la gestación de ARPANET: http://www.nsf.gov/news/special_reports/nsf-net/textonly/60s.jsp

[68] . Manuel Castells. La era de la información: economía, sociedad y cultura (Vol. 1): La sociedad red. Alianza editorial. Madrid. 2008

[69] Armand Matterart .Historia de la sociedad de la información. Paidos: Barcelona. 2007

[70] Para saber más sobre la organización de ICANN.: http://www.icann.org/tr/spanish.html  

[71] Los calendarios de ICANN han tenido un orden ascendente desde su creación, dadas las resistencias y conflictos que se han manifestado en su seno: 5. http://www.icann.org/en/general/calendar/

[72] La empresa VeriSign es uno de los puntos críticos de la red comercial: http://www.verisign.es /

[73] . Ramonet, I. El control de Internet. En Le Monde Diplomatique, 04/11/05

[74] Especificaciones del protocolo TCP/IP: http://www.rfc-es.org/rfc/rfc0793-es.txt

[75] . Estándar HTML5, del w3 consortium, trata de ser la base de desarrollo de la web actual: http://www.w3.org/TR/html5/

[76] La confusa y poco adeacuada denfinicion de hakcer que podemos encotrar en el RAE como “Pirata Informatico”:  http://www.rae.es/

[77] la definición de hacker en la RAE. http://lema.rae.es/dpd/srv/search?key=hacker

[78] Petición en internet para que se cambie la definición de hacker: https://www.change.org/p/real-academia-de-la-lengua-espa%C3%B1ola-que-cambien-la-definici%C3%B3n-de-hacker-como-pirata-inform%C3%A1tico

[79] La polémica con la definición de Hacker. http://www.europapress.es/portaltic/portalgeek/noticia-definicion-hacker-rae-provoca-fuerte-polemica-20141027161250.html

[80] . Respuesta de Richard Stallman a la RAE: http://www.elmundo.es/tecnologia/2014/10/27/544dea28ca474156028b456b.html

[81] . González Pérez, P. Ethical Hacking.0xWorld, Madrid. 2014

[82] Himanen, P.  La ética del hacker y el espíritu de la era de la información. Destino. Barcelona. 2004

[83] 4Chan es el foro anónimo que dio origen al termino Anonymous, dado que todos sus usuarios se muestran con tal nombre si no escriben voluntariamente otro y por tanto posibilitó un grado de libertad absoluto a la hora de propagar memes y acciones: http://www.4chan.org/ 

[84] Doctorow, C Little Brother. Disponible en http://craphound.com/littlebrother/download/

[85] Cory Doctorow: “En veinte años todos nuestros problemas estarán relacionados con Internet”: http://www.eldiario.es/catalunya/Cory-Doctorow-problemas-relacionados-Internet_0_392661817.html

[86]  Castells, M. La era de la información: economía, sociedad y cultura (Vol. 3): .Fin del milenio. Alianza editorial. Madrid. 2008

[87] Stallman, R. Software Libre para una sociedad libre. Traficantes de sueños Ed.  Madrid. 2013.   Edición electrónica:  http://www.traficantes.net/libros/software-libre-para-una-sociedad-libre

[88] . Stallman, R. y otros. Contra el Copyright.  Tumbona Ediciones. México. 2008. Edición electrónica: http://bibliotecalibre.org/handle/001/352

[89] Cronología de las comunicaciones y precursores del correo electrónico: http://www.telecable.es/personales/carlosmg1/historia_correo.htm

[90] 15. Fidonet http://www.fidonet.org/

[91] 16. Fidonet España http://www.fidospain.org/

[92] . UIT (ITU) datos sobre la penetración de Internet en el mundo en el periodo 2000-2015 https://www.itu.int/net/pressoffice/press_releases/2015/17-es.aspx

[93] Gráficas de acceso a Internet en Europa: http://epp.eurostat.ec.europa.eu/tgm/mapToolClosed.do?tab=map&init=1&plugin=1&language=en&pcode=tsiir040&toolbox=legend

[94] . Augé, M. Sobremodernidad: del mundo tecnológico de hoy al desafío esencial del mañana. En Sociedad Mediatizada. Gedisa. Barcelona.2007.

[95] Internet world stats. Estadísticas mundiales sobre Internet: http://www.internetworldstats.com/

[96] Página de la CIA sobre acceso a internet y otras tablas estadísticas: https://www.cia.gov/library/publications/the-world-factbook/rankorder/2153rank.html

[97] 6.El CERN ha sido uno de los nodos inciales de la investigación y extensión de la red de redes: http://public.web.cern.ch/public/

[98] Especificaciones del HTTP del W3 consortium http://www.w3.org/Protocols/

[99] Manuel Castells. La galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Plaza & Janes. Barcelona. 2001

[100] Castells, M. Innovación, libertad y poder en la era de la información. En Sociedad Mediatizada. Gedisa. Barcelona, 2007.

[101] Ramonet, Ignacio. Pensamiento único y nuevos amos del mundo. Icaria. Barcelona. 2008

[102] Dans, E. Todo va a cambiar. Deusto. Madrid. 2010

El profesor E. Dans en su libro Todo va a cambiar. Hace un extenso análisis de Microsoft y su posición dominante. En su capítulo 10 disponible en http://www.todovaacambiar.com/capitulo-10-un-caso-practico-microsoft

[103]

1. Gráficos sobre la evolución de microprocesadores

  • http://www.network-press.org/?que_es_microprocesador
  • http://www.intel.com/products/processor_number/chart/
  • http://www.youtube.com/watch?v=trBZXWIX8Zk&feature=related

[104] Metzner-Szigeth, A.: «El movimiento y la matriz» – Internet y transformación socio-cultural. En: Revista Iberoamericana de Ciencia, Tecnología, Sociedad e Innovación (CTS+I), No. 7, 2006

[105] Castells, M. La galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Plaza & Janes. Barcelona. 2001

[106] GNU, sobre las categorías de código abierto existentes: http://www.gnu.org/philosophy/categories.es.html#CopyleftedSoftware  

[107] La polémica sobre si beneficia la piratería a Microsoft ha sido ampliamente discutida y documentada en la red:http://www.enriquedans.com/2007/03/microsoft-y-la-pirateria.html

[108]  El ejecutivo de Microsoft, Jeff Raikes, aseguraría en 2007 que la piratería es buena para la compañía.http://www.informationweek.com/if-youre-going-to-steal-software-steal-from-us-microsoft-exec/d/d-id/1052865?cid=rssfeed_iwk_all

[109] Open Office surgiría bajo el auspicio de Oracle como como desarrollo libre en contraste con los paquetes ofimáticos de microsoft: https://www.openoffice.org/es/

[110] Tras una ardua polémica por parte de los desarrollladores de Open Office con Oracle, que pretendía mantener cierto tipo de control sobre un producto esencialmente libre, la mayor parte de los desarrolladores implicados en el poryecto migrarían a uno nuevo denominado LibreOffice:. https://es.libreoffice.org/

[111] Entrevista al actual CEO de Microsoft, Satya Nadela, donde afirma que su modelo gratuito ha sido siempre la copia pirata:http://www.cnbc.com/id/102101929#

[112] Sobre la competencia desleal de Microsoft se ha documentado ampliamente por muchos especialistas del sector: http://eparalosnegocios.blogspot.com.es/2010/10/caso-microsoft.html

[113] Primera sentencia, de 2002, contra Microsoft: http://www.justice.gov/atr/cases/f200400/200457.htm

[114] Extenso reportaje de  The New York Times sobre las consecuencias en coste humano del modelo de producción del iPhone y el iPad por parte de Apple: http://www.nytimes.com/2012/01/26/business/ieconomy-apples-ipad-and-the-human-costs-for-workers-in-china.html?_r=2&pagewanted=all

[115] La Open Handset Alliance: http://www.openhandsetalliance.com/

[116] El caso Apple vs samsung: https://www.evernote.com/shard/s43/nl/4889222/f5c04aec-1031-4385-8bb6-03ea4304be0f/?csrfBusterToken=U%3D4a9a86%3AP%3D%2F%3AE%3D14e0651055e%3AS%3Dc59cb45da5629c0ee1d22b602c62d462

[117] 3. Manuel Castells. La galaxia Internet. Reflexiones sobre Internet, empresa y sociedad. Plaza & Janes. Barcelona. 2001

[118] 16. Ramonet, Ignacio. Pensamiento único y nuevos amos del mundo. Icaria. Barcelona. 2008