Internet: Un ejemplo paradigmático de Innovación

Introducción: a modo de justificación.

La evolución de la tecnología puede interesar desde diversos puntos de vista. Uno de ellos es el de profesor-investigador que está en activo en el estudio y desarrollo de nuevos productos o nuevos procesos y se interesa por conocer el llamado “estado del arte” de su parcela y las tendencias para orientar su actividad concreta. Otro punto de vista es el del político o gestor de la innovación tecnológica a quien interesan los aspectos sociales, económicos y culturales que facilitan o dificultan los procesos de innovación tecnológica para proponer políticas que, lógicamente, tiendan a facilitar dichos procesos.

En mi caso personal, hace ya bastantes años que pasé por la fase de profesor-investigador activo para dedicarme en distintos puestos y con diferentes responsabilidades a tareas de gestión y política universitaria.

Ello, unido a mis estudios sobre Historia de la Tecnología, les hará comprender que mi punto de vista sobre la evolución de la tecnología sea el segundo de los dos mencionados.

El estudio de los procesos y casos de innovaciones tecnológicas radicales es muy rico y variado. Dichos procesos dependen del área de conocimiento o aplicación elegida: Mecánica, Agronomía, Química, Telecomunicaciones, Matemáticas y un largo etcétera, de las que solo he mencionado algunas del ámbito de una Universidad Politécnica. Dependen, también, de la época histórica en que se producen, sobre todo en el ritmo de su implantación. Dependen, también, de la influencia que ejercen sobre la sociedad, que pueden estar limitados a grupos de expertos o ser de amplísimo uso. En fin, dependen de otros muchos factores, pero casi siempre suele haber algunos de estos que, tomando diversos matices, están detrás de los procesos de innovación radical.

El ámbito de las, hoy denominadas, Tecnologías de la Información y las Comunicaciones es uno de los más ricos en casos de innovaciones radicales durante el pasado siglo XX. Es el ámbito que mejor conozco y además está de moda, razones por las que elegí un caso dentro de éste ámbito: el proceso de innovación que ha conducido a la implantación de Internet. Caso que puede considerarse paradigmático, aunque ahora merced a los periodistas del deporte y a muchos contertulios o tertulianos, casi todo es histórico o paradigmático o ambas cosas a la vez. Recordaré a tal efecto, que paradigma es, en su acepción lingüística: “modelo o ejemplo que sirve de norma”., y en su acepción epistemológica, derivada principalmente de la teoría de Khun sobre la estructura de las revoluciones científicas, paradigma es aquella teoría científica o desarrollo tecnológico que alcanza un grado de novedad respecto a lo existente y de perfección en cuanto a su contenido que sirve de modelo para teorías y desarrollos posteriores y cuya influencia es muy grande en el desarrollo del conocimiento.

La invención del transistor y el posterior desarrollo basado en la electrónica de semiconductores puede considerarse un hecho paradigmático. En este sentido, también la concepción, desarrollo e implantación de Internet pueden considerarse paradigmáticos, a pesar de que aún falta perspectiva histórica para apreciar sus consecuencias.

Las raíces de Internet

Es generalmente aceptado que la puesta de largo de Internet se efectúa en 1995. Es cuando sale del campo de la Investigación y Desarrollo (I+D) en los laboratorios y empieza a aplicarse comercialmente en la sociedad como un servicio, cumpliendo así la fase final de todo proceso de innovación.

¿Hasta dónde volver la vista para hallar los antecedentes? Esta es una cuestión que depende del criterio de cada persona. Yo situaré los antecedentes remotos en lo que yo he denominado “la década prodigiosa”, entre 1940 y 1950, y los próximos a finales de la década de los sesenta, que para el mundo de la música moderna fue, en realidad, dicha década prodigiosa.

En las vísperas de la Navidad de 1947, tres científicos de los Laboratorios Bell: John Bardeen (1908-1991), Walter Bratain (1902-1987) y Willian B. Shockley (1919 – 1989) hacían la primera demostración práctica de un nuevo dispositivo: el transistor. Este dispositivo semiconductor, considerado como uno de los inventos más importantes del siglo XX inauguraba una rama nueva: la microelectrónica, cuyo desarrollo posterior daría lugar a los circuitos integrados y a los microprocesadores que constituyen los ladrillos básicos de toda la arquitectura de los computadores y de las redes de telecomunicaciones.

Casi al mismo tiempo que el New York Times publicaba la invención del transistor en junio de 1948, en el número 27 de la revista Bell System Technical Journal, un joven doctor del Massachussets Institute of Technology (MIT) que trabajaba desde el año 1941 en los Laboratorios Bell, Claude Shannon (1961-2001), publicó un artículo titulado “The Mathematical Theory of Communication”, al que siguieron después una pléyade de artículos y libros que dieron lugar al nacimiento de la Teoría de la Información y a la unidad de medida de la información: el BIT (binary

digit).

Entre 1939 y 1944 se construyeron las primeras computadoras digitales, tales como el Mark I, en la Universidad de Harvard, al que siguieron las series Z1 a Z4 de Konrad Zuse en Alemania; el ENIAC, de John Mauchly y J.P. Eckert, desarrollado en la Universidad de Pensilvania en 1946, que es considerado el primer computador digital electrónico; o el EDSAC, construido en Gran Bretaña en la Universidad de Cambridge en 1949. Nacía la informática.

Es, pues, la década de los cuarenta una “década prodigiosa” para la ciencia y la tecnología. En ésta década, que también vio el gran desastre de la Segunda Guerra Mundial, se pusieron las bases teóricas y prácticas de la microelectrónica, de la digitalización y de la computación, que se irían desarrollando en un proceso sinérgico, divergente en las aplicaciones pero que ha resultado finalmente convergente en el ámbito de las tecnologías de la información y de las comunicaciones (T.I.C.) Estaban ancladas las raíces del conocimiento en un terreno abonado para el crecimiento, con unas empresas que creían en la investigación y el desarrollo; y creer, en este caso, es dedicar cuantioso recursos a dichas funciones; con unas universidades excelentes que hacían de la investigación y la formación de doctores tareas prioritarias; y con unos Gobiernos y una sociedad que de forma sostenida querían asegurar un liderazgo mundial, definiendo y orientando grandes líneas estratégicas y financiando proyectos convencidos de que a la postre se obtendrían resultados. Dicho sea de paso, en las universidades de Estados Unidos es un lugar común considerar que es necesario financiar cien tesis doctorales para que de alguna salga algo que dé lugar a una innovación importante o a un avance significativo del conocimiento.

De las raíces empezaron a brotar troncos que iban creciendo en paralelo: sistemas y servicios de telecomunicaciones por un lado y equipos, sistemas y servicios informáticos por otros, ambos construidos con los ladrillos que proporcionaba los componentes y circuitos microelectrónicos digitales.

Los computadores construidos en la década de los sesenta eran máquinas dotadas de una gran potencia de procesamiento y almacenamiento de la información en forma de datos, de bits. Eran máquinas que requerían inversiones e instalaciones muy costosas, se situaban en centros de cálculo o centros de procesos de datos que significaban, además señas de modernización y progreso. Sus capacidades de almacenamiento y sus velocidades de procesamiento excedían los de las personas que las utilizaban en las sedes centrales, por lo cual prestaban servicios a clientes externos cuyos medios de comunicación con la máquina eran, ¡asómbrense!, el correo o el mensajero, que a través de paquetes de fichas perforadas y listados de impresoras, entraban y salían de las sedes centrales. Era un sistema de recursos compartidos trabajando en lotes y en diferido. Algo así como un sistema de computación moderno y avanzado cuyos clientes se comunican con medios convencionales propios de siglos pasados. Algo parecido ocurría con servicios como los bancarios o los de reservas de billetes en compañías aéreas o de ferrocarril. Si el cliente quería realizar un servicio en una sucursal había que comunicar –esta vez por teléfono- con la sede central para comprobar si había saldo o plaza disponible. Fueran necesidades de proceso o de acceso a la información, parecía lógico que se pudieran utilizar y compartir los recursos de las máquinas sin que la distancia fuera un impedimento; es decir usando las telecomunicaciones.

En esto consiste otro de los antecedentes, esta vez próximos, de Internet y que es condición, imprescindible en la mayor parte de los casos, para que se produzca una innovación: que exista una necesidad. En otras conferencias y publicaciones me he detenido en explicar la necesidad como motor de la innovación y la resolución de las necesidades está en la base de la definición de ingeniería. Hay una graduación de tipos de necesidades, que a veces se mezclan con deseos y anhelos, tipos que dependen del estado de desarrollo de una sociedad y también de los deseos y anhelos de la misma, es decir, de algunos de los valores, creencias y costumbres que tienen los individuos y la sociedad.

No es el momento de exponer ahora estas ideas. Baste con señalar que en la década de los sesenta había una necesidad: la comunicación de datos entre computadoras. Necesidad sentida y percibida por expertos investigadores y técnicos, por un lado, y grandes clientes y utilizadores, por otro lado.

Así pues, en los años sesenta se inicia una carrera, espoleada principalmente por el Departamento de Defensa de los Estados Unidos y las grandes empresas de computadoras como IBM y UNIVAC para desarrollar técnicas que permitieran la comunicación de datos entre computadoras usando las infraestructuras de las redes telefónicas. Sirvan como ejemplo los descritos por Luis Arroyo en “200 años de informática” de la petición que la USAF (Fuerza Aérea de los Estados Unidos) hace a la entonces CTNE (Compañía Telefónica Nacional de España) de que estableciera un servicio de transmisión de datos a 2.400 bps (bits por segundo) entre la base aeronaval de Rota (Cádiz) y Washington, o la petición de IBM, también a la CTNE para que realizara pruebas de transmisión de datos con sus computadores modelo 1001.

Hacia la red de redes.

Las primeras redes de comunicación de datos eran simples extensiones de los terminales de entrada y salida de los computadores trabajando en diferido y por lotes. En 1964, se dá un paso adelante, cuando investigadores del Darmouth College en colaboración con General Electric ponen en funcionamiento el primer sistema de tiempo compartido que permite el trabajo en modo conversacional, naciendo el concepto de recurso compartido. Con ello, empiezan a establecerse redes privadas para aplicaciones específicas, como las implantadas en España por RENFE e IBERIA en 1969.

En Europa existían dificultades para el desarrollo de redes de comunicación de datos. El mundo de las telecomunicaciones estaba en manos de monopolios estatales, mientras que el mundo de la informática había nacido y se había desarrollado de forma empresarial privada y estaba habituado a la competencia. Por otro lado, y aunque esto nos parezca ridículo, la telegrafía y la telefonía eran dos servicios prestados por monopolios distintos y siendo la telefonía servicio de voz y la telegrafía servicio de datos había dudas respecto a quien debería de prestar estos servicios de comunicación de datos. Una cultura y unas formas de organización antiguas para hacer frente a un fenómeno nuevo. Factores como estos, de culturas organizativas y poco estímulo para la competitividad, contribuyeron a que el desarrollo de Internet haya estado, como veremos más adelante, vinculado casi exclusivamente a los Estados Unidos. Sin embargo, es justo anotar que en España se dieron pasos positivos muy pronto. Así en 1970 se publicó un Decreto de reordenación de los servicios de telecomunicaciones, encomendando a la CTNE el desarrollo y explotación del Servicio Público de Transmisión de Datos, no sin vencer resistencias de la Dirección General de Correos y Telégrafos. La CTNE fue pionera en el mundo en el establecimiento, en 1972, de la primera red pública de transmisión de datos la RETD, basada en las nuevas técnicas de conmutación de paquetes y que conduciría posteriormente a la red IBERPAC.

En Europa, como acabo de describir en el caso español, se encomienda el desarrollo de las redes de datos a las empresas e instituciones tradicionales de operación de los servicios públicos de telecomunicación, buscando sustituir, o ampliar, las redes de telefonía al mercado de los datos. La estrategia era, por decirlo de una manera simplificada, de crear una red operada por una compañía. Mientras tanto, en Estados Unidos se hacían las cosas de otro modo.

Para entender una de las claves de la importancia y despegue de la investigación y el desarrollo tecnológico en Estados Unidos, entre ellos el caso Internet, es necesario situarnos en octubre de 1957. La Unión Soviética había colocado en órbita una esfera de 84 kilos que emitía señales que podían captarse en todo el mundo: el primer satélite artificial, el Sputnik I, deslumbraba al mundo y dejaba perplejos y preocupados a los norteamericanos que se sentían heridos en su orgullo de primera potencia tecnológica y militar. Este hecho hace que el Gobierno de los Estados Unidos se replantee la organización de la I+D en algunas áreas consideradas vitales para asegurarse el liderazgo y la primacía como potencia mundial en muchos ámbitos y, entre ellos, el tecnológico. Así, se crean o reorganizan varias Agencias Nacionales especializadas en grandes programas. La más conocida, al menos hasta la explosión del hecho Internet, es la NASA (National Aeronautic and Space Administration) creada en octubre de 1958 y, en lo que concierne a este relato, ARPA (Advanced Research Projects Agency) creada por el Departamento de Defensa en 1958 para promover, financiar y coordinar proyectos de I+D que buscaran cosas nuevas, o formas nuevas de hacer las cosas, que tuvieran interés estratégico para el ejercito, movilizando capacidades procedentes del mundo universitario y de empresas y corporaciones de la nación. Durante la primera mitad de los años sesenta, ARPA siembra proyectos genéricos sobre redes de computadores y riega con financiación a grupos de investigación de universidades y empresas. En los laboratorios iban surgiendo nuevas ideas como las de Paul Baran, de RAND Corporation (otra Agencia creada por la USAF), quien dijo en 1964 que era el momento de pensar sobre una nueva y posiblemente inexistente red de servicio público con una planta para comunicaciones digitales diseñadas específicamente para la transmisión de datos entre una gran cantidad de usuarios y sugería una red descentralizada, distribuida e interconectada para evitar la destrucción de nodos importantes en caso de ataque nuclear, utilizando métodos que permitieran, también, la distribución del mensaje (información) por medio de la incipiente técnica de conmutación de paquetes, por entonces en fase de desarrollo en el NPL (National Physics Laboratory) de Gran Bretaña y en el Lincoln Laboratory del MIT, en Estados Unidos.

Con estas ideas genéricas de red distribuida, descentralizada e interconectada, con las técnicas nuevas de conmutación de paquetes y con los trabajos de los grupos de I + D, ARPA decide dar un paso mas que es diseñar la arquitectura básica de una red que, a la vez que desarrollara técnicas de comunicación de datos, sirviera también para la “comunicación de ideas y desarrollos” entre los grupos de investigación que trabajaban en estos temas. Se comienza en 1967 el diseño de ARPANET y se nombra a Lawrence Robert como gestor del proyecto.

En 1969 ya había 5 nodos de la red concectados: Universidad de Stanford, Instituto de Investigación de Stanford, Universidad de California en Santa Bárbara, Universidad de California en Los Angeles y Rand Systems Dev.

Corporation. Todos ellos en la Costa Oeste, en California. En 1971 ya eran más de una docena los nodos conectados: otros cuantos en la Costa Este (Instituto Tecnológico de Masschusset, Laboratorios Lincoln, BNN y Brroughs, y otros en el centro (Universidad de Utah, Universidad de Illinois, Universidad Case y Universidad Carnegie Melon). Poco a poco, se iban interconectando redes de computadores pero, aún mas importante, se iban conectando “redes de investigadores”, cada una con sus ideas propias y particularidades pero orientadas por un objetivo común y coordinadas por una gestor del proyecto. Crear en libertad, comunicar libremente las ideas y los resultados, coordinar las actuaciones y, por supuesto, financiar los mismos. Ingredientes básicos para la construcción de un gran sistema.

En octubre de 1972, Robert Kahn organizó un Congreso Internacional en Washington DC, el “International Computer Communication Conference”, que tuvo un gran éxito y fue la primera demostración pública de las nuevas tecnologías de red. Por estas fechas se introdujo la primera aplicación práctica de la red: “el correo electrónico”.

Esta aplicación reforzó la comunicación en red entre los grupos de investigación y se convirtió, desde entonces, en la mayor aplicación de las redes durante más de una década.

Durante la década de los setenta se llevaron a cabo numerosos proyectos en la dirección marcada por ARPA, que financiaba la mayor parte de ellos. Aquella actividad se parecía a la construcción de la torre de Babel y, para que no hubiera confusión de lenguas, buena parte de los trabajos se orientó al establecimiento de normas o protocolos de interconexión para que pudieran entenderse entre sí los distintos lenguajes de los ordenadores y éstos con las redes.

Robert Kahn y Vinton Cerf lanzan la idea de enlazar las distintas redes existentes, creando el concepto de “internet working” y en 1973, durante un seminario en la Universidad de Stanford, el grupo dirigido por Cerf y formado por gente de la propia Universidad, un grupo francés -Cyclades- y un grupo de Xeros PARC, presentan el Protocolo de Control de Transmisión o “Transmision Code Protocol (TCP)”, como es conocido en la jerga habitual. Unos años mas tarde, en 1978, Vinton Cerf, junto con otros dos pioneros de Internet, Jon Postel y Cohen, ambos en la Universidad del Sur de California, añaden al Protocolo anterior otra parte para la interconexión de redes: el Protocolo IP, con lo cual quedaba preparada para su desarrollo la norma de “entendimiento” y de interconexión entre computadores y redes que es el denominado TCP/IP, que con el tiempo llegaría a ser el Protocolo universal.

Este ha sido otro de los factores que han contribuido al éxito de Internet: el TCP/IP no es un lenguaje propietario, no pertenece a ninguna empresa de computadores u operadora de telecomunicaciones. Perteneció, primero, a la comunidad de investigadores y, a la postre, a la comunidad universal de usuarios.

Distintos tipos de redes iban ensayándose. R. Kahn trabajaba en una red vía satélite: la SATNET. Se montan redes vía radio, como la PRNET en la bahía de San Francisco y en 1977 se consigue enlazar ARPANET y SATNET, demostrando que la “red de redes” era posible con independencia del medio y de los equipos de transmisión usados, lo cual concede más universalidad a la red.

Junto con las anteriores, se estaban implantando otras redes independientes tales como USENET (Unix User Network) desarrollada por los laboratorios Bell en 1979 para su sistema operativo de comunicaciones Unís; o CSNET (Computer Science Network) de la Universidad de Winsconsin; o BITNET (Because it’s Time of Network), puesta a punto por la City University de New York; o EARN (European Academic and Research Network), que se conectaron a USENET en 1982 y 1983.

Las redes citadas y, otras mucho mas de carácter científico y académico, iban implantándose en paralelo con redes comerciales y con las redes de área local (LAN), cuyo mercado despegó por esta época. Parecía como si el mundo se fuera a quedar “enredado en las redes”. Era el momento propicio para poner orden en la “Babel-Network”.

Alguien decide: ARPA considera que su red debe pasar de la fase de investigación a la de explotación en el dominio público, no propietario. La parte militar construye una red separada MILNET y establece el protocolo TCP/IP como obligatorio para todos los computadores de su red, decisión que fue seguida poco a poco por otras redes de otros departamentos del Gobierno, centros de investigación y universidades. Nacía así, en el año 1983, INTERNET como confederación de redes que empleaban distintas tecnologías con un protocolo común: IP. La gestión de la red pública pasó en 1986 a la National Science Foundation (NSF), máxima organización civil de coordinación y financiación de I + D de los Estados Unidos, que en 1988 permitió el acceso a la red a empresas y particulares. En noviembre de este año el número de servidores (host) conectados a Internet era de 60.000. Comenzaba la expansión.

En enero de 1990, The World se convirtió en el primer servicio comercial de Internet que permitía el acceso por red telefónica conmutada al público en general y obtuvo en 1992 la licencia de las NSF para que los usuarios accedieran a Internet a través de un portal, convirtiéndose así en el primer ISP (Internet Service Provider), al tiempo que se implanta el “World Wide Web”, protocolo navegador / editor desarrollado por Tim Berneers Lee, investigador del CERN (Centre Europeene de la Recherche Nucleaire), que permite la transmisión de hipertexto a través de la red. En 1995, año que se considera como la puesta de largo de Internet, había 50.000 redes configurando Internet y el número de usuarios era poco mas de 20 millones. En mayo de 2000, Vinton Cerf, en su discurso de investidura como Doctor Honoris Causa por la Universidad Rovira i Virgili (Tarragona) dijo: “Durante los últimos dos años y medio el número de dominios “doc.com” ha crecido de 1,3 millones a 12 millones; de 22,5 millones de computadores en la red a cerca de 72 millones en enero y probablemente 100 millones ahora. El número de países que han accedido a Internet ha crecido de 190 a 218. Y el número de usuarios ha aumentado de 50 millones a 275 millones al comienzo del año y, probablemente 300 actualmente. Pero todo esto hay que mirarlo con una perspectiva de futuro.

El servicio telefónico tiene 950 millones de terminales, de los cuales 750 millones son terminales fijos y 250 son teléfonos móviles”. Vinton Cerf expresaba así, no solo el crecimiento de Internet en el pasado inmediato, sino el enorme potencial de crecimiento que aún tiene en el inmediato futuro.

Lecciones de la historia de Internet

Así se titula el primer capítulo del libro “La Galaxia Internet: reflexiones sobre Internet, empresa y sociedad” del profesor Manuel Castell de la Universidad de Berkeley y de la Universidad Abierta de Cataluña, publicado hace apenas unos meses. A los interesados en los aspectos culturales, económicos y sociales del fenómeno Internet les recomiendo la lectura de este magnífico libro. De él tomaré algunas de las conclusiones que mezclaré con mi análisis derivado de mis estudios y escritos sobre la importancia de los ámbitos cultural y organizacional que, junto con el ámbito tecnológico, constituyen los tres pilares necesarios para que se produzcan el desarrollo y la innovación tecnológica.

En el nacimiento de Internet coinciden dos necesidades: una de prestigio, de liderazgo de una nación que, en un momento, se siente atrasada y amenazada. De aquí surge una decisión: la reorganización, la orientación estratégica y la financiación suficiente de la investigación.

Decisión basada en la creencia de que el conocimiento y la tecnología son dos pilares indispensables para el desarrollo de la sociedad. Junto con esta necesidad o anhelo de ser los mejores, los mas poderosos, se cruza otra necesidad técnica concreta que es comunicar los computadores.

Establecidas las necesidades generales y las particulares, existía en las Universidades y empresas un gran nivel, en cantidad y calidad, de grupos de investigación para responder a iniciativas estratégicas. Es decir, existía el caldo de cultivo adecuado.

ARPANET, fuente principal de lo que acabaría siendo INTERNET, no es una consecuencia involuntaria de un programa de investigación desorientado. Aunque ARPANET tuvo su origen en el Departamento de Defensa, sus aplicaciones militares fueron secundarias en un proyecto tecnológico. La preocupación principal de la Agencia era la de financiar el desarrollo de las redes de comunicaciones de computadores, dejar trabajar en paz a a los investigadores, ir comprobando y conociendo los resultados con el convencimiento de que al final algo interesante saldría de aquel trabajo. ¡Magnifica liberalidad para un Departamento de Defensa! Como señala M. Castell: “ARPA esperaba que gracias a la ingente inversión de recursos y a la innovación científica, acabara saliendo algo bueno de lo cual pudieran beneficiarse las fuerzas armadas (así como la economía norteamericana)”.

Contra lo que pueda pensarse, y que en otros casos ha sucedido, en el caso Internet no hubo “investigación clasificada”. Todo el proceso se desarrolló dentro de lo que se ha llamado “cultura libertaria”. Desde el comienzo, los grupos de investigación manifestaron su interés por el principio de que todos los desarrollos de software fueran de “dominio público” y que se trabajara en cooperación a la vez que compitiendo por lo que alguien ha lanzado el término “coopetencia” para designar un rasgo del proceso de Internet. Sirvan como ejemplo de esta cultura el que Richard Stallman, en sus peleas con el sistema propietario UNIX, creará la “Fundación para el Software libre (FSL)” sustituyendo el concepto del “copyright” por el de “copyleft”, o el caso de Linus Torwalds, de la Universidad de Helsinki, que lanzó el sistema LINUX en 1993, o Tim Berners Lee, investigador del CERN, que creó y divulgó el software del WWW en 1991.

La libertad de creación, es pues, un factor importante para la innovación. Compárese con el proceso seguido por el principal competidor de los Estados Unidos durante la guerra fría: la Unión Soviética. También en este caso la investigación con fines militares era uno de los motores del desarrollo tecnológico. Pero, como señala Castell: “La ciencia soviética estaba atrapada en el aparato de la seguridad militar, con su corolario de secretismo y de proyectos orientados a corto plazo. Esta visión burocrática de la investigación socavó el potencial de innovación tecnológica soviética a pesar del excelente nivel científico del país. La política de flexibilidad y libertad académica de ARPA dio sus frutos en términos de estrategia militar, al tiempo que contribuyó a liberar la creatividad de los universitarios estadounidenses, proporcionándoles los recursos necesarios para transformar sus ideas en investigaciones y sus investigaciones en tecnologías aplicables”.

Otro hecho significativo lo constituye la extraordinaria movilidad de profesores, investigadores e ideas. Si se analizan detenidamente las trayectorias profesionales de diez de los principales protagonistas de la historia de Internet se observará que así ninguno de ellos ha permanecido en la misma institución, llámese agencia, empresa o universidad, a lo largo del proceso. Lo habitual es que cambien tres o cuatro veces. Este factor cultural, que contrasta notablemente con la situación en la universidad española, no es privativo del proceso de innovación de Internet; es genérico de la cultura universitaria en los Estados Unidos. Podía pensarse que el propio factor endógeno a Internet de facilitar la comunicación instantánea a través de la red podría disminuir esta movilidad, o que dicha movilidad podría actuar en contra de la cooperación. Ninguno de esos dos hechos se produjo. El cambio de lugar, de grupo de investigación, de universidad, de tarea, facilita el conocimiento mutuo, el reconocimiento del mérito, la competencia, el estímulo y la cooperación. ¿Existe este factor cultural en la sociedad universitaria española?

Parafraseando una conocida frase diré: Internet ha venido, pocos saben cómo ha sido. El rápido despegue a partir del año 1995 y la facilidad de su utilización pueden hacernos creer, como tantas otras veces con las innovaciones tecnológicas, que ha sido fruto del azar. Por el contrario, han sido más de treinta años de investigaciones realizadas principalmente en laboratorios universitarios, coordinadas y financiadas por la Administración de los Estados Unidos a través primero, del Departamento de Defensa, luego por la National Science Foundation y finalmente por la sociedad civil, con un sistema de gestión y de gobierno, abierto, participativo y coordinado. Es decir un gobierno en red, en una sociedadred.

Acabaré citando un párrafo del libro ya citado de Manuel Castell que dice: “La creación y desarrollo de Internet es una extraordinaria aventura humana. Muestra la capacidad de las personas para trascender las reglas institucionales, superar las barreras burocráticas y subvertir los valores establecidos en el proceso de creación de un nuevo mundo. A su vez, sirve para respaldar la idea de que la cooperación y la libertad de información pueden favorecer la innovación en mayor medida que la competencia y los derechos de propiedad”.

Fuente: Internet: Un ejemplo paradigmático de Innovación Tecnológica.

No hay comentarios:

Publicar un comentario

Advertencia

Este Blog no tiene fines de lucro, ni propósitos comerciales, el único interés es compartirlo con fines educativos con estudiantes y docentes del tema.