La primera página web fue inventada por el científico británico Tim Berners-Lee, pero décadas antes ya existían otros sitios de Internet…
¿Cuál fue la primera página web de la historia?
info.cern.ch fue la primera URL del primer sitio web del mundo:
http://info.cern.ch/hypertext/WWW/TheProject.html.
Esa fue la dirección de la primera página web, aún activa y en su estado original, la cual contiene enlaces a información sobre el proyecto WWW, detalles técnicos para crear un servidor web, descripción sobre hipertexto y más enlaces.
Ver: ¿Cuándo se celebra el aniversario de Internet?
¿Quién creó la primera página web del mundo?
La primera página web es obra del físico y científico británico Tim Berners-Lee, el inventor de la World Wide Web, quien estableció la primera comunicación entre un cliente y un servidor utilizando el protocolo HTTP.
¿Cuándo se creó la WWW?
El proyecto World Wide Web nació en 1989, mientras Berners-Lee trabajaba en el CERN (Organización Europea para la Investigación Nuclear), laboratorio situado en Suiza.
Originalmente, la WWW se desarrolló para solucionar las necesidades de intercambio de información entre científicos de diferentes universidades e institutos de todo el mundo.
Berners-Lee publicó su primera propuesta para la World Wide Web en marzo de 1989 y luego otra en mayo de 1990, donde describe un “proyecto de hipertexto” bautizado como “World Wide Web“, un entorno para navegar una red de “documentos de hipertexto”.
Para fines de 1990, el científico tenía en marcha el primer servidor web del mundo y también WorldWideWeb, el primer navegador web (y también el primer editor web), ejecutados en una computadora del CERN, plasmando así sus ideas de un año atrás.
Para prevenir un apagado accidental, una etiqueta escrita a mano y con color rojo decía:
“Esta máquina es un servidor. ¡NO LA APAGUE!”
El inventor de la World Wide Web lanzó su software WWW en 1991, año en que más colegas con computadoras en CERN pudieron acceder a ella.
En agosto de 1991 se anunció el software WWW en alt.hypertext y otros grupos de noticias de Internet, cobrando eco en todo el globo.
El primer servidor web en los EE. UU. comenzó a funcionar en diciembre de 1991 en el laboratorio de física de partículas, SLAC (Centro Acelerador Lineal de Stanford).
Desde rincones de Internet, Berners-Lee rogó para que más desarrolladores se sumaran. Poco a poco, así ocurrió.
Pero todo cambió desde el 30 de abril de 1993, cuando el CERN puso a disposición el código fuente de World Wide Web sin regalías. Era software libre.
Desde sus orígenes, la idea era que la web sea abierta. Tal como describe la web de CERN al repasar la historia de la WWW:
“Un punto esencial era que la web debería seguir siendo un estándar abierto para todos y que nadie debería encerrarla en un sistema propietario”.
¿Cuántas páginas web existen?
El 6 de agosto de 1991 Tim Berners-Lee publicó la primera página web, el sitio de la World Wide Web.
Para fines de 1992 había unos 10 sitios web en línea. Cuando la tecnología WWW comenzó a estar disponible públicamente sin regalías en 1993, Internet comenzó a poblarse de páginas web.
En 1994 había aproximadamente 3.000 sitios web.
El primer billón de sitios web se alcanzó en 2014.
Actualmente, hay unas 1,73 mil millones de páginas web, si bien son en realidad cientos de millones los que están activos, según datos de Internet Live Stats.
¿Cuál es la diferencia entre www e Internet?
A menudo aparecen como sinónimos, pero la World Wide Web e Internet no son lo mismo. WWW es una parte de Internet.
Los orígenes de Internet se encuentran en EE. UU durante fines de la década de 1960, mientras que el proyecto WWW fue inventado 20 años después.
Internet se define como una red de redes, compuesta por un amplio entramado de computadoras y dispositivos interconectados entre sí, que permite el transporte de datos a través de una infraestructura global de conexiones por cables, satélites, líneas inalámbricas y otras vías de acceso.
La WWW refiere a uno de los sistemas más comunes para acceder a Internet, utilizando hoy navegadores como Chrome y Mozilla. Es un conjunto de información enlazada a la que se accede vía Internet.
La web es una de porción de Internet, siendo una de las formas más usadas para acceder a la red de redes que conforma Internet, pero no es la única.
Incluso antes de las primeras páginas web, el correo electrónico basado en SMTP y otros programas solían conectarse a través de Internet mediante TCP / IP (Transmission Control Protocol/Internet Protocol), protocolos que hacen posible la transmisión de datos entre computadoras.
O Usenet, una red de servidores para difundir publicaciones en grupos de noticias, que se conectan entre sí y los usuarios se conectan a ellos también por medio de Internet a través de TCP / IP.
Hoy, por ejemplo, es posible usar Internet sin navegar en la web con servicios de mensajería instantánea o al jugar un videojuego en tiempo real junto a otros usuarios.
Por su parte, la World Wide Web se articula con ciertos componentes específicos que habilitan la comunicación entre clientes y servidores:
- URL (Uniform Resource Locator)
- HTTP (Protocolo de transferencia de hipertexto)
- HTML (HyperText Markup Language)
Con el tiempo, WWW se convirtió en un estándar para la navegación en Internet, utilizando una estructura de hipertexto para acceder a diferentes formas de información disponibles.
Hipertexto es un concepto introducido en los 60′ por el pionero y sociólogo Ted Nelson, definido en palabras de Berners-Lee en los siguientes términos:
“El hipertexto es texto que no está limitado a ser lineal… Un texto que contiene enlaces a otros textos”.
Como en esos libros o videojuegos interactivos de aventuras, el usuario elige qué enlaces pinchar y cómo ir saltando de uno a otro. Un enfoque de acceso a la información no lineal, abriendo en ese entonces una nueva forma de interactuar con ella.
Mientras Internet conecta una computadora a otras alrededor del mundo, construyendo un modo de transportar datos y contenido, la Web es un software que permite acceder a ellos, usarlos o compartirlos.
Ver: Páginas de Internet para no aburrirse
¿Cuándo surgió Internet?
Las raíces de Internet están en ARPANET, proyecto creado a fines de los 60′ y financiado en sus comienzos por el Departamento de Defensa de EE.UU, que permitió el transporte e intercambio de datos electrónicos entre instituciones académicas y estatales.
ARPANET fue el ancestro de Internet, un sistema que habilitaba la comunicación entre varias computadoras en una sola red.
Los antecedentes teóricos son incluso anteriores. Ya en 1900 el inventor, físico e ingeniero Nikola Tesla hablaba de un “sistema inalámbrico mundial”.
Pero la idea germinal que saltó pronto a la práctica partió del informático estadounidense Joseph Carl Robnett Licklider durante los 60′, cuando propuso el concepto de una “Red Intergaláctica” (“Galactic Network”) de computadoras.
A partir de 1962, Licklider fue el primer jefe del programa de investigación informática en DARPA (Defense Advanced Research Projects Agency), agencia del Departamento de Defensa, donde pudo convencer a sus sucesores de la importancia de ese concepto de red.
Cinco años después se publicó un plan para construir una red de computadoras llamada ARPANET, puesta en línea por primera vez en 1969 tras un contrato concedido por ARPA (Agencia de Proyectos de Investigación Avanzada).
En sus principios, conectó cuatro computadoras de prestigiosas universidades estadounidenses: UCLA, UCSB, Stanford Research Institute y la Universidad de Utah.
Harvard, MIT, BBN y Systems Development Corp se agregaron en junio de 1970 y a inicios de 1971 Stanford, Lincoln Labs, Carnegie-Mellon y Case-Western Reserve U del MIT.
Hacia los 70′, tenía poco más de 20 puntos conectados.
Inicialmente, Internet se creó para tender una red de comunicaciones con capacidades para funcionar incluso si una de las partes caía. En caso de que la ruta más directa dejara de estar disponible, los enrutadores enviarían el tráfico a la red a través de rutas alternativas.
En los primeros años de Internet, término que comenzó a usarse desde 1974, la red era usada en su mayoría por ingenieros, informáticos, científicos y personas de bibliotecas. Aún no había computadoras domésticas o de oficina conectadas.
Para 1985 la antecesora de Internet ya era una tecnología sustentada por un colectivo de desarrolladores, científicos e investigadores, pero poco a poco otras comunidades empezaron a usarla para sus comunicaciones cotidianas.
Entre los 70′ y mediados de los 80′, mucho antes aún de la WWW, nacieron los primeros servicios de correo electrónico (1972), redes como Usenet (1979), Bitnet (1981), Telnet (1983) y NSFNET -National Science Foundation Network (1985) o el protocolo para la transferencia de archivos FTP (1985).
En estas fases tempranas, los mensajes de Usenet, así como los correos electrónicos, viajaban a través de líneas telefónicas usando UUCP (Protocolo de copia Unix a Unix), dado que las conexiones a Internet aún eran costosas y raras.
Pero pronto apareció en escena una de las piezas cruciales para el desarrollo de Internet, con la construcción de la arquitectura TCP / IP (Transmission Control Protocol/Internet Protocol), gracias al desarrollo colectivo de Bob Kahn en ARPA, Vint Cerf en Stanford y otros durante los 70′.
ARPANET adoptó el protocolo TCP/IP en los 80′, acelerando los cimientos de Internet.
Originalmente, el uso de Internet estaba limitado a organismos de educación, investigación y gubernamentales. Sin embargo, a principios de los 90′ las redes comerciales independientes comenzaron a crecer. El primer servicio comercial en línea fue Delphi, dando acceso a Internet a sus suscriptores.
Ver: ¿Quién inventó Internet y cuándo?
Gopher, sitios de Internet previos a la WWW
La primera página web apareció en los 90′, pero poco antes, casi al mismo tiempo, ya existían otros servicios de Internet.
Como Gopher, un sistema muy ligero para acceder y compartir información en línea a través de menúes con documentos, archivos y carpetas.
Si bien el proyecto de la WWW inició antes de Gopher, su desarrollo y adopción fue más lento.
Gopher se creó en 1991 por parte de informáticos del Microcomputer Center de la Universidad de Minnesota, presentando una forma pionera de saltar de un sitio a otro, tras seleccionar entre las opciones del menú de cada sitio.
Cada interfaz era texto, con mucho enfoque en la estructuración y organización de la información más que en su aspecto visual.
En 1992 apareció Verónica, un motor de búsqueda para buscar en los árboles de información alojados en la mayoría de los servidores Gopher, pero también datos de otros tipos de servidores, como los archivos Usenet, servicios accesibles por Telnet o incluso servidores WWW.
Gopher comenzó a perder terreno hacia fines de los 90′ con la popularidad de la web y las direcciones www.
¿Internet es descentralizado?
Internet es posible gracias a múltiples redes de computadoras, piezas de software y variado hardware disperso alrededor del mundo. Sin embargo, hoy una cuota pequeña de grandes empresas mantiene gran parte del funcionamiento de Internet y, como consecuencia, también cierto grado de control.
Por su propio diseño y naturaleza de redes interconectadas, Internet no puede ser algo centralizado por completo, aunque cada vez es mayor el poder que retienen unos pocos jugadores del medio digital.
Desde su origen, Internet partió de una base descentralizada: una parte puede fallar, pero el resto sigue funcionando. No hay una, sino varias rutas de conexiones, computadoras y dispositivos de muchísimos usuarios.
En este sentido, no hay una única máquina que la alimente, no depende de un único punto de conexión. No hay una llave central para apagar todo el Internet del mundo, sino que un enorme conjunto de computadoras y dispositivos operando bajo una serie de protocolos.
Al inicio, Internet se concibió como un sistema para mover paquetes de datos, no para hacer un seguimiento de quién envió qué a quién y cuándo.
El problema es la dependencia del usuario con los proveedores de servicios. Aquí es donde se origina el riesgo de la centralización de Internet.
Esto incluye a Google, Amazon y las principales redes sociales, así como a las empresas de telecomunicaciones que proporcionan las conexiones.
Las páginas de Internet que se visitan a diario pasan por servidores. En efecto, los datos que un usuario ve de un amigo en una red social no están en esa computadora del usuario conocido, sino que en esos servidores.
Los gigantes recolectan, procesan y alojan la información de sus usuarios en enormes bases de datos centralizadas.
Por ejemplo, Google tiene un historial de búsqueda de las personas y Facebook puede seguir de cerca identidades y sus interacciones. Sólo Google maneja incontable cantidad de información a través de Google Maps, YouTube, Google Ads, Google Drive, Chrome y el propio buscador.
Los datos del usuario están en manos de unas pocas corporaciones y bases centrales. Esto se suma al peligro de los ataques informáticos, censura, intentos de bloqueos y vigilancia de ciertos gobiernos.
Uno de los riesgos de la centralización de datos es que supone la posibilidad técnica de acceder a ellos o compartirlos a otros terceros.
Como contrapartida, el uso de software descentralizado, tecnología blockchain, una mayor penetración de redes P2P y criptografía podrían a futuro contribuir a crear la anhelada Internet descentralizada, sin depender de unos pocos núcleos con capacidades de quitar los datos del control de los usuarios.
Existen varios proyectos alternativos y cercanos a una concepción de un Internet libre y descentralizado, como la red Tor, la iniciativa TRON, Safe Network o NKN.
Ver:
¿Qué es el navegador y la red Tor?
NKN Web 3.0 – Internet descentralizado con el uso de blockchain
Un Internet descentralizado implica, entre otras cosas, que su funcionamiento sea posible con los aportes, recursos y máquinas de la propia red de usuarios, en lugar de depender de unos relativamente pocos servidores centrales cada vez con mayor rango de poder sobre nuestra información.
Una concepción que busca recuperar a favor del usuario el control de sus datos, habilitando el acceso a una Internet más libre y abierta como en las primeras épocas de la WWW.
¿Qué es la neutralidad de la red?
La neutralidad de la red es la idea (e ideal) de que los proveedores de servicio de Internet (ISP) traten los datos que viajan a través de sus redes en forma neutral, justa, sin responder a intereses a favor o en contra de ciertas aplicaciones, páginas o servicios en particular.
‘Net Neutrality’, conocida en español como la neutralidad de la red, pretende conservar Internet un poco más libre y abierto, por fuera del posible control e interferencia de los proveedores e intermediarios respecto a lo que se accede o comparte a través de Internet.
Dicho diferente, en el contexto de Internet la neutralidad es la libertad del usuario de acceder o compartir cualquier contenido, servicio o aplicación de Internet, más allá de intereses de los proveedores u otros.
La EFF (Electronic Frontier Foundation) la define como “un principio que debe mantenerse para proteger el futuro de nuestra red abierta. Internet”.
Un concepto que surge como consecuencia de la centralización de un pequeño número de enormes empresas de telecomunicaciones proveedoras de banda ancha y otros servicios para el acceso a Internet, que acaparan en sus manos un gigantesca capacidad de poder.
¿Cuántos ISP hay en el mundo?
De acuerdo con la CIA, en 2010 había unos 10.000 ISPs y 7.000 solo en los Estados Unidos.
Colin Shea, quien trabajó en Vodafone de República Checa y cuenta con experiencia de más de una década en telecomunicaciones, contesta a través de Quora que es muy difícil tener una cifra exacta, pero estima que podrían ser entre 100,000 y 300,000 ISPs en todo el mundo.
Al respecto, un estudio publicado en 2010 sobre el rol de los ISPs en la mitigación de botnets recoge las siguientes cifras:
“Las estimaciones de la cantidad de ISP varían de alrededor de 4,000, en función de la cantidad de ASN que brindan servicios de tránsito, a hasta 100,000 compañías que se autoidentifican como ISP, muchas de las cuales son ISP virtuales o revendedores de capacidad de otros ISP”.
¿Qué pueden hacer los ISP contra el usuario?
Si así lo quisieran o alguien se los ordenara, los ISPs pueden interferir y manipular el tráfico de red asociado a ciertas plataformas y servicios. Por ejemplo, cortar el tráfico de torrents.
Las grandes empresas han violado la neutralidad y los legítimos derechos del usuario en varias ocasiones, al bloquear y limitar el acceso, o aplicando la llamada priorización pagada: si pagas puedes.
En 2000, por ejemplo, la corporación Comcast prohibió a algunos clientes el uso de redes VPN, solicitando cambiarse a cuentas comerciales o profesionales para poder acceder a ellas.
Por esos mismos años, AT&T impidió a los clientes configurar sus propios enrutadores Wi-Fi. En 2009 Apple no dejaba a los usuarios de iPhone hacer llamadas de Skype, por pedido expreso de AT&T.
La neutralidad de la red busca que el tráfico de Internet sea gestionado y tratado a la par y sin discriminaciones, evitando que los proveedores puedan bloquear, limitar, acelerar o ralentizar ciertos sitios, redes, contenidos o servicios que corren por sus cables y torres.
Es un principio básico y clave no sólo para la libertad de Internet y sus usuarios, sino también una vía para no entorpecer la innovación, incentivando el libre desarrollo y acceso de aplicaciones, programas, páginas y tecnologías.
El principio vital de la neutralidad importa, además, para impedir que los proveedores puedan silenciar la voz de los disidentes cuando hablan en línea. O prevenir que censuren su acceso a redes alternativas para entablar comunicaciones más privadas y seguras.
China, por ejemplo, ha intentado bloquear el acceso a Tor.
Blanco de numerosas batallas legales, en 2015 la FCC (Comisión Federal de Comunicaciones) de EE.UU. estableció una base legal para conseguir la neutralidad de la red.
Sin embargo, el 1 de octubre de 2019 un tribunal federal de apelaciones confirmó la decisión de Trump de 2017 de extinguirla, un nuevo triunfo para la industria de las telecomunicaciones y no para el usuario.
Solid y cómo el autor de la primera página web quiere cambiar el Internet actual
Tim Berners-Lee, el inventor de la WWW y creador de la primera página web, el primer navegador web, el primer editor web y el primer servidor web, está trabajando en Solid, un proyecto que busca dar mayor control al usuario de sus datos en línea.
Desarrollado en el ámbito del MIT (Instituto Tecnológico de Massachusetts), la idea es provocar un cambio radical en Internet, a favor de la privacidad y propiedad de los datos.
Solid se presenta como una colección de estándares y herramientes compatibles con la web existente, que apunta a construir “aplicaciones sociales descentralizadas basadas en los principios de datos vinculados”.
Basado en protocolos y estándares ya existentes del W3C (Consorcio World Wide Web), el proyecto trata de cambiar la forma en que los gigantes han transformado Internet.
En 2018 Berners-Lee anunció Inrupt, una startup que está generando un ecosistema comercial para impulsar Solid, con la meta de producir una estructura más descentralizada para la web, otorgando a las personas más dominio respecto a cómo sus datos son gestionados y compartidos con terceros.
Los Solid POD
El usuario puede almacenar sus comentarios, fotos, contactos y otros datos desde aplicaciones almacenadas en su Solid POD, una suerte de sitio web privado para cada uno, en que los datos interactúan con sus aplicaciones.
La tecnología de Solid va a permitir a los usuarios decidir dónde almacenar sus datos personales entre diferentes plataformas, así como verlos y eliminarlos cuando quieran, decidiendo quién o qué empresas pueden acceder a ellos.
Además, se podrá evitar los bloqueos del proveedor y cambiarse entre servidores de almacenamiento o entre aplicaciones sin perder su información o conexión, ya que “las aplicaciones se desacoplan de los datos que producen”.
Un esquema opuesto al actual, en que muchísimos datos se concentran en servidores centralizados y luego se comparten a otras compañías con fines comerciales o inciertos.
Los Solid POD son como memorias USB para la web, a las que puede accederse desde cualquier lugar. Uno decide qué cosas pueden ver y hacer las aplicaciones y otros usuarios.
Concede permiso a usuarios y aplicaciones para escribir o leer en partes de su Solid POD. Cada vez que se acceda a una nueva app no es necesario completar datos, ya que se leen directo desde su POD y con su permiso.
Tampoco se requiere sincronizar, porque los datos permanecen con los usuarios. Aquellos contenidos que están almacenados mediante una aplicación están disponibles en otra.
Por otra parte, el proyecto pretende que en vez de depender de un tercero sea posible utilizar cada Solid POD para indicar quién es usted, reemplazando los diversos inicios de sesión en la web por “Iniciar sesión con su propio Solid POD”.
Además de beneficiar en aras de la privacidad, este sistema busca estimular el desarrollo de aplicaciones sin necesidad de recolectar grandes cantidades de datos, aprovechando todo lo que ya existe y está disponible.
Cada usuario puede tener varios Solid POD, instalando Solid Server para tener su propio servidor doméstico o bien un Solid POD con proveedor incluido.
Construyendo la Internet imaginada por Berners-Lee
En setiembre de 2018, Berners-Lee escribió sobre su proyecto:
“Solid cambia el modelo actual donde los usuarios tienen que entregar datos personales a gigantes digitales a cambio del valor percibido.
Como todos hemos descubierto, esto no ha sido lo mejor para nosotros. Solid es la forma en que evolucionamos la web para restablecer el equilibrio, dándonos a cada uno de nosotros un control total sobre los datos, personales o no, de una manera revolucionaria.
Solid es una plataforma, construida utilizando la web existente. Ofrece a cada usuario una opción sobre dónde se almacenan los datos, qué personas y grupos específicos pueden acceder a elementos seleccionados, y qué aplicaciones utiliza. Le permite a usted, su familia y colegas, vincular y compartir datos con cualquier persona. Permite a las personas ver los mismos datos con diferentes aplicaciones al mismo tiempo “.
Esta Internet del futuro parece determinada a restablecer el valor y visión original de la web.
Entre otras cosas del pasado, Solid quiere restaurar el rol del primer navegador web, que también fue un editor web. Porque en sus orígenes, la web era para acceder al contenido, pero también para colaborar a crearlo.
Algo que se terminó con la popularización del primer navegador Mosaic, que eliminó la capacidad de edición web.
Pero la funcionalidad de escritura fue algo que el inventor de la WWW y otros querían recuperar, hasta que en 2003 Richard McManus publicó un artículo germinal: ‘The Read/Write We’. 15 años después, nació Solid.
Aprendiendo de la experiencia de Wikipedia, dado que se necesita cierta capacidad de administrar quién puede escribir sobre qué, Solid incorpora mecanismos de permisos e identidad.
El reto para hacer realidad Solid y esta nueva forma de acceder a la web e interactuar con ella es enorme.
A las dificultades inherentes a toda adopción, un proceso de por sí lento e incierto, cabe sumar que las regulaciones legales y las grandes empresas no lo harán fácil.
Pero el inventor de la World Wide Web sigue trabajando:
“La Web como la imaginé, todavía no la hemos visto. El futuro es mucho más grande que el pasado”.
Fuentes: