La web más antigua que sigue en funcionamiento

Si hoy entras en cualquier página moderna —llena de animaciones, vídeos que se reproducen solos y botones que parecen proyectados por un comité de diseñadores con exceso de cafeína— es fácil olvidar que el concepto de «página web» nació siendo poco más que un documento de texto con enlaces azules. Sin embargo, entre esa maraña de sitios modernos, existe un pequeño grupo de webs prehistóricas que se niegan a morir. Son auténticos fósiles digitales, testigos silenciosos de cuando Internet hacía ruidos, costaba dinero por minuto y la mitad del tiempo no funcionaba. Y entre todas ellas, una destaca con un aura casi mística y que sigue siendo la web funcional más antigua del mundo.
La historia suele recordar a info.cern.ch, el primer sitio web de la historia, creado por Tim Berners‑Lee y puesto en línea el 6 de agosto de 1991, como la puerta oficial de la recién nacida World Wide Web. Aunque sigue accesible hoy en día, lo que se conserva es una reconstrucción del original y no su hosting primitivo continuo. Es, sin duda, un museo esencial del origen de Internet, pero no puede considerarse la web en funcionamiento continuo más antigua.

Para encontrar la auténtica veterana que nunca se ha caído del mapa, hay que retroceder todavía más, a una época anterior al propio concepto de WWW. A mediados de los años ochenta, cuando HTML ni existía, cuando las páginas web no eran páginas porque directamente no había web, y cuando nadie tenía la más mínima idea de que Internet se convertiría en el monstruo planetario que es hoy, una pequeña empresa decidió registrar un dominio sin sospechar que acababa de crear un pedazo de historia. Ese dominio era itcorp.com, registrado el 18 de septiembre de 1986 por la empresa Interrupt Technology Corp.

Lo curioso es que este sitio nació en una época en la que tener una página web no tenía ningún propósito práctico, porque, simplemente, no existían las páginas web tal como las entendemos. Para colmo, su aspecto actual no ha cambiado prácticamente desde que se creó: un texto mínimo, una especie de tarjeta de visita espartana en HTML primitivo y un mensaje casi humorístico, reconociendo que la página existe sólo para satisfacer la expectativa de que un dominio tenga una web. Y es exactamente eso, un sitio creado con la misma ilusión con la que uno imprime un folleto por obligación burocrática, pero que terminó convirtiéndose en un monumento histórico sin quererlo.
Resulta especialmente irónico que este fósil digital sea anterior incluso al nacimiento público de la World Wide Web, que no vería la luz hasta cinco años después. En otras palabras, itcorp.com es una web que existía antes de que existieran las webs. Una pieza de Internet tan antigua que, para registrarla, ni siquiera había un sistema formal, pues, según los archivos históricos, había que llamar por teléfono al administrador del sistema de nombres de dominio para pedirlo personalmente, como quien pide una cita presencial en la administración estatal de turno.
Lo maravilloso es que sigue ahí, viva, accesible, inmutable, como un meteorito digital flotando en un universo que ya no se parece en nada al que lo vio nacer. Mientras el resto del Internet ha evolucionado hacia diseños responsivos, inteligencia artificial omnipresente y anuncios que te persiguen aunque no pienses en ellos, este sitio permanece intacto, ignorando cualquier moda o tecnología. Es una cápsula del tiempo funcionando exactamente igual que el primer día.
Al visitar esta reliquia, uno siente una mezcla extraña entre ternura, fascinación y una punzada de nostalgia por un Internet más inocente, donde lo importante era simplemente estar ahí, no impresionar a nadie. Porque si algo nos enseña la existencia de itcorp.com, es que, a veces, la historia la escriben los que hacen las cosas antes de que tengan sentido, casi por accidente. Un gesto simple, casi banal, que termina siendo una huella imborrable.
Por lo tanto, una página que se adelantó a su propia época por pura casualidad y que, casi cuatro décadas después, sigue en pie como la veterana indiscutible del ciberespacio.
Prontuario Anarquista de Resistencia Digital

Se acaba de publicar «Prontuario Anarquista de Resistencia Digital», de Jonathan Préstamo Rodríguez, manifiesto de hacktivismo pasivoagresivo.
Vivimos en una época donde cada clic deja rastro, cada palabra se convierte en dato y cada gesto digital puede ser observado, analizado y utilizado. En este escenario, la libertad ya no depende sólo de las leyes o de las calles, también se juega en las redes, en los servidores y dentro de los algoritmos.
«Prontuario Anarquista de Resistencia Digital» es un manual de reflexión y práctica ética para comprender este nuevo territorio. No es un libro técnico de hacking ni un tratado académico sobre tecnología, sino una guía para quienes desean habitar el mundo digital con conciencia, autonomía y responsabilidad. Es un manifiesto de hacktivismo pasivoagresivo.
A lo largo de sus páginas, el lector encontrará ideas, principios y experiencias que recorren la historia del activismo digital, la ética del conocimiento libre, la organización de colectivos autónomos, la privacidad, la comunicación segura y las formas contemporáneas de protesta en la red. Todo ello desde una mirada libertaria y anarquista que entiende la tecnología no como un destino inevitable, sino como un campo de disputa política y cultural.
Este libro está dirigido a quienes sospechan que la red podría ser algo más que un mercado de datos, a quienes creen que el conocimiento debe compartirse y que la libertad digital es una práctica cotidiana, no un eslogan.
Porque resistir en el siglo XXI no significa abandonar la tecnología, sino reapropiarse de ella.
El USB no es simétrico por culpa de un error humano

Durante décadas hemos convivido con un pequeño drama tecnológico que todos compartimos en silencio, el de intentar conectar un USB (de los del tipo A) a la primera. Esa operación cotidiana, en apariencia inocente, se convirtió en una especie de ritual universal compuesto por tres pasos invariables. Primero lo intentas poner; no entra. Le das la vuelta; tampoco entra. Vuelves a ponerlo como al principio y, entonces, ¡SÍ!. La humanidad ha aceptado este fenómeno como algo natural, como si la física se pusiera juguetona sólo cuando se trata de un puerto USB.
Pero detrás de esta tragicomedia electrónica no hay magia, ni mala suerte, ni un complot internacional para vernos sufrir. La explicación es mucho más simple y más humana: alguien tomó una mala decisión. La asimetría del USB tradicional no responde a una razón técnica superior, ni a un avance de ingeniería, ni a una propiedad exótica. Se debe a un error de cálculo, a un «esto no va a dar problemas, seguro» que resultó ser menos profético que las predicciones del tiempo del siglo pasado.
Para entenderlo hay que viajar mentalmente a mediados de los años noventa, una era en la que los ordenadores parecían naves industriales con patas. El hardware estaba plagado de conectores gigantescos, lentos y extravagantes, y había puertos paralelo, serie, PS/2, SCSI y un montón de cables que daban miedo sólo con verlos. En ese caos nació el concepto de USB como un conector pequeño y universal que prometía terminar para siempre con aquel zoológico de interfaces incompatibles. El proyecto estaba liderado por Ajay Bhatt, ingeniero de Intel, que se propuso crear un estándar barato, fácil de usar y prácticamente indestructible.

El diseño inicial funcionó. El USB era pequeño, económico y soportaba futuras evoluciones, pero lo que no era, en absoluto, es un conector reversible. En aquel momento, la prioridad no era la ergonomía del usuario, ni la estética, ni la experiencia de enchufar algo sin pensar. La obsesión era reducir costes. Y aquí está el detalle que marcó a toda una generación. Y es que hacer el USB reversible requería duplicar los contactos internos del conector, lo que habría incrementado el precio del componente prácticamente al doble. En una época donde cada centavo de dólar contaba y donde el objetivo era fabricar cientos de millones de unidades, la idea quedó descartada por innecesaria.
Lo irónico es que los ingenieros sí valoraron la opción de un diseño reversible. No fue una idea descartada por imposibilidad técnica, sino por economía y, sobre todo, por falta de visión a largo plazo. Se asumió que la gente no tendría problemas en conectar el USB con la orientación correcta, que nadie se confundiría, que sería fácil. Y ya sabemos cómo terminó eso. El coste del error no se midió en dólares, sino en frustración global repetida miles de veces al día a lo ancho del globo.
Años más tarde, Ajay Bhatt reconoció públicamente que habría sido mejor hacerlo reversible desde el principio; lo dijo sin rodeos. Pero también habría sido más caro, y en 1996 la industria no estaba dispuesta a pagar esa diferencia. La decisión estaba tomada, y el destino del USB quedaba sellado, pasando a la historia como uno de los conectores más útiles jamás creados y, al mismo tiempo, como uno de los más irritantes.
No sería hasta dos décadas después cuando alguien volvió a plantear seriamente la necesidad de un conector verdaderamente universal. De ese replanteamiento nació el USB‑C, un estándar que no sólo es reversible, sino que también sirve para carga de dispositivos, trasferencia de datos, transmisión vídeo, alimentación de monitores, transporte de audio y casi cualquier cosa que se pueda transferir por un cable sin ofender las leyes de la electrónica. El USB‑C es, básicamente, lo que el USB siempre quiso ser pero no pudo ser por culpa de un recorte presupuestario noventero.
Lo divertido de todo esto es que la tecnología actual nos demuestra que aquello que era «demasiado caro» hace veinte años hoy resulta indispensable. El USB‑C se ha convertido en el estándar moderno precisamente porque soluciona el mayor defecto del de tipo A: su incomprensible orgullo por tener una sola forma válida de entrar.
Al final, la moraleja es sencilla y un poco reconfortante. La próxima vez que falles en algo simple o estúpido —como dejar las llaves dentro del coche o enviar un correo importante al destinatario equivocado— recuerda que incluso ingenieros brillantes arrastraron al mundo entero durante décadas por una decisión aparentemente insignificante. El USB no es simétrico porque alguien se equivocó o no quiso aportar más dinero al proyecto. Y gracias a ello, ahora tenemos un conector moderno que parece mágico en comparación con aquel. A veces, de los errores también se alumbra progreso. Aunque tardemos veinte años en arreglarlo.
Los salvapantallas de los noventa que consumían más recursos que un videojuego

Hubo una época —y no hace tanto, aunque parezca prehistoria informática— en la que el PC no estaba precisamente para florituras. Vivíamos felices con nuestros 166 MHz, con 32 MB de RAM que eran oro puro, y con sistemas operativos que tenían la misma estabilidad que una torre de Jenga montada encima de un ventilador. En ese mundo hostil nació una de las criaturas más entrañables y, al mismo tiempo, más peligrosas que han habitado en un escritorio: el salvapantallas. Aquellas pequeñas piezas de software se suponía que estaban ahí para evitar que se quemara la pantalla de los monitores CRT, pero todos sabemos que, en la práctica, muchas veces sólo conseguían quemar la paciencia del usuario o la dignidad del procesador.
Entre todos ellos brillan —o chisporrotean— dos leyendas que marcaron a fuego la historia de cualquier PC noventero: el mítico Starfield (Campo de estrellas, en castellano) y las no menos famosas e hipnóticas 3D tubes (que se tradujo como Tuberías 3D) renderizadas en OpenGL. El primero te hacía sentir como si tu equipo fuese la USS Enterprise acelerando hacia un espacio de salto; el segundo convertía tu humilde Pentium en un alto horno siderúrgico a base de tubos que se generaban, crecían y se iluminaban sin piedad. Eran fascinantes, sí, pero también eran benchmarks encubiertos y trampas de rendimiento para máquinas que ya bastante tenían con mover el puntero del ratón sin atragantarse.
Campo de estrellas, por ejemplo, era poco más que un montón de puntos blancos viniendo hacia ti. Simulaba un salto al hiperespacio, lo cual, en los noventa, era lo más parecido que tendríamos a una experiencia espacial real sin ser millonarios. Lo gracioso es que la velocidad de esos puntos era una especie de prueba del algodón sobre la salud de tu PC: si iban a tirones, tu tarjeta gráfica estaba al borde del colapso; si se movían fluidos, eras el rey del barrio; y si se desplazaban en direcciones raras, probablemente tu driver VGA había decidido improvisar. Que este protector de pantalla naciera para evitar quemados en el monitor era casi anecdótico. La verdadera razón de activarlo era quedarse mirando embobado pensando «algún día viviremos así», mientras el PC sudaba para mantener los FPS.

Tuberías 3D era otra cosa. Aquello era pornografía del OpenGL. Un entramado infinito de caños que se generaban en tiempo real, giraban, se cruzaban, se iluminaban…; un delirio gráfico que hoy podría mover cualquier reloj digital barato, pero que, a la sazón, dejaba al procesador como si viniera de correr una maratón cuesta arriba. Los primeros segundos eran hipnóticos, casi elegantes, pero al poco rato el ventilador del microprocesador empezaba a sonar como si intentara despegar. El puntero del ratón se movía con la dignidad de una gelatina temblorosa y, en el mejor de los casos, la animación terminaba con un cuelgue. En el peor, con un pantallazo azul que parecía más arte conceptual que mensaje de error.

La pregunta lógica es por qué demonios estos salvapantallas consumían tantos recursos. La respuesta es maravillosa por su simplicidad: porque podían. En una época en la que el PC estaba la mayor parte del tiempo «descansando», los desarrolladores vieron en los salvapantallas un territorio sin reglas, un paisaje libre donde se podían permitir el lujo de experimentar sin pensar demasiado en el rendimiento. Algunos simulaban modelos 3D sin optimizar, otros no limitaban los FPS, otros se anclaban a bucles infinitos que ignoraban cualquier tipo de carga del sistema. Con frecuencia, parecían más demostraciones técnicas camufladas que utilidades pensadas para proteger nada. Y el usuario, mientras tanto, feliz de ver el espectáculo. Hasta que tocaba mover el ratón y descubrir que todo el sistema había envejecido diez años durante la última hora.
Pero si los salvapantallas oficiales ya eran curiosos, los de terceros eran directamente una jungla posapocalíptica del software. Había peces tridimensionales que parecían haber escapado de una rave, acuarios falsos que repetían la misma textura cutre en mosaico hasta marearte, simulaciones de fuego que consumían tanta CPU que daban ganas de apagar el monitor para no tentar al destino e incluso salvapantallas interactivos que respondían al sonido del micrófono (cuando no se colgaban sencillamente porque habías estornudado). Y luego estaban joyas como After Dark, con sus ovejas saltarinas, sus tostadoras voladoras y sus pingüinos suicidas. Todos ellos eran experimentos, bromas internas hechas software y ocurrencias llevadas al extremo sin supervisión adulta.

Con el tiempo, los monitores dejaron de necesitar protección, la tecnología LCD mandó a la hoguera los quemados de fósforo, y los salvapantallas fueron quedando como un vestigio de otra época. Pasaron de ser una necesidad técnica a un lujo inútil y, de allí, a convertirse en una reliquia. De hecho, en los sistemas modernos siguen estando ahí, escondidos, como dinosaurios amables esperando a que alguien los invoque por nostalgia. Ya nadie instala tuberías, ni estrellas, ni peces rave; la pantalla simplemente se apaga, como un adulto aburrido que ya no tiene energía para videojuegos.
Y aún así, algo de magia queda. Porque aquellos salvapantallas eran un símbolo, una muestra de que en el software también había espacio para lo innecesario, para lo bello, para lo absurdo y para lo experimental. Fueron un recordatorio de que la informática del siglo pasado no siempre era práctica, pero sí era creativa. Nos enseñaron que un PC podía comportarse como un horno, que el OpenGL podía convertirse en enemigo íntimo del rendimiento, que no todas las animaciones necesitaban de un propósito y que, de vez en cuando, una idea inútil podía convertirse en un icono.
Hoy, cuando recordamos el viaje estelar o las tuberías asesinas que parecían empeñadas en derretir tu Pentium, no pensamos en los cuelgues ni en el ruido del ventilador. Pensamos en las noches frente al monitor, en la sensación de asombro, en ese momento en el que la animación se convertía en una especie de teatro doméstico. Pensamos, en definitiva, en un pedazo de historia digital que, aunque ya no cumpla ninguna función, sigue ocupando un lugar cariñoso en la memoria de quienes lo vivieron.
El bus VLB: cuando decidieron ponerle un cohete a la placa base y salió regular

El VESA Local Bus, más conocido como VLB, fue uno de esos inventos que solo pudieron nacer en los turbulentos años noventa, cuando la industria del PC estaba creciendo a un ritmo demasiado rápido como para esperar a que Intel lo resolviera todo con elegancia.
A principios de aquella década, la transición del 386 al 486 había disparado la capacidad de cálculo del procesador, pero el resto del sistema, especialmente el venerable bus ISA, seguía arrastrándose con sus 16 bits a 8 MHz y un ancho de banda que hoy haría sonrojar a un reloj digital de los chinos. El resultado era un cuello de botella monumental, sobre todo en un área que empezaba a adquirir importancia crítica: el vídeo. Los modos SVGA, las resoluciones superiores a 640×480 y el incremento del consumo gráfico exigían un canal más rápido entre el procesador y las tarjetas de expansión. El ISA no daba más de sí, y el EISA, aunque mejorado, era caro y orientado a servidores. La industria doméstica necesitaba una solución inmediata, barata y lo suficientemente potente para aguantar hasta que apareciera un estándar más serio.
Ahí entró en juego la Video Electronics Standards Association (VESA), una agrupación de fabricantes preocupados por la interoperabilidad de los estándares gráficos. En 1992 propusieron una solución atrevida y claramente transitoria: un bus que literalmente colgase del bus local del procesador 486, aprovechando sus líneas de datos de 32 bits y su frecuencia de reloj, normalmente entre 25 y 50 MHz. El resultado fue el VLB, un bus con un rendimiento teórico de más de 100 MB/s, lo cual rondaba entre diez y quince veces la capacidad del humilde ISA. La idea era tan simple como peligrosa, pues si el problema se concentraba en que el bus ISA era lento, ¿por qué no permitíamos a la tarjeta gráfica acceder directamente al bus del procesador? Era como dejar a un mecánico enchufar un turbo al motor sin avisar al fabricante del coche. Pero la necesidad era urgente, y el truco funcionó.

Físicamente, el VLB consistía en un conector adicional situado a continuación de la ranura ISA estándar. Por eso las tarjetas VLB eran tan largas, porque una parte ocupaba la ranura ISA tradicional y otra encajaba en la extensión VLB, como si hubieran injertado dos tarjetas en una. Esa longitud extrema no era un capricho, sino consecuencia del número de señales adicionales que el bus necesitaba para sincronizarse con el microprocesador. Y aquí empezaban los problemas, pues al depender directamente del reloj del CPU, cualquier variación en la placa base, cualquier imprecisión en las pistas o cualquier exceso de longitud podía provocar inestabilidad.
Las placas base tenían que diseñarse como si fueran instrumentos de precisión, porque las señales de VLB no toleraban retardos significativos. Los fabricantes solían anunciar compatibilidad con 40 MHz, pero muchos equipos se desplomaban al intentar usar el bus por encima de 33 MHz. Además, aunque el estándar permitía hasta tres ranuras VLB por placa madre, pocas se atrevían a implementar más de una y, cuando incluían dos, hacerlo funcionar todo a la vez y sin errores era casi un acto de magia.
El propósito principal del VLB fue acelerar las tarjetas gráficas. En 1992 y 1993, cuando los chips de Cirrus Logic, S3, Tseng Labs o Trident dominaban el mercado SVGA, disponer de un bus rápido podía marcar una diferencia sustancial en operaciones de transferencia de vídeo, escritura en framebuffer y uso de aceleración 2D primitiva.

Pero las gráficas no fueron las únicas beneficiadas. Muy pronto comenzaron a aparecer controladoras IDE y SCSI con interfaz VLB, aprovechando el mayor ancho de banda para transferencias de disco. También surgieron tarjetas de red y adaptadores multi-I/O que, sobre el papel, prometían un rendimiento superior al de sus equivalentes ISA. La realidad era más ambivalente, ya que no todas estas tarjetas lograban beneficios tangibles, pero cuando lo hacían, el salto era apreciable. Para un PC doméstico de mediados de los noventa que dependía del 486, el VLB era, sin exagerar, la única vía práctica para obtener un rendimiento gráfico competitivo.
El motivo de su caída fue, precisamente, su propia naturaleza improvisada. El VLB estaba diseñado alrededor del 486 y no tenía futuro más allá de él. Pentium introdujo cambios sustanciales en el bus del procesador y exigía una arquitectura completamente distinta para la comunicación con dispositivos de expansión. Intel llevaba años desarrollando un estándar más sofisticado, independiente del reloj del procesador, más estable, más escalable y más apto para un ecosistema en expansión: el bus PCI, que comenzó a imponerse hacia 1994 y se convirtió en el estándar dominante apenas un año después. Frente al PCI, el VLB parecía lo que realmente era: un puente improvisado. No soportaba bien mayores frecuencias, no era compatible con arquitecturas posteriores, carecía de mecanismos avanzados de arbitraje y su dependencia directa del procesador imponía restricciones insostenibles. Cuando las placas base para Pentium empezaron a llegar en masa, prácticamente todas eliminaron el VLB y adoptaron PCI de forma contundente.
Podría parecer que el VLB fue un fracaso, pero sería injusto. Cumplió exactamente la función para la que fue creado: ofrecer una interfaz de alta velocidad en los meses en los que no existía otra alternativa viable. Permitió que los 486 exprimieran todo su rendimiento gráfico justo cuando más se necesitaba, mantuvo viva la competitividad de los PC compatibles frente a estaciones propietarias y, de paso, evitó que el ISA siguiera lastrando al mercado un par de años más. Fue un invento efímero pero crucial, una pieza de ingeniería pragmática que resolvió un problema urgente a pesar de ser frágil, caprichosa y tremendamente sensible a las particularidades del hardware.

Hoy, ver una tarjeta VLB es casi un ritual arqueológico: largas, pesadas, con el conector doble característico; recuerdan una época en la que la informática de consumo avanzaba tan deprisa que los estándares nacían con fecha de caducidad incorporada. El VLB no sobrevivió a su tiempo, pero dejó una huella decisiva en la transición tecnológica de los primeros noventa. Fue un puente, sí, pero un puente que sostuvo todo el peso del mercado mientras la industria corría a construir algo mejor.
