Portada

Historia del cómputo, desde la Segunda Guerra Mundial hasta el presente

  • Colossus (Finales de la Guerra)

    Colossus (Finales de la Guerra)

    Desarrollado en secreto por los británicos (con la participación de Alan Turing), fue el primer computador electrónico digital programable (aunque limitado), utilizado para descifrar los mensajes cifrados de la máquina Lorenz alemana. Clave en la victoria aliada.
  • Mark I (ASCC)

    Mark I (ASCC)

    La Calculadora Automática de Secuencia Controlada (ASCC) de Harvard, construida por IBM. Era una máquina electromecánica (no totalmente electrónica), pesaba 5 toneladas y medía unos 15.5 metros de largo.
  • ENIAC (Primera Generación: Tubos de Vacío)

    ENIAC (Primera Generación: Tubos de Vacío)

    El Integrador y Calculador Numérico Electrónico (ENIAC) se considera el primer computador electrónico de propósito general. Fue desarrollado en la Universidad de Pensilvania por John Mauchly y J. Presper Eckert. Utilizaba cerca de 18,000 tubos de vacío y consumía una enorme cantidad de energía.
  • Invención del Transistor

    Invención del Transistor

    Inventado en los Laboratorios Bell por John Bardeen, Walter Brattain y William Shockley. Este pequeño dispositivo semiconductor revolucionó la electrónica, sentando las bases de la próxima generación de computadoras.
  • FORTRAN (Primer Lenguaje de Alto Nivel)

    FORTRAN (Primer Lenguaje de Alto Nivel)

    John Backus en IBM desarrolla FORTRAN (Formula Translation), el primer lenguaje de programación de alto nivel ampliamente utilizado. Permitió a los programadores dejar de usar código máquina y ensamblador, aumentando la productividad.
  • UNIVAC I (Primer PC Comercial)

    UNIVAC I (Primer PC Comercial)

    La Computadora Automática Universal (UNIVAC I) se convierte en la primera computadora comercial fabricada en los Estados Unidos. Fue utilizada por la Oficina del Censo de EE. UU. y es famosa por predecir la victoria de Dwight D. Eisenhower en las elecciones presidenciales de 1952
  • Invención del Circuito Integrado (CI)

    Invención del Circuito Integrado (CI)

    Jack Kilby (Texas Instruments) y Robert Noyce (Fairchild Semiconductor) inventan de forma independiente el Circuito Integrado o Chip. Esto permitió miniaturizar y fabricar en masa los componentes electrónicos.
  • IBM System/360 (Tercera Generación: CI)

    IBM System/360 (Tercera Generación: CI)

    IBM lanza la familia de computadoras System/360. Este fue un hito porque introdujo la idea de una arquitectura de computadora estandarizada, permitiendo a los clientes actualizar sus máquinas sin reescribir todo su software.
  • Ley de Moore

    Ley de Moore

    Gordon Moore, cofundador de Intel, postula que el número de transistores en un circuito integrado se duplicaría cada uno o dos años, una predicción que ha impulsado la industria durante décadas.
  • ARPANET y el Origen de Internet

    ARPANET y el Origen de Internet

    La Agencia de Proyectos de Investigación Avanzada (ARPA) del Departamento de Defensa de EE. UU. crea ARPANET, una red de cuatro nodos (universidades) que permite la transferencia de paquetes de datos, sentando las bases de la moderna Internet.
  • Microprocesador Intel 4004

    Microprocesador Intel 4004

    Intel lanza el 4004, diseñado por Federico Faggin, Marcian Hoff y Stanley Mazor. Este fue el primer microprocesador en un solo chip de silicio, marcando el inicio de la Cuarta Generación.
  • Altair 8800 y Fundación de Microsoft

    Altair 8800 y Fundación de Microsoft

    El Altair 8800 se considera el primer kit de microcomputadora personal, que se vendía por correo. Bill Gates y Paul Allen desarrollaron un intérprete de BASIC para esta máquina y posteriormente fundaron Microsoft.
  • Period: to

    Apple I y Apple II

    Steve Wozniak y Steve Jobs fundan Apple y lanzan la Apple I, seguida por la Apple II en 1977, una de las primeras computadoras personales producidas en masa con gráficos en color.
  • IBM PC (Estándar de la Industria)

    IBM PC (Estándar de la Industria)

    IBM lanza el IBM Personal Computer (IBM 5150), con un sistema operativo de Microsoft (MS-DOS). Su arquitectura abierta hizo que se convirtiera en un éxito masivo y en el estándar de la industria, iniciando la "era PC".
  • Apple Macintosh (Interfaz Gráfica)

    Apple Macintosh (Interfaz Gráfica)

    Apple presenta el Macintosh, la primera computadora exitosa disponible comercialmente con una Interfaz Gráfica de Usuario (GUI) controlada por un ratón, haciendo que la computación fuera más intuitiva para el público general.
  • Microsoft Windows 1.0

    Microsoft Windows 1.0

    Microsoft lanza la primera versión de Windows, un sistema operativo gráfico que se ejecutaba sobre MS-DOS, iniciando la competencia con Apple por el control de la interfaz gráfica.
  • World Wide Web (WWW)

    World Wide Web (WWW)

    Tim Berners-Lee, trabajando en el CERN (Suiza), inventa el protocolo HTTP y el lenguaje HTML, y escribe la primera página web. Esto liberó a Internet para el público general, sentando las bases de la web moderna.
  • iPhone y la Revolución Móvil

    iPhone y la Revolución Móvil

    Apple presenta el iPhone, un teléfono inteligente que combina las funciones de un iPod, un teléfono móvil y un navegador de Internet. Esto llevó la computación a la palma de la mano, impulsando la era de la movilidad y las apps.
  • Computación en la Nube y Big Data

    Computación en la Nube y Big Data

    Servicios como Amazon Web Services (AWS), Microsoft Azure y Google Cloud se consolidan, permitiendo a las empresas almacenar y procesar datos masivos de manera flexible y a bajo costo, dando origen al concepto de "la Nube".
  • Period: to

    Deep Learning y la IA Generativa

    Avances en el aprendizaje profundo (Deep Learning) impulsan la Inteligencia Artificial a niveles sin precedentes. Se desarrollan asistentes de voz (Siri, Alexa) y modelos que pueden generar texto e imágenes.
  • Computación Cuántica y Multi-modalidad

    Computación Cuántica y Multi-modalidad

    Google anuncia haber alcanzado la "supremacía cuántica" con el chip Sycamore. La IA se vuelve generativa y multimodal (capaz de entender y crear texto, imagen, audio y código), transformando industrias y el trabajo diario.