Compu

Historia del cómputo, desde la Segunda Guerra Mundial hasta el presente

  • Maquina Enigma

    Maquina Enigma

    Al principio de la Segunda Guerra Mundial,
    Alemania casi ha dominado Europa a
    excepción de Inglaterra. Debido a la
    imposibilidad de Alemania para invadirla de
    forma inmediata, los alemanes establecen un
    bloqueo naval usando submarinos. Para
    coordinar las acciones de intercepción y
    hundimiento los alemanes ocuparon la llamada
    “Máquina Enigma”.
  • Coloso

    Coloso

    Desarrollado en secreto por los británicos (con la participación de Alan Turing), fue el primer computador electrónico digital programable (aunque limitado), utilizado para descifrar los mensajes cifrados de la máquina Lorenz alemana. Clave en la victoria aliada.
  • MARK I

    MARK I

    La Calculadora Automática de Secuencia Controlada (ASCC) de Harvard, construida por IBM. Era una máquina electromecánica (no totalmente electrónica), pesaba 5 toneladas y medía unos 15,5 metros de largo.
  • ENIAC (1ra generación)

    ENIAC (1ra generación)

    Fue diseñada principalmente para resolver problemas complejos, como calcular trayectorias balísticas, aunque su objetivo principal era automatizar cálculos manuales que eran propensos a errores.
  • Invención del transistor

    Invención del transistor

    Consistió en un dispositivo semiconductor que reemplazó a las voluminosas y poco fiables válvulas de vacío. Fue creado por John Bardeen, Walter Brattain y William Shockley en los Laboratorios Bell en 1947, y su nombre proviene de "transfer" y "resistor". La invención fue un punto de inflexión, ya que los transistores, al ser más pequeños, duraderos y eficientes, permitieron la miniaturización de la electrónica y el desarrollo de los dispositivos digitales que usamos hoy en día.
  • UNIVAC I (Primer PC Comercial)

    UNIVAC I (Primer PC Comercial)

    Fue la primera línea de computadoras comerciales producidas en Estados Unidos, siendo su modelo más famoso el UNIVAC I, lanzado en 1951, fue creada para procesamiento de datos empresariales y gubernamentales, a diferencia de las computadoras anteriores que se centraban en cálculos matemáticos. El UNIVAC I fue adquirido por la Oficina del Censo de EE. UU. y se hizo famoso por predecir el resultado de las elecciones presidenciales de 1952 basándose en una pequeña muestra de votos
  • FORTRAN (Primer Lenguaje de Alto Nivel)

    FORTRAN (Primer Lenguaje de Alto Nivel)

    fue el primer lenguaje de programación de alto nivel, desarrollado por IBM en 1957 bajo la dirección de John Backus. Fue diseñado para facilitar la programación científica y numérica, permitiendo a científicos e ingenieros escribir programas más cercanos a la notación matemática y evitar el uso del lenguaje ensamblador de bajo nivel.
  • Invención del Circuito Integrado (CI)

    Invención del Circuito Integrado (CI)

    El circuito integrado (CI) fue inventado en 1958 por dos ingenieros diferentes que trabajaron de forma independiente: Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor. Kilby creó el primer prototipo funcional utilizando germanio, mientras que Noyce desarrolló el primer CI de silicio utilizando el proceso planar, una técnica que es la base de la tecnología de fabricación actual.
  • IBM System/360 (Tercera Generación: CI)

    IBM System/360 (Tercera Generación: CI)

    El IBM 360 marcó el inicio de la tercera generación al ser el primer computador comercial en usar circuitos integrados. Fue también la primera familia de computadoras diseñada para ser compatible entre sí y poder ejecutar el mismo software independientemente de su tamaño.
  • Microprocesador Intel 4004

    Microprocesador Intel 4004

    El Intel 4004, lanzado en 1971, fue el primer microprocesador de un solo chip disponible comercialmente. Originalmente diseñado para calculadoras japonesas, este chip de 4 bits revolucionó la informática, miniaturizando una computadora completa en un pequeño chip que ejecutaba 60,000 operaciones por segundo. Su creación marcó el inicio de la era de la computación moderna basada en microprocesadores
  • ARPANET y el Origen de Internet

    ARPANET y el Origen de Internet

    ARPANET, creada por el Departamento de Defensa de EE.UU. en 1969 para una red militar descentralizada, fue el precursor de Internet. En 1983, adoptó el protocolo TCP/IP, marcando la transición a lo que hoy conocemos como Internet. Tim Berners-Lee, en 1989, desarrolló la base de la World Wide Web (HTML, HTTP, Web Browser), que se hizo pública en 1991, abriendo el camino para la internet comercial y global.
  • Altair 8800 y Fundación de Microsoft

    Altair 8800 y Fundación de Microsoft

    El Altair 8800 inspiró la fundación de Microsoft en 1975, cuando Bill Gates y Paul Allen desarrollaron su primer producto: un intérprete del lenguaje de programación BASIC para esta computadora. El éxito del Altair 8800, una de las primeras microcomputadoras personales, llevó a Gates y Allen a crear software comercial para ella, un paso crucial que marcó el inicio de Microsoft y el comienzo de la era del software para el público masivo
  • IBM PC (Estándar de la Industria)

    IBM PC (Estándar de la Industria)

    Se convirtió en el "Estándar de la Industria" al establecer una arquitectura abierta y usar el sistema operativo MS-DOS de Microsoft, lo que permitió la proliferación de computadoras compatibles y la creación de un mercado masivo para hardware y software. El éxito del modelo 5150 se debió en gran parte a su adopción en oficinas y hogares, impulsada por la confianza en la marca IBM y la disponibilidad de aplicaciones como la hoja de cálculo VisiCalc.
  • Apple Macintosh (Interfaz Gráfica)

    Apple Macintosh (Interfaz Gráfica)

    La interfaz gráfica del Apple Macintosh, lanzada en 1984 con la Macintosh 128K, revolucionó la computación personal al reemplazar los complejos comandos de texto con una forma intuitiva de interactuar a través de un ratón, iconos y ventanas.
  • Microsoft Windows 1.0

    Microsoft Windows 1.0

    Windows 1.0 es el primer sistema operativo de Microsoft, lanzado el 20 de noviembre de 1985, que proporcionaba una interfaz gráfica de usuario (GUI) sobre MS-DOS. Incluía aplicaciones básicas como la calculadora, el bloc de notas y el calendario, y permitía la ejecución de múltiples programas. Su objetivo era simplificar el uso de las computadoras, eliminando la necesidad de comandos de texto, aunque no tuvo un gran éxito comercial hasta versiones posteriores.
  • Red mundial (WWW)

    Red mundial (WWW)

    La World Wide Web (WWW) es un sistema de documentos de hipertexto accesibles a través de internet, que permite navegar entre páginas web mediante un navegador. Sirve para compartir información (texto, videos, documentos) de forma global, acceder a contenido diverso y comunicarse a distancia.
  • iPhone y la Revolución Móvil

    iPhone y la Revolución Móvil

    El iPhone marcó la revolución móvil al combinar en un solo dispositivo un teléfono, un reproductor de música (iPod) y un centro de conexión a Internet con pantalla táctil. Lanzado en 2007, su interfaz intuitiva, diseño elegante y el ecosistema de aplicaciones (App Store) crearon un nuevo estándar para la industria, cambiando la forma en que las personas se comunican, consumen información y viven en general.
  • Computación en la Nube y Big Data

    Computación en la Nube y Big Data

    La computación en la nube y el Big Data están estrechamente relacionados, ya que la nube proporciona la infraestructura escalable y el poder de procesamiento necesario para almacenar, gestionar y analizar grandes volúmenes de datos (Big Data). En resumen, la nube es "dónde y cómo" se hace, mientras que el Big Data es "qué se hace" con los datos, permitiendo a las organizaciones procesar datos de diversas fuentes y tomar decisiones más informadas.
  • Computación Cuántica y Multimodalidad

    Computación Cuántica y Multimodalidad

    Es una gran cantidad de datos con muchos dígitos a gran velocidad y hace generar nuevas relaciones entre variables, clasificando y reconociendo patrones avanzados, para ejecutar diversos escenarios con variables y restricciones diferentes hasta llegar a una solución óptima asi actualmente la computación cuántica aún se encuentra en desarrollo y varias empresas que ya la están utilizando, aún se investiga cómo alcanzar un mayor nivel de estabilidad y fiabilidad para que llegue a un estado pleno.