-
Al principio de la Segunda Guerra Mundial,
Alemania casi ha dominado Europa a
excepción de Inglaterra. Debido a la
imposibilidad de Alemania para invadirla de
forma inmediata, los alemanes establecen un
bloqueo naval usando submarinos. Para
coordinar las acciones de intercepción y
hundimiento los alemanes ocuparon la llamada
“Máquina Enigma”. -
Desarrollado en secreto por los británicos (con la participación de Alan Turing), fue el primer computador electrónico digital programable (aunque limitado), utilizado para descifrar los mensajes cifrados de la máquina Lorenz alemana. Clave en la victoria aliada.
-
La Calculadora Automática de Secuencia Controlada (ASCC) de Harvard, construida por IBM. Era una máquina electromecánica (no totalmente electrónica), pesaba 5 toneladas y medía unos 15,5 metros de largo.
-
Fue diseñada principalmente para resolver problemas complejos, como calcular trayectorias balísticas, aunque su objetivo principal era automatizar cálculos manuales que eran propensos a errores.
-
Consistió en un dispositivo semiconductor que reemplazó a las voluminosas y poco fiables válvulas de vacío. Fue creado por John Bardeen, Walter Brattain y William Shockley en los Laboratorios Bell en 1947, y su nombre proviene de "transfer" y "resistor". La invención fue un punto de inflexión, ya que los transistores, al ser más pequeños, duraderos y eficientes, permitieron la miniaturización de la electrónica y el desarrollo de los dispositivos digitales que usamos hoy en día.
-
Fue la primera línea de computadoras comerciales producidas en Estados Unidos, siendo su modelo más famoso el UNIVAC I, lanzado en 1951, fue creada para procesamiento de datos empresariales y gubernamentales, a diferencia de las computadoras anteriores que se centraban en cálculos matemáticos. El UNIVAC I fue adquirido por la Oficina del Censo de EE. UU. y se hizo famoso por predecir el resultado de las elecciones presidenciales de 1952 basándose en una pequeña muestra de votos
-
fue el primer lenguaje de programación de alto nivel, desarrollado por IBM en 1957 bajo la dirección de John Backus. Fue diseñado para facilitar la programación científica y numérica, permitiendo a científicos e ingenieros escribir programas más cercanos a la notación matemática y evitar el uso del lenguaje ensamblador de bajo nivel.
-
El circuito integrado (CI) fue inventado en 1958 por dos ingenieros diferentes que trabajaron de forma independiente: Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor. Kilby creó el primer prototipo funcional utilizando germanio, mientras que Noyce desarrolló el primer CI de silicio utilizando el proceso planar, una técnica que es la base de la tecnología de fabricación actual.
-
El IBM 360 marcó el inicio de la tercera generación al ser el primer computador comercial en usar circuitos integrados. Fue también la primera familia de computadoras diseñada para ser compatible entre sí y poder ejecutar el mismo software independientemente de su tamaño.
-
El Intel 4004, lanzado en 1971, fue el primer microprocesador de un solo chip disponible comercialmente. Originalmente diseñado para calculadoras japonesas, este chip de 4 bits revolucionó la informática, miniaturizando una computadora completa en un pequeño chip que ejecutaba 60,000 operaciones por segundo. Su creación marcó el inicio de la era de la computación moderna basada en microprocesadores
-
ARPANET, creada por el Departamento de Defensa de EE.UU. en 1969 para una red militar descentralizada, fue el precursor de Internet. En 1983, adoptó el protocolo TCP/IP, marcando la transición a lo que hoy conocemos como Internet. Tim Berners-Lee, en 1989, desarrolló la base de la World Wide Web (HTML, HTTP, Web Browser), que se hizo pública en 1991, abriendo el camino para la internet comercial y global.
-
El Altair 8800 inspiró la fundación de Microsoft en 1975, cuando Bill Gates y Paul Allen desarrollaron su primer producto: un intérprete del lenguaje de programación BASIC para esta computadora. El éxito del Altair 8800, una de las primeras microcomputadoras personales, llevó a Gates y Allen a crear software comercial para ella, un paso crucial que marcó el inicio de Microsoft y el comienzo de la era del software para el público masivo
-
Se convirtió en el "Estándar de la Industria" al establecer una arquitectura abierta y usar el sistema operativo MS-DOS de Microsoft, lo que permitió la proliferación de computadoras compatibles y la creación de un mercado masivo para hardware y software. El éxito del modelo 5150 se debió en gran parte a su adopción en oficinas y hogares, impulsada por la confianza en la marca IBM y la disponibilidad de aplicaciones como la hoja de cálculo VisiCalc.
-
La interfaz gráfica del Apple Macintosh, lanzada en 1984 con la Macintosh 128K, revolucionó la computación personal al reemplazar los complejos comandos de texto con una forma intuitiva de interactuar a través de un ratón, iconos y ventanas.
-
Windows 1.0 es el primer sistema operativo de Microsoft, lanzado el 20 de noviembre de 1985, que proporcionaba una interfaz gráfica de usuario (GUI) sobre MS-DOS. Incluía aplicaciones básicas como la calculadora, el bloc de notas y el calendario, y permitía la ejecución de múltiples programas. Su objetivo era simplificar el uso de las computadoras, eliminando la necesidad de comandos de texto, aunque no tuvo un gran éxito comercial hasta versiones posteriores.
-
La World Wide Web (WWW) es un sistema de documentos de hipertexto accesibles a través de internet, que permite navegar entre páginas web mediante un navegador. Sirve para compartir información (texto, videos, documentos) de forma global, acceder a contenido diverso y comunicarse a distancia.
-
El iPhone marcó la revolución móvil al combinar en un solo dispositivo un teléfono, un reproductor de música (iPod) y un centro de conexión a Internet con pantalla táctil. Lanzado en 2007, su interfaz intuitiva, diseño elegante y el ecosistema de aplicaciones (App Store) crearon un nuevo estándar para la industria, cambiando la forma en que las personas se comunican, consumen información y viven en general.
-
La computación en la nube y el Big Data están estrechamente relacionados, ya que la nube proporciona la infraestructura escalable y el poder de procesamiento necesario para almacenar, gestionar y analizar grandes volúmenes de datos (Big Data). En resumen, la nube es "dónde y cómo" se hace, mientras que el Big Data es "qué se hace" con los datos, permitiendo a las organizaciones procesar datos de diversas fuentes y tomar decisiones más informadas.
-
Es una gran cantidad de datos con muchos dígitos a gran velocidad y hace generar nuevas relaciones entre variables, clasificando y reconociendo patrones avanzados, para ejecutar diversos escenarios con variables y restricciones diferentes hasta llegar a una solución óptima asi actualmente la computación cuántica aún se encuentra en desarrollo y varias empresas que ya la están utilizando, aún se investiga cómo alcanzar un mayor nivel de estabilidad y fiabilidad para que llegue a un estado pleno.