-
Durante la década de 1930, comenzaron a desarrollarse las primeras máquinas que combinaban componentes eléctricos y mecánicos. En 1936, el matemático británico Alan Turing propuso el concepto de la máquina de Turing, un modelo teórico que describía cómo podía funcionar una máquina capaz de ejecutar cualquier cálculo lógico.
-
En la década de 1940, los avances en la electrónica permitieron reemplazar los componentes mecánicos por tubos de vacío, lo que aumentó la velocidad de cálculo. Durante la Segunda Guerra Mundial, los británicos desarrollaron el Colossus (1943-1944), una máquina usada para descifrar mensajes nazis.
-
En los años 50 surgió la segunda generación de ordenadores, caracterizada por el uso de transistores en lugar de tubos de vacío.
El transistor permitió reducir el tamaño de las máquinas, consumir menos energía y aumentar la fiabilidad. -
La década de 1970 trajo una revolución con la creación del microprocesador. En 1971, Intel lanzó el Intel 4004, el primer microprocesador comercial. Esto permitió construir computadoras más pequeñas y económicas.
En 1975, surgieron los primeros microordenadores personales. -
En la actualidad, la humanidad se encuentra en la frontera de una nueva revolución: la computación cuántica. Al mismo tiempo, la inteligencia artificial generativa y los modelos de lenguaje avanzado están redefiniendo lo que entendemos por “ordenador”: ya no solo una máquina que calcula, sino una que razona, crea y aprende.
-
Los primeros ordenadores se remontan al Ábaco, inventado aproximadamente en el 2400 a.C., usaban instrumento de cálculo básico.
Durante los siglos XVII y XVIII, surgieron las máquinas mecánicas de cálculo, como la Pascalina (1642), creada por Blaise Pascal, que podía sumar y restar de manera automática.