-
Desarrolla la estadìstica demográfica con su libro Natural and Political Observations Made upon the Bills of Mortality. Graunt es considerado uno de los primeros en aplicar mètodos cuantitativos al estudio de poblaciones, creo una de las primeras tablas de vida, que permitìan estimar la esperanza de vida en diferentes edades.
-
formula el teorema de bayes clave en la inferencia de datos, El teorema que lleva su nombre se refiere a la probabilidad de un suceso condicionado por la ocurrencia de otro suceso. Más específicamente, con su teorema se resuelve el problema conocido como «de la probabilidad inversa». Su teorema es usado hoy en inteligencia artificial, medicina, economìa, ingenierìa y mas.
-
Carl Friedrich Gauss, introdujo la distribuciòn normal y el metodo minimos cuadraticos, utilizado en ingenierìa para ajustar datos, estudio como los errores de medicion se distribuyen y como correguirlos para mejorar la precisiòn en calculos cientificos.
-
Hermann Hollerith, revolucionó el análisis de datos en 1885 al desarrollar una máquina tabuladora basada en tarjetas perforadas, inspirada en los telares de Jacquard. Su invento surgió como respuesta a la necesidad de agilizar el procesamiento del censo de EE.UU., que en 1880 había tomado casi ocho años en completarse manualmente. La máquina de Hollerith permitía registrar, clasificar y contar información de manera automatizada mediante un sistema de agujas y circuitos eléctricos.
-
La máquina tabuladora de Hermann Hollerith se utilizó para procesar el Censo de Estados Unidos, reduciendo el tiempo de análisis de casi 8 años a solo 2 años. Este avance permitió ahorrar tiempo y costos significativos, demostrando el potencial de la automatización en el manejo de grandes volúmenes de datos y sentando las bases para el desarrollo de la computación moderna, lo que eventualmente condujo a la fundación de la empresa que se transformaría en IBM.
-
.En 1930, se realizaron estimaciones de la población mexicana utilizando una muestra de los microdatos del Quinto Censo de Población. Estos datos fueron recuperados mediante el proyecto Muestreo probabilístico para la recuperación de los microdatos del censo general, financiado por el Fondo Sectorial CONACYT-INEGI. El objetivo fue analizar la información censal con técnicas de muestreo probabilístico para comprender mejor la estructura demográfica y socioeconómica del país.
-
Realizan una máquina capaz de analizar documentos cifrados por los alemanes usando la máquina enigma en la Segunda Guerra Mundial, de tal forma que era capaz de descifrar la clave con la que habían sido cifrados. Y en ese mismo año se realiza una máquina, el Predictor de Kerrison, capaz de automatizar la defensa antiaérea apuntando contra aviones enemigos.
Ver el analisis de la pelìcula basada en la maquina turing:
https://faridieck.com/collections/libros -
El ENIAC(Computador e Integrador Numérico Electrónico), originalmente conocido como “Proyecto PX”, se diseñó y construyó entre 1943 y 1945 en la escuela Moore, de la Universidad de Pensilvania. En él trabajaron John Mauchly y John Presper Eckert, junto a un equipo de ingenieros que incluía a Robert F. La primera computadora electronica de proposito general, permitiendo calculos mas rapidos en ingenieria estructural y militar.
-
El Proyecto Manhattan usó computadoras para analizar y predecir el comportamiento de reacciones nucleares en cadena, ayudando en el desarrollo de la bomba atómica.
-
Se introduce la comercialización de la analítica con el desarrollo del primer modelo de predicción meteorológica basado en el análisis de datos, permitiendo prever el clima con mayor precisión y sentando las bases para futuras aplicaciones en diversas industrias.
-
En 1951, se lanzó la UNIVAC I (Universal Automatic Computer I), la primera computadora comercial de propósito general, desarrollada por J. Presper Eckert y John Mauchly.
Esta máquina, que ocupaba una sala entera y pesaba 13 toneladas, revolucionó el análisis de datos al reemplazar las tarjetas perforadas por cintas magnéticas, aumentando la velocidad y capacidad de almacenamiento. -
Los tres primeros lenguajes de programación modernos, cuyos descendientes aún continúan siendo utilizados, son: FORTRAN (1957) ingenieria y calculos cientificos, creado por John Backus.
LISP (1958)fue diseñado para manipulacion simbolica y inteligencia artificial, creado por John McCarthy.
COBOL (1959) diseñaddo para gestion de datos en empresas, bancos y gobiernos, creado por Grace Hopper durante su participación en el Short Range Committee. -
En 1970, Edgar F. Codd introdujo el modelo relacional de bases de datos, que revolucionó la gestión de la información y llevó al desarrollo de SQL. Ese mismo año, Dennis Ritchie comenzó a desarrollar el lenguaje C, que se convertiría en uno de los más influyentes de la historia.
-
En 1977, se lanzaron las primeras computadoras personales listas para usar, marcando el inicio de la era de la informática personal. La llamada "Trinidad de 1977" incluyó el Apple II, el Commodore PET y el TRS-80, que hicieron que la computación fuera accesible para hogares, escuelas y pequeñas empresas.
El Apple II, diseñado por Steve Wozniak, destacó por sus gráficos en color y su facilidad de uso. -
En 1981, IBM lanzó la IBM PC (5150) estableciendo el estándar para las computadoras personales. Utilizaba el sistema operativo MS-DOS de Microsoft y el procesador Intel 8088, lo que permitió la creación de computadoras compatibles por otras empresas
Este año marcó la expansión del software comercial, con programas como WordStar y VisiCalc, impulsando el uso de las PC en negocios y hogares. La IBM PC consolidó a Microsoft e Intel como líderes tecnológicos y definió la informática personal moderna -
En 1995, Microsoft lanzó Windows 95, revolucionando la informática personal con su interfaz gráfica y el Menú Inicio. Este año también marcó la expansión de Internet, con el crecimiento de la web, el lanzamiento de Internet Explorer y el auge del comercio electrónico con Amazon y eBay.
Además, Sony PlayStation debutó en América, estableciendo un nuevo estándar en videojuegos con gráficos en 3D. -
En 1998, Larry Page y Sergey Brin fundaron Google, revolucionando la búsqueda en Internet con un algoritmo más eficiente. Este año también marcó la llegada de Windows 98, con mejor compatibilidad para la web y dispositivos USB.
Además, Steve Jobs regresó a Apple, impulsando la creación del icónico iMac G3, que modernizó el diseño de las computadoras, consolidando Internet como una herramienta esencial para el mundo digital. -
El análisis de datos entra en la era del Big Data con el crecimiento masivo de datos digitales. Se popularizan herramientas como Hadoop y Spark para el procesamiento eficiente de grandes volúmenes de información. La computación en la nube, con AWS, Google Cloud y Azure, facilita el acceso a infraestructura avanzada. El Machine Learning y la inteligencia artificial impulsan avances en análisis predictivo, reconocimiento de imágenes y procesamiento de lenguaje natural.
-
La pandemia de COVID-19 acelera la digitalización y el uso de IA en salud, comercio y trabajo remoto. OpenAI lanza GPT-3, revolucionando el procesamiento de lenguaje natural. El Big Data se usa para rastrear la pandemia y mejorar la analítica predictiva. Crecen la computación en la nube, la automatización y la robótica en múltiples industrias.
-
En 2023, la ingeniería se beneficia del mantenimiento predictivo, la analítica en tiempo real y los gemelos digitales gracias a la IA y el machine learning. En 2024, la integración de Big Data e IA multimodal optimiza la gestión de proyectos, el diseño de materiales inteligentes y la automatización en construcción y manufactura, impulsando la innovación en el sector.