-
En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
-
Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, el inventor francés que al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos, para procesar datos.
-
Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
-
El matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
-
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
-
Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos.
-
Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
-
Durante la II Guerra Mundial, un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus.
-
Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.
-
En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en EEUU. Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946.
-
Desde los años 1950 se incursionó en lo que sería el concepto de desarrollo de software, se dio inicio a la implementación de lenguajes de programación
-
Se trabajaba con la idea de "codificar y corregir".
Desarrollo a base de ensayo y error ya que no había un planteamiento previo. -
El primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba.
-
El FORTRAN vino a dominar el área de la programación desde el principio.
-
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación.
-
Aparecen los primeros lenguajes como cobol, algol y el más popular, fortran. El desarrollo de software lo hace que sea un producto.
-
Nace el modelo cascada: Ordena rigurosamente las etapas del ciclo de vida del software, de tal forma que el inicio de cada etapa debe esperar a la finalización de la inmediatamente anterior. La primera descripción formal la realizó en 1970 Winston W. Royce, en uno de sus artículos.
-
La ingeniería de software fue estimulada por la llamada crisis del software, para describir los frecuentes problemas que aparecían durante el proceso de desarrollo de nuevo software. Muchos proyectos de software sobrepasaron el presupuesto y el tiempo estimados. Algunos proyectos causaron daños a la propiedad otros proyectos causaron pérdidas de vidas.
-
Simplificar los códigos.
Multiprogramación y Sistemas Multiusuario.
Aparición del software como producto. -
Este surge tras una conferencia en Garmisch (Alemania) llamado Comité de ciencia de la OTAN que tuvo como objetivo resolver los problemas de la crisis del software.
-
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error.
-
Durante décadas, resolver la crisis del software desencadenó en que compañías e investigadores produjeran más y más herramientas software. El costo de propiedad y mantenimiento del software en la década de 1980 fue dos veces más caro que el propio desarrollo del software. Cada nueva tecnología o práctica que apareció entre 1970 y 1990 fue tratada como una “bala de plata” (en inglés, silver bullet) que solucionaría la crisis del software.
-
Aparición del lenguaje de programación C, es un lenguaje orientado a la implementación de sistemas operativos.
-
David Parnas introduce los conceptos clave de modularidad y camuflaje de información
Un paradigma de programación es un estilo de desarrollo de programas. Es decir, un modelo para resolver problemas computacionales. Los lenguajes de programación, necesariamente, se encuadran en uno o varios paradigmas a la vez a partir del tipo de órdenes que permiten implementar, algo que tiene una relación directa con su sintaxis. -
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann.
-
Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
-
Los sistemas distribuidos comenzaron a desarrollarse al ritmo del crecimiento de las redes locales a principios de los 70. Un sistema distribuido se define como una colección de computadoras separadas físicamente y conectadas entre sí por una red de comunicaciones.
-
Fue con la introducción de la microcomputadora Altair 8800 en 1975 que BASIC se extendió ampliamente. En ese mismo año Microsoft (entonces formado por dos personas: Bill Gates y Paul Allen) lanzó el Altair BASIC.
-
El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
-
Sistemas distribuidos.
Redes de área local y global.
Amplio uso de microprocesadores.
Desarrollo de software para redes y comunicaciones. -
Esta ley indicaba que los sistemas electrónicos debían incrementar para mantener la satisfacción del usuario a lo largo del periodo de vida del sistema.
-
Creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc.
Los sistemas expertos son una de las aplicaciones de la inteligencia artificial que pretende simular el razonamiento humano, de la misma manera que lo haría un experto en un área de especialización. -
Surge el ciclo de vida del software y con ello su mantenimiento
-
Sistemas expertos.
Redes de información.
Tecnologías orientadas a objetos.
Redes neuronales.
Software de inteligencia artificial. -
Se establecen los lenguajes Orientados a Objetos. Es un paradigma de programación que viene a innovar la forma de obtener resultados. Los objetos manipulan los datos de entrada para la obtención de datos de salida específicos, donde cada objeto ofrece una funcionalidad especial.
-
Sistemas de búsqueda de palabra clave evolucionaron en buscadores web, y muchos sistemas de software tuvieron que ser rediseñados, para la búsqueda internacional, dependiendo de las técnicas de posicionamiento en buscadores. Eran necesarios sistemas de traducción de lenguaje natural humano para intentar traducir el flujo de información en múltiples idiomas extranjeros, con muchos sistemas de software siendo diseñados para uso multilenguaje.
-
LINUX nació como un producto de Linus Torvalds, inspirado en el MINIX, el sistema operativo desarrollado por Andrew S. Tanenbaum en su obra "Sistemas Operativos: Diseño e Implementación". Libro en el cual, tras un estudio general sobre los servicios que debe proporcionar un sistema operativo y algunas formas de proporcionar éstos, introduce su propia implementación del UNIX en forma de código fuente en C y ensamblador, además de las instrucciones necesarias para poder instalar y mejorar el mismo
-
Se desarrollan los modelos relacionados con la mejora de procesos software, como Ideal, TSP o PSP, y las normas y estándares de calidad como la ISO 9126, ISO 12207, ISO 9000-3, etc. También durante esta década se consolida la orientación a objetos (OO) como aproximación para el desarrollo de sistemas informáticos, apareciendo más de cien metodologías, que terminan dando lugar a la aparición del Lenguaje de Modelado Unificado (UML) y el Proceso Unificado (UP).
-
Java es un lenguaje de programación y una plataforma informática comercializada por primera vez en 1995 por Sun Microsystems. Hay muchas aplicaciones y sitios web que no funcionarán a menos que tenga Java instalado y cada día se crean más. Su sintaxis deriva en gran medida de C y C++, pero tiene menos utilidades de bajo nivel que cualquiera de ellos.
-
Omnipresencia de la Web.
Reutilización de la información.
Componentes de software reutilizables. -
Con la creciente demanda de software en muchas organizaciones pequeñas, la necesidad de soluciones de software de bajo costo llevó al crecimiento de metodologías más simples y rápidas que desarrollaran software funcional, de los requisitos de implementación, más rápidos y más fáciles. El uso de prototipos rápidos evolucionó a metodologías ligeras completas como la programación extrema (XP), que intentó simplificar muchas de las áreas de la ingeniería de software.
-
Fue una versión de Microsoft Windows, basado en Windows 2000 y con importantes mejoras. Fue lanzado al mercado el 25 de octubre de 2001.
-
Es una serie de sistemas operativos gráficos desarrollados y comercializados por Apple Inc. desde 2001. Es el sistema operativo principal para la familia de computadoras Mac de Apple. Dentro del mercado de computadoras de escritorio, portátiles y hogareñas, y mediante el uso de la web, es el segundo sistema operativo de escritorio más utilizado, después de Microsoft Windows.
-
La popularidad de Google y YouTube toma gran importancia y los manda a la cima. Internet ha cambiado mucho, y a un ritmo abrumador. Los que ahora son gigantes de la tecnología, hace apenas una década no tenían ni de lejos la dimensión actual. Poco a poco (YouTube), a convertirse en uno de los portales web más importantes del mundo, y con una impresionante tendencia de crecimiento.
-
Es una versión de Microsoft Windows, línea de sistemas operativos desarrollada por Microsoft. Esta versión se enfoca a la utilización en equipos de escritorio en hogares y oficinas, equipos portátiles, tabletas y equipos media center.
-
Cientos de millones de internautas se entregaron en 2007 al frenesí de los sitios de socialización, como MySpace o Facebook, una forma lúdica de intercambio que ha resultado redituable pero también cuestionada por intromisión en la vida privada.
-
Inicialmente fue desarrollado por Android Inc., que adquirió Google en 2005. El 5 de noviembre de 2007 se crea la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio.4 El mismo día se anuncia la primera versión del sistema operativo: Android 1.0 Apple Pie. Los terminales con Android no estarían disponibles hasta el año 2008.
-
Entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.
-
En esta década, además de afianzarse las líneas descritas en las décadas anteriores, estamos asistiendo a una mayor integración entre la Ingeniería del Software y la Ingeniería de Sistemas -destacando el papel de los requisitos no funcionales y, sobre todo, de la seguridad-; la importancia de la “Ciencia, Gestión e Ingeniería de los Servicios” que requiere un enfoque interdisciplinar (informática, marketing, gestión empresarial, ciencias cognitivas, derecho, etc.)
-
El principal cambio es la polémica decisión de eliminar Menú Inicio, existente desde Windows 95 como estándar de facto en cómo presentar aplicaciones en interfaces gráficas. Añade soporte para microprocesadores ARM, además de los microprocesadores tradicionales x86 de Intel y AMD.
-
Windows 10 es el actual sistema operativo desarrollado por Microsoft como parte de la familia de sistemas operativos Windows NT. Sin embargo ya salió su nueva evolución, el Windows 11
-
Tras la llegada de la Inteligencia Artificial (IA) a los dispositivos móviles, esta tecnología ha dejado de ser un concepto lejano para convertirse en algo que se entrelaza con nuestra vida diaria. Incluso, la IA puede mejorar la experiencia de uso y el desempeño de los dispositivos móviles, especialmente en apartados como el de la fotografía.
-
Inteligencia Artificial, Bases de Datos, DevOps, Virtualización de Servidores, Movilidad e Internet de las Cosas.
En este sentido, Matthew Farrellee, del área de estrategia y tecnologías emergentes dentro de la Oficina del CTO de la firma, explica que, aunque este tipo de aplicaciones son cada vez más habituales, aumentarán su presencia en los procesos de trabajo. -
Software AI: Esto es Más Grande Que Siri.
Aplicaciones Web Progresivas: No Mantengas tu PWA Como POW en la Batalla por la Accesibilidad.
Blockchain: Superando el Hipo de Bitcoin.
La Aplicación: Escapando el Purgatorio de Software. -
Se abordan las áreas de estrategia de datos, ventas y marketing digital, ‘blockchain’, diseño y UX e innovación abierta.
Una de las principales ideas que rondarán el ecosistema será “Los usuarios exigirán usar sus datos de una manera más sostenible y transparente” -
Actualmente se han creado muchas más cosas que aportan a esa maquina que alguna vez hizo solo 4 operaciones básicas, se cuenta con muchas partes del hardware nuevas, se ha creado el internet, procesadores, cámaras, micrófonos, parlantes, memorias, tarjetas de sonido, video, dispositivos de almacenamiento, y algunas de las más avanzadas tecnologías: la inteligencia artificial (IA o AI en ingles), realidad virtual, etc. Permitiendo que cada día el computador pueda prestar más y más servicios.