EVOLUCION IA

  • 1950: Teseo, el ratón robot

    1950: Teseo, el ratón robot

    Teseo, creado por Claude Shannon en 1950, fue uno de los primeros ejemplos de aprendizaje automático. Era un ratón robótico que, a través de ensayo y error, aprendía a recorrer un laberinto, recordando y olvidando soluciones según cambiaban las condiciones.
  • La Conferencia de Dartmouth (1956)

    La Conferencia de Dartmouth (1956)

    , la Conferencia de Dartmouth reunió a visionarios como John McCarthy, Marvin Minsky, Claude Shannon y otros para explorar la posibilidad de crear máquinas con inteligencia similar a la humana. Fue en esta conferencia donde se acuñó el término “inteligencia artificial”, estableciendo la agenda para la investigación de la IA. Además, fue ahí donde se presentó el Logic Theorist de Newell y Simon, capaz de demostrar teoremas matemáticos.
  • Frank Rosenblatt

    Frank Rosenblatt

    Frank Rosenblatt, psicólogo e informático, desarrolla el perceptrón, una de las primeras redes neuronales artificiales que permite el reconocimiento de patrones a partir de una red de aprendizaje informático de dos capas. El perceptrón introduce el concepto de clasificador binario que puede aprender de los datos mediante el ajuste de las ponderaciones de sus entradas a través de algoritmos de aprendizaje.
  • El filósofo Hubert Dreyfus publica "Alchemy and Artificial Intelligence" 1965

    El filósofo Hubert Dreyfus publica "Alchemy and Artificial Intelligence" 1965

    Hubert Dreyfus critica la IA por no poder replicar la intuición humana. I.J. Good advierte sobre máquinas ultrainteligentes que podrían superar el control humano. Weizenbaum crea ELIZA, que simula conversación y plantea dudas éticas. Feigenbaum y su equipo desarrollan DENDRAL, un sistema experto que automatiza decisiones en química.
  • 1970 Terry Winograd crea SHRDLU

    1970 Terry Winograd crea SHRDLU

    Terry Winograd crea SHRDLU, un innovador programa de comprensión del lenguaje natural13. SHRDLU es capaz de interactuar con los usuarios en un lenguaje sencillo para manipular objetos en un mundo virtual de bloques, lo que demuestra el potencial de los ordenadores para comprender y responder a instrucciones complejas. Las capacidades de SHRDLU ponen de manifiesto tanto la promesa como los retos de lograr una comprensión más amplia del lenguaje por parte de la IA.
  • 1973 James Lighthill presenta un informe crítico

    1973 James Lighthill presenta un informe crítico

    James Lighthill presenta un informe crítico al British Science Research Council sobre el progreso de la investigación en materia de IA, en el que concluye que esta no ha cumplido sus promesas iniciales15. Sostiene que el campo no ha producido avances significativos, lo que ha llevado a una drástica reducción de la financiación por parte del gobierno para la IA en el Reino Unido. Este informe contribuyó al inicio del primer invierno de la IA16.
  • 1982 Japón lanza el Proyecto de Sistemas Informáticos de Quinta Generación

    1982 Japón lanza el Proyecto de Sistemas Informáticos de Quinta Generación

    1982
    Japón lanza el Proyecto de Sistemas Informáticos de Quinta Generación (FGCS) con el objetivo de desarrollar ordenadores capaces de manejar el razonamiento lógico y la resolución de problemas, y de impulsar la investigación en IA. Este proceso consiste en realizar tareas como el procesamiento del lenguaje natural y los sistemas expertos. Aunque se interrumpió en 1992, el proyecto FGCS y sus hallazgos contribuyeron en gran medida al desarrollo del campo de la programación lógica concurrente.
  • 1997 Sepp Hochreiter y Jürgen Schmidhuber presentan la memoria larga a corto plazo

    1997 Sepp Hochreiter y Jürgen Schmidhuber presentan la memoria larga a corto plazo

    Sepp Hochreiter y Jürgen Schmidhuber presentan la memoria larga a corto plazo (LSTM), un tipo de red neuronal recurrente (RNN) diseñada para superar las limitaciones de las RNN tradicionales, en particular su incapacidad para capturar de forma eficaz dependencias a largo plazo en los datos. Las redes LSTM se utilizan ampliamente en aplicaciones como el reconocimiento de escritura a mano, el reconocimiento de voz, el procesamiento del lenguaje natural y la predicción de series temporales.
  • 2007 Fei-Fei Li y su equipo de la Universidad de Princeton inician el proyecto ImageNet

    2007 Fei-Fei Li y su equipo de la Universidad de Princeton inician el proyecto ImageNet

    Fei-Fei Li y su equipo de la Universidad de Princeton inician el proyecto ImageNet que consiste en la creación de una de las bases de datos más grandes y completas. ImageNet está diseñado para respaldar el desarrollo de software al proporcionar millones de imágenes etiquetadas en miles de categorías. La escala y la calidad del conjunto de datos permiten avances en la investigación de la visión artificial, en el entrenamiento de modelos de deep learning para clasificar objetos en imágenes.
  • 2017 Investigadores del laboratorio de Investigación en Inteligencia Artificial de Facebook

    2017 Investigadores del laboratorio de Investigación en Inteligencia Artificial de Facebook

    Investigadores del laboratorio de Inteligencia Artificial de Facebook (FAIR) entrenan a dos chatbots para negociar. Aunque están programados para comunicarse en inglés, comenzaron a desviarse del lenguaje humano y crearon su propia taquigrafía para comunicarse mejor. Esta evolución fue inesperada, ya que optimizaron su comunicación sin intervención humana. El experimento se detuvo para mantener el lenguaje comprensible para humanos,
  • 2020 OpenAI presenta GPT-3

    2020 OpenAI presenta GPT-3

    OpenAI presenta GPT-3, un modelo de lenguaje con 175 000 millones de parámetros, lo que lo convierte en uno de los modelos de IA más grandes y sofisticados hasta la fecha. GPT-3 demuestra su capacidad para generar textos similares a los humanos, entablar conversaciones, escribir código, traducir idiomas y generar textos c.
  • 2024 Google lanza Gemini 1.5 en beta limitada

    2024 Google lanza Gemini 1.5 en beta limitada

    Google lanza Gemini 1.5 en beta limitada, un modelo de lenguaje capaz de manejar longitudes de contexto de hasta 1 millón de tokens.42 El modelo es capaz procesar y comprender grandes cantidades de información en una sola instrucción, e incrementar así su capacidad para mantener el contexto en conversaciones y tareas complejas sobre textos extensos. Gemini 1.5 representa un salto notable en el procesamiento del lenguaje natural.