-
Teseo, creado por Claude Shannon en 1950, fue uno de los primeros ejemplos de aprendizaje automático. Era un ratón robótico que, a través de ensayo y error, aprendía a recorrer un laberinto, recordando y olvidando soluciones según cambiaban las condiciones.
-
, la Conferencia de Dartmouth reunió a visionarios como John McCarthy, Marvin Minsky, Claude Shannon y otros para explorar la posibilidad de crear máquinas con inteligencia similar a la humana. Fue en esta conferencia donde se acuñó el término “inteligencia artificial”, estableciendo la agenda para la investigación de la IA. Además, fue ahí donde se presentó el Logic Theorist de Newell y Simon, capaz de demostrar teoremas matemáticos.
-
Frank Rosenblatt, psicólogo e informático, desarrolla el perceptrón, una de las primeras redes neuronales artificiales que permite el reconocimiento de patrones a partir de una red de aprendizaje informático de dos capas. El perceptrón introduce el concepto de clasificador binario que puede aprender de los datos mediante el ajuste de las ponderaciones de sus entradas a través de algoritmos de aprendizaje.
-
Hubert Dreyfus critica la IA por no poder replicar la intuición humana. I.J. Good advierte sobre máquinas ultrainteligentes que podrían superar el control humano. Weizenbaum crea ELIZA, que simula conversación y plantea dudas éticas. Feigenbaum y su equipo desarrollan DENDRAL, un sistema experto que automatiza decisiones en química.
-
Terry Winograd crea SHRDLU, un innovador programa de comprensión del lenguaje natural13. SHRDLU es capaz de interactuar con los usuarios en un lenguaje sencillo para manipular objetos en un mundo virtual de bloques, lo que demuestra el potencial de los ordenadores para comprender y responder a instrucciones complejas. Las capacidades de SHRDLU ponen de manifiesto tanto la promesa como los retos de lograr una comprensión más amplia del lenguaje por parte de la IA.
-
James Lighthill presenta un informe crítico al British Science Research Council sobre el progreso de la investigación en materia de IA, en el que concluye que esta no ha cumplido sus promesas iniciales15. Sostiene que el campo no ha producido avances significativos, lo que ha llevado a una drástica reducción de la financiación por parte del gobierno para la IA en el Reino Unido. Este informe contribuyó al inicio del primer invierno de la IA16.
-
1982
Japón lanza el Proyecto de Sistemas Informáticos de Quinta Generación (FGCS) con el objetivo de desarrollar ordenadores capaces de manejar el razonamiento lógico y la resolución de problemas, y de impulsar la investigación en IA. Este proceso consiste en realizar tareas como el procesamiento del lenguaje natural y los sistemas expertos. Aunque se interrumpió en 1992, el proyecto FGCS y sus hallazgos contribuyeron en gran medida al desarrollo del campo de la programación lógica concurrente. -
Sepp Hochreiter y Jürgen Schmidhuber presentan la memoria larga a corto plazo (LSTM), un tipo de red neuronal recurrente (RNN) diseñada para superar las limitaciones de las RNN tradicionales, en particular su incapacidad para capturar de forma eficaz dependencias a largo plazo en los datos. Las redes LSTM se utilizan ampliamente en aplicaciones como el reconocimiento de escritura a mano, el reconocimiento de voz, el procesamiento del lenguaje natural y la predicción de series temporales.
-
Fei-Fei Li y su equipo de la Universidad de Princeton inician el proyecto ImageNet que consiste en la creación de una de las bases de datos más grandes y completas. ImageNet está diseñado para respaldar el desarrollo de software al proporcionar millones de imágenes etiquetadas en miles de categorías. La escala y la calidad del conjunto de datos permiten avances en la investigación de la visión artificial, en el entrenamiento de modelos de deep learning para clasificar objetos en imágenes.
-
Investigadores del laboratorio de Inteligencia Artificial de Facebook (FAIR) entrenan a dos chatbots para negociar. Aunque están programados para comunicarse en inglés, comenzaron a desviarse del lenguaje humano y crearon su propia taquigrafía para comunicarse mejor. Esta evolución fue inesperada, ya que optimizaron su comunicación sin intervención humana. El experimento se detuvo para mantener el lenguaje comprensible para humanos,
-
OpenAI presenta GPT-3, un modelo de lenguaje con 175 000 millones de parámetros, lo que lo convierte en uno de los modelos de IA más grandes y sofisticados hasta la fecha. GPT-3 demuestra su capacidad para generar textos similares a los humanos, entablar conversaciones, escribir código, traducir idiomas y generar textos c.
-
Google lanza Gemini 1.5 en beta limitada, un modelo de lenguaje capaz de manejar longitudes de contexto de hasta 1 millón de tokens.42 El modelo es capaz procesar y comprender grandes cantidades de información en una sola instrucción, e incrementar así su capacidad para mantener el contexto en conversaciones y tareas complejas sobre textos extensos. Gemini 1.5 representa un salto notable en el procesamiento del lenguaje natural.