LINEA DE TIEMPO IA

  • George Boole publica “An Investigation of the Laws of Thought”

    Boole introduce el álgebra booleana, formalizando operaciones lógicas (AND, OR, NOT) con símbolos matemáticos. Esta lógica booleana se convierte en el fundamento teórico de circuitos digitales y, por tanto, de los computadores modernos.
  • Primeros autómatas e inteligencia mecánica

    Se construyen autómatas capaces de escribir, dibujar e imitar al ser humano. Aunque puramente mecánicos, inspiran la idea de “máquinas que simulan la inteligencia”.
  • Period: to

    FUNDAMENTOS TEORICOS

  • Alan Turing y la “Máquina de Turing”

    Turing propone un modelo de máquina abstracta capaz de leer y escribir símbolos en una cinta infinita: la Máquina de Turing. Define el concepto de algoritmo y computación universal. Esto es esencial para la IA moderna, porque cualquier algoritmo de IA puede reducirse a operaciones de una Máquina de Turing.
  • McCulloch y Pitts y el “Primer modelo de neurona artificial”

    Publican “A Logical Calculus of the Ideas Immanent in Nervous Activity”, proponiendo un modelo binario simplificado de neurona (umbral on/off). ¡Imagina un “circuito neuronal” hecho con lógica booleana!
  • Norbert Wiener y la cibernética

    Wiener publica “Cybernetics: Or Control and Communication in the Animal and the Machine”. Introduce la idea de sistemas autorregulados, retroalimentación (feedback) y control automático. Aunque no es “IA” pura, la cibernética influye en robótica e IA, considerando máquinas que aprenden a autorregularse.
  • Claude Shannon y la teoría de la información

    En “A Mathematical Theory of Communication” establece la medida de “bits” para información, así como conceptos de entropía y codificación. Esto sienta las bases para procesar datos en IA: cuánta información cabe, cómo transmitirla, cómo codificar conocimiento.
  • Alan Turing publica “Computing Machinery and Intelligence”

    En este artículo seminal pregunta “¿Pueden pensar las máquinas?” y propone el “Test de Turing”: si un interrogador no distingue entre humano y máquina, ¡la máquina “piensa”!
  • Period: to

    Orígenes Formales de la IA

  • Christopher Strachey y Ferranti Mark I

    Strachey programa en la computadora Ferranti Mark I de Manchester un juego de damas, creando lo que se considera uno de los primeros programas de ajedrez (en realidad damas).
  • Arthur Samuel y el primer programa de aprendizaje en damas

    En IBM desarrolla un programa para jugar damas que utiliza “aprendizaje” ajustando su función de evaluación. Esto introduce la noción de “machine learning”: una compu que mejora a medida que juega.
  • Conferencia de Dartmouth: Nace la Inteligencia Artificial

    En el Dartmouth Summer Research Project on Artificial Intelligence se acuña formalmente el término “Artificial Intelligence”. Se establece el objetivo de hacer que las máquinas simulen el proceso de aprendizaje y cualquier otra facultad de la inteligencia.
  • Marvin Minsky y John McCarthy fundan el Laboratorio de IA del MI

    Crean el AI Lab en el MIT, epicentro de la investigación en IA en EE. UU. durante los años 60 y 70.
  • Programa de Damas de Arthur Samuel

    Arthur Samuel programó un sistema que aprendía a jugar damas mediante experiencia, ajustando sus estrategias con cada partida
  • “SHRDLU” de Terry Winograd

    Winograd desarrolló SHRDLU, un sistema que entendía y manipulaba bloques de colores y formas mediante lenguaje natural en un mundo virtual.
  • Stanford Cart

    El Stanford Cart fue uno de los primeros robots móviles con visión por computadora capaz de desplazarse evitando obstáculos.
  • Auge de los Sistemas Expertos

    Con el desarrollo de Mycin (para diagnóstico médico) y otros sistemas, la IA se enfocó en imitar el razonamiento de expertos humanos.
  • Period: to

    La Primera “IA Winter”

    A finales de los 80 y principios de los 90, la IA sufrió recortes de financiamiento y desilusión por expectativas no cumplidas. Fue como un frío inverno donde muchas investigaciones se paralizaron por un ratito.
  • Yann LeCun y la popularización de Convolutional Neural Networks (CNNs)

    Desarrolla redes neuronales convolucionales (CNNs) para reconocer dígitos manuscritos (dataset MNIST). Fue el puntapié para todo lo que hoy vemos en visión por computadora.
  • Roomba: La aspiradora autónoma

    Sale a la luz la Roomba, una aspiradora robot doméstica que navega sola por la casa. ¡Más de uno pensó que se le iba a escapar de las manos!
  • “Deep Belief Networks” de Geoffrey Hinton

    Hinton y su equipo reavivan el interés en redes profundas publicando cómo entrenar redes profundas sin tanto drama. Marca el inicio de la revolución “deep learning”.
  • AlexNet gana Imagenet

    La red AlexNet aplasta a la competencia en la competencia ImageNet, reduciendo drásticamente el error en clasificación de imágenes. Fue como el momento “gloria total” para las redes profundas en visión.
  • Nace Generative Adversarial Networks (GANs)

    Proponen las GANs, dos redes que compiten entre sí (generador vs discriminador) para crear imágenes falsas hiperrealistas.
  • BERT revoluciona el Procesamiento de Lenguaje Natural (NLP)

    Google presenta BERT, un modelo de lenguaje basado en Transformers que mejora drásticamente tareas de NLP como análisis de sentimiento, preguntas-respuestas, etc.
  • GPT-3 demuestra poder de modelos de lenguaje gigantes

    Con 175 mil millones de parámetros, GPT-3 genera textos coherentes y asombrosos en múltiples idiomas. ¡Chatbots, redacción, poesía y más!
  • DALL·E 2 e imágenes generativas “text-to-image”

    DALL·E 2 crea imágenes a partir de descripciones textuales con calidad impresionante.
  • GPT-4: Modelos multimodales y mayor capacidad

    GPT-4 amplía aún más el horizonte: multimodalidad (texto e imagen), comprensión y generación más complejas, ¡hasta razonamiento más avanzado!
  • GPT-4o y otros modelos “omnigenerales”

    OpenAI anuncia GPT-4o, una versión optimizada para dispositivos móviles y entornos embebidos, con capacidades casi en tiempo real.
  • Hitos emergentes y futuros cercanos

    Con la preocupación social en aumento, surgen normativas y herramientas para entender y regular algoritmos. Figuras como Timnit Gebru y Margaret Mitchell (en ética de IA) abogan por transparencia y justicia en los sistemas.