-
El primer sistema electrónico práctico para la transmisión y recepción de imágenes, es presentado por un grupo de investigación de la RCA encabezado por Vladimir Zworykin.
-
Norbert Wiener, profesor del MIT, publica ”Cybernetics: Or the Control and Communication in the Animal and the Machine”, un libro que describe el concepto de comunicaciones y control en sistemas electrónicos, mecánicos y biológicos.
-
James J. Gibson introduce el concepto de flujo óptico que describe el movimiento aparente de píxeles individuales en el plano de la imagen.
-
La FCC aprueba el estándar de imagen RS-170 propuesto por el Comité Nacional del Sistema de Televisión (NTSC).
-
Russell Kirsch, miembro del personal de NBS, crea la primera imagen digital.
-
Se inventó el primer escáner de imágenes digitales convirtiendo imágenes en cuadrículas de números.
-
Lawrence Roberts, el padre de la visión artificial, publica "Percepción mecánica de sólidos tridimensionales", donde analiza la extracción de información 3D sobre objetos sólidos a partir de imágenes 2D. Esto condujo a mucha investigación en el laboratorio de inteligencia artificial del MIT y otras instituciones de investigación que analizan la visión por computadora en el contexto de bloques y objetos simples.
-
El proyecto de verano del MIT Marvin Minsky instruye a un estudiante de posgrado para conectar una cámara a una computadora y describir lo que ve, marcando un hito en el desarrollo del reconocimiento de patrones.
-
Hitachi RD presenta HIVIP Mk.1, el primer robot inteligente con un sistema de visión.
-
Bob Metcalfe desarrolla Ethernet en el Centro de Investigación Xerox Palo Alto
-
-
Bruce Bayer, un científico estadounidense, inventa la matriz de filtros Bayer, llevando las imágenes en color a la fotografía digital.
-
David Marr, del laboratorio de IA del MIT, crea un enfoque de abajo hacia arriba para la comprensión de escenas a través de la visión artificial. Este enfoque comienza con un boceto 2D que se basa en la computadora para obtener una imagen 3D final.
-
Kunihiko Fukushima construye el "neocognitron", el precursor de las actuales redes neuronales de convolución.
-
General Motors Consight se convierte en el primer sistema de visión artificial en entrar en producción en la fundición de St. Catherines, Ontario, y tiene éxito en la clasificación de hasta seis piezas diferentes a una velocidad de hasta 1,400 por hora desde una cinta transportadora.
-
Intelledex Corporation, fundada por Rich Carone de Hewlett-Packard, presenta el primer sistema de robot con una plataforma de visión artificial integrada.
-
-
Nippon Telegraph and Telephone Public Corporation presenta un lector OCR de caracteres kanji escritos a mano llamado OCR60 que se convierte en el primer ejemplo de una aplicación de sistema a gran escala de reconocimiento óptico de caracteres.
-
El estándar IEEE1394 es una marca registrada de Apple como FireWire.
-
1394 Trade Association presenta el protocolo DCAM/IIDC 1.04 que describe el intercambio de datos con cámaras IEEE 1394.
-
Sony comienza el desarrollo del primer sensor de imagen CMOS “IMX001”.
-
IEEE presenta la variante más popular de Gigabit Ethernet 1000BASE-T definida por el estándar IEEE 802.3ab.
-
Automated Imaging Association (AIA) introduce el estándar Camera Link.
-
-
AIA presenta Gige Vision para estandarizar la entrega de datos de video e imagen a través de redes Gigabit Ethernet.
-
-
El concepto de CoaXPress se demuestra por primera vez en VISION 2008, en Stuttgart, Alemania.
-
Google comenzó a probar automóviles robóticos en las carreteras.
-
Emergent Vision Technologies se convierte en la primera empresa en lanzar cámara de 10 gigas línea de producto.
-
Google lanzó Goggles, una aplicación de reconocimiento de imágenes para búsquedas basadas en imágenes tomadas por dispositivos móviles.
-
Para ayudar a etiquetar fotos, Facebook comenzó a usar reconocimiento facial.
-
Se usó reconocimiento facial para ayudar a confirmar la identidad de Osama bin Laden después de que fue asesinado en una incursión de los EE. UU.
-
La Asociación de comercio 2 y la Asociación de imágenes industriales de Japón (JIIA) presentan el estándar IIDC1394
-
La red neuronal de Google Brain reconoció imágenes de gatos utilizando un algoritmo de aprendizaje profundo.
-
Automated Imaging Association anuncia la introducción del estándar USB 3.0 Vision.
-
Google lanzó el sistema de aprendizaje automático TensorFlow de código abierto.
-
El algoritmo AlphaGo de Google DeepMind venció al campeón mundial de Go.
-
Emergent Vision Technologies se convierte en la primera empresa en lanzar cámara de 25 gigas línea de producto.
-
El modelo de inteligencia artificial de Alibaba obtuvo mejores resultados que los humanos en una prueba de lectura y comprensión de la Universidad de Stanford.
-
Emergent Vision Technologies se convierte en la primera empresa en lanzar cámara de 100 gigas línea de producto.
-
Sony presenta el primer sensor de imagen del mundo IMX500 con IA integrada, permitiendo el procesamiento de imágenes directamente en el sensor sin necesidad de hardware adicional.
-
Un equipo internacional, incluyendo la Universidad de Granada, creó una herramienta de inteligencia artificial capaz de generar imágenes satelitales realistas de futuras inundaciones, ayudando en la planificación y prevención de desastres naturales.
-
LG presentó su concepto de "Inteligencia Afectuosa", integrando tecnologías de inteligencia artificial de manera más humana y personalizada en la vida de los usuarios, mejorando la interacción y experiencia en diversos dispositivos y servicios.
-
Uso de micro y nano-cámaras para monitoreo médico en tiempo real dentro del cuerpo humano, facilitando diagnósticos de enfermedades sin necesidad de procedimientos invasivos.
-
Avances en visión computacional permitirán interpretar escenas en 4D (considerando cambios temporales y espaciales en tiempo real) y proyectar información en entornos físicos mediante hologramas.
-
Prótesis visuales avanzadas que permitirán a las personas ver espectros de luz invisibles para el ojo humano, como infrarrojos o ultravioleta.
-
Sistemas completamente independientes que podrán tomar decisiones sin intervención humana en tiempo real, aplicados en exploración espacial, seguridad y entornos hostiles.
-
Mezcla completa entre el mundo físico y el digital mediante dispositivos de visión artificial que reconfiguren la percepción visual en tiempo real.
-
Con el avance de la computación cuántica, se espera que la visión artificial se beneficie de la capacidad de procesar grandes volúmenes de datos a una velocidad sin precedentes, mejorando el reconocimiento de patrones complejos en imágenes y videos.
-
a combinación de visión artificial con modelos de IA generativa permitirá reconstrucciones hiperrealistas, mejoras en imágenes médicas y simulaciones avanzadas para entrenamiento de IA.
-
Se mejorarán los sistemas de visión artificial para reducir errores en la detección de obstáculos, mejorar la conducción en entornos urbanos complejos y hacer que los autos sean más seguros en condiciones climáticas adversas.