-
Ferdinand Braun inventa el primer tubo de rayos catódicos, base para los futuros monitores
-
Boris Rosing logra mostrar figuras en un TRC
-
Kenjiro Takayanagi introdujo un televisor TRC capaz de recibir imágenes con una resolución de 40 líneas.
-
Durante la Segunda Guerra Mundial, las primeras visualizaciones gráficas fueron utilizadas en radares y sistemas de puntería, mostrando datos en osciloscopios de rayos catódicos (CRT). No existía aún un concepto formal de “computación gráfica”, pero se sentaron las bases con la representación visual de datos.
-
Aunque el ENIAC no tenía gráficos, sus salidas numéricas impresas inspiraron investigaciones para mostrar datos de forma visual directa.
-
Ben Laposky crea patrones de luz llamados “oscilones” usando un osciloscopio analógico, asi creó las primeras imágenes gráficas.
-
El UNIVAC I, aunque pensado para cálculos numéricos, incorporó salidas visuales primitivas que inspiraron la idea de usar pantallas como dispositivos interactivos.
-
El MIT desarrolla Whirlwind, primera computadora en usar un tubo de rayos catódicos para representar información visual
-
Alexander S. Douglas crea OXO (Tres en Raya) en la computadora EDSAC, con salida en un monitor CRT.
-
Russell Kirsch en el NBS (National Bureau of Standards) digitaliza la primera imagen en un escáner y define el concepto de píxel, base de toda imagen rasterizada.
-
En el MIT, Ivan Sutherland crea Sketchpad, la primera interfaz gráfica interactiva con soporte para dibujo vectorial, manipulación directa y uso de un “light pen”. Este invento marca el inicio formal de la computación gráfica interactiva.
-
Aunque en sus etapas iniciales, los primeros simuladores 3D (como el de vuelo de General Electric) comenzaron a explorar la creación de mundos virtuales simples, aún no se utilizaban algoritmos generativos o redes neuronales.
-
Estudiantes del MIT desarrollan Spacewar!, uno de los primeros videojuegos gráficos interactivos.
-
IBM desarrolla uno de los primeros plotters para generar gráficos vectoriales en papel a partir de datos computacionales.
-
William Fetter acuña el término “Computer Graphics” y pioneros como Bresenham desarrollan algoritmos eficientes para dibujar líneas y curvas en pantallas raster.
-
Se populariza la representación de color por medio del modelo RGB en monitores, permitiendo el manejo de imágenes a color mediante la combinación aditiva de luz.
-
Permite dibujar líneas rectas con gran eficiencia en pantallas raster, base para casi todo dibujo digital de la época.
-
General Electric presenta un simulador de vuelo con gráficos tridimensionales wireframe, usado para entrenamiento de pilotos.
-
Sistemas gráficos comienzan a conectarse en red para compartir visualizaciones en entornos de investigación.
-
La Universidad de Utah desarrolla el primer framebuffer capaz de almacenar y mostrar imágenes a todo color, un avance clave para gráficos rasterizados.
-
Atari lanza Pong, uno de los primeros videojuegos comerciales que lleva gráficos en tiempo real a las masas.
-
Xerox PARC crea el Xerox Alto, primer computador con interfaz gráfica de usuario (GUI), iconos y ventanas, influyendo en futuras computadoras personales.
-
Bui Tuong Phong desarrolla un modelo de sombreado que mejora el realismo al calcular cómo la luz interactúa con superficies curvas.
-
Se lanza Spasim, un simulador multijugador en 3D wireframe para mainframes PLATO, anticipando los juegos tridimensionales.
-
Apple lanza un ordenador personal con soporte de gráficos a color, accesible para usuarios domésticos.
-
Turner Whitted desarrolla técnicas para suavizar bordes dentados en gráficos rasterizados, mejorando la calidad visual.
-
Se desarrollan bibliotecas gráficas propietarias para facilitar programación 3D, antecedente de OpenGL.
-
Durante esta época, los algoritmos generativos empiezan a usarse en áreas como CAD y videojuegos, pero de forma limitada y sin técnicas de IA o redes neuronales. Los mundos eran creados manualmente, aunque con algunos algoritmos matemáticos que definían la estructura y geometría de los entornos.
-
IBM lanza el PC con la tarjeta gráfica CGA (Color Graphics Adapter), capaz de mostrar gráficos en color.
-
Autodesk lanza AutoCAD, revolucionando el diseño asistido por computadora (CAD) con soporte para modelado vectorial en 2D y 3D.
-
Apple introduce el Macintosh con GUI, ratón e interfaces visuales fáciles de usar, popularizando la computación gráfica en el hogar y la oficina.
-
Pixar estrena el primer corto animado con modelado y animación 3D de alto nivel, mostrando el potencial del CGI para el cine.
-
Thomas y John Knoll empiezan a desarrollar el software que luego se convertirá en Photoshop.
-
SGI desarrolla IrisGL, que luego evolucionará en OpenGL, el estándar abierto de gráficos 3D multiplataforma
-
Adobe lanza Photoshop, el software de edición de imágenes raster más influyente, que marca un antes y un después en el diseño digital.
-
Silicon Graphics libera OpenGL, permitiendo gráficos 3D de alto rendimiento en múltiples plataformas.
-
En la academia, se comienzan a explorar las redes neuronales para tareas de imagen, como clasificación, pero aún no se empleaban para la creación de contenido 3D. La idea de usar redes neuronales para crear o generar imágenes comienza a ganar tracción.
-
Aparecen motores gráficos como el de Doom, optimizados para 3D en tiempo real, introduciendo texturizado y mapas de luz.
-
Pixar y Disney estrenan Toy Story, primera película animada íntegramente en 3D por computadora.
-
Microsoft lanza DirectX para Windows, un conjunto de APIs que incluye gráficos 3D y sonido, impulsando videojuegos en PC.
-
DirectX 7 y OpenGL permiten a los desarrolladores escribir programas personalizados para controlar iluminación y efectos visuales en GPU.
-
Considerada la primera GPU real, con transformaciones y lighting en hardware.
-
Primer GPU con soporte completo para shaders programables, acelerando el realismo gráfico en tiempo real.
-
Los motores de videojuegos comienzan a implementar algoritmos generativos básicos para la creación procedural de entornos. Daggerfall (1996) es uno de los primeros videojuegos con grandes mundos generados proceduralmente, pero estos no usan redes neuronales.
-
Se populariza el uso de GPUs para cómputo paralelo (GPGPU), no solo gráficos, gracias a su potencia.
-
Se introduce el concepto de Physically Based Rendering, mejorando la simulación precisa de materiales y luz.
-
Khronos Group lanza WebGL, permitiendo gráficos 3D acelerados por hardware directamente en navegadores web.
-
El avance en GPUs móviles permite experiencias de realidad aumentada y videojuegos 3D en teléfonos inteligentes.
-
Epic Games presenta UE4 con capacidades avanzadas de iluminación, físicas y renderizado en tiempo real.
-
Epic Games libera UE4, democratizando el acceso a gráficos de alta calidad para desarrolladores independientes.
-
Se comienza a explorar el uso de redes neuronales para la generación de texturas realistas. Investigadores crean Generative Adversarial Networks (GANs) aplicadas a la mejora de imágenes de baja resolución a alta resolución, lo que tiene un impacto directo en la creación de texturas de alta calidad en entornos 3D.
-
Ian Goodfellow introduce las Generative Adversarial Networks (GANs), que se utilizan rápidamente para tareas de síntesis de imágenes y texturas. Esta técnica se adopta para la creación de contenido en 3D, permitiendo que las texturas sean generadas automáticamente, adaptándose a diversos estilos visuales.
-
Lanzamiento de Oculus Rift y HTC Vive, impulsando el desarrollo de experiencias inmersivas 3D.
-
Dispositivos de realidad virtual con seguimiento de movimiento preciso y experiencias inmersivas.
-
Investigadores en IA y gráficos computacionales empiezan a usar redes neuronales convolucionales (CNNs) y GANs para generar automáticamente mapas 3D y escenas completas. Se desarrollan herramientas como 3DGAN, que permiten generar geometrías simples, como edificios, montañas y paisajes, a partir de modelos entrenados con grandes bases de datos de entornos reales o virtuales.
-
NVIDIA lanza la serie RTX con trazado de rayos en tiempo real, llevando iluminación y reflejos realistas a videojuegos y simuladores.
-
Se fusionan los métodos tradicionales de generación de contenido procedural con redes neuronales para crear mundos y texturas más detalladas. Este enfoque permite la generación dinámica de mapas de terreno, ciudades y objetos de forma que se pueden adaptar al estilo del juego o las necesidades del usuario.
-
Se utiliza Deep Learning para la creación automática de mundos 3D y personajes. Algoritmos como Neural Radiance Fields (NeRF) permiten generar escenas realistas 3D a partir de una serie de imágenes 2D, lo que influye en la creación de entornos virtuales. NeRF utiliza redes neuronales para modelar la luz y el color en escenas tridimensionales con un nivel de detalle muy alto.
-
Se integra ray tracing, sombreado de tasa variable y otras tecnologías avanzadas para juegos de nueva generación.
-
El uso de GANs para la creación de texturas 3D realistas se extiende, con aplicaciones como Artbreeder, que genera texturas, paisajes y otros elementos visuales para videojuegos, arquitectura y simulaciones en tiempo real.
-
Las redes neuronales comienzan a ser aplicadas para transformar el estilo de las texturas 3D, uniendo Deep Learning y Neural Style Transfer para aplicar estilos artísticos a entornos generados automáticamente. Esto es utilizado en la creación de texturas que imitan estilos artísticos o realistas.
-
Grandes compañías de videojuegos comienzan a utilizar algoritmos generativos para crear mundos, texturas y personajes completos en sus videojuegos. La combinación de redes neuronales con realidad virtual y metaversos empieza a permitir la creación de mundos virtuales enteros que se modifican en tiempo real con la ayuda de IA, haciendo que el contenido sea infinito y adaptativo.
-
A generativa permite crear texturas, modelos 3D y animaciones de forma automática, integrándose en flujos de trabajo de cine, videojuegos y diseño.
-
Con el avance de la tecnología, las GANs y redes neuronales de última generación permiten la creación casi completamente automática de mundos 3D realistas, desde el terreno hasta los objetos, texturas y personajes, con inteligencia adaptativa que genera entornos virtuales dinámicamente según el comportamiento del usuario o las condiciones del entorno.