mayo 20, 2024

CORSA Online

Información sobre Argentina. Seleccione los temas sobre los que desea obtener más información en Corsa Online

La tarjeta gráfica desafía con éxito la edad

La tarjeta gráfica desafía con éxito la edad

Las ideas tardías tienen una larga tradición en PCGH. No fue hasta febrero que echamos otro vistazo a la Geforce GTX Titan de Nvidia y vimos que la tarjeta gráfica entusiasta de 11 años tuvo un éxito anti-envejecimiento mixto. Hoy damos un salto en el tiempo hasta 2018. A medio camino del presente, hay otra arquitectura de Nvidia esperando a ser probada de nuevo: la Turing, conocida como Geforce RTX 2000. La promesa en ese momento era nada menos que “reinventar los gráficos”, y Para sorpresa de todos, realmente funcionó. A continuación encontrará los factores responsables de esto y los obstáculos que deben superarse.

04:27
Nvidia Geforce RTX 2080 Ti Founders Edition: unboxing y primera impresión en vídeo

SST-1, NV10, R300, G80, TU102

Chip gigante, precio elevado, pero un pequeño salto en el rendimiento: de Cuando se lanzó la Geforce RTX 2080 Ti el 20 de septiembre de 2018, nadie creyó en la visión de los fabricantes de Geforce. No es de extrañar, porque la generación anterior, Pascal, también conocida como Geforce GTX 10, fue el último diseño rasterizado sin concesiones y, por lo tanto, estableció altos estándares. Su sucesor fue radicalmente diferente. nuevo. Conocimiento. Nvidia describió la arquitectura Turing como el mayor paso desde el legendario G80, que introdujo el sombreado unificado y DirectX 10 en el hardware en 2006. El problema: en ese momento, en el mejor de los casos, era factible. AdivinarEsto es lo que Nvidia tenía en mente porque no había material explicativo. La historia de la TI contiene muchos ejemplos de pioneros caídos e innovaciones fallidas, incluida la propia Nvidia, cuyo primer chip gráfico fue casi el último. De modo que el escepticismo era apropiado, al menos por el momento.

A diferencia de todas las tarjetas gráficas anteriores, Turing de NVIDIA se basaba no sólo en un pilar de “juegos”, sino en otros dos: la inteligencia artificial y el trazado de rayos. El famoso problema del huevo y la gallina golpeó con toda su fuerza: aunque Nvidia generó grandes expectativas y hizo agua la boca de los entusiastas de la tecnología, todo lo bonito era solo cosa del futuro. Aunque Nvidia hablaba mucho sobre aprendizaje automático e inteligencia artificial (IA) antes de 2018, estas palabras de moda no eran tan conocidas como lo son hoy. La confianza de Nvidia en sus precios fue otro revés: la Geforce RTX 2080 Ti de gama alta tenía un precio inicial de 1.259 €, y la Geforce RTX 2080 costaba 849 €, 30 € más que la popular Geforce GTX 1080 Ti, por lo que los compradores fueron considerados los primeros en adoptar Para Turing. “Conejillos de Indias” adinerados que realizan pagos por adelantado para el futuro potencial de los dibujos. La conclusión actual de PCGH sobre la Geforce RTX 2080 Ti lo dice todo. En este artículo explicamos si la inversión merece la pena y en qué medida.

Turing: arquitectura pionera

Polígonos, texturas y sombreadores: incluso hoy en día, la gran mayoría de los juegos constan de estos componentes. Pero ya en 2018, los artistas gráficos coincidieron en que el futuro tenía que ser diferente. Más dinámico, más realista, mejor. El trazado de rayos, la restauración virtual de la luz, se ha considerado durante mucho tiempo el “santo grial” del renderizado y el medio para lograr estos objetivos. Aparte de los gráficos en tiempo real, por ejemplo en el cine, el trazado de rayos ha sido durante mucho tiempo el estándar de oro. Quizás la información más importante en este contexto es que Nvidia no lo hizo sola en 2018: en ese momento, el trazado de rayos ya estaba definido como el siguiente paso dentro del estándar DirectX. El trazado de rayos DirectX, o DXR para abreviar, continúa octubre 2018 En Windows 10, Nvidia no inventó la tecnología de trazado de rayos (la idea tiene más de 50 años), ni fue la primera en fabricar el hardware correspondiente (ver aquí). Sin embargo, los californianos hicieron un valioso trabajo pionero: Turing no solo fue el primer procesador de alta gama en ofrecer trazado de rayos por hardware, sino que Nvidia estuvo involucrada en todo desde el principio, con unidades de cómputo dedicadas para todos los pasos del trabajo. Además, se han implementado las tecnologías de soporte y el paquete completo de funcionalidades DirectX 12 Ultimate (DX12U), que solo estaba previsto para 2020. Veamos qué significa esto en detalle:

Innovación nº 1:Núcleos de seguimiento de rayos. Los núcleos RT son unidades especializadas que se encargan del seguimiento de paquetes. Tu tarea es determinar qué rayos inciden en los objetos, determinando así los polígonos y su ubicación. Los núcleos RT de Turing ya son capaces de atravesar un rango Estructura de datos BVH Así como todas las pruebas de intersección (caja y triángulo). Las ALU RT Core y Shader funcionan en paralelo, una al lado de la otra.
Innovación nº 2: Núcleos tensoriales. Estas calculadoras se especializan en la multiplicación de matrices, lo que ocurre con frecuencia en el aprendizaje profundo. Turing ofrece hasta 125 TFLOPS de rendimiento FP16 (aritmética de coma flotante reducida), 250 TOPS para INT8 y 500 TOPS para INT4 (formatos de números enteros en cada caso). Los núcleos tensoriales ahora se utilizan en DLSS y Ray Reconstruction.
Innovación nº 3: DX12 último. Si bien la función Mesh Shader es una pista de geometría fundamentalmente nueva (que se usa en Alan Wake 2, entre otros), el sombreador de velocidad variable y la retroalimentación de muestra son características que deberían ahorrar rendimiento.

De modo que Turing era una bestia especial, orientada al futuro, esperando ser explotada. Gran parte de las fichas se asignaron a cosas que sólo serían valiosas en el futuro. Puedes leer todos los detalles en nuestro perfil de Turing Technology.



Fuente: NVIDIA


Componentes del marco de Turing

Geforce RTX 2080 Ti en 2024: especificaciones técnicas

Al menos desde entonces Después de probar la Titan, sabemos lo importantes que son las características, especialmente en los últimos años de la vida de una tarjeta gráfica. Cinco años y medio después de su lanzamiento, la Turing Geforce RTX 2080 Ti de gama alta (excluyendo la Titan RTX) se enfrenta a una combinación de códigos muy diferente, una que tiende a ser aquella para la que fue diseñada. En las siguientes páginas, cerraremos la brecha hasta el presente y comprobaremos el rendimiento de la Geforce RTX 2080 Ti en juegos actuales con y sin trazado de rayos. Especificaciones de las tarjetas gráficas más rápidas de Turing junto con los dos modelos actuales; Puede encontrar muchas otras tarjetas gráficas en esta base de datos de GPU bien mantenida:

Tarjeta grafica RTX de titanio GeForce RTX 2080 “Ultra” GeForce RTX 2080 Ti Radeon RX 7800XT GeForce RTX 4070
Lanzamiento al mercado 03/12/2018 – (RTX 2080 Ti MAX OC) 20 de septiembre de 2018 09/06/2023 12 de abril de 2023
Fabricación (fundición) 12FFN (TSMC) 12FFN(TSMC) 12FFN(TSMC) N5(MCD) + N6(MCD) 4N(TSMC)
Transistores (miles de millones) 18.6 18.6 18.6 28.1 (incluidos los MCD) 35,8
Tamaño de diapositiva (plantilla/GCD) 754 mm² 754 mm² 754 mm² 200mm² 294,5 mm²
edificio Nvidia Turing Nvidia Turing Nvidia Turing AMD RD ADN 3 Nvidia ADA Lovelace
Símbolo/nombre del caramelo TU102-400 TU102-300-Kx TU102-300-Kx Navi 32 XTx M104-250
Grupos de sombreado (CU/SM) 72 68 68 60 46
FP32 ALU/TMU/ROP 4.608/288/96 4.352/272/88 4.352/272/88 3.840*/240/96 5.888/184/64
Unidades de trazado de rayos 72 (primera generación) 68 (primera generación) 68 (primera generación) 60 (segunda generación) 46 (tercera generación)
Unidades matriciales 576 (segunda generación) 544 (segunda generación) 544 (segunda generación) 120 (primera generación) 184 (cuarta generación)
Caché de segundo nivel (MiB) 6 5.5 5.5 4 36
Caché de nivel 3 (MiB) 64
Velocidad de reloj de la GPU en juegos (MHz) 1.770 2.010 1800 2.330 2.760
ALU de potencia FP32 (TFLOPS) 16.3 17,5 15.7 35,8 32,5
Tasa de llenado (Mtex/Mpix por segundo) 509,8/169,9 546,7/193,0 489,6/172,8 559,2/223,7 507,8/176,6
Conexión de memoria (bit) 384 352 352 256 192
Velocidad de RAM (GT/MHz) 14,0/7.001 18.0/9000 14,0/7.001 19,5/9.750 21,0/10.502
Tipo de memoria (DRAM) GDDR6 GDDR6 GDDR6 GDDR6 GDDR6X
Velocidad de transferencia de memoria (GB/s) 672 792 616 624 504
Capacidad de almacenamiento (MB) 24.576 11.264 11.264 16.384 12,288
Estándar PCI Express 3.0×16 3.0×16 3.0×16 4.0×16 4.0×16
Conectores de alimentación PCI Express 2×8 pines 2×8 pines 2×8 pines 2×8 pines 1 x 16-/2 x 8 pines
Consumo de energía (alimentación del panel) 280 vatios 330 vatios 260 W(FE) 263 vatios 200 vatios
Conexión de pantalla DP 1.4, HDMI 2.0b DP 1.4, HDMI 2.0b DP 1.4, HDMI 2.0b DP 2.1, HDMI 2.1a DP 1.4a, HDMI 2.1a
Peculiaridades USB-C (“Enlace virtual”) USB-C (“Enlace virtual”) USB-C (“Enlace virtual”)
Crear un marco DLSS No No No No
Generar marco FSR
Generar marco de controlador No No No No

La información de rendimiento se basa en tarjetas gráficas que hemos probado exhaustivamente (aumento promedio de GPU en todos los puntos de referencia); la información del fabricante a veces es significativamente menor y, por lo tanto, poco realista. Dependiendo del modelo, son posibles desviaciones de hasta 200 MHz. *ALU con habilidades de “Doble Materia”, que en el mejor de los casos se comportan como el doble del número. El mejor caso se presenta en FP32.

GeForce RTX 2080 Ultra, ¿qué? Este es el modelo de recompensa que creamos. De hecho, planeamos probar la Titan RTX y la Geforce RTX 2080 Ti, pero desafortunadamente Nvidia Alemania no pudo enviarnos una copia. Así que revitalizamos el único RTX 2080 Ti con 16 GT/s de memoria y lo aprovisionamos manualmente con disparadores: la versión “Ultra” está lista, demostrando lo mejor que es posible con Turing. Comencemos en la página siguiente.