Menú
Gratis
Registro
hogar  /  Navegantes/ Problema al conectarse a h g sync. Cómo deshabilitar la sincronización vertical en tu tarjeta gráfica

Problema al conectarse a h g sync. Cómo deshabilitar la sincronización vertical en tu tarjeta gráfica

Hay cosas sobre las que no sólo es difícil escribir, sino muy difíciles. Que solo necesita ver una vez que escuchar sobre ellos cien veces o leer en Internet. Por ejemplo, es imposible describir algunas maravillas naturales, como el majestuoso Gran Cañón o las montañas de Altai cubiertas de nieve. Puedes mirarlo cien veces hermosas fotos con su imagen y disfrute de los videos, pero todo esto no reemplazará las impresiones en vivo.

El tema de la salida de fotogramas fluidos a un monitor que utiliza la tecnología Nvidia G-Sync también pertenece a esos temas: según las descripciones de texto, los cambios no parecen tan significativos, pero en los primeros minutos de un juego 3D en un sistema con Nvidia Tarjeta de video Geforce conectada al monitor G-Sync, queda claro cuán grande es el salto cualitativo. Y aunque ha pasado más de un año desde el anuncio de la tecnología, la tecnología no pierde relevancia, aún no tiene competidores (entre las soluciones que han ingresado al mercado), y se siguen produciendo los monitores correspondientes.

Nvidia ha estado trabajando en el tema de mejorar la experiencia del usuario de los procesadores de gráficos Geforce en los juegos modernos al mejorar la fluidez del renderizado durante bastante tiempo. Podemos recordar la tecnología de sincronización adaptativa Adaptive V-Sync, que es un híbrido que combina los modos de encendido y apagado de V-Sync (V-Sync On y V-Sync Off, respectivamente). En el caso de que la GPU renderice a una velocidad de fotogramas inferior a la frecuencia de actualización del monitor, la sincronización se deshabilita y, para los FPS que exceden la frecuencia de actualización, se habilita.

No todos los problemas de fluidez se resolvieron con la sincronización adaptativa, pero fue un paso importante en la dirección correcta. Pero, ¿por qué fue necesario crear algunos modos de sincronización especiales e incluso lanzar soluciones de software y hardware? ¿Qué hay de malo en las tecnologías que existen desde hace décadas? Hoy le mostraremos cómo la tecnología G-Sync de Nvidia ayuda a eliminar los artefactos de pantalla conocidos, como el desgarro, el tartamudeo y el aumento de la latencia.

De cara al futuro, podemos decir que la tecnología de sincronización G-Sync le permite obtener cambios de cuadro suaves con el mayor rendimiento y comodidad posibles, lo cual es muy notable cuando se reproduce en un monitor de este tipo; esto es perceptible incluso para el usuario doméstico promedio, y para los jugadores ávidos, puede significar una mejora en el tiempo de reacción y, al mismo tiempo, en los logros del juego.

Hoy en día, la mayoría de los jugadores de PC usan monitores con una frecuencia de actualización de 60 Hz; las pantallas LCD típicas son las más populares en este momento. En consecuencia, tanto cuando la sincronización está activada (V-Sync On) como cuando está desactivada, siempre hay algunas deficiencias asociadas con los problemas básicos de las tecnologías antiguas, que discutiremos más adelante: alta latencia y tirones de FPS con V-Sync encendido y espacios desagradables en las imágenes cuando está apagado.

Y dado que los retrasos y las velocidades de cuadro desiguales son más molestos y molestos, rara vez alguno de los jugadores activa la sincronización. E incluso algunos modelos de monitores con una frecuencia de actualización de 120 y 144 Hz que han aparecido en el mercado no pueden ayudar a eliminar los problemas por completo, simplemente los hacen algo menos notorios al actualizar el contenido de la pantalla con el doble de frecuencia, pero los mismos artefactos siguen presentes. : retrasos y la ausencia de la misma suavidad cómoda.

Y dado que los monitores G-Sync combinados con una tarjeta gráfica Nvidia Geforce adecuada no solo pueden proporcionar una alta frecuencia de actualización, sino también eliminar todas estas deficiencias, la compra de tales soluciones puede considerarse incluso más importante que incluso actualizar a una GPU más potente. Pero primero entendamos por qué era necesario hacer algo diferente de las soluciones conocidas desde hace mucho tiempo: ¿cuál es el problema aquí?

Problemas de los métodos de salida de video existentes

Las tecnologías para mostrar imágenes en una pantalla con una frecuencia de actualización fija existen desde los días en que se usaban los monitores de tubo de rayos catódicos (CRT). La mayoría de los lectores deberían recordarlos: los panzudos, como los televisores antiguos. Estas tecnologías se desarrollaron originalmente para mostrar imágenes de televisión a una velocidad de cuadro fija, pero en el caso de los dispositivos para generar imágenes 3D calculadas dinámicamente en una PC, esta solución genera grandes problemas que no han sido resueltos hasta el momento.

Incluso los monitores LCD más modernos tienen una frecuencia de actualización de imagen fija en la pantalla, aunque tecnológicamente nada les impide cambiar la imagen en cualquier momento, con cualquier frecuencia (dentro de límites razonables, por supuesto). Pero los jugadores de PC de los viejos tiempos de los monitores CRT tienen que aceptar una solución decididamente imperfecta al problema de sincronizar la velocidad de fotogramas del renderizado 3D y la frecuencia de actualización del monitor. Hasta ahora, ha habido muy pocas opciones para mostrar una imagen: dos, y ambas tienen inconvenientes.

La raíz de todos los problemas radica en el hecho de que con una frecuencia de actualización fija de la imagen en el monitor, la tarjeta de video muestra cada cuadro en un momento diferente; esto sucede debido a la complejidad cambiante de la escena y la carga en los gráficos. procesador. Y el tiempo de renderizado de cada cuadro no es constante, cambia cada cuadro. No es de extrañar que al intentar mostrar una cantidad de fotogramas en el monitor surjan problemas de sincronización, ya que algunos de ellos requieren mucho más tiempo para dibujar que otros. Como resultado, obtenemos un tiempo de preparación diferente para cada cuadro: a veces 10 ms, a veces 25 ms, por ejemplo. Y los monitores que existían antes de la llegada de G-Sync solo podían mostrar cuadros después de un cierto período de tiempo, ni antes ni después.

El asunto se complica aún más por la riqueza de configuraciones de hardware y software de las PC para juegos, combinada con una carga muy diferente según el juego, la configuración de calidad, la configuración del controlador de video, etc. Como resultado, es imposible configurar cada sistema de juego para que la capacitación del personal se lleva a cabo con tiempos constantes o al menos no demasiado diferentes en todas las aplicaciones y condiciones 3D, como es posible en las consolas de juegos con su configuración de hardware única.

Naturalmente, a diferencia de las consolas con sus tiempos predecibles de representación de fotogramas, los jugadores de PC todavía tienen una capacidad muy limitada para lograr una experiencia de juego fluida sin reducciones y retrasos notables. En el caso ideal (léase - imposible en la realidad), la actualización de la imagen en el monitor debe llevarse a cabo estrictamente después de que la GPU calcule y prepare el siguiente cuadro:

Como puede ver, en este ejemplo hipotético, la GPU siempre tiene tiempo para dibujar un cuadro antes de que sea necesario transferirlo al monitor: el tiempo de cuadro siempre es ligeramente menor que el tiempo entre actualizaciones de información en la pantalla y en el rompe la GPU descansa un poco. Pero en realidad, todo es completamente diferente: el tiempo de representación del cuadro es muy diferente. Imagínese si la GPU no tiene tiempo para renderizar un cuadro en el tiempo asignado; entonces el cuadro debe mostrarse más tarde, omitiendo una actualización de la imagen en el monitor (la sincronización vertical está habilitada - V-Sync activado) o mostrar cuadros en partes con la sincronización deshabilitada, y luego en el monitor al mismo tiempo habrá piezas de varios fotogramas adyacentes.

La mayoría de los usuarios desactivan V-Sync para obtener una latencia más baja y una salida de pantalla más fluida, pero esta solución presenta artefactos de desgarro visibles. Y con la sincronización activada, no habrá desgarro de imágenes, ya que los fotogramas se muestran exclusivamente en su totalidad, pero aumenta el retraso entre la acción del jugador y la actualización de la imagen en la pantalla, y la velocidad de fotogramas es muy desigual, ya que la GPU nunca dibuja marcos estrictamente de acuerdo con el tiempo de actualización de la imagen en el monitor.

Este problema existe desde hace muchos años y claramente interfiere con la comodidad de ver el resultado de un renderizado 3D, pero hasta hace un tiempo nadie se molestó en solucionarlo. Y la solución, en teoría, es bastante simple: solo necesita mostrar información en la pantalla estrictamente cuando la GPU termine de funcionar en el siguiente cuadro. Pero primero, echemos un vistazo más de cerca a ejemplos de cómo funcionan las tecnologías de salida de imágenes existentes y qué solución nos ofrece. nvidia en su tecnología G-Sync.

Desventajas de la salida cuando la sincronización está deshabilitada

Como ya mencionamos, la gran mayoría de los jugadores prefieren mantener la sincronización desactivada (V-Sync Off) para que la visualización de los fotogramas generados por la GPU en el monitor sea lo más rápido posible y con un retraso mínimo entre las acciones del jugador. (pulsaciones de teclas, comandos de ratón) y su visualización. Para los jugadores serios, esto es necesario para las victorias, y para los jugadores comunes, en este caso, las sensaciones serán más agradables. Así es como se ve esquemáticamente trabajar con V-Sync deshabilitado:

No hay problemas ni retrasos con la retirada de marcos. Pero aunque el vsync deshabilitado resuelve el problema del retraso tanto como sea posible, proporcionando un retraso mínimo, aparecen artefactos en la imagen: la imagen se rompe cuando la imagen en la pantalla consta de varias piezas de fotogramas adyacentes renderizados por la GPU. La falta de fluidez de la secuencia de video también se nota debido a la irregularidad de los cuadros que van desde la GPU a la pantalla: la imagen se rompe en diferentes lugares.

Estos desgarros son el resultado de mostrar dos de los fotogramas más renderizados en la GPU durante un ciclo de actualización del monitor. De varios, cuando la velocidad de fotogramas supera la frecuencia de actualización del monitor, y de los dos, cuando le corresponde aproximadamente. Mire el diagrama de arriba: si el contenido del búfer de cuadros se actualiza en el medio entre los tiempos de visualización de información en el monitor, la imagen final se distorsionará; en este caso, parte de la información pertenece a la anterior cuadro, y el resto al que se está dibujando actualmente.

Con la sincronización deshabilitada, los cuadros se envían al monitor sin importar en absoluto su frecuencia de actualización o el tiempo, por lo que nunca coinciden con la frecuencia de actualización del monitor. En otras palabras, con V-Sync desactivado, los monitores sin compatibilidad con G-Sync siempre experimentarán ese desgarro en la imagen.

No se trata solo del hecho de que es desagradable para el jugador ver rayas que se contraen por toda la pantalla, sino también de que la representación simultánea de partes de diferentes marcos puede desinformar al cerebro, lo que es especialmente notable con objetos dinámicos en el marco: el jugador ve partes de objetos desplazados entre sí. Tienes que aguantar esto solo porque deshabilitar V-Sync proporciona una latencia de salida mínima en este momento, pero lejos de la calidad de imagen dinámica ideal, como puedes ver en los siguientes ejemplos (los cuadros de resolución completa están disponibles haciendo clic):

Usando los ejemplos anteriores, tomados con el sistema de software y hardware FCAT, puede asegurarse de que la imagen real en la pantalla pueda estar compuesta de piezas de varios marcos adyacentes, y a veces de manera desigual, cuando se toma una franja estrecha de uno de los marcos. , y los vecinos ocupan el resto (notablemente más grande) parte de la pantalla.

Los problemas de desgarro son aún más visibles en la dinámica (si su sistema y / o navegador no admite la reproducción de videos MP4 / H.264 a una resolución de 1920 × 1080 píxeles con una frecuencia de actualización de 60 FPS, entonces tendrá que descargar y ver localmente utilizando un reproductor multimedia con capacidades relevantes):

Como puede ver, incluso en dinámica, los artefactos desagradables en forma de roturas de imagen se notan fácilmente. Veamos cómo se ve esquemáticamente: en un diagrama que muestra el método de salida con la sincronización deshabilitada. En este caso, los cuadros llegan al monitor inmediatamente después de que la GPU termina de procesarlos, y la imagen se muestra en la pantalla incluso si la salida de información del cuadro actual aún no se ha completado por completo; el resto del búfer cae en la próxima actualización de pantalla. Es por eso que cada fotograma de nuestro ejemplo que se muestra en el monitor consta de dos fotogramas dibujados en la GPU, con un corte de imagen en el lugar marcado en rojo.

En este ejemplo, la GPU procesa el primer cuadro (Dibujo 1) en el búfer de la pantalla más rápido que su tiempo de actualización de 16,7 ms, y antes de que la imagen se reproduzca en el monitor (Escanear 0/1). La GPU inmediatamente comienza a trabajar en el siguiente cuadro (Dibujo 2), que rompe la imagen en el monitor, que contiene otra mitad del cuadro anterior.

Como resultado, en muchos casos, aparece una banda claramente distinguible en la imagen: el borde entre la visualización parcial de cuadros adyacentes. En el futuro, este proceso se repetirá, ya que la GPU trabaja en cada fotograma durante un tiempo diferente y, sin sincronización de procesos, los fotogramas de la GPU y los que se muestran en el monitor nunca coinciden.

Pros y contras de la sincronización vertical

Cuando enciende la sincronización vertical tradicional (V-Sync On), la información en el monitor se actualiza solo cuando el trabajo en el marco está completamente terminado por el procesador de gráficos, lo que elimina el desgarro en la imagen, porque los marcos se muestran completamente. en la pantalla. Pero, dado que el monitor actualiza el contenido solo a ciertos intervalos (dependiendo de las características del dispositivo de salida), este enlace trae otros problemas.

Mayoría monitores LCD modernos actualizar la información a una frecuencia de 60 Hz, es decir, 60 veces por segundo, aproximadamente cada 16 milisegundos. Y con la sincronización habilitada, el tiempo de salida de la imagen está estrechamente relacionado con la frecuencia de actualización del monitor. Pero, como sabemos, la velocidad de fotogramas de la GPU siempre es variable, y el tiempo de renderizado de cada fotograma difiere según la complejidad en constante cambio de la escena 3D y la configuración de calidad.

No siempre puede ser igual a 16,7 ms, pero será menor o mayor que este valor. Con la sincronización habilitada, el trabajo de la GPU en los fotogramas vuelve a completarse antes o después del tiempo de actualización de la pantalla. Si el cuadro se procesó más rápido que este momento, entonces no hay problemas particulares: la información visual simplemente espera el tiempo de actualización del monitor para mostrar el cuadro en la pantalla en su totalidad, y la GPU está inactiva. Pero si el cuadro no tiene tiempo para renderizarse en el tiempo asignado, entonces tiene que esperar el próximo ciclo de actualización de la imagen en el monitor, lo que provoca un aumento en la demora entre las acciones del jugador y su visualización en la pantalla. . Al mismo tiempo, la imagen del marco "antiguo" anterior se muestra nuevamente en la pantalla.

Aunque todo esto sucede con bastante rapidez, el aumento de la latencia se nota visualmente con facilidad, y no solo para los jugadores profesionales. Y dado que el tiempo de renderizado de cuadros siempre es variable, activar el enlace a la frecuencia de actualización del monitor provoca tirones al mostrar una imagen dinámica, porque los cuadros se muestran rápidamente (igual a la frecuencia de actualización del monitor), o dos, tres veces, cuatro veces más lento. Considere un ejemplo esquemático de tal trabajo:

La ilustración muestra cómo se muestran los fotogramas en el monitor cuando la sincronización vertical está activada (V-Sync activada). La GPU procesa el primer cuadro (Dibujo 1) más rápido que 16,7 ms, por lo que la GPU no pasa a trabajar en el procesamiento del siguiente cuadro y no rompe la imagen, como en el caso de V-Sync Off, pero espera a que el primer cuadro se muestre completamente en el monitor. Y solo después de eso, comienza a dibujar el siguiente cuadro (Dibujo 2).

Pero trabajar en el segundo cuadro (Dibujo 2) lleva más tiempo que 16,7 ms, por lo que después de que expiran, la información visual del cuadro anterior se muestra en la pantalla y se muestra en la pantalla durante otros 16,7 ms. E incluso después de que la GPU termine de trabajar en el siguiente cuadro, no se muestra en la pantalla, ya que el monitor tiene una frecuencia de actualización fija. En general, debe esperar 33,3 ms para que se muestre el segundo cuadro, y todo este tiempo se suma al retraso entre la acción del jugador y el final del cuadro que se muestra en el monitor.

Además del problema del lapso de tiempo, también hay una brecha en la fluidez de la secuencia de video, que se nota por las sacudidas de la animación 3D. El problema se muestra muy claramente en un breve video:

Pero incluso los procesadores de gráficos más potentes en los juegos modernos más exigentes no siempre pueden proporcionar una frecuencia de cuadro lo suficientemente alta que exceda la frecuencia de actualización típica del monitor de 60 Hz. Y, en consecuencia, no darán la posibilidad de un juego cómodo con la sincronización activada y la ausencia de problemas como el desgarro de la imagen. Especialmente cuando se trata de juegos como el multijugador Battlefield 4, el muy exigente Far Cry 4 y Assassin's Creed Unity en altas resoluciones y máxima configuración de juego.

Es decir, el reproductor moderno tiene pocas opciones: perder suavidad y mayores retrasos, o contentarse con una calidad de imagen imperfecta con fragmentos de marcos rotos. Eso sí, en realidad, no todo pinta tan mal, porque de alguna manera hemos estado jugando todo este tiempo, ¿no? Pero en momentos en que están tratando de lograr el ideal tanto en calidad como en comodidad, quieres más. Además, las pantallas LCD tienen una capacidad tecnológica fundamental para mostrar cuadros cuando el procesador de gráficos lo indica. El punto es pequeño: conectar la GPU y el monitor, y ya existe una solución de este tipo: la tecnología Nvidia G-Sync.

Tecnología G-Sync: la solución de Nvidia a los problemas de rendimiento

Por lo tanto, la mayoría de los juegos modernos en la versión con la sincronización desactivada provocan interrupciones en la imagen y, si está activada, cambios de fotogramas irregulares y mayores retrasos. Incluso con frecuencias de actualización altas, los monitores tradicionales no pueden eliminar estos problemas. Probablemente, la elección entre dos opciones lejos de ser ideales para mostrar marcos en aplicaciones 3D a lo largo de los años ha molestado tanto a los empleados de Nvidia que decidieron deshacerse de los problemas brindando a los jugadores un enfoque fundamentalmente nuevo para actualizar la información en la pantalla.

La diferencia entre la tecnología G-Sync y los métodos de visualización existentes es que el tiempo y la velocidad de fotogramas en el caso de la variante de Nvidia están determinados por la GPU Geforce, y cambia dinámicamente, no es fijo, como ocurría antes. En otras palabras, en este caso control total La GPU se hace cargo de la salida de los cuadros: tan pronto como termina de trabajar en el siguiente cuadro, se muestra en el monitor, sin demoras ni interrupciones de la imagen.

Uso tal conexión entre la GPU y el hardware del monitor especialmente adaptado, brinda a los jugadores el mejor método de salida: simplemente perfecto, en términos de calidad, eliminando todos los problemas que mencionamos anteriormente. G-Sync proporciona un cambio de cuadro perfectamente fluido en el monitor, sin demoras, sacudidas ni artefactos causados ​​por la visualización de información visual en la pantalla.

Naturalmente, G-Sync no funciona por arte de magia, y para que la tecnología funcione en el lado del monitor, se requiere la adición de una lógica de hardware especial en forma de una pequeña placa suministrada por Nvidia.

La compañía está trabajando con los fabricantes de monitores para incluir tarjetas G-Sync en sus modelos de pantallas para juegos. Para algunos modelos, incluso existe una opción de actualización por parte del propio usuario, pero esta opción es más costosa y no tiene sentido, porque es más fácil comprar de inmediato un monitor G-Sync. Desde un PC, la presencia en su configuración de cualquiera de los modernos tarjetas graficas nvidia Geforce, bueno, y el controlador de video optimizado para G-Sync instalado: cualquiera de las últimas versiones servirá.

Cuando la tecnología Nvidia G-Sync está habilitada, después de procesar el siguiente cuadro de la escena 3D, la GPU Geforce envía una señal especial a la placa controladora G-Sync integrada en el monitor, que le indica al monitor cuándo actualizar la imagen en la pantalla. . Esto le permite lograr una fluidez y una capacidad de respuesta perfectas cuando juega en una PC; puede ver esto viendo un video corto (¡requerido a 60 cuadros por segundo!):

Veamos cómo se ve la configuración con la tecnología G-Sync habilitada, según nuestro esquema:

Como puedes ver, todo es muy simple. Habilitar G-Sync vincula la frecuencia de actualización del monitor al final de la representación de cada cuadro en la GPU. La GPU tiene el control total del trabajo: tan pronto como termina de renderizar el cuadro, la imagen se muestra inmediatamente en un monitor compatible con G-Sync y, como resultado, la frecuencia de actualización de la pantalla no es fija, sino variable, exactamente como la velocidad de fotogramas de la GPU. Esto elimina los problemas de desgarro de imágenes (porque siempre contiene información de un solo cuadro), minimiza la fluctuación en la velocidad de cuadros (el monitor no espera más de lo que la GPU procesa físicamente un cuadro) y reduce las latencias de salida en relación con el vsync- método habilitado.

Debo decir que a los jugadores claramente les faltaba esa solución, el nuevo método de sincronización de la GPU y el monitor Nvidia G-Sync realmente tiene un efecto muy fuerte en la comodidad de jugar en una PC: aparece esa suavidad casi perfecta, que fue no allí hasta ahora, ¡en nuestro tiempo de tarjetas gráficas súper poderosas! Desde el anuncio de la tecnología G-Sync, los métodos antiguos se han convertido instantáneamente en un anacronismo y actualizarse a un monitor G-Sync capaz de frecuencias de actualización variables de hasta 144 Hz parece una opción muy atractiva para finalmente deshacerse de problemas, retrasos y artefactos. .

¿G-Sync tiene desventajas? Por supuesto, como cualquier tecnología. Por ejemplo, G-Sync tiene una limitación molesta, que es que proporciona una salida de fotogramas suave a la pantalla a una frecuencia de 30 FPS. Y la frecuencia de actualización seleccionada para el monitor en Modo G-Sync establece la barra para la frecuencia de actualización del contenido de la pantalla. Es decir, con una frecuencia de actualización establecida en 60 Hz, se proporcionará la máxima suavidad a una frecuencia de 30-60 FPS y a 144 Hz, de 30 a 144 FPS, pero no menos del límite inferior. Y con una frecuencia variable (por ejemplo, de 20 a 40 FPS), el resultado ya no será el ideal, aunque es notablemente mejor que el V-Sync tradicional.

Pero la mayor desventaja de G-Sync es que es la tecnología patentada de Nvidia a la que los competidores no tienen acceso. Por lo tanto, a principios del año pasado, AMD anunció una tecnología FreeSync similar, que también consiste en cambiar dinámicamente la velocidad de fotogramas del monitor de acuerdo con la preparación de fotogramas de la GPU. Una diferencia importante es que el desarrollo de AMD es abierto y no requiere soluciones de hardware adicionales en forma de monitores especializados, ya que FreeSync se ha transformado en Adaptive-Sync, que se ha convertido en una parte opcional del estándar DisplayPort 1.2a del notorio VESA ( Asociación de Estándares de Electrónica de Video). Resulta que AMD usará hábilmente el tema desarrollado por un competidor para su propio beneficio, ya que sin la aparición y popularización de G-Sync, no habrían tenido ningún FreeSync, como pensamos.

Curiosamente, la tecnología Adaptive-Sync también forma parte del estándar DisplayPort integrado VESA (eDP) y ya se utiliza en muchos componentes de visualización que utilizan eDP para la transmisión de señales. Otra diferencia con G-Sync es que los miembros de VESA pueden usar Adaptive-Sync sin necesidad de pagar. Sin embargo, es muy probable que Nvidia también admita Adaptive-Sync en el futuro como parte del estándar DisplayPort 1.2a, ya que dicha compatibilidad no requerirá mucho esfuerzo de su parte. Pero la compañía tampoco rechazará G-Sync, ya que considera que sus propias soluciones son una prioridad.

Los primeros monitores habilitados para Adaptive-Sync deberían llegar en el primer trimestre de 2015, no solo con puertos DisplayPort 1.2a, sino también con soporte dedicado para Adaptive-Sync (no todos los monitores habilitados para DisplayPort 1.2a podrán presumir de esto). Entonces, Samsung en marzo de 2015, planea lanzar las líneas de monitores Samsung UD590 (23,6 y 28 pulgadas) y UE850 (23,6, 27 y 31,5 pulgadas) con soporte para resolución UltraHD y tecnología Adaptive-Sync. AMD afirma que los monitores con soporte para esta tecnología serán hasta $ 100 más baratos que dispositivos similares con soporte G-Sync, pero es difícil compararlos, ya que todos los monitores son diferentes y salen en diferentes momentos. Además, ya hay en el mercado modelos G-Sync no tan caros.

Diferencia visual e impresiones subjetivas

Arriba describimos la teoría, y ahora es el momento de mostrar todo claramente y describir sus sentimientos. Probamos la tecnología G-Sync de Nvidia en la práctica en varias aplicaciones 3D utilizando una tarjeta gráfica Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra y un monitor Asus PG278Q compatible con la tecnología G-Sync. Hay varios modelos de monitores con soporte G-Sync en el mercado desde diferentes fabricantes: Asus, Acer, BenQ, AOC y otros, y para el modelo de monitor Asus VG248QE, incluso puede comprar un kit para actualizarlo y admitir G-Sync por su cuenta.

El modelo de tarjeta de video más joven que usa la tecnología G-Sync es la Geforce GTX 650 Ti, con un requisito extremadamente importante para un conector DisplayPort a bordo. De los demás requisitos del sistema, destacamos el sistema operativo al menos Microsoft Windows 7, la aplicación buen cable Se recomienda DisplayPort 1.2 y un mouse de calidad con alta sensibilidad y tasa de sondeo. La tecnología G-Sync funciona con todas las aplicaciones 3D de pantalla completa que usan las API de gráficos OpenGL y Direct3D cuando se ejecutan en los sistemas operativos Windows 7 y 8.1.

Cualquier controlador moderno es adecuado para el trabajo, lo cual: G-Sync ha sido compatible con todos los controladores de la empresa durante más de un año. Si tiene todos los componentes necesarios, solo necesita habilitar G-Sync en los controladores, si aún no lo ha hecho, y la tecnología funcionará en todas las aplicaciones de pantalla completa, y solo en ellas, según el principio. de la tecnología

Para habilitar la tecnología G-Sync para aplicaciones de pantalla completa y aprovechar al máximo resultado cómodo, debe habilitar la frecuencia de actualización de 144 Hz en el panel de control de Nvidia o en la configuración del escritorio del sistema operativo. Luego, debe asegurarse de que el uso de la tecnología esté permitido en la página correspondiente "Configuración de G-Sync" ...

Y también: seleccione el elemento apropiado en la página "Administrar configuración 3D" en el parámetro "Pulso de sincronización vertical" de la configuración 3D global. Allí también puede deshabilitar el uso de la tecnología G-Sync con fines de prueba o si aparece algún problema (de cara al futuro, no encontramos ninguno durante nuestras pruebas).

La tecnología G-Sync funciona en todas las resoluciones que admiten los monitores, hasta UltraHD, pero en nuestro caso utilizamos una resolución nativa de 2560 × 1440 píxeles a 144 Hz. En nuestras comparaciones con el estado actual de las cosas, usamos un modo de frecuencia de actualización de 60 Hz con G-Sync deshabilitado para emular el comportamiento de los monitores típicos que no son G-Sync que se encuentran en la mayoría de los jugadores. La mayoría de los cuales utilizan monitores Full HD con capacidad de modo máximo a 60 Hz.

Asegúrese de mencionar que, aunque con G-Sync habilitado, la actualización de la pantalla tendrá una frecuencia ideal: cuando la GPU "quiere", el modo óptimo seguirá siendo renderizar a una velocidad de fotogramas de aproximadamente 40-60 FPS. Esto es la velocidad de fotogramas más adecuada para los juegos modernos, no demasiado pequeña para alcanzar el límite inferior de 30 FPS, pero que tampoco requiere una disminución en la configuración. Por cierto, el programa Geforce Experience de Nvidia busca exactamente esta frecuencia, proporcionando la configuración adecuada para juegos populares en el software del mismo nombre que viene con los controladores.

Además de los juegos, también probamos una aplicación de prueba especializada de Nvidia: . Esta aplicación muestra una escena de péndulo 3D que es fácil de evaluar la suavidad y la calidad, le permite simular diferentes velocidades de cuadro y seleccionar el modo de visualización: V-Sync Off/On y G-Sync. Con este software de prueba, es muy fácil mostrar la diferencia entre los diferentes modos de sincronización, por ejemplo, entre V-Sync On y G-Sync:

La aplicación Pendulum Demo le permite probar diferentes métodos de sincronización en diferentes condiciones, simula la velocidad de fotogramas exacta de 60 FPS para comparar V-Sync y G-Sync en condiciones ideales para el método de sincronización heredado; en este modo, simplemente debería haber ninguna diferencia entre los métodos. Pero el modo 40-50 FPS pone a V-Sync On en una posición incómoda donde los retrasos y los cambios de cuadro torpes son visibles a simple vista, ya que el tiempo de renderizado del cuadro excede la frecuencia de actualización a 60 Hz. Cuando enciendes G-Sync, todo se vuelve perfecto.

En cuanto a la comparación de modos con V-Sync deshabilitado y G-Sync habilitado, aquí la aplicación Nvidia también ayuda a ver la diferencia: a velocidades de cuadro entre 40 y 60 FPS, el desgarro de la imagen es claramente visible, aunque hay menos retrasos que con V- Sincronizar activado. E incluso la secuencia de video no fluida con respecto al modo G-Sync es notable, aunque en teoría esto no debería ser así, tal vez así es como el cerebro percibe los cuadros "rotos".

Bueno, con G-Sync habilitado, cualquiera de los modos de la aplicación de prueba (velocidad de fotogramas constante o variable, no importa) siempre proporciona la secuencia de video más fluida. Sí, y en los juegos, todos los problemas del enfoque tradicional para actualizar la información en un monitor con una frecuencia de actualización fija a veces se notan casi aún más; en este caso, puede apreciar claramente la diferencia entre los tres modos en el ejemplo del Juego de StarCraft II (ver una grabación guardada previamente):

Si su sistema y navegador admiten la reproducción de formato de datos de video MP4/H.264 a 60 FPS, entonces verá claramente que en el modo de sincronización deshabilitado, se notan interrupciones de video obvias, cuando V-Sync está habilitado, sacudidas y secuencias de video desiguales son observados. Todo esto desaparece cuando enciendes Nvidia G-Sync, en el que no hay artefactos en la imagen, ni aumento de los retrasos, ni velocidad de fotogramas "desgarrada".

Por supuesto, G-Sync no es una varita mágica, y esta tecnología no eliminará los retrasos y las ralentizaciones causadas por el proceso de visualización de fotogramas en un monitor con una frecuencia de actualización fija. Si el juego en sí tiene problemas con la fluidez de la salida de cuadros y grandes tirones en FPS causados ​​por la carga de texturas, el procesamiento de datos en la CPU, el trabajo subóptimo con la memoria de video, la falta de optimización del código, etc., permanecerán en su lugar. Además, se volverán aún más notorios, ya que la salida de los cuadros restantes será perfectamente fluida. Sin embargo, en la práctica, en sistemas potentes, los problemas no ocurren con demasiada frecuencia y G-Sync realmente mejora la percepción del video dinámico.

Dado que la nueva tecnología de salida de Nvidia afecta a todo el proceso de salida, teóricamente podría causar artefactos y fluctuaciones en la velocidad de fotogramas, especialmente si el juego limita artificialmente los FPS en algún momento. Probablemente, tales casos, si los hay, son tan raros que ni siquiera los notamos. Pero notaron una clara mejora en la comodidad al jugar: cuando se juega detrás de un monitor con la tecnología G-Sync habilitada, parece que la PC se ha vuelto tan poderosa que es capaz de alcanzar una velocidad de cuadros constante de al menos 60 FPS sin ninguna reducción.

La sensación que se siente al jugar con un monitor G-Sync es muy difícil de describir con palabras. La diferencia es especialmente notable a 40-60 FPS, una velocidad de fotogramas muy común en los juegos modernos más exigentes. La diferencia con los monitores convencionales es sencillamente asombrosa, e intentaremos no solo contarlo con palabras y mostrarlo en ejemplos de video, sino también mostrar gráficos de velocidad de cuadros obtenidos con diferentes modos de visualización.

En juegos de géneros como estrategia en tiempo real y similares, como StarCraft II, League of Legends, DotA 2, etc., los beneficios de la tecnología G-Sync son claramente visibles, como se puede ver en el ejemplo del video. arriba. Además, estos juegos siempre requieren una acción de ritmo rápido que no tolera retrasos ni velocidades de cuadro desiguales, y el desplazamiento suave juega un papel bastante importante en la comodidad, lo que se ve muy obstaculizado por el desgarro de video con V-Sync Off, retrasos y retrasos con V -Sincronizar activado. Por lo que la tecnología G-Sync es ideal para este tipo de juegos.

Los juegos de disparos en primera persona como Crysis 3 y Far Cry 4 son aún más comunes, también son muy exigentes con los recursos informáticos y, en configuraciones de alta calidad, los jugadores a menudo obtienen una velocidad de fotogramas de alrededor de 30-60 FPS, ideal para usar G -Sync, que realmente mejora mucho la comodidad al jugar en esas condiciones. El método de sincronización vertical tradicional muy a menudo hará que los cuadros se emitan a una frecuencia de solo 30 FPS, lo que aumenta los retrasos y las sacudidas.

Lo mismo ocurre con los juegos en tercera persona como Batman, Assassin's Creed y Tomb Raider. Estos juegos también utilizan la última tecnología gráfica y requieren GPU bastante potentes para lograr altas velocidades de cuadro. Con la configuración máxima en estos juegos y apagando V-Sync, a menudo se obtienen FPS del orden de 30-90, lo que provoca un desagradable desgarro de la imagen. Habilitar V-Sync solo ayuda en algunas escenas con requisitos de recursos más bajos, y la velocidad de fotogramas salta de 30 a 60 en pasos, lo que provoca ralentizaciones y tirones. Y la inclusión de G-Sync soluciona todos estos problemas, y se nota mucho en la práctica.

Resultados de la prueba de práctica

En esta sección, veremos el impacto de G-Sync y V-Sync en la velocidad de fotogramas: los gráficos de rendimiento le dan una buena idea de cómo funcionan las diferentes tecnologías. Durante las pruebas, probamos varios juegos, pero está lejos de ser conveniente para todos mostrar la diferencia entre V-Sync y G-Sync: algunos puntos de referencia del juego no permiten forzar V-Sync, otros juegos no tienen una herramienta conveniente para jugar. la secuencia exacta del juego (la mayoría de los juegos modernos, desafortunadamente), otros se ejecutan demasiado rápido o dentro de los límites estrictos de velocidad de fotogramas en nuestro sistema de prueba.

Así que terminamos con Just Cause 2 en la configuración máxima y un par de puntos de referencia: Unigine Heaven y Unigine Valley, también en la configuración de calidad máxima. La velocidad de fotogramas en estas aplicaciones varía bastante, lo cual es conveniente para nuestro propósito: mostrar lo que sucede con la salida de fotogramas en diversas condiciones.

Desafortunadamente, por el momento no tenemos el sistema de hardware y software FCAT en uso, y no podremos mostrar gráficos FPS reales y videos grabados en diferentes modos. En su lugar, probamos velocidades de cuadro instantáneas y promedio por segundo usando una utilidad conocida a frecuencias de actualización de monitor de 60 y 120 Hz usando los métodos de actualización de pantalla V-Sync On, V-Sync Off, usando Adaptive V-Sync y usando G-Sync. Sincronice a 144 Hz para mostrar la diferencia entre la nueva tecnología y los monitores V-sync tradicionales actuales de 60 Hz.

G-Sync frente a V-Sync activado

Comenzaremos nuestro estudio comparando los modos con la tecnología V-Sync On y G-Sync: esta es la comparación más reveladora, que mostrará la diferencia entre los métodos que no tienen las desventajas de rasgar la imagen. Primero, veremos la aplicación de prueba Heaven con la configuración de máxima calidad a una resolución de 2560 × 1440 píxeles (al hacer clic en las miniaturas se abren los gráficos en resolución completa):

Como puedes ver en el gráfico, la velocidad de fotogramas con G-Sync habilitado y sin sincronización es casi la misma, excepto por la frecuencia superior a 60 FPS. Pero el FPS en el modo con el método de sincronización vertical habilitado es notablemente diferente, porque en él la velocidad de fotogramas puede ser inferior o igual a 60 FPS y un múltiplo de números enteros: 1, 2, 3, 4, 5, 6 .. ., ya que el monitor a veces tiene que mostrar el mismo fotograma anterior durante varios períodos de actualización (dos, tres, cuatro, etc.). Es decir, los posibles "pasos" del frame rate con V-Sync On y 60 Hz: 60, 30, 20, 15, 12, 10,... FPS.

Este paso es claramente visible en la línea roja del gráfico - durante la ejecución esta prueba, la velocidad de fotogramas era a menudo de 20 o 30 FPS, y mucho menos de 60 FPS. Aunque con G-Sync y V-Sync Off (No Sync), a menudo estaba en un rango más amplio: 35-50 FPS. Con V-Sync habilitado, esta velocidad de salida no es posible, por lo que el monitor siempre muestra 30 FPS en tales casos, lo que limita el rendimiento y agrega retraso al tiempo de salida general.

Cabe señalar que el gráfico anterior no muestra la velocidad de cuadro instantánea, sino los valores promedio en un segundo, pero en realidad, el FPS puede "saltar" mucho más, casi en cada cuadro, lo que provoca retrasos y falta de fluidez desagradables. Para ver esto visualmente, aquí hay un par de gráficos con FPS instantáneos, más precisamente, con gráficos de tiempo de renderizado para cada cuadro en milisegundos. El primer ejemplo (las líneas están ligeramente desplazadas entre sí, solo se muestra un comportamiento ejemplar en cada modo):

Como puede ver, en este ejemplo, la velocidad de cuadro cambia más o menos suavemente en el caso de G-Sync, y en pasos con V-Sync activado (hay saltos individuales en el tiempo de renderizado en ambos casos; esto es normal). Con vsync habilitado, los tiempos de salida de renderizado y cuadro pueden ser de 16,7 ms; 33,3ms; 50 ms, como se puede ver en el gráfico. En términos de FPS, esto corresponde a 60, 30 y 20 fotogramas por segundo. Además, no hay una diferencia particular entre el comportamiento de las dos líneas, hay picos en ambos casos. Veamos otro período de tiempo significativo:

En este caso, hay “lanzamientos” obvios en el tiempo de renderizado de los cuadros, y con ellos el FPS en el caso de que la sincronización vertical esté habilitada. Mire, con V-Sync activado, hay un salto en el tiempo de procesamiento de fotogramas de 16,7 ms (60 FPS) a 33,3 ms (30 FPS) y viceversa; en realidad, esto provoca la misma irregularidad incómoda y sacudidas claramente visibles en el video. secuencia. La suavidad de los cambios de cuadro en el caso de G-Sync es mucho mayor y jugar en este modo será notablemente más cómodo.

Considere el gráfico de FPS en la segunda aplicación de prueba - Unigine Valley:

En este punto de referencia, notamos lo mismo que en el Cielo. Las velocidades de fotogramas en los modos G-Sync y V-Sync Off son casi las mismas (excepto por un pico superior a 60 Hz), y el V-Sync incluido provoca un claro cambio de paso en FPS, mostrando con mayor frecuencia 30 FPS, a veces bajando a 20 FPS y subiendo a 60 FPS: comportamiento típico de este método, que causa retrasos, tirones y secuencias de video desiguales.

En esta subsección, nos queda considerar un segmento de la prueba integrada del juego Just Cause 2:

Este juego muestra perfectamente toda la inferioridad del método obsoleto. v-sync¡En! Con velocidades de fotogramas cambiantes de 40 a 60-70 FPS, las líneas G-Sync y V-Sync Off son casi las mismas, pero la velocidad de fotogramas con V-Sync On alcanza los 60 FPS solo en segmentos cortos. Es decir, con capacidades GPU reales para jugar a 40-55 FPS, el jugador se contentará con solo 30 FPS.

Además, en la sección del gráfico donde la línea roja salta de 30 a 40 FPS, en realidad, al ver la imagen, hay una velocidad de cuadro claramente desigual: salta de 60 a 30 casi cada cuadro, lo que claramente no agrega Suavidad y comodidad al tocar. Pero tal vez con una frecuencia de actualización de 120 Hz, ¿V-sync funcionará mejor?

G-Sync frente a V-Sync 60/120 Hz

Echemos un vistazo a los dos modos V-Sync On a frecuencias de actualización de 60 y 120 Hz y compárelos con V-Sync Off (como identificamos anteriormente, esta línea es casi idéntica a G-Sync). Con una tasa de refresco de 120 Hz se añaden más valores a los "pasos" de FPS que ya conocemos: 120, 40, 24, 17 FPS, etc., que pueden hacer que la gráfica sea menos escalonada. Veamos la velocidad de fotogramas en el benchmark Heaven:

Notablemente, la frecuencia de actualización de 120 Hz ayuda a V-Sync On a lograr un mejor rendimiento y velocidades de cuadro más fluidas. En los casos en que se observen 20 FPS a 60 Hz en la gráfica, el modo 120 Hz da un valor intermedio de al menos 24 FPS. Y 40 FPS en lugar de 30 FPS es claramente visible en el gráfico. Pero no hay menos pasos, sino incluso más, por lo que la velocidad de fotogramas a 120 Hz de actualización, aunque cambia en menor cantidad, lo hace con más frecuencia, lo que también afecta negativamente a la suavidad general.

Hay menos cambios en el punto de referencia de Valley, ya que la velocidad de fotogramas promedio está más cerca del paso de 30 FPS disponible para ambos modos: frecuencias de actualización de 60 y 120 Hz. La sincronización deshabilitada proporciona transiciones de fotogramas más suaves, pero con artefactos visuales, y los modos V-Sync On nuevamente muestran líneas escalonadas. En esta subsección, nos queda mirar el juego Just Cause 2.

Y nuevamente, vemos claramente cuán defectuosa es la sincronización vertical, que no proporciona un cambio de cuadro suave. Incluso pasar a una frecuencia de actualización de 120 Hz proporciona V-Sync en solo unos pocos "pasos" de FPS adicionales: la velocidad de fotogramas salta de un paso al siguiente; todo esto es muy desagradable cuando se ven escenas animadas en 3D, puede confiar en nuestra palabra. o mira los ejemplos de video de arriba otra vez.

Efecto del método de salida en la velocidad de fotogramas promedio

¿Y qué sucede con la velocidad de cuadro promedio cuando todos estos modos de sincronización están habilitados? ¿Cómo afecta la inclusión de V-Sync y G-Sync al rendimiento promedio? Puede estimar aproximadamente la pérdida de velocidad incluso con los gráficos de FPS que se muestran arriba, pero también le daremos las velocidades de cuadro promedio que obtuvimos durante la prueba. El primero volverá a ser Unigine Heaven:

Los indicadores en los modos Adaptive V-Sync y V-Sync Off son casi los mismos; después de todo, la velocidad casi no aumenta por encima de 60 FPS. Lógicamente, activar V-Sync también reduce la velocidad de fotogramas promedio, ya que este modo usa pasos de FPS. A 60 Hz, la velocidad de cuadro promedio se redujo en más de una cuarta parte, y al encender 120 Hz solo se recuperó la mitad de la pérdida de FPS promedio.

Lo más interesante para nosotros es cuánto cae la velocidad de fotogramas promedio en el modo G-Sync. Por alguna razón, la velocidad por encima de 60 FPS se reduce, aunque el monitor se configuró a 144 Hz, por lo que la velocidad cuando se encendió G-Sync fue ligeramente más baja que el modo con la sincronización deshabilitada. En general, podemos suponer que no hay pérdidas en absoluto, y ciertamente no se pueden comparar con la falta de velocidad con V-Sync On. Considere el segundo punto de referencia: Valley.

En este caso, la caída en la velocidad de renderizado promedio en los modos con V-Sync habilitado disminuyó, ya que la velocidad de cuadros estuvo cerca de los 30 FPS durante toda la prueba, uno de los "pasos" de frecuencia para V-Sync en ambos modos: 60 y 120 Hz. Bueno, por razones obvias, las pérdidas en el segundo caso resultaron ser ligeramente menores.

Cuando G-Sync está habilitado, la velocidad de cuadro promedio nuevamente resultó ser más baja que la observada en el modo deshabilitado, todo por la misma razón: habilitar G-Sync "eliminó" los valores de FPS de 60. Pero el la diferencia es pequeña, y el nuevo modo Nvidia proporciona una velocidad notablemente más rápida que con la sincronización vertical habilitada. Veamos el último gráfico: la velocidad de fotogramas promedio en el juego Just Cause 2:

En el caso de este juego, el modo V-Sync On sufrió significativamente más que en las aplicaciones de prueba en el motor Unigine. ¡La velocidad de fotogramas promedio en este modo a 60 Hz es más de una vez y media menor que cuando la sincronización está desactivada! Activar la frecuencia de actualización de 120 Hz mejora enormemente la situación, pero aún así G-Sync te permite lograr un rendimiento notablemente mejor incluso en números promedio de FPS, sin mencionar la comodidad del juego, que ahora no se evalúa solo con números: tú tienes que verlo con tus propios ojos.

Entonces, en esta sección, descubrimos que la tecnología G-Sync proporciona una velocidad de cuadro cercana al modo con la sincronización deshabilitada, y su inclusión casi no tiene efecto en el rendimiento. Esto contrasta con V-Sync, que hace que la velocidad de fotogramas se escalone y, a menudo, salta de un paso al siguiente, lo que provoca un movimiento torpe en la secuencia de fotogramas animados y es perjudicial para la comodidad de los juegos en 3D.

En otras palabras, tanto nuestras impresiones subjetivas como los resultados de las pruebas indican que la tecnología G-Sync de Nvidia realmente mejora la comodidad visual de los juegos 3D. El nuevo método está desprovisto de artefactos gráficos en forma de roturas de imagen que consisten en varios fotogramas adyacentes, como vemos en el modo con V-Sync deshabilitado, y no hay problemas con la fluidez de la salida de fotogramas al monitor y el aumento de los retardos de salida, como en el modo V-Sync activado.

Conclusión

Con todas las dificultades de medir objetivamente la suavidad de la salida de video, primero me gustaría expresar una evaluación subjetiva. Quedamos bastante impresionados con la experiencia de juego en Nvidia Geforce y el monitor habilitado para G-Sync de Asus. Incluso una demostración "en vivo" de una sola vez de G-Sync realmente causa una gran impresión con la suavidad de los cambios de cuadro, y después de una larga prueba de esta tecnología, se vuelve muy aburrido seguir jugando en un monitor con métodos antiguos de mostrar un imagen en la pantalla.

Quizás G-Sync pueda considerarse el mayor cambio en el proceso de mostrar información visual en la pantalla durante mucho tiempo. Finalmente, vimos algo realmente nuevo en la conexión entre las pantallas y las GPU, que afecta directamente la comodidad de la percepción de gráficos 3D. e incluso y tan notable. Y antes del anuncio de la tecnología G-Sync de Nvidia, estuvimos atrapados durante años con estándares de visualización obsoletos arraigados en las demandas de las industrias de la televisión y el cine.

Por supuesto, me gustaría obtener estas funciones incluso antes, pero ahora es un buen momento para implementarlas, ya que en muchos juegos 3D exigentes con la configuración máxima, las tarjetas de video modernas de gama alta brindan una velocidad de cuadros en la que los beneficios de habilitar G -La sincronización se vuelve máxima. Y antes de la llegada de la tecnología de Nvidia, el realismo logrado en los juegos fue simplemente "matado" por lejos de las mejores formas de actualizar la imagen en el monitor, causando desgarros en la imagen, mayores retrasos y saltos en la velocidad de fotogramas. La tecnología G-Sync, por otro lado, te permite deshacerte de estos problemas equiparando la velocidad de fotogramas de la pantalla con la velocidad de renderizado de la GPU (aunque con algunas limitaciones); este proceso ahora está a cargo de la propia GPU. .

No hemos conocido a una sola persona que haya probado G-Sync en el trabajo y quede insatisfecha con esta tecnología. Las reseñas de los primeros afortunados que probaron la tecnología en el evento de Nvidia el otoño pasado fueron completamente entusiastas. Con el apoyo de periodistas de la prensa especializada y desarrolladores de juegos (John Carmack, Tim Sweeney y Johan Andersson), también dieron una respuesta extremadamente positiva al nuevo método de salida. Ahora nos unimos: después de varios días de usar un monitor con G-Sync, no quiero volver a los dispositivos antiguos con métodos de sincronización desactualizados. Ah, si hubiera más monitores con G-Sync, y no estuvieran equipados exclusivamente con matrices TN...

Bueno, de las desventajas de la tecnología de Nvidia, podemos notar que funciona a una velocidad de cuadro de al menos 30 FPS, lo que puede considerarse un inconveniente desafortunado: sería mejor si la imagen se mostrara claramente incluso a 20-25 FPS después fue preparado en la GPU. Pero la principal desventaja de la tecnología es que G-Sync es una solución propia de la compañía, que no utilizan otros fabricantes de GPU: AMD e Intel. También puede entender a Nvidia, porque gastaron recursos en desarrollar e implementar la tecnología y negociaron con los fabricantes de monitores sobre su soporte precisamente con el deseo de ganar dinero. En realidad, una vez más actuaron como motor del progreso técnico, a pesar de la supuesta codicia de la empresa por obtener ganancias, lo que a muchos les parece. Vamos a revelar el gran "secreto": las ganancias son el objetivo principal de cualquier empresa comercial, y Nvidia no es una excepción.

Y, sin embargo, el futuro es más probable para estándares abiertos más universales, similares a G-Sync en esencia, como Adaptive-Sync, una característica opcional dentro de DisplayPort 1.2a. Pero la aparición y distribución de monitores con dicho soporte tendrá que esperar un poco más, en algún lugar hasta mediados del próximo año, y los monitores G-Sync de diferentes compañías (Asus, Acer, BenQ, AOC y otros) ya han estado en el mercado. venta por varios meses aunque no demasiado barato. Nada impide que Nvidia admita Adaptive-Sync en el futuro, aunque oficialmente no han comentado sobre este tema. Esperemos que los fanáticos de Geforce no solo tengan ahora una solución funcional en forma de G-Sync, sino que en el futuro también sea posible usar la frecuencia de actualización dinámica dentro del estándar generalmente aceptado.

Entre otras desventajas de la tecnología Nvidia G-Sync para los usuarios, destacamos que su soporte desde el monitor le cuesta una cierta cantidad al fabricante, lo que se traduce en un aumento del precio de venta en relación con los monitores estándar. Sin embargo, entre los monitores G-Sync hay modelos de diferentes precios, incluso no demasiado caros. Lo principal es que ya están a la venta, y cada jugador puede obtener la máxima comodidad al jugar en este momento, y hasta ahora solo cuando usa tarjetas de video Nvidia Geforce: la compañía responde por esta tecnología.

Metodología de prueba

El monitor ASUS ROG SWIFT PG278Q ha sido probado con nuestro nuevo método. Decidimos deshacernos del lento y, a veces, inexacto Spyder4 Elite en favor del colorímetro X-Rite i1Display Pro, más rápido y preciso. Ahora este colorímetro se utilizará para medir los principales parámetros de la pantalla junto con paquete de software Argyll CMS última versión. Todas las operaciones se llevarán a cabo en Windows 8. Durante la prueba, la frecuencia de actualización de la pantalla es de 60 Hz.

De acuerdo con la nueva metodología, mediremos siguientes opciones monitor:

  • Brillo blanco con potencia de retroiluminación de 0 a 100 % en pasos de 10 %;
  • Brillo negro con potencia de retroiluminación de 0 a 100 % en pasos de 10 %;
  • Contraste de pantalla con potencia de retroiluminación de 0 a 100 % en incrementos de 10 %;
  • Gama de colores;
  • temperatura del color;
  • Curvas gamma de los tres colores RGB primarios;
  • curva gamma en gris;
  • Delta E (según norma CIEDE2000).

Para la calibración y el análisis de Delta E, se utiliza una interfaz gráfica para Argyll CMS: DispcalGUI, la última versión en el momento de escribir este artículo. Todas las mediciones descritas anteriormente se realizan antes y después de la calibración. Durante las pruebas, medimos los perfiles principales del monitor: configurados de forma predeterminada, sRGB (si está disponible) y Adobe RGB (si está disponible). La calibración se lleva a cabo en el perfil predeterminado, excepto en casos especiales, que se discutirán más adelante. Para monitores con amplias gamas de colores, seleccionamos el modo de emulación de hardware sRGB, si está disponible. En el último caso, los colores se convierten utilizando las LUT internas del monitor (que pueden tener hasta 14 bits por canal) y se envían a una matriz de 10 bits, mientras que un intento de reducir la gama de colores a los límites de sRGB con las herramientas de corrección de color del sistema operativo conducir a una disminución en la precisión de la codificación de colores. Antes de comenzar todas las pruebas, el monitor se calienta durante una hora y todas sus configuraciones se restablecen a las configuraciones de fábrica.

También continuaremos con nuestra antigua práctica de publicar perfiles de calibración para los monitores que probamos al final del artículo. Al mismo tiempo, el laboratorio de pruebas de 3DNews advierte que dicho perfil no podrá corregir al 100% las deficiencias de su monitor en particular. El hecho es que todos los monitores (incluso dentro del mismo modelo) seguramente se diferenciarán entre sí en sus pequeños errores de reproducción del color. Es físicamente imposible hacer dos matrices idénticas, son demasiado complicadas. Por lo tanto, para cualquier calibración de monitor seria, se necesita un colorímetro o un espectrofotómetro. Pero incluso un perfil "universal" creado para una instancia específica generalmente puede mejorar la situación de otros dispositivos del mismo modelo, especialmente en el caso de pantallas baratas con defectos de reproducción de color pronunciados.

Ángulos de visión, uniformidad de retroiluminación

Lo primero que nos interesó en el ASUS PG278Q fueron los ángulos de visión, porque el monitor usa una matriz TN; sus mayores problemas siempre están asociados con ellos. Por suerte, las cosas no salieron tan mal. Por supuesto, las matrices IPS tienen ángulos de visión más grandes, pero el ASUS PG278Q no tuvo que girarse con frecuencia para eliminar las distorsiones de contraste y color.

Pero los desarrolladores de ASUS PG278Q no pudieron evitar problemas con la luz de fondo de la pantalla. El monitor tiene una ligera luz de fondo en las cuatro esquinas y en la parte superior. Si se está ejecutando un juego en la pantalla, no será fácil ver la luz de fondo, pero vale la pena reproducir una película en una habitación oscura (con las barras negras verticales habituales en la parte superior e inferior), y el defecto se nota de inmediato. .

Pruebas sin calibración

El brillo máximo de ASUS PG278Q fue de 404 cd/m 2, incluso más de lo que promete el fabricante. Un valor tan alto se justifica por la compatibilidad con 3D, ya que al usar gafas con obturador activo, el brillo percibido del monitor puede reducirse a la mitad. El brillo máximo del campo negro fue de 0,40 cd/m2, que también es bastante bueno. Como resultado, la relación de contraste estático fluctúa alrededor de 1000:1 en todo el rango de brillo de la retroiluminación. Un resultado excelente: una relación de contraste tan alta es típica de las matrices IPS de alta calidad. MVA, sin embargo, está fuera de alcance.

Con la gama de colores, nuestro sujeto de prueba lo está haciendo tan bien como se requiere. El espacio de color sRGB está cubierto en un 107,1 %. El punto blanco está cerca del punto de referencia D65.

Si hablamos de juegos, ASUS PG278Q tiene una paleta de colores completa, pero puede haber problemas con el procesamiento de fotos profesional debido a colores ligeramente sobresaturados debido al exceso de gama de colores en comparación con sRGB. Sin embargo, la pantalla que estamos considerando está diseñada solo para juegos, por lo que no debes prestar mucha atención a esta deficiencia.

La temperatura de color del ASUS PG278Q durante las mediciones se mantuvo en 6000 K, que es 500 K por debajo de la norma. Esto significa que los colores claros pueden tener un ligero tono cálido.

Solo la curva gamma roja resultó estar cerca del estándar, y las curvas azul y verde se hundieron, aunque intentaron mantenerse juntas. Al mismo tiempo, las cosas van casi bien con la escala de grises del monitor. Al medir tonos oscuros prácticamente no se desvía de la curva de referencia, y al pasar a tonos claros se aleja, pero no mucho.

El valor promedio de la puntuación de precisión de color Delta E fue de 2,08 unidades y el valor máximo fue de 7,07 unidades. Los resultados, por supuesto, no son los mejores, pero, en primer lugar, ASUS PG278Q todavía está diseñado para juegos, no para procesamiento de fotos y, en segundo lugar, para una matriz TN, los resultados que obtuvimos son bastante satisfactorios.

Prueba después de la calibración

Por lo general, después de la calibración, el brillo blanco cae y mucho, en un 10% o más, incluso para paneles de muy alta calidad. En el caso de ASUS PG278Q, cayó alrededor de un 3%, a 391 cd/m 2 . El brillo del campo negro no se vio afectado por la calibración del hardware. Como resultado, la relación de contraste estático se redujo a 970:1.

La calibración prácticamente no tuvo efecto en la gama de colores, pero el punto blanco volvió a su lugar correcto, incluso si se movió solo un poco.

Después de la calibración, la temperatura del color aumentó ligeramente, pero no alcanzó la referencia. Ahora, la brecha entre el valor medido y el de referencia era de aproximadamente 100-200 K en lugar de 500 K, lo que, sin embargo, es bastante tolerable.

Desafortunadamente, la posición de las tres curvas gamma principales no cambió mucho después de la calibración, mientras que la escala de grises comenzó a verse un poco mejor.

Pero la calibración tuvo el mejor efecto en la precisión del color. El valor promedio de Delta E se redujo a 0,36 unidades, el máximo a 1,26 unidades. Excelentes resultados para cualquier matriz y para TN + Film, simplemente fantástico.

Pruebas de G-Sync: Metodología

La guía G-Sync de NVIDIA muestra configuraciones para pruebas de juegos múltiples que oscilarán entre 40 y 60 FPS. Es en tales condiciones a una frecuencia de actualización de 60 Hz que la mayoría de los "congelamientos" ocurren con V-Sync activado. Comenzaremos comparando tres escenarios de uso: con V-Sync, sin él, y con G-Sync, todos a 60 Hz.

Pero recuerda que subir la tasa de refresco de 60 a 120/144 Hz por sí solo hace que el tearing sea menos notorio sin sincronización vertical, y con V-Sync reduce los “congelamientos” de 13 a 8/7 ms, respectivamente. ¿Hay algún beneficio real para G-Sync sobre V-Sync a 144 Hz? Comprobemos esto también.

Me gustaría recalcar que, según la descripción, en el caso de G-Sync, la frecuencia de actualización no tiene ningún sentido. Por lo tanto, no es del todo correcto decir que, por ejemplo, comparamos V-Sync y G-Sync a una frecuencia de 60 Hz. V-Sync estaba realmente a 60 Hz, y G-Sync significa actualización de pantalla a pedido, no con un período determinado. Pero incluso con G-Sync habilitado, aún podemos elegir la frecuencia de actualización de la pantalla en el panel de control del controlador. Al mismo tiempo, FRAPS en los juegos cuando G-Sync está activado muestra que está en vigor exactamente el mismo límite de velocidad de fotogramas, como si V-Sync estuviera funcionando. Resulta que esta configuración regula la vida útil mínima del marco y, en consecuencia, el intervalo de actualización de la pantalla. En términos generales, se establece el rango de frecuencia en el que opera el monitor: de 30 a 60-144 Hz.

Para habilitar G-Sync, debe ir al panel de control de NVIDIA, buscar el enlace apropiado en la esquina izquierda de la pantalla y marcar la casilla junto a la única casilla de verificación. La tecnología es compatible con controladores para Windows 7 y 8.

Luego, debe asegurarse de que G-Sync también esté habilitado en la sección "Configuración 3D"; se puede encontrar en el submenú Vertical Sync.

Eso es todo: la función G-Sync se ha habilitado para todos los juegos lanzados en modo de pantalla completa, - esta función aún no sabe cómo funcionar en la ventana. Para la prueba, utilizamos un soporte con tarjeta grafica GeForce GTX TITAN Negro.

Las pruebas se realizaron en los juegos Assasin's Creed: Black Flag, así como en Counter-Strike: Global Offensive. Probamos la nueva tecnología de dos maneras: simplemente la jugamos y luego buscamos espacios vacíos usando un script que movía suavemente la cámara del juego, es decir, "movía el mouse" horizontalmente. El primer método nos permitió evaluar las sensaciones de G-Sync "en combate", y el segundo, para ver más claramente la diferencia entre la sincronización vertical activada/desactivada y G-Sync.

G-Sync en Assassin's Creed: Black Flag, 60 Hz

Sin V-Sync y G-Sync a 60Hz el desgarro era perfectamente visible con casi cualquier movimiento de la cámara.

El hueco es visible en la parte superior derecha del marco, cerca del mástil del barco.

Cuando se encendió V-Sync, las rupturas de imagen desaparecieron, pero aparecieron "congelaciones", lo que no benefició el juego.

El doble mástil del barco en la foto es uno de los signos del "friso".

Después de habilitar G-Sync los espacios y los "frisos" desaparecieron por completo, el juego comenzó a funcionar sin problemas. Por supuesto, se notó una disminución periódica en la velocidad de cuadros a 35-40 FPS, pero gracias a la sincronización de la pantalla y la tarjeta de video, no causó frenos tan notables como con la sincronización vertical.

Sin embargo, como dicen, es mejor ver una vez que escuchar cien veces, así que hicimos un video corto que muestra a los nuevos Assassins en funcionamiento con V-sync encendido y apagado, así como con G-Sync. Por supuesto, el video no puede transmitir las impresiones "en vivo" por completo, aunque solo sea por filmar a una frecuencia de 30 cuadros por segundo. Además, la cámara "ve" el mundo de manera diferente al ojo humano, por lo que el video puede mostrar artefactos que no son visibles en el mundo real, como imágenes fantasma. Sin embargo, tratamos de hacer este video lo más claro posible: al menos la presencia o ausencia de espacios en él es bastante notable.

Ahora ejecutemos Assassin's Creed: Black Flag con configuraciones mínimas y veamos qué ha cambiado. La cantidad de cuadros por segundo en este modo de juego no superó los 60 FPS, la frecuencia de actualización de pantalla establecida. Sin la sincronización vertical activada, se notaba un desgarro en la pantalla. Pero tan pronto como se encendió V-Sync, los espacios desaparecieron y la "imagen" comenzó a verse casi igual que con G-Sync.

al exhibir ajustes máximos gráficos, la cantidad de cuadros por segundo comenzó a fluctuar alrededor de 25-35 FPS. Por supuesto, se rompe sin V-Sync y se "congela" con él de inmediato. Incluso la inclusión de G-Sync no pudo corregir esta situación: con un número tan bajo de FPS, la propia GPU genera frenos.

G-Sync en Assassin's Creed: Black Flag, 144 Hz

Con V-Sync y G-sync deshabilitados Podría encontrar rasgaduras en la pantalla, pero gracias a la frecuencia de actualización de 144 Hz, hay muchas menos que antes. cuando está encendido v-sync los espacios desaparecieron, pero los "frisos" comenzaron a ocurrir con más frecuencia, casi lo mismo que con una frecuencia de actualización de pantalla de 60 Hz.

Inclusión sincronización G, como antes, pudo corregir la situación, pero la mejora más fuerte en la imagen se notó solo a altas velocidades de cuadro, desde 60 FPS y más. Pero sin bajar la configuración o agregar una segunda tarjeta de video del nivel GeForce GTX Titan Black, era imposible lograr una velocidad de cuadro tan alta.

G-Sync en Counter-Strike: Global Offensive, 60 y 144 Hz

En los juegos en línea, el juego y la calidad de la imagen se ven afectados no solo por la tarjeta de video y el monitor, sino también por el ping: cuanto más alto es, mayor es la demora en la "respuesta" del juego. Durante nuestras pruebas, el ping estuvo en el nivel de 25-50 ms, y la velocidad de cuadro durante la prueba fluctuó alrededor de 200 FPS.

Configuración de imagen utilizada en Counter-Strike: Global Offensive

Sin usar G-Sync y V-Sync en CS, como en Assassin's Creed, hubo lagunas. cuando está encendido V-Sync a 60 Hz se volvió más difícil de jugar: la velocidad de fotogramas se redujo a 60 FPS y el personaje del juego comenzó a funcionar de manera desigual debido a la gran cantidad de "congelaciones".

cuando está encendido sincronización G la velocidad de fotogramas se mantuvo en el nivel de 60 fotogramas por segundo, pero hubo muchos menos "congelamientos". No se puede decir que desaparecieron por completo, pero dejaron de estropear la impresión del juego.

Ahora aumentemos la frecuencia de actualización de la pantalla y veamos qué cambia. Con G-Sync y V-Sync deshabilitados a 144 Hz Hay muchas menos discontinuidades que a 60 Hz, pero no han desaparecido por completo. Pero cuando se enciende v-sync todos los espacios desaparecieron y los "congelamientos" se volvieron casi invisibles: es muy cómodo jugar en este modo y la velocidad de movimiento no disminuye. Inclusión sincronización G y convirtió completamente la imagen en un caramelo: la jugabilidad se volvió tan fluida que incluso un ping de 25 ms comenzó a afectar en gran medida la jugabilidad.

Prueba de modo ULMB

Ultra Low Motion Blur está habilitado desde el menú del monitor, pero primero debe desactivar G-Sync y configurar la frecuencia de actualización de la pantalla en 85, 100 o 120 Hz. No se admiten frecuencias más bajas o más altas.

La aplicación práctica de este "chip" es obvia: el texto en los sitios se mancha menos durante el desplazamiento, y en las estrategias y otros juegos de estrategia en tiempo real, las unidades en movimiento se ven más detalladas.

ASUS ROG SWIFT PG278Q en 3D

ASUS ROG SWIFT PG278Q es el primer monitor del mundo capaz de mostrar una imagen estereoscópica a una resolución de 2560x1440 gracias a la interfaz DisplayPort 1.2. Además, en principio, no es un logro pequeño. Desafortunadamente, el monitor no tiene un transmisor IR incorporado, por lo que tomamos el transmisor del kit NVIDIA 3D Vision y las gafas del kit 3D Vision 2. Este emparejamiento funcionó sin problemas y pudimos probar el 3D estereoscópico correctamente .

No encontramos ningún efecto de efecto fantasma y otros artefactos encontrados en el video pseudo-volumétrico. Por supuesto, a veces en los juegos, algunos objetos estaban a una profundidad incorrecta, pero esto no se puede atribuir a las desventajas del monitor. En ASUS PG278Q puede ver películas en estéreo y jugar juegos similares. Lo principal es que el adaptador de video tira.

⇡ Conclusiones

Sin querer subestimar los logros de NVIDIA, cabe señalar que, en general, G-Sync es una innovación que se reduce a deshacerse de un atavismo dañino y de larga data: la actualización regular de los paneles LCD que inicialmente no lo necesitan. . Resultó que para esto basta con hacer pequeños cambios en el protocolo DisplayPort, que, con un clic, entró en la especificación 1.2a y, según las promesas de AMD, muy pronto encontrará aplicación en los controladores de pantalla de muchos fabricantes

Sin embargo, hasta ahora solo está disponible una versión propietaria de esta solución en forma de G-Sync, que tuvimos el placer de probar en el monitor ASUS ROG SWIFT PG278Q. La ironía es que este es solo un monitor para el que los beneficios de G-Sync no son muy notables. Actualizar la pantalla solo a 144 Hz reduce el desgarro notorio hasta el punto en que muchos estarán dispuestos a hacer la vista gorda ante el problema. Y con la sincronización vertical, tenemos bloqueos y retrasos de entrada menos pronunciados en comparación con las pantallas de 60 Hz. G-Sync en tal situación solo puede llevar la fluidez del juego al ideal.

Aún así, la sincronización de las actualizaciones de pantalla con la representación de cuadros de la GPU sigue siendo una solución más elegante y rentable que la actualización constante a una frecuencia ultra alta. Además, no olvidemos que el uso de G-Sync no se limita a matrices con una frecuencia de 120/144 Hz. En primer lugar, me vienen a la mente los monitores 4K, que todavía están limitados a una frecuencia de 60 Hz tanto en términos de especificaciones de matriz como de ancho de banda de entrada de video. Luego están los monitores IPS, que tampoco pueden cambiar a 120/144 Hz debido a las limitaciones de la propia tecnología.

Con una frecuencia de actualización de 60 Hz, el efecto de G-Sync no se puede subestimar. Si la velocidad de fotogramas supera constantemente los 60 FPS, entonces una simple sincronización vertical también elimina el desgarro, pero solo G-Sync puede mantener la velocidad de fotogramas fluida cuando la frecuencia de fotogramas cae por debajo de la frecuencia de actualización. Además, G-Sync hace que el rango de rendimiento de 30-60 FPS sea mucho más jugable, ya sea reduciendo los requisitos de rendimiento de la GPU o permitiendo configuraciones de calidad más agresivas. Y nuevamente, el pensamiento vuelve a los monitores 4K, que requieren un hardware extremadamente potente para jugar con buenos gráficos.

También es digno de elogio que NVIDIA haya adoptado la tecnología de retroiluminación pulsante para la eliminación de desenfoque de objetos en movimiento (ULMB), que vimos anteriormente con EIZO Foris FG2421. Es una pena que si bien no pueda funcionar simultáneamente con G-Sync.

El monitor ASUS ROG SWIFT PG278Q en sí es bueno, en primer lugar, con una combinación de resolución de 2560x1440 y una frecuencia de actualización de 144 Hz. Anteriormente, no había dispositivos con tales parámetros en el mercado, pero mientras tanto, los monitores de juegos con un tiempo de respuesta tan bajo y soporte para 3D estereoscópico hace tiempo que deberían dejar de ser Full HD. El hecho de que el PG278Q tenga una matriz TN no es motivo de queja, porque es una muy buena copia con el más alto brillo, contraste y excelente reproducción de color que, después de la calibración, será la envidia de las pantallas IPS. La tecnología solo se da por ángulos de visión limitados. No dejemos sin elogiar el diseño acorde con un producto de tanta calidad. ASUS ROG SWIFT PG278Q recibe un merecido premio Editors' Choice: resultó ser tan bueno.

Solo el precio en la región de 30 mil rublos nos impide recomendar este monitor de juegos para comprar sin dudarlo. Además, en el momento de escribir este artículo, ASUS ROG SWIFT PG278Q todavía no se vende en la Federación Rusa, por lo que no hay ningún lugar para verlo, así como G-Sync, con sus propios ojos. Pero esperamos que ASUS y NVIDIA resuelvan este problema en el futuro, por ejemplo, mostrando G-Sync en exhibiciones de juegos de computadora. Bueno, el precio probablemente bajará algún día...

Desde el servidor de archivos del sitio, puede descargar el perfil de color para este monitor, que recibimos después de la calibración.

Los editores del sitio desean agradecer a Graphitech por proporcionar el colorímetro X-Rite i1Display Pro.

PC de escritorio conectado a un monitor con tecnología G-SYNC:

Tarjetas de video compatibles: G-SYNC es compatible con las GPU NVIDIA GeForce® GTX 650Ti BOOST y superiores.
Conductor:
Sistema operativo:

  • ventanas 10
  • Windows 8.1
  • ventanas 7

Requisitos del sistema:

Laptop conectada a un monitor con tecnología G-SYNC:

Tarjetas de video compatibles: GPU NVIDIA GeForce® GTX 980M, GTX 970M, GTX 965M o superior.
Conductor: R340.52 o posterior
Sistema operativo:

  • ventanas 10
  • Windows 8.1
  • ventanas 7

Requisitos del sistema: Requiere compatibilidad con DisplayPort 1.2 directamente en la GPU.

Portátil con pantalla G-SYNC:

La computadora portátil debe ser compatible con la tecnología G-SYNC. Consulte con el fabricante para ver si su computadora portátil es compatible con G-SYNC. A continuación se encuentran los requisitos mínimos del sistema para portátiles con tecnología G-SYNC.
Tarjetas de video compatibles: GPU NVIDIA GeForce® GTX 980M, GTX 970M, GTX 965M o superior. La configuración SLI también es compatible.
Conductor: R352.06 o posterior
Sistema operativo:

  • ventanas 10
  • Windows 8.1
  • ventanas 7

Requisitos del sistema: Requiere compatibilidad con DisplayPort 1.2 directamente en la GPU.

REQUISITOS DEL SISTEMA PARA G-SYNC HDR

PC de escritorio conectado a un monitor G-SYNC HDR:

Tarjetas de video compatibles: G-SYNC HDR es compatible con las GPU NVIDIA GeForce® GTX 1050 y superiores. 1
Conductor:
Sistema operativo:

  • ventanas 10

Requisitos del sistema:
Nota 1: asegúrese de tener instalados los controladores y el software de GPU más recientes. Para hacer esto, vaya a: http://www.nvidia.ru/object/nv-uefi-update-x64.html

Laptop conectada a un monitor G-SYNC HDR:

Tarjetas de video compatibles: G-SYNC HDR es compatible con las GPU NVIDIA GeForce® GTX 1050 y superiores.
Conductor: R396 GA2 o posterior
Sistema operativo:

  • ventanas 10

Requisitos del sistema: Requiere compatibilidad con DisplayPort 1.4 directamente en la GPU.

Descripción general de la tecnología G-Sync | Prueba de G-Sync con V-Sync deshabilitado

Las conclusiones de este artículo se basan en una encuesta a autores y amigos de Tom's Hardware en Skype (es decir, la muestra de encuestados es pequeña), pero casi todos entienden qué es la sincronización vertical y qué desventajas tienen los usuarios. con en esa conexión Según ellos, recurren a V-sync solo cuando las lágrimas debido a una gran dispersión en la frecuencia de cuadro y la frecuencia de actualización del monitor se vuelven insoportables.

Como puede imaginar, el impacto visual de desactivar Vsync es difícil de confundir, aunque está muy influenciado por el juego específico y su configuración detallada.

Toma por ejemplo, Crisis 3. El juego puede hacer que su subsistema de gráficos se ponga de rodillas fácilmente con la configuración de gráficos más alta. Y porqué Crisis 3 es un juego de disparos en primera persona con un juego muy dinámico, las brechas pueden ser bastante notables. En el ejemplo anterior, la salida de FCAT se capturó entre dos fotogramas. Como puede ver, el árbol está completamente cortado.

Por otro lado, cuando forzamos la desactivación de vsync en Skyrim, el desgarro no es tan malo. Tenga en cuenta que, en este caso, la velocidad de fotogramas es muy alta y aparecen varios fotogramas en la pantalla con cada exploración. Así que revisa, el número de movimientos por cuadro es relativamente bajo. Hay problemas a la hora de jugar a Skyrim en esta configuración, y puede que no sea la más óptima. Pero muestra que incluso con v-sync desactivado, la sensación del juego puede cambiar.

Como tercer ejemplo, elegimos una toma del hombro de Lara Croft de Tomb Raider, que muestra un desgarro bastante claro en la imagen (fíjate también en el pelo y el tirante de la camiseta). Tomb Raider es el único juego de nuestra muestra que te permite elegir entre almacenamiento en búfer doble o triple cuando vsync está habilitado.

El último gráfico muestra que Metro: Last Light con sincronización G a 144 Hz generalmente ofrece el mismo rendimiento que con Vsync deshabilitado. Sin embargo, el gráfico no muestra la ausencia de lagunas. Si usa tecnología con una pantalla de 60 Hz, la velocidad de fotogramas alcanzará los 60 FPS, pero no habrá ralentizaciones ni retrasos.

En cualquier caso, aquellos de ustedes (y nosotros) que hemos pasado incontables horas en los puntos de referencia gráficos, viendo el mismo punto de referencia una y otra vez, podríamos acostumbrarnos a ellos y determinar visualmente qué tan bueno es un resultado en particular. Así es como medimos el rendimiento absoluto de las tarjetas de video. Cambios en la imagen con el activo sincronización G llama inmediatamente la atención, ya que hay una suavidad, como con V-sync activado, pero sin las interrupciones características de V-sync desactivado. Lástima que no podamos mostrar la diferencia en el video ahora mismo.

Descripción general de la tecnología G-Sync | Compatibilidad del juego: casi genial

Comprobando otros juegos

Probamos algunos juegos más. Crisis 3, Tomb Raider, Skyrim, BioShock: Infinito, Battlefield 4 visitó el banco de pruebas. Todos ellos, excepto Skyrim, se han beneficiado de la tecnología sincronización G. El efecto dependía del juego competitivo. Pero si lo viera, admitiría de inmediato que ignoró las deficiencias que estaban presentes antes.

Todavía pueden aparecer artefactos. Por ejemplo, el efecto de deslizamiento asociado con el suavizado se nota más con un movimiento suave. Lo más probable es que desee configurar el anti-aliasing lo más alto posible para eliminar las protuberancias desagradables que antes no se notaban tanto.

Skyrim: Caso especial

El motor gráfico Creation en el que se basa Skyrim activa la sincronización vertical de forma predeterminada. Para probar el juego a una velocidad de fotogramas superior a 60 FPS, agregue la línea iPresentInterval=0 a uno de los archivos .ini del juego.

Por lo tanto, Skyrim se puede probar de tres maneras: en su estado original, al permitir que el controlador de Nvidia "use la configuración de la aplicación", habilite sincronización G en el controlador y deje la configuración de Skyrim intacta, y luego habilite sincronización G y deshabilite V-sync en el archivo .ini del juego.

La primera configuración, en la que el monitor experimental está configurado a 60 Hz, mostró 60 FPS estables en configuraciones ultra con una tarjeta de video GeForce GTX 770. En consecuencia, obtuvimos una imagen suave y agradable. Sin embargo, la entrada del usuario todavía sufre de latencia. Además, la ametralladora de lado a lado reveló un desenfoque de movimiento notable. Sin embargo, así es como la mayoría de la gente juega en PC. Por supuesto, puede comprar una pantalla con una frecuencia de actualización de 144 Hz y realmente eliminará el desenfoque. Pero desde GeForce GTX 770 proporciona una frecuencia de actualización de alrededor de 90 - 100 fps, habrá un tartamudeo notable cuando el motor fluctúe entre 144 y 72 FPS.

A 60 Hz sincronización G tiene un efecto negativo en la imagen, esto probablemente se deba a la sincronización vertical activa, a pesar de que la tecnología debería funcionar con la sincronización vertical desactivada. Ahora el desplazamiento lateral (especialmente cerca de las paredes) conduce a un frenado pronunciado. Este es un problema potencial para los paneles de 60 Hz con sincronización G, al menos en juegos como Skyrim. Afortunadamente, en el caso del monitor Asus VG248Q, puede cambiar al modo de 144 Hz y, a pesar de la sincronización V activa, sincronización G funcionará a esta velocidad de fotogramas sin ninguna queja.

Deshabilitar completamente la sincronización vertical en Skyrim da como resultado un control del mouse mucho más "nítido". Sin embargo, esto introduce desgarros en la imagen (sin mencionar otros artefactos como el agua brillante). Inclusión sincronización G deja el tartamudeo a 60Hz, pero a 144Hz la situación mejora notablemente. Aunque probamos el juego con vsync deshabilitado en nuestras revisiones de tarjetas de video, no recomendaríamos jugar sin él.

Para Skyrim, quizás lo más mejor solución deshabilitará sincronización G y juegue a 60 Hz, lo que le dará 60 fps constantes en la configuración de gráficos que elija.

Descripción general de la tecnología G-Sync | G-Sync: ¿qué estás esperando?

Incluso antes recibimos una muestra de prueba de un monitor Asus con tecnología sincronización G, ya nos ha alentado el hecho de que Nvidia está trabajando en un problema muy real que afecta a los juegos y que aún no se ha solucionado. Hasta ahora, ha podido activar o desactivar V-sync a su gusto. Al mismo tiempo, cualquier decisión estuvo acompañada de compromisos que afectan negativamente la experiencia de juego. Si prefiere no habilitar v-sync hasta que el desgarro de imágenes se vuelva insoportable, entonces podemos decir que está eligiendo el menor de dos males.

sincronización G resuelve el problema al permitir que el monitor escanee la pantalla a una frecuencia variable. Tal innovación es la única forma de continuar avanzando en nuestra industria mientras se mantiene la ventaja técnica de las computadoras personales sobre las consolas y plataformas de juegos. Sin duda, Nvidia resistirá las críticas por no desarrollar un estándar que los competidores puedan aplicar. Sin embargo, la empresa utiliza DisplayPort 1.2 para su solución. Como resultado, apenas dos meses después del anuncio de la tecnología sincronización G ella estaba en nuestras manos.

La pregunta es, ¿Nvidia ofrece todo lo que prometió con G-Sync?

Tres desarrolladores talentosos que promocionan las cualidades de una tecnología que nunca has visto en acción pueden inspirar a cualquiera. Pero si tu primera experiencia con sincronización G Según la prueba de demostración del péndulo de Nvidia, se preguntará si es posible una diferencia tan grande o si la prueba representa un escenario especial que es demasiado bueno para ser verdad.

Naturalmente, al probar la tecnología en juegos reales, el efecto no es tan inequívoco. Por un lado, hubo exclamaciones de "¡Guau!" y "¡Vuélvete loco!", por el otro - "Creo que veo la diferencia". Mejor efecto de activación sincronización G notable al cambiar la frecuencia de actualización de la pantalla de 60 Hz a 144 Hz. Pero también intentamos probar a 60 Hz con sincronización G para ver lo que obtienes (con suerte) con pantallas más baratas en el futuro. En algunos casos, simplemente pasar de 60 a 144 Hz te dejará boquiabierto, especialmente si tu tarjeta gráfica puede manejar altas velocidades de cuadro.

Hoy sabemos que Asus planea implementar soporte para sincronización G en el modelo Asus VG248QE, que según la compañía se venderá por $400 el próximo año. El monitor tiene una resolución nativa de 1920x1080 píxeles y una frecuencia de actualización de 144Hz. Versión sin sincronización G ya ha recibido nuestro premio Smart Buy por su desempeño sobresaliente. Pero para nosotros personalmente, un panel TN de 6 bits es una desventaja. Tengo muchas ganas de ver 2560x1440 píxeles en una matriz IPS. Incluso nos conformamos con una frecuencia de actualización de 60 Hz si eso ayuda a mantener el precio bajo.

Aunque esperamos un montón de anuncios en CES, los comentarios oficiales de Nvidia sobre otras pantallas con módulos sincronización G y no hemos oído sus precios. Además, no estamos seguros de cuáles son los planes de la empresa para un módulo de actualización que debería permitirle implementar el módulo. sincronización G en un monitor ya comprado Asus VG248QE en 20 minutos.

Ahora podemos decir que vale la pena la espera. Verás que en algunos juegos la influencia nuevas tecnologías no se puede confundir, y en otros es menos pronunciado. Pero de todos modos sincronización G responde a la pregunta "barbuda" de habilitar o no la sincronización vertical.

Hay otra idea interesante. Después de haber probado sincronización G, ¿cuánto tiempo más podrá AMD evadir comentarios? La compañía se burló de nuestros lectores. en su entrevista(inglés), señalando que pronto decidirá sobre esta posibilidad. ¿Y si ella tiene algo en mente? El final de 2013 y el comienzo de 2014 nos traen muchas noticias emocionantes para discutir, incluyendo Battlefield 4 Versiones de Mantle, la próxima arquitectura de Nvidia Maxwell, sincronización G, un motor AMD xDMA con soporte CrossFire y rumores de nuevas tarjetas gráficas de doble chip. Ahora mismo no tenemos suficientes tarjetas gráficas con más de 3GB (Nvidia) y 4GB (AMD) de memoria GDDR5, pero cuestan menos de $1000...

Descripción general de la tecnología G-Sync | Una breve historia de las tasas de actualización fijas

Érase una vez, los monitores eran voluminosos y contenían tubos de rayos catódicos y cañones de electrones. Los cañones de electrones bombardean la pantalla con fotones para iluminar puntos de fósforo de colores, a los que llamamos píxeles. Dibujan de izquierda a derecha cada línea de "escaneo" de arriba a abajo. Antes no se practicaba mucho el ajuste de la velocidad del cañón de electrones de una actualización completa a la siguiente, y no fue muy necesario hasta la llegada de juegos 3D no estaba en eso. Por lo tanto, los CRT y los estándares de video analógico relacionados se diseñaron con una frecuencia de actualización fija.

Los monitores LCD reemplazaron gradualmente a los CRT y los conectores digitales (DVI, HDMI y DisplayPort) reemplazaron a los analógicos (VGA). Pero las asociaciones encargadas de estandarizar las señales de vídeo (encabezadas por VESA) no se han movido de una tasa de refresco fija. Las películas y la televisión todavía dependen de una entrada de velocidad de fotogramas constante. Una vez más, no parece necesario cambiar a una frecuencia de actualización variable.

Las frecuencias de cuadro ajustables y las frecuencias de actualización fijas no coinciden

Antes de la llegada de los gráficos 3D modernos, las frecuencias de actualización fijas no eran un problema para las pantallas. Pero surgió cuando nos encontramos por primera vez con potentes GPU: la frecuencia a la que la GPU procesaba marcos individuales(lo que llamamos velocidad de fotogramas, generalmente expresada en FPS o fotogramas por segundo) es inconsistente. Cambia con el tiempo. En escenas de gráficos pesados, la tarjeta puede proporcionar 30 FPS, y si miras el cielo vacío, 60 FPS.


Deshabilitar la sincronización causa desgarro

Resulta que la frecuencia de cuadro variable de la GPU y la frecuencia de actualización fija del panel LCD no funcionan muy bien juntas. En esta configuración, nos encontramos ante un artefacto gráfico llamado "brecha". Ocurre cuando dos o más fotogramas incompletos se procesan juntos durante un ciclo de actualización del monitor. Por lo general, están desplazados, lo que produce un efecto muy desagradable durante el movimiento.

La imagen de arriba muestra dos artefactos bien conocidos que se encuentran a menudo pero que son difíciles de capturar. Dado que estos son artefactos de visualización, no los verá en las capturas de pantalla normales del juego, pero nuestras capturas de pantalla muestran lo que realmente ve durante el juego. Para fotografiarlos, necesita una cámara con un modo de disparo de alta velocidad. O si tiene una tarjeta de captura de video, puede grabar un flujo de video sin comprimir desde el puerto DVI y ver claramente la transición de un cuadro al siguiente; esta es la forma que usamos para las pruebas FCAT. Sin embargo, es mejor observar el efecto descrito con sus propios ojos.

El efecto de rasgado es visible en ambas imágenes. El superior se hace con la cámara, el inferior es a través de la función de captura de video. La imagen inferior está "cortada" horizontalmente y parece desalineada. En las dos imágenes superiores, la toma de la izquierda se tomó en una pantalla Sharp a 60 Hz, la toma de la derecha en una pantalla Asus a 120 Hz. El desgarro en la pantalla de 120 Hz no es tan pronunciado ya que la frecuencia de actualización es el doble de alta. Sin embargo, el efecto es visible y aparece de la misma forma que en la imagen de la izquierda. Este tipo de artefacto es una clara indicación de que las imágenes se tomaron con la sincronización vertical (V-sync) deshabilitada.


Battlefield 4 en GeForce GTX 770 con V-sync deshabilitado

El segundo efecto visto en BioShock: Infinite se llama imagen fantasma. Es especialmente visible en la parte inferior de la imagen de la izquierda y está relacionado con el retraso de actualización de la pantalla. En resumen, los píxeles individuales no cambian de color lo suficientemente rápido, lo que da como resultado este tipo de brillo. Un solo cuadro no puede transmitir el efecto de efecto fantasma en el juego en sí. Un panel con un tiempo de respuesta de gris a gris de 8 ms, como Sharp, dará como resultado una imagen borrosa con cualquier movimiento en la pantalla. Es por eso que estas pantallas generalmente no se recomiendan para juegos FPS.

V-sync: "una costura en el jabón"

La sincronización vertical, o V-sync, es una solución muy antigua para el tearing. Cuando esta función está activada, la tarjeta gráfica intenta igualar la frecuencia de actualización de la pantalla eliminando por completo el desgarro. El problema es que si su tarjeta gráfica no puede mantener la velocidad de fotogramas por encima de 60 FPS (en una pantalla de 60 Hz), la velocidad de fotogramas efectiva saltará entre múltiplos de la frecuencia de actualización de la pantalla (60, 30, 20, 15 FPS, etc. ), etc.), lo que a su vez conducirá a un frenado notable.


Cuando la velocidad de fotogramas cae por debajo de la frecuencia de actualización con V-sync activo, experimentará tartamudeo

Además, debido a que vsync hace esperar a la tarjeta gráfica y, a veces, depende del búfer de superficie invisible, V-sync puede agregar latencia de entrada adicional a la cadena de procesamiento. Por lo tanto, V-sync puede ser tanto una salvación como una maldición, resolviendo algunos problemas y causando otras desventajas. Una encuesta informal de nuestro personal encontró que los jugadores tienden a apagar v-sync y encenderlo solo cuando el desgarro se vuelve insoportable.

Sea creativo: Nvidia presenta G-Sync

Al inicio nueva tarjeta de video GeForce GTX 680 Nvidia ha incluido un modo de controlador llamado Adaptive V-sync, que intenta mitigar los problemas de habilitar V-sync cuando la frecuencia de cuadro está por encima de la frecuencia de actualización del monitor y apagarlo rápidamente cuando el rendimiento cae bruscamente por debajo de la frecuencia de actualización. Si bien la tecnología cumplió fielmente su función, fue solo una solución alternativa que no eliminó el desgarro si la velocidad de fotogramas era inferior a la frecuencia de actualización del monitor.

Implementación sincronización G mucho más interesante. En términos generales, Nvidia está demostrando que en lugar de obligar a las tarjetas gráficas a funcionar con una frecuencia de visualización fija, podemos obligar a los nuevos monitores a funcionar con una frecuencia variable.


La velocidad de fotogramas de la GPU determina la frecuencia de actualización del monitor, eliminando los artefactos asociados con la activación y desactivación de V-sync

El mecanismo de transferencia de datos por paquetes del conector DisplayPort ha abierto nuevas posibilidades. Mediante el uso de intervalos de supresión variables en la señal de video DisplayPort y el reemplazo del escalador del monitor con un módulo de supresión variable, el panel LCD puede operar a una frecuencia de actualización variable relacionada con la salida de frecuencia de cuadro de la tarjeta gráfica (dentro de la frecuencia de actualización del monitor). En la práctica, Nvidia ha sido creativa al utilizar las funciones especiales de la interfaz DisplayPort y ha intentado atrapar dos pájaros de un tiro.

Incluso antes de que comiencen las pruebas, quiero dar crédito por el enfoque creativo para resolver un problema real que afecta a los juegos de PC. Esto es innovación en su máxima expresión. Pero cuales son los resultados sincronización G en la práctica? Vamos a averiguar.

Nvidia nos envió una muestra de ingeniería del monitor Asus VG248QE, en el que el escalador se sustituye por un módulo sincronización G. Ya estamos familiarizados con esta pantalla. El artículo está dedicado a él. "Revisión del Asus VG248QE: monitor para juegos de 24" y 144 Hz por $400", en el que el monitor ganó el premio Tom's Hardware Smart Buy. Ahora es el momento de descubrir cómo afectará la nueva tecnología de Nvidia a los juegos más populares.

Descripción general de la tecnología G-Sync | 3D LightBoost, memoria integrada, estándares y 4K

Mientras hojeábamos los comunicados de prensa de Nvidia, nos hicimos algunas preguntas, tanto sobre el lugar de la tecnología en el presente como sobre su papel en el futuro. Durante un viaje reciente a la sede de la empresa en Santa Clara, nuestros colegas estadounidenses recibieron algunas respuestas.

G-Sync y 3D Light Boost

Lo primero que notamos es que Nvidia envió el monitor Asus VG248QE, modificado para soportar sincronización G. Este monitor también es compatible con la tecnología 3D LightBoost de Nvidia, que se diseñó originalmente para aumentar el brillo de las pantallas 3D, pero se ha utilizado durante mucho tiempo de manera extraoficial en el modo 2D, utilizando una luz de fondo del panel pulsante para reducir las imágenes fantasma (o el desenfoque de movimiento). Naturalmente, se volvió interesante si esta tecnología se usa en sincronización G.

Nvidia dio una respuesta negativa. Si bien el uso de ambas tecnologías al mismo tiempo sería la solución ideal, hoy en día la retroiluminación estroboscópica a una frecuencia de actualización variable genera problemas de parpadeo y brillo. Resolverlos es increíblemente difícil, ya que necesita ajustar el brillo y rastrear los pulsos. Como resultado, ahora se deben elegir las dos tecnologías, aunque la compañía está tratando de encontrar una manera de usarlas simultáneamente en el futuro.

Memoria del módulo G-Sync incorporado

como ya sabemos sincronización G elimina el retraso de entrada incremental asociado con V-sync, ya que ya no es necesario esperar a que se complete el escaneo del panel. Sin embargo, notamos que el módulo sincronización G tiene memoria incorporada. ¿Puede el módulo almacenar fotogramas por sí solo? Si es así, ¿cuánto tarda el marco en pasar por el nuevo canal?

Según Nvidia, los cuadros no se almacenan en la memoria intermedia del módulo. A medida que llegan los datos, se muestran en la pantalla y la memoria realiza algunas otras funciones. Sin embargo, el tiempo de procesamiento de sincronización G notablemente menos de un milisegundo. De hecho, casi el mismo retraso que experimentamos con V-sync desactivado, y está relacionado con las características del juego, el controlador de video, el mouse, etc.

¿Se estandarizará G-Sync?

Tal pregunta se hizo en una entrevista reciente con AMD, cuando un lector quería saber la reacción de la empresa a la tecnología. sincronización G. Sin embargo, queríamos preguntar directamente al desarrollador y ver si Nvidia planea llevar la tecnología al estándar de la industria. En teoría, una empresa puede ofrecer sincronización G como una actualización del estándar DisplayPort, que proporciona frecuencias de actualización variables. Después de todo, Nvidia es miembro de la asociación VESA.

Sin embargo, no se planean nuevas especificaciones para DisplayPort, HDMI o DVI. sincronización G por lo que es compatible con DisplayPort 1.2, es decir, no es necesario cambiar el estándar.

Como se señaló, Nvidia está trabajando en la compatibilidad. sincronización G con una tecnología actualmente llamada 3D LightBoost (pero pronto tendrá un nombre diferente). Además, la empresa está buscando una manera de reducir el costo de los módulos. sincronización G y hacerlos más accesibles.

G-Sync en resoluciones Ultra HD

Nvidia promete monitores con soporte sincronización G y resoluciones de hasta 3840x2160 píxeles. Sin embargo, el modelo de Asus, que revisaremos hoy, solo admite 1920x1080 píxeles. Los monitores Ultra HD actualmente usan el controlador STMicro Athena, que tiene dos escaladores para crear una pantalla en mosaico. Nos preguntamos si el módulo sincronización G admite la configuración de MST?

A decir verdad, las pantallas 4K con velocidades de cuadro variables tendrán que esperar. Todavía no hay un dispositivo de mejora de 4K por separado, el más cercano debería aparecer en el primer trimestre de 2014 y los monitores equipados con ellos, solo en el segundo trimestre. Desde el módulo sincronización G reemplaza el dispositivo de zoom, los paneles compatibles comenzarán a aparecer después de este punto. Afortunadamente, el módulo es compatible de forma nativa con Ultra HD.

¿Qué sucede antes de los 30 Hz?

sincronización G puede cambiar la frecuencia de actualización de la pantalla hasta 30 Hz. Esto se explica por el hecho de que a frecuencias de actualización de pantalla muy bajas, la imagen en la pantalla LCD comienza a deteriorarse, lo que conduce a la aparición de artefactos visuales. Si la fuente proporciona menos de 30 FPS, el módulo actualizará el panel automáticamente, evitando posibles problemas. Esto significa que una imagen se puede reproducir más de una vez, pero el umbral inferior es de 30 Hz, lo que proporcionará la imagen de mayor calidad.

Descripción general de la tecnología G-Sync | Paneles de 60 Hz, SLI, Surround y Disponibilidad

¿La tecnología está limitada solo a paneles de alta frecuencia de actualización?

Notará que el primer monitor con sincronización G inicialmente tiene una frecuencia de actualización de pantalla muy alta (por encima del nivel requerido por la tecnología) y una resolución de 1920x1080 píxeles. Pero la pantalla de Asus tiene sus propias limitaciones, como un panel TN de 6 bits. Nos volvimos curiosos, la introducción de la tecnología. sincronización G¿Está planeado solo para pantallas de alta frecuencia de actualización o lo veremos en los monitores más comunes de 60 Hz? Además, quiero tener acceso a una resolución de 2560x1440 píxeles lo más rápido posible.

Nvidia reiteró que la mejor experiencia de sincronización G se puede obtener cuando su tarjeta de video mantiene la velocidad de cuadro dentro de 30 - 60 FPS. Por lo tanto, la tecnología realmente puede beneficiarse de los monitores convencionales con una frecuencia de 60 Hz y un módulo sincronización G .

Pero, ¿por qué usar un monitor de 144 Hz entonces? Parece que muchos fabricantes de monitores han decidido implementar una función de desenfoque de movimiento bajo (3D LightBoost) que requiere una frecuencia de actualización alta. Pero quien decida no utilizar esta función (y por qué no, porque aún no es compatible con sincronización G) puede crear un panel con sincronización G por mucho menos dinero.

Hablando de resoluciones, se perfila así: las pantallas QHD con una frecuencia de actualización de más de 120 Hz podrían comenzar a comercializarse a principios de 2014.

¿Hay problemas con SLI y G-Sync?

¿Qué se necesita para ver G-Sync en modo Surround?

Ahora, por supuesto, no necesita combinar dos adaptadores gráficos para mostrar una imagen en calidad 1080p. Incluso una tarjeta gráfica de gama media basada en Kepler podrá proporcionar el nivel de rendimiento necesario para jugar cómodamente con esta resolución. Pero tampoco hay forma de ejecutar dos tarjetas en SLI en tres sincronización G monitores en modo Surround.

Esta limitación se debe a las salidas de pantalla modernas en las tarjetas Nvidia, que normalmente tienen dos puertos DVI, uno HDMI y un DisplayPort. sincronización G requiere DisplayPort 1.2 y el adaptador no funcionará (ni tampoco un concentrador MST). La única opción es conectar tres monitores en modo Surround a tres tarjetas, es decir, Hay una tarjeta separada para cada monitor. Naturalmente, asumimos que los socios de Nvidia comenzarán a lanzar tarjetas "G-Sync Edition" con más conectores DisplayPort.

G-Sync y triple búfer

Se requería triple búfer activo para jugar cómodamente con v-sync. ¿Es necesaria para sincronización G? La respuesta es no. sincronización G no solo no requiere triple buffering, ya que el canal nunca se detiene, sino que, por el contrario, perjudica sincronización G, porque agrega un marco de retardo adicional sin ganancia de rendimiento. Desafortunadamente, el almacenamiento en búfer triple del juego a menudo se configura solo y no se puede omitir manualmente.

¿Qué pasa con los juegos que normalmente reaccionan mal cuando V-sync está deshabilitado?

Los juegos como Skyrim, que forma parte de nuestro conjunto de pruebas, están diseñados para ejecutarse en V-sync en un panel de 60 Hz (aunque esto a veces nos dificulta la vida debido al retraso de entrada). Para probarlos, se requiere la modificación de ciertos archivos con la extensión .ini. como se comporta sincronización G con juegos basados ​​en motores Gamebryo y Creation que son sensibles a la configuración de sincronización vertical? ¿Están limitados a 60 FPS?

En segundo lugar, necesitas un monitor con un módulo Nvidia sincronización G. Este módulo reemplaza el escalador de pantalla. Y, por ejemplo, agregue a la pantalla dividida Ultra HD sincronización G imposible. En la revisión de hoy, usamos un prototipo con una resolución de 1920x1080 píxeles y una frecuencia de actualización de hasta 144Hz. Pero incluso con eso, puedes hacerte una idea de qué impacto tendrá sincronización G si los fabricantes empiezan a instalarlo en paneles más baratos a 60 Hz.

En tercer lugar, se requiere un cable DisplayPort 1.2. DVI y HDMI no son compatibles. A corto plazo, esto significa que la única opción para trabajar sincronización G en tres monitores en modo Surround, es su conexión a través de un paquete triple SLI, ya que cada tarjeta tiene un solo conector DisplayPort, y los adaptadores para DVI a DisplayPort no funcionan en este caso. Lo mismo ocurre con los concentradores MST.

Y, por último, no se olvide de la compatibilidad con los controladores. La última versión del paquete 331.93 beta ya es compatible con sincronización G, y anticipamos que las futuras versiones certificadas por WHQL también lo incluirán.

Banco de pruebas

Configuración del banco de pruebas
UPC Intel Core i7-3970X (Sandy Bridge-E), reloj base de 3,5 GHz, overclocking de 4,3 GHz, LGA 2011, 15 MB de caché L3 compartida, Hyper-Threading habilitado, funciones de ahorro de energía habilitadas.
tarjeta madre MSI X79A-GD45 Plus (LGA 2011) Conjunto de chips X79 Express, BIOS 17.5
RAM G.Skill 32GB (8 x 4GB) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 y 1.65V
Dispositivo de almacenamiento Samsung 840 Pro SSD 256GB SATA 6Gb/s
tarjetas de video Nvidia GeForce GTX 780 Ti 3 GB
Nvidia GeForce GTX 760 2GB
unidad de poder Corsario AX860i 860W
Software y controladores del sistema
sistema operativo Windows 8 profesional de 64 bits
DirectX DirectX 11
controlador de vídeo Nvidia GeForce 331.93 Beta

Ahora tenemos que averiguar en qué casos sincronización G tiene el mayor impacto. Es muy probable que ya esté utilizando un monitor con una frecuencia de actualización de 60 Hz. Entre los jugadores, los modelos de 120 y 144 Hz son más populares, pero Nvidia asume con razón que la mayoría de los entusiastas del mercado seguirán utilizando los 60 Hz.

Con V-sync activo en un monitor de 60 Hz, los artefactos más notables aparecen cuando la tarjeta no puede entregar 60 fps, lo que genera molestos saltos entre 30 y 60 FPS. Hay ralentizaciones notables aquí. Con v-sync deshabilitado, el efecto de desgarro será más notorio en escenas en las que necesite girar la cámara con frecuencia o en las que haya mucho movimiento. Para algunos jugadores, esto distrae tanto que simplemente activan V-sync y soportan la tartamudez y el retraso de entrada.

Con frecuencias de actualización de 120 y 144 Hz y frecuencias de cuadros más altas, la pantalla se actualiza con más frecuencia, lo que reduce la cantidad de tiempo que se guarda un solo cuadro en varias exploraciones de pantalla cuando el rendimiento es deficiente. Sin embargo, persisten los problemas con la sincronización vertical activa e inactiva. Por esta razón, probaremos el monitor Asus en modo 60 y 144 Hz con tecnología encendida y apagada. sincronización G .

Descripción general de la tecnología G-Sync | Prueba de G-Sync con V-Sync habilitado

Es hora de empezar a probar sincronización G. Solo queda instalar una tarjeta de captura de video, una matriz de varios SSD y proceder a las pruebas, ¿verdad?

No, está mal.

Hoy no medimos el rendimiento, sino la calidad. En nuestro caso, las pruebas solo pueden mostrar una cosa: la velocidad de fotogramas en un momento determinado. Sobre la calidad y experiencia de uso con la tecnología encendida y apagada sincronización G no dicen absolutamente nada. Por lo tanto, tendremos que confiar en nuestra descripción cuidadosamente verificada y elocuente, que intentaremos acercar lo más posible a la realidad.

¿Por qué no simplemente grabar un video y dárselo a los lectores para que lo juzguen? El caso es que la cámara graba vídeo a una velocidad fija de 60 Hz. Su monitor también reproduce video a una frecuencia de actualización constante de 60 Hz. Porque el sincronización G introduce una frecuencia de actualización variable, no verá la tecnología en acción.

Dada la cantidad de juegos disponibles, la cantidad de posibles combinaciones de prueba es innumerable. V-sync activado, V-sync desactivado, sincronización G en, sincronización G apagado, 60Hz, 120Hz, 144Hz,... La lista sigue y sigue. Pero comenzaremos con una frecuencia de actualización de 60 Hz y vsync activo.

Probablemente sea más fácil comenzar con la utilidad de demostración de Nvidia, que hace oscilar el péndulo de un lado a otro. La utilidad puede simular una velocidad de cuadro de 60, 50 o 40 FPS. O la frecuencia puede fluctuar entre 40 y 60 FPS. A continuación, puede desactivar o activar V-sync y sincronización G. Aunque la prueba es ficticia, demuestra bien las capacidades de la tecnología. Puede ver una escena a 50 FPS con vsync activado y pensar: "Todo está bastante bien y se puede tolerar el tartamudeo visible". Pero después de la activación sincronización G Inmediatamente quiero decir: "¿En qué estaba pensando? La diferencia es obvia, como el día y la noche. ¿Cómo pude vivir con esto antes?"

Pero no olvidemos que esta es una demostración técnica. Me gustaría evidencia basada en juegos reales. Para hacer esto, debe ejecutar un juego con altos requisitos de sistema, como Arma III.

En Arma III se puede instalar en una máquina de prueba GeForce GTX 770 y establezca la configuración ultra. Con V-sync deshabilitado, la velocidad de fotogramas fluctúa entre 40 y 50 FPS. Pero si habilita V-sync, bajará a 30 FPS. El rendimiento no es lo suficientemente alto como para ver fluctuaciones constantes entre 30 y 60 FPS. En cambio, la velocidad de fotogramas de la tarjeta gráfica simplemente disminuye.

Como no hubo congelación de imagen, hubo una diferencia significativa al activar sincronización G no se nota, excepto que la velocidad de fotogramas real salta 10 - 20 FPS más. El retraso de entrada también debe reducirse, ya que no se mantiene el mismo cuadro en múltiples escaneos de monitor. Creemos que Arma es generalmente menos "espasmódico" que muchos otros juegos, por lo que no sientes ningún retraso.

Por otro lado, en Metro: Last Light, la influencia sincronización G más pronunciado. con tarjeta de video GeForce GTX 770 el juego se puede ejecutar a una resolución de 1920x1080 con configuraciones de detalles muy altas que incluyen 16x AF, teselado normal y desenfoque de movimiento. En este caso, puede seleccionar las opciones SSAA de 1x a 2x a 3x para reducir gradualmente la velocidad de fotogramas.

Además, el entorno del juego incluye una antecámara donde es fácil moverse de un lado a otro. Corriendo el nivel con V-sync activo a 60 Hz, entramos en la ciudad. Fraps mostró que con triple SSAA, la velocidad de fotogramas era de 30 FPS, y con el anti-aliasing desactivado, era de 60 FPS. En el primer caso, se notan ralentizaciones y retrasos. Con SSAA deshabilitado, obtendrá una imagen completamente fluida a 60 FPS. Sin embargo, activar 2x SSAA provoca fluctuaciones de 60 a 30 FPS, por lo que cada cuadro duplicado crea un inconveniente. Este es uno de los juegos en los que definitivamente desactivaríamos v-sync y simplemente ignoraríamos el desgarro. Muchas personas ya han desarrollado un hábito.

Sin embargo sincronización G elimina todos los efectos negativos. Ya no tiene que mirar el contador Fraps esperando caídas por debajo de 60 FPS para bajar una configuración gráfica más. Por el contrario, puede aumentar algunos de ellos, porque incluso si reduce la velocidad a 50 - 40 FPS, no habrá ralentizaciones obvias. ¿Qué pasa si desactivas la sincronización vertical? Aprenderás sobre esto más adelante.

Descripción general de la tecnología G-Sync | Prueba de G-Sync con V-Sync deshabilitado

Las conclusiones de este artículo se basan en una encuesta a autores y amigos de Tom's Hardware en Skype (es decir, la muestra de encuestados es pequeña), pero casi todos entienden qué es la sincronización vertical y qué desventajas tienen los usuarios. con en esa conexión Según ellos, recurren a V-sync solo cuando las lágrimas debido a una gran dispersión en la frecuencia de cuadro y la frecuencia de actualización del monitor se vuelven insoportables.

Como puede imaginar, el impacto visual de desactivar Vsync es difícil de confundir, aunque está muy influenciado por el juego específico y su configuración detallada.

Toma por ejemplo, Crisis 3. El juego puede hacer que su subsistema de gráficos se ponga de rodillas fácilmente con la configuración de gráficos más alta. Y porqué Crisis 3 es un juego de disparos en primera persona con un juego muy dinámico, las brechas pueden ser bastante notables. En el ejemplo anterior, la salida de FCAT se capturó entre dos fotogramas. Como puede ver, el árbol está completamente cortado.

Por otro lado, cuando forzamos la desactivación de vsync en Skyrim, el desgarro no es tan malo. Tenga en cuenta que, en este caso, la velocidad de fotogramas es muy alta y aparecen varios fotogramas en la pantalla con cada exploración. Así que revisa, el número de movimientos por cuadro es relativamente bajo. Hay problemas a la hora de jugar a Skyrim en esta configuración, y puede que no sea la más óptima. Pero muestra que incluso con v-sync desactivado, la sensación del juego puede cambiar.

Como tercer ejemplo, elegimos una toma del hombro de Lara Croft de Tomb Raider, que muestra un desgarro bastante claro en la imagen (fíjate también en el pelo y el tirante de la camiseta). Tomb Raider es el único juego de nuestra muestra que te permite elegir entre almacenamiento en búfer doble o triple cuando vsync está habilitado.

El último gráfico muestra que Metro: Last Light con sincronización G a 144 Hz generalmente ofrece el mismo rendimiento que con Vsync deshabilitado. Sin embargo, el gráfico no muestra la ausencia de lagunas. Si usa tecnología con una pantalla de 60 Hz, la velocidad de fotogramas alcanzará los 60 FPS, pero no habrá ralentizaciones ni retrasos.

En cualquier caso, aquellos de ustedes (y nosotros) que hemos pasado incontables horas en los puntos de referencia gráficos, viendo el mismo punto de referencia una y otra vez, podríamos acostumbrarnos a ellos y determinar visualmente qué tan bueno es un resultado en particular. Así es como medimos el rendimiento absoluto de las tarjetas de video. Cambios en la imagen con el activo sincronización G llama inmediatamente la atención, ya que hay una suavidad, como con V-sync activado, pero sin las interrupciones características de V-sync desactivado. Lástima que no podamos mostrar la diferencia en el video ahora mismo.

Descripción general de la tecnología G-Sync | Compatibilidad del juego: casi genial

Comprobando otros juegos

Probamos algunos juegos más. Crisis 3, Tomb Raider, Skyrim, BioShock: Infinito, Battlefield 4 visitó el banco de pruebas. Todos ellos, excepto Skyrim, se han beneficiado de la tecnología sincronización G. El efecto dependía del juego competitivo. Pero si lo viera, admitiría de inmediato que ignoró las deficiencias que estaban presentes antes.

Todavía pueden aparecer artefactos. Por ejemplo, el efecto de deslizamiento asociado con el suavizado se nota más con un movimiento suave. Lo más probable es que desee configurar el anti-aliasing lo más alto posible para eliminar las protuberancias desagradables que antes no se notaban tanto.

Skyrim: Caso especial

El motor gráfico Creation en el que se basa Skyrim activa la sincronización vertical de forma predeterminada. Para probar el juego a una velocidad de fotogramas superior a 60 FPS, agregue la línea iPresentInterval=0 a uno de los archivos .ini del juego.

Por lo tanto, Skyrim se puede probar de tres maneras: en su estado original, al permitir que el controlador de Nvidia "use la configuración de la aplicación", habilite sincronización G en el controlador y deje la configuración de Skyrim intacta, y luego habilite sincronización G y deshabilite V-sync en el archivo .ini del juego.

La primera configuración, en la que el monitor experimental está configurado a 60 Hz, mostró 60 FPS estables en configuraciones ultra con una tarjeta de video GeForce GTX 770. En consecuencia, obtuvimos una imagen suave y agradable. Sin embargo, la entrada del usuario todavía sufre de latencia. Además, la ametralladora de lado a lado reveló un desenfoque de movimiento notable. Sin embargo, así es como la mayoría de la gente juega en PC. Por supuesto, puede comprar una pantalla con una frecuencia de actualización de 144 Hz y realmente eliminará el desenfoque. Pero desde GeForce GTX 770 proporciona una frecuencia de actualización de alrededor de 90 - 100 fps, habrá un tartamudeo notable cuando el motor fluctúe entre 144 y 72 FPS.

A 60 Hz sincronización G tiene un efecto negativo en la imagen, esto probablemente se deba a la sincronización vertical activa, a pesar de que la tecnología debería funcionar con la sincronización vertical desactivada. Ahora el desplazamiento lateral (especialmente cerca de las paredes) conduce a un frenado pronunciado. Este es un problema potencial para los paneles de 60 Hz con sincronización G, al menos en juegos como Skyrim. Afortunadamente, en el caso del monitor Asus VG248Q, puede cambiar al modo de 144 Hz y, a pesar de la sincronización V activa, sincronización G funcionará a esta velocidad de fotogramas sin ninguna queja.

Deshabilitar completamente la sincronización vertical en Skyrim da como resultado un control del mouse mucho más "nítido". Sin embargo, esto introduce desgarros en la imagen (sin mencionar otros artefactos como el agua brillante). Inclusión sincronización G deja el tartamudeo a 60Hz, pero a 144Hz la situación mejora notablemente. Aunque probamos el juego con vsync deshabilitado en nuestras revisiones de tarjetas de video, no recomendaríamos jugar sin él.

Para Skyrim, quizás la mejor solución sería deshabilitar sincronización G y juegue a 60 Hz, lo que le dará 60 fps constantes en la configuración de gráficos que elija.

Descripción general de la tecnología G-Sync | G-Sync: ¿qué estás esperando?

Incluso antes recibimos una muestra de prueba de un monitor Asus con tecnología sincronización G, ya nos ha alentado el hecho de que Nvidia está trabajando en un problema muy real que afecta a los juegos y que aún no se ha solucionado. Hasta ahora, ha podido activar o desactivar V-sync a su gusto. Al mismo tiempo, cualquier decisión estuvo acompañada de compromisos que afectan negativamente la experiencia de juego. Si prefiere no habilitar v-sync hasta que el desgarro de imágenes se vuelva insoportable, entonces podemos decir que está eligiendo el menor de dos males.

sincronización G resuelve el problema al permitir que el monitor escanee la pantalla a una frecuencia variable. Tal innovación es la única forma de continuar avanzando en nuestra industria mientras se mantiene la ventaja técnica de las computadoras personales sobre las consolas y plataformas de juegos. Sin duda, Nvidia resistirá las críticas por no desarrollar un estándar que los competidores puedan aplicar. Sin embargo, la empresa utiliza DisplayPort 1.2 para su solución. Como resultado, apenas dos meses después del anuncio de la tecnología sincronización G ella estaba en nuestras manos.

La pregunta es, ¿Nvidia ofrece todo lo que prometió con G-Sync?

Tres desarrolladores talentosos que promocionan las cualidades de una tecnología que nunca has visto en acción pueden inspirar a cualquiera. Pero si tu primera experiencia con sincronización G Según la prueba de demostración del péndulo de Nvidia, se preguntará si es posible una diferencia tan grande o si la prueba representa un escenario especial que es demasiado bueno para ser verdad.

Naturalmente, al probar la tecnología en juegos reales, el efecto no es tan inequívoco. Por un lado, hubo exclamaciones de "¡Guau!" y "¡Vuélvete loco!", por el otro - "Creo que veo la diferencia". Mejor efecto de activación sincronización G notable al cambiar la frecuencia de actualización de la pantalla de 60 Hz a 144 Hz. Pero también intentamos probar a 60 Hz con sincronización G para ver lo que obtienes (con suerte) con pantallas más baratas en el futuro. En algunos casos, simplemente pasar de 60 a 144 Hz te dejará boquiabierto, especialmente si tu tarjeta gráfica puede manejar altas velocidades de cuadro.

Hoy sabemos que Asus planea implementar soporte para sincronización G en el modelo Asus VG248QE, que según la compañía se venderá por $400 el próximo año. El monitor tiene una resolución nativa de 1920x1080 píxeles y una frecuencia de actualización de 144Hz. Versión sin sincronización G ya ha recibido nuestro premio Smart Buy por su desempeño sobresaliente. Pero para nosotros personalmente, un panel TN de 6 bits es una desventaja. Tengo muchas ganas de ver 2560x1440 píxeles en una matriz IPS. Incluso nos conformamos con una frecuencia de actualización de 60 Hz si eso ayuda a mantener el precio bajo.

Aunque esperamos un montón de anuncios en CES, los comentarios oficiales de Nvidia sobre otras pantallas con módulos sincronización G y no hemos oído sus precios. Además, no estamos seguros de cuáles son los planes de la empresa para un módulo de actualización que debería permitirle implementar el módulo. sincronización G en un monitor ya comprado Asus VG248QE en 20 minutos.

Ahora podemos decir que vale la pena la espera. Verás que en algunos juegos no se puede confundir el impacto de la nueva tecnología, mientras que en otros es menos pronunciado. Pero de todos modos sincronización G responde a la pregunta "barbuda" de habilitar o no la sincronización vertical.

Hay otra idea interesante. Después de haber probado sincronización G, ¿cuánto tiempo más podrá AMD evadir comentarios? La compañía se burló de nuestros lectores. en su entrevista(inglés), señalando que pronto decidirá sobre esta posibilidad. ¿Y si ella tiene algo en mente? El final de 2013 y el comienzo de 2014 nos traen muchas noticias emocionantes para discutir, incluyendo Battlefield 4 Versiones de Mantle, la próxima arquitectura de Nvidia Maxwell, sincronización G, un motor AMD xDMA con soporte CrossFire y rumores de nuevas tarjetas gráficas de doble chip. Ahora mismo no tenemos suficientes tarjetas gráficas con más de 3GB (Nvidia) y 4GB (AMD) de memoria GDDR5, pero cuestan menos de $1000...