Z
ZAMURAY
Guest
por aqui trayendo daticos de lo que trae ATI para el proximo año y segun esto mejor como que me espero ya que ati se trae una señora tarjeta de 1 giga en su version baja y 2 gigas en la version alta lean y comenten
Miércoles 15 Noviembre 2006, 4:51
En esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.
Hay muchas sorpresas en el inminente R600. Un montón.
Para empezar, la GPU es un desarrollo lógico que comenzó con el R500 Xenos, la GPU de la Xbox 360, pero que al contrario que esta primera etapa, no hace uso de los 10 Mbytes de memoria eDRAM. Además, el R600 debe ser capaz de dar soporte a un mayor número de resoluciones, y si tenemos en cuenta que ya existen dispositivos de visualización capaces de llegar a los 5 Mpixels, es obvio que el R600 debería tener al menos cinco veces más eDRAM de la que tiene el Xenos de la 360.
AMD/ATI ha conservado la configuración RingBus para el R600, pero el número se ha doblado: el controlador de memoria externo es una variante de 512 bits, aunque internamente será tratado como un bus bidireccional con el doble de ancho de banda. Así pues, el bus RingBus de 1024 bits está al caer.
Esta empresa cree que la mejor forma de hacer que sus unidades de shading estén bien servidas en todo momento es hacer que en cada ciclo se evalúen 16 píxels, sea cual sea la complejidad del píxel. Eso no hace al R600 más débil que el G80 de NVIDIA, que dispone de seis ROPs (Raster Operation Partition), cada uno de los cuales puede renderizar hasta 4 píxels, sumando un total de 24 frente a los 16 de ATI.
También hemos podido saber la razón por la cual el producto se estaba retrasando tanto. Parece que ATI encontró un fallo muy extraño en el revisión A0 del chip, que en lugar de limitar la frecuencia de los chips a 500 MHz (como algunos decían) desactivaba el Anti-Aliasing de muestra múltiple (MSAA). En estos momentos no pudimos verificar si la revisión A1 se había eliminado el fallo. Las placas que lleguen al mercado seguramente estén fabricadas con la revisión A2.
El R600 aún no dispone de una frecuencia de reloj definitiva, pero la empresa está apuntando a 700 u 800 MHz para la GPU, lo que llevaría a alcanzar un fillrate que se situaría a la par que el G80... o lo superaría. Si nos ponemos a hablar de la potencia en cuanto a los shaders, la cosa se pone interesante.
Los 24 ROPs del G80 a 575 MHz equivalen a tratar 13.800 millones de píxeles por ciclo de reloj, mientras que 16 ROPs del R600 a 750 MHz alcanzarían los 12.000 millones de píxeles por ciclo. Al mismo tiempo, hay que tener en cuenta que el rendimiento de ATI será mucho mejor en aplicaciones con tratamiento masivo de shaders complejos.
En cuanto al número de shaders, mucho nos tememos que el márketing de ambas empresas provocará algunas confusiones. NVIDIA dispone de 128 unidades de shaders, mientras que el R600 "sólo" dispondrá de 64. Sin embargo, no esperéis que esos 64 shaders de ATI ofrezcan la mitad de las prestaciones. De hecho, podríais acabar muy sorprendidos al respecto.
El R600 hace uso de 64 unidades de shaders de 4 vías. Es una aproximación totalmente distinta y realmente compleja, comparada con las relativamente simplonas unidades escalares de NVIDIA.
Teniendo en cuenta que el shader SIMD de la R600 puede calcular el resultado de cuatro unidades escalares, su rendimiento real sería el de 256 unidades escalares - por 128 de NVIDIA. Seguramente obtengamos unos resultados muy interesantes en el rendimiento DirectX 10, ya que todos los desarrolladores de juegos esperan que los chips de NVIDIA sean más rápidas en instrucciones simples, mientras que la R600 sea mejor en el terreno de los shaders complejos. Sería algo así como comparar los Athlon XP y los Athlon - uno de ellos hace más en cada ciclo de reloj, mientras que el otro utiliza una frecuencia de reloj más alta para conseguir las mismas prestaciones.
Así que sin tener en cuenta la marca que prefieras, tanto el G80 como el R600 son productos extremadamente complejos que ofrecen cientos de GIGAFLOPs de potencia de proceso y que permiten abarcar todo tipo de usos, desde juegos a emisiones HDTV en broadcast, y en el futuro, ese uso de la GPU como CPU para tareas específicas.
Miércoles 15 Noviembre 2006, 4:52
Esta es la segunda parte de esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.
La primera parte del artículo la podréis encontrar aquí.
Parece que la placa en la que AMD/ATI integrará su GPU R600 y los correspondientes componentes está repleta de innovaciones y mejoras realmente destacables, como veremos a continuación.
En primer lugar, debéis saber que esta PCB (Printed Circuit Board) es la más cara que AMD ha pedido fabricar en toda su historia. Es un monstruo realmente complejo de 12 capas con ciertas novedades en su fabricación utilizadas para poder hacer factibles los requisitos del R600, y muy especialmente de su controladora de memoria de 512 bits y la distribución de la alimentación de los componentes.
Los chips de memoria se manejan de una forma muy similar a los del G80, pero cada chip de memoria tiene su propia conexión física con un ancho de 32 bits al interfaz de memoria RingBus. Por lo tanto, el ancho de banda de la memoria irá desde los 115 GBps (memoria GDDR3 al estilo de la 8800GTX, con memoria DDR de 900 MHz a 1,8 GHz) y los 140,1 GBps (GDDR4 a 1,1 GHz DDR, o 2,2 GHz en términos de márketing).
Esto haría morder el polvo a las GeForce 8800, al menos si tenemos en cuenta a los departamentos de márketing. Desde luego 86 GBps parecen bastante, pero si el R600 llega a los 140 GBps, en NVIDIA tendrán que hacerse los locos. Y es muy probable que en AMD hagan pegar grandes pegatinas en las cajas para resaltar ese dato.
La tarjeta con el R600 es enorme, pero curiosamente, no es extremadamente larga. Aunque la primera revisión de las tarjetas era tan larga como las 7900GX2, a finales de agosto y principios de septiembre los ingenieros lograron un pequeño milagro reduciendo el tamaño de la placa. Actualmente están desarrollando mejoras a los componentes, pero por lo que hemos podido ver este es el producto más compacto en toda la historia de los gráficos 3D.
El PCB será más corto que el de las 8800GTX en todas sus variantes, y podrá compararse al de las X1950XT o las 7900GTX. Lo que más ocupa, como era de esperar, es el sistema de refrigeración. Es un monstruo que supera la longitud del PCB, con cuatro heat-pipes, una bestia que haría las delicias de los fans de los sistemas de refrigeración de Artic-Cooling, y que aprovecha el cobre cuanto puede. Y además, pesa una tonelada.
Es la tarjeta más pesada que existirá en el mercado, y habrá que utilizar las dos manos para instalarla. El sistema de refrigeración mejorará la integridad estructural del PCB, así que debeis estar atentos a lo que el R600 con esta refrigeración puede ofrecer.
Si os preguntáis la razón por la cual AMD diseñaría una solución así, la respuesta estará justo delante vuestro. ¿Por qué es tan importante un sistema de refrigeración tan grande? La respuesta es simple: es necesario disipar calor de virtualmente todos los componentes de la placa: la GPU, los chips de memoria y la unidad de regulación de la alimentación.
Habrá dos versiones de la tarjeta. La más completa hará uso de memoria GDDR3, y "la más simple" usará memoria GDDR3. AMD/ATI está contemplando variantes de uno y dos GBytes de memoria, lo que ofrecería una ventaja aún superior en el tema de márketing frente a las "limitadas" versiones de NVIDIA con 640 y 768 Mbytes.
¿2 Gbytes de vídeo? Sí, parece una locura, pero no en el mundo profesional, donde esta tarjeta con 2 GB competiría con la futura G80GL y sus 0,77/1,5 Gbytes de memoria de vídeo. No creemos que esta versión aparezca de otra forma que no sea la de las futuras series FireGL, pero la decisión final aún no está tomada.
El chip original Rage Theater desaparece para siempre. Tras depender de dicho componente para las funciones VIVO durante casi una década, la empresa ha decidido sustituirlo por el nuevo Rage Theater 200. Aún no se conoce el nombre comercial de esa renovación, pero hay que destacar que el R600 tendrá entrada y salida de vídeo desde el primer día del lanzamiento. La muerte de las series All-in-Wonder fue todo un shock para mucha gente en ATI, y parece que ahora hay un apoyo muy fuerte para integrar el soporte para los conectores HD, tanto de entrada, como de salida.
En cuanto al consumo energético, parece que diversos portales online estaban muy equivocados, especialmente al hablar de los conectores de alimentación especiales que estaban presentes en la revisión A0 de la tarjeta. Nuestras fuentes afirman que están siguiendo las directrices de la industria y que las especificaciones del R600 en este aspecto serán distintas a lo que algunos sites han publicado. De hecho, algunas de esas fuentes dicen que esos rumores se originaron como parte de una especie de conspiración en NVIDIA.
Para empezar, el rumor que hablaba de que este chip de 80 nm se tragaría 300 W está muy lejos de ser verdad. El consumo real se acercará a los 200-220 W y la tarjeta no debería consumir más que una GeForce 8800GTX. Nuestro editor Fudo (Fuad Abazovic) al menos estaba en lo cierto en un detalle: el disipador está preparado para soportar unos 250 W, lo que deja un margen de un 15% para disipar mayor cantidad de calor disipado si fuese necesario. Es posible que el R680 utilice el mismo disipador, y con él podrá llegar al GHz de frecuencia de reloj. Este PCB es también la base del futuro R700, pero por lo que hemos oído el R700 será un monstruo de otra especie.
En cuanto a la edición CrossFire de esta tarjeta, solo podremos decir: adiós, y ¡ya era hora!
Tal y como sucede con el RV570 (las tarjetas X1900GT), el R600 hace uso de un nuevo conector dual-bridge para esa función CrossFire. Esto evita más pesadillas a los técnicos y partners que las analizan, ya que probar sus prestaciones era realmente complicado por la escasez de ediciones CrossFire de esas tarjetas.
Esperamos que estas tarjetas estén en las tiendas en el primer trimestre de 2007, y más concretamente, para el 30 de enero. Deberíais ser capaces de adivinar el porqué de esta fecha concreta.
Miércoles 15 Noviembre 2006, 4:51
En esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.
Hay muchas sorpresas en el inminente R600. Un montón.
Para empezar, la GPU es un desarrollo lógico que comenzó con el R500 Xenos, la GPU de la Xbox 360, pero que al contrario que esta primera etapa, no hace uso de los 10 Mbytes de memoria eDRAM. Además, el R600 debe ser capaz de dar soporte a un mayor número de resoluciones, y si tenemos en cuenta que ya existen dispositivos de visualización capaces de llegar a los 5 Mpixels, es obvio que el R600 debería tener al menos cinco veces más eDRAM de la que tiene el Xenos de la 360.
AMD/ATI ha conservado la configuración RingBus para el R600, pero el número se ha doblado: el controlador de memoria externo es una variante de 512 bits, aunque internamente será tratado como un bus bidireccional con el doble de ancho de banda. Así pues, el bus RingBus de 1024 bits está al caer.
Esta empresa cree que la mejor forma de hacer que sus unidades de shading estén bien servidas en todo momento es hacer que en cada ciclo se evalúen 16 píxels, sea cual sea la complejidad del píxel. Eso no hace al R600 más débil que el G80 de NVIDIA, que dispone de seis ROPs (Raster Operation Partition), cada uno de los cuales puede renderizar hasta 4 píxels, sumando un total de 24 frente a los 16 de ATI.
También hemos podido saber la razón por la cual el producto se estaba retrasando tanto. Parece que ATI encontró un fallo muy extraño en el revisión A0 del chip, que en lugar de limitar la frecuencia de los chips a 500 MHz (como algunos decían) desactivaba el Anti-Aliasing de muestra múltiple (MSAA). En estos momentos no pudimos verificar si la revisión A1 se había eliminado el fallo. Las placas que lleguen al mercado seguramente estén fabricadas con la revisión A2.
El R600 aún no dispone de una frecuencia de reloj definitiva, pero la empresa está apuntando a 700 u 800 MHz para la GPU, lo que llevaría a alcanzar un fillrate que se situaría a la par que el G80... o lo superaría. Si nos ponemos a hablar de la potencia en cuanto a los shaders, la cosa se pone interesante.
Los 24 ROPs del G80 a 575 MHz equivalen a tratar 13.800 millones de píxeles por ciclo de reloj, mientras que 16 ROPs del R600 a 750 MHz alcanzarían los 12.000 millones de píxeles por ciclo. Al mismo tiempo, hay que tener en cuenta que el rendimiento de ATI será mucho mejor en aplicaciones con tratamiento masivo de shaders complejos.
En cuanto al número de shaders, mucho nos tememos que el márketing de ambas empresas provocará algunas confusiones. NVIDIA dispone de 128 unidades de shaders, mientras que el R600 "sólo" dispondrá de 64. Sin embargo, no esperéis que esos 64 shaders de ATI ofrezcan la mitad de las prestaciones. De hecho, podríais acabar muy sorprendidos al respecto.
El R600 hace uso de 64 unidades de shaders de 4 vías. Es una aproximación totalmente distinta y realmente compleja, comparada con las relativamente simplonas unidades escalares de NVIDIA.
Teniendo en cuenta que el shader SIMD de la R600 puede calcular el resultado de cuatro unidades escalares, su rendimiento real sería el de 256 unidades escalares - por 128 de NVIDIA. Seguramente obtengamos unos resultados muy interesantes en el rendimiento DirectX 10, ya que todos los desarrolladores de juegos esperan que los chips de NVIDIA sean más rápidas en instrucciones simples, mientras que la R600 sea mejor en el terreno de los shaders complejos. Sería algo así como comparar los Athlon XP y los Athlon - uno de ellos hace más en cada ciclo de reloj, mientras que el otro utiliza una frecuencia de reloj más alta para conseguir las mismas prestaciones.
Así que sin tener en cuenta la marca que prefieras, tanto el G80 como el R600 son productos extremadamente complejos que ofrecen cientos de GIGAFLOPs de potencia de proceso y que permiten abarcar todo tipo de usos, desde juegos a emisiones HDTV en broadcast, y en el futuro, ese uso de la GPU como CPU para tareas específicas.
Miércoles 15 Noviembre 2006, 4:52
Esta es la segunda parte de esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.
La primera parte del artículo la podréis encontrar aquí.
Parece que la placa en la que AMD/ATI integrará su GPU R600 y los correspondientes componentes está repleta de innovaciones y mejoras realmente destacables, como veremos a continuación.
En primer lugar, debéis saber que esta PCB (Printed Circuit Board) es la más cara que AMD ha pedido fabricar en toda su historia. Es un monstruo realmente complejo de 12 capas con ciertas novedades en su fabricación utilizadas para poder hacer factibles los requisitos del R600, y muy especialmente de su controladora de memoria de 512 bits y la distribución de la alimentación de los componentes.
Los chips de memoria se manejan de una forma muy similar a los del G80, pero cada chip de memoria tiene su propia conexión física con un ancho de 32 bits al interfaz de memoria RingBus. Por lo tanto, el ancho de banda de la memoria irá desde los 115 GBps (memoria GDDR3 al estilo de la 8800GTX, con memoria DDR de 900 MHz a 1,8 GHz) y los 140,1 GBps (GDDR4 a 1,1 GHz DDR, o 2,2 GHz en términos de márketing).
Esto haría morder el polvo a las GeForce 8800, al menos si tenemos en cuenta a los departamentos de márketing. Desde luego 86 GBps parecen bastante, pero si el R600 llega a los 140 GBps, en NVIDIA tendrán que hacerse los locos. Y es muy probable que en AMD hagan pegar grandes pegatinas en las cajas para resaltar ese dato.
La tarjeta con el R600 es enorme, pero curiosamente, no es extremadamente larga. Aunque la primera revisión de las tarjetas era tan larga como las 7900GX2, a finales de agosto y principios de septiembre los ingenieros lograron un pequeño milagro reduciendo el tamaño de la placa. Actualmente están desarrollando mejoras a los componentes, pero por lo que hemos podido ver este es el producto más compacto en toda la historia de los gráficos 3D.
El PCB será más corto que el de las 8800GTX en todas sus variantes, y podrá compararse al de las X1950XT o las 7900GTX. Lo que más ocupa, como era de esperar, es el sistema de refrigeración. Es un monstruo que supera la longitud del PCB, con cuatro heat-pipes, una bestia que haría las delicias de los fans de los sistemas de refrigeración de Artic-Cooling, y que aprovecha el cobre cuanto puede. Y además, pesa una tonelada.
Es la tarjeta más pesada que existirá en el mercado, y habrá que utilizar las dos manos para instalarla. El sistema de refrigeración mejorará la integridad estructural del PCB, así que debeis estar atentos a lo que el R600 con esta refrigeración puede ofrecer.
Si os preguntáis la razón por la cual AMD diseñaría una solución así, la respuesta estará justo delante vuestro. ¿Por qué es tan importante un sistema de refrigeración tan grande? La respuesta es simple: es necesario disipar calor de virtualmente todos los componentes de la placa: la GPU, los chips de memoria y la unidad de regulación de la alimentación.
Habrá dos versiones de la tarjeta. La más completa hará uso de memoria GDDR3, y "la más simple" usará memoria GDDR3. AMD/ATI está contemplando variantes de uno y dos GBytes de memoria, lo que ofrecería una ventaja aún superior en el tema de márketing frente a las "limitadas" versiones de NVIDIA con 640 y 768 Mbytes.
¿2 Gbytes de vídeo? Sí, parece una locura, pero no en el mundo profesional, donde esta tarjeta con 2 GB competiría con la futura G80GL y sus 0,77/1,5 Gbytes de memoria de vídeo. No creemos que esta versión aparezca de otra forma que no sea la de las futuras series FireGL, pero la decisión final aún no está tomada.
El chip original Rage Theater desaparece para siempre. Tras depender de dicho componente para las funciones VIVO durante casi una década, la empresa ha decidido sustituirlo por el nuevo Rage Theater 200. Aún no se conoce el nombre comercial de esa renovación, pero hay que destacar que el R600 tendrá entrada y salida de vídeo desde el primer día del lanzamiento. La muerte de las series All-in-Wonder fue todo un shock para mucha gente en ATI, y parece que ahora hay un apoyo muy fuerte para integrar el soporte para los conectores HD, tanto de entrada, como de salida.
En cuanto al consumo energético, parece que diversos portales online estaban muy equivocados, especialmente al hablar de los conectores de alimentación especiales que estaban presentes en la revisión A0 de la tarjeta. Nuestras fuentes afirman que están siguiendo las directrices de la industria y que las especificaciones del R600 en este aspecto serán distintas a lo que algunos sites han publicado. De hecho, algunas de esas fuentes dicen que esos rumores se originaron como parte de una especie de conspiración en NVIDIA.
Para empezar, el rumor que hablaba de que este chip de 80 nm se tragaría 300 W está muy lejos de ser verdad. El consumo real se acercará a los 200-220 W y la tarjeta no debería consumir más que una GeForce 8800GTX. Nuestro editor Fudo (Fuad Abazovic) al menos estaba en lo cierto en un detalle: el disipador está preparado para soportar unos 250 W, lo que deja un margen de un 15% para disipar mayor cantidad de calor disipado si fuese necesario. Es posible que el R680 utilice el mismo disipador, y con él podrá llegar al GHz de frecuencia de reloj. Este PCB es también la base del futuro R700, pero por lo que hemos oído el R700 será un monstruo de otra especie.
En cuanto a la edición CrossFire de esta tarjeta, solo podremos decir: adiós, y ¡ya era hora!
Tal y como sucede con el RV570 (las tarjetas X1900GT), el R600 hace uso de un nuevo conector dual-bridge para esa función CrossFire. Esto evita más pesadillas a los técnicos y partners que las analizan, ya que probar sus prestaciones era realmente complicado por la escasez de ediciones CrossFire de esas tarjetas.
Esperamos que estas tarjetas estén en las tiendas en el primer trimestre de 2007, y más concretamente, para el 30 de enero. Deberíais ser capaces de adivinar el porqué de esta fecha concreta.