Lo nuevo de ATI R600

  • Iniciador del tema ZAMURAY
  • Fecha de inicio
Z

ZAMURAY

Guest
por aqui trayendo daticos de lo que trae ATI para el proximo año y segun esto mejor como que me espero ya que ati se trae una señora tarjeta de 1 giga en su version baja y 2 gigas en la version alta lean y comenten




Miércoles 15 Noviembre 2006, 4:51

En esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.

Hay muchas sorpresas en el inminente R600. Un montón.

Para empezar, la GPU es un desarrollo lógico que comenzó con el R500 Xenos, la GPU de la Xbox 360, pero que al contrario que esta primera etapa, no hace uso de los 10 Mbytes de memoria eDRAM. Además, el R600 debe ser capaz de dar soporte a un mayor número de resoluciones, y si tenemos en cuenta que ya existen dispositivos de visualización capaces de llegar a los 5 Mpixels, es obvio que el R600 debería tener al menos cinco veces más eDRAM de la que tiene el Xenos de la 360.

AMD/ATI ha conservado la configuración RingBus para el R600, pero el número se ha doblado: el controlador de memoria externo es una variante de 512 bits, aunque internamente será tratado como un bus bidireccional con el doble de ancho de banda. Así pues, el bus RingBus de 1024 bits está al caer.

Esta empresa cree que la mejor forma de hacer que sus unidades de shading estén bien servidas en todo momento es hacer que en cada ciclo se evalúen 16 píxels, sea cual sea la complejidad del píxel. Eso no hace al R600 más débil que el G80 de NVIDIA, que dispone de seis ROPs (Raster Operation Partition), cada uno de los cuales puede renderizar hasta 4 píxels, sumando un total de 24 frente a los 16 de ATI.

También hemos podido saber la razón por la cual el producto se estaba retrasando tanto. Parece que ATI encontró un fallo muy extraño en el revisión A0 del chip, que en lugar de limitar la frecuencia de los chips a 500 MHz (como algunos decían) desactivaba el Anti-Aliasing de muestra múltiple (MSAA). En estos momentos no pudimos verificar si la revisión A1 se había eliminado el fallo. Las placas que lleguen al mercado seguramente estén fabricadas con la revisión A2.

El R600 aún no dispone de una frecuencia de reloj definitiva, pero la empresa está apuntando a 700 u 800 MHz para la GPU, lo que llevaría a alcanzar un fillrate que se situaría a la par que el G80... o lo superaría. Si nos ponemos a hablar de la potencia en cuanto a los shaders, la cosa se pone interesante.

Los 24 ROPs del G80 a 575 MHz equivalen a tratar 13.800 millones de píxeles por ciclo de reloj, mientras que 16 ROPs del R600 a 750 MHz alcanzarían los 12.000 millones de píxeles por ciclo. Al mismo tiempo, hay que tener en cuenta que el rendimiento de ATI será mucho mejor en aplicaciones con tratamiento masivo de shaders complejos.

En cuanto al número de shaders, mucho nos tememos que el márketing de ambas empresas provocará algunas confusiones. NVIDIA dispone de 128 unidades de shaders, mientras que el R600 "sólo" dispondrá de 64. Sin embargo, no esperéis que esos 64 shaders de ATI ofrezcan la mitad de las prestaciones. De hecho, podríais acabar muy sorprendidos al respecto.

El R600 hace uso de 64 unidades de shaders de 4 vías. Es una aproximación totalmente distinta y realmente compleja, comparada con las relativamente simplonas unidades escalares de NVIDIA.

Teniendo en cuenta que el shader SIMD de la R600 puede calcular el resultado de cuatro unidades escalares, su rendimiento real sería el de 256 unidades escalares - por 128 de NVIDIA. Seguramente obtengamos unos resultados muy interesantes en el rendimiento DirectX 10, ya que todos los desarrolladores de juegos esperan que los chips de NVIDIA sean más rápidas en instrucciones simples, mientras que la R600 sea mejor en el terreno de los shaders complejos. Sería algo así como comparar los Athlon XP y los Athlon - uno de ellos hace más en cada ciclo de reloj, mientras que el otro utiliza una frecuencia de reloj más alta para conseguir las mismas prestaciones.

Así que sin tener en cuenta la marca que prefieras, tanto el G80 como el R600 son productos extremadamente complejos que ofrecen cientos de GIGAFLOPs de potencia de proceso y que permiten abarcar todo tipo de usos, desde juegos a emisiones HDTV en broadcast, y en el futuro, ese uso de la GPU como CPU para tareas específicas.



Miércoles 15 Noviembre 2006, 4:52

Esta es la segunda parte de esta serie de dos artículos desvelaremos todos los detalles de la que se supone será la próxima reina de los gráficos, superando incluso (según las expectativas de sus desarrolladores) a la reciente y poderosa G80 de NVIDIA.

La primera parte del artículo la podréis encontrar aquí.

Parece que la placa en la que AMD/ATI integrará su GPU R600 y los correspondientes componentes está repleta de innovaciones y mejoras realmente destacables, como veremos a continuación.

En primer lugar, debéis saber que esta PCB (Printed Circuit Board) es la más cara que AMD ha pedido fabricar en toda su historia. Es un monstruo realmente complejo de 12 capas con ciertas novedades en su fabricación utilizadas para poder hacer factibles los requisitos del R600, y muy especialmente de su controladora de memoria de 512 bits y la distribución de la alimentación de los componentes.

Los chips de memoria se manejan de una forma muy similar a los del G80, pero cada chip de memoria tiene su propia conexión física con un ancho de 32 bits al interfaz de memoria RingBus. Por lo tanto, el ancho de banda de la memoria irá desde los 115 GBps (memoria GDDR3 al estilo de la 8800GTX, con memoria DDR de 900 MHz a 1,8 GHz) y los 140,1 GBps (GDDR4 a 1,1 GHz DDR, o 2,2 GHz en términos de márketing).

Esto haría morder el polvo a las GeForce 8800, al menos si tenemos en cuenta a los departamentos de márketing. Desde luego 86 GBps parecen bastante, pero si el R600 llega a los 140 GBps, en NVIDIA tendrán que hacerse los locos. Y es muy probable que en AMD hagan pegar grandes pegatinas en las cajas para resaltar ese dato.

La tarjeta con el R600 es enorme, pero curiosamente, no es extremadamente larga. Aunque la primera revisión de las tarjetas era tan larga como las 7900GX2, a finales de agosto y principios de septiembre los ingenieros lograron un pequeño milagro reduciendo el tamaño de la placa. Actualmente están desarrollando mejoras a los componentes, pero por lo que hemos podido ver este es el producto más compacto en toda la historia de los gráficos 3D.

El PCB será más corto que el de las 8800GTX en todas sus variantes, y podrá compararse al de las X1950XT o las 7900GTX. Lo que más ocupa, como era de esperar, es el sistema de refrigeración. Es un monstruo que supera la longitud del PCB, con cuatro heat-pipes, una bestia que haría las delicias de los fans de los sistemas de refrigeración de Artic-Cooling, y que aprovecha el cobre cuanto puede. Y además, pesa una tonelada.

Es la tarjeta más pesada que existirá en el mercado, y habrá que utilizar las dos manos para instalarla. El sistema de refrigeración mejorará la integridad estructural del PCB, así que debeis estar atentos a lo que el R600 con esta refrigeración puede ofrecer.

Si os preguntáis la razón por la cual AMD diseñaría una solución así, la respuesta estará justo delante vuestro. ¿Por qué es tan importante un sistema de refrigeración tan grande? La respuesta es simple: es necesario disipar calor de virtualmente todos los componentes de la placa: la GPU, los chips de memoria y la unidad de regulación de la alimentación.

Habrá dos versiones de la tarjeta. La más completa hará uso de memoria GDDR3, y "la más simple" usará memoria GDDR3. AMD/ATI está contemplando variantes de uno y dos GBytes de memoria, lo que ofrecería una ventaja aún superior en el tema de márketing frente a las "limitadas" versiones de NVIDIA con 640 y 768 Mbytes.

¿2 Gbytes de vídeo? Sí, parece una locura, pero no en el mundo profesional, donde esta tarjeta con 2 GB competiría con la futura G80GL y sus 0,77/1,5 Gbytes de memoria de vídeo. No creemos que esta versión aparezca de otra forma que no sea la de las futuras series FireGL, pero la decisión final aún no está tomada.

El chip original Rage Theater desaparece para siempre. Tras depender de dicho componente para las funciones VIVO durante casi una década, la empresa ha decidido sustituirlo por el nuevo Rage Theater 200. Aún no se conoce el nombre comercial de esa renovación, pero hay que destacar que el R600 tendrá entrada y salida de vídeo desde el primer día del lanzamiento. La muerte de las series All-in-Wonder fue todo un shock para mucha gente en ATI, y parece que ahora hay un apoyo muy fuerte para integrar el soporte para los conectores HD, tanto de entrada, como de salida.

En cuanto al consumo energético, parece que diversos portales online estaban muy equivocados, especialmente al hablar de los conectores de alimentación especiales que estaban presentes en la revisión A0 de la tarjeta. Nuestras fuentes afirman que están siguiendo las directrices de la industria y que las especificaciones del R600 en este aspecto serán distintas a lo que algunos sites han publicado. De hecho, algunas de esas fuentes dicen que esos rumores se originaron como parte de una especie de conspiración en NVIDIA.

Para empezar, el rumor que hablaba de que este chip de 80 nm se tragaría 300 W está muy lejos de ser verdad. El consumo real se acercará a los 200-220 W y la tarjeta no debería consumir más que una GeForce 8800GTX. Nuestro editor Fudo (Fuad Abazovic) al menos estaba en lo cierto en un detalle: el disipador está preparado para soportar unos 250 W, lo que deja un margen de un 15% para disipar mayor cantidad de calor disipado si fuese necesario. Es posible que el R680 utilice el mismo disipador, y con él podrá llegar al GHz de frecuencia de reloj. Este PCB es también la base del futuro R700, pero por lo que hemos oído el R700 será un monstruo de otra especie.

En cuanto a la edición CrossFire de esta tarjeta, solo podremos decir: adiós, y ¡ya era hora!

Tal y como sucede con el RV570 (las tarjetas X1900GT), el R600 hace uso de un nuevo conector dual-bridge para esa función CrossFire. Esto evita más pesadillas a los técnicos y partners que las analizan, ya que probar sus prestaciones era realmente complicado por la escasez de ediciones CrossFire de esas tarjetas.

Esperamos que estas tarjetas estén en las tiendas en el primer trimestre de 2007, y más concretamente, para el 30 de enero. Deberíais ser capaces de adivinar el porqué de esta fecha concreta.
 
  • Me gusta
Reacciones: 4 personas
muy buena info ZAMURAY
parece que AMD/ATI se viene con todo, pero yo diria que se vallan apurando un poco porque NVIDIA ya lleva ventaja
 
samurai, muy bueno el artículo un tanto largo, pero el que le gusta lee. soy fan de nvidia, pero como ahora ati esta con AMD y ati hace muy buenas tarjetas tambien, como salgan con algo fuerte me paso, además puede ser que el que rie de ultimo rie mejor.
 
No pude encontrar informacion sobre la R600 en la pagina de ATI. :( Así que en verdad no se sabe todavia que es capaz de hacer esa tarjeta.

Lo que me impresiona es la frecuencia y el tamaño de la memoria, pues se adapta mas a la arquitectura que van a ofrecer OpenGL 2.1 y DX10, ya que con los geometry shaders se puede crear la geometria en la GPU y no el CPU como se hace en DX9 y OpenGL 2.0

Lo segundo que pienso es que todavia falta mucho para que se adopte completamente DX10 pues Windows Vista ni siquiera ha salido, y las extensiones de geometry shaders para OpenGL apenas fueron liberadas el 13 de noviembre y deben pasar una revisión para poder estar en la distribucion estandar, esto quiere decir, que en el corto plazo no existirán muchas aplicaciones que soporten las nuevas funcionalidades de esta generación de tarjetas.
 
Aqui con mas noticias al respecto mi gente

Las grandes GPUs, condenadas a morir
por El equipo de The Inquirer: Sábado 18 Noviembre 2006, 12:57

La ATI R600 representa el final de una era: la de las GPUs monolíticas

Serán sustituidas por un grupo de GPUs más pequeñas con la generación de placas R700. Este es el mayor cambio desde que 3Dfx salió con SLI (hace ya muchos años).

Básicamente, si echas un vistazo a la arquitectura de cualquier GPU moderna, ya sea R5xx/6xx o G80, comprende unidades modulares conectadas a un gran interconector. Imagina que el interconector estuviese más distribuido, como si dijéramos un Opteron y tecnología HT...podría tener cuatro chips pequeños en vez de uno grande.

Esto supone una gran ventaja en cuanto a tiempo de diseño, porque sólo necesitas fabricar un chip a un cuarto del tamaño o menos, y sólo colocar muchos de ellos en la PCB. Si quieres una placa de gama baja, necesitarás un chip; para una placa media, cuatro; y para una que se salga, 16. Vamos, como si se tratase de un Lego.

Es verdad que para hacer esto se necesita una buena dosis de magia en el software, pero nos han dicho que ATI tiene el ingrediente secreto. Es decir, las placas R700 serán más modulares, más escalables, más consistentes y baratas. De hecho, desde el momento en el que pongan a la venta la primera, tendrán la capacidad de hacer lo mismo con todas las demás. Es una inversión segura para ATI.

Se han oído varios nombres en código estas semanas, pero estamos seguros de que es cosa hecha. Lo que no tenemos tan claro es que G90 vaya a seguir un camino parecido, si bien todo apunta en esa dirección.
 
Pues la verdad The Inquirer no es que sea la mata de las noticias verdaderas.... ya en el pasado se han descachado en muchas noticias que publican y luego terminan siendo falsas.... pero bueno...... esperemos que sea asi y que la tecnologia en tarjetas de video haga un gran salto como lo fue las 3DFX y como las serie TI de NVIDIA:..... ahora vamos a ver con que revolusion tecnologica sale ATI/AMD.

Igual TODOS GANAMOS :p
 
Muuuuy buena noticia, tal como dice ByteheadX esperemos que sea cierto, pero pues me imagino que sí ha de tener los argumentos necesarios para decir esa noticia, va a destruir a nvidia! >D.

Un Saludo
 
Power Computer dijo:
Muuuuy buena noticia, tal como dice ByteheadX esperemos que sea cierto, pero pues me imagino que sí ha de tener los argumentos necesarios para decir esa noticia, va a destruir a nvidia! >D.

Un Saludo


Si lee bien las caracteristicas descritas en la noticia, la R600 es un poco mejor que la G8800, así que creo que no va a destruir a nVidia.
 
jomunoz dijo:
Si lee bien las caracteristicas descritas en la noticia, la R600 es un poco mejor que la G8800, así que creo que no va a destruir a nVidia.
Cierto, usted lo dijo, pero, al no haber yo especificado si me refería al R600 se podría definir que también incluyo al R680 y al R700 :).

Un Saludo
 
la R700 sera la ultima de las grandes GPUS de alli en adelante las GPUS seran divididas por ej. una tarjeta grafica media tendra un GPU, una tarjeta grafica media tendra 2 GPUS y una tarjeta grafica alta tendra apartir de 4 GPUS pequeños que haran que el rendimiento sea mejor
 
Uuuuuf caray eso no lo sabía :wow:, ya me imagino en unos años las gamas altas con 8 GPUS pequeños de 512 MB cada uno jajajajaja (4096 MB).

Un Saludo
 
yo mejor me quedo con mi tarjeta de video TRIDENT de 2MB, con memorias DDR7 de 5.000 MHZ, jejejee. Interesante la propuesta de ATI. Con respecto al DX10, si todavia esta muy cachorro, esperemos a que empiecen a salir los juegos y veremos.
 
Bueno aqui unas fotos del nuevo chip.....

ati_r600_chip1.jpg


ati_r600_chip2.jpg


ati_r600_marking.jpg


d07a4236-c55f-4060-be58-02d380712df0.jpg


415d40b1-7c47-4b02-bba7-4ba02bd15781.jpg


ceagqzqii6yhcrm7.jpg


Me parece un poco extraño la forma como esta ubicado el core del GPU pero sus razones tendran para hacer eso.

Fuente: http://vga.zol.com.cn/46/468342.html
 
  • Me gusta
Reacciones: 2 personas
Buenas nuevas Muchachos

El R600 de ATI llegará en febrero
por Javier Pastor: Viernes 1 Diciembre 2006, 1:20

Si AMD consigue cumplir sus planes, lanzará el R600 en febrero. La planificación original que había retrasado su lanzamiento situándolo en el primer trimestre de 2007 era acertada, pero tenemos datos más concretos.

ATI ha tratado de acelerar el lanzamiento para que se produzca en enero, pero no ha podido conseguir su objetivo. NVIDIA también está preparando una versión aún más rápida de su G80 para cuando llegue el CeBIT, pero eso no es ninguna noticia ya que esta última siempre trata de ensombrecer los lanzamientos de ATI.

El lanzamiento y la disponibilidad coincidirán, así que en cuanto se anuncie la salida de estas GPUs ya habrá tarjetas en el mercado para poder comprarlas. Se trata de un micro de 80 nanos y debería ser el componente DirectX 10 más potente cuando aparezca, superando al G80. Es muy probable que aparezca justo después del lanzamiento de Windows Vista para usuarios finales y de su uso intensivo de DirectX 10.

Traducción de una noticia original de Fuad Abazovic del viernes 1 de diciembre 2006.
 
  • Me gusta
Reacciones: 4 personas

Los últimos temas