Todo sobre el R600

He estado leyendo sus comentarios y me he reservado a responder hasta concluir en base a sus posts la decisión más acertada.

Elluisro, en un inicio estuve de acuerdo contigo, aunque no te lo haya dicho públicamente, pero después de ver la respuesta de KiKe, dA_vO e ISAexpress, cambió mi perspectiva completamente.

Mira elluisro, lo que pasa con Call of Juarez de DX10, que comentas que sale rindiendo más que una 8800 GTX a veces, es porque ATi no lo quiso decir pero reveló que ese demo tecnológico estaba optimizado para ATi, lo dije antes, no me acuerdo dónde, creo que en el tema de Tarjetas de DX10.

A ver, y la ATi esa ¿ofrece quantum effects?, son los primeros procesamientos físicos, ya nada de Ageia, eso ya lo tiene implementado Nvidia.

De resto ya no hay nada que decir, ISAexpress lo dijo más claro, ya no le demos tanta vuelta a esto, sale más caro comprarse una HD2900XT por donde lo vean, quizás la solución contra las 8800 GTX y Ultra sea la HD2950XTX, pero ya están próximas a salir las G90, salen por finales de año, imagínense una 9800 GTS o 9800 GTX con Shader Model 5.0 uuuuuf.

Un Saludo
 
Power Computer dijo:
He estado leyendo sus comentarios y me he reservado a responder hasta concluir en base a sus posts la decisión más acertada.

Elluisro, en un inicio estuve de acuerdo contigo, aunque no te lo haya dicho públicamente, pero después de ver la respuesta de KiKe, dA_vO e ISAexpress, cambió mi perspectiva completamente.

Mira elluisro, lo que pasa con Call of Juarez de DX10, que comentas que sale rindiendo más que una 8800 GTX a veces, es porque ATi no lo quiso decir pero reveló que ese demo tecnológico estaba optimizado para ATi, lo dije antes, no me acuerdo dónde, creo que en el tema de Tarjetas de DX10.

A ver, y la ATi esa ¿ofrece quantum effects?, son los primeros procesamientos físicos, ya nada de Ageia, eso ya lo tiene implementado Nvidia.

Un Saludo

Viejo Power... tenes razon en lo de la optimización es como todo.. el lost planet esta para nvidia por ejemplo.. es como todo... pero se les paso que yo dije claramente que la mejor compra es NVIDIA... y no he cambiado de opinion.. . por lo menos para el que quiera comprar ahora.. pero lo que no me parece son los argumentos que usan para decir que ATI no.... es cierto que no se debe uisar mala fuenta con la R600 pero ha sido probada con total exito en muchos sitios de reviews diferentes con fuentes que no pasan de los 70 dolares (de 550W reales con 30A promedio en 12V+, que en estos momentos es la norma minima para alguien que invierte en una video de 300 dolares en adelante, y el que no mmmmmmm ahi si dejenme decirles....) por lo tanto tampoco es cierto lo de la fuente de mas de 100 dolares, claro que entre mas mejor pero no es indispensable... y lo de la refrigeración si se pone el fan al 80% o 100% (pues con ruido claro) se mantienen a temps aceptables.....

pues lo que digo es que los argumentos para denigrar no me parecen totalmente validos pero algo es cierto y es que NVidia es la que manda en este momento en Calidad/Precio/Rendimiento.... pero con argumentos validos...
 
elluisro dijo:
Viejo Power... tenes razon en lo de la optimización es como todo.. el lost planet esta para nvidia por ejemplo.. es como todo... pero se les paso que yo dije claramente que la mejor compra es NVIDIA... y no he cambiado de opinion.. . por lo menos para el que quiera comprar ahora.. pero lo que no me parece son los argumentos que usan para decir que ATI no.... es cierto que no se debe uisar mala fuenta con la R600 pero ha sido probada con total exito en muchos sitios de reviews diferentes con fuentes que no pasan de los 70 dolares (de 550W reales con 30A promedio en 12V+, que en estos momentos es la norma minima para alguien que invierte en una video de 300 dolares en adelante, y el que no mmmmmmm ahi si dejenme decirles....) por lo tanto tampoco es cierto lo de la fuente de mas de 100 dolares, claro que entre mas mejor pero no es indispensable... y lo de la refrigeración si se pone el fan al 80% o 100% (pues con ruido claro) se mantienen a temps aceptables.....

pues lo que digo es que los argumentos para denigrar no me parecen totalmente validos pero algo es cierto y es que NVidia es la que manda en este momento en Calidad/Precio/Rendimiento.... pero con argumentos validos...
si no se denigra, en que posición la colocamos, algo que no rinde, y es caro?

yo creo, que los únicos que compran esa vcard son los coleccionistas o fieles a la marca jejejejeje
 
ISAexpress dijo:
si no se denigra, en que posición la colocamos, algo que no rinde, y es caro?

yo creo, que los únicos que compran esa vcard son los coleccionistas o fieles a la marca jejejejeje

Pues eso podría decirse aún mas de las 8800 Ultra. Son peores en costo/beneficio que la misma ATI HD 2900XT. Cada quien comprará lo que le aguante el bolsillo, simple. Si a ninguno aquí les gusta la ATI por su rendimiento pues no se les culpa, tienen razón. Pero pues tampoco es para hacerle tan mala fama a la marca. Y respecto a lo del consumo, con una fuente no tan costosa también anda bien. El problema es la temperatura, por energía no nos preocupemos tanto.

Saludos.
 
Santiago_S dijo:
Pues eso podría decirse aún mas de las 8800 Ultra. Son peores en costo/beneficio que la misma ATI HD 2900XT. Cada quien comprará lo que le aguante el bolsillo, simple. Si a ninguno aquí les gusta la ATI por su rendimiento pues no se les culpa, tienen razón. Pero pues tampoco es para hacerle tan mala fama a la marca. Y respecto a lo del consumo, con una fuente no tan costosa también anda bien. El problema es la temperatura, por energía no nos preocupemos tanto.

Saludos.
Jajaja cómprela (HD2900XT) y nos dice cuánto le subió el costo del recibo de luz :rolleyes:.

Un Saludo
 
como dije anteriormente yo espero algo bueno del rango medio de las HD talvez ahi si sale algo decente si no creo que el lado verde me llamara a la puerta......
saludossssss
 
Power Computer dijo:
Jajaja cómprela (HD2900XT) y nos dice cuánto le subió el costo del recibo de luz :rolleyes:.

Un Saludo

Jaja :p ... :rolleyes: el consumo, aunque alto no se debe ver reflejado en la factura de energía. Ni que fuera la plancha, ducha, calentador, o... algo así :p ;)

El caso es que a ATI no le fué bien, se retrasó y sacó un mounstruo que no mostró lo que prometía. Algo así le pasó a 3Dfx y dudo que aquí en el foro a alguien le convenga que a ATI le suceda lo mismo que a ellos. La idea es no hacerle tan mala propaganda, si no ayudar al caido (bueno, tampoco hay que ir a comprarles la HD 2900XT :p ).

Saludos.
 
Santiago_S dijo:
Jaja :p ... :rolleyes: el consumo, aunque alto no se debe ver reflejado en la factura de energía. Ni que fuera la plancha, ducha, calentador, o... algo así :p ;)
Saludos.
Claro que si se puede ver reflejado
recuerde que las fuentes no son 100% eficientes y además si activamos el modo ecológico paranoico en nosotros y solamente medimos el consumo del pc con y sin OC(40% CPU/20%vga) notaran como yo lo hice que el consumo electrico facturado aumenta dejando el pc 24/7 como lo uso ..
En mi caso son 10 mil pesos maso menos.

Ahora si una tarjeta que compite con la 8800gts pero consume lo de una 8800gtx(ambas en full) .. digame donde queda la eficiencia de la tarjeta..Lo ideal es que la tarjeta consuma igual o un poco mas/menos que la directa competencia pero ese ideal se pierde totalmente por parte de ati desde la serie X19xxxx donde las tarjetas equivalentes tragaban mucho mas que la competencia directa..

By ragnarokun at 2007-06-26

Sin embargo el rango de precio que me interesa es el de la 2600XT con un consumo mucho mas bajo y el suficiente rendimiento para mis gustos y necesidades..
no faltara el que diga que soy fan nvidia :p
 
Santiago_S dijo:
Pues eso podría decirse aún mas de las 8800 Ultra. Son peores en costo/beneficio que la misma ATI HD 2900XT. Cada quien comprará lo que le aguante el bolsillo, simple. Si a ninguno aquí les gusta la ATI por su rendimiento pues no se les culpa, tienen razón. Pero pues tampoco es para hacerle tan mala fama a la marca. Y respecto a lo del consumo, con una fuente no tan costosa también anda bien. El problema es la temperatura, por energía no nos preocupemos tanto.

Saludos.
bueno, la 880ultra no la podemos meter, ya que, actualmente es la tarjeta mas poderosa que existe, y si costara 3000USD no se le puede decir nada, ya que no hay con que comparar y/o denigrar.
y pues de hacerle mala fama, no!!! ese calificativo no se lo doy yo, ni 15 pelagatos mas,,, ellos se lo han ganado.
me hicieron esperar casi 1 anyo para esa shit. y peor aun dicen que no tienen drivers pulido jajajajajajajaja.

Santiago_S dijo:
Jaja :p ... :rolleyes: el consumo, aunque alto no se debe ver reflejado en la factura de energía. Ni que fuera la plancha, ducha, calentador, o... algo así :p ;)

El caso es que a ATI no le fué bien, se retrasó y sacó un mounstruo que no mostró lo que prometía. Algo así le pasó a 3Dfx y dudo que aquí en el foro a alguien le convenga que a ATI le suceda lo mismo que a ellos. La idea es no hacerle tan mala propaganda, si no ayudar al caido (bueno, tampoco hay que ir a comprarles la HD 2900XT :p ).

Saludos.
pues yo pienso en que no se hace mala propaganda, si no que se dice la verdad..
no se como hacer buena propaganda a esa tarjeta :/
usted ayude a ver como se hace, porque la forma en que lo hace no ayuda, tratar de opacar la verdad :)
no se que se puede esperar de esa tarjeta, cuando los mismos de AMD han aceptado que no es muy buena.

lo peor que le paso a ATI fue que la compro AMD.
 
Ragnarokun dijo:
Claro que si se puede ver reflejado
recuerde que las fuentes no son 100% eficientes y además si activamos el modo ecológico paranoico en nosotros y solamente medimos el consumo del pc con y sin OC(40% CPU/20%vga) notaran como yo lo hice que el consumo electrico facturado aumenta dejando el pc 24/7 como lo uso ..
En mi caso son 10 mil pesos maso menos. (...)

Disculpa, pero el error fué mío. Quizá no me expliqué bien. Me refiero a la diferencia en vatios de la Radeon a la Geforce. La radeon obvio (y conocido por todos) es menos eficiente respecto al consumo de energía, pero la diferencia son como 50 vatios. Es a full carga como dejar una bombilla encendida y pues... si es mucho, pero no se mantiene a full todo el tiempo (por ahí un buen jugador yo creo que 1/3 del día). Aunque hace marcar mas el contador de energía no me parece que suba de 5k en la factura. Alguien que le haya metido un platal de esos a esa tarjeta (alquien que haya invertido mal su dinero) no creo que le duelan los $5k de mas en la factura. A eso me refiero.

ISAexpress dijo:
bueno, la 880ultra no la podemos meter, ya que, actualmente es la tarjeta mas poderosa que existe

Cuando me referí a la 8800 Ultra, me refería a Costo/Beneficio. Eso es lo que yo miro al comprar una vcard (así sea una baratija). El hecho de que sea la mas poderosa, no implica que haya que pagar todo eso (es ser abusivos, aunque eso es parte el negocio, :rolleyes: creo que yo haría lo mismo si fuera el dueño del chuzo).

ISAexpress dijo:
pues yo pienso en que no se hace mala propaganda, si no que se dice la verdad..
no se como hacer buena propaganda a esa tarjeta :/
usted ayude a ver como se hace, porque la forma en que lo hace no ayuda, tratar de opacar la verdad :)
no se que se puede esperar de esa tarjeta, cuando los mismos de AMD han aceptado que no es muy buena.

lo peor que le paso a ATI fue que la compro AMD.

La idea tampoco es hacerle propaganda a la HD 2900XT, nadie lo ha pedido. Yo tampoco lo he hecho ni se ha escondido la verdad. Esa tarjeta no es la mejor elección Costo/beneficio que hay en el mercado. Pero pues ya se llevan meses diciendo lo mismo y la marca (no por nuestros humildes comentarios) comenzaría a afectarse eso no aguanta. ATI no es mala marca, tienen gamas relativamente buenas y no se le puede demeritar eso. Lo que si es verdad es que nVidia se la está llevando. Parece que ATI y el verde no se la llevan bien (lo digo por AMD). Esperemos a ver qué sucede.

offtopic​

Ragnarokun dijo:
(...)no faltara el que diga que soy fan nvidia :p

...y que yo soy ATI-fan. Como dato adicional, mi próxima compra no es ATI, si no una NX8800GTS (esperando a que haya stock de esas).

Saludos.
 
y en cuanto a que las 2900XT tengan HDMI hace q valga la pena la compra? otra cos no he podido encontrar el primero foro dodne digan de las bondades del HDMI de esta Vcard:s o sera q ando desubicado en el tema?
 
El HDMI de las tarjetas de video esta diseñado mas para entornos que aprovechan las capacidades multimedia en toda su dimension (sistemas HOME THEATRE PC, extensiones TV, HD DVD, Etc,. ...........yo personalmente en el entorno de juegos no lo veo muy relevante, por lo menos en un corto futuro.

Con respecto a esta tarjeta, paso lo mismo que cuando salio la Geforce 5800 y luego la 5900 + ultra.......... los problemas de cosumo, rendimiento y calor / ruido que generaron vs la competencia, practicamente que obligaron a retirar del mercado los dichosos ARMATOSTES (tenian tamaños desproporcionados para la epoca, algunas hacian perder hasta 2 puertos PCI :s ).

AMD la esta teniendo muy dura en todos sus frentes de hardware para PC, sus procesadores no ofrecen lo que se esperaba de ellos (sigo amando mi opteron dual core je,j,ej) sus tarjetas de video (ex ATI) tampoco y parecen ir en contravia del desarrollo mundial en temas de consumo y ecologia..

Power Computer dijo:
......

A ver, y la ATi esa ¿ofrece quantum effects?, son los primeros procesamientos físicos, ya nada de Ageia, eso ya lo tiene implementado Nvidia....

...... pero ya están próximas a salir las G92, salen por finales de año, imagínense una 9800 GTS o 9800 GTX con Shader Model 5.0 uuuuuf.

Un Saludo

Power, tanto que mencionas el tema de los quantum effects, podrias ilustarnos detalladamente acerca del tema? Al parecer HAVOK tiene una "manito" dentro de este desarrollo.........recordemos que HAVOK es uno de los grandes protagonistas en el tratamiento de fisicas a nivel de simulaciones 3d y juegos.

Unos nuevos lanzamientos de NVIDIA http://www.noticias3d.com/noticia.asp?idnoticia=19434

Unas noticias nuevas de AGEIA: http://www.nordichardware.com/news,6547.html
 
Malitas, incomprendidas o vitupereadas y todo, pero al menos batieron un record, jejeje:

Kinc Pushes 2900 XT CrossFire to a New 3DMark 05 World Record


Another achievement by Marcus 'Kinc' Hultin who has now set a new 3DMark 05 world record with pair of ASUS Radeon HD 2900 XT graphics cards. With the cards overclocked to 880/990MHz core/mem (air-cooled) and an Intel Core 2 Extreme X6800 at 5341MHz, 2x1GB Corsair 6400C3 and an ASUS P5W64 WS Pro, Kinc managed to reach 34,126 points in 3DMark 05.

image3.jpg



Fuente:
http://www.nordichardware.com/news,6540.html

PD: Procesador a 5.4GHz y GPU enfriadas x aire :s
 
Sencillo, te muestro el record anterior por Elmor...
Inicialmente 33622 con CPU a 5283MHz y el mismo Crossfire de HD2900XT a 920/980... luego de 33778 con CPU a 5305MHz y lo mismo en GPU contra 34126 puntos de Kinc con CPU a 5341MHz y el Crossfire a 880/990

Son ~500/~350 3DMarks más por 58/36MHz más.. teniendo un OC "parejo" en las GPUs, distinto en CPU...
 
ADIDAS dijo:
Sencillo, te muestro el record anterior por Elmor...
Inicialmente 33622 con CPU a 5283MHz y el mismo Crossfire de HD2900XT a 920/980... luego de 33778 con CPU a 5305MHz y lo mismo en GPU contra 34126 puntos de Kinc con CPU a 5341MHz y el Crossfire a 880/990

Son ~500/~350 3DMarks más por 58/36MHz más.. teniendo un OC "parejo" en las GPUs, distinto en CPU...
NOP.
porque?
por el factor bottleneck... a medida que las graficas avanzan, se va necesitando mas CPU y otro codigo para calcular el potencial grafico.
kinc lo demuestra, que no es necesario subir mas la vcard, ya que lo que se necesita mas es CPU, pero no por el test si no por el poder grafico. (el cpu esta haciendo bottleneck, cosa no exclusiva del 05, si no de cualquier test)
igualmente se ve afectado el 3dmark01 y el 03. no porque sean viejos, si no porque se necesita mas cpu para explotar el potencial de la vcard puesta.
haga la prueba en el 2001, una mx440 con un athlonxp 2600..
y luego la misma mx440 con un 3700 sandiego y vera... es bottleneck.

un ejemplo: una gtx llega a su maximo a 25.000, en el 3dmark05, si este test fuera dependiente de cpu entre un cpu mas potente el score creceria, y no es asi, ya la vcard esta explotada y de alli no pasa, porque el calculo de CPU no es analizado en el score final, cosa contraria que si pasa en el 06.

ahora con una vcard viejita, una 6600gt, con un core 2 duo a 2.5ghz da aproximado 4000puntos, puedes colocar el cpu a 5ghz te va a dar 5 puntos mas, eso es porque el potencial de la vcard ya esta en el maximo, es mejor dejar el cpu a 2.5ghz y hacerle un poco de over al a vcard para que aumente el score.

bueno todo eso resume bottleneck ;)
 
MMMM.... perfecta tu explicación, yo me basaba en una simple apreciación... como quien dice a "ojo".

Muchas gracias por tu corrección. Sin embargo... si es en sí el proc el que ayuda a que se suba (o no??)

Bueno, en cuanto a lo de los 25k con GTX (Me imagin que te referís a 8800GTX), el record con esta tarjeta en NON-SLI es de 29433 con un CPU a 5412 por hipro5

The Overclocking World Record Database (3DMark05)
 

Los últimos temas