Foro oficial de las tarjetas DirectX 10

bueno estas parecen ser las primeras imagenes de la hd4890, digo parece porq por fuera parece una hd4870

http://www.tech4pcs.com/index.php/Videocards/Primera-captura-ATI-Radeon-HD-4890.html

vale recordar q la hd4890 es solo una hd4870 subida de vueltas y bastante, con una arquitectura mas pulida q la del rv770

para el sector profesional:PNY Nvidia Quadro FX5500SDI y Quadro CX FX4800 Review

MMmmmmm hasta que no se vean resultados es dificil que se compre a menos que sea un fanatico :S .... toca esperar precios y que tal pelea con la 260GTX 216SP


SuerteX :)
 
bueno estas parecen ser las primeras imagenes de la hd4890, digo parece porq por fuera parece una hd4870

http://www.tech4pcs.com/index.php/Videocards/Primera-captura-ATI-Radeon-HD-4890.html

vale recordar q la hd4890 es solo una hd4870 subida de vueltas y bastante, con una arquitectura mas pulida q la del rv770

para el sector profesional:PNY Nvidia Quadro FX5500SDI y Quadro CX FX4800 Review

Toca esperar a que salga para ver si puede competir parejo con la GTX260 core216, ya que se dejó sacar buena ventaja a punta de drivers. Por lo que veo tiene buenos clocks en comparación con la 4870 de stock (750/3600), lo que no me gusta es que venga con el cooler de referencia que no es que sea muy eficiente que digamos.

Pero si tiene mejor arquitectura, seguramente el rendimiento será muy bueno. Por ahora me quedaré con mi 4870 un rato mas.
 
listos los catalyst 9.3, con soporte para windows 7 y WDDM (Windows Display Driver Model) 1.1.
http://www.techpowerup.com/88556/ATI_Catalyst_9.3_Released.html
Muy bien por AMD , puliendo y acabando con el mito de los drivers.

Por lo que veo, cada mes por la misma fecha están sacando una actualización del Catalyst, la otra creo que tambien fue un 19 de febrero...

Mirando en los release notes de la versión pasada, decía que aumentaba el rendimiento de Crysis y Crysis Warhead hasta en un 20%, tocará probarlos estos, haber si hay mas mejoras con respecto a la versión que tengo instalada, que es la 9.1..
 
je, el andres anda mas pendiente de los drivers ati q los de nvidia...XD

es q vos perteneces a ATi , el lado rojo de la fuerza lo esta tentando de nuevo :p:p:p
 
Yo si cada ratico estoy buscando por drivers y actualizaciones del Nokia PcSuite... solo que mi VGA no soporta DX10 (GeForce 7900GT) :(... pero anda rico.. jejeje

PD: tengo como 50 versiones del PCsuite.... jejeje
 
Yo si cada ratico estoy buscando por drivers y actualizaciones del Nokia PcSuite... solo que mi VGA no soporta DX10 (GeForce 7900GT) :(... pero anda rico.. jejeje

PD: tengo como 50 versiones del PCsuite.... jejeje

Ese comentario ta medio offtopic... digo ps!... y bn por ati, al menos va bien por el camino de la actualizada de drivers!!
 
Ahora que me puse en la tarea de actualizar el driver, hice la prueba de rendimiento con el #DMark Vantage, y veo que por lo menos en eso ATI si se está poniendo las pilas, ya que hubo un incremento en el resultado que tuve, pasando de la versión 9.1 a la 9.3 que es la mas reciente.

- Resultado con el driver 9.1:



- Resultado con el driver 9.3:



Se puede ver que son casi 400 puntos de diferencia entre uno y otro test, osea que en alguito se están poniendo las pilas los de ATI. Tocará hacer la prueba con benchmarks de juegos, haber si el incremento ya es notorio (eso se lo dejo a otro que haga la misma actualización, me da pereza cambiar de drivers de nuevo :p)

Suerte.
 
Jeje.... Je! xD

bueno viendo esto , http://www.youtube.com/watch?v=eNd_xPK568A

no entiendo como es q 3xgtx285 consumen de 80w a 100w mas q 3xgtx280 y eso q estan casi a los mismos clocks , al estar a 55nm no deberian consumir mucho menos???
Jeje. Iceman, pues es obvio que consume más, xD. Se nota que aún no entienden que Nvidia la razón por la que baja el nanometraje no es para disiminuir el consumo energético, sino para poder subir más las frecuencias sin que esto conlleve un aumento de temperatura tan significativo, diríamos que quedaría a la misma temperatura. Si quieren apreciar el beneficio de menor nanometraje en consumo energético, tendrían que probar bajandole a la frecuencia a la GTX285 a la correspondiente a la GTX280.

Un Saludo
 
bueno creo q la comparacion como decia mas arriba estaba un poco dispareja, aqui me encontre otro con las 285 y 280 a los mismos clocks exactos, aun asi sigue consumiendo mas la GTX 285 por razon de 10w , aunque es poco lo q consume de mas ,me sigue pareciendo q van de para atras esos 55nm, por regla deberia consumir menos q la 280

http://www.youtube.com/watch?v=L0BlCJF0Ke8
 
bueno creo q la comparacion como decia mas arriba estaba un poco dispareja, aqui me encontre otro con las 285 y 280 a los mismos clocks exactos, aun asi sigue consumiendo mas la GTX 285 por razon de 10w , aunque es poco lo q consume de mas ,me sigue pareciendo q van de para atras esos 55nm, por regla deberia consumir menos q la 280

http://www.youtube.com/watch?v=L0BlCJF0Ke8
Ah, sin embargo esos 10 watts extras me parecen justificables, porque lo que me parece interesante es que si aprecias los resultados de rendimiento la GTX 285 SSC saca mejores resultados que la GTX 280 a la misma frecuencia que la 285 SSC, se hecho se podría decir que así como consume unos 10 watts extras también da entre un 5% a 10% extra de rendimiento en la misma frecuencia.

Que por otra parte sí me parece muy extraño que a la misma frecuencia ambas tarjetas una saque más que la otra en rendimiento en todo en general, ya que todas las especificaciones son iguales en esa comparación.

Por lo tanto, en resumen, es verdad que los 55 nm no redujeron el consumo energético a comparación de los 65 nm, pero sí se aprecia una ventaja de rendimiento en los 55 nm vs los 65 nm a mismas frecuencias y resto de especificaciones.

Un Saludo
 

Los últimos temas