Foro oficial de las tarjetas DirectX 10

pregunta: ¿si bien se ha dicho q la 8800gt va a ser muy superior a la 8800gts e inclusive a la version de 640mb, en que influye q la interfaz de memoria sea inferior a la de la gts(256bit de la gt contra 320bit de la gts) y tambien en q influye q los pixel pipelines sean menores tambien(16 de la gt contra 20 de la gts)? no se veria perjudicada la 8800gt en algun aspecto por esto¿?

ojala alguien me sepa dar una buena razon pues desde hace rato tengo esa duda.

saludos...
 
:rolleyes::rolleyes::rolleyes: Mucha charla y poca acción ..COMPREN COMPREN COMPREN sean parte de la euforia materialista imperialista consumista

jajajajaaja ese comentario me hizo acordar a Chavez y su version 3D...

rataelbp7.jpg


http://es.youtube.com/watch?v=BQ14ywp6S8E
 
pregunta: ¿si bien se ha dicho q la 8800gt va a ser muy superior a la 8800gts e inclusive a la version de 640mb, en que influye q la interfaz de memoria sea inferior a la de la gts(256bit de la gt contra 320bit de la gts) y tambien en q influye q los pixel pipelines sean menores tambien(16 de la gt contra 20 de la gts)? no se veria perjudicada la 8800gt en algun aspecto por esto¿?

ojala alguien me sepa dar una buena razon pues desde hace rato tengo esa duda.

saludos...
No, es que va a ser superior.... es superior!!! a la gts de 640mb actual...
con lo demás que pregunta se explica muy facil, mas frecuencia de reloj. esto compensa los rops faltantes y casi iguala el ancho de bus de la memo de la gts.
y en que es perjudicada?
pues a altisimas resoluciones pierda rendimiento.
 
  • Me gusta
Reacciones: 4 personas
pregunta: ¿si bien se ha dicho q la 8800gt va a ser muy superior a la 8800gts e inclusive a la version de 640mb, en que influye q la interfaz de memoria sea inferior a la de la gts(256bit de la gt contra 320bit de la gts) y tambien en q influye q los pixel pipelines sean menores tambien(16 de la gt contra 20 de la gts)? no se veria perjudicada la 8800gt en algun aspecto por esto¿?

ojala alguien me sepa dar una buena razon pues desde hace rato tengo esa duda.

saludos...


las mejoras no fueron solo en tamaño.. se hicieron optimizaciones a nivel de algoritmos que hace que tenga mejor rendimiento... tambien le subieron los shaders de 96 a 112 y estan a muchas mas velocidad (1300mhz contra 1600mhz) que tambien le da mucho poder... entonces luego de ver el poder aumentado y el costo se centran entonces en reducir otros aspectos para abaratar la fabricacion (256Bits es mucho mas barato que 320bits de interfaz) ademas esa cantidad de interfaz solo se ve superior en resoluciones muy altas con un buffer de memoria muy superior (de 512MB para arriba)... lo que hicieron fue mas o menos esto... tu compras un nuevo PC y escojes un Core2E6600 con una board que te asegura por lo menos 400 de fsb y con unas memos ddr2 1066 o mas y una 8600GT....

Pero si tu cojes y analizas el OC que le puedes dar pues sabes que con relacion 1:1 puedes llegar a los 3600Mhz de procesador sin esforzar las memos y sin tocar el multiplicador del procesador pues que haces?? no compras unas DDR2 1066 sino unas mas sencillas de DDR2 800 te ahorras unos 80 o 90 dolares y ademas ves que mas de 3200Mhz es mucho tonces tambien cambias el E6600 por un E6420 y te ahorras otros 50 dolares... en total te ahorras 140 dolares que te dan para comprar en vez de la 8600GT una 8800GT.. quedas con mucho mas poder en el PC y las partes son un poco mas baratas... es lo mismo.. sacrificas en unas cosas no tan necesarias y aumentas en otras mejor utilizadas
 
  • Me gusta
Reacciones: 4 personas
las mejoras no fueron solo en tamaño.. se hicieron optimizaciones a nivel de algoritmos que hace que tenga mejor rendimiento... tambien le subieron los shaders de 96 a 112 y estan a muchas mas velocidad (1300mhz contra 1600mhz) que tambien le da mucho poder... entonces luego de ver el poder aumentado y el costo se centran entonces en reducir otros aspectos para abaratar la fabricacion (256Bits es mucho mas barato que 320bits de interfaz) ademas esa cantidad de interfaz solo se ve superior en resoluciones muy altas con un buffer de memoria muy superior (de 512MB para arriba)... lo que hicieron fue mas o menos esto... tu compras un nuevo PC y escojes un Core2E6600 con una board que te asegura por lo menos 400 de fsb y con unas memos ddr2 1066 o mas y una 8600GT....

Pero si tu cojes y analizas el OC que le puedes dar pues sabes que con relacion 1:1 puedes llegar a los 3600Mhz de procesador sin esforzar las memos y sin tocar el multiplicador del procesador pues que haces?? no compras unas DDR2 1066 sino unas mas sencillas de DDR2 800 te ahorras unos 80 o 90 dolares y ademas ves que mas de 3200Mhz es mucho tonces tambien cambias el E6600 por un E6420 y te ahorras otros 50 dolares... en total te ahorras 140 dolares que te dan para comprar en vez de la 8600GT una 8800GT.. quedas con mucho mas poder en el PC y las partes son un poco mas baratas... es lo mismo.. sacrificas en unas cosas no tan necesarias y aumentas en otras mejor utilizadas

mejor explicado no pudo haber estado, gracias a ud y a isaexpress tambien. karma pa ambos jeje:)
 
:rolleyes::rolleyes::rolleyes: Mucha charla y poca acción ..COMPREN COMPREN COMPREN sean parte de la euforia materialista imperialista consumista y traigan las 8800gt y 8800 utra en SLI para que jueguen a 3840 x 2400 en un monitor de 22" de 17500 dolares.. :rolleyes::rolleyes::rolleyes:

Ja ja ... ¡este comentario si está buenísimo! eso sí es humor del bueno.
 
Los problemillas que trae consigo este producto del mercadeo llamado crysis y la sacadera de drivers de NVidia para aparentar lo que antes se veia en videos ;)

NVIDIA Drivers Sacrificing Crysis Quality for Performance
(claro que esto no es nuevo, por aquel viejo y conocido refran de que ATI=calidad Nvidia=FPS)
An interesting article over at Elite Bastards has revealed that NVIDIA’s latest 169.04 driver for its GeForce series of graphics cards may in fact be sacrificing image quality in the new Crysis game in order to gain better performance. If you look at the first two images below, you will see quite clearly that the shadows in the water have been unrealistically stretched and look quite odd. The obvious explanation for this would be that NVIDIA’s new driver is having issues rendering the shadows and you’d expect the company to fix it. However, this issue may run a little deeper than that. When the Crysis executable has its name changed from crysis.exe to driverbug.exe, these strange shadows mysteriously look normal all of a sudden, as shown in the second two images. Further tests revealed that the renamed executable was actually performing around 7% worse on a number of tests using both an 8800 GTS and an 8800 GT compared to the default name. So it seems that NVIDIA has tried to subtly increase the framerate when playing Crysis using its cards at the cost of image quality, without giving customers any choice in the matter. Some sites are claiming that NVIDIA is using driver tweaks to ‘cheat’ and gain better performance, and whilst that may be an extreme way of looking at it, this certainly seems like more than just an accidental driver issue.
Fuente:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Ese "problema" me pareció notarlo en algunos screens del foro del Juego. El "problema" es a cierta distancia aparece la imagen como en efecto "blur" (difuminado), por ejemplo:
http://www.laneros.com/showpost.php?p=2024895&postcount=580
 
Los problemillas que trae consigo este producto del mercadeo llamado crysis y la sacadera de drivers de NVidia para aparentar lo que antes se veia en videos ;)

NVIDIA Drivers Sacrificing Crysis Quality for Performance
(claro que esto no es nuevo, por aquel viejo y conocido refran de que ATI=calidad Nvidia=FPS)

Fuente:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=487&Itemid=29

Ese "problema" me pareció notarlo en algunos screens del foro del Juego. El "problema" es a cierta distancia aparece la imagen como en efecto "blur" (difuminado), por ejemplo:
http://www.laneros.com/showpost.php?p=2024895&postcount=580

si, eso lo vi en una noticia ya hace unos dias, pero yo pregunto....
que problemas puede traer un software BETA en este caso los DRIVERS BETA??????
beta representa generalmente la primera versión completa del programa informático o de otro producto, que es probable que sea inestable pero útil para las demostraciones internas y las inspecciones previas
eso ocurre en los drivers WHQL???
NO!!.....
y la sacadera de drivers es para pulir el hardware, pues la gente se queja si el driver es viejo, y ahora porque son nuevos jejejejeje no entender..

como dije, hay que esperar tanto driver oficiales y versión fiinal del crysis, para luego si juzgar.
 
ademas q como dije en el foro de Crysis, cuando mostraron los primeros Screenshots el juego se veia demasiado real pero ahora que esta corriendo el demo ni a high se asemeja a la primera imagen que vi de crysis, paso lo mismo q con tomb raider legends, al final sacaron un disq parche y le rebajaron calidad grafica para obtener rendimiento:( pero weno igual se ve bonito el juego eso Incluso en DX9
 
ademas q como dije en el foro de Crysis, cuando mostraron los primeros Screenshots el juego se veia demasiado real pero ahora que esta corriendo el demo ni a high se asemeja a la primera imagen que vi de crysis, paso lo mismo q con tomb raider legends, al final sacaron un disq parche y le rebajaron calidad grafica para obtener rendimiento:( pero weno igual se ve bonito el juego eso Incluso en DX9
eso si es problema de los desarrolladores, o en ATI se ve como los primeros SS??
 
eso si es problema de los desarrolladores, o en ATI se ve como los primeros SS??


aun lo estoy bajando no he podido probarlo me va lento a 12Kb/s , si em gustaria ver si en las HD hay mejor grafica, pero hasta ahora todas las imagenes q he visto de Crysis han sido DX9 o Geforce DX10

nadie tiene una HD para ver calidad grafica?
 
aun lo estoy bajando no he podido probarlo me va lento a 12Kb/s , si em gustaria ver si en las HD hay mejor grafica, pero hasta ahora todas las imagenes q he visto de Crysis han sido DX9 o Geforce DX10

nadie tiene una HD para ver calidad grafica?

es obvio que mi anterior post es irónico :cansado: :p
 
Si pero no es un secreto para nadie que las vcard de ATI siempre se han caracterizado por su calidad grafica.. aun en dias pasados mostraron unos screen de Fudzilla de un reder con unas 8600GTS y unas HD2600XT (no en rendimiento) y la calidad si que se podia apreciar en las HD, resaltavan los brillos y los colores =)..... mientras que con la GF algo opacos y muertos, tras salir esto a la luz nVidia dijo en publico que era problema de drivers y no se una que otra cosa y todo se apago :cansado: luego se olvido todo :S a ver si aparecen los primeros videos comparativos de las RV670XT VS G92 en Crysis (No creo que en performance le gane :cansando: pero en calidad si estoy casi seguro que la NV va abajo=))..


SuerteX ;)
 
Si pero no es un secreto para nadie que las vcard de ATI siempre se han caracterizado por su calidad grafica.. aun en dias pasados mostraron unos screen de Fudzilla de un reder con unas 8600GTS y unas HD2600XT (no en rendimiento) y la calidad si que se podia apreciar en las HD, resaltavan los brillos y los colores =)..... mientras que con la GF algo opacos y muertos, tras salir esto a la luz nVidia dijo en publico que era problema de drivers y no se una que otra cosa y todo se apago :cansado: luego se olvido todo :S a ver si aparecen los primeros videos comparativos de las RV670XT VS G92 en Crysis (No creo que en performance le gane :cansando: pero en calidad si estoy casi seguro que la NV va abajo=))..


SuerteX ;)


pero me la he pasado busque que busque esas comparativas graficas y no las encuentroo

ALGUIEN TIENE UNA HD2900XT pleasee:'(
 
y para que carajos sacan una 2900GT? le bajo los stream q tenia la XT (320 bajo a 240) y le baja a 256:S nada comparado con lo que hizo Nvidia que subio cantidad de shaders y clock de shaders, a no ser q lso shaders de Ati les hayan subio Mhz cosa q aun no leo, asi q eso es botar la plata:s
 
y para que carajos sacan una 2900GT? le bajo los stream q tenia la XT (320 bajo a 240) y le baja a 256:S nada comparado con lo que hizo Nvidia que subio cantidad de shaders y clock de shaders, a no ser q lso shaders de Ati les hayan subio Mhz cosa q aun no leo, asi q eso es botar la plata:s
eso dígaselo a los de amd, que tiene una crap de video HD, y sacan una peor :(
yo recuerdo lo de la calidad gráfica, pero eso era en series anteriores, no creo que nvidia siga en la misma tónica.. pero bueee eso es problema de ellos.
otra cosa, es imposible que una vcard amd saque la imagen real que se mostraba al principio, y si la muestra la mostrara a (-30fps) osea un frame cada 30 segundos jejejejejejejejeje
 

Los últimos temas