Foro oficial de las tarjetas DirectX 10

pillen este video
Screenshots and video of the of the HD 4000 series Ruby tech demo


Ruby_new_techdemo_00.png


Link pa que vean el video
 
De todo lo que he podido leer y ver en las entrevistas y reviews... lo que he podido deducir es que nVidia quiere vender el 280GTX como una vcard para jugar, tarjeta de fisica y hasta un CPU.... :|... por eso el elevado precio....

Al en nvidia querer implantar CUDA necesita un GPU mucho mas potente para poder procesar los calculos normales de los graficos mas los de la fisica que conllevan estos....

Supongo que nvidia le metio tantos SP como pudieron y los venden como pequeños procesadores para codificar video HD, y tiene mucha logia... un CPU de un solo core debe codificar serialmente, los de 2 core lo hacen paralelamente pero solo con 2 core (esto lo supongo yo).... nvidia le mete 240 y los pone a trabajar juntos, por eso la gran diferencia a la hora de codificar.., eso mismo pasara con la fisica.. 240 SP para procesar los graficos y calcular la fisica...

Esta es mi humilde opinion y punto de vista hasta el momento... :nervios:




Supongo que el man se refiere a que eso cuesta solo fabricar el GPU... :S pero aun asi me lo encuentro excesivamente caro :|


SuerteX :)
Más bien imaginate que la GTX 280 tiene 240 núcleos, y un Core 2 Quad sólo 4, esa es la comparativa que Nvidia está queriendo enfatizar, es por ello que el tiempo de codificación es muchísimas veces menor en una gtx280 que en un core 2 quad. Entre más variables.

Un Saludo
 
cuales reviews fakes?? el lanero solo queria mostrar un demo de las nuevas ATI tampoco es para censurarlo asi ^^ o es que es que tiene algun problema contra ATI?
 
Al parecer esa incoherencia que muchos notaron en que la GTX280 siempre le ganaba a la 9800 GX2 era correcta, el review de tech4pcs en esos resultados de la 9800 GX2 no son los correctos, acaban de notificar que el puenteo de esas pcbs estaba dañado o algo así, dicen que ya están corriéndolo de nuevo ya con un batch que no tenía ese daño, lo que en resumidas palabras podría demostrar que la 9800 GX2 le gane en varias pruebas a la GTX280.

Aquí el post del aviso:
Post #53: http://www.tech4pcs.com/forum/index.php?s=&showtopic=4474&view=findpost&p=52297

Un Saludo

como asi men, que falta de seriedad de esa web :s
te va tocar mandarle un mail a los de esta web, que aqui tambien le va bien a la gtx280
http://www.tweaktown.com/reviews/1464/6/zotac_geforce_gtx_280_amp_edition/index.html
segun los reviews que he podido ver, mucha bestia aquel que tenga una 9800gx2 y la cambie por la gtx280...

la verdad en cuanto a "rendimiento" en la practica no he visto mejora alguna...
es que como lo dije, los test que colocan alli la mayoria son multigpu, donde no, la gx2 se va a pique, mientras la gtx280 mantiene su margen de performance en todos los juegos, no hay de que preocuparce de que en este juego esta video le va a ir mal.
 
Por aca acabo de mirar el Reviews de VR-Zone que sacaron el dia de hoy y tambien en casi todos los juegos dicen que le gana la GTX280 a la 9800GX2. No se que pensar esta web me gusta mucho pero viendo esto me pongo a pensar de la seriedad de ellos.

Saludos
 
Ole esta gente no ha probado esas tarjetas con ese juego que se llama CELLFACTOR? supuestamente ese juego es de los pocos que aprovecha 100% la implementacion de physix y no veo por ningun lado el tema.

Lo unico que me parece fundamental en este tema es que parece que le estan apostando mas que al tema gamer, es al tema de desarrollo 3d (cad, cam) para sustituir paulatinamente la carga de procesamiento del cpu para los calculos de iluminacion y colisiones, tirandoselo a la tarjeta de video, sin embargo apesar de que esta tecnica ya tiene bastante tiempo en el mercado, seria mas accesible a personas que no pueden pagar 3000 o 5000 o mas dolaritos por un sistema de multiples GPU para renderizado.
 
Más bien imaginate que la GTX 280 tiene 240 núcleos, y un Core 2 Quad sólo 4, esa es la comparativa que Nvidia está queriendo enfatizar, es por ello que el tiempo de codificación es muchísimas veces menor en una gtx280 que en un core 2 quad. Entre más variables.

Un Saludo

Eso mismo es lo que digo..... en realidad eso tiene muchisimo futuro en el ambiente CAD, en tratado de video... aumentara bastante el rendimiento y los costos seran mucho menor..... a eso era lo que le temia Intel

Mirandolo desde otro punto de vista, AMD/ATI tiene algo similar, y seia que ellos presente sus 480/5 SP.... teniendo estos mucho menos potencia... seria interesante ver algo similar, a ver si la cantidad v.s. tamaño y poder se siente :p


SuerteX :)
 
imaginen pues, Nvidia va a sacar unos drivers para la 9800GTX, para contrarestar a las nuevas ATI
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7975&Itemid=1
van a aumentar tanto el rendimiento que la llamaran internamente 9800GTX+ jjajaja que cosas con esta empresa..
bueno ojala y sea cierto que aqui esta el primer beneficiado jijijiji
aunque creo que los que tienen G92 tambien sentiran algun cambio, ya que la 98GTX lo que le hicieron fue incluirle el opengl 2.1, 4 fases de poder digitales, una depuracion llamandola 420
The heart of this beast (9800gtx) is the “new” 65nm G92-420 core in its A2 revision and it should be noted this is NOT the exact same core which was used on neither the 8800GT (G92-270) nor 8800GTS 512MB (G92-400)
unas memos de 0.8ns, el 3 way pffffffff, a y pues claro un ledcito hipnotizador :S
Nvidia piensa darle duaro a ATI con esta vcard, bajandola de precio y sacando un AS debajo la manga con unos nuevos drivers.
pues ya se vieron scores de la hd3870 del 3dmark06 en default con un q6600 sacando 12600, pues muy poco,,, mi 9800gtx en stock con un quad obtengo 14300, espero y eso no sea un punto de referencia para tener el resultado final de las nuevas ATI, que espero y sea mucho mejor
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7973&Itemid=1
 
De todo lo que he podido leer y ver en las entrevistas y reviews... lo que he podido deducir es que nVidia quiere vender el 280GTX como una vcard para jugar, tarjeta de fisica y hasta un CPU.... :|... por eso el elevado precio....

Al en nvidia querer implantar CUDA necesita un GPU mucho mas potente para poder procesar los calculos normales de los graficos mas los de la fisica que conllevan estos....

Supongo que nvidia le metio tantos SP como pudieron y los venden como pequeños procesadores para codificar video HD, y tiene mucha logica... un CPU de un solo core debe codificar serialmente, los de 2 core lo hacen paralelamente pero solo con 2 core (esto lo supongo yo).... nvidia le mete 240 y los pone a trabajar juntos, por eso la gran diferencia a la hora de codificar.., eso mismo pasara con la fisica.. 240 SP para procesar los graficos y calcular la fisica...

Esta es mi humilde opinion y punto de vista hasta el momento... :nervios:
....
SuerteX :)

Y sí... lo venden así, pero es solo una estrategia comercial, cosa que me decepciona bastante...

Y por que:
1) Promocionan MUCHOS programas (en lo de "visual computing") que son de uso diario, y comunes a la aceleración gráfica 3D, sea nVidia, ATI, o S3, y hasta integradas intel (ej: google earth, PicLens, Picasa3, juegos, Windows Vista Ultimate) ... Muy triste!!!.

2) Las características nuevas que promocionan de CUDA (Codificación de Video en GPU y Folding@Home) ya ATI las tiene implementadas desde hace año y medio o más... y además para la gracia de los entusiastas como nosotros, todavía el beta de folding@home no está disponible, y tampoco el codec de video en hardware... Y además, ambos programas funcionarán con cualquier placa igual o superior a G8x (sí hasta una 8500 podrá hacer folding y codificar video!)

3) Nueva física nVidia (nVidia PhysiX via CUDA) Agarraron el driver de AGEIA, y lo están portando a CUDA para hacerlo API para juegos... dos detalles al respecto: todavía no lo terminaron (ni siquiera hay un solo beta!!) y además, también será común a tecnología igual o superior a G8x. entonces... que nos están vendiendo con la GTX 280/260???? Espuma?

Por los 3 puntos me resulta que el precio de la GTX 280/260 es monstruoso, ya que ni siquiera tendrá características exclusivas, solo más de todo, cosa que no es para menospreciar... pero toda esa pompa tecnológica que le sumaron encima es todo una mentira como cuando con la serie 8 salió el PureVideo, que al final salió para la serie 6 en adelante (por sm 3.0), y para colmo de males, ninguna de las nuevas "características" tecnológicas está implementada.

Pareciera que se durmieron en los laureles de la G92, la duplicaron para tener margen de acción, y esperan la contraofensiva de ATi, a ver si les puede pisar los talones... Pero ojo... nadie espere por ahora un driver milagroso, o un monstruo tipo GTX-2 280 , (o algo así tipo GX2) con dos placas... 1) es demasiado caro fabricarlo... 2) consumiría una planta nuclear y debería refrigerarse con nitrógeno líquido... 3) no hay tanto beneficio lineal (ver SLi y triple-SLi de GTX 280).

Por ahora solo cabe aceptar lo que hay, que igualmente malo no es... y ver que pasa.
Por mi parte... me quedo con la 8800 GTS 320 un tiempo más... la serie 9 no me interesó ni un poco, y esta serie no me quita el sueño... Sí, la GTX 280 rinde EXACTAMENTE el doble que la que tengo (ojo, el doble porque son 240/96*1296/1620 MHz = 2.0). Pero con un precio increíble... prefiero esperar si sé que seguirán teniendo las mismas características de "útima generación" (PhysiX, codificación, folding, CUDA). Nunca pensé que yo diría "me quedo con mi placa". :p

Todo esto dicho por mí, que siempre seguí a nVidia, pero esperando que ATI le dé una estocada, para que todos se pongan a trabajar como corresponde... pero como se predijo, no va a ser "tan" fenomenal (a menos de un Crossfire o una 4870 x2).

Ole esta gente no ha probado esas tarjetas con ese juego que se llama CELLFACTOR? supuestamente ese juego es de los pocos que aprovecha 100% la implementacion de physix y no veo por ningun lado el tema.

Lo unico que me parece fundamental en este tema es que parece que le estan apostando mas que al tema gamer, es al tema de desarrollo 3d (cad, cam) para sustituir paulatinamente la carga de procesamiento del cpu para los calculos de iluminacion y colisiones, tirandoselo a la tarjeta de video, sin embargo apesar de que esta tecnica ya tiene bastante tiempo en el mercado, seria mas accesible a personas que no pueden pagar 3000 o 5000 o mas dolaritos por un sistema de multiples GPU para renderizado.
Es fácil, la física todavía no está implementada... no les conviene comparar un juego que la tenga porque no habría mejoras...

imaginen pues, Nvidia va a sacar unos drivers para la 9800GTX, para contrarestar a las nuevas ATI
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7975&Itemid=1
van a aumentar tanto el rendimiento que la llamaran internamente 9800GTX+ jjajaja que cosas con esta empresa..
bueno ojala y sea cierto que aqui esta el primer beneficiado jijijiji
aunque creo que los que tienen G92 tambien sentiran algun cambio, ya que la 98GTX lo que le hicieron fue incluirle el opengl 2.1, 4 fases de poder digitales, una depuracion llamandola 420
unas memos de 0.8ns, el 3 way pffffffff, a y pues claro un ledcito hipnotizador :S
Nvidia piensa darle duaro a ATI con esta vcard, bajandola de precio y sacando un AS debajo la manga con unos nuevos drivers.
pues ya se vieron scores de la hd3870 del 3dmark06 en default con un q6600 sacando 12600, pues muy poco,,, mi 9800gtx en stock con un quad obtengo 14300, espero y eso no sea un punto de referencia para tener el resultado final de las nuevas ATI, que espero y sea mucho mejor
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7973&Itemid=1
Me gustaría verlo... aunque no lo creo...

Si un driver mejorara el rendimiento de forma bestial para la 9800 GTX, con solo copiar unos strings de nv_disp.inf de la 9800 GTX a cualquier G92 (y hasta a las G80) todas sufrirían ese cambio.. de hecho es una de las formas para hacer que una G80 tome las características de PureVideo de la G92, o que todas ellas funcionen con las configuraciones de las GT2xx en los drivers 177.35 (CUDA) por ejemplo...

Pero ningún driver de nVidia, por revolucionario que sea, ha aumentado el rendimiento global de una placa de manera extraordinaria...
 
Fernandz, si hubo un driver que realmente dio un muy buen brinco en el performance de las G80, pero eso fue hace mucho.....


Fernandz dijo:
Si un driver mejorara el rendimiento de forma bestial para la 9800 GTX, con solo copiar unos strings de nv_disp.inf de la 9800 GTX a cualquier G92 (y hasta a las G80) todas sufrirían ese cambio.. de hecho es una de las formas para hacer que una G80 tome las características de PureVideo de la G92, o que todas ellas funcionen con las configuraciones de las GT2xx en los drivers 177.35 (CUDA) por ejemplo...

Muy de acuerdo con ud., si veneficia a una 9800GTX, deberia de beneficiar desde el G80....


ISA, tengo una duda, ud. que sabe mucho sobre hard y el 3dscrap.... cuantos pts de diferencia en la prueba del CPU debe de haber entre tu actuar QX9450 vs un Q6600?


Tengo esa duda, ya que hasta donde tengo entendido los CPU de Intel los son Quad nativos, en cambio AMD (aunque su rendimiento no se compare con Intel :S)... si esta haciendo CPU's Quad nativos..


SuerteX :)
 
pero es que tampoco podiamos esperar que un solo nucleo pasara a dos, incluso matematicamente no seria posible, sumando las caracteristicas de la GX2 (rops, shaders, etc etc) es mayor a la GTX280 que es UN SOLO CORE, antes mucha gracia que un solo core este peleando fuerte a dos, eso si es ingenieria :D

yo tengo una duda, el chip que señalo en el circulo que es? me hace acuerdo al antiguo HSI de las Series 6 AGP, si alguien sabe :p

saludos
attachment.php

ingnorado por segunda ves consecutiva:p -..................-:'(

saludos
 
Y sí... lo venden así, pero es solo una estrategia comercial, cosa que me decepciona bastante...

Y por que:
1) Promocionan MUCHOS programas (en lo de "visual computing") que son de uso diario, y comunes a la aceleración gráfica 3D, sea nVidia, ATI, o S3, y hasta integradas intel (ej: google earth, PicLens, Picasa3, juegos, Windows Vista Ultimate) ... Muy triste!!!.

2) Las características nuevas que promocionan de CUDA (Codificación de Video en GPU y Folding@Home) ya ATI las tiene implementadas desde hace año y medio o más... y además para la gracia de los entusiastas como nosotros, todavía el beta de folding@home no está disponible, y tampoco el codec de video en hardware... Y además, ambos programas funcionarán con cualquier placa igual o superior a G8x (sí hasta una 8500 podrá hacer folding y codificar video!)

3) Nueva física nVidia (nVidia PhysiX via CUDA) Agarraron el driver de AGEIA, y lo están portando a CUDA para hacerlo API para juegos... dos detalles al respecto: todavía no lo terminaron (ni siquiera hay un solo beta!!) y además, también será común a tecnología igual o superior a G8x. entonces... que nos están vendiendo con la GTX 280/260???? Espuma?

Por los 3 puntos me resulta que el precio de la GTX 280/260 es monstruoso, ya que ni siquiera tendrá características exclusivas, solo más de todo, cosa que no es para menospreciar... pero toda esa pompa tecnológica que le sumaron encima es todo una mentira como cuando con la serie 8 salió el PureVideo, que al final salió para la serie 6 en adelante (por sm 3.0), y para colmo de males, ninguna de las nuevas "características" tecnológicas está implementada.

Pareciera que se durmieron en los laureles de la G92, la duplicaron para tener margen de acción, y esperan la contraofensiva de ATi, a ver si les puede pisar los talones... Pero ojo... nadie espere por ahora un driver milagroso, o un monstruo tipo GTX-2 280 , (o algo así tipo GX2) con dos placas... 1) es demasiado caro fabricarlo... 2) consumiría una planta nuclear y debería refrigerarse con nitrógeno líquido... 3) no hay tanto beneficio lineal (ver SLi y triple-SLi de GTX 280).

Por ahora solo cabe aceptar lo que hay, que igualmente malo no es... y ver que pasa.
Por mi parte... me quedo con la 8800 GTS 320 un tiempo más... la serie 9 no me interesó ni un poco, y esta serie no me quita el sueño... Sí, la GTX 280 rinde EXACTAMENTE el doble que la que tengo (ojo, el doble porque son 240/96*1296/1620 MHz = 2.0). Pero con un precio increíble... prefiero esperar si sé que seguirán teniendo las mismas características de "útima generación" (PhysiX, codificación, folding, CUDA). Nunca pensé que yo diría "me quedo con mi placa". :p

Todo esto dicho por mí, que siempre seguí a nVidia, pero esperando que ATI le dé una estocada, para que todos se pongan a trabajar como corresponde... pero como se predijo, no va a ser "tan" fenomenal (a menos de un Crossfire o una 4870 x2).


Es fácil, la física todavía no está implementada... no les conviene comparar un juego que la tenga porque no habría mejoras...
al parecer todo va a cambiar cuando salgan las ati, bajada de precios del gt200, nuevo rendimiento con driver, phisx.
Me gustaría verlo... aunque no lo creo...

Si un driver mejorara el rendimiento de forma bestial para la 9800 GTX, con solo copiar unos strings de nv_disp.inf de la 9800 GTX a cualquier G92 (y hasta a las G80) todas sufrirían ese cambio.. de hecho es una de las formas para hacer que una G80 tome las características de PureVideo de la G92, o que todas ellas funcionen con las configuraciones de las GT2xx en los drivers 177.35 (CUDA) por ejemplo...

Pero ningún driver de nVidia, por revolucionario que sea, ha aumentado el rendimiento global de una placa de manera extraordinaria...

ojala y todas las vcard con el mismo chip fueran iguales, digaselo al personaje este, que quizo mutar su 8800gts 512mb (g92) a 9800gtx y mira lo que le paso
bios.jpg

pues si, una modificacion en los driver puede que ese rendimiento cambie en las demas vcard.
aaaa, no esperes bios modificado para mutar tu G80 a GTX280 y tomar todas sus caracteristicas ;)

ISA, tengo una duda, ud. que sabe mucho sobre hard y el 3dscrap.... cuantos pts de diferencia en la prueba del CPU debe de haber entre tu actuar QX9450 vs un Q6600?
Tengo esa duda, ya que hasta donde tengo entendido los CPU de Intel los son Quad nativos, en cambio AMD (aunque su rendimiento no se compare con Intel :S)... si esta haciendo CPU's Quad nativos..


SuerteX :)
de 100 a 1000 pts en la prueba de cpu segun la resolucion, pero el impacto se ve en el performance que le da el cpu para aumentar en la prueba de gpu.

ingnorado por segunda ves consecutiva:p -..................-:'(

saludos

ese es el I/O
 
naa ni q esto fuese tarjetas de sonido, eso es valido en soundcard q muchas veces tienen el mismo chip, pero en tarjetas de video cambiam muchas cosas entre modelos, asi la 9800GTx y la 8800GTS tengan el mismo chip el proceso de fabricacion es distinto, no mas el tamano en nm es diferente (65nm vs 55mn)

jeje pobre al q la quiso mutar :p la unica mutacion de video cards q conoci q funciono fue el de la 5200 a 5500 y ps se podia porq eran identicas :p
 
Cesar.A.G dijo:
naa ni q esto fuese tarjetas de sonido, eso es valido en soundcard q muchas veces tienen el mismo chip, pero en tarjetas de video cambiam muchas cosas entre modelos, asi la 9800GTx y la 8800GTS tengan el mismo chip el proceso de fabricacion es distinto, no mas el tamano
en nm es diferente (65nm vs 55mn)

280GTX = 65nm
9800GTX = 65nm
8800GTS G92 = 65nm
88GT G92 = 65nm

Por suerte el man con una vcard PCI viejita la revive ;)


ISAexpress dijo:
de 100 a 1000 pts en la prueba de cpu segun la resolucion, pero el impacto se ve en el performance que le da el cpu para aumentar en la prueba de gpu.

Lol....ta weno eso.... me gustaria ver la HD4850 con un QX9450 .....=)

ISAexpress dijo:
pues si, una modificacion en los driver puede que ese rendimiento cambie en las demas vcard.
aaaa, no esperes bios modificado para mutar tu G80 a GTX280 y tomar todas sus caracteristicas

Awating driver.... :)

De que subiran el performance aunque sea un chin toda la seria G80~on lo haran... (y yo enojado eh? :p)


Quiero ver como va a quedar la cosa.... yo de momento jugando con mi monito cuadraditao (4:3) no me quejo por los FPS (a ISA le toca pagar muxo pa' mantene esas 22" a FPS descentes con buenos detalles, pero la calidad lo vale =))


No aparecera alguien con una orejita sobre las HD :rolleyes:


SuerteX :)
 
nvidia_geforce_gtx_280_sli.jpg


nvidia_geforce_gtx_280_3_sli.jpg




http://www.dvhardware.net/article27928.html

me imagino el precio de ese conjunto, pero aun mas me imagino el recibo de la luz de el poseedor de un sistema de estos:p

aunque no se como diablos recibe aire la tarjeta de en medio :\

En chilehardware explican que en el caso de estas tarjetas el cooler fue diseñado con una entrada trasera que forza el aire dentro de la tarjeta cuando se está puesta así como en el caso del tri-sli
 
naa ni q esto fuese tarjetas de sonido, eso es valido en soundcard q muchas veces tienen el mismo chip, pero en tarjetas de video cambiam muchas cosas entre modelos, asi la 9800GTx y la 8800GTS tengan el mismo chip el proceso de fabricacion es distinto, no mas el tamano en nm es diferente (65nm vs 55mn)

jeje pobre al q la quiso mutar :p la unica mutacion de video cards q conoci q funciono fue el de la 5200 a 5500 y ps se podia porq eran identicas :p


tambien se ha visto pasar de 8800gtx a 8800ultra por la bios
 
naa ni q esto fuese tarjetas de sonido, eso es valido en soundcard q muchas veces tienen el mismo chip, pero en tarjetas de video cambiam muchas cosas entre modelos, asi la 9800GTx y la 8800GTS tengan el mismo chip el proceso de fabricacion es distinto, no mas el tamano en nm es diferente (65nm vs 55mn)

Todo el G92 es a 65nm.. inclusive las GTX260/280 son a 65.. solo despues del Q3 2008 Nvidia espera lanzar las 55nm.. osea que todas las G92 son a 65nm (8800GT/GTS y 9800GTX solo que las 9800GTX son escogidas a dedo y con mucho mejores manejo de voltajes y frecuencias por lo que son escogidas a dedo)

jeje pobre al q la quiso mutar :p la unica mutacion de video cards q conoci q funciono fue el de la 5200 a 5500 y ps se podia porq eran identicas :p

Ati Radeon 9500->9500Pro, Radeon 9800->9800Pro, Nvidia FX5900XT ->FX5900Ultra
 

Los últimos temas