Que exageracion!!!!!!!!!!

Estado
Cerrado para nuevas respuestas.
jajaj yo si decia, poque no haba visto el que puso mig, siendo que el ultimo era ese de 21504.
 
???????????? No entiendo ese post.

Ahora que Mig entra en el tema de imagenes que engañan, alguno de uds ha pensado si la ultima prueba de toms con PIV de 3.4GHz sea falsa?, tengo un par de argumentos
 
umm yo creo que si es falsa.
puras especulaciones para hacerle fama a ese micro antes de que salga.
 
Yo no creo absolutamente nADA PERO NADA de toms.

toda la vida nunca les he creido nada.

Ahora me puse a hacer benchmark como juliand dice 640 eso me dio casi 14000 LOL! sin nada de overclock, eso si sube mucho bajandole de resolucion.
 
Gas!! kain, de lo que hablo es de la velocidad de reproduccion de video, que son las pruebas que hacen, ahi si con mas de 30 fps no se hace nada, por mas fps que le metan el ojo no ve a mas de eso, efectivamente para juegos los mas de 60 fps dan mayor movilidad y jugabilidad (perdón la redundancia), pero igual por mucha movilidad el ojo sigue siendo de 30fps.

Valdría la pena ver hasta que punto uno pudiera equiparar estas 2 velocidades, la de videorepresentación (render) y la de jugabilidad, creo que si uno logra un equilibrio entre las dos, ahi tiene su mejor fps para juegos!
 
De acuerdo... Lo único que me dejaría semejante overclocking es la satisfacción de haber logrado un nuevo record (y la tristeza de haberme la vida útil tirado algunos componentes). Pero me uno al grito, para que más FPS de los que el ojo humano puede ver? Deberían mejor ponerse a desarrollar métodos para mejorar las gráficas, nuevos dispositivos de video, cosas así...
 
Ponga pues los argumentos men estoy muy interesado...

1. De acuerdo a INTEL el PIV@3.4GHz no va a ser basado en el core Presscot?, de donde diablos lo sacaron?

2. Que no va a tener HT?. tons que diablos es eso? eso de seguro esta overclockeado
 
Yo lo veo de una manera totalmente distinta:

El que hayan más fps quiere decir que el hardware está listo para gráficas más complejas.

No me interesa correr un juego a más de 60 fps, pero si me gusta que se alcanzen velocidades cada vez más altas porque indica que (nosotros) los programadores :) podemos desarrollar juegos con mucho más detalle (y esos nuevos juegos tendran fps más bajos).
 
ummyo no se pero van a decir que estoy loco, pero yo si noto la diferencia entre 60 y 100fps, me imagino que es por la sincronizacion con el refresh, o que se yo..
pero me imagino que mas de uno tmabien ve las difenrencia.
 
En ese caso, yo creo que lo que uno nota no es la velocidad de actualización de la pantalla, sino una mayor velocidad interna del juego (es decir, actualiza más frecuentemente las posiciones de los objetos). Esos dos procesos no son sincronizados.
También puede ser que cuando los fps son altísimos el juego ya no tiene pequeños saltos que en 60 fps si tiene.
Recuerden que los frames per second son una medida aproximada, calculada en cada segundo. Pero en cada segundo puede que hayan algunos cuadros más rápidos y uno que otro "cuadro lento".
Espero que entiendan, no soy bueno para explicar estas cosas.
 
La explicacion es sencilla, a 30 o 60 fps, el juego puede presentar algunas veces el FLICKERING (saltos entre cuadro y cuadro) cuando tenemos muchas textura, luces o personajes en moviemiento, es de lo que habla mig, debido que el hardware no alcanza a procesar todo al tiempo, con las innovaciones de hardware y equipos mas potentes, se permite darle mas fps al juego inclusive teniendo muchos actores al tiempo con multiplicidad de texturas, luces y a una alta resolucion, permitiendo al juego tener mas fluidez como si corriera a 640x480 con 16bits, recuerden para los que tiene NVIDIA gf3 o gf4, el demo de los multiples muñequitos que trae el cd de instalacion.

Esa es la ventaja del nuevo hardware, lo cual permite una sincronizacion mucho mayor entre la velocidad interna del software (juegos, etc) y la del monitor (refresh rate) que es lo que finalmente vemos a 30fps a pesar de que le monitor refresque a 70,85,100,120 o 150
 
Pues me diran terco, pero me uno al club de SpitFire, yo la diferencia entre 60 y 100 la veo y mucho; incluso, la diferencia entre 125 sincronizados y sin sincronizar es enorme y tambien la veo.

Yo comprendo lo que dice Mig, lo que no entiendo es por que los cuadros no andan igual
 
Hay muchos factores que hacen que un "cuadro" no se demore en renderizar el mismo tiempo que otro, entre estos están:

- Cantidad de polígonos.
- Cantidad de fuentes de luz.
- Cantidad de texturas.

Entre las texturas tenemos que tener en cuenta:

- El tamaño de las mismas (usualmente desde 128x128 hasta 1024x1024, Q3 solo soporta hasta 512x512)
- El numero de layers (capas) que usan.
- Los efectos de fundido (translucencia, adición, entre otros).

Además, cuando se usa por primera vez una textura en una escena, esta tiene que ser copiada a la memoria de video. Y cuando la memoria de video se agota, se tienen que eliminar de esta las texturas menos usadas. En otras palabras, se genera swapping.

Por eso en los juegos pesados, como UT2k3, el juego se pone lento al iniciar en un nivel cuando no encuentra suficiente memoria RAM (swapping entre el HD y la RAM) o no tiene suficiente video ram (swapping hacia la tarjeta de video).

Adicionalmente, los juegos hacen más cosas aparte de dibujar en pantalla, así que los eventos internos del juego también influyen, como:
- Transmisión de datos por la red.
- Detección de colisiones y simulación física.
- Sonidos y música. (Una mala tarjeta de sonido, o con drivers defectuosos pueden perjudicar bastante el rendimiento de un juego).

Entonces unos fps altos significan que todo está funcionando a las mil maravillas en el motor del juego. Y por eso muchos notamos la diferencia entre 100 fps y 60 fps.
 
Mmmm, ya entiendo, pero lo curioso es que la diferencia entre FPS y FPS sincronizados es espectacular, como es posible explicar esto?
 
creo, creo, que mig me corrija si me equivoco, que la diferencia estriba en que los no sincronizados van "botando" los datos en linea sin importar mucho si se alcanzan a dibujar correctamente o no...... simplemente "asumen" que la vcard puede hacer la funcion lo suficientemente rapido para verlo bien, el sincronizado lo que hace es crear como un delay time para permitir que los datos y demas caracteristicas se dibujen y se representen correctamente, lo que supone un mayor uso de recursos del sistema.

Es como por ejemplo un juego sin anisotropico y otro con anisotropico y aa al max.

Porfa corrijanme si me equivoco.
 
Hehe, creo que andamos un poco perdidos con la terminología, ya nos inventamos un término nuevo los "FPS sincronizados", hahaha :) !!

La verdad es que lo que menciona Mr. Kg es simplemente lo que se conoce como Vertical Synchronization.
Consiste en que, cuando esta activada, se "dibujan" las cosas por pantalla solo cuando el monitor está preparado para hacerlo luego de haber terminado de dibujar el ultimo cuadro.
En cambio, cuando esta desactivada, se le mandan los datos a la pantalla sin importar si esta lista o no, produciendo ciertos pequeños errores gráficos en pantalla o saltos entre cuadros que muchas personas notan.

Pero por otro lado yo estaba hablando de que los juegos no solo renderizan gráficos, y si el FPS está muy alto es que todo está funcionando muy suavemente en el juego, entre estas cosas la simulación física. Más FPS, siempre es mejor. Habrá un punto donde tener más FPS no tiene sentido en un juego, pero si tiene sentido porque quiere decir que el hardware está preparado para el siguiente avance en la tecnología.
 
Ese punto es razonable, pero la pregunta tonta es la siguiente:

Si en teoría el ojo humano debe puede jugar como Dios manda a 60FPS, incluso, algunos juegos distintos a FPS se juegan bien a menos de eso (30FPS) ¿Por qué existe una diferencia tan notable en FPS entre los 70 FPS y los 125FPS con los que se juega Q3 al 100%?
 
Estado
Cerrado para nuevas respuestas.

Los últimos temas