Seria De Gran Ayuda

Estado
Cerrado para nuevas respuestas.

[Dn] KiKe

V Rider - Cali
Miembro del equipo
6 Abr 2002
15,733
Saludos, les escribo desde cali para preguntarles por algo que siempre me ha llamado la atencion.

Yo trabajo con ambientes graficos (renders, etc) pero tambien amo los juegos tipo quake, half life y ut (aunque casi no lo he jugado).

Hace tiempo quise cambiar mi Voodoo 3 por una mejor, sin embargo y a pesar de que me ha salido muy buena esta tarjeta (en ambos campos), quisiera saber las principal diferencia entre las tarjetas de video tipo OXIGEN, ELSA GLORIA, o las que vienen dedicadas solo a renders etc y las radeon, geforce, etc, que manejan mejor juegos etc.

No he entendido porque una oxigen o una elsa pueden llegar a costar us1000 o mas si tienen menos memoria en algunos casos 16mb mientras que una radeon 8500dv ntsc vale como us350.

Son procesadores diferentes acaso, son diferentes los renders en los juegos que los renders en 3dstudio max?

La memoria es diferente acaso?

La verdad les agradeceria mucho la informacion, alguna vez en un foro de aca alguien dijo que algunas de estas tarjetas usaban procesadores graficos IBM, personalmente no los conozco, pero que tienen de raro? acaso sus velocidades de core con infinitamente mayores (en el caso del las tarjetas de WORKSTATIO), al las que manejan mejor juegos?
 
No te puedo indicar las diferencias técnicas entre esas dos clases de tarjetas de video, pero como aprendiz de programador si te puedo señalar que existen drásticas diferencias entre los renders en tiempo real (como los de los videojuegos) y los renders que usan programas como 3D Studio Max, Maya, entre otros.

No se trata únicamente de la cantidad de polígonos (que obviamente los segundos manejan en mayor cantidad), las técnicas que usan los videojuegos están orientadas a obtener una gran velocidad pero no necesariamente una mayor calidad visual, en cambio los renders tipo 3dsmax necesitan ante todo de un gran realismo gráfico.

Por ejemplo, los shaders (programas que permiten indicar la forma en que la luz refleja en una superficie y muchas otras cosas) ya existían hacia mucho tiempo en los renders profesionales, pero solamente hace muy poco tarjetas de video como la GeForce 3 han hecho esto posible para los gráficos 3D en tiempo real.

El aliasing (ese pequeño defecto gráfico que hace parecer dentados los bordes de los polígonos) no existe en los gráficos generados por renders porque estos se pueden tomar el lujo de calcular por cada pixel que porcentaje de cada color, de los múltiples polígonos que inciden en ese punto, le corresponde. Los videojuegos, en cambio, tuvieron que inventarse el antialiasing (una técnica menos costosa computacionalmente).
 
Efectivamente Mig, sin embargo, la duda no radica tanto en la capacidad del software para producir efectos graficos de realismo mayor o menor, como efectivamente pasa en los ejemplos que das, sino por el contrario en la capacidad del hardware (t. video), de volverlos visuales, la verdad sigo sin comprender bien como una tarjeta de workstation maneja mejor los renders "matematicos" de programas como max o maya con MENOS MEMORIA, que una tarjeta de juegos, para los mismos programas, porque la diferencia en precios si que es verdaderamente drastica.

Ojala algun lanero pudiera resolver esta inquietud!

De cualquier manera, gracias por la expl.
 
No puedes separar las diferencias del software de las diferencias del hardware. Yo te menciono eso porque precisamente las diferencias del software de los renders es que produce diferentes tipos de tarjetas de video. Las tareas que realizan las tarjetas de video para renders tipo 3dsmax son drásticamente diferentes, una tarjeta de esas no es apropiada para videojuegos y una GeForce 3 no saca el mismo rendimiento que esa familia de tarjetas cuando se usan ese tipo de programas, todo esto debido a que hacen cosas diferentes.
De todas maneras comparto la ignorancia sobre exactamente qué las hace diferentes en características y, sobre todo, en precios. Qué alguien nos ayude!
 
Si no me ekivoco, las tarjetas gráficas Quadro de Nvidia se usan en esto de las cosas de 3DMax, Maya y los otros, mientras ke la familia de las GeForce se usan para juegos y estaciones de trabajo pekeñas.

Mirate este link de Nvidia donde salen toooodos sus productos, tal vez allí encontrés alguna explicación que te sirva: http://www.nvidia.com/view.asp?PAGE=products

Suertex.
 
Si, la diferencia son los usos a los que esta destinada, pero el hardware es muy parecido, de hecho algunas GeForce se pueden transformar en Quadro
 
Sip... creo que la mayor diferencia es que estas tarjetas traen mucha más memoria y otras cositas....

Pero no creo que sean las preferidas por la gente que utiliza 3DMAX
 
No, yo no estoy hablando de esas tarjetas. Son otro tipo de tarjetas que usualmente sólo se manejan en el ambito de estaciones de trabajo para gráficos generados por computadora (como los que hacen efectos especiales para películas).

El problema es que no sé sus nombres, lo único de lo que estoy seguro es que cuando mencionan las tarjetas de video para ese tipo de cosas nunca hablan de una de nVidia, ATI o 3dfx (que descanse en paz).
 
Pero los CHIPs parece que si son de ellos, Quadro. etc... yo he visto los nombre Oxygen, WildCat, FireGL
 
Si parece que los Quadro si los manejan en ese tipo de cosas, al menos eso me pareció tras ver la página de nvidia, pero tengo algo importante que contarles:

Los programas de rendering que no despliegan gráficos en tiempo real no dependen tanto de las tarjetas de video aceleradoras, ¿por qué? porque estos programas hacen prácticamente todo el rendering por software, sólo así pueden hacer todo lo que hacen aunque lo hagan de una forma muy lenta.

Entonces, ¿para qué tarjeta aceleradora con 3dsmax? Para visualizar los gráficos ANTES de renderizarlos, cuando estas modelando los objetos y haciendo las animaciones, porque en esa fase si se necesitan de gráficos en tiempo real, aunque simplificados por supuesto.
 
la verdad es que algunas de estas tarjetas usan generalmente chips quadro como el caso de las firegl y las oxygen, inclusive la marca ELSA que era buenisima (porque ya se quebro) utiliza estos chips en sus tarjetotas gloria dcc y las otras, sin embago me parece haber leido en un foro la otra vez que la mejora no era mucha entre una tarjeta normal y una quadro dcc (no se).

Sin embargo, por ejemplo, las FIREGL1 son tarjetas de max 32mb de memoria y la verdad cuestan un jurgo de billete como de 1000 u$ para arribe, creo que alguien en un foro menciono que trabajaban sobre procesadores IBM (graficos), de los cuales no he oido nunca nada.

por ejemplo la oxigen trabaja con procesadores de rasterizacion y shader con tecnologia GLINT3, MEMORIA 32 MB SGRAM? (QUE TIPO DE MEMORIA ES ESTA?)vean este llink de las 3DLABS oxigen gvx1
http://www.aberdeeninc.com/abcatg/DAG383.htm
, AQUI VAN LAS ESPECS DE LA FIRE GL1
http://the-internet-eye.com/reviews2000/June/FireGL1/default.htm
, ESTA COMO POTENTE!, Hay otras de marca APPIAN JERONIMO PRO, y pueden mirar lo ultimo de SILICON GRAPHICS por ejem.
http://www.sgi.com/workstations/octane2/graphics.html
suavecito debe costar como 3000 U$
 
OTRA COSA, USTEDES JUGADORES BAJO QUE OS JUEGAN AHORA
98, ME, 2000 O XP, CUAL ES MEJOR?
 
Bajo XP, pero en Win98 me corren mejor los juegos del engine de Quake 3, (Return to Castle Wolfstein, Heavy Metal: FAKK2)
Eso puede deberse a que tengo poca RAM (128) y XP consume mucha.
 
A mi me pasaba lo mismo ke Mig: bajo Win98 se me veía mejor el Quake 3 ke en Win2k. Sin embargo hay dos instrucciones ke me hacen correr el Quake 3 con la fluidez ke tenía en Win98.

1. /r_displayrefresh 100 ---> ojo! esto funciona a 640x480 en monitores de 14`. Los monitores de 17 aguantan 100 a 1024x768 y de ahí ya ustedes saben cómo el el rollo del refresh)

2. /vid_restart ---> esto reinicia el video para ke los cambios tengan efecto.

Suertex.
 
BUENO NO SE SI FUE GUARDIAN O KAIN QUE ESTABA BUSCANDO UN BOOMSLANG? LO ENCONTRO?
 
Estado
Cerrado para nuevas respuestas.