Nvidia Serie 4000 & AMD Radeon 7000

¿Usas Ray Tracing con tu tarjeta Nvidia?

  • Si

    Votos: 13 28.3%
  • No

    Votos: 20 43.5%
  • Tengo AMD

    Votos: 13 28.3%

  • Votantes totales
    46
  • Encuesta cerrada .
Exactamente... Lo que importa es el rendimiento asi tenga 1 CUDA eso vale tres hectareas de cotopla
Ojo que los CUDA Cores si son importantes para el detalle final de procesamiento del GPU, no por nada los modelos tope tienen una cantidad considerable de estos nucleos, por lo tanto, es casi ''ilogico'' decir que así tengan pocos CUDA entonces va a tener un rendimiento elevado un chip GPU.

era para compensar esa falta de performance bruto de la serie 40 a punta de DLSS 3
Se nota que no has estado en los cambios generacionales como lo fueron la serie 700 a la 900 y de ahí a la serie 1000 que usualmente el trabajo de Nvidia es matar una generación anterior (buque insignia) con la serie intermedia de la siguiente. Ahora que tienen DLSS3 como su caballito de batalla para vender ''humo'' en frames, pues les sale mejor desarollar esta tecnología para que cualquier producto tenga ''mayores frames'' a punta de ''humo''. Por esto es que se ''dice'' que una 4060 en el papel es peor que una 3060.
 
Ojo que los CUDA Cores si son importantes para el detalle final de procesamiento del GPU, no por nada los modelos tope tienen una cantidad considerable de estos nucleos, por lo tanto, es casi ''ilogico'' decir que así tengan pocos CUDA entonces va a tener un rendimiento elevado un chip GPU.
Creo que no entendiste el punto... Hablo de rendimiento en general, pues si el día de mañana, hipotéticamente, sacan un die con 1 CUDA que rinda exactamente igual o mejor en lo que quiera medir (y ojalá en todo), es irrelevante... Es más, nadie mide las tarjetas de diferente generación en cuántos CUDA tienen
 
  • Me gusta
Reacciones: Sorrento
Creo que no entendiste el punto... Hablo de rendimiento en general, pues si el día de mañana, hipotéticamente, sacan un die con 1 CUDA que rinda exactamente igual o mejor en lo que quiera medir (y ojalá en todo), es irrelevante... Es más, nadie mide las tarjetas de diferente generación en cuántos CUDA tienen
Tal parece que no entiendes el termino de CUDA, precisamente es el componente que hace que el chip GPU de el rendimiento final, así que si en un futuro exista una que tenga 1 Cuda pues no será una GPU, sera otro componente que no realice tareas graficas o no tendrá un rendimiento incrementado para explotar el GPU.
 
Tal parece que no entiendes el termino de CUDA, precisamente es el componente que hace que el chip GPU de el rendimiento final, así que si en un futuro exista una que tenga 1 Cuda pues no será una GPU, sera otro componente que no realice tareas graficas o no tendrá un rendimiento incrementado para explotar el GPU.
Men no es lo mismo un core de primera que de última generación. Por muy Cuda, tensor, o lo que sea.

Así pues si puede pasar donde con menos cores se iguale o se supere en rendimiento todo por la optimización.

Recuerde que menos espacio ocupado en el silicio es más ganancia para el fabricante, menos consumo y menos calor 🤷
 
Última edición:
  • Me gusta
  • Me encanta
Reacciones: dA_vO y DarkPoe
Men no es lo mismo un core de primera que de última generación. Por muy Cuda, tensor, o lo que sea.

Así pues si puede pasar donde con menos cores se iguale o se supere en rendimiento todo por la optimización.

Recuerde que menos espacio ocupado en el silicio es más ganancia para el fabricante, menos consumo y menos calor 🤷
Es que no me refiero a los core de GPU, me refiero a que los CUDA existen intrisicamente como los Stream Processors (AMD) para darle mayor beneficio real al chip GPU, quiere decir que se complementan entre si. Por lo tanto si dejasen de existir se deja de beneficiar un chip GPU así tenga una construcción menor en nm.
Recuerde que menos espacio ocupado en el silicio es más ganancia para el fabricante, menos consumo y menos calor 🤷
Ahora por que entonces la serie 40 consume mas y se calienta mas que la serie 30 si tienen mayor espacio de die?
 
Comparando el consumo y la temperatura de la 4080 vs 3080 Founders Edition:

1676476368736.png


1676476052852.png


1676476107531.png



Podemos ver que no hubo un aumento ni de consumo ni de temperatura y la 4080 es, por supuesto, considerablemente superior en rendimiento a la 3080.

Fuentes: https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/
 

Archivos adjuntos

  • 1676475995188.png
    1676475995188.png
    14 KB · Visitas: 12
  • 1676476015431.png
    1676476015431.png
    13.3 KB · Visitas: 16
  • Me gusta
Reacciones: JPSlayer67
Es que no me refiero a los core de GPU, me refiero a que los CUDA existen intrisicamente como los Stream Processors (AMD) para darle mayor beneficio real al chip GPU, quiere decir que se complementan entre si. Por lo tanto si dejasen de existir se deja de beneficiar un chip GPU así tenga una construcción menor en nm.

Ahora por que entonces la serie 40 consume mas y se calienta mas que la serie 30 si tienen mayor espacio de die?

Men, nadie habló de que dejen de existir. Aqui se ha dicho que no necesariamente + cuda = mas rendimiento.

Comparando el consumo y la temperatura de la 4080 vs 3080 Founders Edition:

Ver el archivos adjunto 546246

Ver el archivos adjunto 546244

Ver el archivos adjunto 546245


Podemos ver que no hubo un aumento ni de consumo ni de temperatura y la 4080 es, por supuesto, considerablemente superior en rendimiento a la 3080.

Fuentes: https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/

Y de lo segundo que menciona aquí el lanero, que pues en este caso no aplica como el hombre ilustra, pero aun asi, se puede presentar debido a:

Numero de transistores que pasa de 28billones a 76billones por muy que pasen de 7nm a 4nm (ha cambiado de procesador ultimamente?, ahi se evidencia mucho mas breve este tema, sobre todo si es AMD). La palabra clave es: Densidad.

El segundo factor, es que si bien hay optimizaciones en general el cambio no es lo suficientemente grande y le aumentan a las velocidades de reloj lo que hace que contribuya aun mas al tema de la temperatura y consumo. (Hola Radeon 480 y 580)

Y como tercer factor estan los modelos custom donde la cosa se pone pior.
 
  • Me gusta
Reacciones: BlackRoth
Aqui se ha dicho que no necesariamente + cuda = mas rendimiento.
Got it! Ya lo comprendo mejor y en eso si estamos de acuerdo.

@BlackRoth el tema con las series XX80 si tiene un beneficio pero recuerda que no es el chip completo como en las series XX90 donde si se nota un aumento de consumo generacional y tal como menciona @Sorrento radica en la densidad, velocidad de reloj y uso de nuevas tecnologías en vram.
 
  • Me gusta
Reacciones: Sorrento y BlackRoth
Men, nadie habló de que dejen de existir. Aqui se ha dicho que no necesariamente + cuda = mas rendimiento.



Y de lo segundo que menciona aquí el lanero, que pues en este caso no aplica como el hombre ilustra, pero aun asi, se puede presentar debido a:

Numero de transistores que pasa de 28billones a 76billones por muy que pasen de 7nm a 4nm (ha cambiado de procesador ultimamente?, ahi se evidencia mucho mas breve este tema, sobre todo si es AMD). La palabra clave es: Densidad.

El segundo factor, es que si bien hay optimizaciones en general el cambio no es lo suficientemente grande y le aumentan a las velocidades de reloj lo que hace que contribuya aun mas al tema de la temperatura y consumo. (Hola Radeon 480 y 580)

Y como tercer factor estan los modelos custom donde la cosa se pone pior.

Got it! Ya lo comprendo mejor y en eso si estamos de acuerdo.

@BlackRoth el tema con las series XX80 si tiene un beneficio pero recuerda que no es el chip completo como en las series XX90 donde si se nota un aumento de consumo generacional y tal como menciona @Sorrento radica en la densidad, velocidad de reloj y uso de nuevas tecnologías en vram.

Gracias por las explicaciones. Ahí voy entendiendo más del tema.

En otro aspecto, ¿para una 4070 Ti me va bien con esta fuente que es la que tengo?

 
  • Me gusta
Reacciones: Sorrento
Exactamente... Lo que importa es el rendimiento asi tenga 1 CUDA eso vale tres hectareas de cotopla
Eso igual no cambia el panorama.
Básicamente estás pagando lo mismo por el rendimiento de la generación pasada, no hay mejora mas allá del consumo, pero igual eso es muy deprimente, pero llega Jensen y justifica esos precios por DLSS 3 que solo está en como 4 juegos
 
Hola laneros, alguno sabe de alguna tienda confiable que admita tarjetas gráficas usadas como medio de pago? Tengo una rtx 3080 12gb y me están dando ganas de pasarme a la 4070 ti dando el excedente
 
Eso igual no cambia el panorama.
Básicamente estás pagando lo mismo por el rendimiento de la generación pasada, no hay mejora mas allá del consumo, pero igual eso es muy deprimente, pero llega Jensen y justifica esos precios por DLSS 3 que solo está en como 4 juegos
Pero en el caso de la 4070 Ti, por ejemplo, tienes un rendimiento sin DLSS en 1440p similar al de una 3090 o 3090 Ti. La 4070 Ti se consigue en $800, pero una 3090 o 3090 Ti siguen a precios por encima de $1400. Creo que, aunque $800 sigue siendo muy costoso, la 4070 Ti sí es un ejemplo de incremento en rendimiento pagando menos.
 
bueno mirando ya bien como viene nvidia manejando esto, ya va entendiendo uno mejor como va por asi decirlo el SCAM de esta generacion de targetas de ellos.
si lo que se viene diciendo es cierto sobre las targetas que vienen como lo es 4070 no TI y la 4060 que vienen con menos cudas que sus modelos previos (serie 30) todo parece indicar que la razon mas grande por la que nvidia hizo que el DLSS 3 fuera exclusivo de la serie 40 era para compensar esa falta de performance bruto de la serie 40 a punta de DLSS 3, es decir sin eso en teoria serian casi iguales a sus modelos anteriores.
1676478926940.png

Se ponen a polemizar un comentario de un experto que escribe "targetas" dejen así.
siempre atacando al mensajero.. pero si tiene razón el hombre... ya varios lo han dicho... Nvidia tiene problemas financieros y conociendolos van a hacer muuuchas jugadas...

AL final pues antes de lanzarse a comprar como locos, pues esperar los benchmark y no pagar la primiparada de ser primer usuario..

No mas a cuantos se les quemo las 4090 por el conector "ch1imbirimbis" que les metieron y la primiparada les costo tiempo y dinero...
 
Hola laneros, alguno sabe de alguna tienda confiable que admita tarjetas gráficas usadas como medio de pago? Tengo una rtx 3080 12gb y me están dando ganas de pasarme a la 4070 ti dando el excedente
No es más viable (y confiable) vender/cambiar la tarjeta en la sección de compra/venta de acá?
 
  • Me gusta
Reacciones: DavidGD
Hola laneros, alguno sabe de alguna tienda confiable que admita tarjetas gráficas usadas como medio de pago? Tengo una rtx 3080 12gb y me están dando ganas de pasarme a la 4070 ti dando el excedente
Se que @juanchibiris en Xtreme Hardware anda recibiendo GPU para ir por una mas nueva, eso si puede que sea mas bajo el valor que pueda recibir en compra/venta como menciona @swiftie
 
  • Me gusta
Reacciones: DavidGD
Creo que no entendiste el punto... Hablo de rendimiento en general, pues si el día de mañana, hipotéticamente, sacan un die con 1 CUDA que rinda exactamente igual o mejor en lo que quiera medir (y ojalá en todo), es irrelevante... Es más, nadie mide las tarjetas de diferente generación en cuántos CUDA tienen
mismo rendimiento por el doble de precio (sin contar el consumo y esa j0da con el cable de energia)
 
Eso igual no cambia el panorama.
Básicamente estás pagando lo mismo por el rendimiento de la generación pasada, no hay mejora mas allá del consumo, pero igual eso es muy deprimente, pero llega Jensen y justifica esos precios por DLSS 3 que solo está en como 4 juegos
Tipos de respuestas como estas dan ganas de no responderlas... Es increible que existan personas que piensen asi
 
Tipos de respuestas como estas dan ganas de no responderlas... Es increible que existan personas que piensen asi
Como así, si la 3070 valió $499 y la 4060ti valdría lo mismo, y el rendimiento es exactamente el mismo, donde está la mejora? cual es la evolución?

Tampoco seamos tan fanboys de una compañia pues.

O que? el pensamiento correcto es que esté entusiasmado por esto?
 
Como así, si la 3070 valió $499 y la 4060ti valdría lo mismo, y el rendimiento es exactamente el mismo, donde está la mejora? cual es la evolución?

Tampoco seamos tan fanboys de una compañia pues.

O que? el pensamiento correcto es que esté entusiasmado por esto?
La 3090 ti, que costaba 2000 MSRP o si quiere la 3090 que costaba 1500 MSRP, rinden igual o peor que la 4070 Ti que cuesta 800... Ni hablar de la 4080 que cuesta menos que cualquiera de estas y rinde muchisimo mas...

Ademas estas hablando de una generacion que salio antes de Pandemia y Guerra de Ucrania que han desencadenado una inflacion la tripleh y comparar los precios de antes es lo mismo que decir que un almuerzo antes costaba 9000 y ahora cuesta 15000

Bueno... Y tampoco dejemos por detras tecnologias (no como FG para que no llore) como AV1 encoding en doble chip, mejoras en consumo y calentamiento y el SER que mejora el rendimiento RTX absurdamente

Si sale una tarjeta de 500 dolares HOY que rinda igual que la de 500 dolares de la pasada, seria un improvement medible

Obvio uno quisiera cambios mejores, pero de que existen, existen... Y no es nuestra culpa que ya a la conversion a devaluados pesos colombianos sea mas alta
 

Los últimos temas