Nvidia Serie 3000

Para los que se preguntan cuál es mejor entre AMD y Nvidia aquí les dejo una grafica.
8196FCAF-B0D3-4FFA-9B0E-B84D8695E03F.jpeg
 
fuera de bromas a ese precio de la 3090 yo no la compraria ni si me la ofrecieran en 1000 dolares, para que en 10 meses saquen una 4080 a 700 bien jugado nvidia y pobres los que la compren.
 
  • Me gusta
  • Triste
Reacciones: Jedga y Sorrento
fuera de bromas a ese precio de la 3090 yo no la compraria ni si me la ofrecieran en 1000 dolares, para que en 10 meses saquen una 4080 a 700 bien jugado nvidia y pobres los que la compren.
PTSD de la 2080 Ti, ya con la 3070 en el mercado se fue en picada el precio
 
Con la 3090 uno está pagando por los 24GB de VRAM básicamente.
Por más 4080 que saquen dudo que en 10 meses el costo del GDDR6X baje lo suficiente como para bajen el precio sin sacrificar ese márgen sabroso del 60% que dicen que le gusta a NVIDIA.
 
Con la 3090 uno está pagando por los 24GB de VRAM básicamente.
Por más 4080 que saquen dudo que en 10 meses el costo del GDDR6X baje lo suficiente como para bajen el precio sin sacrificar ese márgen sabroso del 60% que dicen que le gusta a NVIDIA.
Con la competencia que ahora le esta dando Amd van a tener que sacrificar margen de beneficios... y bueno seguramente sacaran una super o ti próximamente.
Ell8f-9VoAAgntr-1480x833.jpg
 
Última edición:
Jum ya están buscando que hacer con los GA104 que no llegan al spec de la 3070 y ni siquiera han lanzado ningún producto con el GA106.
 
Eso parece una publicidad de AMD 😅
Realmente para mí no tiene sentido que un juego necesite 12GB de VRAM así sea en 4K. Ni Red Dead Redemption 2 usa en en 4K, y hay muchos juegos que hasta en 8K no llegan a 8GB.

Igual es muy poquita a gente que juega en 4K en PC.
 
Ahora sale una 3080ti con casi el mismo performance que una 3090 a 999usd. Gpus cada 6 meses, hasta donde hemos llegado.

1.jpg
 
Eso parece una publicidad de AMD 😅
Realmente para mí no tiene sentido que un juego necesite 12GB de VRAM así sea en 4K. Ni Red Dead Redemption 2 usa en en 4K, y hay muchos juegos que hasta en 8K no llegan a 8GB.

Igual es muy poquita a gente que juega en 4K en PC.
Tiempo al tiempo viejo, la adición de raytracing y el típico aumento en fidelidad gráfica van a aumentar el uso de VRAM, no lo dude
 
  • Me gusta
Reacciones: JPSlayer67
Tiempo al tiempo viejo, la adición de raytracing y el típico aumento en fidelidad gráfica van a aumentar el uso de VRAM, no lo dude
Eso y las API's de acceso directo a la vram (DirectStorage) para no pasar por la CPU, se me hace que por ahi es por donde vamos a ver un gran incremento del consumo del uso de la vram.
 
Solo al menos, que los desarrolladores decidan usar las texturas leídas directo desde el nvme, como se hará en consolas, gracias al PCI-Express 4.0.
 

Los últimos temas