Limite de Velocidad

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
Pero que foros tan aburridos.. claro que estan para ayudar a los pobres que no saben nada.. y uno que otro saca un dato interesante, pero esto es muy monotono...que aburrición.. hace meses no me metia y todo sigue igual, asi que voy a ver si les gusta el temita que propongo y a ver con que salen:

Hay un problema actual con los procesadores y en los ultimos CEBIt y comdex y demas se esta viendo que actualmente los manufacturadores de microprocesadores estan llegando al limite. La ley de moore dejo de ser ley hace meses y cada dia mas tenemos pequeñas estufas electricas (lo dijo por el calor disipado) en nuestros computadores.. lease que intel no ha vuelto a sacar mas procesadores por velocidad y les toco hacer lo mismo que AMD sacando por numeros de referencia y no por velocidad.

Segun se ha dicho en otros foros, articulos y comentarios, el problema es que si las empresas siguen sacando numeros de Ghz mas grandes les va tocar empezar a pasarse a refrigeración liquida, y todos sabemos, que eso no es posible para el 90% de la poblacion civil.

Otro svan a sacar dual core y todos ya estan hablando el mismo lenguaje de 64 bits.

Ahora ustedes que piensan?
-¿sera que la industria se puede estancar por este problema?
-¿los viejitos ignorantes que se basaban en los Ghz ahora que van a hacer?
-¿como se podria solucionar este problema? ¿que nuevas tecnologias a corto plazo se ven venir? ¿a que costo?
-¿saldra mejor aumentar la velocidad de los perifericos, por que el microprocesador no da mas?
-¿realmente la industria del micro se beneficiara sacando solo procesadores con mas cache y mejor arquitectura quedandose con las mismas velocidades de la CPU?

Esta ultima pregunta se la dirigo a ustedes por que ya saben que a finales del 2006 (?!) sacaran el nuevo windows (codigo clave:longhorn) y segun el propio Bill necesita procesadores de 5 Ghz minimo!!.. y como van las cosas el de 5 Ghz se demorara ufff un resto...ojo,, no estamos hablando de numeros de referencia de AMD o intel (como algo de 5000+) sino de velocidad real...
Ahora no me vayan a salir con la "colombianada" de que esos manes arreglan ese problema, por que los mismos manes de intel y amd ya han mostrado que estan en un callejon sin salida, a corto plazo por el momento.. asi que oigo comentarios, dudas, quejas, opiniones y madrazos, como siempre...
 
  • Me gusta
Reacciones: 2 personas

kenkerkutiv

Lanero Reconocido
5 Sep 2004
1,435
Uhm yo habia notado eso.. lo de la ley de moore que dejo de ser..
-¿sera que la industria se puede estancar por este problema?
Estancado totalmente nooo, pero solo esta avansando un poco mas lento con respecto a los pasos agigantados que daba antes

-¿los viejitos ignorantes que se basaban en los Ghz ahora que van a hacer?
ah??
-¿como se podria solucionar este problema? ¿que nuevas tecnologias a corto plazo se ven venir? ¿a que costo?
Nuevas tecnologias.. primero implementemos decentemento lo que tenemos (64 bits) ..

-¿saldra mejor aumentar la velocidad de los perifericos, por que el microprocesador no da mas?
Pues .. se estan basando siempre en lo mismo deberian buscar otra forma (modelo) de procesadores mas grandes o chikos, con mas o menos pines ... o que se yo .. pero un cambio radical necesitamos

-¿realmente la industria del micro se beneficiara sacando solo procesadores con mas cache y mejor arquitectura quedandose con las mismas velocidades de la CPU?
yo creo .. que las empresas no estan felices cn este estancamiento pues siempre Intel quiere pasar a AMD y viceversa.. no creo que hagan un pacto de llegar hasta ahi.. pongo mis manos al fuego..por que se esta buscando una nueva solucion

mi humirde opinion


Esta ultima pregunta se la dirigo a ustedes por que ya saben que a finales del 2006 (?!) sacaran el nuevo windows (codigo clave:longhorn) y segun el propio Bill necesita procesadores de 5 Ghz minimo!!.. y como van las cosas el de 5 Ghz se demorara ufff un resto...ojo,, no estamos hablando de numeros de referencia de AMD o intel (como algo de 5000+) sino de velocidad real...
buueno si windows cada vez pide mas velociadd... USE LINUX o algo que se acomode a su alcanse o XP... pero no pq salga el nuevo win .. uds correra a instalarlo
 

ajjulian

Lanero Reconocido
15 Ago 2003
398
Que bueno aporte el tuyo. yo soy un poco aficionado a los procesadores y me gusta leer articulos tecnicos (al principio no entendia un carajo pero he ido mejorando sin ser ningun pu**** en el tema, me defiendo bastante bien), y pienso mas o menos parecido a vos, me gustaria que se postearan cosas mas tecnicas a veces en los foros, son bacanas para discutir y se aprende mucho.
-¿sera que la industria se puede estancar por este problema?
la verdad, no creo que sea tanto un problea de estancamiento en la escalada en Ghz. un ejemplo (y muy ilustrativo para mi), el Cell de Toshiba, IBM y no se quien mas, son 9 nucleos corriendo a 4 Ghz eso es todo un logro en un paquete que viene con nueve cores, es cierto que se ha buscado la sencillez en el diseño del core principal y todavia mas en el de los otros 8 cores, pero son 9 y son 4Ghz, corriendo uno al lado del otro y el micro no se frie.
me parece un problema tal vez de mas investigacion o algo asi (no se como definirlo bien), INTEL choco fuertemente cuando paso a 90nm debido a su afan: supuestamente la arquitectura PRESSCOTT iba a llevar a la saga PENTIUM a los 5Ghz (esto en explica en parte que sea tan profundamente segmentado "pipelined") y el Tejas a los "10 GHz", pero el cambio de proceso de fabricacion a 90nm fuen un desastre y por el contrario todo un exito en AMD (que se tomo su tiempo para asegurarse bien, claro tampoco tiene la infraestrura de intel) que logro bajar considerablemente el consumo de sus procesadores, (ya sabemos que los nuevos micros tienen un consumo que va desde los 62 W los 1.8Ghz en la gama escritorio A64), y AMD tiene considerado seguir escalando en velocidad al menos hasta los 3 GHz (lee el post que puse : linea AMD 2005-1Q 2006 (a modo de noticia)) y eso es bastante considerando tambien que el procesador solo tiene 2 pipelines mas que los K7 que tenian 10 pipeline stages y solo llegaron a los 2200Mhz(lograra escalar 800Mhz sobre la antigua arquitectura K7 mientras intel solo lo hizo 400Mhz sobre Northwood 130nm), en contraste con sus 90nm el proceso a 65nm de INTEL parece todo un exito y permitira bajar el poder consumido por sus procesadores considerablemente (si no estoy mal rondaran los 60-70Watts en la linea de escritorio PENTIUM) entoces mira que fuen un choque brusco que le obligo a reorientar su vision en el mercado y desarrollo de futuros procesadores, y que por su parte AMD lo tomo con cautela y esta sabiendo aprovechar y ojala pueda sacar bastante ventaja de esto porque me parece una compañia bastante ambiciosa e innovadora con productos de alta calidad y desempeño, considerando sus posibilidades economicas y su posicionamiento en ventas en el mercado...
bueno me voy como emocionando y para no alargarme mucho mas dejo ahi y luego doy mi opinion sobre las otras preguntas....
el tema esta bien sobrado
suerte
 

SCrashNeT

Lanero Reconocido
16 May 2004
244
Pikachu_Patapi dijo:
Pero que foros tan aburridos.. claro que estan para ayudar a los pobres que no saben nada.. y uno que otro saca un dato interesante, pero esto es muy monotono...que aburrición.. hace meses no me metia y todo sigue igual, asi que voy a ver si les gusta el temita que propongo y a ver con que salen:
Bien por ti felicidades...

los manufacturadores de microprocesadores estan llegando al limite. La ley de moore dejo de ser ley hace meses
EStas en un error, more, el cual inicialmente era director de fairchild y posteriormente co fundador de intel...

"[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]que el número de transistores por en circuitos integrados se duplicaba cada año y que la tendencia continuaría durante las siguientes dos décadas. [/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font] [font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1] [/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font] [font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]Algo más tarde modificó su propia ley al afirmar que el ritmo bajaría, y la densidad se doblarían aproximadamente cada 18 meses. Esta progresión de crecimiento exponencial: doblar la capacidad de los microprocesadores cada año y medio, es lo que se considera la Ley de Moore."[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

Asi que como veras y entenderas, esta ley de mooore no habla de la velocidad en Hertz si no de la complejidad y capacidad de procesamiento de un procesador...

Y hasta el dia de hoy se ha cumplido... y con la proxima salida de los procesadores con dual core... se seguira cumpliendo esta ley, asi que no entiendo por que dices que esta ley ya no se cumple...


-¿sera que la industria se puede estancar por este problema?
de hecho la industria esta hora en un momento de gran dinamismo... solo hay que checar el poco tiempo que lleva el athlon 64 en el mercado y estamos a punto de recibir la 3era generacion de este procesador el cual soportara hasta SSE3...
en este mismo año veremos dual core...

para el proximo veremos un nuevo socket para AMD... bueno... en fin etancamiento, la verdad no lo dislumbro por ningun lado...

-¿los viejitos ignorantes que se basaban en los Ghz ahora que van a hacer?
Tener que estudiar y entender, o pedirle opinion a sus nietos.

-¿como se podria solucionar este problema?
Cual problema???
¿que nuevas tecnologias a corto plazo se ven venir?
Dual core.
prefetch mejorado
integracion de mas componentes en el propio procesador
coprocesador de fisica integrado en el procesador
Desarrollo de procesdores "multi tarea" y multi estancia... osea que por ejemplo puedan ejecutar windows y linux a la vez cada uno con su propio espacio para procesos y recursos...

Memoria ram mas rapida
mejoramiento de conectividad y accesos a banda ancha...
etc etc etc... en pocas palabras los procesadores comenzaran a crecer en muchas cosas que nunca le habian prestado atencion

recuerden la idea es que son procesadores...

no relojes... asi que preocuparse solo por desarrollar la velocidad era "poco civilizado" y ahora esta demostrado que es una practica obsoleta...

¿a que costo?
segun ley de moore... en 2 años la mita.. o menos...

-¿saldra mejor aumentar la velocidad de los perifericos, por que el microprocesador no da mas?
De que sirve que un periferico entregue o desplieguemas raido los datos si tiene que estar esperando al procesador.. a eso se les llama cuellos debotella...

actualmente el hypertransport acaba con ese problema...

-¿realmente la industria del micro se beneficiara sacando solo procesadores con mas cache y mejor arquitectura quedandose con las mismas velocidades de la CPU?

Bien... te tengo una pregunta analoga...
que es mejor... una radeon 9800 pro?? o una geforce 6600GT

contestando esa pregunta respondes tu duda si hay beneficio en implementar una mejor arquitectura...
ahora... que es mejor... una geforce 6600GT con 8 pipelines y 500Mhz...
o una radeon X800XL de solo 400Mhz... pero con 16 pipelines...

Bien la respuesta es que la X800XL tiene casi el doble de el rendimiento de la 6600GT con una frecuencia 20% menor... esto te ayudara a responder tu duda si sirve de algo tener mas de 1 core en un procesador...

Esta ultima pregunta se la dirigo a ustedes por que ya saben que a finales del 2006 (?!) sacaran el nuevo windows (codigo clave:longhorn)
Te aseguro que en mi pc windows EX o como se llame va acorrer fluiido fluiiido en mi PC... yo no me preocuparia por el numero de gigahertz...

al menos en este momento segun la grafica windows esta utilizando 0% de los recursos de mi pc... y dudo que en el siguiente windows vayan a dar un brinco tal que lo sature al 100%... asi que esa limitante me parece incoherente y ademas a bill gates no le conviene que su sistema operativo no se pueda instalar en la mayoria de las PC... recuerda que su negocio clave esta en cada lanzamiento de un SO...por cierto el siguiente windows es compatible con dual core y hasta con quad core...

En si el unico detalle que noto es que las empresas de video ATI y Nvidi estan sobre pasando por mucho el desarrollo de los procesadores...
y el problema real actul es que las tarjets de video actuales le quedan grandisimas a cualquier CPU actual...

esto no es problema de que AMD o intel esten estancados... sino que ATI y nvidia en su competencia, ellos si han roto la ley de moore y estan duplicando su rendimiento y cantidad de transistores en solo 12 meses....

la verdad es sueper sorprendente el desarrollo que hay en esta area.-

por cierto... por hay ya se sabe que el nuevo chip grafico de ati duplicara el rendimiento de la X850XL---- y prometen tener ese nuevo mega monstruo en el ciclo de 12 meses...
 

SCrashNeT

Lanero Reconocido
16 May 2004
244
mas sobre la ley de moore....

esto lo encontre en un documento hecho hace varios años....


[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]en 1997 por ejemplo, esta asociación predijo que en el año 2001 se podrían crear circuitos de 0,15 micras de anchura, es decir, 800 veces más finas que un cabello humano. Andy Groove, antiguo CEO y actual presidente emérito de Intel, aseguró en el Comdex de 1996 que los chips de 1.000 millones de transistores y 0,7 micras llegarían en el año 2011. Pues bien, actualmente se están fabricando circuitos de 0,18 micras, que serán 0,13 el próximo año y 0,10 alrededor del 2003. Algunos laboratorios como el de IBM van aún más lejos y aseguran tener circuitos experimentales de 0,05 micras.[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font] [font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1] [/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font] [font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]IBM es uno de los que cree que la Ley de Moore aún no tiene fecha de defunción. El gigante azul asegura que el camino no está necesariamente en hacer a los chips más rápidos, sino más potentes. En sus PowerPCs, por ejemplo, está utilizando interconectores de cobre en vez de aluminio, que por lo visto son mucho más eficaces.
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]En la actualidad los chips son menores de 180 nanometros, la milmillonésima parte de un metro. Para que la Ley de Moore no pierda vigencia, el tamaño se debería reducir a 150 nanometros en el 2001 y a menos de 100 en el 2005
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]
El fragmento anterior es de un documento escrito en el 2000
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]asi que la ley de mooore predecia que para el 2005 debian ser menores a 100nanometros...
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]y adivina que
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]las noticias son que los procesadores en la actualidad son de 90 nanometros!!!
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]magia!!!
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]y por cierto....
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]

[font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1][font=verdana, arial, helvetica][size=-1]AMD poro ay esta ya desarrollando sus sistemas de 60 nanometros..., supongo que intel tambien hace lo propio...
[/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font][/size][/font]
 
19 Jul 2004
5,803
Pikachu_Patapi dijo:
Pero que foros tan aburridos.. claro que estan para ayudar a los pobres que no saben nada.. y uno que otro saca un dato interesante, pero esto es muy monotono...que aburrición.. hace meses no me metia y todo sigue igual, asi que voy a ver si les gusta el temita que propongo y a ver con que salen:
Es triste leer un post de una LANero VETERANO usando su vocabulario para agredir de alguna manera a sus demás compañeros y de paso ofender el esfuerzo GRATUITO que hacen los concesionarios del site para sostenerlo. Con el respeto que ud. se merece, creo que no debió iniciar un post, tan bueno como éste e interesante con esta introducción de oscura. :\

En lo particular prefiero no responder al tema, se me quitaron las ganas tan solo de leer el inicio. :cansado:

Saludos
 

MAPSI

Lanero Reconocido
26 Ene 2005
1,193
Buenas informaciones, la verdad es que sobre arquitectura de procesadores se nanai, pero longhorna ha de correr en mi pc sin problemas, porque si no, no le correria a la gran mayoria y entonces bill no gana un chavo, debe de ser para todos, además si en mi pc windows recién instalado, no le quita nada..., longhorn no va a ser tan bestia!!!!
 

Orionpi

Lanero Reconocido
8 Nov 2004
106
Yo soy nuevo en esto, se más bien poco de procesadores, arquitecturas, dimensiones y demás.
Pero considero que lo más importante no es a cuantos gygaherts ande el procesador, ni el número de core que tenga, ni las operaciones por segundo ni nada de eso. Para mí lo más importante es que se llegue a estabilizar los sistemas y los mismos hagan las operaciones bien hechas... es decir, prefiero que me haga 8 (por ponerlas en numeros pequeños) operaciones bien hechas con absoluta certeza y sin compliques a tener algo que teóricamente me hace 10 o 12 pero me tengo que quemar las pestañas para obtenerlas y resulte haciendome con eficiencia solo 6 o 7 y las otras a medias.
 

Orionpi

Lanero Reconocido
8 Nov 2004
106
Se me olvidaba, ¿qué se gana bill gates en sacar un sistema operativo que solo él pueda tener? pues con la plata que tiene, se puede dar el gusto de crear una Mainboard EXCLUSIVA que se le puedan poner 20 procesadores de 2ghz con 10 gigas de ram y demás componentes y ni siquiera la tiene que sacar en serie. ahí tendría su supersistema operativo montado.
Ahí está el windows xp... que se puede montar en un pentium 3 con 512 de ram y corre bien. Como va a duplicar su fortuna? no precisamente sacando sistemas operativos que solo puedan comprar personas que ganen más de 1M us al año.
 

tick

Lanero Reconocido
6 Jun 2004
247
Pues interesante el tema!! no se tanto como algunos pero medio me difiendo!

Pero no me parece lo que esta al pricipio estoy con "zoo"..
Si esta aburrido tirese de un 10mo piso. etc baaaaaaaaa
 

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
ajjulian: MUY BIEN! FELICITACIONES! A pesar de que eres un lanero novato, les has ganado a muchos laneros veteranos. El analisis de la tecnologia de 90 nm es muy acertada. Y el analisis de las pipeline y la arquitectura es muy bueno. Veo que sumerce no se deja llevar por la mercadotecnia o las propagandas de Superman con intel. Usted sabe, como los vinos, por que uno es mejor que el otro mirando las cosas por dentro.

SCrashNet: que Verguenza! No estamos hablando de tarjetas de video. Estamos hablando de procesadores. No es lo mismo un carro de formula 1 a un avion caza estilo raptor. Estamos mirando cual es el problema de por que no estan avanzando en la velocidad de los procesadores y por que estan tomando otros caminos. a sus post cuatro respuestas (aunque deberian ser mas!):

- Disminuir de tecnologia de 90nm a menos no es garantia de exito. Aprenda de ajjulian y mire el problemon de intel con los pentium 4. (ahora si no sabe cual es el problema ahi si pailas. le toca leer la documentacion que ofrezco mas adelante!). Si usted es fanatico de comparar procesadores con GPU (error!) aqui un dato: se acuerda cuando Nvidia saco la FX5800 de 0.13u y todos lo problemas que tuvieron, mientras la competencia, ATI con la 9800pro era de 0.15u ?! ((aaaaaahhhhhhhh).

-Usted no puede confundir una tuberia (pipeline) de una GPU con la de una CPU. Estan tratando de datos diferentes. Mejor dicho sumerce esta cometiendo un error garrafal.

-Hypertransport no es una solucion a largo plazo. Y no soluciona para nada los problemas de ancho de banda internos. Trata de mejorarlos y muy bien pero no para lo que se necesita a mediano plazo.

-El dual-core que despues lo van a convertir a Quad-Core que despues sera Multi-core esta basado en la tecnologia antiquisima del SMP (Symmetric MultiProcessing). Ahora estas equivocado en el concepto de que en un nucleo ejecuta windows y el otro linux. Para dar un ejemplo de semejante error es como decirle a una tarjeta de video de dual core que en un core ejecute DOOM3 y en el otro Half-life. (suena horrible esta comparacion. Inmunda esa comparacion. Pero eso es lo mismo cuando usaste eso de usar windows y linux en un dual core).

-Yo aplicaria la Ley de moore al nucleo de procesamiento de la CPU. No contaria los transistores de cache o extensiones (lease mmx, SSE1, SSE2, SSE3) u otra mas que no sea directamente relacionada con el core de procesamiento directo.

-AMD tiene problemas con el proyecto K8 para implementarlo a 60 nm. No quieren que le pase lo mismo que a intel con el de 90nm. (ojo!)

Kenkerkutiv: Muy lindo las respuestas, pero no sirven para este foro. Se busca analisis y respuestas concretas. No lo que dija la Revista Enter! Si usted lee bien y analiza muy bien su post, esta lleno de contradicciones. Esto es normal si uno no conoce muy bien el funcionamiento de un procesador o las partes que la componen, pero para eso esta este foro.

zOO Y Wareduard: lo que se busca es participacion de alto nivel. No hay otra forma de buscarla. Presento disculpas a vosotros.

PARA EL RESTO: A ver caballeros y damas tambien. Estoy poniendo Windows como una referencia de sistema operativo. A mi me gusta mas linux para entorno empresarial que windows. Pero SEA EL SISTEMA QUE USEMOS, TODOS, ABSOLUTAMENTE TODOS, DEPENDEN DEL PROCESADOR. Aunque muchos usan sus sistemas para jugar en 3D, o ver peliculas o anime en DVx, eso a la larga no es importante. Lo que mueve a la industria de computadores en el mundo es el mercado corporativo o empresarial. Ustedes creen que la gente en la CASA compra su software. Si no fuera por las empresas consumidoras de programas, no existiria un mercado de software. Y si hay empresas que usan Linux, que son muchas por cierto, tambien tienen las mismas necesidades que los de windows. Mas potencia. MAs velocidad de procesamiento:
LA industria de marketing necesita analizar bases de datos con millones de TERABYTES en sus computadores.
La industria del video necesita mejorar la velocidad de sus ediciones para ser mas productivas.
LA industria aeronautica necesita mas velocidad y rendimiento para hacer mejores simulaciones de sus diseños de sus aviones.
La industria de la ingenieria civi, industrial, electronica y demas siempre necesitaran maquinas mas rapidas para desarrollar sus proyectos.

EN DEFINITIVA, lo que se busca es gente que entienda el problema desde un punto de vista global, mundial. como dicen en la FM (94.9FM Bogotá): Abre tu mente.
 

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
Ahora bien, falto un complemento a este foro y eso es culpa mia por pensar que la gente que participa en laneros saben o sabian de tecnologia para que los de afuera no los cojan por ignorantes sudacas y no nos dejemos manociar en los foros españoles, como para dar un ejemplo. O tal vez yo estoy equivocado de la vision de la gente fundadora de laneros. Tal vez estoy pensando que estos foros deberian ser de un nivel tecnico mas
avanzado o que la gente que esta en esto, sigue una evolucion natural de las cosas. Igual mucha gente vive de esto y por lo tanto preguntan. Ahora lo que se busca no solo aqui en los foros, sino a muchos amigos y gente de trabajo es que estemos pendientes de las cosas. Estemos avanzando. No dejarnos engañar de publicidad tan ESTUPIDA Y RIDICULA de Intel sacando caricaturas en su mercadotecnia. Que vaina tan patetica. Y lo mas patetico es que la gente cae redondita. Ya estoy mamado de que la gente se guie de una revista tan pesima como Enter y no busquen mas fuentes de informacion. O que sigan comprando PCmagazine o PCWorld donde esta supersesgadizimos a Wintel (Windows- Intel).
Por lo tanto seguire molestando en los foros hasta, o que me baneen o que la gente al fin medio se de cuenta de las cosas.
PD: lean mi firma. Por algo la escribio Carl Sagan.
 

MaxTec

Lanero Reconocido
9 Mar 2004
402
Yo creo que esto nunca se estanca!, lo que si se va restrigiendo a nuestros alcanses!
Mi pregunta es... No es ya una animalada tener un procesador 5000+ y cual sera el motivo de irse superandose?
Y como a dicho otro lanero todos tuvimos un principio, pikachu.... me imagino que vos no nacistes sabiendo y tuvistes que arrancar desde un principio.
Suerte y Saluu2 ;)
 

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
Entrando en materia:
En este articulo, muy interesante por cierto:

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2343&p=2

tratan el problema que hace primero referencia a este foro: el crecimiento. Con el permiso de los autores y de
ustedes voy a traducir los dos primeros parrafos para que se den cuenta de lo que estamos hablando:

"El porcentaje de crecimiento del rendimiento de la CPU a sido espectacular en las pasadas decadas. Dos leyendas de la historia de la computación , Jhon L. Hennesy y David A. Patterson, han cuantificado este crecimiento de rendimiento de alrededor del 58% por año. (growth to be about 58% per year). Un reciente estudio de la Universidad de Göteborg confirmo que ese crecimiento del 58% fue verdadero entre 1985 a 1996. (pero) Durante los ultimos 7.5 años (1996-2004), los profesores suecos probaron que ese crecimiento de performance (rendimiento) habia descendido a un promedio del 41% por año. En el peor de los casos (EVen Worse) la conclusion es que "hay signos de un continuo declive".

Si nos enfocamos a las CPU de Intel, el deterioro del crecimiento del rendimiento de las CPUs es mas "precipitado" todavia. En noviembre del 2002, Intel estuvo a la cabeza de la competicion con la introduccion de el Pentium 4 3.06Ghz. Intel habia doblado la velocidad del reloj de su ultimo arquitectura X86 en dos años. (Nota del traductor Pikachu: Importante este punto para objeto de analisis: estan hablando del primer pentium4: 1.5Ghz), lo cual era absolutamente una realización.

DOS AÑOS Y MEDIO DESPUES, los procesadores de intel estan corriendo a 3.8 Ghz, mostrando que la velocidad del reloj se ha incrementado en solo un 25% (NT: notese que el crecimiento del periodo anterior fue del 200%!). Por supuesto (ojo!), todos nosotros conocemos que el rendimiento no es escala lineal con la velocidad de un reloj. Asi pues, hablemos de rendimiento."

De una manera mas confiable, tecnica y analitica, que era lo que se buscaba, era que nos dieramos cuenta de como las velocidades del reloj estaban cayendo. Para evitar confusiones, en el articulo que invito a que lean, a continuacion, explican que no solo cae el crecimiento de las velocidades del reloj. Tambien cae, preocupantemente, el crecimiento del rendimiento en los procesadores. De una manera parecida explican, en
resumen, que el crecimiento de rendimiento entre el pentium de 1.5 a 3.08 fue de un 108%, pero el crecimiento entre el de 3.08 y el de 3.8 fue de apenas un 46%.
Tambien aclaran, muy importante, como intel manipula el SpecInt 2000 y el SpecFP2000 sobrevalorando los datos.

Por ejemplo, muestran, como en el SpecFP le dan demasiada importancia al ancho de banda de la memoria, PERO no toman con la misma escala otros datos tambien muy importantes. Por lo tanto ese crecimiento de rendimiento es aun peor.
Yo tambien quiero recalcar una cosa aparte de este articulo: los precios. Obviamente ellos no se meten con eso, pero miremos los precios:

Cuanto vale un P4 3.08 Ghz: $470,000 (en compugreiff)
Precio de in P4 3.8 Ghz: $1,600,000 (estimado por que aqui no se consigue)

Diferencia porcentual de precio: 240%
Diferencia porcentual de rendimiento: 46%

Diferencia del usuario que piensa que un P4 de 3.0 es superlento con el de 3.8.:no tiene precio.
____________________________

Inmediatamente,hablan de las CAUSAS de esta desaceleracion del rendimiento de los procesadores y mencionan tres puntos primordiales:

1. Total dissipated power (Poder de disipación total)
2. Wire Delay (Demora o lag del "cableado" interno del procesador)
3. "The memory wall" (Yo lo veo como "El eterno problema de ancho de banda entre el procesador y la memoria)

explicando a vuelo de pajaro:

1. EL problema de poder y de calor obviamente esta sujeto a que los procesadores estan Desperdiciando energia. Eso a ellos lo llaman "Leakage Power". Ahora lo que yo entiendo, es que es debido a que se comprimen mas los procesadores, para ahorrar costos en las galletas de silicio. Necesitan mas energia para poder mandar los datos entre los transistores del procesador.
Veamos un ejemplo con un tubo del agua:

Nosotros vamos a mandarle a un cliente unos 10 mt cubicos de agua por segundo (osea 10mt3). Segun nuestros calculos, como es un solo cliente, con un tubo de, digamos, 100 cm de diametro podremos satisfacer esa necesidad, y por lo tanto necesitamos ejercer una precio de agua de alrededor de 50 PSI (osea la presion que debemos de ejercer para que la cantidad de agua que pide el cliente sea cumplida). Como es un tubo no hay problema. Pero que pasa si ya no es 1 cliente, sino 500 clientes que necesitan, sumando a todos, 10 mt3/segundo? Usted dira que cada cliente ya no necesita la tuberia de 100 cms de diametro, sino con un tubo de una pulgada abastece a un cliente pequeño. El problema es que usted tiene que al mismo tiempo, suministrar agua a las 499 familias tambien. Como son tubos mas pequeños, crean mas friccion y presion al sistema General de tuberias. Por lo tanto tiene que AUMENTAR LA PRESION de suministro a nivel exponencial. Si antes para un cliente necesitaba aplicarle 50PSI, al nuevo sistema tiene que aplicarle 500 PSI de presion. osea 10^10, como por dar un ejemplo.

Pasa lo mismo con los procesadores: al disminuir los tamaños a los procesadores tambien tiene que aumentar el voltaje para que la energia llegue a todos los transistores, pero como las pistas (osea el wire) que une a los transistores generan friccion (osea resistencia electrica) hace que se calienten mucho.
y esto lleva a lo que llaman Leakage power y lo explico con el mismo ejemplo:

Como en toda tuberia de agua existen escapes inherentes a la presion que se ejerce sobre la tuberia. Si tomamos a unico cliente, pues como no estamos aplicando tanta presion y es un solo tubo pues podemos revisar muy facilmente que no hayan escapes de agua que hace que se pierda presion. Igualmente si hay un escape o desperdicio, con solo aumentar la presion total del sistema podremos compensar esa perdida.

Pero no pasa lo mismo con los 500 clientes. Fuera de que tenemos que aumentar la presion desmesuradamente en todo el sistema de acueducto, tambien esos 500 tubos van a sufrir algun tipo de desperdicio o escapes. Si muchos tubos (o tuberias) tienen escapes, pues la presion del agua va a descender y tenemos que aumentar la presion aun más para compensar dicha perdida ocasionando que nuestro sistema se sobrecarge aun mas.

Exactamente pasa lo mismo con las cpus: AL haber tantos transistores con sus respectivos gates, esos gates, que ahi explican como funcionan, tambien tienen perdidas de energia. Para poder compensar la perdida de energia para los 25,000,000 de transistores del core de un P4, pues tenemos que aumentar la energia aun mas.
El problema es que la energia o voltaje efectivo ha aumentado linealmente, pero el crecimiento de la energia desperdiciada (LEakage power) aumento geometricamente en estos cuatro años, generando los conocidisimos problemas de temperatura del P4.

2. Wire delay es simplemente demora en los "caminos" de cobre o aluminio que comunican a los transistores entre si. A pesar que los tamaños de los core han ido disminuyendo significativamente, la cantidad de transistores tambien ha crecido mucho aun. Estamos hablando de pasar de 5 o 6 millones de transistores a 25 millones y eso
sin contar con la memoria cache que es mas grande aun. Esto hace que estos caminos hayan aumentando muchisimo mas para poder interconectar semejante cantidad de transistores. Recordemos que los primeros procesadores eran de maximo 2 o 3 layer o capas. Los procesadores modernos son de 7 u 8 capas osea que aumenta mas la distancia entre los transistores. Esto lo podeis ver (suena españolete, cierto) en el articulo que os comento.

3. lo del ancho de banda si no creo que necesite explicacion. A pesar que existe dual channel y todo eso, aun se necesita mas ancho de banda.
 

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
El Mito Del Dual Core!

Bueno no se si esto deberiamos ponerlo en otro foro o dejarlo aqui:
pero es bien importante este analisis de este mismo autor de anandtech:

"ahora bien, el problema de desperdicio (leakage) es, de sobra, el problema mas urgente. Como los margenes de ganancia estan bajando y el costo, en muchos casos, el factor decisivo para los consumidores, sistemas de enfriamiento no son practicos (LEASE BIEN ESTO: si pueden crecer mas pero el problema es el calor!)

En experiencias pasadas se ha mostrado que los procesadores de complex superscalar (ahi pido ayuda a un ingeniero electronico para que nos explique mejor) necesita el doble de los transistores para alcanzar un mejor rendimiento de alrededor de un 40% mas o menos. La conclusion de muchos analistas de la industria e investigadores es que los procesadores de un solo nucleo no tienen futuro (sobre todo los de intel mas adelante explican). Un aporte de Shekhar Borkar, Empleado de Intel, director:

"Multiprocesamiento, en la otra mano, tiene potencial de proveer un rendimiento parecido al procesamiento lineal. DOs procesadores pequeños, a diferencia de un procesador monolitico, pueden potencialmente proveer 70-80% mas rendimiento, comparado a un solo 40% de un gran procesador monolitico"

Notese la palabra "monolitico", una palabra que tiene un manejo peyorativo de intel, que insinua que los actuales procesadores de un nucleo estan basados en la vieja tecnologia. Entonces, basicamente el procesador de un nucleo no tiene futuro por que solo ofrece un crecimiento de rendimiento de un 40%, mientras que doblando la complejidad y el desperdicio, no (Nota del traductor: suena ironico que aumentando la complejidad no se vayan a aumentar los problemas. Por eso la salida del K8 esta demorada.). Esta es la razon por que toda intel dejo de hablar del procesador nunca mas sobre las cpus de 10 Ghz, cambiandola a la "era de Thread Parallelims".

Debe destacarse, sin embargo que el funcionamiento un 40% mejor de la "CPU monolítica" está alcanzado a través de una amplia variedad de usos, sin la necesidad de las optimizaciones de tiempo del software. (dificil de traducir: es como no tener en cuenta las optimizaciones que se han hecho en este tiempo del software desarrollado). La promesa del 70-80% de las CPUs de multiprocesamiento solo puede verse facilmente en un muy reducido rango de aplicaciones (osea, no son para todo el mundo), mientras en las otras aplicaciones se podria ver inversiones exponenciales en el tiempo de desarrollo para alcanzar el mismo crecimiento de rendimiento. (NT: como quien dice, los desarrolladores de software en vez de gastar tiempo optimizando sus programas, como por ejemplo 64 bits, para obtener mas velocidad, tendran que gastar tiempo para adaptar sus programas para multithreading).

Por supuesto, nosotros estamos de acuerdo en que los multiprocesadores tienen beneficios. Es mas facil desactivar totalmente una cpu que manejar el consumo de energia en diferentes partes de una gran cpu.

Y usted puede correr un programa que este compilado para un procesador en la cpu1 y apagar la cpu2. Cuando la cpu1 este muy caliente, usted le puede pasar el trabajo a la cpu2 para que continue el trabajo. Esto da como resultado, que el promedio de temperatura del core de una cpu baje. Tambien el desperdicio (leakage) decrece cuando el nucleo baje la temperatura. Esta tecnica puede reducir en promedio el consumo de energia desperdicio.
Por lo tanto, el objetivo de usar un procesador de doble nucleo es que primariamente reduce el poder de consumo en situaciones donde hay solo aplicaciones pesadas que usen un solo procesador. (!) Esta es probablemente la razon del por que Intel mira con gran futuro los procesadores de doble nucleo en el mercado movil, pero donde este mercado movil (portatiles) sera probablemente el ULTIMO mercado que se beneficiara del poder de doble nucleo. OJO CON LO QUE VOY A TRADUCIR: LA ultima cosa que usted quiere es doblar el poder de disipacion a causa de que usted active los dos nucleos. En nuestra humilde opinion, dual core solo puede ser dual cuando usted no este trabajando con la bateria de su portatil. (!)"
 

ajjulian

Lanero Reconocido
15 Ago 2003
398
-¿realmente la industria del micro se beneficiara sacando solo procesadores con mas cache y mejor arquitectura quedandose con las mismas velocidades de la CPU?
pues como sabemos hay dos formas (basicamente) de mejorar el desempeño de una CPU, aumentando la velocidad a la que funciona(frecuencia) o mejorando la arquitectura.
aunque muchos digan y aleguen que no; pues aumentar la frecuencia de funcionamiento de una CPU es una forma de mejorar su rendimiento, entiendo por que tanta gente dice que el camino de intel es un engaño pero solo en cierta medida; es complicado y peligroso porque se requiere de mucha para poder llevar una CPU a alcanzar altas frecuencias y toparse con un problema definitivo o un limite como le paso a intel con el Presscott (me atrevo a decir que es temporal, mientras se pasa a producirlos a 65nm, pero no se como reorientara intel sus nuevos Procesadores, es decir enfocandolos en que camino) es relativamente facil, es malo en el sentido en que enseña a la gente a fijarse solo en los Mhz (en esa medida es un engaño absoluto) y GRAVE ERROR conlleva entre otras cosas a cierta superficialidad cuando se juzga un micro de estos.
si esto no fuera una forma de mejorar su desempeño pues no deberia haber mucha diferencia entre un PIV a 2.2Ghz y uno a 3.2Ghz (y si que la hay) o no tendriamos Athlon basados en Perfomance Rating (PR) de acuerdo a su desempeño comparativo con los PIV y con un desempeño mas o menos parejo (me voy con la gama A64), claro que esto es mas una medida de mercadeo como consecuencia del enfoque de intel.
la otra forma de mejorar el desempeño de un procesador es optimizando o mejorando su arquitectura, pero esto es "relativo", por ejemplo, esto se logra si las condiciones para las que se optimizo esta arquitectura se pueden dar en la realidad, asi por ejemplo tenemos:
*la Gama A64 presenta un salto hacia adelante notable respecto a la XP, todo a punto de mejoras en la arquitectura (nuevo "bus": HTransport, SSe2 y SSE3, controlador integrado de memoria, 2pipelines mas para poder escalar un poco mas en velocidad principalmente, sistema de prediccion mejoradas, 4Kb como una especie de memoria cache de nivel 0 utilizada para llenar de nuevo los pipelines rapidamente en caso de las "predicciones"fallen,(de este dato no estoy 100% seguro lo pude haber leido mal) y otro monton mas,etc,etc,etc...), pero los A64 no serian los mismos (su reputacion por su desempeño) si el mercado hubiese pasado inmediatametne a DDRII(enormes latencias aunque han mejorado) o quiza Rambus , y si ademas la mayoria de programas hubiesen sido optimisados para Hthreading o si estos micros fueran orientados a edicion donde los PIV son mejores o... bueno ustedes me entienden, pues probablemente AMD lo hubiera solucionad de alguna manera pero les hubiera tomado mas tiempo.
y precisamente esto le paso a INTEL con su Presscott:
el paso de PIII a PIV fuen en comienzo un desastre: la combinacion de poca cache de nivel 2, frecuencias del core bajas, un bus lento (400Mhz), la debil unidad FPU comparada con la del AXP, la falta de Optimizacion para SSE2 y otras cosas hicieron que en comienzo el procesador fuera vencido en casi todas las areas por los XP con PR considerablemente inferiores, precisamente por que la arquitectura de estos precisaba de lo contrario para brillar, pero a medida que escalo fue obteniendo todo lo que le hacia falta y fue adquiriento una perfomance solida.
ahora con el presscott paso algo similar: Intel en su loca carrera de Mhz doto al Presscott de 31 Pipelines Stages (BRUTALMENTE SEGMENTADO, ademas de otras cosas) eso es demasiado, 11 stages mas que el Northwood que ya poseia bastante (20),supuestamente esto le permitiria escalar muchisimo en Frecuencia (hasta los 5Ghz) y el procesador necesitaria de ellas para brillar a plenitud, pero topo con una barrera cuadno paso a 90nm y se vieron un poco encartados y encartados es cierto que no tan marcado como el paso de PIII a PIV, este procesador (Presscott) es solo levemente mas lento que el anterior nucleo (5% en terminos generales aprox y se habian tomado medidas para que eso no sucediera, pues se realizaron multiples mejoras en el nucleo que brillaron poco por entrar a competir directamente con el Northwood a su misma velocidad y no poder escalar mucho mas como era su fin), pero tenia lo suyo para brillar y competir mas fuertemente con los A64 (si hubiera lograba escalar bien y no digo que el Presscott sea para nado malo, es una buena Opcion).
ahora bien estos son dos ejemplos claro de que la velocidad (Mhz) no lo es todo, es cuestion de tomar decisiones acertadas (una acertada: K8 una no acertada:presscott) (y algunas veces arriesgadas) en cuanto a la implementacion de un diseño eficiente en un core.
Creo que mi respuesta es obvia, SI SE PUEDE BENEFICIAR DE UNA MEJOR ARQUITECTURA, CONSIDERANDO UNA MEJOR como ARQUITECTURA AQUELLA QUE ES ADECUADA Y TIENE LOS ELEMENTOS PARA LUCIR SUS MEJORAS (TENEMOS ENTRE NOSOTROS EL MEJOR EJEMPLO:EL K8 ) Y DE MAS CACHE (DEPENDIENTO DE SU USO), PERO LO IDEAL SERIA UN EQUILIBRIO ENTRE UNA BUENA ARQUITECTURA Y ESCALABILIDAD (EN FRECUENCIA).
MI OPINION.
ojala les sea de interes.
Lo siento por extenderme tanto (pero me gusta argumentarme bien) y si en alguna parte me llegue a desviar mucho del tema por favor disculpen.
 

ajjulian

Lanero Reconocido
15 Ago 2003
398
me gustaria saber de donde sacaste esa informacion de que LongHorn necesitara procesadores de 5Ghz o mas para correr y que sean Ghz reales no PR (algun link).
con todo respeto hacia vos (se ve que lees y sabes de lo que hablas), me parece absurdo, primero porque hasta donde se Windows LongHorn se beneficiara en gran media de una tarjeta grafica porderosa, esto es debido a su entorno visual (interfaz), que al parecer vendra con una gran cantidad de visualizaciones y presentacion en pantalla en 3d (no planos como WXP), segundo porque pedir semejante requerimientos a un sistema es igualmente absurdo y exigir un procesador basado solo en su Frecuencia de funcionamiento no es para nado logico,coherente, es ignorante, no se como mas llamarlo.
solo date una vuelta por la pagina de Microsoft y mira las exigencias para por ej: windowsxp64 server 2003 (sale en abril)
minima: Opteron 140(1400Mhz) o P4 3.2Ghz Ht-Xeon 2.8Ghz
recomendada: el mismo Opteron 140 (1400Mhz) o P4 o Xeon 3.6Ghz Ht
imposible compara el desempeño de un A64 a 2.8Ghz con el de un P4 2.8Gh (BRUTAL de diferencia a favor de A64, en la mayoria de aplicaciones)
 

Pikachu_Patapi

Lanero Reconocido
25 Oct 2002
1,664
ajjulian: no ve que estiy como doris (el pez de buscando a nemo)... no me acuerdo...
eso lo lei de algun foro que hacia mension como un boletin de prensa de bill gates o en forum creo que en Comdex o en IDC o algo asi.. pero eso lo dijo bill gates. Me parece que en un foro de laneros hacian mención y mostraban el link. Me acuerdo por que todo el mundo literalmente "chillo" cuando dieron los requerimientos de maquina. Ahora bien, los de redmond estan creando el Sistema proyecto la potencia que "seguramente" estara disponible para esas fechas. Pero microsoft es microsoft. Yo no le creo ni papa en cuando a fechas de lanzamiento. Eso es puro Vaporware para crear espectativa, pero eso a la larga es un engaño. Manipulaciones de microsoft contra linux la verdad. Pero eso es tema de otro costal.
Lo que si se es que, debido a que van a implantar escritorio 3D, parecido al proyecto waterglass de SUN, y me perdonaran si me equivoco de nombre y al nuevo sistema de archivos que va a ser superpesado, todo indica que longhorn sera un consumidor de maquina. Ahora bien, segun se dijo y recuerdo, microsoft daria a los usuarios la "opcion" para que el sistema operativo funcione igual al de win2000, osea sin tantas opciones.. osea en el fondo dejarlo como windows 2000 pero mas caro. Esto para computadores mas lentos, pero ellos no piensan solo en el aspecto tecnico, ellos como siempre piensan en mercadotecnia. el usuario va a decir tengo un computador y que corre longhorn, pero no le puedo sacar provecho al maximo por que mi maquina no aguanta. COMPREMOS una nueva computadora para poder ver el escritorio 3D y usar el sistema guarro de archivos de longhorn que es una berraquera.

Aqui un asunto cultural: los pueblos no tienen memoria. Es muy escasa. Desgraciadamente esta historia se viene dando hace decadas y me consta ya que por lo viejo lo he visto ufff resto.
El motor de impulso de los computadores es microsoft (desgraciadamente). LA teoria de computacion dice que el SOFTWARE debe acomodarse dependiendo del HARDWARE, pero siempre ha sucedido lo contrario. Eso no lo dijo yo. Eso lo dicen muchisisisimos expertos y la verdad de tanto leerlos ya ni me acuerdo. Microsoft crea sistemas mas pesados que lo que puede soportar los sistemas existentes y hace mover a la industria para que los consumidores compren, compren, compren.
un poco de offtopic:

Cuando salio windows para trabajo en grupo (3.11) en ese momento lo que habia eran 286 de 10 mhz, 1 mg de ram y DD de 10 mg. WFW3.11 recomendaban 386SX de 25 mhz, 4 mg de ram y DD de 30 mg. Uno lo podia montar en un 286 pero funcionaba recontralento por que funcionaba en modo real. En el 386 funcionaba en modo extendido pero el 386 era muchisimo mas costoso. En conclusion las ventas de intel se dispararon y si miran los mercados, las acciones subieron muchisimo.$$$$$$$$$$
La misma historia de windows 95. Las maquinas existentes para la mayoria eran los 386 DX 40, con 8 megas y DD de 120Mg. Obviamente windows 95 podia correr en esas maquinas, me acuerdo yo, pero era muy, pero muy lento comparado con windows 3.11. Como la gente queria manejar el nuevo escritorio de windows A PESAR DE QUE NO EXISTIAN APLICACIONES COMPILADAS EN 32 BITS, todo el mundo cambio sus computadores. Era una estupidez: todo el mundo con windows 95 y el Office 4.1 de 16 bits.. era una pendejada. Como era lento la gente compraba 486 DX2/50mhz, 16 mg de ram y DD de 250 Mg. Era obvio que con la maquina nueva windows corriera mas rapido y la gente decia que "que bueno es ese windows 95, le saca el jugo a los 32 bits" y corriendo office de 16 bits. Si seran lentos.
Tambien paso con windows XP: no se acuerdan que cuando salio XP en el 2001 las maquinas que habian eran P3 de 1000 mhz con 64 mg de ram y DD de 5 gb en promedio. Hoy en dia a uno no se le ocurria montar un xp en un equipo asi, cierto?
Aunque microsoft impulsa los mercados, el problema es que dependemos totalmente de microsoft....
 

FroscH

Lanero Reconocido
Lanero VIP
22 Mar 2005
4,383
Muy Buenas Opiniones Para Los Que Saben "y Los Que No Sabemos Mucho De Esto", Cai En Cuenta De Muchas Cosas, Tks, Ahh Y No Opino Por Que Lo Unico Que Se Es Que Mi Athlon Xp 2800+ Me Anda Muy Bien Y Estoy Satisfecho (a Comparacion De Un P4 3200 Presscott De Un Amigo Que Por Mi Parte Creo Que Perdio La Platica Gracias A Superman" Claro Que Como Todos Aca... Quiero Mas"