10 millones de dólares: La ayuda de Elon Musk para evitar a Skynet

457285670.jpg


Elon Musk no tiene problemas en decir que teme la inteligencia artificial. Lo ha confirmado en otras ocasiones, y ahora vuelve a la carga con intenciones de poner freno a los peligros que podría deparar el futuro. Para ello ha donado 10 millones de dólares al Future of Life Institute, un programa de investigación que se centra en mantener una Inteligencia Artificial "beneficiosa" para la humanidad. Y beneficioso significa asegurarse de que los ordenadores del futuro realmente sepan escucharnos y confíen en nuestras decisiones una vez que nos hayan superado en inteligencia, en lugar de decidir por ellos mismos y rechazarnos por considerarnos "inútiles".

Musk no es el único que piensa así. Stephen Hawking también ha dejado claro que está aterrorizado de la revolución de la Inteligencia Artificial, al mismo tiempo que FLI ha conseguido bastantes apoyos de otros muchos científicos para firmar una carta abierta pidiendo el control de una IA beneficiosa. "Esta donación hará un gran impacto", dijo en un comunicado Anthony Aguirre, profesor de la UCSC y cofundador de FLI, añadiendo que si bien las grandes industrias y las inversiones del gobierno han traído por fin una Inteligencia Artificial fuera de los nichos de investigaciones académicas, ahora esta inversión permitirá ayudar a asegurar que esta adaptación se haga de manera positiva para la humanidad.


Fuente
 
Personalmente no entiendo la posición ni la oposición. Históricamente hablando la ciencia ficción ha sido una especie de profeta que ha dicho (exacta o inexactamente depende de como lo vean) el futuro del desarrollo tecnológico. Pero pues si nos vamos a lo básico no necesariamente se deben cometer los mismos errores que se mostraron en estas "profecías" y acabar creando skynet (lógicamente sería muy probable que las máquinas al tener poder sobre la humanidad querrían controlarla o eliminarla) tampoco es necesario utilizar las tres leyes de la robótica al pie de la letra.

A lo que quiero llegar es que son son los mismos desarrolladores de la tecnología los que deciden que hacer con ella o que quieren lograr con ella, de ellos al final dependerá el futuro de desarrollo de esa misma tecnología no creen?
 
  • Me gusta
Reacciones: JhonMC
... (lógicamente sería muy probable que las máquinas al tener poder sobre la humanidad querrían controlarla o eliminarla)...

Siempre he diferido de este pensamiento. La necesidad de controlar o eliminar a otro ente o ser vivo solo por ser "superior" no proviene de mentes inteligentes. Por el contrario, está arraigada en instintos y sentimientos bajos propios de algunos seres vivos del reino animal, incluyendo al hombre.
 
Siempre he diferido de este pensamiento. La necesidad de controlar o eliminar a otro ente o ser vivo solo por ser "superior" no proviene de mentes inteligentes. Por el contrario, está arraigada en instintos y sentimientos bajos propios de algunos seres vivos del reino animal, incluyendo al hombre.
Pero la razon siempre apuntara a la supervivencia y si el hombre representa un riesgo para su existencia lo mas logico seria defenderse.
 
que los ordenadores del futuro realmente sepan escucharnos y confíen en nuestras decisiones una vez que nos hayan superado en inteligencia,
Jajaja....peor la cosa..
 
A lo que quiero llegar es que son son los mismos desarrolladores de la tecnología los que deciden que hacer con ella o que quieren lograr con ella, de ellos al final dependerá el futuro de desarrollo de esa misma tecnología no creen?

no no creoo,..,es que ese es el problema , cuando la IA ya supere la Inteligencia humana , los humanos no son los que desarrollaran la tecnologia y el poder de decision humano no contaria mucho.

Aqui el problema es que la evolucion humana es muy lenta y torpeee .,.,.,la escala de la IA seria mucho mayor y esa es la preocupacion de los genios que saben del tema a profundidad y se preocupan por esto,,..,.,

Como yo lo veo la unica forma de no quedar de segundas como especie ineligente dominante es volvernos cyborgs.
 
Siempre he diferido de este pensamiento. La necesidad de controlar o eliminar a otro ente o ser vivo solo por ser "superior" no proviene de mentes inteligentes. Por el contrario, está arraigada en instintos y sentimientos bajos propios de algunos seres vivos del reino animal, incluyendo al hombre.
Todo lo contrario. Su planteamiento es muy antropocéntrico, creo que aparte del hombre ningún otro animal controla o elimina al otro por la necesidad de ser "superior".
 
Lo llevan a un extremo inncesario. Máquinas inteligentes, no matarían a su creador, lo esclavizarían "por su propio bien". (el humano y el de las máquinas). Luego "lo mejorarían" (a través de la experimentación genética), para finalmente "evolucionarlo", que sería la integración ya mencionada hombre-máquina. O aún mejor, animal-hombre-máquina :p

Claro, son especulaciones, de pronto las máquinas sí deciden que los humanos son una plaga y la única manera de salvar el planeta es sacrificando a los seres racionales, para terminar en un autosacrificio, porque el destino de las máquinas sin los humanos, pierde el sentido. Y dejar que la evolución tradicional a travéz de los años le haga el reboot al mundo, y gobiernen los delfines, lol :p:p:p


Tony.
 
  • Me gusta
Reacciones: p3loso
Lo llevan a un extremo inncesario. Máquinas inteligentes, no matarían a su creador, lo esclavizarían "por su propio bien". (el humano y el de las máquinas). Luego "lo mejorarían" (a través de la experimentación genética), para finalmente "evolucionarlo", que sería la integración ya mencionada hombre-máquina. O aún mejor, animal-hombre-máquina :p

Claro, son especulaciones, de pronto las máquinas sí deciden que los humanos son una plaga y la única manera de salvar el planeta es sacrificando a los seres racionales, para terminar en un autosacrificio, porque el destino de las máquinas sin los humanos, pierde el sentido. Y dejar que la evolución tradicional a travéz de los años le haga el reboot al mundo, y gobiernen los delfines, lol :p:p:p


Tony.
Hombre con maquina, maquina con maquina, hombre con hombre, de la misma forma y en sentido contrario... igual estamos jodidos
 
  • Me gusta
Reacciones: p3loso
Einstein escribió: "No sé con qué armas se peleará la tercera guerra mundial, pero sí sé con qué armas se peleará la cuarta: con arcos y flechas."
 
Todo lo contrario. Su planteamiento es muy antropocéntrico, creo que aparte del hombre ningún otro animal controla o elimina al otro por la necesidad de ser "superior".
¿Bueno y qué me dices de los animales que luchan e incluso asesinan a un contrincante para lograr ser el macho alfa de la comunidad? Esta lucha es motivada por el instinto que es una de las razones que mencionaba en el anterior mensaje. Así mismo ocurre con el ser humano.

La posición que quiero dejar clara es que en mi opinión, una máquina podrá llegar a ser todo lo inteligente y racional que uno se pueda imaginar, pero jamás creo llegue a desarrollar los sentimientos o instintos que manejamos los animales racionales e irracionales. Por lo tanto no creo que lleguen a acabar con la especie humana solamente por sentirse superiores.
 
¿Bueno y qué me dices de los animales que luchan e incluso asesinan a un contrincante para lograr ser el macho alfa de la comunidad? Esta lucha es motivada por el instinto que es una de las razones que mencionaba en el anterior mensaje. Así mismo ocurre con el ser humano.
No lo hacen por la necesidad de ser "superior". Allí esta lo antropocéntrico de su planteamiento.
 
  • Me gusta
Reacciones: TukSor
Es que si nos ponemos a ver el resultado de la ciencia ficción (a diferencia del hombre bicentenario) es casi siempre el mismo, y un Lanero ya le mencionó mas arriba, al ver que la evolución humana es mas lenta y por ende son mas torpes que ellos, pues la especie dominante empezará a dominar y por lo tanto a controlar el ambiente. No mas que pensaría una IA un poquito mas inteligente cuando entienda que la humanidad lo único que ha logrado es destruir el planeta, una solución lógica es hacerse con el control global sobre los humanos y evitar que se hagan daño. Pa la muestra un botón "Transcendence" y eso no va en contra de las 3 leyes, al contrario se podría entender como una expresión de ellas a escala global.
 
  • Me gusta
Reacciones: efmmjps
La ciencia ficción no es solo literatura barata como algunos creen. Parte de lo que se ha escrito se ha adelantado a la realidad en varias ocasiones. Los seres humanos son animales muy complejos. Uno ve cosas hermosas y espantosas a pesar de tantos avances cientificos. Es natural que tengamos miedo de la inteligencia artificial al fin y al cabo esta basado partiendo de nuestra forma de pensar. En cierta forma en ese tipo de inteligencia esta concentrado gran parte de lo que somos. Me parece maravilloso que existan personas que estén previniendo una posible extinción del primate ser humano. Nunca he creido que se es "paranoico" por tratar de prevenir alguna calamidad con referente a un avance tecnológico tan importante.
 
no no creoo,..,es que ese es el problema , cuando la IA ya supere la Inteligencia humana , los humanos no son los que desarrollaran la tecnologia y el poder de decision humano no contaria mucho.

Aqui el problema es que la evolucion humana es muy lenta y torpeee .,.,.,la escala de la IA seria mucho mayor y esa es la preocupacion de los genios que saben del tema a profundidad y se preocupan por esto,,..,.,

Como yo lo veo la unica forma de no quedar de segundas como especie ineligente dominante es volvernos cyborgs.

¿Sarah Connor?
 

Los últimos temas