Inteligencia Artificial

Screenshot_20231106_004547.jpg

Según lo que dice va a ser una IA tonta, me imagino que se la pase haciendo chistes y no de una verdadera solución a cualquier tema, será parcializada y restringida solo a lo que quiera que haga el agringado elon musk
 
  • Triste
Reacciones: Krieg
Nueva advertencia de Elon musk sobre las IA


 
Acabo de probar MacWhisper y es realmente impresionante:

Muy recomendada para todos los que tengan Mac.
 
  • Me gusta
Reacciones: Cacharrin y edmagocha
Acabo de probar MacWhisper y es realmente impresionante:

Muy recomendada para todos los que tengan Mac.

La verdad no entiendo para que me pueda servir esa vaina jaja
 
Última edición:
MacWhisper es una aplicación de voz a texto. Me parece incluso mejor que Dragon NaturallySpeaking.

Por otro lado, ¿recomiendan Ghostwriter o Autopilot para trabajar en word?



Entiendo que hace, pero como profesional de TI, no le veo uso en mi contexto. Mucho menos de ahí a llegar a ser "para todos los que tengan Mac"
 
¿No tienes que escribir documentos en inglés o español en tu trabajo? El dictado te ahorra la fatiga de escribir!! 😅

Soy muy malo para ponerme a hablarle a las computadoras. Creería que por eso mismo no me gustan los asistentes de voz (Siri/Google/Alexa etc)

Acá donde trabajo hay un recurso dedicado sólo a la documentación. Le podría preguntar como lo hace.
 
Hola amigos, estoy entrando a conocer ese mundo, acabe hace poco el siguiente curso de los Andes, muy bueno para personas que estamos entrando en eso, algo academico y saturado jajaja

https://www.coursera.org/learn/introduccion-a-la-inteligencia-artificial-contemporanea

No soy ingeniero, ni programador, soy administrador de empresas, pero me gusto el tema de la ia, estoy haciendo la especialización de la Ibm, en Coursera tambien, de momento esta bueno (se me facilita porque ya habia hecho el curso anterior) esta en inglés y necesita poner uno un poco más de atención


Estaba viendo si me iba por el lado de ser IT Manager o Data Analyst

Algun lanero que ya trabaje de tiempo completo con IA? o que trabaje para empresas que paguen en usd? Muchas gracias

¡Hola! Parece que ya tienes una configuración bastante sólida para empezar a trabajar con IA en tu PC. Actualmente trabajo como desarrollador RPA intentando meterme por los lados en IA y estudio una especialización en inteligencia artificial, quizás mis consejos te puedan ser de utilidad.

Si piensas probar con grandes modelos, ya sean de vision artificial, audio, LLM o en general cualquier modelo entrenado de un dataset muy grande o cualquier modelo de deep learning con pesos y sesgos de gran tamaño, la recomendación clara y estándar siempre va a ser la misma, primero una tarjeta de video teniendo en cuenta como prioridad el siguiente orden:

Nvidia > VRAM > nucleos cuda > nucleos tensor
Completamente descartado AMD por más que tenga ROCm y descartado intel, por más que también tengan intel extension for tensorflow o pytorch , lo seguro es Nvidia.

En cuanto a la memoria RAM, tener grandes cantidades solamente es util cuando tu ejecutas los modelos en CPU, osea haces inferencia de estos directamente en la CPU, que resumiéndolo es hacer uso directamente de un modelo, en este escenario, es válido tener un buen procesador y suficiente memoria RAM para cargar el modelo, pero su inferencia va a ser extremadamente lenta a comparación de cualquier GPU, pero claro es más barato comprar 32GB de memoria ram que una GPU con 32GB de memoria VRAM.

No intentes entrenar modelos pesados en CPU, va a demorar una eternidad.

La memoria RAM Tambien es util cuando tú vas a entrenar un modelo y preparas un dataset especifico para este caso, pero solamente cuando estas manipulando esta data. Cuando realizas el entrenamiento se usa la VRAM de la GPU o la RAM si lo entrenas en CPU, como recomendación tu memoria RAM debe ser ligeramente superior a la VRAM que tenga tu GPU, si tienes más, mejor obviamente.

Como recomendación la RTX 3060 con 12GB de VRAM es perfecta para que puedas comenzar, pero teniendo en cuenta que vas a estar limitado al uso de ciertos modelos, por ejemplo en modelos de lenguaje podrás cargar en el mejor de los casos los de 7B y 13B pero en 4Bit. La RAM puedes dejarla en 32GB por ahora, si vas a aprender a crear tu mismo los modelos y entrenarlos desde 0, a hacerle fine tunning o transfer learning a modelos no muy grandes con el objetivo de aprender, esta GPU va a ser la mejor opción, pero si puedes conseguir una con mas VRAM, el dinero no es un impedimento y te interesa mucho el tema, adelante, pero solo cuando realmente entiendas más del tema y puedas sacarle mejor provecho, ya que siempre puedes hacer uso de google colab pro o el entorno de ejecución de kaggle, obviamente pagando un pequeño precio de suscripción.

En cuanto al disco duro, lo normal es que continuamente estes descargando y eliminando modelos pesados, vas a estar constantemente reescribiendo datos y esto a los SSD no les gusta mucho porque tienen un TBW limitado, pero claro hacer uso de un HDD te va a generar cuello de botella, te recomiendo un SSD sata que no sea tan rápido ya que estos no suelen calentarse mucho y también tienen un TBW mucho mayor a un SSD pci express de gran velocidad.

GGML es una técnica que se utiliza mediante una libreria para entrenar y usar modelos en CPU, pero solamente con procesadores compatibles con las instrucciones AVX o AVX2, tiene bastantes opciones interesantes para reducir el tamaño de los modelos y hacer que funcione un poco más rápido, pero la GPU siempre va a ser mejor, para usar GGML puedes hacer uso de ejecutables que ya están echos con esta técnica y super ajustados para que funcionen bien, o tú mismo cargar un modelo y ajustarlo haciendo uso de GGML, desconozco si esto se pueda usar con pytorch, tensorflow o si directamente sea a bajo nivel en c++.
Gracias por el apunte, vi un video con una opinion similar y estaba a punto de comprarme una intel arc a 750, esta a 199usd - de momento mi aceleradora es la apu del ryzen 5600g


Me tocaria ahorrar más para una 3060 de segunda mano o una 2080ti (aunque consumen bastante jajaja) habia visto una rtx 2060 de 200usd pero es de solo un ventilador, en el mercado de segunda mano las tarjetas estan caras y las nuevas si son de mas de 200usd ya pagan impuesto :(
 
Yo uso ChatGPT Plus, Github Copilot (free) y Cody de Sourcegraph OSS (free).

ChatGPT lo uso para consultas con ejemplos, code reviews, generar test-cases y boilerplate de código repetitivo. Es como un "StackOverflow" + Github on steroids. En mi caso lo veo mas como un junior que sabe muchas cosas de memoria pero "evitativo" y "complaciente", siempre tiende a querer darte la razón (aún cuando no la tengas) y no discutir como lo haría una persona a tu lado.

Copilot es muy bueno autocompletando lineas de código individuales dandole un buen contexto (con el archivo actual y otros archivos relacionados abiertos). Aún le falta poder inferir automaticamente a partir del proyecto actual. Aunque es la herramienta menos poderosa de las que uso es probablemente la que mas trabajo me ahorra en el día a día mientras desarrollo.

Cody es el mejor para discutir, hacer consultas, pedir explicaciones y generar código a partir del contexto del proyecto, al usar un algoritmo parecido al PageRank para detectar archivos relevantes a la consulta y Claude de Anthropic con 100K tokens de contexto[1] (en contraste ChatGPT es ~4K y el default de GPT-4 via API es ~8K) es capaz de incluir mucho contexto dentro de los prompts para obtener muy buenas respuestas a las consultas.

Personalmente me parece que todas son útiles en lo que hacen.

[1] https://www.anthropic.com/index/100k-context-windows

Hoy probé Claude. Esta IA me pareció muy buena para resumir textos y me gusta que siga unos principios éticos. Para quienes no la conozcan, acá hay más detalles:

"Anthropic es una empresa de IA cofundada por antiguos miembros de OpenAI, que destaca por su enfoque en la ética de la IA. Entre los fundadores se encuentran los hermanos Amodei, Dario y Daniela, que formaron parte del proyecto GPT-3 de OpenAI antes de separarse debido a preocupaciones sobre la seguridad de la IA, lo que provocó la creación de Anthropic en 2021".


Aparte, si están usando IA para hacer investigaciones les recomiendo esta app:

 
Última edición:
La ciberdelincuencia esta escalando desmesuradamente este tipo de inteligencia artificial ya no se puede tener a salvo el $ en una aplicación bancaria se deben redoblar las medidas de seguridad en los bancos.

 
Nueva advertencia de Elon musk sobre las IA



Pues ojala Elon tenga razon

El mercado laboral se ha degenerado tanto que lo que existe hoy en dia es una esclavitud disfrazada, con unos salarios que en muchos casos apenas alcanzan para sobrevivir.

Con los avances en robótica e IA se le resuelve el problema tanto a la gente que no le gusta ser explotada laboralmente como a los jefes negreros que quieren ganarsela toda (me imagino que sus productos se los venderán a tambien a robots)

CC_2805771_c0c5954693cd47c4af72ef3052dd9e51_otros_las_mismitas_condiciones.jpg
 
Última edición:

Los últimos temas