Olvídate de GitHub Copilot: Crea tu propio SUPER COPILOT con Llama 3.1 | Tutorial
HTML-код
- Опубликовано: 12 сен 2024
- Hoy te traemos una verdadera revolución en el mundo de la inteligencia artificial: ¡Llama 3.1 ha llegado! 🎉 ¿Listo para conocer cómo este increíble modelo está compitiendo con gigantes como GPT-4o y Claude 3.5 Sonnet? ¡No te lo puedes perder!
En este video, te mostramos cómo puedes aprovechar el poder de Llama 3.1 para transformar tu programación con copilotos de código y chatbots avanzados. ¡Y lo mejor de todo es que puedes hacerlo sin gastar un solo centavo! 🤑
🔹 Utiliza Together AI y sus generosos $5 en crédito gratuito para experimentar con el modelo de 405B parámetros.
🔹 Descubre Groq, una plataforma que te ofrece acceso gratuito a modelos poderosos como el de 70B parámetros.
🔹 Aloja localmente con Ollama el modelo de 8B para un autocompletado rápido y eficiente.
No dejes que Github Copilot tenga todo el control. Con estas herramientas, puedes tener el poder en tus manos. Además, te enseñamos a configurar todo paso a paso, desde la descarga de Ollama hasta la integración con la extensión Continue en tu editor de código favorito. ¡Es más fácil de lo que piensas! 😎
¡No olvides suscribirte, darle like y compartir este video con tus amigos! 🔔 Mantente al tanto de las últimas novedades en tecnología e inteligencia artificial, y únete a nosotros en esta emocionante aventura. ¡Nos vemos en el próximo video! 🤖💻
🔗 Enlaces útiles:
- Ollama: ollama.com/dow...
- Together AI: api.together.ai/
- Groq: console.groq.com/
#llama3 #meta #facebook #copilot #github #ai #inteligenciaartificial #ias #programacion #code #programming #groq #llm #javascript #python #vscode #gratis #tutorial
¡Un gran trabajo! Me encanta la forma en que explicáis conceptos complejos de manera sencilla y atractiva. Estoy aprendiendo mucho con cada vídeo. Gracias por compartir vuestro conocimiento y esfuerzo.
Hola hermano, me da mucho gusto escuchar eso, justo me esfuerzo y me tardo mucho a veces en crear el guion del video para tratar de explicar lo mejor posible. Comentarios como el tuyo me motivan a seguir esforzándome en traer más contenido de calidad.
¡Nuevamente gracias y saludos!
Excelentes, cada vez mas opciones para usar l a IA en todos los ambitos.
Gracias a ti por apoyar y comentar! 👋
Gracias por hacer estos vídeos, realmente explicas muy bien !!!
Muchas gracias hermano. Siempre intento explicar lo más sencillo posible para que todos puedan ejecutar y utilizar las herramientas que muestro.
¡Gracias nuevamente por comentar, saludos!
Muchisimas gracias por tu trabajo! Tengo una duda, si tengo la api key de groq en Continue, ya no necesito installar Ollama localmente? y el autocompletado tambien puedo poner en modelo que ofrece groq?
Hola y muchas gracias a ti por comentar!
Sobre tus preguntas, si usas Groq, ya no es necesario instalar ollama, ollama solo es para correr modelos locales.
Y la segunda pregunta, por el momento no es compatible usar los modelos de Groq con el autocompletado, supongo que lo implementaron como una limitación, ya que si permitiera configurar de esa forma, consumiría demasiados tokens.
Gracias por el video, podrias hacer uno explicando como integrar continue de VScode y openrouter para poder elegir con una sola API entre muchos LLM y precios. Gracias
Hola, claro, últimamente eh visto que openrouter se está volviendo muy popular, la traeré al canal, gracias por la recomendación! 👋
Pregunta, si pago del servicio de together por el de 405b, podría usarlo en autocompletado?
Si, pero no es muy recomendable, ya que podrías consumir extremadamente rápido los créditos disponibles (o saldo) que hayas recargado en la cuenta. Mejor intenta optar por modelos muy pequeños para el autocompletado, o modelos locales para dicha función.
Si uso grok, no se consume el saldo de los 5usd?
Grok es un servicio completamente diferente a lo que se muestra en este video, además supongo que te refieres a que pagas la mensualidad de X (antes Twitter), me parece a ver leído que, si lanzarán un api para Grok, pero aún no está disponible.
@@Conciencia_Artificial Me refiero a Groq
👋🫂
muy bueno el video, una pregunta, cuando acabas una sesión con tu chat en local, a través de la ventana cmd, como tienes que hacer para volver a iniciar sesión? No se si me explico, minuto 3:44 del video, dices para cerrarla /éxit, pues si después apago el ordenador y lo vuelvo a encender como lo abro de nuevo?
Hola, con el mismo comando que lo descargaste, con ese mismo se ejecuta nuevamente, por ejemplo:
ollama run llama3.1:8b
Ollama verifica si ya tienes el modelo instalado y en caso de que si, solo lo ejecuta en lugar de descargarlo
@@Conciencia_Artificial ok, muchas gracias por tu respuesta y por tu video
Hola tengo una pregunta
Si instalo ollama solo sería el de 8B
Si consigo la api de groq tendría el de 70b
Si consigo together podría instalar 450 b
Ósea que si instalo groq no necesito instale localmente nada cierto,
Afirmativo! Si eliges Groq ya no es necesario local ni together, solo mostré las distintas alternativas que existe para que elijan las que más les conviene y les guste. Saludos! 👋
Mcuhas gracias por estos videos tan geniales!
tengo unas dudas, sabes como aplicar esta IA para generar imagenes de manera local? ya que hasta el momneto solo veo que se puede directamente en Whatsapp o en meta chat pero se debe iniciar sesion con una cuenta de facebook o instagram y no tengo ningina de las 2
me gustaria poder usar esta herramienta de manera local para generar imagenes sin marca de agua como lo hace whatsapp y ya que cuento con un PC que considero es buen hardware (Ryzen 7 5700x - 32gb RAM - grafica Rc6800) me gustaria probar un modelo potenete de manera local para genenrar imagenes
Te agradezco algun metodo!
Hola, déjame investigar un poco más sobre esta tarea específica y en cuanto tenga más información te la compartiré. ¡Gracias por comentar!
Genial - Gracias por traernos estos temas - Quería una forma de probar el de - 405 b - ya me diste la respuesta
Qué bueno que te ha resultado útil el video. ¡Gracias por comentar!