Olvídate de GitHub Copilot: Crea tu propio SUPER COPILOT con Llama 3.1 | Tutorial

Поделиться
HTML-код
  • Опубликовано: 12 сен 2024
  • Hoy te traemos una verdadera revolución en el mundo de la inteligencia artificial: ¡Llama 3.1 ha llegado! 🎉 ¿Listo para conocer cómo este increíble modelo está compitiendo con gigantes como GPT-4o y Claude 3.5 Sonnet? ¡No te lo puedes perder!
    En este video, te mostramos cómo puedes aprovechar el poder de Llama 3.1 para transformar tu programación con copilotos de código y chatbots avanzados. ¡Y lo mejor de todo es que puedes hacerlo sin gastar un solo centavo! 🤑
    🔹 Utiliza Together AI y sus generosos $5 en crédito gratuito para experimentar con el modelo de 405B parámetros.
    🔹 Descubre Groq, una plataforma que te ofrece acceso gratuito a modelos poderosos como el de 70B parámetros.
    🔹 Aloja localmente con Ollama el modelo de 8B para un autocompletado rápido y eficiente.
    No dejes que Github Copilot tenga todo el control. Con estas herramientas, puedes tener el poder en tus manos. Además, te enseñamos a configurar todo paso a paso, desde la descarga de Ollama hasta la integración con la extensión Continue en tu editor de código favorito. ¡Es más fácil de lo que piensas! 😎
    ¡No olvides suscribirte, darle like y compartir este video con tus amigos! 🔔 Mantente al tanto de las últimas novedades en tecnología e inteligencia artificial, y únete a nosotros en esta emocionante aventura. ¡Nos vemos en el próximo video! 🤖💻
    🔗 Enlaces útiles:
    - Ollama: ollama.com/dow...
    - Together AI: api.together.ai/
    - Groq: console.groq.com/
    #llama3 #meta #facebook #copilot #github #ai #inteligenciaartificial #ias #programacion #code #programming #groq #llm #javascript #python #vscode #gratis #tutorial

Комментарии • 26

  • @user-bk4iu8wi7p
    @user-bk4iu8wi7p Месяц назад

    ¡Un gran trabajo! Me encanta la forma en que explicáis conceptos complejos de manera sencilla y atractiva. Estoy aprendiendo mucho con cada vídeo. Gracias por compartir vuestro conocimiento y esfuerzo.

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Hola hermano, me da mucho gusto escuchar eso, justo me esfuerzo y me tardo mucho a veces en crear el guion del video para tratar de explicar lo mejor posible. Comentarios como el tuyo me motivan a seguir esforzándome en traer más contenido de calidad.
      ¡Nuevamente gracias y saludos!

  • @adriintoborf8116
    @adriintoborf8116 Месяц назад +1

    Excelentes, cada vez mas opciones para usar l a IA en todos los ambitos.

  • @y_thedreamer95
    @y_thedreamer95 Месяц назад

    Gracias por hacer estos vídeos, realmente explicas muy bien !!!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Muchas gracias hermano. Siempre intento explicar lo más sencillo posible para que todos puedan ejecutar y utilizar las herramientas que muestro.
      ¡Gracias nuevamente por comentar, saludos!

  • @davideh6251
    @davideh6251 20 дней назад

    Muchisimas gracias por tu trabajo! Tengo una duda, si tengo la api key de groq en Continue, ya no necesito installar Ollama localmente? y el autocompletado tambien puedo poner en modelo que ofrece groq?

    • @Conciencia_Artificial
      @Conciencia_Artificial  15 дней назад

      Hola y muchas gracias a ti por comentar!
      Sobre tus preguntas, si usas Groq, ya no es necesario instalar ollama, ollama solo es para correr modelos locales.
      Y la segunda pregunta, por el momento no es compatible usar los modelos de Groq con el autocompletado, supongo que lo implementaron como una limitación, ya que si permitiera configurar de esa forma, consumiría demasiados tokens.

  • @victorg2020
    @victorg2020 Месяц назад +1

    Gracias por el video, podrias hacer uno explicando como integrar continue de VScode y openrouter para poder elegir con una sola API entre muchos LLM y precios. Gracias

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад +2

      Hola, claro, últimamente eh visto que openrouter se está volviendo muy popular, la traeré al canal, gracias por la recomendación! 👋

  • @8cho_k
    @8cho_k 20 дней назад

    Pregunta, si pago del servicio de together por el de 405b, podría usarlo en autocompletado?

    • @Conciencia_Artificial
      @Conciencia_Artificial  15 дней назад

      Si, pero no es muy recomendable, ya que podrías consumir extremadamente rápido los créditos disponibles (o saldo) que hayas recargado en la cuenta. Mejor intenta optar por modelos muy pequeños para el autocompletado, o modelos locales para dicha función.

  •  27 дней назад

    Si uso grok, no se consume el saldo de los 5usd?

    • @Conciencia_Artificial
      @Conciencia_Artificial  24 дня назад

      Grok es un servicio completamente diferente a lo que se muestra en este video, además supongo que te refieres a que pagas la mensualidad de X (antes Twitter), me parece a ver leído que, si lanzarán un api para Grok, pero aún no está disponible.

    •  24 дня назад

      @@Conciencia_Artificial Me refiero a Groq

  • @EscuchaUnLibro
    @EscuchaUnLibro День назад

  • @marcosgrima2237
    @marcosgrima2237 Месяц назад

    muy bueno el video, una pregunta, cuando acabas una sesión con tu chat en local, a través de la ventana cmd, como tienes que hacer para volver a iniciar sesión? No se si me explico, minuto 3:44 del video, dices para cerrarla /éxit, pues si después apago el ordenador y lo vuelvo a encender como lo abro de nuevo?

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Hola, con el mismo comando que lo descargaste, con ese mismo se ejecuta nuevamente, por ejemplo:
      ollama run llama3.1:8b
      Ollama verifica si ya tienes el modelo instalado y en caso de que si, solo lo ejecuta en lugar de descargarlo

    • @marcosgrima2237
      @marcosgrima2237 Месяц назад

      @@Conciencia_Artificial ok, muchas gracias por tu respuesta y por tu video

  • @edwinamaya6334
    @edwinamaya6334 Месяц назад

    Hola tengo una pregunta
    Si instalo ollama solo sería el de 8B
    Si consigo la api de groq tendría el de 70b
    Si consigo together podría instalar 450 b
    Ósea que si instalo groq no necesito instale localmente nada cierto,

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Afirmativo! Si eliges Groq ya no es necesario local ni together, solo mostré las distintas alternativas que existe para que elijan las que más les conviene y les guste. Saludos! 👋

  • @juanpablo9717
    @juanpablo9717 Месяц назад

    Mcuhas gracias por estos videos tan geniales!
    tengo unas dudas, sabes como aplicar esta IA para generar imagenes de manera local? ya que hasta el momneto solo veo que se puede directamente en Whatsapp o en meta chat pero se debe iniciar sesion con una cuenta de facebook o instagram y no tengo ningina de las 2
    me gustaria poder usar esta herramienta de manera local para generar imagenes sin marca de agua como lo hace whatsapp y ya que cuento con un PC que considero es buen hardware (Ryzen 7 5700x - 32gb RAM - grafica Rc6800) me gustaria probar un modelo potenete de manera local para genenrar imagenes
    Te agradezco algun metodo!

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад +1

      Hola, déjame investigar un poco más sobre esta tarea específica y en cuanto tenga más información te la compartiré. ¡Gracias por comentar!

  • @kaosjimenez3217
    @kaosjimenez3217 Месяц назад

    Genial - Gracias por traernos estos temas - Quería una forma de probar el de - 405 b - ya me diste la respuesta

    • @Conciencia_Artificial
      @Conciencia_Artificial  Месяц назад

      Qué bueno que te ha resultado útil el video. ¡Gracias por comentar!