muchas felicidades en tu nuevo emprendimiento, llevo viendo ya unos 2 meses y eres el mejor canal de IA en espanol, seguiras creciendo por tu contenido de calidad
Muy interesante lo de Nvidia. Mi macmini hace años me costó el doble de esa mini computadora y a dia de hoy no tengo potencia de cálculo para correr IAs locales.
Con mucho respeto, crítica constructiva; para ser un canal de 1 año con este nivel de audiencia no sé si sea rentable una suscripción presunta de 14 euros! Pero si la gente lo paga bueno, adelante. Sigue así! aún sigo sin saber cómo conseguir tu libro de prompting
@Joel-gy6wm sin duda son diferentes . Sin embargo queda la inquietud del desempeño entre este dispositivo y una pc con gpu, quizás en fps que alcanzan en una misma tarea de inferencia
He visto que viene sólo con 8Gb de RAM. No sé qué limitaciones puede implicar. ¿Es posible correr localmente modelos grandes con 70 billones de parámetros o más?
aqui mi newsletter! www.alertaia.com/
muchas felicidades en tu nuevo emprendimiento, llevo viendo ya unos 2 meses y eres el mejor canal de IA en espanol, seguiras creciendo por tu contenido de calidad
No entendí nada, el señor o traductor sufre de atrapamiento al hablar, si lo hace a través de su computadora, algo falla...digo .
tu hermano deja la voz original en inglés q parece q es tartamudo el pive
250$ Y CORRE UN LLM?! INCREIBLE
Pregunta la traduccion es tambien generada por ia?
si, hay ias que haces eso, aunque no son perfectas definitivamente mejorarán
obio, de hecho ahi lo pone abajo Elevenlabs
Que horrible IA que usaron para traducir. Obviamente necesitan esa computadora de IA urgentemente.
No he visto aún el video, pero seguro que no defrauda. Saludos.
Gracias hermosa voz por tus noticias para los que no podemos estar al tanto de tanta info
O para qué sirve
El traductor horrible!! JAJAJAJA
Gracias. El mejor contenido viene de tú mano
Excelente contenido 👌
Gracias por el video.
Esto no ea nada para lo que se vendrá más adelante en el futuro.
el mejor canal de este tipo
Muy interesante lo de Nvidia. Mi macmini hace años me costó el doble de esa mini computadora y a dia de hoy no tengo potencia de cálculo para correr IAs locales.
Con mucho respeto, crítica constructiva; para ser un canal de 1 año con este nivel de audiencia no sé si sea rentable una suscripción presunta de 14 euros! Pero si la gente lo paga bueno, adelante.
Sigue así! aún sigo sin saber cómo conseguir tu libro de prompting
ahora veo que los beneficios para suscriptores son necesarios para mantener el trabajo y avance de la producción de vídeos
Me gusta tu contenido. Saludame v:
No sé si alguien sabe qué rayos es lo que están presentando o el producto que se está mostrando en este video?
Golazo..
Hola. 😊
Saludos!
¿Como comparar el rendimiento de inferencia IA, entre una pc con una GPU RTX 4060TI 8GB vRam y esta Jetson Nano Orin con 70 Tops ?
son cosas diferentes, no hay punto de comparación
@Joel-gy6wm sin duda son diferentes .
Sin embargo queda la inquietud del desempeño entre este dispositivo y una pc con gpu, quizás en fps que alcanzan en una misma tarea de inferencia
Umm tengo dudas de esto
Ya cuando empiezas con esos titulos amarillistas para mi pierdes credibilidad, objetividad, me desuscribo Adios.
He visto que viene sólo con 8Gb de RAM. No sé qué limitaciones puede implicar. ¿Es posible correr localmente modelos grandes con 70 billones de parámetros o más?
claro y de 140 billones
🎉. 🎉🎉🎉🎉?
Tienes que mejorar el doblaje de voz con IA 👎
Mucho humo
Que loco
Humo