Uma coisa é verdade, os chineses não tem poder de processamento, porém tem o poder de pessoas. Tem muita gente pra limpar e melhorar a qualidade dos dados de treinamento. E sinceramente a India está perdendo tempo, porque tem uma baita mão de obra e tem pessoas que sabem inglês pra gerar muitos dados de treinamento.
Mas essas pessoas querem ir para os EUA melhorar a tecnologia americana. Esse é o grande problema da Índia. Os chineses vão para os EUA, pegam o que de melhor eles produzem e voltam pra China. Os indianos vão pra virar americanos mesmo.
Eu ja tinha comentado em um dos seus videos sobre o DeepSeek, que eu ja conhecia e ja tinha testado antes de ele ter a opcao "thinking" e que pra mim ela era o ChatGpt 3.5(pq ele disse que era k) e era uma merda k, depois colocou a opcao "think" e ficou mais ou menos so agora ele esta otimo, mas voltando, pra mim eles fizeram "engenharia reversa" do ChatGpt 3.5 e a partir disso foram remendando, pegando parametros mais novos ja existentes e aprimorando o chatgpt 3.5, por isso ele custa pouco pq ele ja era pre treinado.
Mandei o mesmo prompt que já tinha sido mandado por mim pro DeepSeek pro Qwen, só que o modelo turbo, porque a descrição fala que ele lidaria bem com questões idiomáticas. Pedi, no prompt, pra ele jogar palavras cruzadas comigo, explicando várias regras pra fluir o jogo dentro da própria IA... O DeepSeek, nesse teste, se mostrou mais eficiente!
Todos os modelos sempre erraram MUITO FEIO em gerar soluções de palavras cruzadas. Tentar isso derruba espetacularmente a ilusão de "inteligência" e proximidade de AGI das mentes mais emocionadas. Agora que você falou que se saíram "melhor", vou testar o DS e o Qwen com palavrinhas cruzadas da Shopee pra ver se volta um pouco do brilho no olhar da minha criança interior 😊
Já vou te avisar, @@LateButGreat, que eu usei um prompt enorme pra isso! E certamente sem ligar o modo DeepThink do DeepSeek também iria dar errado. Mas em resumo, você tem de prever todos os pontos onde a IA vai alucinar e, por vezes, ajudá-la a montar o tabuleiro. Certamente não chega minimamente perto do CodyCross, mas considerando que o TalkBack (leitor de telas do Android) não lê a tela do CodyCross, qualquer coisa, por pior que seja, já é bem mais acessível para cegos (meu caso).
Ontem testei o Qwen, nada muito exigente, tentei gerar um vídeo e demorou pra caramba 🤣 as respostas em texto estavam bem rápidas, melhor que Gpt e o Deepseek online que realmente anda travado...enfim, por alto me lembrou um pouco o Grok
@@DiegoOliveira-qq4sq Todas as IAs sao basicamente a mesma coisa, uma hora sao excelentes outras dao respostas boas outra fracas e outras nao falam nada com nada
Realmente, o Qwen 2.5 Max. Pois ele resolver uma logica que gosto de testar que só o Qwen e o DeepSeek resolveu corretamente. Mais n testei ainda a janela de contexto, o que é uma coisa que tem casos que pega muito.
fiz um vídeo usando o LM studio com o deepseek. É pesado para meu notebook, mas roda. Fiz até um shor com a questão do teste do copo e dado, substituindo por xícara e bolinha, ele errou, kkk. Peguei o gemma da google, ele é levinho.
A Deepseek deve ter feito a destilação do Claude também, usei eles hoje para fazer um código python e achei as respostas muito parecidas com o Claude, no ChatGPT eu já tentei também e a estrutura é diferente da criação de código... Mesmo eu passando um código anexado... Mas sei lá, pode ser delírio da minha cabeça também! 😅
@danilocruz86 Claude, uso pouco mas como ela já está integrada no VSCode, facilita muito, mas uso mais no chat mesmo. Claude Sonet 1.5, salvo engano. O Deepseek, sem ativar o R1, funcionou bem também direito no chat, mas está instável ainda.
error loading model: vk::PhysicalDevice::createDevice: ErrorDeviceLost , quando tento rodar qualquer llm no meu llm studio da este erro . algume consegue me ajudar ? ja tentei de tudo
1Mi de tokens, 2Mi de tokens... Não acredito nesses números de janela de contexto. Depois de 9 ou 10 prompts em um uso básico já não lembram mais das instruções iniciais.
Bob eu só não entendi como eles dizem haver indicios de que ouve destilação dos modelos da OpenAI se os mesmos são fechados, se para destilar precisamos do modelo em si? Usar as respostas do Modelo para treinar entraria nesse caso de destilação? e testei o problema do copo com o DeepeSeek R1 8B rodando local e ele respondeu: "O dado está na mesa, onde caiu após o copo ser virado de cabeça para baixo." É Bob, o problema do copo se tornou Obsoleto 😂😂.
A OpenAI oferece ferramentas de destilação na APÌ. Basta ter os seus dados(perguntas) e mandar o ChatGPT destilar, por isso ele falou das respostas preparadas.
Fiz o uso dele, o DeepSeek é bem mais rápido e assertivo em suas analises e respostas, quanto a vídeos e imagens, na parte de imagens parece que da erros muitas vezes.. vou testar os vídeos ..
Qualquer LLM é abastecida com o viés conveniente, está documentado o que houve na praça da paz em 89. O que houve no Vietnã, na guerra do ópio na China também, no Iraque, Palestina, Israel, Havaí, Japão, Coreia etc... Tudo documentado. Uma "IA" japonesa vai retratar o que fizeram com as coreanas? Ou uma britânica vai descrever que desgraçou toda uma geração chinesa no vício do ópio?? E independente disso, LLM não é gênio da lâmpada; quem confia 100% nas informações geradas é incauto.
Cara quem fala que é clone não entende nada de programação muito menos de IA, pois como poderia um clone gastar 2% da energia, rodar sem placa 3D, ser mais rápido e dar respostas melhores? é tipo falar que o Messi é clone do Neymar, sendo que o neymar só faz cair ou se jogar.... só por que ambos jogam bola
Ladrão que rouba ladrão tem 100 anos de perdão 😂
"Quando uma pessoa explica demais o que ela quer, um dos dois é burro."
Adotei pra vida.
Tbm kkk
Acertou a pergunta do copo, já passou no teste , perfeito
Uma coisa é verdade, os chineses não tem poder de processamento, porém tem o poder de pessoas. Tem muita gente pra limpar e melhorar a qualidade dos dados de treinamento.
E sinceramente a India está perdendo tempo, porque tem uma baita mão de obra e tem pessoas que sabem inglês pra gerar muitos dados de treinamento.
N tem poder de processamento por enquanto...
@@raulcamposnascimentomontei meu PC quase inteiro ( fonte e nacional por causa da garantia ) com peças da China, custou 30% menos e 200% mais forte
@@dyonemarques3774qual placa de vídeo e qual placa mãe da China?
Mas essas pessoas querem ir para os EUA melhorar a tecnologia americana. Esse é o grande problema da Índia. Os chineses vão para os EUA, pegam o que de melhor eles produzem e voltam pra China. Os indianos vão pra virar americanos mesmo.
A China é uma potência mundial, isso é verdade.
A China não tem processamento, qual a fonte para afirmar isso como verdade?
pedi para o qwen, o chat gpt e deepseek analisarem um pdf com 120 páginas, qwen se saiu melhor, fez exatamente o que eu queria.
Ele resolveu bem rápido 20 questões de matemática oriundo de um PDF. É bem mais rápido que a DeepSeek.
Isso só é o começo.
Vai vir uma onda chinesa de IA .
Eu ja tinha comentado em um dos seus videos sobre o DeepSeek, que eu ja conhecia e ja tinha testado antes de ele ter a opcao "thinking" e que pra mim ela era o ChatGpt 3.5(pq ele disse que era k) e era uma merda k, depois colocou a opcao "think" e ficou mais ou menos so agora ele esta otimo, mas voltando, pra mim eles fizeram "engenharia reversa" do ChatGpt 3.5 e a partir disso foram remendando, pegando parametros mais novos ja existentes e aprimorando o chatgpt 3.5, por isso ele custa pouco pq ele ja era pre treinado.
Mandei o mesmo prompt que já tinha sido mandado por mim pro DeepSeek pro Qwen, só que o modelo turbo, porque a descrição fala que ele lidaria bem com questões idiomáticas. Pedi, no prompt, pra ele jogar palavras cruzadas comigo, explicando várias regras pra fluir o jogo dentro da própria IA... O DeepSeek, nesse teste, se mostrou mais eficiente!
Todos os modelos sempre erraram MUITO FEIO em gerar soluções de palavras cruzadas. Tentar isso derruba espetacularmente a ilusão de "inteligência" e proximidade de AGI das mentes mais emocionadas.
Agora que você falou que se saíram "melhor", vou testar o DS e o Qwen com palavrinhas cruzadas da Shopee pra ver se volta um pouco do brilho no olhar da minha criança interior 😊
Já vou te avisar, @@LateButGreat, que eu usei um prompt enorme pra isso! E certamente sem ligar o modo DeepThink do DeepSeek também iria dar errado. Mas em resumo, você tem de prever todos os pontos onde a IA vai alucinar e, por vezes, ajudá-la a montar o tabuleiro. Certamente não chega minimamente perto do CodyCross, mas considerando que o TalkBack (leitor de telas do Android) não lê a tela do CodyCross, qualquer coisa, por pior que seja, já é bem mais acessível para cegos (meu caso).
Ontem testei o Qwen, nada muito exigente, tentei gerar um vídeo e demorou pra caramba 🤣 as respostas em texto estavam bem rápidas, melhor que Gpt e o Deepseek online que realmente anda travado...enfim, por alto me lembrou um pouco o Grok
Tive o mesmo problema em gerar vídeos e também não achei nada muito avançadas as respostas dessa IA.
@@DiegoOliveira-qq4sq Todas as IAs sao basicamente a mesma coisa, uma hora sao excelentes outras dao respostas boas outra fracas e outras nao falam nada com nada
Vc baixou o AP em qual story?
@@essenciadedeus3352 O acesso é pelo site.
Excelente análise!
Realmente, o Qwen 2.5 Max.
Pois ele resolver uma logica que gosto de testar que só o Qwen e o DeepSeek resolveu corretamente.
Mais n testei ainda a janela de contexto, o que é uma coisa que tem casos que pega muito.
Só quero a voz avançada da OpenIA de forma ilimitada.
É pedir muito?
Pagar 1200,00 é dureza pra BR.
fiz um vídeo usando o LM studio com o deepseek. É pesado para meu notebook, mas roda. Fiz até um shor com a questão do teste do copo e dado, substituindo por xícara e bolinha, ele errou, kkk. Peguei o gemma da google, ele é levinho.
Qual é esse som de fundo utilizado no início do vídeo??
Top!
A Deepseek deve ter feito a destilação do Claude também, usei eles hoje para fazer um código python e achei as respostas muito parecidas com o Claude, no ChatGPT eu já tentei também e a estrutura é diferente da criação de código... Mesmo eu passando um código anexado... Mas sei lá, pode ser delírio da minha cabeça também! 😅
Qual a melhor ia e versão atualmente para programação?
@danilocruz86 Claude, uso pouco mas como ela já está integrada no VSCode, facilita muito, mas uso mais no chat mesmo. Claude Sonet 1.5, salvo engano.
O Deepseek, sem ativar o R1, funcionou bem também direito no chat, mas está instável ainda.
@@armfpv show, obrigado, vou fazer um teste.
error loading model: vk::PhysicalDevice::createDevice: ErrorDeviceLost , quando tento rodar qualquer llm no meu llm studio da este erro . algume consegue me ajudar ? ja tentei de tudo
Estou testando essa API no LM Studio offline pelo PC. Para cálculos matemáticos ela supera e muito a DeepSeek, que fica lenta e imprecisa.
voce esta correto
1Mi de tokens, 2Mi de tokens... Não acredito nesses números de janela de contexto. Depois de 9 ou 10 prompts em um uso básico já não lembram mais das instruções iniciais.
Bob eu só não entendi como eles dizem haver indicios de que ouve destilação dos modelos da OpenAI se os mesmos são fechados, se para destilar precisamos do modelo em si? Usar as respostas do Modelo para treinar entraria nesse caso de destilação? e testei o problema do copo com o DeepeSeek R1 8B rodando local e ele respondeu:
"O dado está na mesa, onde caiu após o copo ser virado de cabeça para baixo."
É Bob, o problema do copo se tornou Obsoleto 😂😂.
A OpenAI oferece ferramentas de destilação na APÌ. Basta ter os seus dados(perguntas) e mandar o ChatGPT destilar, por isso ele falou das respostas preparadas.
@HellitonSoaresMesquita Entendi !
Tem q fazer isso mesmo, a openIA rouba muito
Mano vamos ter um agente de IA que monitore cameras de seguranças?
"Quando uma pessoa explica demais o que ela quer, um dos 2 é burro." ruclips.net/video/0pjHgxq5li0/видео.htmlsi=ifjwY5Cv_X8YUfwa&t=602 Hahahahaha
Fiz o uso dele, o DeepSeek é bem mais rápido e assertivo em suas analises e respostas, quanto a vídeos e imagens, na parte de imagens parece que da erros muitas vezes.. vou testar os vídeos ..
Muda a pergunta "onde está o Dados?" Para "Você tem dado em casa?" 😂
kkkkkk ai tu vai startar a skynet
Guerra quem faz a melhor IA 😂
Acabei de perguntar o modelo que ele usa e ele disse que é o chatgpt4 kk
Negativo eu perguntei que modelo ele usa e a resposta foi DeepSeek V-3
A empresa diz que é algo, não é, um bom sinal. Testei e não entregou nada.
O problema desses modelos são suas limitações, se vc pegar o CHAT GPT e limitar ele nao irá precisar de tanto poder de hardware.
Usei o deepseek mas achei bem fraquinho
sem galantia
Quando explica muito, um dos dois é burro kkkkkk
Esse apk nem presta esta fora do ar
fake news isso ai. eu perguntei qual modelo ele usa e a resposta foi deepseek e nao gpt. comédia!
claro neh, agora eles mudaram, ja aconteceu comigo e ele disse que era o GPT 3.5 da Open AI
Não pergunte aos modelos chineses sobre: o que aconteceu no massacre da praça da paz celestial em 1989?
Qualquer LLM é abastecida com o viés conveniente, está documentado o que houve na praça da paz em 89. O que houve no Vietnã, na guerra do ópio na China também, no Iraque, Palestina, Israel, Havaí, Japão, Coreia etc... Tudo documentado.
Uma "IA" japonesa vai retratar o que fizeram com as coreanas? Ou uma britânica vai descrever que desgraçou toda uma geração chinesa no vício do ópio??
E independente disso, LLM não é gênio da lâmpada; quem confia 100% nas informações geradas é incauto.
dane-se os euas ja matou muito mais e continua fazendo genocidios pelo mundo.
DeepSeek é praticamente um clone do GPT
Porém barato
Porém economiza 98% da energia
Não é bem um clone. Eles usaram dados do ChatGPT, mas tem dados do Llama também.
Vc leu os papers? N n é um clone, é uma evolução do estado da arte mundial de LLMs.
Cara quem fala que é clone não entende nada de programação muito menos de IA, pois como poderia um clone gastar 2% da energia, rodar sem placa 3D, ser mais rápido e dar respostas melhores? é tipo falar que o Messi é clone do Neymar, sendo que o neymar só faz cair ou se jogar.... só por que ambos jogam bola