aqui meu teste saiu diferente. o gpt conseguiu criar o jogo e movimentar as peças, porem não tinha como acelerar para cair a peça, já no claude os controles não funcionavam. ambos tiveram problema, mas o gpt se saiu melhor.
Como vc acessou o Claude? Eu desenvolvi um trading bot de criptomoedas com o gpt 4o, foi bem difícil, levou uns 5 dias pra chegar em um ponto bom, queria dar sequência no projeto com o Claude 3.5 e ver o que consigo tirar dele
Os números são muito afetados pelo tamanho do dicionário dos modelos, suspeito que o GPT 4o teve o dicionário expandido de maneira sorrateira após o lançamento do llama 3 com 128k de dicionário, o GPT 4 tinha 100k de dicionário, ao usar o tokenizer deles e um por fora do llama 3, em textos que esses 28k a mais faria diferença, atualmente tanto o tokenizer do llama 3 quanto do gpt4 reportam o mesmo numero de tokens, basicamente ambos conseguem representar numero e multi idiomas de maneira mais fidedigna agora.
Em suma, quanto maior o dicionário, melhor o 'entendimento' do modelo de idiomas que não sejam inglês e de símbolos ou números, em geral, além de que cada vez mais tem banco de dados só de matemática sendo usados no fine tuning dos modelos para melhorar o passo a passo que eles seguem ao resolver uma conta, pesquise a diferença de performance matematica do llama 3 - 8b versus os llama 2, o llama 3 - 8b faz 3x mais pontos que o llama 2 - 70b em matemática.
aqui meu teste saiu diferente. o gpt conseguiu criar o jogo e movimentar as peças, porem não tinha como acelerar para cair a peça, já no claude os controles não funcionavam. ambos tiveram problema, mas o gpt se saiu melhor.
Como vc acessou o Claude?
Eu desenvolvi um trading bot de criptomoedas com o gpt 4o, foi bem difícil, levou uns 5 dias pra chegar em um ponto bom, queria dar sequência no projeto com o Claude 3.5 e ver o que consigo tirar dele
talvez com vpn?
Vpn
Poderia nos explicar como usar o api do Claude 3.5?
Os números são muito afetados pelo tamanho do dicionário dos modelos, suspeito que o GPT 4o teve o dicionário expandido de maneira sorrateira após o lançamento do llama 3 com 128k de dicionário, o GPT 4 tinha 100k de dicionário, ao usar o tokenizer deles e um por fora do llama 3, em textos que esses 28k a mais faria diferença, atualmente tanto o tokenizer do llama 3 quanto do gpt4 reportam o mesmo numero de tokens, basicamente ambos conseguem representar numero e multi idiomas de maneira mais fidedigna agora.
Em suma, quanto maior o dicionário, melhor o 'entendimento' do modelo de idiomas que não sejam inglês e de símbolos ou números, em geral, além de que cada vez mais tem banco de dados só de matemática sendo usados no fine tuning dos modelos para melhorar o passo a passo que eles seguem ao resolver uma conta, pesquise a diferença de performance matematica do llama 3 - 8b versus os llama 2, o llama 3 - 8b faz 3x mais pontos que o llama 2 - 70b em matemática.
Cara, na boa, testei esse Claude aí e não gostei, achei limitado, não é ruim, mas não supera chatgpt nem a pau na minha opinião!!
compartilho da sua opinião.
Por que limitado? Limitado em queê, por exemplo?
Em programação achei ele um pouco melhor
Ele explica mais detalhado os códigos
Eu achei superior, se o código for grande e só pedir para continuar