Tentando respondendo suas perguntas dos minutos 13:27 e 19:14 fiz a seguinte pergunta pro ChatGPT: "Crie uma analogia coerente que explique como gatos auxiliam na fixação do conhecimento e como esse processo de fixação ocorre ao pularmos de paraquedas com gatos nas mãos" E ele respondeu: "Imagine que o conhecimento é um gato. Cada gato é uma peça única de informação. Quando você está aprendendo algo novo, é como se estivesse pegando um gato. Você precisa segurá-lo com firmeza para que ele não escape, mas também com cuidado para não machucá-lo. Isso é semelhante ao processo de aprender e reter informações - você precisa se concentrar e entender completamente a informação para que ela não "escape" da sua memória. Agora, imagine pular de paraquedas com esses gatos nas mãos. O salto de paraquedas é uma experiência intensa e emocionante, assim como o processo de aprendizado pode ser. Quando você está caindo em alta velocidade, segurando seus gatos (ou seja, suas peças de informação), você precisa se concentrar ainda mais para não deixá-los escapar. Isso pode ser comparado ao desafio de reter informações enquanto aprende novos conceitos. No final do salto, quando você pousa em segurança no chão com seus gatos ainda em suas mãos, isso é como ter fixado com sucesso o conhecimento em sua memória. Assim como vocmatou a pauê se lembra da emoção do salto de paraquedas, você também se lembra das informações que aprendeu. Portanto, os gatos são como peças de informação que precisamos segurar firmemente durante a nossa "queda" emocionante no mundo do conhecimento. E assim como precisamos segurar os gatos com firmeza durante um salto de paraquedas para garantir que eles não escapem, também precisamos nos concentrar e entender completamente as informações para garantir que elas sejam retidas em nossa memória." Conclusão (na minha opinião) Sim, o ChatGPT é capaz de generalizar e criar conexões entre conhecimentos distintos, até pq é impossível existir algum texto como esso na internet, no mínimo ele teve que achar algo que se aproximasse do que foi solicitado e trocar as palavras chave pelas da solicitação, lembrando também de ajustar todo texto para fazer, dentro da medida do possível, ele ter algum sentido.
Sem dúvida, concordo com você. Acho que eu poderia ter me expressado melhor no vídeo. Ele tem alguma capacidade de generalização, de fato. ChatGPT produz textos originais com informações restritas a sua base de conhecimento. A dúvida que está em aberto é o tamanho dessa generalização. Qual a profundidade com que pode entender e integrar informações novas?
Permissão para ser chata: não curto muito "memes" em vídeos assim, mas entendo q é um atributo q algumas pessoas gostam e talvez torne o vídeo mais "leve". Então se for colocar e puder ajustar o audio dele ao mesmo nível da sua fala, ficará excelente. Estou gostando bastante dos conteúdos, parabéns
Muito bom o vídeo! Só um ponto: os sons que aparecem no vídeo junto com a chave pix (no momento em que entra e que sai) e outras informações, de like e "increver-se" tira um pouco de atenção do vídeo para quem tem TDAH. Sugestão é diminuir a quantidade de sons ou diminuir o volume do som. Eu, particularmente, demoro uns 15 segundos para voltar à atenção ao vídeo depois do som rs Novamente, parabéns pelo vídeo!
Eu pensei nisso também. Acho que para replicar o experimento mais fielmente deveria ser em inglês. Se o GPT é alimentado por paralvras, então, entendo que o repertório de inglês deve ser diferente do português.
Tive uma experiencia com logica simples da vida real usando o chatgpt 3.5. Perguntei quem era maior a Russia ou America do Sul. A logica basica era ter os dados das areas territorias de um pais e um continente e dizer qual o maior, mas ele criou texto informando que a Russia era o maior pais do planeta, informou a area, depois comentou que a America do Sul, nao era o maior continente e mostra sua area, ai ele conclui que a Russia era maior que a America do sul, so que na propria comparacao era claro que com pouca diferença a America do Sul era maior. Questinei ele ai , pediu desculpas e corrigiu a resposta, ja no Gpt 4.0, ele respondeu de primeira corretamente. Ja em codigos percebi que o Gpt 4.0, é muito melhor, o gpt 3.5 quando erra as8 vezes entra em looping de erro, voce informa ele, mas depois ele comeca repetir os erros.
Legal ver alguém da área que também acompanha o Altay, obrigado pelo conteúdo.
Cara muito obrigado! Vc me introduziu na área! E hoje devo muito a vc!
muito bom mano, continua postando!
adorei seus videos de 2 anos atras deep learning profunda . Poderia fazer outros videos deep learning dessa vez usando PYTORCH
Ótima análise
Valeu pelo vídeo! ❤
Vídeo muito bom professor, eu com certeza verei a parte dois,se houver.
👏
faz a parte 2!!
Tentando respondendo suas perguntas dos minutos 13:27 e 19:14 fiz a seguinte pergunta pro ChatGPT:
"Crie uma analogia coerente que explique como gatos auxiliam na fixação do conhecimento e como esse processo de fixação ocorre ao pularmos de paraquedas com gatos nas mãos"
E ele respondeu:
"Imagine que o conhecimento é um gato. Cada gato é uma peça única de informação. Quando você está aprendendo algo novo, é como se estivesse pegando um gato. Você precisa segurá-lo com firmeza para que ele não escape, mas também com cuidado para não machucá-lo. Isso é semelhante ao processo de aprender e reter informações - você precisa se concentrar e entender completamente a informação para que ela não "escape" da sua memória.
Agora, imagine pular de paraquedas com esses gatos nas mãos. O salto de paraquedas é uma experiência intensa e emocionante, assim como o processo de aprendizado pode ser. Quando você está caindo em alta velocidade, segurando seus gatos (ou seja, suas peças de informação), você precisa se concentrar ainda mais para não deixá-los escapar. Isso pode ser comparado ao desafio de reter informações enquanto aprende novos conceitos.
No final do salto, quando você pousa em segurança no chão com seus gatos ainda em suas mãos, isso é como ter fixado com sucesso o conhecimento em sua memória. Assim como vocmatou a pauê se lembra da emoção do salto de paraquedas, você também se lembra das informações que aprendeu.
Portanto, os gatos são como peças de informação que precisamos segurar firmemente durante a nossa "queda" emocionante no mundo do conhecimento. E assim como precisamos segurar os gatos com firmeza durante um salto de paraquedas para garantir que eles não escapem, também precisamos nos concentrar e entender completamente as informações para garantir que elas sejam retidas em nossa memória."
Conclusão (na minha opinião)
Sim, o ChatGPT é capaz de generalizar e criar conexões entre conhecimentos distintos, até pq é impossível existir algum texto como esso na internet, no mínimo ele teve que achar algo que se aproximasse do que foi solicitado e trocar as palavras chave pelas da solicitação, lembrando também de ajustar todo texto para fazer, dentro da medida do possível, ele ter algum sentido.
Sem dúvida, concordo com você. Acho que eu poderia ter me expressado melhor no vídeo. Ele tem alguma capacidade de generalização, de fato. ChatGPT produz textos originais com informações restritas a sua base de conhecimento.
A dúvida que está em aberto é o tamanho dessa generalização. Qual a profundidade com que pode entender e integrar informações novas?
Parando o TCC para assistir.😅😅
Permissão para ser chata: não curto muito "memes" em vídeos assim, mas entendo q é um atributo q algumas pessoas gostam e talvez torne o vídeo mais "leve". Então se for colocar e puder ajustar o audio dele ao mesmo nível da sua fala, ficará excelente.
Estou gostando bastante dos conteúdos, parabéns
Muito bom o vídeo! Só um ponto: os sons que aparecem no vídeo junto com a chave pix (no momento em que entra e que sai) e outras informações, de like e "increver-se" tira um pouco de atenção do vídeo para quem tem TDAH. Sugestão é diminuir a quantidade de sons ou diminuir o volume do som. Eu, particularmente, demoro uns 15 segundos para voltar à atenção ao vídeo depois do som rs Novamente, parabéns pelo vídeo!
Obrigado pelo feedback! Vou tomar cuidado com isso ao editar os próximos vídeos
Sera que escrever o experimento em inglês ajuda ?
Não sei, mas acho válido fazer esse teste
Eu pensei nisso também. Acho que para replicar o experimento mais fielmente deveria ser em inglês. Se o GPT é alimentado por paralvras, então, entendo que o repertório de inglês deve ser diferente do português.
Tive uma experiencia com logica simples da vida real usando o chatgpt 3.5. Perguntei quem era maior a Russia ou America do Sul. A logica basica era ter os dados das areas territorias de um pais e um continente e dizer qual o maior, mas ele criou texto informando que a Russia era o maior pais do planeta, informou a area, depois comentou que a America do Sul, nao era o maior continente e mostra sua area, ai ele conclui que a Russia era maior que a America do sul, so que na propria comparacao era claro que com pouca diferença a America do Sul era maior. Questinei ele ai , pediu desculpas e corrigiu a resposta, ja no Gpt 4.0, ele respondeu de primeira corretamente. Ja em codigos percebi que o Gpt 4.0, é muito melhor, o gpt 3.5 quando erra as8 vezes entra em looping de erro, voce informa ele, mas depois ele comeca repetir os erros.