Muito bom Rapha! Eu sempre digo que o profissional deve ser adaptável. Principalmente aqueles que trabalham com consultoria para análise de dados e desenvolvimento de BI porquê há no mercado diferentes tipos de ferramentas com preços distintos e clientes com budget bem variantes. Aqui na Europa tenho notado uma grande necessidade de ter experiência com diversas ferramentas. Eu tenho conhecimento avançado com Qlik e PowerBI e gostaria muito de continuar somente com elas, mas felizmente nem tudo é perfeito ou como a gente quer. Já tive que fazer ETL com PDI, SSIS, PL/SQL, T-SQL, PowerBI etc. O que indico é, esteja atualizado nas principais ferramentas e tenha familiaridade com elas. Aplique boas práticas de modelagem em todas que você vai evitar muito retrabalho. Vamo que vamo!
Esequiel Virtuoso, perfeitas colocações! Vejo hoje que muitos profissionais estão se ficando apenas nos macetes de uma determinada ferramenta e esquecem todos os conceitos que envolvem todas as etapas para a construção de um BI. Vamo que vamo!
Video Top, explicou de uma maneira clara e objetiva de como criar a fato e a dimensões no PBI. Conforme mencionado no video, acredito que um video sobre o Integration Service (ETL) vai ser de grande valia para a galera. Abraço
Vídeo Top. Apenas uma observação: No final vc fala que o powerbi é mais performático que os modelos star, snow etc. Porém o resultado de sua modelagem é um modelo star, ou seja não fez muito sentido sua afirmação ^^ . Mais um inscrito. Forte abraço!
Opa, fala Marcos! Tudo certinho? Então, na verdade a ideia é que o power tem uma maior performance usando a metodologia de fatos e dimensões defendida por Ralph Kimball, do que se usado com modelos tabulares ou snowflakes ;) Um forte abraço!!!
Raphael, parabéns pela sua iniciativa, super didático. só fiquei com uma duvida no final voce menciona que esse modelo que voce fez, não é um modelo StarSchema, é isso mesmo ?
Qual o tamanho da sua tabela Crypto Peixoto? Te pergunto isso, pois dependendo da volumetria de dados, o mais indicado seria criar as fatos e dimensões em um DW 👍
Obrigado por me fazer lembrar de estudos de anos atrás mas muito úteis hoje. Só faltou formatar as colunas para o menor tamanho possível. No caso do índice seria melhor formatá-la como texto para o BI não fazer cálculo com ela. Correto?
Fala Gustavo! Obrigado pelo seu comentário! Sobre a sua pergunta, em termos de performance o campo do tipo inteiro irá consumir um número menor de bytes que o texto, o que lhe proporcionará um ganho em questão de performance e tamanho de daraset 👍
@@DevAnalytics fiquei com outra dúvida. No caso da dimensão data não seria melhor criar uma com todas as datas, ex.: Pega a menor data com MIN e a maior com MAX e gera o intervalo. Digo isso, pois se não ocorreu venda no dia 1 e no dia 30 e você tentar filtrar do dia 1 ao 30 por exemplo imagino que não conseguirá, certo? Aproveito para parabenizá-lo por este vídeo, pois a maioria das pessoas nem criam índice para as tabelas.
Essa questão de modelo de fatos e dimensões é tipo as formas normais? As 3 formas normais para normalização de dados ou é algo diferente? Se sim, qual a diferença?
Fala Yanni, tudo certo? Sobre a sua pergunta, embora a modelagem de fatos e dimensões seja uma metodologia para modelagem de dados, de modo que simplifique a vida das análises gráficas, mas sobretudo gere um modelo de dados mais performático dentro das relações que o compõe, ele não seria somente a representação das formas de normalização que conhecemos. Eu diria que existem os conceitos delas na concepção de um modelo de fatos e dimensões, mas não que ele seja uma delas.
Que aula meu amigo !!!!! Eu faço query no banco, e estou sentindo essa questão da concatenação. As vezes a string chave fica meio grande. Então essa é a melhor boa prática pra adotar ?
Exatamente Ederson. Usando chaves únicas, porém do tipo integer incremental, você ajuda a deixar o seu modelo mais performático, uma vez que um inteiro ocupa um menor espaço de bits, se comparado com uma chave do tipo varchar concatenada 👍 Um forte abraço!
Eu apliquei essa técnica num dataset com 300 mil linhas. Percebi que pra fazer a carga das informações demorou muito mais tempo do que seu eu puxasse o "tabelão" somente, sem aplicar a técnica. Será que essa técnica deve ser feita no Power Bi somente para dataset pequenos?
Fui obrigado a criar 5 tabelas fatos, dividas por ano, consequentemente, para cada uma fato terá 8 dimensões, como unir essas dimensões para utilizar na segmentações de dados ?
Muito obrigado Ronie! Muito boa a sua pergunta! Sobre as datas, devemos manter um certo cuidado com elas, pois dependendo de como são seus formatos (integer, timestamp, string) podemos ter uma inflação do nosso modelo de dados. Como o objetivo era ter um tunning de todo o dataset, criar chaves sequenciais são mais eficientes que o campo data em sí, uma vez que um inteiro possuí um número menor de bits que um timestamp por exemplo ;)
Olá Raaphael, muito boa sua explicação, obrigado, gostei muito. Tenho uma dúvida em um comentário seu nesse vídeo, você diz que esse modelo é melhor que um star schema, não entendi. O modelo fato e dimensões não é star schema? Estou iniciando nessa área, poderiam me sanar essa dúvida? whatsapp 11967836427 Parabéns pelos seus vídeos.
Tutorial incrível! Me facilitou demais a entender alguns conceitos/teorias. Vlw demais!
Muitíssimo obrigado, Leandro!
Bom demais saber que você curtiu o conteúdo aqui do canal!
Um forte abraço!
Bom de mais Raphael.
Tirou algumas dúvidas que tinha sobre trabalhar com tabelas Fatos e Dimensões.
Que bom que este conteúdo lhe foi útil, Edmilson!
Um forte abraço!
Excelente vídeo. Parabéns!!!
Muitíssimo obrigado, Samuel!
👍🏻👍🏻👍🏻
util sempre!!!!!...parabens
Muitíssimo obrigado, Cláudio!!!
Parabéns parceiro
Estou começando com o BI, e posso lhe afirmar que você salvou minha pele.
Muito obrigado pela super dica.
abs.
Maury Melo
Muito bom o material, me ajudou e muito. Se possível grave mais vídeos pois sua didática e conhecimentos são incríveis. Gratidão.
muito bom valeu !!!
Sua didatica e excelente
Muito obrigado, Roberto!
Muito bom Rapha!
Eu sempre digo que o profissional deve ser adaptável. Principalmente aqueles que trabalham com consultoria para análise de dados e desenvolvimento de BI porquê há no mercado diferentes tipos de ferramentas com preços distintos e clientes com budget bem variantes.
Aqui na Europa tenho notado uma grande necessidade de ter experiência com diversas ferramentas.
Eu tenho conhecimento avançado com Qlik e PowerBI e gostaria muito de continuar somente com elas, mas felizmente nem tudo é perfeito ou como a gente quer. Já tive que fazer ETL com PDI, SSIS, PL/SQL, T-SQL, PowerBI etc.
O que indico é, esteja atualizado nas principais ferramentas e tenha familiaridade com elas. Aplique boas práticas de modelagem em todas que você vai evitar muito retrabalho.
Vamo que vamo!
Esequiel Virtuoso, perfeitas colocações!
Vejo hoje que muitos profissionais estão se ficando apenas nos macetes de uma determinada ferramenta e esquecem todos os conceitos que envolvem todas as etapas para a construção de um BI.
Vamo que vamo!
Video Top, explicou de uma maneira clara e objetiva de como criar a fato e a dimensões no PBI.
Conforme mencionado no video, acredito que um video sobre o Integration Service (ETL) vai ser de grande valia para a galera.
Abraço
Robson Nascimento, fique tranquilo que está programado uma série sobre ETL com SSIS 👊👊👊
Show
excelente didática.
Esse vídeo salvou a minha vida kkkkk
Muito bom esse vídeo, uma dica preciosa
Top
Me ajudou a entender de vez... Muito obrigado!
Thiago Martins, fico muito grato em saber que o conteúdo deste canal está ajudando pessoas como vc, que estão buscando conhecimento!
Um forte abraço!
Excelente dicas.
A que mais me ajudou foi o Merge para pk
Como sempre trazendo conhecimento de extrema importância para quem tem interesse no pbi. 👏🏼👏🏼👏🏼👏🏼
Muito obrigado, Paulo!!!
tmj 👊
Amei o vídeo! Aprendi muito! Obrigada! =]
Ao utilizar a opção de duplicar, se houver o acréscimo de dados na fato, será atualizado a dimensão ?
Vídeo Top. Apenas uma observação: No final vc fala que o powerbi é mais performático que os modelos star, snow etc. Porém o resultado de sua modelagem é um modelo star, ou seja não fez muito sentido sua afirmação ^^ . Mais um inscrito. Forte abraço!
Opa, fala Marcos! Tudo certinho?
Então, na verdade a ideia é que o power tem uma maior performance usando a metodologia de fatos e dimensões defendida por Ralph Kimball, do que se usado com modelos tabulares ou snowflakes ;)
Um forte abraço!!!
Olá.. bacana a aula, mas.. porque vc tirou a base de dados, o arquivo da aula?
Muito obrigado pelo comentário, Marcia!
Sobre o arquivo, irei verificar o que aconteceu.
Raphael, parabéns pela sua iniciativa, super didático. só fiquei com uma duvida no final voce menciona que esse modelo que voce fez, não é um modelo StarSchema, é isso mesmo ?
O meu fica infinitamente carregando após clicar em salvar, que triste aff
Qual o tamanho da sua tabela Crypto Peixoto?
Te pergunto isso, pois dependendo da volumetria de dados, o mais indicado seria criar as fatos e dimensões em um DW 👍
Obrigado por me fazer lembrar de estudos de anos atrás mas muito úteis hoje. Só faltou formatar as colunas para o menor tamanho possível. No caso do índice seria melhor formatá-la como texto para o BI não fazer cálculo com ela. Correto?
Fala Gustavo!
Obrigado pelo seu comentário!
Sobre a sua pergunta, em termos de performance o campo do tipo inteiro irá consumir um número menor de bytes que o texto, o que lhe proporcionará um ganho em questão de performance e tamanho de daraset 👍
@@DevAnalytics fiquei com outra dúvida. No caso da dimensão data não seria melhor criar uma com todas as datas, ex.: Pega a menor data com MIN e a maior com MAX e gera o intervalo. Digo isso, pois se não ocorreu venda no dia 1 e no dia 30 e você tentar filtrar do dia 1 ao 30 por exemplo imagino que não conseguirá, certo? Aproveito para parabenizá-lo por este vídeo, pois a maioria das pessoas nem criam índice para as tabelas.
Essa questão de modelo de fatos e dimensões é tipo as formas normais? As 3 formas normais para normalização de dados ou é algo diferente?
Se sim, qual a diferença?
Fala Yanni, tudo certo?
Sobre a sua pergunta, embora a modelagem de fatos e dimensões seja uma metodologia para modelagem de dados, de modo que simplifique a vida das análises gráficas, mas sobretudo gere um modelo de dados mais performático dentro das relações que o compõe, ele não seria somente a representação das formas de normalização que conhecemos. Eu diria que existem os conceitos delas na concepção de um modelo de fatos e dimensões, mas não que ele seja uma delas.
Sensacional!!!! Teria algum exemplo de Modelo com mais de uma FATO?
Olá Márcia!
Não temos ainda, mas é um bom tema para outro vídeo 👍👍👍
Que aula meu amigo !!!!!
Eu faço query no banco, e estou sentindo essa questão da concatenação. As vezes a string chave fica meio grande.
Então essa é a melhor boa prática pra adotar ?
Exatamente Ederson. Usando chaves únicas, porém do tipo integer incremental, você ajuda a deixar o seu modelo mais performático, uma vez que um inteiro ocupa um menor espaço de bits, se comparado com uma chave do tipo varchar concatenada 👍
Um forte abraço!
@@DevAnalytics Essa e a Surrogate key ? ou o conceito do Surrogate é qdo o modelo do DW já está nesse formato ?
Exato, Ederson!
Ela é justamente uma Surrogate Key 👍👍👍
💪🏻👩💻
Eu apliquei essa técnica num dataset com 300 mil linhas. Percebi que pra fazer a carga das informações demorou muito mais tempo do que seu eu puxasse o "tabelão" somente, sem aplicar a técnica. Será que essa técnica deve ser feita no Power Bi somente para dataset pequenos?
Raphael, sensacionalllll este vídeo.
Uma dúvida, como transformar o campo de Preço em $ sem dar erro?
Mais uma vez, parabéns pelo conteúdo.
Obrigado.
Faz uma playlist sequeciada para iniciantes.
Edson Xavier, já estou preparando um material para iniciantes. Ative o sininho para receber as notificações e acompanhe o canal 😉
Um forte abraço 👍
Fui obrigado a criar 5 tabelas fatos, dividas por ano, consequentemente, para cada uma fato terá 8 dimensões, como unir essas dimensões para utilizar na segmentações de dados ?
parabéns, good job !
só não entendi criar a data com pk já que havia retirado as duplicidades, mas legal o tunning feito !
abs
Muito obrigado Ronie!
Muito boa a sua pergunta!
Sobre as datas, devemos manter um certo cuidado com elas, pois dependendo de como são seus formatos (integer, timestamp, string) podemos ter uma inflação do nosso modelo de dados.
Como o objetivo era ter um tunning de todo o dataset, criar chaves sequenciais são mais eficientes que o campo data em sí, uma vez que um inteiro possuí um número menor de bits que um timestamp por exemplo ;)
Olá Raaphael, muito boa sua explicação, obrigado, gostei muito.
Tenho uma dúvida em um comentário seu nesse vídeo, você diz que esse modelo é melhor que um star schema, não entendi.
O modelo fato e dimensões não é star schema?
Estou iniciando nessa área, poderiam me sanar essa dúvida?
whatsapp 11967836427
Parabéns pelos seus vídeos.