A matemática do Gradiente Descendente & Regressão Linear (machine learning)

Поделиться
HTML-код
  • Опубликовано: 5 ноя 2024

Комментарии • 167

  • @vitorhugo0072
    @vitorhugo0072 5 месяцев назад +10

    Esse é o único curso que eu pagaria se tivesse grana. Verdadeiramente ensina. Fundamentos matemáticos e prática!
    Parabéns cara, continue ensinando dessa forma. Acabou de ganhar um inscrito

  • @MrMacriny
    @MrMacriny 4 года назад +6

    Equação da reta
    Símbolo somatório
    Cálculo (AULA 1): Limite
    Cálculo (AULA 2): Derivada
    Cálculo (AULA 3): Derivadas Parciais
    Cálculo (AULA 4): Máximos e Mínimos de funções, com exemplos
    Precisei ver 6 videos pra chegar nesse, valeu muito.
    Didática muito boa, excelente.

  • @nettoork5216
    @nettoork5216 5 лет назад +67

    Cara, o canal de vocês é muito bom! O meu sonho era achar um canal assim, onde há links de vídeos explicando todos os conceitos da aula, e os vídeos linkados também linkando outros vídeos para entender eles, como se fosse uma árvore de conhecimento. Parabéns!

  • @flavio-php-blumenau
    @flavio-php-blumenau Месяц назад +1

    Primeiramente, gostaria de expressar minha gratidão pela disposição em compartilhar conhecimentos. Em seguida, elogiar o professor pela excelente transmissão do conteúdo. Por fim, apontar um pequeno erro no vídeo que não compromete a compreensão: aos 40 minutos e 13 segundos, o professor utiliza a derivada do custo em relação a b em vez da derivada do custo em relação a m. Mais uma vez, muito obrigado e parabéns.

  • @evertonsp09
    @evertonsp09 4 года назад +23

    Tive diversas aulas sobre assunto, inclusive na fgv. E esse vídeo foi a única maneira que compreendi. Sua didática e muito boa. Parabéns.

  • @GameDevComplete
    @GameDevComplete 4 года назад +4

    Quando o cara realmente domina o assunto é outra coisa viu.... que didática magnífica, não haveria forma de resumir melhor, ainda mais para quem não é da área. Parabéns

  • @phideas8925
    @phideas8925 5 лет назад +21

    Magnífico! Melhor aula de matemática que eu assisti na minha vida, e olha que eu já dediquei muitas horas para assistir vídeo aulas de exatas.

  • @SylviodeCamposOK
    @SylviodeCamposOK 5 лет назад +20

    Cara! De longe, foi a melhor aula / explicação que encontrei no RUclips! Parabéns!!!

  • @andriasmatheus8559
    @andriasmatheus8559 Месяц назад +2

    Excelente o canal de vocês. Parabéns pelo trabalho. Que tenham muito sucesso!

  • @carolenebertoldi279
    @carolenebertoldi279 2 года назад +1

    Uma aula objetiva e precisa. Entendi conceitos, que já tinha visto em outros lugares e não tinha entendido direito, de forma muito clara. Parabéns!!!

  • @paulodedalo218
    @paulodedalo218 11 месяцев назад +1

    Excelente!! A lógica de todos os conteúdos desta série foram estruturadas, facilitando o entendimento. Sem enrolação, no "time" certo. Parabéns!!

  • @joao5858
    @joao5858 4 года назад +1

    Muito obrigado professor, não compreendi 100% dos calculos mas a logica principal compreendi 100%, a descida do gradiente não é nada mais que a tentativa de se aproximar do valor esperado a partir de derivadas. Obrigado

    • @MichelLedig
      @MichelLedig 4 года назад

      Exatamente, também não acompanhei 100% a parte matemática (e nem era meu objetivo) mas assistir o processo que ele usou pra montar as fórmulas esclareceu demais o que acontece por trás dos scripts de regressao linear

  • @AndreSouza-rf2el
    @AndreSouza-rf2el 4 года назад +3

    Agora estou começando a entender a base de como é machine learning, não é muito fácil, mas com suas aulas de matemática tudo esta ficando mais claro, obrigado.

  • @camus6525
    @camus6525 4 года назад +1

    Cara, quase ninguém tem curso voltado pro Pytorch.
    Considere ser um pioneiro aqui no Brasil.

  • @flesker7693
    @flesker7693 Год назад +2

    A melhor didática! Que canal perfeito!

  • @wilianc.b.3065
    @wilianc.b.3065 3 года назад +2

    Muito obrigado ! Após assistir os vídeos, consegui implementar o gradiente descendente e a regressão linear !

  • @rafaelpires9595
    @rafaelpires9595 4 года назад +2

    Parabéns, vc muito didático. Faz jus ao nome do canal. Em todos os vídeos que assisti encontrei a mesma qualidade na explicação. Obrigado pelo conteúdo.

  • @seufagner
    @seufagner 5 лет назад +5

    Melhor explicação que já ouv sobre GD, sem fugir da matemática. Obrigado!

  • @marbellmartinho9637
    @marbellmartinho9637 3 года назад +1

    você é o lider !!! muito obrigado por este video

  • @joaoaraujo7030
    @joaoaraujo7030 4 года назад +2

    Parabéns pela sua didática.. trabalho com regressão desde 1981 e sou engenheiro

  • @andreluispereira7507
    @andreluispereira7507 3 года назад +1

    É de levantar e aplaudir de pé uma aula dessa!

  • @joseclaudiofreitas
    @joseclaudiofreitas 3 года назад

    Em primeiro lugar gostaria de agradecer pela boa vontade em compartilhar conhecimentos. Em segundo elogiar o professor que conseguiu passar o conteúdo muito bem. Finalmente registrar um pequeno equívoco no vídeo que não prejudica o entendimento: aos 40 minutos e 13 segundos o professor usa a derivada do custo em relação a b em vês da derivada do custo em relação a m.
    Mais uma vez muito obrigado e parabéns.

  • @raphaelbonillo2192
    @raphaelbonillo2192 4 года назад

    Regressão linear é fácil de entender. Confesso, porém, que essa função de custo colocou bons obstáculos no caminho. Ótimo vídeo!

  • @danielmarques571
    @danielmarques571 4 года назад +2

    Excelente explicação! Sou enfermeiro e estou no começo de meus estudos em Machine Learning e Inteligência artificial. Achei sua aula muito didática, de modo que estou conseguindo compreender muito melhor os assuntos. Muito obrigado!

  • @andredeoliveira3684
    @andredeoliveira3684 3 года назад +1

    Cara, essa foi uma das melhores aulas que já assisti. Parabéns, continua nessa pegada porque precisamos de mais conteúdos relevantes

  • @gefett
    @gefett 3 года назад +1

    Um dos melhores canais. Aqui dou like antes de começar o vídeo porque já sei que vem coisa boa. 3m 15 aulas tirei duvidas de Matemática que tinha a anos.

  • @gabrielmarques4228
    @gabrielmarques4228 4 года назад +3

    Cara, meus sinceros parabéns. Que aula sensacional! Conseguiu atender muito bem o que se propôs e até superou as expectativas! Ainda não havia assistido nenhuma aula tão boa sobre o assunto.

  • @saposempe
    @saposempe 3 года назад +1

    Que aula incrível, deveria ter muito mais views. Já tive aula na graduação e pós sobre o tema mas nunca nesse nível. Parabéns!

  • @henriquee91
    @henriquee91 4 года назад +2

    Cara, esse video é muito bom, a forma que tu explica realmente faz a diferença. Já vi muitos videos, mas o teu realmente fez a diferença. Obrigado!

  • @Bostathelink
    @Bostathelink 4 года назад +5

    Esplêndido!!! Melhor vídeo aula sobre o tema sem dúvidas!

  • @giselapetroni7027
    @giselapetroni7027 3 года назад +1

    Aula muito boa ... realmente didática é tudo ... vocês são o meu material de apoio. Muito obrigada

  • @Prakistamos
    @Prakistamos 4 года назад +1

    Parabens, você é um verdadeiro didacta. Aprender assim ate parace fantasia

  • @browniemagico5811
    @browniemagico5811 11 месяцев назад

    cara...vc é maravilhos!!! É para louvar de pé! eu ouvi um amém??

  • @jhonatandarochaleao6225
    @jhonatandarochaleao6225 2 года назад +2

    Ótimo canal bem explicado e bem lincado

  • @az.rafaelnascimento
    @az.rafaelnascimento 4 года назад

    Parabéns pela aula! conteúdo bem explicado. Geralmente os conteúdos no RUclips que tentam explicar algo são superficiais. Mas essa sim é uma aula bem fundamentada e bem explicada.

  • @chellytyler26
    @chellytyler26 4 года назад +2

    Nossaaaaaaaaaaaaaaaaaaaaaa como sempre em todos os videos que vc apresenta fiquei de boca aberta. kkkkkkkkkk Ajudou muito no meu curso de pós graduação. Gratidão.

  • @brunadias4950
    @brunadias4950 3 года назад

    MEU DEUS! TÚ MERECE UM PRÊMIO

  • @UendelRocha
    @UendelRocha 2 года назад

    Curso excelente! Continue se aperfeiçoando. Muito obrigado por compartilhar seu conhecimento. Sugestão de marcadores: Board Master recarregáveis da Pilot.

  • @MarcosSantos-tq2ni
    @MarcosSantos-tq2ni 4 года назад

    Cara muito obrigado por investir seu tempo em NÓS.. grande abraço.

  • @rod1rocks2
    @rod1rocks2 Год назад

    Aula muito bem explicada. Parabéns! E ganhou mais um seguidor! Obrigado por compartilhar conhecimento e explicar de forma didática! 👏👏👏

  • @analuciademoraislimalucial6039
    @analuciademoraislimalucial6039 3 года назад

    Obrigada professor por transmitir esse conhecimento de maneira tão linda e simples!!!!!

  • @igorbrenno1459
    @igorbrenno1459 4 месяца назад +1

    O melhor do you tube

  • @renatocardoso8456
    @renatocardoso8456 2 года назад

    Aula excelente em conteúdo e didática. Realmente muito boa
    Mas sugiro refazê-la, devido à forma. Uma aula tão boa não merece sofrer por falta de tinta 😉

  • @canaldesajustado
    @canaldesajustado 5 лет назад +3

    Sensacional, muito obrigado por compartilhar o seu conhecimento.

  • @filipekaizer9760
    @filipekaizer9760 3 года назад

    Muito bom, nunca tinha visto esse uso para a matemática.

  • @kellycarolina5679
    @kellycarolina5679 4 года назад

    Gratidão por todas as aulas, são maravilhosas e com uma didática simples e explicativa.

  • @christian.m6656
    @christian.m6656 3 года назад +1

    Ola, muito obrigado pela explicação! tenho muito interesse nesse assunto e gostei muito da sua didática, Valeu amigo.

  • @ericandersonferreiradossan3925
    @ericandersonferreiradossan3925 2 года назад

    Que curso massa, muito obrigado!

  • @evertoncicerolongobresqui1386
    @evertoncicerolongobresqui1386 4 года назад

    Parabéns aula muito boa, obrigado por compartilhar este conhecimento de forma gratuita.

  • @joaomelques2544
    @joaomelques2544 4 года назад

    Parabéns demais pelas aulas!! Você tem uma didática absurda, MUITO obrigado.

  • @jardelfialho9557
    @jardelfialho9557 4 года назад +1

    Canal excelente, ótima didática!!! Parabéns e muito o brigado!!!!

  • @everton4135
    @everton4135 2 года назад

    Suas aulas são ótimas!

  • @rdg8268
    @rdg8268 4 года назад

    Caraca é o mesmo cara dó descomplicando a música, assim como eu temos duas paixões: música e tecnologia. Parabéns pela iniciativa e pela didática, quando vi que era você já sabia que a exploração ia ser top!

  • @dyegofonseca4275
    @dyegofonseca4275 4 года назад +1

    Olá, a explicação ficou bem bacana! Parabéns! No código: Os valores da derivadam*L e derivadab*L estão somando ao m e ao b. Eles deveriam estar subtraindo para convergir :)

  • @edmilsonsgjk
    @edmilsonsgjk 4 года назад +1

    Parabéns pela aula!! Muito bom o canal, ótima explicação sem slides chatos.

  • @andressaagmm
    @andressaagmm 5 лет назад +1

    As melhores aulas são as suas, muito obrigada! Você tem uma excelente Didática, muito objetivo e simplifica muito os conceitos. Me ajudou muito nos meus estudos.

  • @alaidefarias761
    @alaidefarias761 4 года назад

    Excelente aula! Você conseguiu deixar o assunto bem elucidado.

  • @adrielcabral6634
    @adrielcabral6634 4 года назад +1

    Em relação ao gráfico do erro em função do "m" e "b", vamos pegar como exemplo o "m", no gradiente estocástico é correto afirmar que terá 1 gráfico para cada amostra, tendo em vista que estamos pegando de uma em uma amostra para atualizar o meu "m" e no batch gradiente o gráfico será em relação a todas as amostras, já que ele calcula o erro de todos e depois atualiza o "m". Desculpa se a pergunta ficou um pouco confusa.

    •  4 года назад +1

      Na realidade o gradiente estocástico não pega somente uma amostra, mas um lote de amostras (batch size) para fazer cada atualização. O gradiente descendente não-estocástico pega todas as amostras para fazer cada atualização.

    • @adrielcabral6634
      @adrielcabral6634 4 года назад

      @ Obrigado pela resposta :)

  • @felipebressane3733
    @felipebressane3733 4 года назад +1

    Excelente aula, parabéns!!!

  • @DaflonFernando
    @DaflonFernando 4 года назад +1

    Muito obrigado. Finalmente a ficha caiu.

  • @victorramospereira2474
    @victorramospereira2474 3 года назад +1

    AGORA EU ENTENDI. EU ESTAVA CEGO, MAS AGORA EU VEJO

  • @Uellwar
    @Uellwar 2 года назад

    Super aula! Obrigado 😉
    Agora é fazer muito exercícios pra fixar melhor kkkk

  •  3 года назад +1

    Entendi tudo. Mas, também, com essa didática tem como não entender?

  • @cinthiaandrade9124
    @cinthiaandrade9124 Год назад

    APENAS OBRIGADA!

  • @kennethdeoliveira
    @kennethdeoliveira 5 лет назад +2

    Parabéns, bastante esclarecedor!

  • @paulomathias974
    @paulomathias974 4 года назад +1

    Ótimo vídeo, parabéns pela didática!

  • @venicioassuncao7622
    @venicioassuncao7622 2 года назад

    Parabéns pela excelente explicação, melhor vídeo sobre GD. Estou iniciando em ML e gostaria de pedir um favor: Teria como compartilhar o código e os números que você mostrou no gráfico? Gostaria de aplicar pra consolidar o conhecimento. Obrigado!

  • @AndreLuiz-dz1qk
    @AndreLuiz-dz1qk Год назад

    muito boa a aula, obrigado

  • @holandonhdunto6808
    @holandonhdunto6808 3 года назад +1

    O objetivo principal e somente reduzir o custo, mesmo quando acontece aquele erro que o numero fica gigante, tem que tocar os pesos pra recomeçar ou tem um erro no calculo?

  • @IngenieriaFigata
    @IngenieriaFigata 2 месяца назад

    Excelente metodologia

  • @gtbronks
    @gtbronks 3 года назад

    Excelente vídeo! Parabéns!

  • @ichNicoly
    @ichNicoly 4 года назад +2

    aaaaahh me salvou, melhor explicação.

  • @fabiom.6449
    @fabiom.6449 4 года назад +1

    Obrigado, já tinha estudado tudo isso na facul e em uns 3 cursos diferentes mas essa é a primeira vez que consegui entender. Só fiquei com uma dúvida, como definir as constantes alfa e beta?

    •  4 года назад +2

      Os parâmetros (como o learning rate) vão depender muito do problema em questão, geralmente se procura por tentativa e erro mesmo

  • @jmarcio51
    @jmarcio51 4 года назад

    Parabéns professor, muito boa sua didática.

  • @fabiosousaaguiar
    @fabiosousaaguiar 5 лет назад +1

    Parabéns, me ajudou bastante, continue pf!

  • @endriobarros164
    @endriobarros164 4 года назад +1

    Muito bom amigo!!!!!! Obrigado

  • @pmtxei
    @pmtxei 4 года назад

    Magnífica aula!!!!!!!

  • @vitorromano4555
    @vitorromano4555 4 года назад

    Você poderia explicar o MMQ também? Usando matrizes (álgebra linear)?

  • @alessandromedeiros1424
    @alessandromedeiros1424 Год назад

    O que você me indica como material (livros) para estudar função sigmoide e regressão logística? Parabéns

  • @cristianofroes4681
    @cristianofroes4681 3 года назад

    impressão minha ou sua aula foi baseada na aula do Andrew NG? parabéns pela iniciativa, excelente aula.

    •  3 года назад +1

      Não, na realidade foi mais inspirada em uma aula de Daniel Shiffman

    • @cristianofroes4681
      @cristianofroes4681 3 года назад

      @ Bacana, meus parabéns de todo modo. Espero que não tenha entendido o comentário acima como critica e sim apenas como uma pergunta mesmo.

  • @benzavaleta92
    @benzavaleta92 3 года назад +1

    Na função custo, se é elevado ao quadrado para não ter valores negativos, o erro tambem deveria ser ao quadrado ficando : custo^2 = (reg -y)^2 ??

    • @rodrigosantos8340
      @rodrigosantos8340 3 года назад

      O ideal deveria ter um módulo, já que ele estava somando os erros

  • @lemuelemos1
    @lemuelemos1 4 года назад

    Cara, faz uma aula de filtro de kalman!

  • @OceanAlves23
    @OceanAlves23 5 лет назад +1

    Thanks a lot for explanation, congratulations Big Buddy!

  • @fernandocoelhosaraivanando4522
    @fernandocoelhosaraivanando4522 4 года назад +1

    muito bom!! eu só queria tirar uma dúvida, não sei se vou conseguir me expressar bem, mas é o seguinte: porque é necessário tirar a derivada da função de custo para corrigir o valor de 'm', eu não poderia só fazer a divisão do custo por 'm' e multiplicar pela constante, então corrigir 'm'...?

    •  4 года назад +1

      A derivada da função de custo em relação a m revela a taxa de variação da função em relação a m (isso é útil para atualizar m). Dividir a função de custo por m revela quantas vezes o custo cabe em m (isso não tem muito significado prático para atualizar m).

  • @rafagodofwar
    @rafagodofwar 4 года назад

    ficou bom buscando exatamentoi isso, ciencia de dados, marchine learning

  • @adrielcabral6634
    @adrielcabral6634 4 года назад +1

    Desculpa se essa pergunta for um "tiro na matemática", mas ficou uma coisa na minha cabeça em relação a derivada parcial. Ela nos da a inclinação da reta tangente a curva naquele dado ponto, correto ? Nos queremos que essa inclinação chegue a zero, correto ?, porém e se a função de custo tiver muitos mínimos locais e globais, e muitos máximos locais e globais, ela pode acabar ficando presa em um, por exemplo, máximo local, já que a inclinação é zero ?

    •  4 года назад +1

      Sempre há o risco de ficar preso em um mínimo local em vez de global, é um dos desafios de pesquisa dos métodos atuais de gradiente descendente. Porém não vai ficar preso em pontos de máximo local pois o gradiente caminha na direção de mínimo, não de máximo. Lembre-se que antes de chegar no ponto de derivada=0 existe um processo. Esse processo não anda para cima e sim para baixo

    • @adrielcabral6634
      @adrielcabral6634 4 года назад

      @ entendi, obrigado pela explicação 😀

  • @brunopastorello6038
    @brunopastorello6038 4 года назад +1

    Ótimo video Parabéns e obrigado por compartilhar o conhecimento! Uma duvida com relação ao seu print (codigo python) e ao que foi mostrado na lousa durante aula: No print, m=m + L(d(custo)/dm) e na lousa m=m - L(d(custo)/dm). Tentei reproduzir o algoritmo, usando a formula do print (com "+") e os valores de m e b divergiram. Ai substitui o sinal da formula por "-" , ai sim m e b convergiram. Qual o porquê disso? Depende dos valores do chute inicial convergir ou divergir ou realmente a formula deve ser com "-"?

    •  4 года назад +2

      É com "- " mesmo, mas tem outras questões que fazem convergir ou divergir, como clipping, coisa que não cheguei a abordar nesse vídeo. Desculpe a confusão, abraços

  • @regisalves4012
    @regisalves4012 5 месяцев назад

    Eu sei que vcs vão dar risada do que vou comentar, mas enquanto ele explicava eu ia visualizando mentalmente lembrando do jogo Minecraft. Pra quem nunca jogou uma breve explicação: no jogo existem coordenadas X, Y e Z que representam seu posicionamento no mapa, as vezes para procurar algo vc precisa encontrar a exata posição daquele local colocando os valores exatos de X, Y e Z.
    Estou chocado que inconscientemente eu usava Gradiente Descendente no Minecraft e não sabia!

  • @gabrielbao3563
    @gabrielbao3563 3 года назад +1

    Complemento: Vale lembrar que o Gradiente descendente é recomendado nos casos onde temos muitas dimensões, ou seja, muitas variáveis, no exemplo do vídeo é como se tivéssemos muitas variáveis x_i diferentes e um m_i diferente para cada x_i diferente, ele é muito usado neste contexto por causa que se usarmos o método dos mínimos quadrados para estimar os valores do b, e no caso dos m_i diferentes, igual é utilizado em regressão linear múltipla, acabamos tendo problemas nos casos de muitas dimensões, porque computacionalmente acaba sendo mais custoso e consumindo mais tempo, do que se utilizarmos o gradiente descendente.

  •  3 года назад

    Olá, tudo bem ? Parabéns pelo canal.
    Só uma duvida, para os coeficientes m e b, será que não seria interessante que no chute inicial fosse usado os resultados das estimativas feitas pelos MMQ ? Então para basicamente calcularia os valores de m e b pelo MMQ e usaria eles como primeira aproximação, creio que o algoritmo iria convergir mais rápido para os valores de m e b " ótimos ".

    •  3 года назад

      Nesse caso simples poderia ser utilizado sim, mas quando o gradiente descendente é utilizado em problemas mais complexos como redes neurais, não há como fugir de uma inicialização randômica..

    •  3 года назад

      @ Entendi... uma outra coisa que pensei para uma inicialização mais perto da ótima, seria selecionar dois pontos da base de dados aleatoriamente, no inicio da curva e no final, traçando uma reta entre eles, então como chute inicial usaria os coeficientes da reta que os liga.

  • @adenilsonandrade1140
    @adenilsonandrade1140 3 года назад

    Olha lá, é o cara do Descomplicando a música

  • @eduardoflavio3227
    @eduardoflavio3227 3 года назад

    Muito bom!

  • @MatheusOrnelas777
    @MatheusOrnelas777 3 года назад

    Muito bom brow, fico extremamente agradecido, sucesso o/

  • @igorbrasilico5927
    @igorbrasilico5927 3 года назад

    Essas fórmulas na prática é para ter uma ideia eu acredito. No programa não calcularia automaticamente?
    Mas a didática e boa sim

  • @nataliaresende2741
    @nataliaresende2741 4 года назад

    Ameiiii

  • @luzeniltonjr.4049
    @luzeniltonjr.4049 6 месяцев назад

    Esse cálculo se aproximação tá parecendo o algoritmo PID q usamos pra controle de processos contínuos. Esse “learning rate” lembra a constante proporcional kP

  • @eek778
    @eek778 3 года назад

    Eu gosto de pensar que b, representa o y quando x é igual a zero, ou seja, o ponto inicial da reta

  • @marcioalexandre7610
    @marcioalexandre7610 4 года назад +1

    O conceito ficou bem claro, mas faltaram exemplos numéricos para mostrar como realmente acontece.

  • @LUIZINHOsOwnadores
    @LUIZINHOsOwnadores 3 года назад

    Porque se usa o valor ao quadrado (aumentando assim os maiores erros) do que o módulo do valor?

    • @xdzn3765
      @xdzn3765 2 года назад

      Aquilo ainda não é, mas, recomendo estudar sobre erro quadrático médio, deste modo, vc dá mais ênfase aos maiores erros, pois o mesmo é elevado ao quadrado, assim garantindo um "balanceamento".

  • @laurasimoes3115
    @laurasimoes3115 5 лет назад

    Adorei! Tenho uma duvida: o valor do m e do b tem que ser igual aos coeficientes calculados por Minimos Quadrados Ordinarios?

    •  5 лет назад +1

      Isso, a função de custo (que é a responsável pela otimização do problema) utiliza na maior parte das vezes mínimos quadrados ordinários (como nesse exemplo dessa aula). Mas em alguns algoritmos de machine learning é possível otimizar funções de outras formas, com ligeiras adaptações do OLS. No módulo 1 do nosso curso de machine learning, por exemplo, eu mostro o conceito de regularização, onde a função de custo usa OLS com alguns parâmetros extras