[머신러닝 강의 16] Logistic Regression - Classification (I)

Поделиться
HTML-код
  • Опубликовано: 24 дек 2024

Комментарии • 27

  • @NeoWizard
    @NeoWizard  5 лет назад +2

    실습예제 GitHub 사이트 : github.com/neowizard2018/neowizard

  • @MIssion-qp1hw
    @MIssion-qp1hw 10 месяцев назад +2

    다시 시작합니다! 24.02.15 늘 감사히 보고 있습니다!

    • @NeoWizard
      @NeoWizard  10 месяцев назад +1

      네 공부하시는데 도움이 되었으면 좋겠습니다 감사합니다

  • @chzidm
    @chzidm 3 года назад

    9:37
    입력값x에 따라 y가 0 또는 1을 갖는것도 이해되고, 이를 활성함수인 시그모이드로 구현하는건 이해되는데, 그 시그모이드 안에 Wx+b를 집어넣는다는건 이해하기 힘듭니다. 학습된 Wx+b 직선을 경계로 한곳은 1, 다른 한곳은 0으로 판정하는것 같은데 이게 수식과 어떤 관계가 있는건가요?

  • @epochmaker81
    @epochmaker81 6 лет назад +2

    강의 잘 듣고 있습니다. 감사합니다. 전체 강의 일정은 어떻게 되나요? 기다리고 있어서요. ^^

    • @NeoWizard
      @NeoWizard  6 лет назад +1

      안녕하세요..우선 강의에 관심을 가져주셔서 감사합니다..
      전체 강의 일정을 간략히 말씀드리면, 2018년 9월 11일 오후에 Logistic Regression (II) 주제로 classification 예제를 올릴예정입니다.
      그리고 차후 일정으로는,
      2018년 9월 15~16일쯤에 XOR 문제를 통한 신경망(Neural Network) 필요성 강의를 올릴예정이며, (AND, OR, NAND, XOR 을 파이썬으로 구현한 예제 포함입니다)
      추석연휴 기간에 Neural Network 개념과 layer를 설명하는 Deep Learning (I) 과 수치미분을 이용하여 MNIST 문제를 풀수 있는 Deep Learning (II) , 그리고 미니배치와 sigmoid 가 아닌 relu 함수를 사용하여 정확도를 높이는 방법을 설명한 Deep Learning (III) 를 올릴예정입니다.
      즉, 추석연휴와 10월 15 일 이전까지 모든 머신러닝 / 딥러닝 강좌를 동영상으로 올릴예정입니다.
      그 후에는 계산그래프를 이용한 오차역전법 강의, 그리고 다양한 DataSet과 딥러닝을 이용한 실전 문제를 파이썬으로 구현한 동영상을 4~5개 올릴예정입니다 (예를 들면 유명한 문제인 보스턴 집 값 예측 문제, 레드와인/화이트와인 구별 문제, 당뇨병 예측 문제, 비올확률 예측 문제 등)
      요약해보면, 전체일정은 10월 15 일 이저까지 Logistic Regression (II), XOR 문제, Deep Learning (I) ~ (III) 강의를 올릴 예정이고, 그 후에는 스팟성으로 실전문제 풀이를 파이썬으로 구현한 강의를 올릴계획입니다.
      이상으로 강의 계획은 모두 말씀드렸습니다. 그럼 수고하시고 언제나 좋은 시간되세요. 감사합니다

    • @epochmaker81
      @epochmaker81 6 лет назад +1

      @@NeoWizard 네네~ 감사합니다.^^ 강의 잘 듣겠습니다. 덕분에 많이 배워갑니다. 복 받으세요~

  • @김보경-j5t2t
    @김보경-j5t2t 4 года назад +1

    질문 있습니다.
    linear Regression으로 최적의 직선을 찾고 딥러닝에서 시그모이드를 이용해 히든 레이어를 추가하여 예측모델을 만들었습니다.
    제 데이터는 선형이 아니고, 인풋값끼리 영향이 있어서 비선형으로 해야 했습니다.(그래서 시그모이드 사용)
    각 레이어마다 시그모이드를 사용했습니다.
    시그모이드는 0과 1사이의 값으로 출력이 되는데,
    이것을 실제 예측한 값으로 보고 싶으면 어떻게 하면 좋을까요?(시그모이드 값 아닌 예측값)
    제 생각에는 출력층에서 시그모이드를 쓰지 않고 matmul의 행렬식만 입력하면 될것이라고 생각했는데,
    그러면 cost 계산 식도 달라져서 궁금합니다.

    • @김보경-j5t2t
      @김보경-j5t2t 4 года назад

      추가적인 코드를 출력층 이후에 입력해 줘야 할까요?

    • @NeoWizard
      @NeoWizard  4 года назад +2

      회귀와 분류 개념이 아직 확실하지 않은것 같습니다. 당연히 정답이 0, 1 이 아니니까 정확도를 측정할수 없고 근사치를 예측해야 합니다. 또한 출력층 출력은 sigmoid 가 아니라 회귀값이고 이때 loss function은 당연히 MSE 입니다...
      그런데 출력층 이후에 코드를 추가한다는 말이 무슨말인가요 ? 딥러닝 아키텍처는 입력 층/ 1개 이상의 은닉층/ 출력층으로 구성되는데 출력층 이후에 코드를 추가한다면 새로운 layer 를 만든다는 소리인데 이건 아키텍처에 대한 기본 개념이 조금 부족한것으로 보입니다. 기본 구조에 대해서 좀더 정확한 이해가 있으면 좋을것 같습니다.

  • @SI-ip9hp
    @SI-ip9hp 5 лет назад +2

    강의 잘 듣고 있습니다. 쉽고 자세한 설명 감사합니다.

    • @NeoWizard
      @NeoWizard  5 лет назад +1

      부족한 강의인데 관심을 가져주셔서 감사합니다..좋은 시간되세요

  • @조서현-i2m
    @조서현-i2m 3 года назад +1

    로지스틱 개념 설명 감사합니다.

  • @vinci4543
    @vinci4543 4 года назад +2

    spam or hamㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 갑자기 훅 들어오시네요ㅋㅋㅋㅋ

  • @user-heedo
    @user-heedo Год назад

    5년이나 지난 영상에 답변이 가능하실지는 모르겠지만 혹시 영상 안의 cross entropy 식이 KL-divergence의 식으로 보이는데 둘의 의미가 거의 비슷하기 때문에 그렇게 설명하신건가요?? 아니면 cross entropy 식이 저렇게 바뀌는 기전이 있는건가요,, 조금 헷갈려서 질문드립니다.

    • @NeoWizard
      @NeoWizard  Год назад +1

      말씀하신대로 의미가 비슷해서 진행한것입니다. 참고하세요

  • @장준영-r3g
    @장준영-r3g 4 года назад +1

    강의 보면서 인공지능 공부중인 학생입니다. 제가 놓친 것 같은데 기억이 나질 않아서 질문드립니다. 마지막에 최소값이 아니면 손실함수 계산 과정을 repeat 한다고 하셨는데, 최소값인지 아닌지는 어떻게 판별하나요? 사용자가 정한, 또는 시스템이 정한 일정 수치 이하로 떨어지면 최소값이라고 간주하는 건가요? // 이전까지는 그냥 정해진 횟수만큼 머신러닝을 돌려서 나온 답을 정답으로 간주하는거라 생각했습니다.

    • @NeoWizard
      @NeoWizard  4 года назад +2

      이론적으로 최소 손실값은 0 이므로 계산된 손실값이 0 근처로 가도록 반복회수를 정합니다. 그런데 반복횟수나 학습율, 그리고 차후 CNN 에서 필터개수, 사이즈 등은 모두 하이퍼 파라미터 (Hyper Parameter) 로서 정해진 규틱은 없이 오로지 개발자의 경험에만 의지하는 값입니다. 즉, 머신러닝에서는 오버피팅 극복과 함께 하이퍼 파라미터를 어떻게 정할것인지가 가장 중요한 이슈입니다. 참고로 제 경험을 바탕으로 해당 데이터에 어떤 하이퍼 파라미터를 주면 최소값 근처로 가는지 알기 때문에 반복횟수와 학습율등을 예제와 같이 주었다고 생각하시면 좋을거 같습니다. 감사합니다

  • @콘충이
    @콘충이 4 года назад +2

    좋은 설명 감사합니다

    • @NeoWizard
      @NeoWizard  4 года назад +1

      강의내용이 학습에 도움이 되셨다니 제가 더 기분이 좋습니다. 감사합니다

  • @Aksidnenjicssd
    @Aksidnenjicssd 4 года назад +1

    초보인데요. 아무리 계산을 위한거라해도 그냥 log를 씌우면 값이 틀려질텐데 문제될 것이 없나요?

    • @NeoWizard
      @NeoWizard  4 года назад +3

      A = B 라고 할때, 3 X A = 3 X B , 3 + A = 3 + B 또는 log A = log B 는 수학적으로 똑같은 개념아닌가요 ? 양변에 동일한 연산자를 적용하는데 문제 될게 아무것도 없습니다. 수학 증명을 할때 가장 일반적인 방법이 분자, 분모에 동일한 수를 곱해주거나 양변에 동일한 연산자를 쓰는 것은 기본입니다. 기하학이나 간단한 대수학 이론을 직접 증명해보면 반드시 동일한 연산작업을 양변에 해야 하는것을 알수 있습니다

    • @Aksidnenjicssd
      @Aksidnenjicssd 4 года назад +1

      @@NeoWizard 아...쉬운 설명 감사합니다!

  • @ju1493
    @ju1493 4 года назад +1

    2020.03. 27
    구독 박고 갑니다! 짱짱

  • @과일장수-g9g
    @과일장수-g9g 4 года назад +1

    설명 진짜 명쾌하시네요. 우리학교 인공지능 교수랑 바뀌었으면 ㅋㅋㅋㅋ 강의 필요할때마다 잘 찾아 들어요~~

    • @NeoWizard
      @NeoWizard  4 года назад +1

      강의가 학습에 조그마한 도움이라도 된다면 저 또한 기쁠것 같습니다. 감사합니다

  • @brunolee2550
    @brunolee2550 Год назад

    2023.05.12