یادگیری ماشین (جلسه چهارم) - رگرسیون چند متغیره و چندجمله‌ای

Поделиться
HTML-код
  • Опубликовано: 21 авг 2024

Комментарии • 40

  • @DrNaserRazavi
    @DrNaserRazavi  5 лет назад +3

    - دانلود اسلایدها: www.snrazavi.ir/ml-2018/
    - دانلود کدها و پروژه‌ها: github.com/snrazavi/Machine_Learning_2018

  • @mahdiamrollahi8456
    @mahdiamrollahi8456 3 года назад +5

    آقای دکتر، کلاسهاتون خیلی عالی هستند. مهمترین نکته ای که در آن هست، پیوستگی مطالب آمار و ریاضیات و جبر با یادگیری ماشین است. 🙏

  • @arashkiani336
    @arashkiani336 5 лет назад +5

    ساده، روان و قابل فهم. ممنون جناب دکتر

  • @sadeghsolgi2509
    @sadeghsolgi2509 4 года назад +3

    سبحان الله استاد چه کردی فوق العادس تدریستون ماشالله صد الله اکبر
    خیلی کیف کردم
    جامی است که عقل آفرین میزندش صد بوسه ز مهر بر جبین میزندش
    این کوزه گر دهر چنین جام لطیف می سازد و باز بر زمین میزندش

    • @DrNaserRazavi
      @DrNaserRazavi  4 года назад

      از لطف شما بی‌اندازه سپاسگزارم.

  • @pedram4967
    @pedram4967 5 лет назад +3

    آقای دکتر رضوی تلاش شما در جهت آموزش مباحث هوش مصنوعی و یادگیری ماشین بسیار ستودنی و قابل تقدیر است به عتوان همکار به شما خسته نباشید میگویم.

  • @hadimahmoodi-di6rx
    @hadimahmoodi-di6rx 7 месяцев назад

    it won't get better than this🌹🌹

  • @mnmi3383
    @mnmi3383 3 года назад +3

    با سلام جناب دکتر. بسیار عالی

  • @zohrehkarimi4319
    @zohrehkarimi4319 3 года назад +1

    ای کاش سال 1397 اطلاع داشتم این فیلم ها رو می دیدم. بسیار عالی و روان توضیح داده اید.

  • @alishafie4248
    @alishafie4248 2 года назад +2

    سلام
    سپاس از زحمات شما

  • @saramousavinia2916
    @saramousavinia2916 3 года назад +1

    بسیار عالی بود استاد. خسته نباشین

  • @rezaaghamohammadi1910
    @rezaaghamohammadi1910 Год назад

    پاینده باشین 🙏🙏🙏🙏🙏🙏🙏

  • @avishomali5470
    @avishomali5470 2 года назад

    بسيار عالي. خسته نباشيد

  • @sadrapedram9956
    @sadrapedram9956 4 года назад

    ممنون استاد استفاده کردم بسیار عالی و کارا بود

  • @alisadeghi1370
    @alisadeghi1370 4 года назад

    مرسی کلی

  • @amirhoseinrezaeighadim2007
    @amirhoseinrezaeighadim2007 3 года назад +1

    چقدر سخاوتمند

  • @NarimanDelavary
    @NarimanDelavary 5 лет назад

    ممنون از آموزش های بی نظیری که قرار میدین.لطفا اعلام کنید که جلسه های جدید هر هفته و در چه زمان هایی منتشر می شود ؟

    • @DrNaserRazavi
      @DrNaserRazavi  5 лет назад

      Nariman Delavary با درود و سپاس. تلاش میشه ویدیوهای تدریس شده در هفته در همون هفته در کانال قرار داده بشه ولی زمان دقیق رو نمیشه از قبل تعیین کرد. در ضمن در صورت فشردن دکمه زنگوله به محض قرار دادن یک ویدیوی جدید باخبر خواهید شد. موفق باشید.

  • @pouriaforouzesh5349
    @pouriaforouzesh5349 2 года назад

    👍

  • @mohsenakbari3265
    @mohsenakbari3265 4 года назад

    سلام استاد وقت بخیر خیلی ویدیوهای شما عالیه تو یادگیری ماشین در مورد رگرسیون تصادفی هم بحثی می کنید؟
    چون تو سرفصل ویدیوها که ندیدم

  • @arammohammadi3945
    @arammohammadi3945 11 месяцев назад

    سلام و تقدیم ادب، در بحث نرمال سازی فرض بر این استوار است که ویژگیهای یک ستون خاص دارای خاصیتهای تابع توزیع نرمال است و در واقع به دلیل ویژگیهای بهتر تابع توزیع نرمال استاندارد آن را به بازه منفی یک تا مثبت یک میاوریم. اگر ویژگیهای که در یک ستون خاص قرار میگیرند دارای خاصیت توزیع نرمال نباشند طبیعتا نمیتوان انتظار داشت که بعد از نرمالیزیشن تابع توزیع نرمال استاندارد را در خروجی داشته باشیم، سوال این است که در این حالت بایستی چیکار کنیم؟؟ با سپاس فراوان و چندباره بابت تدریس بینظیرتون. 🙏

  • @maryams9162
    @maryams9162 2 года назад

    سلام وقت بخیر. تشکر بی نهایت بابت محتوای فوق العاده کاربردی و تدریس عالیتون.
    یه سوالی که برای من پیش اومد در زمینه پیدا کردن نقطه مینیمم ، این هست که ما با این فرض میریم که منفی گرادیان در جهت کاهش پیش میره ، مثلا اگر شکل سه بعدی شبیه به زین باشه و در نقطه ای روی زین قرار بگیریم به صورت تصادفی برای پیش روی به سمت نقطه مینیمم با این روش ، دچار لوپ بی نهایت نمیشیم؟
    چون جهت کاهش، جهت متعامد گرادیان هست و نه در خلافش.
    درسته؟

  • @mahsasadeghian9101
    @mahsasadeghian9101 4 года назад

    در مورد رگرسیون خطی یک متغیره فرمودید که شکل تابع هزینه کوژ هست و ما مطمئن هستیم که گرادیان کاهشی بهینه سراسری را میدهد در مورد رگرسیون خطی چند متفیره که مثلا در حالتی که 3 پارامتر داریم شکل تابع هزینه 4 بعدی میشود نمیدانم چه شکلی برای مجموع مربعات خطا می شود اما باز هم مطمئن هستیم که گرادیان کاهشی بهینه سراسری را میدهد

  • @mahdiamrollahi8456
    @mahdiamrollahi8456 Год назад

    با سلام
    چرا در مورد لاجستیک رگرسیون، گفته میشه فرم بسته ریاضی برای آن وجود ندارد؟در مورد معادلات غیرخطی گفته میشه، فرم بسته ی ریاضی برای آنها وجود ندارد، درست است؟

  • @mahdiamrollahi8456
    @mahdiamrollahi8456 3 года назад +1

    با سلام، در مساله رگرسیون خطی، به طور مثال همان مساله قیمت خانه، اگر پارامترهای ما با نمونه هایی با متراژ فرضا ۱۰۰ تا ۱۰۰۰ متر محاسبه شده باشند و سپس ما متراژی خارج از این بازه به آن وارد کنیم( مثلا خانه ۲۰۰۰ متری یا ۵۰ متری)، تا چه اندازه نتیجه ی آن قابل قبول است؟ یا اصلا این کار درست نیست؟ تشکر

    • @DrNaserRazavi
      @DrNaserRazavi  3 года назад +2

      هر قدر از بازه داده‌ها دور بشیم، عدم قطعیت تخمین‌ها بالاتره و معمولا پاسخ رگرسیون در محدوده خارج از داده‌ها قابل اعتنا نیست

    • @mahdiamrollahi8456
      @mahdiamrollahi8456 3 года назад

      @@DrNaserRazavi 🙏🙏

  • @alidaryaei6188
    @alidaryaei6188 3 года назад

    سلام جناب دکتر
    آیا می توان نقطه بهینه را برای دو رگرسیون تعیین کرد؟ اگر میشه چجوری
    ممنون

  • @SHA16x16
    @SHA16x16 3 года назад

    سلام استاد بزرگوار
    در مثال قیمت گذاری خانه که یک ویژگی طول خانه و توان های ۲ و ۳ آن را در نظر گرفتید فرمودید که داده ها حتما باید مقیاس بندی شوند. دلیلش هم واضحه.
    سوالم اینه که در این حالت چون ویژگی ها به هم وابستگی دارند مقیاس بندی به چه صورت شکل میگیره؟

    • @DrNaserRazavi
      @DrNaserRazavi  2 года назад

      Using the same formula for normalisation. I mean subtracting mean and dividing by standard deviation.

  • @plutoexplanet5390
    @plutoexplanet5390 2 года назад

    سلام استاد وقت بخیر
    ترتیب مشاهده پلی لیست ها چیه
    منظورم ویدئو ها نیست
    کدوم پلی لیست رو اول باید ببینیم؟
    ممنون میشم جواب بدید
    با تشکر

    • @mohammadfarahani1607
      @mohammadfarahani1607 2 года назад

      سلام، وقت‌تون بخیر. اگه منظورتون لیست پخش یادگیری ماشین هست که چون مطالب از ابتدا گفته می‌شه نیازی نیست بقیه لیست پخش‌ها رو ببینید. فقط برای یادگیری پایتون پیشنهاد می‌شه ویدیو‌های "کارگاه یادگیری ماشین با پایتون" رو هم ببینید اما بعد از تسلط نسبی به مفاهیم و الگوریتم‌های یادگیری ماشین به نظرم بتونید برید سراغ شبکه‌های عصبی و بعد هم یادگیری عمیق.

  • @amirgh8809
    @amirgh8809 2 года назад

    سلام..اگر مثلا ما پارامتر مون یعنی همون تتا 4تا بود ..حلقه رو گفتید تا جایی ادامه میدیم که گرادیان صفر بشه..منظورتون اینه که برای هر 4تا تتا بطور همزمان صفر بشه؟

    • @DrNaserRazavi
      @DrNaserRazavi  2 года назад

      ایده‌آل این هست که شیب تابع برای هر تعداد پارامتر صفر بشه و این یعنی بهینه محلی پیدا کردیم. ولی در عمل معمولا نزدیک به صفر هم قابل قبول هست

  • @topfiniti686
    @topfiniti686 3 года назад

    سلام وقتتون به خیر امکانش هست لینک تمرین هاتونو در اختیار ما هم بذارید ؟