КОМПЬЮТЕР ДЛЯ НЕЙРОСЕТИ | Gretta Ch. // Овсянка 2.0

Поделиться
HTML-код
  • Опубликовано: 4 ноя 2024

Комментарии • 28

  • @Werviop
    @Werviop 4 месяца назад +89

    Мальчики - собирают топовый ПК для игр.
    Мужчины - собирают топовый ПК для виртуальных девочек.

    • @-Egorka-
      @-Egorka- 4 месяца назад +26

      Гигачады - собирают Гигасервер с виртуальными девочками и делают свой гарем.

    • @Joni88211one
      @Joni88211one 4 месяца назад +4

      ​@@-Egorka- Поклонники Тони Старка- Пятница, теперь у тебя есть напечатанное на принтере тело 😁

    • @Kithzer
      @Kithzer 4 месяца назад

      ​@@Joni88211oneА к воскресенью полноценный реактор.

    • @homino2873
      @homino2873 4 месяца назад

      ​@@Joni88211one Был в интернете чувак что делает аниму девочку робота

    • @HARD_WORK965
      @HARD_WORK965 4 месяца назад +1

      Это какой то новый уровень😂

  • @-turtle-600
    @-turtle-600 4 месяца назад +10

    -Хочешь много артов с ней?
    -Ну да, у меня стоит....
    хыы

  • @hghDGfire
    @hghDGfire 4 месяца назад +22

    Жду когда в Рф будут выдавать маткапитал на нейросети. Трудно быть отцом одиночкой).

  • @hghDGfire
    @hghDGfire 4 месяца назад +8

    Друг:для чего ты собираешь пк?
    Я:Комп для виртуальных девочек. Вопросы?

  • @aimeai7206
    @aimeai7206 4 месяца назад +10

    "Мне достаточно стандартного компьютера".
    128 ГБ ОЗУ
    МИНИМУМ 24 ГБ ВП
    Проц с чатотой в 5 ГЦ
    И СВО с экранчиком
    Высокие стандарты хули.

    • @-turtle-600
      @-turtle-600 4 месяца назад +1

      зачем экранчик для военных действий?
      или это для Овсянки?

  • @Oolong_Johnson
    @Oolong_Johnson 4 месяца назад +11

    Кажется Овсянка хочет быть MoE-шкой, кушац много озу, и работать на llamacpp)

    • @Артём-б8т9г
      @Артём-б8т9г 4 месяца назад

      К тому моменту когда гречка купит пк уже выйдет ddr7 так что может даже неплохой вариант

  • @HetShe
    @HetShe 4 месяца назад

    4:58 literally me, когда собрал тестовый гипервизор под задачи vGPU

  • @kommandant_narez4ik
    @kommandant_narez4ik 4 месяца назад +8

    Мем в том, что можно использовать ОЗУ для нейросетей и если иметь большой объем оперативы, то можно хранить нейронки в ОЗУ, а не в VRAM. Правда это станет чуть медленнее, на пару секунд где то.

    • @Артём-б8т9г
      @Артём-б8т9г 4 месяца назад +6

      Разница в скорости огромная, в 10 раз минимум + большие модельки не только больше памяти жрут но они еще и медленее

    • @mrgrd56
      @mrgrd56 Месяц назад

      небольшие модели можно и так запускать, но большие будут достаточно медленно работать (даже с загрузкой половины слоёв в VRAM), если говорить про инференс через llama.cpp. вроде как всё упирается в скорость памяти
      Пример скорости инференса (через Koboldcpp) без GPU, взятый с Реддита:
      (Ryzen 9 7950X3D CPU, 64GB RAM clocked at 6400 MHz)
      Nemomix 0.4 12b (Q8_0): ~14 t/s
      Gemma 2 27b (Q6_K): ~4 t/s
      Llama 3 70b (Q5_K_M): ~1.5 t/s

    • @kommandant_narez4ik
      @kommandant_narez4ik Месяц назад

      @@mrgrd56 Вопрос в другом: Кто использует 27 и 70b на своем ПК? Моя 4070S 13b 12к не вывозит в Q5 (если в видео грузить), хотя мы тут об оперативе говорим... в любом случае такие большие модели для себя никто не использует. 8b и 13b как по мне идеал

    • @mrgrd56
      @mrgrd56 Месяц назад

      ​@@kommandant_narez4ik ну я бы не стал говорить что никто не запускает большие модели локально)
      если зайти на r/LocalLLaMA, там частенько обсуждают локальный запуск ~70B моделей
      если оборудование/бюджет позволяет, почему бы не запускать модели побольше
      более большие модели в любом случае обычно более умные и креативные
      даже одна RTX 3090/4090 со своими 24ГБ сможет запускать Command R (32B) в Q4_K_M c 20К конекста
      ну либо Mistral Nemo 12B в Q8_0 c 46К
      а если две RTX 3090/4090 или вообще P40 (24ГБ) поставить, можно уже и 70B в Q4_K_M запускать (16-18K контекста)

  • @djonsmitt7920
    @djonsmitt7920 4 месяца назад +3

    Нужно запускать сбор донатов овсянке на новый дом на стримах, не ну а почему бы и нет?

  • @pavelsmirnov1645
    @pavelsmirnov1645 3 месяца назад

    Нуу што? Если есть замаскированные Шейхи, вы знаете как безмерно порадовать Овсю и Гречу! 400 к ру6сов и Овсянка выйдет на новый лвл! (может станет меньше ругать Чат...)

  • @fatoldhikki4837
    @fatoldhikki4837 3 месяца назад

    6:40 если она реально сможет обсуждать билды в Геншине и ЗЗЗ, да еще и на инглише, то это реально может стать крутой и хайповой новостью. Да и рубрика оценки акков вроде еще жива. Так что это идея очень прикольная

    • @Kithzer
      @Kithzer 14 дней назад

      Посмотри её старые стримы, где она пиксельная.

  • @homino2873
    @homino2873 4 месяца назад +1

    Дядь, можешь попробовать использовать для fine-tune старые Nvidia tesla, годов эдак 14 - 18 их на Авито можно достать до 15 - 20тыс.
    У них tflops под несколько тысяч и памяти по 20+ гигов.
    Я вот себе под эксперименты с LLM урвал Nvidia tesla k80 на 24гб за 11к

    • @homino2873
      @homino2873 3 месяца назад

      Уточнение. У них могут быть траблы с драйверами, сейчас пытаюсь подружить tesla k80 и rtx 3060, и выходит пока не очень (

  • @lmko
    @lmko 4 месяца назад

    Когда овсянка умнее гречки..

  • @mmx3987
    @mmx3987 3 месяца назад

    а какой у Овсянки комп сейчас?