I.T.
I.T.
  • Видео 157
  • Просмотров 112 472

Видео

[나를힘들게하는전공지식] (오토마타) NPDA에서 CFG 만들기
Просмотров 7421 день назад
- 오토마타 이론 - Non-deterministic push-down automata 로부터 context-free grammar 만들기
[개발] 프로그래밍언어의 Class 개념 잡기
Просмотров 8428 дней назад
- C , Java, Python 등의 객체지향언어 - Class 개념 이해해보기
[인공지능,머신러닝,딥러닝] (심화) 언어모델의 개성이 강해지면 불량해지는 거 아니려나?
Просмотров 142Месяц назад
- Language model personality - Personality and Safety
[인공지능,머신러닝,딥러닝] (심화) From Role Play to Drama Interaction: An LLM Solution
Просмотров 91Месяц назад
- 드라마에 등장인물로 들어가기 - ACL 2024
[인공지능,머신러닝,딥러닝] (심화) Llama-adapter (코드로 분석해보는)
Просмотров 1232 месяца назад
- LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention (ICLR 2024) - Code of Llama adapter 1 & 2
[파이썬] python 3.13 - Free-threaded, JIT
Просмотров 2862 месяца назад
- 2024년 10월 파이썬 3.13 Release 간략한 소개
[인공지능,머신러닝,딥러닝] (심화) LLM 자동 코딩을 위한 temperature sampling
Просмотров 4063 месяца назад
- AAAI 2024 - Hot or Cold? Adaptive Temperature Sampling for Code Generation with Large Language Models
[파이썬] f-string의 따옴표 걱정이 사라졌다.
Просмотров 983 месяца назад
- python 3.12.5 release (2024년 8월)
[인공지능,머신러닝,딥러닝] (심화) 언어모델의 Multi-linguality가 항상 좋은 것만은 아니다
Просмотров 893 месяца назад
- When Is Multilinguality a Curse? - Language Modeling for 250 High- and Low-Resource Languages
[인공지능,머신러닝,딥러닝] (심화) MobileLLM
Просмотров 2544 месяца назад
- ICML 2024, MobileLLM, Meta
[인공지능,머신러닝,딥러닝] (심화) Sigmoid Loss for Language Image Pre Training (ICCV 2023)
Просмотров 864 месяца назад
- 멀티모달(multi-modal) pre-training 을 위한 sigmoid loss - ICCV 2023
[응답하라0x07CF] 서비스 종료(2024. 10)하는 천리안을 추억하며 - PC통신 및 MUD게임
Просмотров 735 месяцев назад
- PC 통신 (하이텔, 천리안 등) - MUD 게임
[인공지능,머신러닝,딥러닝] (심화) LLM vs Small model - 개성 예측하기
Просмотров 3395 месяцев назад
- LLM vs Small Model? Large Language Model Based Text Augmentation Enhanced Personality Detection Model - 나의 성격, 개성을 알아내는 기법 - AAAI 2024
[인공지능,머신러닝,딥러닝] (심화) FLIRT - Text to Image 생성AI를 위한 Red Teaming 자동화
Просмотров 796 месяцев назад
- Text-to-Image 생성형 모델을 위한 Red Teaming 기법 - Stable diffusion model
[인공지능,머신러닝,딥러닝] (심화) ChipNeMo - NVIDIA의 Domain Adapted LLM
Просмотров 9296 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) ChipNeMo - NVIDIA의 Domain Adapted LLM
[파이썬] 문자열 맨 뒤의 줄바꿈 문자 제거하기 시합
Просмотров 727 месяцев назад
[파이썬] 문자열 맨 뒤의 줄바꿈 문자 제거하기 시합
[인공지능,머신러닝,딥러닝] (심화) Llama 3의 Cyber-security benchmark: CyberSecEval 2
Просмотров 1777 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Llama 3의 Cyber-security benchmark: CyberSecEval 2
[인공지능,머신러닝,딥러닝] (심화) DoReMi
Просмотров 1457 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) DoReMi
컴퓨터공학도가 바라보는 AI가 가져올 가까운 미래와 먼 미래
Просмотров 1898 месяцев назад
컴퓨터공학도가 바라보는 AI가 가져올 가까운 미래와 먼 미래
[인공지능,머신러닝,딥러닝] (심화) Direct preference optimization (DPO)
Просмотров 1,6 тыс.8 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Direct preference optimization (DPO)
[인공지능,머신러닝,딥러닝] (기초) 디버깅으로 코드 이해하기
Просмотров 7349 месяцев назад
[인공지능,머신러닝,딥러닝] (기초) 디버깅으로 코드 이해하기
[인공지능,머신러닝,딥러닝] (심화) LLM leaderboard 성능은 의미있다 or 없다
Просмотров 4659 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) LLM leaderboard 성능은 의미있다 or 없다
[응답하라0x07CF] GW-Basic
Просмотров 9910 месяцев назад
[응답하라0x07CF] GW-Basic
[인공지능,머신러닝,딥러닝] (심화) Evaluating and Inducing Personality in Pre-trained Language Models
Просмотров 20910 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Evaluating and Inducing Personality in Pre-trained Language Models
[파이썬] unittest, 그리고 coverage
Просмотров 44011 месяцев назад
[파이썬] unittest, 그리고 coverage
[pinecone] Filtering with Metadata
Просмотров 19511 месяцев назад
[pinecone] Filtering with Metadata
[인공지능,머신러닝,딥러닝] (심화) A Vocabulary Free Multilingual Neural Tokenizer for End to End Task Learning
Просмотров 22311 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) A Vocabulary Free Multilingual Neural Tokenizer for End to End Task Learning
[파이썬] if 조건문 "and" 키워드 사용하면 속도저하 유발할까?
Просмотров 649Год назад
[파이썬] if 조건문 "and" 키워드 사용하면 속도저하 유발할까?
[인공지능,머신러닝,딥러닝] (심화) LLaVA - Visual Instruction Tuning
Просмотров 1,5 тыс.Год назад
[인공지능,머신러닝,딥러닝] (심화) LLaVA - Visual Instruction Tuning

Комментарии

  • @sinabro7
    @sinabro7 День назад

    고맙습니다.

  • @KimGeek
    @KimGeek Месяц назад

    감사합니다 교수님. 오토마타 수강 중인 백하준 학생입니다. 시간내어 꼭 끝까지 보겠습니다. 딥러닝에 관심이 많아서 예전부터 공부 중이었습니다.

  • @김상우입새
    @김상우입새 Месяц назад

    랩실 주간학습자료 공유가 떠오르네요 감사합니다

  • @아이스크림과냉면
    @아이스크림과냉면 Месяц назад

    너무 감사합니다. 너무 깔끔하게 다 알아갑니다.

  • @이석현-n8q
    @이석현-n8q 2 месяца назад

    이렇게 좋은 강의가 있다니... 비전공자이지만 트랜스포머 모델을 활용하는 입장에서 많은 도움 되었습니다. 스윈 트랜스포머나 convnext 강의도 있으면 좋겠어요~^^

  • @HiBye-xf8rp
    @HiBye-xf8rp 2 месяца назад

    항상 잘 보고 있습니다. 감사합니다!

  • @domybest6703
    @domybest6703 2 месяца назад

    강의 정말 잘 들었습니다. 한 가지 더 말씀드리자면 인공지능쪽 강의는 이미 너무 레드오션이 심하니 이런 파이썬 관련 소식이나 라이브러리들 더 많이 소개해주시면 감사하겠습니다.

  • @바두기-e8u
    @바두기-e8u 2 месяца назад

    멋진 리뷰 감사합니다.

  • @폭주폭격
    @폭주폭격 3 месяца назад

    gitlab 쓸바엔 gitea 가 가벼움 물론 디자인은 gitlab이 더좋은건 인정함

  • @andropler
    @andropler 3 месяца назад

    vector db 에 데이터 넣을때 데이터를 벡터화 할 때 사용하는 기법들도 추후 강의로 알려주시면 감사하겠습니다~

  • @taek2879
    @taek2879 4 месяца назад

    정말 디테일한 자료와 설명이네요. 감사합니다!!

  • @물처럼-r1y
    @물처럼-r1y 5 месяцев назад

    좋은 강의 감사합니다 ^^

  • @chojin-ko3co
    @chojin-ko3co 5 месяцев назад

    정말 감사합니다. 연구 분야 공부랑 구현에 대해 많은 고민이 있는 와중에 좋은 영상을 보게 된 것 같습니다.

  • @오유진-z3m
    @오유진-z3m 6 месяцев назад

    gradio의 dataframe의 행을 클릭 시 onclick이벤트를 만들고싶은데요. (onclick시 하위에 다른 dataframe 내용 update). 행 data를 어떻게 보내나요?

  • @heejuneAhn
    @heejuneAhn 6 месяцев назад

    와우!

  • @hodollee2646
    @hodollee2646 6 месяцев назад

    좋은 리뷰 감사합니다

  • @lLvupKitchen
    @lLvupKitchen 6 месяцев назад

    굿 비디오

  • @이동우-d3l
    @이동우-d3l 6 месяцев назад

    수2 세특 써야 하는데 미적분 관련 해서 적어야하는데 어떻게 방법이 있을까요?ㅠㅠ 2시간째 찾는데 명확하게 안나오네요ㅠㅠ

  • @juns6454
    @juns6454 7 месяцев назад

    완전 깔끔한 설명 감사해요

  • @dolshoi-f9o
    @dolshoi-f9o 7 месяцев назад

    책응 읽으먄 다음 나올 단어를 예측하느냐 가운데 들어갈 단어를 맞추느냐 이런식으로 차이점을 설명하던데, 근본적인 차이점을 개념적 수준에서 너무 잘 설명을 해주시네요. 감사합니디

  • @gxhoi
    @gxhoi 7 месяцев назад

    캬 깔끔하네요. 이런 맛집을 이제야 알다니

  • @Tony-ed3ke
    @Tony-ed3ke 8 месяцев назад

    내용을 자세히 쉽게 설명해줘서 이해하는데 큰 도움이 되었습니다. 또한 코드도 같이 설명해주셔서 좋았습니다. 감사합니다.

  • @dschoi8808
    @dschoi8808 8 месяцев назад

    앗 회사에서 llama2 관련내용 조사할 게 있어서 알아보는데 마침 교수님께서 리뷰 해주셨던 내용이 있었네욥 잘 지내시죠?? 감사합니다!!

  • @김도현-o3d2r
    @김도현-o3d2r 8 месяцев назад

    재밌어요🤣🤣🤣

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    잘 배웠습니다. 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    사용할일이 있을지는 모르겠지만 잘 배웠습니다. 설명 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    영상 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    잘 배웠습니다 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    잘 배웠습니다 감사합니다. 용어 설명이 참 좋네요.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    잘 배웠습니다 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    좋은 영상 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    좋은 강의 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    수학 기호 표기법 강의 듣다가 좋아서 정주행 해보려고 이렇게 와봤습니다. 좋은 강의 감사합니다.

  • @모스트모스투
    @모스트모스투 8 месяцев назад

    잘 배웠습니다 감사합니다.

  • @alyosha0718
    @alyosha0718 8 месяцев назад

    감사합니다. 교수님

  • @dayol2026
    @dayol2026 8 месяцев назад

    내용 쉽게 설명해주셔서 감사합니다.! 그런데 소리가 너무 작아서 최대로 키워도 작게들리네요 ㅠㅠ

  • @soheeheo1909
    @soheeheo1909 8 месяцев назад

    LLaVA 원리에 대해서 이해가 잘 안되는 부분들이 있었는데 덕분에 이해되었습니다. 감사합니다.

  • @zeeto_k
    @zeeto_k 9 месяцев назад

    감사합니다. 아직 윈도우에서 바로 사용 할 수는 없네요

  • @haneulkim4902
    @haneulkim4902 9 месяцев назад

    좋은영상 감사합니다. BPE 와 byte-level BPE 의 차이점이 한글을 어떻게 토큰나이즈 하는지 와닿지 않는데 혹시 좋은 참고 자료가 있을까요? 추가로 BPE model based on sentencepiece 랑 byte-level BPE 랑 다른것일까요, huggingface 에서 llama tokenizer 뭐 썻는지 보면 둘다 나와서요...

  • @njpark5006
    @njpark5006 9 месяцев назад

    좋은정보 감사합니다!! 참고하겠습니다

  • @szgming
    @szgming 10 месяцев назад

    강의 저에게 넘 유용하고 도움 많이 됩니다 감사의 댓글드립니다😊

  • @javaxerjack
    @javaxerjack 10 месяцев назад

    사용의 편리성을 생각하면 screen 명령어가 더 좋지 않을까 싶기도 하네요.

  • @김승혁-q5h
    @김승혁-q5h 10 месяцев назад

    자료 정리가 너무 깔끔해서 좋습니다 인공지능,머신러닝,딥러닝 부분 논문리뷰 동영상 유용하게 보고있습니다 감사합니다

  • @sonmathalmoney1446
    @sonmathalmoney1446 10 месяцев назад

    유튜브 볼때 이런 보석같은 강의를 찾으면 기분이 좋습니다. 설명도 비유도 정말 적절해서 이해가 쉽게 되었습니다 감사합니다 :D

  • @user-38e9f4e7cu
    @user-38e9f4e7cu 10 месяцев назад

    6 수평으로 뒤집은거 밥먹듯 나외서 찾고 있는데 안나오네요...

    • @user-38e9f4e7cu
      @user-38e9f4e7cu 10 месяцев назад

      델타의 변형이었다고 한다…편미분 구할때

  • @희수안-j4o
    @희수안-j4o 10 месяцев назад

    알기 쉽게 설명해주셔서 감사합니다! 많은 도움이 됐습니다!!

  • @donsoolee6690
    @donsoolee6690 11 месяцев назад

    정말 감사합니다.

  • @이지평-b2o
    @이지평-b2o 11 месяцев назад

    좋은 리뷰 감사합니다.

  • @mokomoji
    @mokomoji 11 месяцев назад

    심은하 누나 짱 乃

  • @namung429
    @namung429 11 месяцев назад

    영상 정말정말 감사합니다!