- Видео 157
- Просмотров 112 472
I.T.
Добавлен 30 авг 2021
Explain IT knowledge.
[인공지능,머신러닝,딥러닝] (심화) A New Benchmark Dataset for Explainable Personality Recognition on Dialogues
- Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues
- EMNLP 2024
- EMNLP 2024
Просмотров: 45
Видео
[나를힘들게하는전공지식] (오토마타) NPDA에서 CFG 만들기
Просмотров 7421 день назад
- 오토마타 이론 - Non-deterministic push-down automata 로부터 context-free grammar 만들기
[인공지능,머신러닝,딥러닝] (심화) 언어모델의 개성이 강해지면 불량해지는 거 아니려나?
Просмотров 142Месяц назад
- Language model personality - Personality and Safety
[인공지능,머신러닝,딥러닝] (심화) From Role Play to Drama Interaction: An LLM Solution
Просмотров 91Месяц назад
- 드라마에 등장인물로 들어가기 - ACL 2024
[인공지능,머신러닝,딥러닝] (심화) Llama-adapter (코드로 분석해보는)
Просмотров 1232 месяца назад
- LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention (ICLR 2024) - Code of Llama adapter 1 & 2
[파이썬] python 3.13 - Free-threaded, JIT
Просмотров 2862 месяца назад
- 2024년 10월 파이썬 3.13 Release 간략한 소개
[인공지능,머신러닝,딥러닝] (심화) LLM 자동 코딩을 위한 temperature sampling
Просмотров 4063 месяца назад
- AAAI 2024 - Hot or Cold? Adaptive Temperature Sampling for Code Generation with Large Language Models
[인공지능,머신러닝,딥러닝] (심화) 언어모델의 Multi-linguality가 항상 좋은 것만은 아니다
Просмотров 893 месяца назад
- When Is Multilinguality a Curse? - Language Modeling for 250 High- and Low-Resource Languages
[인공지능,머신러닝,딥러닝] (심화) Sigmoid Loss for Language Image Pre Training (ICCV 2023)
Просмотров 864 месяца назад
- 멀티모달(multi-modal) pre-training 을 위한 sigmoid loss - ICCV 2023
[응답하라0x07CF] 서비스 종료(2024. 10)하는 천리안을 추억하며 - PC통신 및 MUD게임
Просмотров 735 месяцев назад
- PC 통신 (하이텔, 천리안 등) - MUD 게임
[인공지능,머신러닝,딥러닝] (심화) LLM vs Small model - 개성 예측하기
Просмотров 3395 месяцев назад
- LLM vs Small Model? Large Language Model Based Text Augmentation Enhanced Personality Detection Model - 나의 성격, 개성을 알아내는 기법 - AAAI 2024
[인공지능,머신러닝,딥러닝] (심화) FLIRT - Text to Image 생성AI를 위한 Red Teaming 자동화
Просмотров 796 месяцев назад
- Text-to-Image 생성형 모델을 위한 Red Teaming 기법 - Stable diffusion model
[인공지능,머신러닝,딥러닝] (심화) ChipNeMo - NVIDIA의 Domain Adapted LLM
Просмотров 9296 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) ChipNeMo - NVIDIA의 Domain Adapted LLM
[인공지능,머신러닝,딥러닝] (심화) Llama 3의 Cyber-security benchmark: CyberSecEval 2
Просмотров 1777 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Llama 3의 Cyber-security benchmark: CyberSecEval 2
[인공지능,머신러닝,딥러닝] (심화) Direct preference optimization (DPO)
Просмотров 1,6 тыс.8 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Direct preference optimization (DPO)
[인공지능,머신러닝,딥러닝] (심화) LLM leaderboard 성능은 의미있다 or 없다
Просмотров 4659 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) LLM leaderboard 성능은 의미있다 or 없다
[인공지능,머신러닝,딥러닝] (심화) Evaluating and Inducing Personality in Pre-trained Language Models
Просмотров 20910 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) Evaluating and Inducing Personality in Pre-trained Language Models
[인공지능,머신러닝,딥러닝] (심화) A Vocabulary Free Multilingual Neural Tokenizer for End to End Task Learning
Просмотров 22311 месяцев назад
[인공지능,머신러닝,딥러닝] (심화) A Vocabulary Free Multilingual Neural Tokenizer for End to End Task Learning
[인공지능,머신러닝,딥러닝] (심화) LLaVA - Visual Instruction Tuning
Просмотров 1,5 тыс.Год назад
[인공지능,머신러닝,딥러닝] (심화) LLaVA - Visual Instruction Tuning
고맙습니다.
감사합니다 교수님. 오토마타 수강 중인 백하준 학생입니다. 시간내어 꼭 끝까지 보겠습니다. 딥러닝에 관심이 많아서 예전부터 공부 중이었습니다.
랩실 주간학습자료 공유가 떠오르네요 감사합니다
너무 감사합니다. 너무 깔끔하게 다 알아갑니다.
이렇게 좋은 강의가 있다니... 비전공자이지만 트랜스포머 모델을 활용하는 입장에서 많은 도움 되었습니다. 스윈 트랜스포머나 convnext 강의도 있으면 좋겠어요~^^
항상 잘 보고 있습니다. 감사합니다!
강의 정말 잘 들었습니다. 한 가지 더 말씀드리자면 인공지능쪽 강의는 이미 너무 레드오션이 심하니 이런 파이썬 관련 소식이나 라이브러리들 더 많이 소개해주시면 감사하겠습니다.
멋진 리뷰 감사합니다.
gitlab 쓸바엔 gitea 가 가벼움 물론 디자인은 gitlab이 더좋은건 인정함
vector db 에 데이터 넣을때 데이터를 벡터화 할 때 사용하는 기법들도 추후 강의로 알려주시면 감사하겠습니다~
정말 디테일한 자료와 설명이네요. 감사합니다!!
좋은 강의 감사합니다 ^^
정말 감사합니다. 연구 분야 공부랑 구현에 대해 많은 고민이 있는 와중에 좋은 영상을 보게 된 것 같습니다.
gradio의 dataframe의 행을 클릭 시 onclick이벤트를 만들고싶은데요. (onclick시 하위에 다른 dataframe 내용 update). 행 data를 어떻게 보내나요?
와우!
좋은 리뷰 감사합니다
굿 비디오
수2 세특 써야 하는데 미적분 관련 해서 적어야하는데 어떻게 방법이 있을까요?ㅠㅠ 2시간째 찾는데 명확하게 안나오네요ㅠㅠ
완전 깔끔한 설명 감사해요
책응 읽으먄 다음 나올 단어를 예측하느냐 가운데 들어갈 단어를 맞추느냐 이런식으로 차이점을 설명하던데, 근본적인 차이점을 개념적 수준에서 너무 잘 설명을 해주시네요. 감사합니디
캬 깔끔하네요. 이런 맛집을 이제야 알다니
내용을 자세히 쉽게 설명해줘서 이해하는데 큰 도움이 되었습니다. 또한 코드도 같이 설명해주셔서 좋았습니다. 감사합니다.
앗 회사에서 llama2 관련내용 조사할 게 있어서 알아보는데 마침 교수님께서 리뷰 해주셨던 내용이 있었네욥 잘 지내시죠?? 감사합니다!!
재밌어요🤣🤣🤣
잘 배웠습니다. 감사합니다.
사용할일이 있을지는 모르겠지만 잘 배웠습니다. 설명 감사합니다.
영상 감사합니다.
잘 배웠습니다 감사합니다.
잘 배웠습니다 감사합니다. 용어 설명이 참 좋네요.
잘 배웠습니다 감사합니다.
좋은 영상 감사합니다.
좋은 강의 감사합니다.
수학 기호 표기법 강의 듣다가 좋아서 정주행 해보려고 이렇게 와봤습니다. 좋은 강의 감사합니다.
잘 배웠습니다 감사합니다.
감사합니다. 교수님
내용 쉽게 설명해주셔서 감사합니다.! 그런데 소리가 너무 작아서 최대로 키워도 작게들리네요 ㅠㅠ
LLaVA 원리에 대해서 이해가 잘 안되는 부분들이 있었는데 덕분에 이해되었습니다. 감사합니다.
감사합니다. 아직 윈도우에서 바로 사용 할 수는 없네요
좋은영상 감사합니다. BPE 와 byte-level BPE 의 차이점이 한글을 어떻게 토큰나이즈 하는지 와닿지 않는데 혹시 좋은 참고 자료가 있을까요? 추가로 BPE model based on sentencepiece 랑 byte-level BPE 랑 다른것일까요, huggingface 에서 llama tokenizer 뭐 썻는지 보면 둘다 나와서요...
좋은정보 감사합니다!! 참고하겠습니다
강의 저에게 넘 유용하고 도움 많이 됩니다 감사의 댓글드립니다😊
사용의 편리성을 생각하면 screen 명령어가 더 좋지 않을까 싶기도 하네요.
자료 정리가 너무 깔끔해서 좋습니다 인공지능,머신러닝,딥러닝 부분 논문리뷰 동영상 유용하게 보고있습니다 감사합니다
유튜브 볼때 이런 보석같은 강의를 찾으면 기분이 좋습니다. 설명도 비유도 정말 적절해서 이해가 쉽게 되었습니다 감사합니다 :D
6 수평으로 뒤집은거 밥먹듯 나외서 찾고 있는데 안나오네요...
델타의 변형이었다고 한다…편미분 구할때
알기 쉽게 설명해주셔서 감사합니다! 많은 도움이 됐습니다!!
정말 감사합니다.
좋은 리뷰 감사합니다.
심은하 누나 짱 乃
영상 정말정말 감사합니다!