- Видео 13
- Просмотров 44 119
えんがわAI研究所 所長 まっちゃん
Япония
Добавлен 4 май 2022
こんにちは!チャンネルを見ていただいてありがとうございます。
最新の、おもしろくて便利なAIをもっと多くの人が気軽に使えるようになると良いなーと思い、AIの使い方がわかる動画を投稿しています。
初心者〜中級者向けの内容から、本職のデータサイエンティストに向けた内容まで、幅広く扱っていけたら良いなと思っています。
今後は、ゲームAIで遊んで見る動画もたくさんやりたいと思ってます。
いつでもコメント待ってます!
↓↓↓所長(まっちゃん)のプロフィール↓↓↓
東京のITベンチャー勤務のデータサイエンティスト 👮
えんがわAI研究所 所長
新しいAI技術に触れるのが好きなミーハー
スプラトゥーン3
最新の、おもしろくて便利なAIをもっと多くの人が気軽に使えるようになると良いなーと思い、AIの使い方がわかる動画を投稿しています。
初心者〜中級者向けの内容から、本職のデータサイエンティストに向けた内容まで、幅広く扱っていけたら良いなと思っています。
今後は、ゲームAIで遊んで見る動画もたくさんやりたいと思ってます。
いつでもコメント待ってます!
↓↓↓所長(まっちゃん)のプロフィール↓↓↓
東京のITベンチャー勤務のデータサイエンティスト 👮
えんがわAI研究所 所長
新しいAI技術に触れるのが好きなミーハー
スプラトゥーン3
【無課金 Google Colab で動く!】Text Generation WebUI で最新の言語モデルを使い倒そう!【検閲なし 👿 Llama2】
スライド : docs.google.com/presentation/d/1v3WoyWf7AC7o2mEgSGYjIA-M3-HERtCeUZ-xMmSRfGw/edit?usp=sharing
Google Colab ノートブック : colab.research.google.com/drive/1yRp_Lp3d84tGHiwuQB2WK60zKdwl0HFE?usp=sharing
量子化モデルについて解説した記事 : note.com/bakushu/n/n1badaf7a91a0
日本語LLMリーダーボード(表示に少し時間がかかります) : wandb.ai/wandb/LLM_evaluation_Japan/reports/LLM-JGLUE---Vmlldzo0NTUzMDE2?accessToken=u1ttt89al8oo5p5j12eq3nldxh0378os9qjjh14ha1yg88nvs5irmuao044b6eqa
=====
まっちゃんです。
今日は、巷で流行っている Text Generation WebUI の使い方を解説しようと思います!
これは、現在 HuggingFace などでオープンソースで公開されている言語モデルたちを、気軽にダウンロードして試せるアプリです。
更に今回は、誰もが無料で使える環境として、 Google Colaboratory で動かすことを目標に解説します。
動画の後半では、最近徐々に発展しつつある、「最新モデルの検閲なしバージョン」を動かしてみます。
ChatGPT をはじめとする一般的なユースケースのAIモデルでは...
Google Colab ノートブック : colab.research.google.com/drive/1yRp_Lp3d84tGHiwuQB2WK60zKdwl0HFE?usp=sharing
量子化モデルについて解説した記事 : note.com/bakushu/n/n1badaf7a91a0
日本語LLMリーダーボード(表示に少し時間がかかります) : wandb.ai/wandb/LLM_evaluation_Japan/reports/LLM-JGLUE---Vmlldzo0NTUzMDE2?accessToken=u1ttt89al8oo5p5j12eq3nldxh0378os9qjjh14ha1yg88nvs5irmuao044b6eqa
=====
まっちゃんです。
今日は、巷で流行っている Text Generation WebUI の使い方を解説しようと思います!
これは、現在 HuggingFace などでオープンソースで公開されている言語モデルたちを、気軽にダウンロードして試せるアプリです。
更に今回は、誰もが無料で使える環境として、 Google Colaboratory で動かすことを目標に解説します。
動画の後半では、最近徐々に発展しつつある、「最新モデルの検閲なしバージョン」を動かしてみます。
ChatGPT をはじめとする一般的なユースケースのAIモデルでは...
Просмотров: 2 489
Видео
【完全初心者に解説!】ChatGPT時代のアプリ開発を体験してみた【Webアプリ作成】
Просмотров 329Год назад
まっちゃんです。 ChatGPTの使い方の一例として、簡単なゲームを作ってみました! アプリ開発完全初心者の新メンバー、「ぐりちゃん」が作成してくれましたが、あっという間に立派なアプリが完成します! ChatGPTを使ってWebアプリを作るときに、どんなふうに指示を出したり、出来上がったものを改良したりしているかの流れを、一通り収録できたと負います。ぜひ楽しんで観ていただきつつ、皆さんの学びの助けになれば幸いです。 目次 0:00 導入・ぐりちゃん自己紹介 1:39 お題の紹介「ChatGPTを使って初めてのWebアプリを作ってみよう企画」 3.36 作成するアプリの紹介 5:44 ChatGPT アカウント作成 & ChatGPT Plus課金 8:00 【ここからアプリ開発開始!】GPT-4 がアプリのコードを作成 13:05 GPT-4 が作成したコードをファイルに保存 17:...
【Windowsで環境構築】JupyterLab を Docker の上で使ってみよう【Dockerチョットワカル】
Просмотров 1,3 тыс.Год назад
まっちゃんです。 今日はJupyterLabをDockerの上で使ってみる動画です! 興味ある方そこそこいるかなーと思って動画にしてみました。少しでもお役に立てれば幸いです。 最近、旅行やら機械学習コンペやらで忙しく、更新止まってしまっておりすみません...。今後は、HuggingFace講座の第2弾を予定しています! スライド : docs.google.com/presentation/d/1tZSGw1bEHfipZYcTQw8fxICE88Rlu6BN34G6Sarb4HU/edit?usp=sharing おすすめ動画 : ruclips.net/video/B5tSZr_QqXw/видео.html 0:00 導入 0:29 プロフィール 0:45 現在のセットアップ状況 1:50 今日の作業内容 2:58 Dockerの基礎知識について 5:33 構築する環境の概要 ...
【後付け解説】Windows のシェルをオシャレに改造!😉【さようならコマンドプロンプトくん】
Просмотров 4722 года назад
まっちゃんです。 今日はタイトルにもある通り、Windowsのシェルをなんとかもう少しかっこよくしたくて、いろいろ作業をしてみたので、その作業風景を録画して、後付け実況解説をしてみました。😊 後付け実況は難しいですね。時空が歪む感じがします。たぶんもうやりません。笑 あと、今日からアバターが登場しています!暖かく見守ってあげてください。笑 アバター選定の裏話など、おまけの時間でも語っているので、ご興味ある方はどうぞ〜。 スライド : docs.google.com/presentation/d/1uC8UOwEs3-asFK7sHjiMzQqh5qzg_5OpLT31UFqtA_k/edit?usp=sharing Oh My Posh ドキュメント : ohmyposh.dev/docs/ 0:00 導入 1:22 劇的ビフォーアフター 3:50 作業の流れ 4:38 【後付け解説...
【お絵かきAI】Stable Diffusion の概要・使い方・ネットワーク構成を解説!😉【AIでテキストから画像生成!】
Просмотров 12 тыс.2 года назад
SNSでめちゃくちゃ話題になっているStable Diffusionについて、誰でも概要を理解できるようにまとめました! 少しでも、見てくれた方の理解の助けになれれば光栄です。😊 スライド : docs.google.com/presentation/d/1XvqxbozoUC38ja45towQgBfKe_NVzqem9u5icrJEtlI/edit?usp=sharing HuggingFace Spaces で Stable Diffusion を試す! : huggingface.co/spaces/stabilityai/stable-diffusion Stable Diffusion のGitHubページ : github.com/CompVis/stable-diffusion 0:00 オープニング 1:34 アジェンダ 3:33 Stable Diffusionの...
【MLプロジェクトの The 便利ツール!】DVC入門 実践編【ついでにGitもおさらい】
Просмотров 3762 года назад
前回 : ruclips.net/video/queMAR57RjM/видео.html ちょっぴりマニアックなDVC使ってみた動画、第2段のハンズオンです! Gitの知識がちょっと前提になっている分だけ、敷居は高くなっちゃってるかも知れませんが、チーム開発ですぐに活きる知識を詰め込んでおきました。 まだまだ使用例はあまり聞きませんが、使えば使うほど便利で、これ無しでMLプロジェクトを進めるのは正直ちょっと怖いくらいです。 ぜひ、全国のデータセット管理に困っているMLエンジニアに届け〜。😢 dvc公式ドキュメント : dvc.org/doc 動画で使ったリポジトリ : github.com/matchaneng/dvc-tutorial 対象 : - 機械学習プロジェクトでデータセットの管理に困ったことがある方 - 機械学習のコーディングはできるものの、MLOpsにどこから手を付け...
【MLOpsはじめの一歩】DVC入門 解説編【機械学習プロジェクトの実案件に!】
Просмотров 5312 года назад
次回はハンズオンです! ちょっとマニアック過ぎる内容になっちゃったかもしれません...が、一応ここまで解説したので、次回のハンズオンまでやりきります!笑 実際はこれだけで、いわゆる「MLOps」ができる状態に到達できるわけではないのですが、コードや実験の再現性ってなんじゃない、なんで重要なの?の辺りは理解して頂ける内容になってると思います。😉 サムネのアバターは、なんとなく、文字ばっかりになって寂しかったので入れてみました。笑 対象 : - 機械学習プロジェクトでデータセットの管理に困ったことがある方 - 機械学習のコーディングはできるものの、MLOpsにどこから手を付けていいかわからない方 - DVCに興味はあるが、使ったことがない方 Twitter : matchaneng マシュマロ : marshmallow-qa.com/matchaneng?
【有名人のツイート生成!】Hugging Face 入門④ 〜GPTモデルのファインチューニング〜 【with 日本語GPTモデル】
Просмотров 4 тыс.2 года назад
▼ 前回までの動画 ① ruclips.net/video/Fss7czY2R0s/видео.html ② ruclips.net/video/5FLiO7F_RpU/видео.html ③ ruclips.net/video/eeqOO0neq7I/видео.html 前回に引き続いて、Hugging Faceの入門講座の第4弾です! ついにGPTモデルのファインチューニングを解説できました。ここまで長かった...。😭 今日の内容さえ身に着けて貰えれば、僕としてはもう本望です! 対象 : - Python, NumPy等の基礎文法習得済みの方 - 機械学習について、基本は勉強したものの、最新のモデルに対する知識などに興味がある方 - 前回までの動画を観てくれていて、ファインチューニングをやってみたくて仕方がない方 Twitter : matchanen...
AI・データサイエンスの、やってはいけない勉強法5選【未経験からAIエンジニアに!?】
Просмотров 8062 года назад
えんがわAI研究所、所長のまっちゃんです。 今回は趣向を変えて、勉強法系の動画を出してみます。勉強を初めて数ヶ月くらいの、1番勉強を続けるのが難しい初心者の頃を思い出して、効率が悪かったなーと思う勉強法をまとめてみました。 AIエンジニア・データサイエンティストを目指している方にも、日々の仕事の価値を上げたくて勉強している方にも、きっと役に立つ内容だと思います。 0:00 オープニング 2:22 ①理由もなく自分のPC上での実行にこだわる 5:25 ②自分のPCで実行しているのに仮想環境を使わない 8:33 ③イチからの実装にこだわる 11:47 ④レベルの高い理論を理解・暗記することにこだわる 13:05 ⑤公式ドキュメントを避ける 19:54 まとめ Mask-RCNN 概略図 : medium.com/@tibastar/mask-r-cnn-d69aa596761f GAN ...
【Tokenizer (トークナイザー) とは?】Hugging Face 入門③ 〜TokenizerとModelオブジェクトの使い方〜 【with 日本語GPTモデル】
Просмотров 3,7 тыс.2 года назад
前回 : ruclips.net/video/5FLiO7F_RpU/видео.html Hugging Face様 : huggingface.co/ えんがわAI研究所、所長のまっちゃんです。 前回に引き続いて、「Hugging Face」の解説をする動画です。 今回は、Hugging Faceを使っていると、嫌というほど目にする「Tokenizer」とか、「Model」とかのオブジェクトの使い方を解説します。 最近のNLPの技術をマスターするには、言わずもがな、必須の知識なので、ぜひここでマスターしていってください! 対象 : - Python, NumPy等の基礎文法習得済みの方 - 機械学習について、基本は勉強したものの、最新のモデルに対する知識などに興味がある方 - Hugging Faceはpipeline (前回までの動画で解説) しか使ったことがない方 Twitt...
【画像分類・画像生成】CLIP・CLOOBの日本語版 Pretrained モデルが出たので使ってみるよ!【with りんなちゃん】
Просмотров 6662 года назад
えんがわAI研究所、所長のまっちゃんです。 今回はシリーズとは外れて、臨時の動画投稿です。 ↓のプレスリリースで発表されたモデルがかなーり強かったので、動画撮りました。 プレスリリース : rinna社、日本語に特化した言語画像モデルCLIPを公開 prtimes.jp/main/html/rd/p/000000031.000070041.html いつもどおり、コードは基本的に、 Google Colaboratory で動かす想定でした。が、メモリの制限や環境の柔軟性の問題で、今回は Docker JupyterLab で動かしています。 動作再現のためのDockerfileなど、現在は公開していませんが、希望が多ければ公開します。 対象 : - Python, NumPy等の基礎文法習得済みの方 - 機械学習について、基本は勉強したものの、最新のモデルに対する知識などに興味があ...
【日本語 BERT 穴埋め問題】Hugging Face 入門② 〜言語モデルの種類と事前学習を理解しよう〜 【エンコーダモデル・デコーダモデル】
Просмотров 4,9 тыс.2 года назад
前回 : ruclips.net/video/Fss7czY2R0s/видео.html Hugging Face様 : huggingface.co/ えんがわAI研究所、所長のまっちゃんです。 Hugging Face入門の第2弾です。 最近流行りの、BERTやらGPTやらの言語モデルについてや、事前学習の何たるかについて、いい感じに解説できたと思います! 前回と同様、コードは基本的に、 Google Colaboratory で動かします。 これで言語モデルの基礎はバッチシになったと思いますので、次回以降はより応用的な内容に踏み込みます。 対象 : - Python, NumPy等の基礎文法習得済みの方 - 機械学習について、基本は勉強したものの、最新のモデルに対する知識などに興味がある方 - Hugging Faceは聞いたことはあるけど、使ったことはない方 Twitter...
【日本語 GPT 文章生成】Hugging Face 入門① 〜Pipelineで、学習済みモデルを使ってみよう〜 【with りんなちゃん】
Просмотров 13 тыс.2 года назад
次回 : ruclips.net/video/5FLiO7F_RpU/видео.html Hugging Face様 : huggingface.co/ えんがわAI研究所、所長のまっちゃんです。これが初めての動画投稿です。 「Hugging Face」という、世界中でめちゃくちゃ注目されているAIのプラットフォームを使って、日本語の文章を生成してくれるAIを使ってみる動画です。 冒頭で「これから3本くらいの動画でHugging Face解説していきます!」と話していますが、おそらく5本以上になりそうです! 対象 : - Python, NumPy等の基礎文法習得済みの方 - 機械学習について、基本は勉強したものの、最新のモデルに対する知識などに興味がある方 - Hugging Faceは聞いたことはあるけど、使ったことはない方 Twitter : matc...
急に子ラボラトリとか出てきて分けわかめ。PIPでこけるんやが
一生懸命タイピングしたらいけた
大分前の動画に失礼します。 Hugging Faceに提供されているGPT-4をファインチューニングし、電子参考書にある内容から自動的に問題を生成するシステムを作りたいのですが、初心者すぎて何からどうしたらいいか全く分かりません…具体的に流れを教えていただければ幸いです…
神です、めっちゃわかりやすかったです。お手隙の際でいいので、fine-tuningについても解説いただけると嬉しいです。
だいぶ前の動画ですが、もし可能なら教えていただけないでしょうか。私の会社のpcはセキュリティのためtransformers からモデルにアクセスできません。モデルを自分のローカルに置いてtransformersを使う方法をご紹介いただけると嬉しいです。 可能ならよろしくお願いします。
コメントありがとうございます。はい、可能です!🥳 詳細は以下リンクをご確認いただきたいのですが、LLMモデルを読み込む from_pretrained 関数は、モデルが格納されているローカルのパスを指定することもできます。 予めモデルのファイルをダウンロードし、配置しておく必要はあるため、 ・別のPCでfrom_pretrainedを実行し、モデルファイルをダウンロード ・そのファイルを使いたいPCへ転送 といった手順が必要になると思います。 こちらで回答になっていそうでしょうか? huggingface.co/docs/transformers/main_classes/model#transformers.PreTrainedModel.from_pretrained.pretrained_model_name_or_path
解説ありがとうございました。Google collabもほとんど使ったことがなかったので、こちらも参考になりました。このビデオの通りにCollabからHugging Faceにアクセスしようとすると、"HF_TOKEN"が無いと叱られました。Hugging Faceでアカウントを作って、"Access Tokens"を生成し、それをcollabの左にある鍵アイコンを押して名前:HF_TOKEN 値:作成したAccess Tokenを入力しておくことで解消しました。同じように立ち往生になってしまった方がいらっしゃったら、ご参考に。
大変参考になる動画をありがとうございます。このFineTuningは長州力さんのtweetだけでcausal language modelの学習をした ということでしょうか。その結果として長州力さんのような言い回しが学習されているとしても,学習済モデルがもともと持っていたプロンプトからの推論部分が壊れてしまっていると思います。実際に推論された文書は,元の推論にあったある程度論理的なつながりがなく,長州力さんのtweetがランダムに再現されているように感じます。本来は,不正確であってもある程度の論理性を保ったまま言い回しだけが変わってほしいところですが,そのような学習をするには,長州力さんのtweetを(論理的かどうかはわかりませんが。。)もっと多く学習させる必要があるでしょうか。
ご質問ありがとうございます!総じて、記載いただいた内容は正しいです。 生成文章の質をなるべく保ちつつ、ファインチューニングを行う術としては、大きく、 ・(記載いただいた通り)学習データの量を増やす ・もっとキャパが大きく、元々の性能が高い学習済みモデルを使用する の2択だと思います。 とはいえファインチューニングをすると、生成文章全体の質としては低下する場合がほとんどです。どうしても元々のモデルの持っていたパラメータを書き換える必要があるためです。😢
素晴らしい内容のRUclipsです。ぜひ自分のPCで実行してみようと思っています。ありがとうございました。
dependency conflictsが発生し解消しましたが、Text_Generation_WebUIのModel loaderにllama.cppを選択してもTransformerに変更されてしまい、私の環境ではうまく動作しませんでした😂
難しいことをわかりやすく解説していただいて、感謝です!AIの根本的なところじゃなくて、自称専門家の方のAIのツールがヤバイとか神とか煽り動画多い気がして..まっちゃんさんのような動画は貴重..
対話型!飽きずに見れます!
貴重な動画です!ありがとうございます。簡単に使えると言っても知識が必要ですね。だからこそ貴重!
小生年配・初心者のためコードの写経がうまくいかず動画の結果になりません。 具体的には下記をメモ帖からcolabに張り付け pip install transformers fugashi ipadic from transformers import pipeline bert_model = pipeline(task="fill-mask", model="cl-tohoku/bert-base-japanese-whole-word-masking") input_text = "(MASK)は日本で最も恐ろしい街だ" bert_model(input_text) 下記のエラーがでます。 お手数ですがいつでも結構ですので間違いの箇所をご教授下さい。 PipelineException Traceback (most recent call last) <ipython-input-5-5a23ee9081d9> in <cell line: 2>() 1 input_text = "(MASK)は日本で最も恐ろしい街だ" ----> 2 bert_model(input_text) 5 frames /usr/local/lib/python3.10/dist-packages/transformers/pipelines/fill_mask.py in _ensure_exactly_one_mask_token(self, input_ids) 98 numel = np.prod(masked_index.shape) 99 if numel < 1: --> 100 raise PipelineException( 101 "fill-mask", 102 self.model.base_model_prefix, PipelineException: No mask_token ([MASK]) found on the input
大変参考になる動画ありがとうございます。ファインチューニングは1回目の学習データとは異なる学習データで2回、3回と繰り返すものなのでしょうか?、それとも、1回目の学習データに2回目、3回目の学習データを追加して、1回だけファインチューニングするものなのでしょうか?
ご質問をありがとうございます! 現場では、上げてくださった2つの方法だと、後者を採用するケースが多いですね。多段階の訓練となると、再現性が担保しにくいからです。 前者を採用するであろうケースの例は、大規模なデータセットやモデルを使っていて、訓練時間や計算量がネックになりやすいプロジェクトの場合ですね。再現性とのトレードオフになると思います!
これだけわかりやすく説明できるのは才能だからもっとAIの基礎動画をあげてほしい
コメント大変ありがたいです! 正直、AIの基礎動画って今でも需要があるか疑問でしたが、求めてくれている方がいると分かりました。 本業が一旦落ち着き次第にはなりますが、次の動画の指針として考えていきます!
生成AIの登場で私のようにプログラミングがわからない人でもちょっとした技術的なことに挑戦しやすくなりました。でも調べながらやるって結構難しいので、たとえば言われた通りにcopilotを使えばアプリを作れるとかそういうのもいいと思いますよ。
音量調整作業しないなら、いっそ効果音いれないほうがいいかも…
ありがとうございます…。ちょっと詰めが甘かったです。改善します!
凄くわかりやすかったです。有難うございます。hands-onの部分が少し初心者の私は難しかった、なぜmodel.generateが出てきたとか...次の動画でもうちょっと分かるようになってくるかな〜
すばらしい。ひたすら分かりやすい。ちょうど聞きたかった事ばかり話してくれる。
え!かにがコラボの上の画面をうろうろしてる!かわいい
Google Colabの設定で可能ですので、ぜひ試してみてください!🙌
すみませんはじめてすぎてなんのこっちゃわからなすぎたんですが、このハギングフェースの モデルを色々つかって自分の好きなAI画像生成も可能ということでしょうか? 今回は、文章生成のモデルの話でしたので、画像生成についても知りたいです。 趣旨や方向性が違っていたらすみません。この業界や界隈のことまったくの素人なのですが AIの可能性を凄く感じており、少しでも分かりたいと思い見させていただきました。 よろしくお願いいたします。
すみません、お返事遅れましたが、可能ではあります!HuggingFaceにも、画像生成モデルはアップはされているので。 ただ、画像生成の場合は専用のUI的なものが作られていたりして、そういったものを使った方が便利だったりはしますので、少し方法は変わってきそうです…。
今日初めて、ハギングフェースのこと知りました。勉強させていただきます。AI画像生成を使いこなしたいと思っています。よろしくお願いいたします。
ムズい。ワイのキャパ超え(>_<)
おもしろい。chatGPTもこういうのの基礎の上になりたってるんですね~。
おもしろかったです!。
非常に困っています。 huggingfaceで access repositoryのボタンのあるページがないため先に進めません😭
すみません!確認が遅れました。こちら、解決しましたか?私でも明日、調べてみますね!
@@AI-ce5oi わざわざありがとうございます。 解決しました!
すみません、自分も同じ状況になって困っているので解決方法を教えて頂けませんか?
「おーいChatGPT!PC初心者にもわかりやすく、専門用語をうまく噛み砕いて説明してくれー」
impressive work, thanks
I'm grad to help you! But I'm sorry I can't provide any subtitles...
自分はMacなので元になってるOh My Zsh使ってますー。アバターかっこいいですね笑
ありがとうございます!アバター、今後も使い続けるべきかちょっと考えていたので、お褒めいただき助かります!笑
動画とても参考になります! ちなみに最低トレーニングデータに50サンプル、テストデータに20サンプルとのことだったのですが、1サンプルあたりの文字数はどの程度が適切なのでしょうか?元のモデルに利用したデータに依存する感じですかね?
お返事遅れ申し訳ございません! 動画内ではツイートを想定していたので、だいたい10~100文字程度で考えています。 元のモデルがどう訓練されたかは、あまり気にしなくても良いのかなーと思います。GPT Familyの訓練に使用されているデータは、本当に幅広いので。笑
動画ありがとうございます。 自分も全く同じプロセスで機械学習やAIを学習し始め、挫折を繰り返しいて、非常に共感しました。 データサイエンスやAIを業務にする人に求められるスキルは数年前に比べて随分変わってきている気がします。 (セキュリティ関係等でローカルでやる事が前提の時期もありましたし、、、) 便利なサービスを使いこなし、効率よく知識・スキルを身に着ける術をどう情報収集するか、これが大切だなと感じるこの頃です(えんがわ研究所さんの素晴らしい動画等のありますしね!) 今度も動画楽しみにしています!
コメントをありがとうございます。 これらはすべて、私も含めて誰もが通る道だと思っています。 効率主義になりすぎるのも、一部で怖い側面もありつつ、利用できる便利ツールはどんどん使っていこうというお気持ちです!
StableDiffusionの中身の解説もあり、非常に分かり易い動画ありがとうございました。 先日、チームメンバー内でStableDiffusionを触って見ようの勉強会(Colab使用で)を行ったのです、初めにこちらの動画で勉強していれば、もう少し理屈の説明も出来たと思いました(今後参考にさせて頂きたいです) 勉強会内でも普段AIや機械学習をやらない方にも参加して貰い、色々好きな絵を生成して貰いましたが、到底素人では描けない絵を生成した人もいて、非常に驚いていました(AIの進化に驚くばかりです。) 動画を見て、進化するAIを倫理的な範疇で使い(リテラシー)、どのように課題解決に役立てていけるかを全体デザインできる人材が今後益々必要になってくると感じました。 今後も、動画アップよろしくお願いいたします!
コメントをありがとうございます。 おっしゃる通り、 AI の進化のスピードに、不安感を抱く方は大変多いと思います。 このチャンネルでは今後も、AIのできること・できないことをなるべく正確に伝えることで、AIに対する誤解を少しでも払拭できればと思っています!
今回も素晴らしい動画ありがとうございました! ハンズオン同様に長州力さんのツイートで試しうまく行き、ファインチューニングのイメージやできる事を理解出来ました。こんな事が簡単にできて感動です。 HuggingFaceで出来る事を知りたいので(言語の分類問題など)、今後も動画アップ楽しみしています! ちょっと質問ですが、エポック数(num_train_epochs)は画像解析時と同様に学習させ過ぎると過学習気味になるのでしょうか?
コメントをありがとうございます!お返事が遅れ申し訳ございません。 そうですね、私のHuggingFaceの動画では、BERT系モデルをあまり扱えていないので、ぜひ作っていきたいです。 ここ最近、とあるKaggleのコンペに参加しているのですが、そのコンペの報告も兼ねてそういった話題を扱えそうです! ご質問いただいた「Epoch数を増やすと過学習が起こるのか?」については、直接の回答としてはYesです。 しかし動画内のコードでは、訓練時に load_best_model_at_end 引数が True に指定されています。 そのためたとえ過学習が起こったとしても、最も検証データに対する精度が良いモデルが採用されるので、厳密な調整は必要ありません。
素晴らしい動画ありがとうございます。 HuggingFaceのモデルは殆ど無料で使えるのですが、そのモデルをドウンロードして保存した場所はどこでしょうか。 ダウンロードしたモデルで移転学習し、Flask等のバックエンドにてWebアプリ構築できないかと思い、質問させていただきました。 よろしくお願いします。
コメントをありがとうございます!お返事が遅れ申し訳ございません。 モデルの保存場所については、以下のページに記載があります。 huggingface.co/docs/transformers/main/en/installation#cache-setup 要約すると、学習済みモデルはデフォルトで「ホームディレクトリ/.cache/huggingface/hub」に保存されるようです。 で、保存場所を変更したい場合、環境変数「HUGGINGFACE_HUB」に好きなディレクトリを指定すれば大丈夫です!
今回もわかり動画ありがとうございます!最後のハンズオンもあり、Toknizerの概要を掴むことが出来ました。 初学者で、基礎的な質問ですが、動画①でも文書生成と動画③でのToknizerによる文書生成は、目的は同じ文書生成だが、解放(アルゴリズム)が違うという認識でよろしいでしょうか? また、どちらが良いとかありますか?
ご質問ありがとうございます! 端的にお答えすると、動画③のハンズオンの内容は、動画①ではHugging Faceにより自動的に行われていた箇所を、少しだけ手動で行ってみたイメージです。 そのため、単に文章生成を行いたいだけであれば、①の方法で行うのが良いと思います。 今回の動画は、自動化されてしまっている部分をある程度、手動で触ってみることにより、Hugging Faceの中の、「Tokenizer」や「Model」の役割が大まかに掴むことが目的でした。この知識を踏まえて、④の動画に進んでいただく想定です。😎
返信ありがとうございました!動画④でしっかり勉強したいと思います。
BertやTransformer等の言葉は聞いたことあったのですが、何が出来るか理解できず迷子でしたが、前回①に続き非常にわかりやすく、何が出来るのかを理解することが出来ました!ありがとうございます。 それなりに高価な自然言語セミナー等受講するよりも、全然分かりやすいと思います。 (Hugging Faceって凄いんですね) Hugging Faceで出来ることをより知りたいので、今後もよろしくお願いします。
こちらこそ、コメントいただけ動画作成の励みになります。ありがとうございます! 現在の自然言語処理界隈の凄まじい発展のスピードは、Hugging Faceに支えられてる部分がかなりあると思っています。興味を持っていただける方が増えて、大変嬉しいです!
普段はCNN系の画像解析やテーブルデータの解析する機会が多いのですが、そろそろ自然言語にも手を出したいと思っていました。発展が凄いことは色々聞いていましたが、このような動画によりモチベーションもあがります!同僚にも動画紹介したいと思います、今後も動画よろしくお願いします!
Stable DifusionでHuggingFaceを初めて知ったのですが、言語までこんな簡単に出来ることを知り、非常に勉強になりました。 機械学習やAIってPthonなどプログラムをゴリゴリ書けないと使えないと思っていたので、びっくりしました! HuggingFaceで出来ることは色々勉強したいので、今後も動画アップ楽しみにしています。
ありがとうございます! そう言っていただき、非常に励みになります。 HuggingFaceで出来ること、他にも本当に色々あるので、ぜひ次回以降の動画で検討させていただきます!
絵(デジタルでなく物理的な方)を描く仕事を少ししていますが、HuggingFace Spacesでちょっと試してみて、これは本当にやばいと思いました。不自然な場合もありますが、大まかな位置関係や配色の感性(と言って良ければ)が凄いAIだと思います。わかりやすい動画でとても参考になります。ありがとうございます。
ありがとうございます! AI領域以外が専門の方からのフィードバック、たいへん参考になります。 今後もこの領域は、今回のような革新的な一歩があるたびにレポートしていきますね。😎
日本語によるhugging faceの説明動画あまりないので、とても助かりました!ありがとうございます! 一つ質問ですが、読み込むモデルとそれが対応しているtaskによって、モデルへの入力内容が変わっていると思いますが、今回の場合はfill-maskというタスクなので、"[MASK]+文字列"となっていますが、どういう入力を受け付けているのかはどこで確認できるんでしょうか?
すみません、お返事遅れました。😭 基本的には、HuggingFaceのモデルのページで、どのような入力を受け付けるかは書いてあると思うので、まずはそこを探してみるとラクかなと思います! huggingface.co/cl-tohoku/bert-base-japanese-whole-word-masking ↑のモデルであれば、Hosted inference API が用意されているので、どんなインプットを与えるとどんなアウトプットが返ってくるかは、お手軽に試せるようになっているかと! こういったExampleがないモデルは、残念ながら、対応しているタスクを確認して「こういうインプットを与えれば良さげだな」を推測するしか無さそうですね。(タスクによる型みたいなものがまとまっているページはないかなと思って探してみましたが、公式情報は少なくとも見つからず...。すみません。)
GFPGANの使い方も知りたいです。自分の好きな画像を使う方法が分からなくて。
ありがとうございます!私もまだ使ったことがないのですよね...。ちょっと使い方リサーチしてみますね!
おかげさまで無事colab上ではできました! ただ、せっかくVRAM10GB以上のグラボあるんでcolabじゃなくてコマンドプロンプトからガチャガチャやる方で今チャレンジしてるんですが、pytorch上でGPUが認識されないんすよね。 CUDAもcuDNNもインストールしたはずなんですが...... もし余裕あったら解説ほしいです!
同じく!!!
お2人とも、コメントありがとうございます! わかりました!ちょうど次回の動画で、WindowsPCでのCudaインストールなどのあたりを解説しようと思っているので、ぜひ見てみてください!
Hugging Faceのページを眺めてどう触ってみようか悩んでいるところでした。 直感的で分かりやすいです。これからも楽しみにしています。
ありがとうございます! なるべく直感的な課題で、コードを書くときの思考も細かくアウトプットすることを意識しています。 これからも有益な動画を上げられるよう頑張ります!😊
勉強になります。colab pro でrinna1B を動かすと、動くことは動くのですが、とても遅いです。 1Bを動かすためには、自作PCだとどの程度のGPU,GPU-memory ,memoryが必要でしょうか? あと、細かなことですが、内容は Hugging Face 入門③ となっていますが、上記タイトル Hugging Face 入門④ と異なっております。
コメントありがとうございます! そうですね、ひとまず私の感覚では、A100レベルのGPUに載せると、割とノンストレスで1bモデルを動かせる感覚です。(30トークン×5文の生成が、15秒程度で終わってた気がします。) PCのメモリは128GBですが、64あればあまり不便はしないかなと。 FTなど、将来的にモデルの訓練を行いたい場合は、GPUメモリは大きければ大きい方が良いです。バッチサイズを大きくできるためです。 タイトルについても、ありがとうございました!🙇 完全に見落としていました…。
@@AI-ce5oi やはり それなりのGPUが必要なんですね。RTX4090ti 待ちですかね。また放送楽しみにしています。