胖虎遛二狗
胖虎遛二狗
  • Видео 42
  • Просмотров 10 915
1-1 导论
1-1 导论
Просмотров: 12

Видео

2-1 Interface高阶类
Просмотров 1319 часов назад
2-1 Interface高阶类
2-2 常见组件
Просмотров 119 часов назад
2-2 常见组件
2-3 描述性信息
Просмотров 219 часов назад
2-3 描述性信息
2-4 TabbedInterface类
Просмотров 419 часов назад
2-4 TabbedInterface类
2-5 ChatInterface类
19 часов назад
2-5 ChatInterface类
3-1 Blocks类基本用法
19 часов назад
3-1 Blocks类基本用法
3-2 组件布局
Просмотров 119 часов назад
3-2 组件布局
3-3 布局微调
19 часов назад
3-3 布局微调
3-4 click事件调用
Просмотров 119 часов назад
3-4 click事件调用
3-5 change事件
Просмотров 119 часов назад
3-5 change事件
3-6 submit事件
Просмотров 119 часов назад
3-6 submit事件
3-7 事件修改组件属性
19 часов назад
3-7 事件修改组件属性
3-8 连续触发事件
19 часов назад
3-8 连续触发事件
4-1 对话状态
Просмотров 219 часов назад
4-1 对话状态
4-2 Examples示例
Просмотров 219 часов назад
4-2 Examples示例
4-3 多媒体组件
Просмотров 619 часов назад
4-3 多媒体组件
4-4 数据图组件
Просмотров 1019 часов назад
4-4 数据图组件
5 服务部署与分享
Просмотров 2019 часов назад
5 服务部署与分享
【LLM大模型】如何整理训练数据以及微调优化建议
Просмотров 31221 день назад
【LLM大模型】如何整理训练数据以及微调优化建议
【番外篇】如何实现B站动态转发抽奖
Просмотров 7Месяц назад
【番外篇】如何实现B站动态转发抽奖
【大模型工程开发】AI算法项目开发参考流程与案例
Просмотров 150Месяц назад
【大模型工程开发】AI算法项目开发参考流程与案例
Tingshu | 听舒 quick start
Просмотров 202 месяца назад
Tingshu | 听舒 quick start
[docker ]2-container
Просмотров 232 месяца назад
[docker ]2-container
[docker] 3-dockerfile
Просмотров 72 месяца назад
[docker] 3-dockerfile
[docker] 1-images
Просмотров 212 месяца назад
[docker] 1-images
[docker] 4-volume
Просмотров 72 месяца назад
[docker] 4-volume
[docker] 6-docker compose
Просмотров 52 месяца назад
[docker] 6-docker compose
[docker] 7-proxy
Просмотров 82 месяца назад
[docker] 7-proxy
[docker] 5-network
Просмотров 52 месяца назад
[docker] 5-network

Комментарии

  • @JinhaoPan-np7zy
    @JinhaoPan-np7zy 5 часов назад

    感谢作者

  • @JinhaoPan-np7zy
    @JinhaoPan-np7zy 5 часов назад

    感谢,很用心

  • @zhanyangroy
    @zhanyangroy 5 дней назад

    请问localhost 7860的地址的调优服务是怎么部署的,可以给个下载地址么

  • @zhanyangroy
    @zhanyangroy 5 дней назад

    看到老师有本地部署的工具 请问可以分享下下载地址么

  • @万万-p2k
    @万万-p2k 20 дней назад

    4900这么个gpu 训练不了把 最多inference 出来都算不错了

  • @jazzny001
    @jazzny001 2 месяца назад

    fine tuning 模型的不确定性很高。 如果只是简单的教模型他叫什么是比较简单的。 但是fine tuning更复杂的知识库的时候, 感觉微调后模型的输出总是不经如人意。还是回去用RAG 和 提示词工程了。

  • @Message_Not_Found
    @Message_Not_Found 2 месяца назад

    問答用了LLama3.1 8B,Embedding用了lm-studio的nomic,文本用的是GraphRAG的論文複製貼上.txt。 結果光是主旨都問不出來,瘋狂答非所問。看來開源模型做這件事是不用想了,純是大型垃圾。 但還是感謝主播分享

  • @peizhang2164
    @peizhang2164 3 месяца назад

    请问我是在win11下安装的ollama 我有2块a6000并且使用nvlink连接 还有1块4090 在运行72b系列模型时观察任务管理器发现使用了4090大约23%的算力和其中一块a6000 41g的显存 请问这是正常的吗? 还有 使用ollama可以自动调用所有的显卡性能吗? 谢谢您

    • @echonoshy
      @echonoshy 3 месяца назад

      一般情况下我们组集群都会选用型号相同的机器,比如4090或者都是A6000, 不同设备型号会可能存在负载不均衡的问题的。因为我也没有使用nvlink 连接过,所以这个不能给出很中肯的回答。 ollama不会自动调用所有的显卡性能,而且ollama一般页不是做高并发而生的,如果你需要实现这个需求, 可以考虑vllm。

    • @陳柏均-d4q
      @陳柏均-d4q 2 месяца назад

      請問你72b的模型做多少的量化??Q4的話一張A6000應該就能跑了

  • @qingsir
    @qingsir 3 месяца назад

    我有个疑问 我想在我的python应用中访问这个模型 这个llama3.2支持API调用吗?

    • @echonoshy
      @echonoshy 3 месяца назад

      你是指使用ollama部署服务,然后使用API调用吗?

    • @qingsir
      @qingsir 3 месяца назад

      @@echonoshy 对的

    • @echonoshy
      @echonoshy 3 месяца назад

      @@qingsir 一般来说是可以的,ollama支持的话会稍微晚一点,但是你可以通过从huggingface手动下载llama 3.2的gguf模型,然后手动导入到ollama中进行调用。 可以参考我之前相关的几期视频。

    • @qingsir
      @qingsir 3 месяца назад

      @@echonoshy 好的 谢谢

  • @enandy9824
    @enandy9824 3 месяца назад

    我在执行index-pdf.py后跳出了这样的错误应该怎么解决 ValueError: shapes (768,) and (4096,) not aligned: 768 (dim 0) != 4096 (dim 0)

    • @echonoshy
      @echonoshy 3 месяца назад

      中间的维度不匹配,这个你要看一下你操作过程中和视频中有哪些不一样的地方呢?光看这个报错信息不能定位问题,需要debug进去,看到底哪里出错了

  • @江生浩
    @江生浩 4 месяца назад

    最近一直在看你的ai大模型系列的视频,虽然讲的懵懵懂懂,每个视频多看几遍还是可以跟着操作学会的。 谢谢你辛苦录制的这些视频。

    • @echonoshy
      @echonoshy 3 месяца назад

      很高兴能帮到你,如果有什么问题可以在b站或者GitHub给我留言,ytb我登的没那么勤。或者有什么想看的专题也可以给我留言

  • @FaderYin
    @FaderYin 4 месяца назад

  • @jackyzhang4853
    @jackyzhang4853 4 месяца назад

    Qwen2 72B 在ollama能正常跑吗?应该是乱码

    • @echonoshy
      @echonoshy 4 месяца назад

      llama.cpp Warning You need llama.cpp>=b3370. Download our provided GGUF files or create them by yourself, and you can directly use them with the latest llama.cpp with a one-line command: ./llama-cli -m <path-to-file> -n 512 -co -sp -cnv -f prompts/chat-with-qwen.txt

  • @shawngao1227
    @shawngao1227 4 месяца назад

    很有帮助的分享

    • @echonoshy
      @echonoshy 4 месяца назад

      很高兴能帮助到您

  • @slayermm1122
    @slayermm1122 4 месяца назад

    老师,本地跑 graphrag 对电脑的要求是不是就是你选用的模型的要求?有额外的硬件配置要求吗?

    • @echonoshy
      @echonoshy 4 месяца назад

      是的, 主要是本地ollama启动模型的的性能要求。

  • @CreatureCraftAI_Zone
    @CreatureCraftAI_Zone 5 месяцев назад

    importlib.metadata.PackageNotFoundError: No package metadata was found for The 'unsloth' distribution was not found and is required by this application. 我的要提示安装unsloth?

  • @minzhang877
    @minzhang877 5 месяцев назад

    I tried but got the following errors: ⠸ GraphRAG Indexer ├── Loading Input (InputFileType.text) - 1 files loaded (1 filtered) ━ 100% … 0… ├── create_base_text_units ├── create_base_extracted_entities ├── create_summarized_entities └── create_base_entity_graph ❌ Errors occurred during the pipeline run, see logs for more details.

    • @minzhang877
      @minzhang877 5 месяцев назад

      The error in the logs are: File "c:\Python311\Lib\site-packages\pandas\core\indexers\utils.py", line 390, in check_key_length raise ValueError("Columns must be same length as key") ValueError: Columns must be same length as key 01:43:25,416 graphrag.index.reporting.file_workflow_callbacks INFO Error executing verb "cluster_graph" in create_base_entity_graph: Columns must be same length as key details=None

    • @echonoshy
      @echonoshy 5 месяцев назад

      hi minzhang, you may need the check the context size about ollama model setting. If you use the orignal ollama model (such as "ollama pull llama3"), it may cause this problem, so I suggest to register a model from the Modelfile as I mentioned in the video which can custimzer the context size longer. BTW, don't forget to change the model name in the embedding.py files if you don't use the same model as I did.

    • @minzhang877
      @minzhang877 5 месяцев назад

      @@echonoshy Using "ollama show" and ollmal create" to update the llama3 and run graphrag again. Will let you know if it fixes the issue.

  • @志强陈-x1r
    @志强陈-x1r 5 месяцев назад

    File "/anaconda3/envs/grag/lib/python3.10/site-packages/graphrag/llm/openai/openai_embeddings_llm.py", line 17, in <module> import ollama ModuleNotFoundError: No module named 'ollama',请问这个问题该怎么处理呢

    • @minzhang877
      @minzhang877 5 месяцев назад

      "pip install ollama" will install python ollama package

    • @志强陈-x1r
      @志强陈-x1r 5 месяцев назад

      @@minzhang877 可是我之前已经安装过ollama了

    • @minzhang877
      @minzhang877 5 месяцев назад

      @@志强陈-x1r You can verify whether you installed it with the command: "pip list", or go to your python installation directory, and find whether you have lib/site-packages/ollama subdirectory?

    • @minzhang877
      @minzhang877 5 месяцев назад

      I would suggest you use python3.11 because open-webui is only supported in 3.11. If you want to deploy the local RAG with open-webui/pipelines.

    • @志强陈-x1r
      @志强陈-x1r 5 месяцев назад

      @@minzhang877 ok.谢谢,我试一下

  • @志强陈-x1r
    @志强陈-x1r 5 месяцев назад

    File "/anaconda3/envs/grag/lib/python3.10/site-packages/graphrag/llm/openai/openai_embeddings_llm.py", line 17, in <module> import ollama ModuleNotFoundError: No module named 'ollama',请问这个问题该怎么处理呢

  • @adoresever
    @adoresever 6 месяцев назад

    声音有点小呀,在学习一下

    • @echonoshy
      @echonoshy 6 месяцев назад

      好的,我后面会注意的

  • @oneseven-vj1ud
    @oneseven-vj1ud 7 месяцев назад

    有一个疑问啊:远程登录服务器后,在服务器中执行llamafactory-cli webui命令,会在我本地的机器打开webui吗?

    • @echonoshy
      @echonoshy 7 месяцев назад

      1. 如果你的服务器有公网IP的话,可以直接通过公网ip:port这种形式访问。 2. 如果没有公网ip,可以像我一样使用vscode的端口映射功能。 或者其他的端口映射工具。

    • @祝云峰
      @祝云峰 7 месяцев назад

      @@echonoshy 原来如此,我在B站看了你的视频,以为是本地跑的呢

    • @echonoshy
      @echonoshy 7 месяцев назад

      @@祝云峰 本地的mac只是充当一个前端界面的功能, 实际开发选择性能更好,更具性价比的linux会更好一点