Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
按照排行看起來編程上首選是claude-3.5-sonnet,勝在穩定快速。第二是gpt-4o,勉強前幾,也而且反應迅速,o1-preview限制使用量還不適合工作使用。最划算的是DeepSeek 在 huggingface,但只要上下文中斷,或拿來接續開發,修改代碼可能不是很理想。為了代碼隱私,本地比較有性價比的剩下在AirLLM下運行的 Dracarys2-72B-Instruct(Qwen2.5調教) Llama3.1 405B。
感谢分享!
感谢分享。当前最实际的AI应用场景,还是编程,也就是生成代码。
70b什么富哥才能搞本地啊
RLFH且不说算不算强化学习,这不是各家都用的东西吗?
RLFH是reinforcement learning from human feedback,不是传统的强化学习,算是一种变体吧。nvida在他们的readme也提到用了rlfh。其他各家是指什么? 我估计就算用同一种技术,怎么把分刷高应该还要在具体实现在有所不同吧
@@ai-spinX3 几乎所有你能叫得上名的chatgpt gemini都用了rlfh。而且llama3.1本来也用了rlfh
刷分的罢了
瞧不起做題家嗎😂
按照排行看起來編程上
首選是claude-3.5-sonnet,勝在穩定快速。
第二是gpt-4o,勉強前幾,也而且反應迅速,o1-preview限制使用量還不適合工作使用。
最划算的是DeepSeek 在 huggingface,但只要上下文中斷,或拿來接續開發,修改代碼可能不是很理想。
為了代碼隱私,本地比較有性價比的剩下在AirLLM下運行的 Dracarys2-72B-Instruct(Qwen2.5調教) Llama3.1 405B。
感谢分享!
感谢分享。当前最实际的AI应用场景,还是编程,也就是生成代码。
70b什么富哥才能搞本地啊
RLFH且不说算不算强化学习,这不是各家都用的东西吗?
RLFH是reinforcement learning from human feedback,不是传统的强化学习,算是一种变体吧。nvida在他们的readme也提到用了rlfh。其他各家是指什么? 我估计就算用同一种技术,怎么把分刷高应该还要在具体实现在有所不同吧
@@ai-spinX3 几乎所有你能叫得上名的chatgpt gemini都用了rlfh。而且llama3.1本来也用了rlfh
刷分的罢了
瞧不起做題家嗎😂