- RESOURCES -
Qwen2的各模型性能、占用显存和推理速度比较(摘自官方文档)_qwen2 显存-CSDN博客
文章浏览阅读6.5k次,点赞28次,收藏6次。Qwen2的各模型性能、占用显存和推理速度比较(摘自官方文档)性能推理速度(从大到小)72B57B-A14B7B1.5B0.5B_qwen2 显存......
blog.csdn.net
Qwen-2-7B和GLM-4-9B:“大模型届的比亚迪秦L”_qwen2 glm4-CSDN博客
文章浏览阅读2.4k次,点赞19次,收藏13次。实测下,7B到14B其性能是飞跃性的,实际体感上,Qwen-1.5-14B已经是非常好用的模型了。我们第一时间部署了GLM-4-9B到本地服务器,将之前的项目替换LLM引擎,在使用上GLM-4-9B表现较好,不如Qwen-1.5-32B,但也可以支撑起整个应用流程,大概到了Qwen-1.5-14B的水平。感觉Qwen-2-7B和GLM-4-9B的接连发布,有点比亚迪秦L内卷能耗的感觉,入行一周年,深感这一年间大模型行业发展迅速。Qwen-2-7B在......
blog.csdn.net
微调神器LLaMA-Factory官方保姆级教程来了,从环境搭建到模型训练评估全覆盖 - 大模型知识库|大模型训练|开箱即用的企业大模型应用平台|智能体开发|53AI
......
www.53ai.com

放烟火的人生而平等:AI 应用从概念到落地需要克服哪些问题 - 少数派
在 AI 竞争白热化的今天,大模型为大众带来的便利和创新是史无前例的。但是目前看来,大模型并没有达到我期待的样子。......
sspai.com
对 Qwen 2 模型代理能力的完整测试 - V2EX
程序员 - @smalltong02 - 就在前天,阿里正式发布了 Qwen 2 开源大语言模型,这次发布包括基础语言模型和指令调整语言模型,参数范围从 0.5 到 720 亿,还包括了 Mixture-of-Experts 模型。作......
fast.v2ex.com
使用 llama3:70b 本地化部署, 100 人左右的并发,大概需要多少块 4090 才能满足? - V2EX
程序员 - @leeum - 有没有实操过本地化部署开源 llm 的老哥?这个需要大概多少的算力?......
fast.v2ex.com