📚 构建长期复利型知识基础设施的指南,详见 RAG 实战手册

LongCat-Flash-Chat

美团开源的 LongCat-Flash-Chat 是一款高效动态计算大语言模型,采用创新 MoE 架构,兼顾推理速度与算力优化,适用于复杂智能体任务。

简介

LongCat-Flash-Chat 是美团开源的大语言模型,采用创新的混合专家(MoE)架构,动态分配算力,兼顾高效推理与低成本。

主要特性

  • 创新 Zero-Computation Experts 机制,极大提升推理效率
  • 支持高并发与多智能体任务,性能优异
  • 采用 PID 控制器微调专家偏置,算力分配灵活

使用场景

  • 智能体对话与复杂推理任务
  • 企业级知识问答与多场景应用
  • 高效推理与低成本部署需求

技术特点

  • 560B 总参数,动态激活 18.6B~31.3B 参数
  • 支持 SGLang/vLLM 高效部署方案
  • MIT License 开源,支持模型蒸馏与迁移训练

评论区

LongCat-Flash-Chat
资源信息
作者 美团
添加时间 2025-09-05
类型
模型
标签
大语言模型 开源项目