现在AI的使用场景越来越多,公益站有时也不稳定,给大家整理一些能提供相对长期稳定大模型api的厂商和平台,作为备用或测试。
这里主要收集文本大模型,图片视频生成相关的大模型没有专门做整理。
tldr
- 国内大模型平台太卷了,免费额度真的很多,如果没有特殊需求,国内的api就够用了。
- 主力模型推荐: 阿里iflow, 字节火山引擎, 阿里 modelscope 魔搭社区。
- 免费vibe coding推荐: 腾讯codebuddy, 快手codeflicker, 阿里通义灵码/qwen-code
非稳定渠道
一些平台会不定期推出吸引用户的免费活动,适合用来测试和临时应急。下面列出一些,过期了的就评论下提醒我删掉。
- AI Ping
- 20251226 限时免费: glm-4.7, minimax-m2.1, deepseek-v3.2, douban-seeddream文生图
模型限制相关说明
- rpm(Requests per minute): 每分钟请求次数
- rpd(Requests per day): 每天请求次数
- tpm(Tokens per minute): 每分钟输入输出的token数
- tpd(Tokens per day): 每天输入输出的token数
Vibe Coding 免费代码工具
- 国内的 ai coding 太卷了,各家都提供了很大的免费额度
腾讯云代码助手 CodeBuddy, 独立IDE
- 目前(20251222)免费使用 glm-4.6, deepseek-v3.1-terminus, huyuan-2.0
- 20251223: 免费提供最新的 glm-4.7
快手 CodeFlicker , 独立IDE
- 目前(20251222)免费使用 kimi-k2-0905, kat-coder-pro
阿里 通义灵码 , 独立IDE
- 免费不限量使用 千问系列模型,但不可更换使用其他模型
阿里 qwen-code, cli命令行
free tier
- OpenAI-compatible API, or sign in with Qwen OAuth to get 2,000 free requests/day.
- rpm 每天 2000 次,免费额度很大
Cline, vscode扩展 / cli命令行
- 提供多种使用方式,包括vscode里的扩展、独立的cli
- vscode的模型配置界面长期提供免费模型
- 20251223免费: minimax-m2, devstral-2512, grok-code-fast, kat-coder-pro
Roo Code, vscode扩展 / Cloud Agents
- 提供多种使用方式,包括vscode里的扩展、云端编程
- vscode的模型配置界面长期提供免费模型
- Roo Code Cloud Models
- 20251223免费: MiniMax-M2, Grok Code Fast 1
Kilo Code, vscode扩展 / cli命令行
- 提供多种使用方式,包括vscode里的扩展、独立的cli
- vscode的模型配置界面长期提供免费模型
- Models
- 20251223免费: minimax-m2, devstral-2512, kat-coder-pro
OpenCode, cli命令行
- 最近也提供了OpenCode Desktop的使用方式,长期提供免费模型
- Zen Models
- 20251223免费: glm-4.7, Grok Code Fast 1, Big Pickle
coding 工具说明
- 厂商定制的独立IDE一般都不支持使用自己的大模型api/url, 如腾讯CodeBuddy/阿里灵码
- cline/roo-code/kilo-code 提供了ui界面可以选择输入自己的模型api/url,使用方便,换模型也方便
- open-code/claude-code/codex/qwen-code 这类命令行工具都可以使用自定义模型api/url, 但要自己搜索配置方法折腾下
国内厂商或平台
阿里心流 iflow
S级推荐:
心流开放平台
- iflow-cli 是可以免费使用的 vibe coding 工具, 对标 claude code
目前我所知的免费额度最大的平台,不限量,速度也很快
主要提供的模型: 阿里千问系列模型较多, 还有 Kimi-K2-Instruct-0905, GLM-4.6, DeepSeek-V3.2-Exp, Qwen3-Coder-Plus
限流
- 每个用户最多只能 同时发起一个 请求,超出限制的请求会返回429错误码。
iflow社区反馈 api 可用的模型很久没更新了,官方似乎准备将更多资源投入iflow-cli,
- iflow-cli支持最新的 glm-4.7 / minimax-m2.1
- 通过开源转换工具如 CLIProxyAPI 可以将 iflow-cli 的免费模型转换成类似公益站的api, 需要折腾一下,不过渠道真的很稳
字节火山方舟大模型
- 目前 每个模型 每天免费 250w token, 速度很快,体验很好,但单模型token不够用,经常切换模型我觉得麻烦
- 主要提供的模型: 豆包系列模型较多,最新的deepseek-v3.2, Kimi-K2-Instruct-0905
- 还提供文生图相关模型
- 免费推理额度
- rpm/tpm各模型不同,一般rpm为1000~10000, tpm为500w
阿里 modelscope 魔搭社区
- 每天允许进行 总数为 2000 次 的API-Inference调用,其中每单个模型不超过 500 次,具体每个模型的限制可能随时动态调整。
- 我不太喜欢阿里的modelscope, 受欢迎的模型总是开放一段时间就下架,但提供的免费额度很稳定,千问系列模型很稳定
- 还提供文生图相关模型
- 限制
- 在每个模型每天不超过 500 次调用的基础上,平台可能对于部分模型再进行单独的限制,例如,deepseek-ai/DeepSeek-R1-0528,deepseek-ai/DeepSeek-V3.1等规格较大模型,当前限制 单模型每天200次 调用额度。 -在上述调用次数限制的基础上,不同模型允许的调用并发,会根据平台的压力进行动态的速率限制调整,原则上以保障开发者单并发正常使用为目标
快手 KAT-Coder 系列模型
- KAT-Coder-Pro V1 和 KAT-Coder-Air 目前都提供免费使用,其中 KAT-Coder-Air 长期提供免费使用
- 我经常拿来做测试,速度很快,对结果要求不高可以试试
- KAT-Coder-Air V1 模型免费使用规则
- 高峰时段: 08:00-02:00(次日), 每6小时内您将可以发起 120次 对话请求。
- 非高峰时段: 02:00-08:00, 每6小时内您将可以发起 200次 对话请求
智谱 glm flash 系列模型
- 智谱AI开放平台 福利专区
- 少数的模型厂商自己提供免费模型api,长期稳定,免费的都是小模型,但种类比较全
- 速度很快,但效果不好,适合用来测试
- 模型包括: GLM-4-Flash-250414, GLM-4.1V-Thinking-Flash, Cogview-3-Flash(文生图), CogVideoX-Flash(视频生成)
- 速率限制
- 限制的维度是请求 并发 数量(在途请求任务数量), GLM-4-Flash为200, GLM-4V-Flash为10
硅基流动 SiliconFlow
- 长期稳定提供免费的小模型,大多7b/8b/9b的小模型,速度快
- 不提供32b以上的免费模型,小模型质量较差,我平时用的少
- Rate Limits
- 大多都是 tpm-50k
国内 Others
- 上面都是我用的比较多的,下面是一些其他免费模型,大家也可以补充
- 美团 LongCat 系列模型
- LongCat API开放平台
- 每个账号每天自动获得 500,000 Tokens 免费额度
- 单次请求限制 输出文本:最大8K Tokens, 当触发限流时,API将返回HTTP状态码429
- 特别提及: 七牛 AI 大模型推理服务
- 这是我所知的国内仅有的大模型平台,官方能提供 OpenAI/Claude/Gemini 模型,不知道是不是 2API 的渠道
- 官方提供300w免费token, 有效期一年,
- 速度很快,强烈推荐,能用各种模型
- AI 大模型推理服务 - 七牛云
国外厂商或平台
显卡一哥英伟达老黄的福利 - Nvidia NIM API
- 我觉得比openrouter更好用,似乎免费不限量
- 提供各种模型, 包括国外的模型: deepseek-v3.2, qwen3-coder-480b, kimi-k2-thinking, minimax-m2, mistral-large, devstral
- 不支持: glm-4.6/4.7, minimax-m2.1
- 还支持部分文生图模型, FLUX.1-dev免费 25 requests, 可以试试
- Try NVIDIA NIM APIs
- 限制 rpm: 40
Cerebras Inference
- 我体验过的速度最快的大模型平台,速度可达 220+ token/s, S级推荐
- 提供的免费模型较少,经常更换,现在包括: glm-4.6, qwen-3-235b-a22b-instruct-2507, gpt-oss-120b, …
- Rate Limits
- RPM: 10~30
- TPD: 1M , 每天 100w token 有点不够用,但爽就完事了
OpenRouter
- 长期稳定,模型丰富
- API Rate Limits
- 不充钱的用户每天 50 rpd, 充了10刀的用户每天 1000 rpd
- 很多公益站都用了 OpenRouter 的渠道
Mistral
- 欧洲主流模型厂商,提供长期稳定的模型api
- 我试过在官方聊天网站 Le Chat 体验的效果很差,远不如国内的模型,
- 我还试过在本地用 Ollama / LM Studio 跑 mistral/devstral 系列的模型也远不如国内的qwen3-32b内的模型,但reddit论坛很多人都在吹mistral系列的模型,我觉得就是老欧人的自嗨
- Rate Limits & Usage tiers
- 免费额度非常大,
- Tokens per Minute 500,000
- Tokens per Month 1,000,000,000,大约每天 rpd 是 3300w
- Codestral
- mistral系列专注于coding的模型似乎有额外的免费额度,但我没用过,因为coding模型竞争太激烈了,有其他选择
国外 Others
groq
- 免费模型种类多,但大模型不多,大多是小模型, 免费额度较少
- 免费大模型包括: kimi-k2-instruct-0905, gpt-oss-120b, llama-4-maverick-17b-128e
- Rate Limits
- rpm - 10~60
- tokens per day 是 100K~500K, 每天的token太少了,不够用
Poe
poe 既不是模型研发厂商,也不是聚合平台,主要业务是方便用户通过ui创建chat-bot和自动化任务bot,也提供了模型api供用户使用
免费用户每天发放 3000 points, 仅当日有效
官方文档提到了支持 claude-code, cline, cursor, continue
佬友 tips: 用之前建议一个个模型按费率和收费标准选一下,像 Grok-4.1-Fast 、Gemini Flash 系列、GPT-5-mini/GPT-5-nano 都不怎么耗积分
我个人不推荐使用这家的api, 因为不支持结构化输出,这是ai非聊天类工具大多需要的基础功能
- Structured outputs are not supported
- The
strictparameter for function calling is ignored, which means the tool use JSON is not guaranteed to follow the supplied schema. - OpenAI Compatible API
Chutes
- 目前限时免费的模型有4个: GLM 4.5 Air, Gpt Oss 20b, Gemma 3 4b, Tongyi DeepResearch 30B
- 免费的模型参数不够大,不如其他平台
- Chutes Free Models
- 目前测试注册就可以用,不需要充钱,只写了限时免费,没找到请求速度限制说明
- 不推荐使用这个平台,因为免费规则经常调整,在25年7月需要充5刀了才给200rpd免费额度
- 目前限时免费的模型有4个: GLM 4.5 Air, Gpt Oss 20b, Gemma 3 4b, Tongyi DeepResearch 30B
ZenMux
- 目前提供了4个免费模型: gemini-3-flash-preview-free, xiaomi/mimo-v2-flash, kuaishou/kat-coder-pro-v1, z-ai/glm-4.6v-flash
- 测试时gemini-3-flash返回异常429, xiaomi-mino能用但速度一般
- 这个平台我看25年8月才开始运营,是不是长期稳定还要让子弹飞一会儿,以后会关注更新
Huggingface
国外平台我用的少,大家可以补充一些反馈和其他平台
其他
- 这么多免费大模型api,不知道有没有什么好的统一管理的方法