探索我们支持的全球顶尖 AI 模型
优先体验高分口碑与高可靠性的模型组合
512K tokens
256K tokens
200K tokens
1M tokens
OpenAI 2025 最强专业版模型,在复杂推理、代码生成等方面表现卓越
OpenAI 2025 最新对话模型,在推理、代码、创意写作等方面表现卓越,支持缓存加速
OpenAI GPT-4 系列升级版,在推理和创意任务上表现优异
OpenAI 2025 旗舰代码专用模型,具备最强代码理解和生成能力,支持超大上下文和复杂代码任务
OpenAI 2025 最新旗舰模型,在推理、代码、创意写作等方面全面升级,支持缓存加速
OpenAI 多模态旗舰模型,支持文本、图像、音频全方位理解
Anthropic 最强模型,在复杂推理、创意写作、深度分析等任务上达到顶尖水平
Google AI Studio 2025 最新前沿多模态模型,突破性推理能力和卓越性能
GPT-4o 轻量版,以更低成本提供多模态能力
OpenAI 2025 代码专用模型,专注于代码理解、生成和优化,支持缓存加速
GPT-4.1 轻量版本,在保持优秀性能的同时更经济高效
Anthropic 2025 旗舰模型,在代码生成、分析、写作等任务上表现卓越
OpenAI 2025 轻量级代码模型,在保持高质量代码能力的同时提供更快的响应速度和更低的成本
GPT-4.1 超轻量版本,极致性价比适合简单快速任务
Google AI Studio 文生图预览模型,支持 1K/2K/4K 分辨率、思维链推理与 Search Grounding
字节跳动豆包 1.8 版本旗舰模型,全面均衡的大语言模型能力
字节跳动豆包代码专用模型,专注于代码理解、生成和优化
月之暗面 Kimi 代码专用模型,专注于代码理解、生成和优化
DeepSeek 最新旗舰模型 V3.2,6850 亿参数,推理能力媲美 GPT-5,支持 128K 上下文
AWS 推出的高性能多模态模型,支持文本和图像理解
Google AI Studio 2025 旗舰多模态模型,支持超长上下文和强大的多模态理解能力
字节跳动豆包旗舰模型,全面均衡的大语言模型能力
字节跳动豆包推理模型,具备强大的深度思考和推理能力
字节跳动豆包翻译专用模型,提供高质量的多语言翻译服务
豆包快速版本,提供更快响应速度和更经济的价格
AWS Nova 轻量版,提供快速且经济的多模态能力
Google Vertex AI 旗舰多模态模型,支持超长上下文和强大的多模态理解能力
国产开源推理模型,在数学、代码、科学推理等任务上媲美 o1,性价比极高
Google AI Studio 高速多模态预览模型,低延迟高性价比
AWS Nova 超轻量版,提供极致性价比的文本处理能力
xAI 最新旗舰模型,具备实时互联网搜索能力,知识更新及时
豆包轻量版本,提供极致性价比的大语言模型能力
xAI 代码优化模型,专为快速代码生成和理解设计
xAI Grok-4 快速版本,在保持强大能力的同时提供更快响应速度
阿里云通义千问 32B 参数大模型,免费商用的强大AI助手
腾讯混元机器翻译模型,超低成本的多语言翻译服务
国产超长上下文模型,支持 200 万字输入,擅长长文档分析和处理
月之暗面推理增强模型,具备交织思考与工具调用能力,擅长复杂推理和代理任务
字节跳动豆包大型文本嵌入模型,提供更高质量的文本向量化能力
阿里通义千问 3.0 旗舰模型,中文能力强,性价比高
字节跳动豆包视觉嵌入模型,支持图像和多模态内容的向量化
阿里云通义千问代码专用大模型,免费开源的AI编程助手
字节跳动豆包文本嵌入模型,用于文本向量化和语义检索
OpenAI 2025 最新图像生成模型,理解能力和图像质量全面提升
Mistral AI 旗舰级 MoE 开源模型,675B 总参数,支持多模态和 256K 上下文
强大的语音识别模型,支持多语言转录和翻译
高性能文本嵌入模型,用于语义搜索和相似度计算
Google AI Studio 快速多模态模型,支持超长上下文
Google Vertex AI 快速多模态模型,支持超长上下文,企业级可靠性
Google AI Studio 超轻量级多模态模型,极速响应
Google Vertex AI 超轻量级多模态模型,极速响应,企业级部署
Mistral AI 边缘优化大型模型,14B 参数,支持视觉理解和推理能力
Mistral AI 边缘优化中型模型,8B 参数,支持视觉理解和滑动窗口注意力机制
Mistral AI 边缘优化小型模型,3B 参数,支持视觉理解和 128K 上下文
Perplexity 在线搜索模型,实时访问互联网获取最新信息
Perplexity 高性能在线搜索模型,提供更强大的推理和信息整合能力
智谱AI最新旗舰模型,代码能力对齐 Claude Sonnet 4,支持 200K 超长上下文,具备深度推理和工具调用能力