首页
资讯
GPT
元宇宙
区块链
操作系统
数字产品
供应商
大模型
查产品
查企业
查资料
热门搜索:
数字员工
数字孪生
数字化转型
关注公众号
分类
全部
文本
语言
图像
视频
语音
音频
编码
多模态
推理
排序
向量
行业
其他
上下文
全部
<=8k
<=32k
<=64k
<=128k
>128k
热门
全部
DeepSeek
GPT
Claude
通义千问
GLM
Doubao
元宝
排序
默认
发布时间
热度
DeepSeek-R1-Distill-Qianfan-Llama-70B
向量表示
16K
DeepSeek-R1-Distill 系列模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月13日
深度求索
DeepSeek-R1-Distill-Qwen-1.5B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Qwen-7B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Llama-8B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Llama-70B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Qwen-14B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月8日
深度求索
DeepSeek-R1-Distill-Qwen-32B
向量表示
16K
本模型由开源模型的基础上,通过微调训练得到。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月8日
深度求索
DeepSeek-R1-Distill-Qianfan-70B
向量表示
16K
DeepSeek-R1-Distill-Qianfan-70B是由百度千帆团队推出的文本推理模型,基于千帆系列模型的基础上采用高质量的合成推理数据进行蒸馏训练,该模型为通用模型,在中文、英文、数学、代码等方面的表现强于同尺寸参数量的蒸馏模型。
2025年4月24日
深度求索
Qwen3-0.6B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列。
2025年5月8日
通义实验室
Qwen3-1.7B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列,模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
2025年5月8日
通义实验室
Qwen3-4B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
2025年5月8日
通义实验室
Qwen3-8B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。
2025年5月8日
通义实验室
1
……
43
44
45
……
47
资讯
国家数据局确认 Token中文名:词元
AI养肥了腾讯云,马化腾:首次规模化盈利
Token调用量暴增,阿里云宣布AI算力和存储产品最高...
我们决定:让 AI 接管 Seele AI 的办公
企业微信支持3步接入OpenClaw
智谱旗舰 GLM-5 实测:对比 Opus 4.6 和 GPT-5.3-C...
3 年、1 万人,快手技术团队首次系统披露 AI 研发...
Claude Opus 4.6 和GPT-5.3 Codex 同时发布
一门“洗稿”生意:AI抄袭“神韵” 爆款文章遭批量魔改
DeepSeek V4大模型被曝春节前后发布:AI编程能力质...
人工导购
咨询服务
回顶部
联系我们
关注公众号
立刻获取最新消息及人工咨询