首页
资讯
GPT
元宇宙
区块链
操作系统
数字产品
供应商
大模型
查产品
查企业
查资料
热门搜索:
数字员工
数字孪生
数字化转型
关注公众号
分类
全部
文本
语言
图像
视频
语音
音频
编码
多模态
推理
排序
向量
行业
其他
上下文
全部
<=8k
<=32k
<=64k
<=128k
>128k
热门
全部
DeepSeek
GPT
Claude
通义千问
GLM
Doubao
元宝
排序
默认
发布时间
热度
DeepSeek-R1-Distill-Llama-8B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Llama-70B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月12日
深度求索
DeepSeek-R1-Distill-Qwen-14B
向量表示
16K
本模型是在开源模型的基础上,通过微调训练得到的。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月8日
深度求索
DeepSeek-R1-Distill-Qwen-32B
向量表示
16K
本模型由开源模型的基础上,通过微调训练得到。训练过程中使用了由DeepSeek-R1生成的样本数据。
2025年2月8日
深度求索
DeepSeek-R1-Distill-Qianfan-70B
向量表示
16K
DeepSeek-R1-Distill-Qianfan-70B是由百度千帆团队推出的文本推理模型,基于千帆系列模型的基础上采用高质量的合成推理数据进行蒸馏训练,该模型为通用模型,在中文、英文、数学、代码等方面的表现强于同尺寸参数量的蒸馏模型。
2025年4月24日
深度求索
Qwen3-0.6B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列。
2025年5月8日
通义实验室
Qwen3-1.7B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列,模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
2025年5月8日
通义实验室
Qwen3-4B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。
2025年5月8日
通义实验室
Qwen3-8B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。
2025年5月8日
通义实验室
Qwen3-14B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-14B。
2025年5月8日
通义实验室
Qwen3-32B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。
2025年5月8日
通义实验室
Qwen3-30B-A3B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。
2025年8月7日
通义实验室
1
……
41
42
43
……
44
资讯
一门“洗稿”生意:AI抄袭“神韵” 爆款文章遭批量魔改
DeepSeek V4大模型被曝春节前后发布:AI编程能力质...
25个火过的国产AI应用,凉了
首销备货 3 万台,豆包 AI 手机要卖给谁?
雷军:未来5年人形机器人将大面积在小米工厂上岗
金融人才培养加速“数字化”转型 第二届全国高校数字...
工信部:“十五五”智能网联新能源汽车产业发展规划将...
蚂蚁开源万亿参数思考模型,综合能力逼近GPT-5
中央网信办、国家发展改革委印发《政务领域人工智...
科技部:正在推动人形机器人在汽车制造、物流搬运、...
人工导购
咨询服务
回顶部
联系我们
关注公众号
立刻获取最新消息及人工咨询