首页
资讯
GPT
元宇宙
区块链
操作系统
数字产品
供应商
大模型
查产品
查企业
查资料
热门搜索:
数字员工
数字孪生
数字化转型
关注公众号
分类
全部
文本
语言
图像
视频
语音
音频
编码
多模态
推理
排序
向量
行业
其他
上下文
全部
<=8k
<=32k
<=64k
<=128k
>128k
热门
全部
DeepSeek
GPT
Claude
通义千问
GLM
Doubao
元宝
排序
默认
发布时间
热度
Qwen3-30B-A3B-Instruct-2507
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。
2025年8月7日
通义实验室
Qwen3-30B-A3B-Thinking-2507
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。
2025年8月7日
通义实验室
Qwen3-235B-A22B
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。
2025年7月28日
通义实验室
Qwen3-235B-A22B-Instruct-2507
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。
2025年7月28日
通义实验室
Qwen3-235B-A22B-Thinking-2507
多模态
16K
实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。
2025年7月28日
通义实验室
gpt-oss-20b
向量表示
16K
模型采用了混合专家(MoE)架构,拥有210亿总参数,激活36亿参数。在常用基准测试中表现与OpenAI o3-mini 类似,内存占用少,可在边缘设备上运行,适合低延迟、本地或专业化场景。
2025年8月7日
Open AI
gpt-oss-120b
向量表示
16K
模型采用了混合专家(MoE)架构,拥有1170亿总参数,激活51亿参数。在竞赛编程、通用问题解决以及工具调用方面,gpt-oss-120b的表现优于OpenAI的o3-mini,并达到或超过了o4-mini的水平,适用于生产、通用及高推理需求场景。
2025年8月7日
Open AI
DeepSeek-R1
向量表示
16K
由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
2025年6月19日
深度求索
DeepSeek-R1-250217
向量表示
16K
由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
2025年6月19日
深度求索
DeepSeek-R1-250225
向量表示
16K
由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
2025年6月19日
深度求索
DeepSeek-R1-250313-1
向量表示
16K
由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
2025年6月19日
深度求索
DeepSeek-R1-250313-2
向量表示
16K
由杭州深度求索人工智能基础技术研究有限公司自研,在数学、代码、自然语言推理等任务上性能表现优异。
2025年6月19日
深度求索
1
……
42
43
44
……
44
资讯
一门“洗稿”生意:AI抄袭“神韵” 爆款文章遭批量魔改
DeepSeek V4大模型被曝春节前后发布:AI编程能力质...
25个火过的国产AI应用,凉了
首销备货 3 万台,豆包 AI 手机要卖给谁?
雷军:未来5年人形机器人将大面积在小米工厂上岗
金融人才培养加速“数字化”转型 第二届全国高校数字...
工信部:“十五五”智能网联新能源汽车产业发展规划将...
蚂蚁开源万亿参数思考模型,综合能力逼近GPT-5
中央网信办、国家发展改革委印发《政务领域人工智...
科技部:正在推动人形机器人在汽车制造、物流搬运、...
人工导购
咨询服务
回顶部
联系我们
关注公众号
立刻获取最新消息及人工咨询