首页
资讯
GPT
元宇宙
区块链
操作系统
数字产品
供应商
大模型
查产品
查企业
查资料
热门搜索:
数字员工
数字孪生
数字化转型
关注公众号
分类
全部
文本
语言
图像
视频
语音
音频
编码
多模态
推理
排序
向量
行业
其他
上下文
全部
<=8k
<=32k
<=64k
<=128k
>128k
热门
全部
DeepSeek
GPT
Claude
通义千问
GLM
Doubao
元宝
排序
默认
发布时间
热度
Qwen3-Embedding-8B
图像理解
16K
Qwen3 Embedding 模型系列是 Qwen 家族的最新专有模型,专门设计用于文本嵌入和排序任务。基于 Qwen3 系列的密集基础模型,它提供了各种大小(0.6B、4B 和 8B)的全面文本嵌入和重排序模型。该系列继承了其基础模型卓越的多语言能力、长文本理解和推理技能。Qwen3 Embedding 系列表现出了在多种文本嵌入和排序任务中的显著进步,包括文本检索、代码检索、文本分类、文本聚类和双语文本挖掘。
2025年8月15日
通义实验室
stablelm-base-alpha-7b
多模态
16K
Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。[了解更多>](https://huggingface.co/stabilityai/stablelm-base-alpha-7b)
2023年9月3日
Stability AI
gpt-neox-20b
多模态
16K
由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。[了解更多>](https://huggingface.co/EleutherAI/gpt-neox-20b)
2023年9月3日
其他
gpt-j-6b
多模态
16K
EleutherAI开发的6B参数transformer模型,基于[Mesh Transformer JAX训练](https://github.com/kingoflolz/mesh-transformer-jax/)。[了解更多>](https://huggingface.co/tiiuae/falcon-40b-instruct)
2023年9月3日
其他
gpt4all-j
多模态
16K
EleutherAI开发的6B参数transformer模型,基于[Mesh Transformer JAX训练](https://github.com/kingoflolz/mesh-transformer-jax/)。[了解更多>](https://huggingface.co/tiiuae/falcon-40b-instruct)
2023年9月3日
其他
pythia-12b
多模态
16K
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。[了解更多>](https://huggingface.co/EleutherAI/pythia-12b)
2023年9月3日
其他
oasst-sft-4-pythia-12b-epoch-3.5
多模态
16K
由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。[了解更多>](https://huggingface.co/EleutherAI/pythia-12b)
2023年9月3日
其他
Cerebras-GPT-13B
多模态
16K
由Cerebras研发并开源,使用 Chinchilla 公式进行训练的13B参数GPT模型,可为给定的计算预算提供最高的准确性,具备更低的训练成本与功耗。[了解更多>](https://huggingface.co/cerebras/Cerebras-GPT-13B)
2023年9月3日
其他
mpt-30b-instruct
多模态
16K
MPT-30M-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在更为丰富的数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。[了解更多>](https://huggingface.co/mosaicml/mpt-30b-instruct)
2023年9月3日
其他
mpt-7b-instruct
多模态
16K
MPT-7B-Instruct是一种短格式指令遵循模型,由MosaicML研发,基于MPT-7B模型在Databricks Dolly-15k、HH-RLHF数据集上调优的版本,采用经过修改的仅使用解码器的transformer架构。[了解更多>](https://huggingface.co/mosaicml/mpt-7b-instruct)
2023年8月1日
其他
dolly-v2-12b
多模态
16K
由Databricks训练的指令遵循大语言模型。基于pythia-12b,由InstructGPT论文的能力域中生成的约15k指令/响应微调记录训练。[了解更多>](https://huggingface.co/databricks/dolly-v2-12b)
2023年8月1日
其他
openllama-7b-v5-fp16
多模态
16K
在Meta AI研发的Llama模型基础上,OpenBuddy进行调优,涵盖了更广泛的词汇、通用字符与token嵌入,具备与Llama相当的性能与推理效果。[了解更多>](https://huggingface.co/OpenBuddy/openbuddy-openllama-7b-v5-fp16)
2023年8月1日
其他
1
……
35
36
37
……
47
资讯
国家数据局确认 Token中文名:词元
AI养肥了腾讯云,马化腾:首次规模化盈利
Token调用量暴增,阿里云宣布AI算力和存储产品最高...
我们决定:让 AI 接管 Seele AI 的办公
企业微信支持3步接入OpenClaw
智谱旗舰 GLM-5 实测:对比 Opus 4.6 和 GPT-5.3-C...
3 年、1 万人,快手技术团队首次系统披露 AI 研发...
Claude Opus 4.6 和GPT-5.3 Codex 同时发布
一门“洗稿”生意:AI抄袭“神韵” 爆款文章遭批量魔改
DeepSeek V4大模型被曝春节前后发布:AI编程能力质...
人工导购
咨询服务
回顶部
联系我们
关注公众号
立刻获取最新消息及人工咨询