搜索
查看: 132|回复: 0

中文大模型汇总

[复制链接]

6

主题

0

回帖

1623

积分

管理员

积分
1623
发表于 2024-1-5 17:19:56 | 显示全部楼层 |阅读模式
模型基本信息
大模型
机构
类别
备注
chatgpt-3.5openai商用风靡世界的AI产品,API为gpt3.5-turbo
gpt4openai商用当前世界最强AI
new-bing微软商用bing搜索用的聊天模型,基于GPT4
文心一言百度商用百度全新一代知识增强大语言模型,文心大模型家族的新成员,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。
chatglm官方智谱AI商用一个具有问答、多轮对话和代码生成功能的中英双语模型,基于千亿基座 GLM-130B 开发,通过代码预训练、有监督微调等技术提升各项能力
讯飞星火科大讯飞商用具有文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力 7 大核心能力。该大模型目前已在教育、办公、车载、数字员工等多个行业和产品中落地。
360智脑奇虎360商用-
阿里通义千问阿里巴巴商用通义千问支持多轮对话,可进行文案创作、逻辑推理,支持多种语言。
senseChat商汤商用商汤推出的聊天模型
minimaxminimax商用Glow app背后大模型
tigerbot-7b官网虎博科技商用/开源TigerBot 是一个多语言多任务的大规模语言模型(LLM),基于bloom模型结构。该模型也有开源版本。
chatglm-6b清华大学&智谱AI开源ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答
belle-llama-7b-2m链家科技开源based on LLAMA 7B and finetuned with 2M Chinese data combined with 50,000 pieces of English data from the open source Stanford-Alpaca, resulting in good Chinese instruction understanding and response generation capabilities.
BELLE-on-Open-Datasets链家科技开源Extending the vocabulary with additional 50K tokens specific for Chinese and further pretraining these word embeddings on Chinese corpus. Full-parameter finetuning the model with instruction-following open datasets: alpaca, sharegpt, belle-3.5m.
belle-llama-13b-2m链家科技开源based on LLAMA 13B and finetuned with 2M Chinese data combined with 50,000 pieces of English data from the open source Stanford-Alpaca.
belle-llama-13b-ext链家科技开源Extending the vocabulary with additional 50K tokens specific for Chinese and further pretraining these word embeddings on Chinese corpus. Full-parameter finetuning the model with 4M high-quality instruction-following examples.
BELLE-Llama2-13B-chat-0.4M链家科技开源This model is obtained by fine-tuning the complete parameters using 0.4M Chinese instruction data on the original Llama2-13B-chat.
Ziya-LLaMA-13B-v1IDEA研究院开源从LLaMA-13B开始重新构建中文词表,进行千亿token量级的已知的最大规模继续预训练,使模型具备原生中文能力。再经过500万条多任务样本的有监督微调(SFT)和综合人类反馈训练(RM+PPO+HFFT+COHFT+RBRS),进一步激发和加强各种AI任务能力。
Ziya-LLaMA-13B-v1.1IDEA研究院开源对Ziya-LLaMA-13B-v1模型进行继续优化,通过调整微调数据的比例和采用更优的强化学习策略,本版本在问答准确性、数学能力以及安全性等方面得到了提升
guanaco-7bJosephusCheung开源Guanaco is an advanced instruction-following language model built on Meta's LLaMA 7B model. Expanding upon the initial 52K dataset from the Alpaca model, an additional 534K+ entries have been incorporated, covering English, Simplified Chinese, Traditional Chinese (Taiwan), Traditional Chinese (Hong Kong), Japanese, Deutsch, and ious linguistic and grammatical tasks. This wealth of data enables Guanaco to perform exceptionally well in multilingual environments.
phoenix-inst-chat-7b香港中文大学开源基于BLOOMZ-7b1-mt,用Instruction + Conversation数据微调,具体数据见phoenix-sft-data-v1
linly-chatflow-13b深圳大学开源基于llama-13b,用5M 指令数据微调
Linly-Chinese-LLaMA2-13B深圳大学开源Linly-Chinese-LLaMA2 基于 LLaMA2进行中文化训练,使用课程学习方法跨语言迁移,词表针对中文重新设计,数据分布更均衡,收敛更稳定。
MOSS-003-SFT复旦大学开源MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。
AquilaChat-7B智源研究院开源悟道·天鹰(Aquila) 语言大模型是首个具备中英双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。AquilaChat 对话模型支持流畅的文本对话及多种语言类生成任务,通过定义可扩展的特殊指令规范,实现 AquilaChat对其它模型和工具的调用,且易于扩展。
tulu-30ballenai开源We explore instruction-tuning popular base models on publicly available datasets. As part of this work we introduce Tülu, a suite of LLaMa models fully-finetuned on a strong mix of datasets!
chatglm2-6b清华大学&智谱AI开源ChatGLM2-6B 是ChatGLM-6B 的第二代版本,更强大的性能,上下文长度从2K 扩展到了 32K,推理速度相比初代提升了 42%,允许商业使用。
Baichuan-13B-Chat百川智能开源Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。
vicuna-33bUC伯克利开源Vicuna is a chat assistant trained by fine-tuning LLaMA on user-shared conversations collected from ShareGPT.
wizardlm-13b微软开源WizardLM: An Instruction-following LLM Using Evol-Instruct
InternLM-Chat-7B上海人工智能实验室开源使用上万亿高质量语料,建立模型超强知识体系;支持8k语境窗口长度,实现更长输入与更强推理体验;通用工具调用能力,支持用户灵活自助搭建流程。
Llama-2-70b-chatmeta开源Meta developed and publicly released the Llama 2 family of large language models (LLMs), a collection of pretrained and fine-tuned generative text models ranging in scale from 7 billion to 70 billion parameters. Our fine-tuned LLMs, called Llama-2-Chat, are optimized for dialogue use cases. Llama-2-Chat models outperform open-source chat models on most benchmarks we tested, and in our human evaluations for helpfulness and safety, are on par with some popular closed-source models like ChatGPT and PaLM.

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

 
 
大数据行业交流
大数据行业交流
大数据求职招聘
大数据求职招聘
站长电话:
15010106923
微信联系:
hb-0310
站长邮箱:
ab12-120@163.com
大数据中国微信

QQ   

版权所有: Discuz! © 2001-2013 大数据.

GMT+8, 2024-5-14 17:31 , Processed in 0.063928 second(s), 24 queries .

快速回复 返回顶部 返回列表