待阅读

HuggingLLM

https://github.com/datawhalechina/hugging-llm

项目简介:介绍 ChatGPT 原理、使用和应用,降低使用门槛,让更多感兴趣的非NLP或算法专业人士能够无障碍使用LLM创造价值。

  • 项目适合以下人员: - 对ChatGPT感兴趣。 - 希望在实际中运用该技术创造提供新的服务或解决已有问题。 - 有一定编程基础。
  • 不适合以下需求人员: - 研究其底层算法细节,比如PPO怎么实现的,能不能换成NLPO或ILQL,效果如何等。 - 自己从头到尾研发一个 ChatGPT。 - 对其他技术细节感兴趣。

DB-GPT

https://github.com/csunny/DB-GPT

随着大模型的发布迭代,大模型变得越来越智能,在使用大模型的过程当中,遇到极大的数据安全与隐私挑战。在利用大模型能力的过程中我们的私密数据跟环境需要掌握自己的手里,完全可控,避免任何的数据隐私泄露以及安全风险。基于此,我们发起了DB-GPT项目,为所有以数据库为基础的场景,构建一套完整的私有大模型解决方案。 此方案因为支持本地部署,所以不仅仅可以应用于独立私有环境,而且还可以根据业务模块独立部署隔离,让大模型的能力绝对私有、安全、可控。

FastChat

https://github.com/lm-sys/FastChat

FastChat 是一个开放平台,用于训练、服务和评估基于大型语言模型的聊天机器人。核心功能包括:
  • The weights, training code, and evaluation code for state-of-the-art models (e.g., Vicuna, FastChat-T5).
    最先进模型(例如,駬马、FastChat-T5)的权重、训练代码和评估代码。
  • A distributed multi-model serving system with Web UI and OpenAI-compatible RESTful APIs.
    一个分布式多模型服务系统,具有Web UI和OpenAI兼容的RESTful API。

川虎

https://github.com/GaiZhenbiao/ChuanhuChatGPT

阅读记录 - 图1

为ChatGPT/ChatGLM/LLaMA/StableLM/MOSS等多种LLM提供了一个轻快好用的Web图形界面

流式传输 / 无限对话 / 保存对话 / 预设Prompt集 / 联网搜索 / 根据文件回答
渲染LaTeX / 渲染表格 / 代码高亮 / 自动亮暗色切换 / 自适应界面 / “小而美”的体验
自定义api-Host / 多参数可调 / 多API Key均衡负载 / 多用户显示 / 适配GPT-4 / 支持本地部署LLM

通过API调用的语言模型

本地部署语言模型

THUDM

CodeGeex https://github.com/THUDM/CodeGeeX

我们介绍了CodeGeeX,这是一个具有130亿个参数的大型多语言代码生成模型,在20多种语言的大型代码语料库上进行了预训练。截至 2022 年 6 月 22 日,CodeGeeX 已在 1,536 个 Ascend 910 AI 处理器集群上接受了超过 8500 亿个代币的训练。CodeGeeX有几个独特的功能:

https://github.com/THUDM/GLM-130B

GLM-130B是一个开放的双语(英汉)双向密集模型,具有1300亿个参数,使用通用语言模型(GLM)算法进行预训练。它旨在支持单个 A100 (40G 8) 或 V100 (32G 8) 服务器上具有 130B 参数的推理任务。通过 INT4 量化,硬件要求可以进一步降低到具有 4 * RTX 3090 (24G) 的单个服务器,几乎没有性能下降。截至 2022 年 7 月 3 日,GLM-130B 已接受超过 4000 亿个文本Token(中英文各 200B)的训练,它具有以下独特功能: