# Tabby — 自托管AI编程助手,GitHub Copilot的开源替代方案
## 项目介绍
[Tabby](https://github.com/TabbyML/tabby) 是一个完全自托管的 AI 编程助手,可以作为 GitHub Copilot 的开源替代方案在本地部署。它无需数据库,无需云服务,开箱即用,支持消费级 GPU,是企业和个人开发者私有化 AI 编程能力的理想选择。
Tabby 由 TabbyML 开发维护,支持代码补全、智能问答、代码搜索等多种功能,同时提供了 VSCode、IntelliJ、JetBrains、Vim 等主流编辑器的插件,可以无缝对接到现有的开发工作流中。
## 核心特色功能
**完全自托管**:不需要任何云服务,所有数据都在你自己的服务器上,保证了代码的隐私安全。
**消费级GPU支持**:最低只需一张 6GB 显存的 NVIDIA 显卡(如 RTX 3060)即可运行,非常适合个人开发者或小团队。
**OpenAPI 接口**:提供标准的 OpenAPI 接口,方便与现有 IDE 或 CI/CD 流程集成。
**Answer Engine 问答引擎**:内置知识库问答功能,可以索引团队内部文档,为开发者提供精准的技术问题解答。
**丰富的IDE插件**:官方提供 VSCode、IntelliJ IDEA、PyCharm、GoLand、Vim、Neovim 等编辑器的插件支持。
**代码仓库上下文**:支持将整个代码仓库作为上下文输入,让 AI 更好地理解项目结构,提供更准确的代码建议。
**团队管理**:支持多用户管理、团队使用统计和权限控制,适合企业环境使用。
## 安装步骤
### 方式一:Docker 一键部署(推荐)
“`bash
# 拉取并运行 Tabby 服务端
docker run -d \
–name tabby \
–privileged \
–gpus all \
-p 8080:8080 \
-v ~/tabby:/data \
tabbyml/tabby \
serve –model TabbyML/StarCoder-1B –device cuda
“`
### 方式二:下载二进制(Linux)
“`bash
# 从 GitHub Releases 下载最新版本
wget https://github.com/TabbyML/tabby/releases/latest/download/tabby-linux-x86_64.tar.gz
tar -xzf tabby-linux-x86_64.tar.gz
./tabby-linux-x86_64/tabby serve –model TabbyML/StarCoder-1B –device cuda
“`
服务启动后访问 http://localhost:8080 进行配置。
### 方式三:使用 Ollama 模型后端
如果你已经有 Ollama 运行,可以配置 Tabby 使用 Ollama 托管的模型:
“`bash
docker run -d –name tabby -p 8080:8080 -v ~/tabby:/data \
tabbyml/tabby serve –model llama3 –device cuda –api-base http://host.docker.internal:11434
“`
## 安装IDE插件
**VSCode**:在扩展商店搜索 “Tabby” 并安装,安装完成后在设置中填入 Tabby 服务端地址即可。
**IntelliJ/JetBrains**:在插件市场搜索 “Tabby” 安装,配置方式与 VSCode 类似。
**Vim/Neovim**:通过 vim-plug 或其他插件管理器安装 Tabby 插件。
## 适用场景
**企业内网部署**:不想将代码发送给第三方服务器的公司,可以在内部服务器部署 Tabby。
**个人开发者**:希望拥有自己专属 AI 编程助手,不想依赖云服务的个人开发者。
**隐私敏感项目**:涉及商业机密或敏感代码的项目,不适合使用云端 AI 服务。
**团队协作**:通过 Tabby 的团队功能,可以统计团队成员的 AI 使用情况,优化开发流程。
## 开源协议
Tabby 采用 Apache-2.0 开源协议,完全免费开源。
—
项目地址:https://github.com/TabbyML/tabby
服务支持:如有兴趣不会搭建,可以联系微信:WRYD6166,开源项目搭建10-50元。








暂无评论内容