huggingface 如何部署
时间: 2025-02-24 12:28:56 浏览: 70
### 部署 Hugging Face 模型的方法
#### 使用 DigitalOcean 提供的一键式部署方案
DigitalOcean 已经推出了名为 “HUGS on DO”的一键式模型部署服务,该服务允许用户轻松地将流行的、第三方生成式 AI 模型部署到其 GPU Droplets 上。这种解决方案不仅简化了操作流程,而且提高了效率,使得启动 AI 应用变得更加迅速和便捷[^4]。
```bash
# 创建一个新的GPU Droplet并选择预配置的Hugging Face镜像
doctl compute droplet create my-huggingface-droplet \
--image hug-mt-gpu-ubuntu-20-04-x64 \
--region nyc1 \
--size g-2vcpu-8gb \
--ssh-keys <your_ssh_key_id>
```
#### 手动部署至服务器或本地环境
对于希望手动控制整个过程的情况,可以从访问 Hugging Face 官网开始,在那里可以根据具体需求挑选合适的模型。之后按照官方文档指导来设置开发环境,这通常涉及到安装 Python 虚拟环境、必要的依赖包以及克隆特定仓库中的源码文件等步骤[^3]。
```python
from transformers import pipeline, AutoModelForTokenClassification, AutoTokenizer
model_name = "dslim/bert-base-NER"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForTokenClassification.from_pretrained(model_name)
nlp = pipeline("ner", model=model, tokenizer=tokenizer)
result = nlp("My name is Wolfgang and I live in Berlin.")
print(result)
```
#### 利用 Docker 进行容器化部署
为了实现跨平台兼容性和隔离性,还可以考虑采用 Docker 技术来进行容器化的部署方式。这种方式特别适合那些计划长期维护多个不同版本的应用程序实例的企业级项目。只需编写好相应的 `Dockerfile` 文件,并利用命令构建映像即可完成部署准备阶段的工作[^2]。
```dockerfile
FROM python:3.9-slim-buster
WORKDIR /app
COPY requirements.txt .
RUN pip install -r requirements.txt
COPY . .
CMD ["uvicorn", "main:app", "--host", "0.0.0.0", "--port", "80"]
```
阅读全文
相关推荐


















