提示工程架构师不可不知的自动化部署工具要点:从「手动踩坑」到「流水线交付」的进化之路

一、引入与连接:为什么自动化部署是提示工程的「最后一公里」?

1. 一个真实的「踩坑故事」

小明是某电商公司的提示工程架构师,最近他完成了一项重要任务——设计了一套智能客服提示系统。这套提示能精准识别用户的问题(比如「我的快递怎么还没到?」「退货流程怎么走?」),并调用背后的大语言模型生成符合品牌调性的回复。
但当他想把这个系统部署到生产环境时,麻烦接踵而至:

  • 环境不一致:本地测试好好的提示,放到服务器上就报错——因为服务器的Python版本是3.7,而他用了3.10的新特性;
  • 迭代效率低:每次调整提示(比如优化「退货」场景的回复逻辑),都要手动登录服务器,停止旧服务,上传新代码,重启——整个过程要30分钟,还容易出错;
  • 监控缺失:上线后不知道用户用得怎么样——有没有延迟?有没有错误?有没有用户反馈回复质量下降?

小明的困境,其实是提示工程落地的普遍痛点
提示设计得再完美,如果不能高效、稳定地部署到生产环境,不能快速迭代,不能监控效果,就无法真正发挥价值。而解决这些问题的关键,就是自动化部署工具

2. 自动化部署对提示工程的核心价值

对提示工程架构师来说,自动化部署工具不是「可选工具」,而是「必选基建」。它的价值体现在三个核心场景:

  • 一致性:确保提示模型在「开发环境-测试环境-生产环境」中行为一致,避免「本地跑通,线上崩掉」的尴尬;
  • 效率性:将「修改提示→部署上线」的周期从「小时级」压缩到「分钟级」,支持快速迭代(比如根据用户反馈调整提示策略);
  • 可靠性:通过监控、滚动更新、容错机制,保证提示服务的高可用(比如大促期间流量激增时,自动扩容应对)。

3. 学习路径概览

本文将围绕「提示工程的部署需求」,拆解自动化部署工具的核心逻辑实践要点。你会学到:

  • 如何用「容器化」解决提示模型的「环境一致性」问题?
  • 如何用「CI/CD流水线」实现提示的「快速迭代」?
  • 如何用「编排工具」管理提示服务的「高可用」?
  • 如何用「监控系统」保障提示的「效果稳定性」?

二、概念地图:自动化部署工具的「知识坐标系」

在讲具体工具前,我们需要先建立自动化部署的核心概念框架,明确这些工具在提示工程中的角色:

核心概念 定义 在提示工程中的作用
容器化 将应用程序与依赖(代码、库、环境变量)打包成「容器镜像」的技术 解决提示模型的「环境一致性」问题(比如将提示脚本、大语言模型权重、Python依赖打包成镜像)
CI/CD 持续集成(CI)+ 持续交付(CD):从代码提交到构建、测试、部署的自动化流程 实现提示的「快速迭代」(比如提交提示修改后,自动构建镜像、部署到测试环境,通过后再推到生产)
容器编排 管理多个容器的工具(比如调度、扩容、容错) 管理提示服务的「高可用」(比如当某个容器崩溃时,自动重启;流量增加时,自动增加副本)
GitOps 用Git作为「单一数据源」,通过版本控制管理部署配置的方法 实现提示部署的「可追溯性」(比如回滚到之前的提示版本,只需切换Git分支)
监控与 observability 收集、分析服务运行数据(延迟、错误率、资源使用率)的工具 保障提示的「效果稳定性」(比如发现提示回复延迟过高时,及时扩容或优化)

概念图谱(建议手绘):

提示工程 → 模型训练/提示设计 → 容器化(Docker)→ CI/CD(Jenkins/Argo CD)→ 容器编排(Kubernetes)→ 生产环境 → 监控(Prometheus/Grafana)→ 迭代优化(根据监控数据调整提示)

三、基础理解:自动化部署的「底层砖块」——容器化

1. 容器化:提示模型的「密封集装箱」

如果把提示工程的成果比作「一道菜」,那么容器化就是「装菜的密封盒」——它能把你的提示应用(比如提示脚本、大语言模型、依赖库)和它需要的「厨房环境」(比如Python版本、操作系统、环境变量)全部打包进去,不管放到哪个「厨房」(服务器),都能做出「一模一样的味道」。

关键工具:Docker(最流行的容器化工具)。
核心价值

  • 环境隔离:每个容器都是独立的「小环境」,不会互相干扰(比如一个提示服务用Python 3.10,另一个用3.8,互不影响);
  • 轻量:容器共享主机的操作系统内核,比虚拟机(VM)更节省资源(比如一个Docker容器的内存占用可能只有几十MB,而VM要几GB);
  • 可移植:镜像可以上传到镜像仓库(比如Docker Hub、Harbor),然后在任何支持Docker的服务器上运行。

2. 用Docker打包提示模型:一个极简案例

假设你有一个提示驱动的API服务(用FastAPI写的),功能是接收用户的问题,用提示调用大语言模型(比如OpenAI的gpt-3.5-turbo)生成回复。我们用Docker把它打包成镜像:

步骤1:编写Dockerfile(镜像的「 recipe」)

# 基础镜像:选择轻量的Python 3.10环境
FROM python:3.10-slim

# 设置工作目录
WORKDIR /app

# 复制依赖文件(先复制requirements.txt,避免每次修改代码都重新安装依赖)
COPY requirements.txt .

# 安装依赖(--no-cache-dir减少镜像大小)
RUN pip install --no-cache-dir -r requirements.txt

# 复制应用代码(提示脚本、API服务代码)
COPY app.py .
COPY prompt_template.json .  # 提示模板文件
COPY model/ ./model/          # 大语言模型权重(如果是本地部署的模型)

# 暴露API端口(FastAPI默认用8000)
EXPOSE 8000

# 运行服务(用uvicorn启动FastAPI)
CMD ["uvicorn", "app.py", "--host", "0.0.0.0", "--port", "8000"]

步骤2:构建镜像

docker build -t customer-service-prompt:v1 .

步骤3:运行容器

docker run -d -p 8000:8000 customer-service-prompt:v1

效果:不管你把这个镜像放到哪个服务器(只要安装了Docker),都能运行这个提示服务,而且环境完全一致。

3. 常见误解澄清

  • 误解1:容器化就是虚拟机?
    不是。虚拟机是「完整的操作系统」(比如Windows + Linux),而容器是「进程级隔离」(共享主机内核),更轻量、启动更快(容器启动只需几秒,虚拟机要几分钟)。
  • 误解2:只有大模型需要容器化?
    不是。即使是简单的提示脚本(比如调用OpenAI API的Python脚本),容器化也能解决「依赖冲突」问题(比如不同服务需要不同版本的openai库)。

四、层层深入:自动化部署的「核心流程」与「高级技巧」

1. 第一层:自动化部署的「最小闭环」——从代码到容器

自动化部署的核心流程可以概括为**「代码提交→构建镜像→部署容器」,而CI/CD工具**就是这个流程的「自动化引擎」。

常见CI/CD工具

  • Jenkins:老牌开源工具,适合复杂的流水线(比如需要集成测试、安全扫描);
  • GitHub Actions:与GitHub深度集成,适合轻量级项目(比如提示脚本的自动构建);
  • GitLab CI:与GitLab集成,适合企业内部项目(比如私有镜像仓库的部署)。

案例:用GitHub Actions实现提示服务的自动构建
假设你的提示服务代码存放在GitHub仓库,你可以写一个action(流水线配置文件),当你提交代码时,自动构建Docker镜像并推送到Docker Hub:

# .github/workflows/build.yml
name: Build and Push Docker Image

on:
  push:
    branches: [ main ]  # 当main分支有提交时触发

jobs:
  build:
    runs-on: ubuntu-latest  # 运行在Ubuntu服务器上

    steps:
    - name: Checkout code  # 拉取代码
      uses: actions/checkout@v3

    - name: Login to Docker Hub  # 登录Docker Hub
      uses: docker/login-action@v2
      with:
        username: ${{ secrets.DOCKER_HUB_USERNAME }}  # 从GitHub Secrets获取用户名
        password: ${{ secrets.DOCKER_HUB_TOKEN }}     # 从GitHub Secrets获取令牌

    - name: Build Docker image  # 构建镜像
      run: docker build -t your-docker-username/customer-service-prompt:${{ github.sha }} .

    - name: Push Docker image  # 推送镜像到Docker Hub
      run: docker push your-docker-username/customer-service-prompt:${{ github.sha }}

效果:当你修改提示脚本(比如优化prompt_template.json)并提交到main分支时,GitHub Actions会自动构建新的镜像(标签是提交的SHA值),并推送到Docker Hub。接下来,你只需手动部署这个镜像即可。

2. 第二层:从「手动部署」到「自动部署」——容器编排的价值

如果你的提示服务需要高可用(比如每秒处理1000个请求),或者动态扩容(比如大促期间流量激增),那么容器编排工具(比如Kubernetes)就是必须的。

Kubernetes的核心功能

  • 调度:根据容器的资源需求(比如CPU、内存),自动将容器分配到合适的节点(服务器);
  • 容错:当容器崩溃时,自动重启;当节点故障时,自动将容器迁移到其他节点;
  • 扩容:根据流量变化(比如QPS超过阈值),自动增加或减少容器副本(水平扩容,HPA);
  • 服务发现:通过「Service」资源,让容器之间可以互相访问(比如提示服务调用模型服务)。

案例:用Kubernetes部署提示服务
假设你有一个提示服务的Docker镜像(your-docker-username/customer-service-prompt:v1),你可以用Kubernetes的Deployment资源定义部署配置:

# deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: customer-service-prompt
spec:
  replicas: 3  # 初始副本数(3个容器)
  selector:
    matchLabels:
      app: customer-service-prompt
  template:
    metadata:
      labels:
        app: customer-service-prompt
    spec:
      containers:
      - name: customer-service-prompt
        image: your-docker-username/customer-service-prompt:v1
        ports:
        - containerPort: 8000  # 容器内部端口
        resources:  # 资源限制(避免容器占用过多资源)
          requests:
            cpu: "100m"  # 最小CPU需求(100毫核)
            memory: "256Mi"  # 最小内存需求(256MB)
          limits:
            cpu: "500m"  # 最大CPU限制(500毫核)
            memory: "512Mi"  # 最大内存限制(512MB)

然后用kubectl命令部署:

kubectl apply -f deployment.yaml

效果:Kubernetes会自动启动3个容器,分布在集群的不同节点上。当某个容器崩溃时,Kubernetes会自动重启;当流量增加时,你可以用kubectl scale命令增加副本数(比如kubectl scale deployment customer-service-prompt --replicas=5)。

2. 第二层:高级技巧——用「滚动更新」与「金丝雀发布」保障提示迭代的安全性

提示工程的核心是「迭代」——你需要不断调整提示(比如优化「优惠券」场景的回复),但迭代不能影响用户体验。这时候,高级部署策略就很重要了。

常见策略

  • 滚动更新(Rolling Update):逐步替换旧容器为新容器(比如每次替换1个,直到所有容器都更新),期间服务不中断(Kubernetes默认使用这种策略);
  • 金丝雀发布(Canary Release):先将新提示部署到少量容器(比如1个副本),只让少量用户(比如1%)访问,验证效果后再全面推送;
  • 蓝绿部署(Blue-Green Deployment):同时运行旧版本(蓝)和新版本(绿),验证绿版本没问题后,切换流量到绿版本(适合重大变更)。

案例:用Kubernetes实现金丝雀发布
假设你要发布提示服务的v2版本(优化了「退货」场景的回复),你可以:

  1. 创建一个新的Deployment(customer-service-prompt-v2),设置replicas: 1(1个副本);
  2. 创建一个「服务」(Service),将流量的1%导向v2版本(用weight参数调整);
  3. 监控v2版本的指标(比如响应时间、错误率、用户反馈);
  4. 如果v2版本没问题,逐步增加v2的副本数(比如replicas: 5),减少v1的副本数(比如replicas: 0)。

工具支持

  • Istio:服务网格工具,支持更精细的流量控制(比如根据用户标签(新用户/老用户)分配流量);
  • Argo Rollouts:Kubernetes的滚动更新工具,支持金丝雀发布、蓝绿部署等策略。

3. 第三层:底层逻辑——容器化的「隔离机制」与「性能优化」

要真正用好容器化工具,你需要理解它的底层逻辑,这样才能解决「为什么容器会崩溃?」「为什么镜像这么大?」等问题。

容器的隔离机制

  • Namespace:隔离进程的「视图」(比如PID、网络、挂载点),让容器以为自己是「独立的系统」;
  • Cgroups:限制容器的资源使用(比如CPU、内存、磁盘IO),避免容器占用过多资源(比如一个提示服务的容器占用了全部CPU,导致其他服务崩溃)。

镜像大小优化技巧

  • 多阶段构建:用一个「构建镜像」(比如包含gccmake等工具)编译代码,然后将编译后的文件复制到一个「运行镜像」(比如alpine,轻量Linux发行版),这样可以减小镜像大小(比如从1GB减小到100MB);
  • 清理无用文件:在Dockerfile中,用rm命令删除不需要的文件(比如编译后的中间文件、缓存文件);
  • 使用轻量基础镜像:比如用python:3.10-slim(约100MB)而不是python:3.10(约900MB)。

案例:用多阶段构建优化提示服务镜像
假设你的提示服务需要编译一个C扩展(比如快速处理用户输入的工具),你可以用多阶段构建:

# 第一阶段:构建(用包含编译工具的镜像)
FROM python:3.10 AS builder
WORKDIR /app
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY . .
RUN python setup.py build  # 编译C扩展

# 第二阶段:运行(用轻量镜像)
FROM python:3.10-slim
WORKDIR /app
COPY --from=builder /app/dist/ ./dist/  # 复制编译后的文件
COPY --from=builder /app/requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY app.py .
EXPOSE 8000
CMD ["uvicorn", "app.py", "--host", "0.0.0.0", "--port", "8000"]

效果:镜像大小从原来的1.2GB减小到300MB,传输速度更快(比如从镜像仓库拉取镜像的时间从5分钟缩短到1分钟)。

4. 第四层:高级应用——用「GitOps」实现「部署即代码」

GitOps是一种**「以Git为单一数据源」**的部署方法,它将部署配置(比如Kubernetes的Deployment文件)存放在Git仓库中,通过工具(比如Argo CD、Flux)自动同步仓库中的配置到集群中。

GitOps的核心价值

  • 可追溯性:所有部署变更都有Git提交记录(比如「2024-05-01 小明修改了提示服务的副本数为5」),方便回滚(比如如果新配置有问题,只需切换到之前的Git分支);
  • 一致性:集群中的配置与Git仓库中的配置保持一致(避免「手动修改集群配置」导致的不一致);
  • 协作性:团队成员可以通过Git协作修改部署配置(比如产品经理可以提交一个「增加提示服务副本数」的PR,工程师审核后合并)。

案例:用Argo CD实现GitOps

  1. 将Kubernetes的Deployment文件(deployment.yaml)存放在GitHub仓库中;
  2. 在Argo CD中创建一个「应用」(Application),关联这个GitHub仓库;
  3. 当你修改deployment.yaml(比如将replicas从3改为5)并提交到GitHub时,Argo CD会自动检测到变更,并同步到集群中(将提示服务的副本数增加到5)。

工具支持

  • Argo CD:最流行的GitOps工具,支持Kubernetes、Helm等;
  • Flux:与GitLab深度集成,适合企业内部项目。

五、多维透视:自动化部署的「场景适配」与「未来趋势」

1. 历史视角:自动化部署工具的「进化之路」

自动化部署工具的发展,本质是**「解决软件交付的痛点」**的过程:

  • 早期(2010年前):用Shell脚本手动部署(痛点:容易出错、效率低);
  • 中期(2010-2015年):用配置管理工具(比如Ansible、Chef)自动化部署(痛点:环境一致性差);
  • 近期(2015年后):用容器化(Docker)+ 编排(Kubernetes)+ CI/CD(Jenkins)实现「标准化交付」(痛点:复杂场景的流量控制、可观察性);
  • 现在(2020年后):用GitOps(Argo CD)+ 服务网格(Istio)实现「智能化交付」(解决「快速迭代与稳定性」的矛盾)。

对提示工程的启发
提示工程的部署需求(比如快速迭代、高可用、可观察性),正好契合了自动化部署工具的「进化方向」——从「自动化」到「智能化」

2. 实践视角:不同提示场景的「工具选择」

提示工程的场景很多(比如智能客服、内容生成、代码辅助),不同场景的部署需求不同,工具选择也不同。

场景 需求 推荐工具
轻量级提示服务(比如调用OpenAI API的脚本) 快速部署、低资源占用 GitHub Actions(CI/CD)+ Docker(容器化)+ 云函数(比如AWS Lambda,Serverless)
中量级提示服务(比如本地部署的大语言模型) 高可用、动态扩容 Kubernetes(编排)+ Argo CD(GitOps)+ Istio(流量控制)
企业级提示服务(比如多租户的提示平台) 可追溯、协作性、安全扫描 GitLab CI(CI/CD)+ Harbor(私有镜像仓库)+ Argo CD(GitOps)+ Prometheus(监控)

3. 批判视角:自动化部署工具的「局限性」与「避坑指南」

自动化部署工具不是「银弹」,它也有局限性:

  • 学习曲线陡:Kubernetes的概念很多(比如Pod、Deployment、Service、Ingress),需要花时间学习;
  • 资源消耗大:Kubernetes集群需要至少3个节点(控制平面),对于小项目(比如个人提示服务)来说,成本太高;
  • 复杂度增加:GitOps需要维护Git仓库中的配置文件,对于简单项目来说,可能「过度设计」。

避坑指南

  • 小项目用轻量级工具:比如用Docker Compose(用于本地部署多容器应用)代替Kubernetes;用GitHub Actions代替Jenkins;
  • 不要为了「自动化」而自动化:如果你的提示服务每周只更新一次,那么手动部署可能比配置CI/CD更高效;
  • 优先使用托管服务:比如用阿里云的ACK(托管Kubernetes)、AWS的EKS(托管Kubernetes),减少维护成本。

4. 未来视角:自动化部署的「趋势」与「提示工程的机遇」

未来,自动化部署工具的发展方向是**「更智能、更简化、更贴合AI场景」**:

  • Serverless容器:比如AWS Fargate、阿里云FC,无需管理服务器,按需付费(适合流量波动大的提示服务,比如电商大促期间的客服提示);
  • 模型即服务(MaaS):比如OpenAI的API、Anthropic的Claude API,将模型部署与提示设计分离(提示工程架构师只需关注提示设计,不用管模型部署);
  • AI驱动的部署:比如用大语言模型自动生成部署配置(比如输入「我要部署一个提示服务,需要3个副本,支持金丝雀发布」,模型自动生成Kubernetes的Deployment文件)。

提示工程的机遇
随着自动化部署工具的「智能化」,提示工程架构师可以更专注于核心工作(提示设计、效果优化),而将部署的细节交给工具——这正是「提示工程」的核心价值:用自然语言交互解决复杂问题

六、实践转化:提示工程部署的「 step-by-step 指南」

1. 步骤1:定义提示服务的「部署需求」

在开始部署前,你需要明确:

  • 目标环境:是本地部署还是云部署?是测试环境还是生产环境?
  • 资源需求:提示服务需要多少CPU、内存?(比如本地部署的Llama 2 7B模型需要至少8GB内存);
  • 迭代频率:多久更新一次提示?(比如每天更新一次,还是每周更新一次?);
  • 监控需求:需要监控哪些指标?(比如响应时间、错误率、用户反馈)。

2. 步骤2:选择「合适的工具链」

根据部署需求,选择工具链:

  • 轻量级项目:Docker(容器化)+ GitHub Actions(CI/CD)+ Docker Compose(本地部署);
  • 中量级项目:Docker(容器化)+ Jenkins(CI/CD)+ Kubernetes(编排)+ Prometheus(监控);
  • 企业级项目:Docker(容器化)+ GitLab CI(CI/CD)+ Argo CD(GitOps)+ Istio(流量控制)+ Grafana(可视化)。

3. 步骤3:实现「最小可部署单元」

先实现一个「最小可部署单元」(比如一个简单的提示服务),验证工具链的正确性:

  1. 写一个简单的提示脚本(比如调用OpenAI API的Python脚本);
  2. 用Docker打包这个脚本(编写Dockerfile);
  3. 用CI/CD工具自动构建镜像(比如GitHub Actions);
  4. 用编排工具部署镜像(比如Kubernetes);
  5. 测试服务是否正常运行(比如用curl命令调用API)。

4. 步骤4:优化「部署流程」与「监控体系」

当「最小可部署单元」运行正常后,你可以优化流程:

  • 添加测试环节:在CI/CD流水线中添加「单元测试」(比如测试提示的准确性)、「性能测试」(比如测试提示服务的并发能力);
  • 添加安全扫描:用工具(比如Trivy)扫描Docker镜像中的漏洞(比如openai库的漏洞);
  • 添加监控体系:用Prometheus收集提示服务的指标(比如request_countresponse_timeerror_rate),用Grafana可视化这些指标(比如制作一个「提示服务 dashboard」,显示实时的响应时间和错误率)。

5. 步骤5:迭代「部署策略」

根据用户反馈和监控数据,迭代部署策略:

  • 如果提示服务的响应时间过长,增加副本数(用Kubernetes的HPA);
  • 如果新提示版本的错误率过高,回滚到之前的版本(用GitOps的「切换分支」);
  • 如果用户反馈「退货」场景的回复不好,用金丝雀发布部署新提示版本(验证效果后再全面推送)。

七、整合提升:自动化部署的「知识内化」与「进阶路径」

1. 核心观点回顾

  • 自动化部署是提示工程的「最后一公里」:没有自动化部署,提示设计得再完美也无法落地;
  • 容器化是自动化部署的「基础」:解决「环境一致性」问题;
  • CI/CD是自动化部署的「引擎」:实现「快速迭代」;
  • 编排工具是自动化部署的「 scalability 保障」:实现「高可用」;
  • GitOps是自动化部署的「可追溯性保障」:实现「协作性」。

2. 知识体系的「重构与完善」

请用以下问题,重构你的自动化部署知识体系:

  • 我的提示服务的「部署需求」是什么?(环境一致性?快速迭代?高可用?)
  • 哪些工具能满足我的需求?(Docker?Kubernetes?Jenkins?)
  • 我的工具链的「最小闭环」是什么?(代码→构建→部署→监控)
  • 我需要学习哪些「底层逻辑」?(容器的隔离机制?Kubernetes的调度逻辑?)

3. 思考问题与拓展任务

  • 思考问题
    1. 如果你要部署一个「多租户的提示平台」(每个租户有自己的提示模板),你会用哪些工具?为什么?
    2. 如果你遇到「容器崩溃」的问题,你会怎么排查?(比如用docker logs查看日志,用kubectl describe pod查看事件)
  • 拓展任务
    1. 用Docker打包一个简单的提示服务(比如调用OpenAI API的Python脚本);
    2. 用GitHub Actions实现「代码提交→自动构建镜像→推送到Docker Hub」的流程;
    3. 用Minikube(本地Kubernetes集群)部署这个提示服务,并测试滚动更新。

4. 学习资源与进阶路径

  • 基础学习
    • 《Docker实战》(Docker的入门书籍);
    • 《Kubernetes in Action》(Kubernetes的经典书籍);
    • GitHub Actions官方文档(https://docs.github.com/zh/actions)。
  • 进阶学习
    • 《Istio in Action》(服务网格的经典书籍);
    • 《GitOps with Argo CD》(GitOps的经典书籍);
    • Prometheus官方文档(https://prometheus.io/docs/)。
  • 实践资源
    • 阿里云ACK(托管Kubernetes):https://www.aliyun.com/product/ack;
    • GitHub Actions Marketplace(各种现成的Action):https://github.com/marketplace;
    • Argo CD官方示例(https://github.com/argoproj/argo-cd/tree/master/examples)。

八、结语:自动化部署是「提示工程」的「基建」,也是「竞争力」

提示工程是「用自然语言解决复杂问题」的艺术,而自动化部署是「将艺术转化为产品」的技术。作为提示工程架构师,你需要既要懂提示设计,也要懂部署工具——因为,只有能落地的提示,才有价值。

最后,送给你一句话:
「自动化部署不是「减少工作」,而是「让你有更多时间做更有价值的事」——比如优化提示,提升用户体验。」

附录:提示工程部署的「工具清单」

  • 容器化:Docker、Podman;
  • CI/CD:Jenkins、GitHub Actions、GitLab CI;
  • 编排:Kubernetes、Docker Compose;
  • GitOps:Argo CD、Flux;
  • 监控:Prometheus、Grafana、ELK Stack(日志收集);
  • 服务网格:Istio、Linkerd;
  • 镜像仓库:Docker Hub、Harbor、Quay。

祝你早日实现「提示工程的自动化部署自由」!

Logo

这里是“一人公司”的成长家园。我们提供从产品曝光、技术变现到法律财税的全栈内容,并连接云服务、办公空间等稀缺资源,助你专注创造,无忧运营。

更多推荐