导语: 在AI工具大爆发的今天,拥有一个随时随地能响应你的专属AI助理简直是提高生产力的神器。今天,我将和大家分享一篇硬核又实用的技术笔记——如何从零开始部署开源项目 OpenClaw,并巧妙利用可靠的 API中转站,将强大的 Google Gemini API 接入到你的日常聊天软件中。

点击进入gemini api 中转站 (https://jeniya.cn/)

如果你平时经常使用各类 AI大模型API,或者正在寻找一篇靠谱的 OpenClaw配置教程,那么这篇文章一定会对你有所帮助!👇

🌟 什么是 OpenClaw?

在开始动手之前,先简单科普一下最新鲜的资讯。OpenClaw 是一款非常强大的开源个人 AI 助理网关。

简单来说,它是一个适用于任何操作系统的 AI 智能体网关,支持本地或远程部署。最酷的是,它可以直接运行在你常用的聊天软件里!无论是 WhatsApp、Telegram、Discord、iMessage,还是国内的飞书、QQ、钉钉等,你都可以通过发送消息,随时随地获取智能体的响应。

(参考 OpenClaw 官方中文帮助文档:https://docs.openclaw.ai/zh-CN)

🛠️ 准备工作:系统要求

在折腾代码之前,请确保你的机器满足以下基本环境要求:

  • Node.js 版本: 需要 22+(不用太担心,现在的安装包通常会自动检测和提示)。
  • 操作系统: MacOS、Linux 或 Windows(Windows 用户建议通过 WSL2 进行安装,体验更顺滑)。
  • 包管理器: pnpm(仅在从源代码构建时需要,如果用脚本安装可忽略)。
  • 网络与接口准备: 既然我们要接入 gemini api,考虑到网络连通性和多模型管理的便利性,强烈建议开发者使用稳定的 API中转站。作为技术分享,我个人在开发和测试时经常使用 Jeniya (https://jeniya.cn/)。它不仅接口极其稳定,而且完全兼容 OpenAI 的调用格式,能无缝对接各种开源项目,省去了很多网络配置的烦恼。

💻 开始安装 OpenClaw

第一步:一键脚本安装(强烈推荐 🔥)

对于大多数开发者来说,用脚本安装是最省时省力的选择。

  1. 打开你的终端(Terminal),运行官方提供的安装指令(安装过程中会引导你完成基础设置)。
  2. 安装完成后,我们需要验证一下是否安装成功。在终端输入:
Bashopenclaw --version

如果终端成功返回了版本号,恭喜你,万里长征迈出了第一步!🎉


第二步:OpenClaw 配置向导 (核心部分)

安装完成后,我们需要让 OpenClaw 知道我们要使用哪个 AI 模型。这就是配置第三方 API 接口的环节。

在 OpenClaw 的根目录下,会自动生成一个名为 openclaw.json 的配置文件。你可以使用以下命令直接打开该目录:

Bashopen ~/.openclaw

✍️ 修改 openclaw.json 接入 Gemini API

这里是本教程的重头戏!我们需要将原本默认的配置,修改为通过 Jeniya 这个 API中转站 来调用 Google Gemini 模型。

打开 openclaw.json 文件,清空原有内容(或备份后修改),将以下配置代码复制进去:

💡 开发者避坑指南:
这里的 baseUrl 我们填写的是中转站的兼容地址,这样可以免去复杂的代理设置。apiKey 换成你在 Jeniya 平台生成的令牌。同时,我们将模型 id 设置为了 gemini-1.5-pro(你也可以根据需要改为 gemini-1.5-flash 等)。

JSON{
  "gateway": {
    "mode": "local"
  },
  "agents": {
    "defaults": {
      "model": { 
        "primary": "jeniya-api/gemini-1.5-pro" 
      },
      "models": {
        "jeniya-api/gemini-1.5-pro": {}
      }
    }
  },
  "models": {
    "mode": "merge",
    "providers": {
      "jeniya-api": {
        "baseUrl": "https://jeniya.cn/v1", 
        "apiKey": "sk-xxxxx(请替换为你在 jeniya.cn 复制的真实令牌密钥)",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-1.5-pro",
            "name": "Gemini 1.5 Pro (Jeniya Hub)",
            "reasoning": false,
            "input": ["text", "image"],
            "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
            "contextWindow": 2000000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

📌 配置参数小贴士:

  • 如果您之后的使用要完成各种复杂任务及工具的调用(Function Calling),请确保所选模型支持原生格式;
  • 如果只是想在 Telegram 或飞书里进行日常的文字聊天,使用上述兼容的 openai-completions 格式是完全没有问题的。

第三步:启动网关,见证奇迹 🌟

保存好你的 openclaw.json 文件。回到终端,输入以下命令重新启动 OpenClaw:

Bashopenclaw gateway

如果配置无误,终端会跑起绿色的日志,随后你就能在浏览器中看到已配置好的 OpenClaw 网关界面了!此时,你的 OpenClaw 已经成功连接到了 Gemini 的大脑。🧠


🎉 总结

到这里,我们就已经完整地走完了 OpenClaw配置教程。通过引入 Jeniya 这样优秀的 API中转站,我们不仅轻松绕过了网络限制,还以极其标准化的方式接入了顶级的 AI大模型API(如本例中的 gemini api)。

现在,你可以继续在 OpenClaw 的网关界面中,将它绑定到你的 Telegram 机器人、Discord 频道或是飞书企业应用中了。想象一下,随时随地掏出手机,在常用的聊天软件里就能直接和 Gemini 1.5 Pro 对话,是不是非常赛博朋克?😎

如果在折腾的过程中遇到任何有意思的玩法,或者有任何建议与反馈,欢迎在评论区交流!Happy Coding! 💻✨

By joan