导语: 在AI工具大爆发的今天,拥有一个随时随地能响应你的专属AI助理简直是提高生产力的神器。今天,我将和大家分享一篇硬核又实用的技术笔记——如何从零开始部署开源项目 OpenClaw,并巧妙利用可靠的 API中转站,将强大的 Google Gemini API 接入到你的日常聊天软件中。
点击进入gemini api 中转站 (https://jeniya.cn/)
如果你平时经常使用各类 AI大模型API,或者正在寻找一篇靠谱的 OpenClaw配置教程,那么这篇文章一定会对你有所帮助!👇
🌟 什么是 OpenClaw?
在开始动手之前,先简单科普一下最新鲜的资讯。OpenClaw 是一款非常强大的开源个人 AI 助理网关。
简单来说,它是一个适用于任何操作系统的 AI 智能体网关,支持本地或远程部署。最酷的是,它可以直接运行在你常用的聊天软件里!无论是 WhatsApp、Telegram、Discord、iMessage,还是国内的飞书、QQ、钉钉等,你都可以通过发送消息,随时随地获取智能体的响应。
(参考 OpenClaw 官方中文帮助文档:https://docs.openclaw.ai/zh-CN)
🛠️ 准备工作:系统要求
在折腾代码之前,请确保你的机器满足以下基本环境要求:
- Node.js 版本: 需要
22+(不用太担心,现在的安装包通常会自动检测和提示)。 - 操作系统: MacOS、Linux 或 Windows(Windows 用户建议通过 WSL2 进行安装,体验更顺滑)。
- 包管理器:
pnpm(仅在从源代码构建时需要,如果用脚本安装可忽略)。 - 网络与接口准备: 既然我们要接入 gemini api,考虑到网络连通性和多模型管理的便利性,强烈建议开发者使用稳定的 API中转站。作为技术分享,我个人在开发和测试时经常使用 Jeniya (https://jeniya.cn/)。它不仅接口极其稳定,而且完全兼容 OpenAI 的调用格式,能无缝对接各种开源项目,省去了很多网络配置的烦恼。
💻 开始安装 OpenClaw
第一步:一键脚本安装(强烈推荐 🔥)
对于大多数开发者来说,用脚本安装是最省时省力的选择。
- 打开你的终端(Terminal),运行官方提供的安装指令(安装过程中会引导你完成基础设置)。
- 安装完成后,我们需要验证一下是否安装成功。在终端输入:
Bashopenclaw --version
如果终端成功返回了版本号,恭喜你,万里长征迈出了第一步!🎉
第二步:OpenClaw 配置向导 (核心部分)
安装完成后,我们需要让 OpenClaw 知道我们要使用哪个 AI 模型。这就是配置第三方 API 接口的环节。
在 OpenClaw 的根目录下,会自动生成一个名为 openclaw.json 的配置文件。你可以使用以下命令直接打开该目录:
Bashopen ~/.openclaw
✍️ 修改 openclaw.json 接入 Gemini API
这里是本教程的重头戏!我们需要将原本默认的配置,修改为通过 Jeniya 这个 API中转站 来调用 Google Gemini 模型。
打开 openclaw.json 文件,清空原有内容(或备份后修改),将以下配置代码复制进去:
💡 开发者避坑指南:
这里的baseUrl我们填写的是中转站的兼容地址,这样可以免去复杂的代理设置。apiKey换成你在 Jeniya 平台生成的令牌。同时,我们将模型id设置为了gemini-1.5-pro(你也可以根据需要改为gemini-1.5-flash等)。
JSON{
"gateway": {
"mode": "local"
},
"agents": {
"defaults": {
"model": {
"primary": "jeniya-api/gemini-1.5-pro"
},
"models": {
"jeniya-api/gemini-1.5-pro": {}
}
}
},
"models": {
"mode": "merge",
"providers": {
"jeniya-api": {
"baseUrl": "https://jeniya.cn/v1",
"apiKey": "sk-xxxxx(请替换为你在 jeniya.cn 复制的真实令牌密钥)",
"api": "openai-completions",
"models": [
{
"id": "gemini-1.5-pro",
"name": "Gemini 1.5 Pro (Jeniya Hub)",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 2000000,
"maxTokens": 8192
}
]
}
}
}
}
📌 配置参数小贴士:
- 如果您之后的使用要完成各种复杂任务及工具的调用(Function Calling),请确保所选模型支持原生格式;
- 如果只是想在 Telegram 或飞书里进行日常的文字聊天,使用上述兼容的
openai-completions格式是完全没有问题的。
第三步:启动网关,见证奇迹 🌟
保存好你的 openclaw.json 文件。回到终端,输入以下命令重新启动 OpenClaw:
Bashopenclaw gateway
如果配置无误,终端会跑起绿色的日志,随后你就能在浏览器中看到已配置好的 OpenClaw 网关界面了!此时,你的 OpenClaw 已经成功连接到了 Gemini 的大脑。🧠
🎉 总结
到这里,我们就已经完整地走完了 OpenClaw配置教程。通过引入 Jeniya 这样优秀的 API中转站,我们不仅轻松绕过了网络限制,还以极其标准化的方式接入了顶级的 AI大模型API(如本例中的 gemini api)。
现在,你可以继续在 OpenClaw 的网关界面中,将它绑定到你的 Telegram 机器人、Discord 频道或是飞书企业应用中了。想象一下,随时随地掏出手机,在常用的聊天软件里就能直接和 Gemini 1.5 Pro 对话,是不是非常赛博朋克?😎
如果在折腾的过程中遇到任何有意思的玩法,或者有任何建议与反馈,欢迎在评论区交流!Happy Coding! 💻✨