详细介绍
IronClaw 是一个基于 OpenClaw 设计理念的 Rust 重新实现,专注于隐私和安全。它的核心原则是:你的 AI 助手应该为你工作,而不是对抗你。
在一个 AI 系统对数据处理日益不透明、与企业利益保持一致的世界中,IronClaw 采用了不同的方法:
- 你的数据归你所有 - 所有信息本地存储、加密,永不离开你的控制
- 默认透明 - 开源、可审计、无隐藏遥测或数据收集
- 自我扩展能力 - 即时构建新工具,无需等待供应商更新
- 纵深防御 - 多层安全防护,防止提示注入和数据泄露
IronClaw 是你可以真正信赖的个人和专业 AI 助手。
主要特性
安全优先
- WASM 沙箱 - 不受信任的工具在隔离的 WebAssembly 容器中运行,具有基于能力的权限
- 凭证保护 - 秘密永不暴露给工具;在主机边界注入,带有泄露检测
- 提示注入防御 - 模式检测、内容清理和策略执行
- 端点白名单 - HTTP 请求仅限于明确批准的主机和路径
始终可用
- 多通道 - REPL、HTTP Webhook、WASM 通道(Telegram、Slack)和 Web 网关
- Docker 沙箱 - 隔离容器执行,采用每个任务令牌和编排器/工作器模式
- Web 网关 - 浏览器 UI,支持实时 SSE/WebSocket 流式传输
- 例程 - Cron 调度、事件触发器、Webhook 处理器,用于后台自动化
- 心跳系统 - 主动后台执行监控和维护任务
- 并行作业 - 使用隔离上下文处理多个并发请求
- 自我修复 - 自动检测和恢复卡住的操作
自我扩展
- 动态工具构建 - 描述你需要什么,IronClaw 将其构建为 WASM 工具
- MCP 协议 - 连接到模型上下文协议服务器以获得额外功能
- 插件架构 - 放入新的 WASM 工具和通道,无需重启
持久记忆
- 混合搜索 - 使用倒数排名融合的全文 + 向量搜索
- 工作区文件系统 - 基于路径的灵活存储,用于笔记、日志和上下文
- 身份文件 - 在会话之间保持一致的性格和偏好
使用场景
个人助手
- 个人信息管理(笔记、日历、联系人)
- 邮件和消息处理
- 个人财务跟踪和分析
- 学习和研究辅助
开发工作流
- 代码审查和重构建议
- 自动化测试和部署
- 文档生成和维护
- 项目管理和任务跟踪
数据处理自动化
- ETL 流程自动化
- 报告生成和调度
- 数据清理和验证
- 批量数据处理
安全敏感环境
- 处理敏感文档(需要本地部署)
- 凭证和密钥管理
- 审计日志生成
- 合规性监控
技术特点
架构设计
- Agent Loop(代理循环) - 主消息处理和作业协调
- Router(路由器) - 对用户意图进行分类(命令、查询、任务)
- Scheduler(调度器) - 管理具有优先级的并行作业执行
- Worker(工作器) - 使用 LLM 推理和工具调用执行作业
- Orchestrator(编排器) - 容器生命周期、LLM 代理、每个作业的身份验证
- Web Gateway(Web 网关) - 浏览器 UI,具有聊天、记忆、作业、日志、扩展、例程
- Routines Engine(例程引擎) - 调度(cron)和反应(事件、webhook)后台任务
- Workspace(工作区) - 具有混合搜索的持久记忆
- Safety Layer(安全层) - 提示注入防御和内容清理
WASM 沙箱安全
- 基于能力的权限 - HTTP、秘密、工具调用的显式选择
- 端点白名单 - HTTP 请求仅限于批准的主机/路径
- 凭证注入 - 秘密在主机边界注入,从不暴露给 WASM 代码
- 泄露检测 - 扫描请求和响应中的秘密泄露尝试
- 速率限制 - 每个工具的请求限制以防止滥用
- 资源限制 - 内存、CPU 和执行时间约束
提示注入防御
- 基于模式的注入尝试检测
- 内容清理和转义
- 具有严重性级别的策略规则(阻止/警告/审查/清理)
- 工具输出包装,用于安全的 LLM 上下文注入
数据保护
- 所有数据本地存储在你的 PostgreSQL 数据库中
- 使用 AES-256-GCM 加密秘密
- 无遥测、分析或数据共享
- 所有工具执行的完整审计日志
与 OpenClaw 的主要区别
- Rust vs TypeScript - 原生性能、内存安全、单一二进制
- WASM 沙箱 vs Docker - 轻量级、基于安全的能力
- PostgreSQL vs SQLite - 生产就绪的持久化
- 安全优先设计 - 多层防御、凭证保护
LLM 提供商支持
- 默认:NEAR AI
- 兼容所有 OpenAI 兼容端点
- 支持选项:OpenRouter(300+ 模型)、Together AI、Fireworks AI、Ollama(本地)
- 自托管服务器:vLLM、LiteLLM
许可证
- Apache License 2.0 OR MIT License(双重许可)