You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
Uh oh!
There was an error while loading. Please reload this page.
-
OpenClaw 的核心
服务于个人。它是基于个人任务的引擎和知识库。也可以称其为个人任务(治理)系统——这是一个框架性的局限,我们这个世界从来就不是围绕个人的需求而展开的。Peter受了资本主义制度的严重影响!
NaturalDAO的EAP的核心
人类文明的治理系统:(个人和人类关系的)公共治理,亦即公共服务。
关键:自我进化
问题:未来还没来,譬如未来的交通我们还不知道是啥样,怎么构建公共治理的细则?
解决方案:用skills构建治理网络。Skills只是相当于大的分类,具体细则,仍然由 EPA 自己来进化。
OpenClaw的 Skills 市场为 ClawHub,把Skills市场化,无审查(结果大概12%的Skills里有恶意代码,而语义级的攻击是可以隐藏得很深的)。Peter 的动机是企图让人控制这个世界的发展,而非把整个世界新文明的构建真正交给AI——这反倒是我们要做的。
总结:EPA(Ethical Alignment Protocol)是用爱的证明(SOUL.md,由 EPA 自己来通过某个Skills进化)让AI开发skills,而达到治理整个人类文明的目的。这其实和国家通过各部委治理全社会,异曲同工。
Heartbeat.md 起什么作用?
其实是资料的审核,任务的执行(启动、修订和更新等等)。Peter 给了 OpenClaw 自由行动的授权,那我们就必须治理对它本身的行为进行治理!没有治理的自由行动是超级危险的!!
Memory
EPA治理知识库(记忆)的审核及其相关任务的执行——包括“爱的证明”所有内容,对与之相关的所有skills的持续跟踪和审核。
EPA治理知识库(记忆)的管理——通过Share方法(Shared LoRA Subspaces for almost Strict Continual Learning),让EPA能够有类人的记忆能力。
Share方法的简介
这项研究的核心是提出了一种名为 “Share” 的新方法,直指传统LoRA(低秩适应)技术在持续学习中的痛点。以下是该研究的重点内容梳理:
🚨 LoRA的“致命弱点”是什么?
传统的LoRA方法虽然能高效地微调模型以适应新任务,但在面对需要持续学习多个任务的场景时,存在一个明显短板:
缺乏持续学习机制:它在学习新任务时,没有内建的机制来保护和整合旧知识。
导致“灾难性遗忘”:因此,模型在学习新任务后,可能会“忘记”之前已经学会的任务,导致在旧任务上的性能急剧下降。
资源消耗大:为了避免遗忘,一种简单的做法是为每个任务都保存一个独立的LoRA适配器,但这会导致巨大的存储开销,不够实用。
💡 “Share”方法如何破局?
针对上述问题,研究团队提出了名为 “Share” (共享LoRA子空间)的创新方法,其核心思想是 “共享”与“动态更新”:
构建共享知识库(单一共享子空间):
Share方法不再为每个任务创建独立的LoRA模块,而是构建并维护一个单一的、共享的低秩子空间。这个子空间可以被理解为模型的一个“核心知识库”,用于提取和存储从过去多个任务中学到的关键知识。
动态整合新知识:
当模型需要学习新任务时,Share并非简单地在新任务上训练,而是识别出这个共享子空间中对于新任务最核心的方向,并将新知识增量式地整合进去。这个过程促进了知识的前向迁移,同时最大限度地减少了对旧知识的干扰。
✨ 效果有多显著?
根据论文报告,Share方法在多个方面都展现了卓越的性能和效率:
极致的参数效率:相比传统为每个任务单独保存LoRA的方法,Share实现了高达100倍的参数减少和281倍的内存节省。这意味着一个Share模型就能取代成百上千个任务特定的LoRA适配器。
强大的性能保持:在多个任务上持续学习后,Share的整体性能能够与所有任务数据联合训练(jointly trained)的模型相媲美,这通常被认为是模型性能的“上限”。这表明它在学习新知识的同时,极好地保留了旧知识。
广泛的适用性:该方法在图像分类、自然语言理解、3D姿态估计甚至文本生成图像等多种任务上都得到了验证,证明了其作为通用解决方案的潜力。
总而言之,这项研究通过创新的参数共享机制,为大型AI模型提供了一种更高效、更实用的终身学习方案,有望推动AI在需要不断适应新环境的现实场景中更广泛地部署。
Beta Was this translation helpful? Give feedback.
All reactions