3月26日,OpenClaw创始人彼得·斯坦伯格的一句话引爆舆论:“在美国,你用了OpenClaw可能会被开除;而在中国,你不用反而会被很多公司开除。”尽管OpenClaw目前尚未有官方产品发布,但这一言论精准戳中了当下全球AI落地的现实张力。

在中国,AI正以前所未有的速度渗透进职场的每一个角落。从互联网大厂到中小电商,从行政文员到内容创作者,AI工具已成为“职场标配”。某一线城市的市场专员透露,公司上月起将AI使用纳入KPI考核,“不用AI写周报、做PPT,绩效直接扣分。”类似的“强制AI化”并非个例,而是正在成为一种组织文化。
这种狂热背后,是政策、市场与用户三重推力的叠加。2023年,中国发布“人工智能+”行动方案,鼓励AI在千行百业落地;企业面临成本压力,亟需通过技术提效;而普通打工人也在焦虑中迅速拥抱工具——“AI不会取代人,但会取代不用AI的人”成为职场新信条。
然而,效率的背面是隐忧。有电商运营者坦言,AI曾将“纯棉”误写为“纯丝”,引发客户投诉;内容创作者也发现,平台上的笔记越来越“AI味儿”,创意同质化严重。更值得警惕的是,当AI成为绩效考核的一部分,它是否正从“提效工具”异化为“压榨新手段”?一位网友犀利指出:“所谓AI提效,不过是把省下来的时间变成更多加班。”
法律、隐私与权利优先的治理逻辑
与中国的“先用再说”形成鲜明对比,美国对AI的态度谨慎甚至保守。多家科技公司已明文限制员工使用外部AI工具,理由并非技术落后,而是对失控风险的深度警惕。
核心障碍在于法律与制度。美国律师指出,AI应用面临三大雷区:版权归属不清(AI生成内容是否属于职务作品?)、数据隐私泄露(员工上传内部文档训练模型可能违反CCPA或GDPR)、算法歧视风险(如AI招聘工具隐含性别或种族偏见)。在诉讼文化盛行的美国,任何一次数据泄露都可能引发天价赔偿。
此外,工会与公众对AI的不信任根深蒂固。2023年,好莱坞编剧大罢工的核心诉求之一,就是禁止制片方用AI替代人类创作。这种“权利优先”的社会契约,使得美国在AI应用上天然倾向于“风险预防”而非“效率优先”。
英伟达CEO黄仁勋曾称OpenClaw这类终端智能体为“人类历史上第一台个人人工智能计算机”,但即便技术愿景宏大,现实落地仍需跨越制度鸿沟。彭博社总结道:“当AI在中国已经十分风靡时,美国国内的反应却是褒贬不一。”这种分歧,本质上是两种治理哲学的碰撞:实用主义 vs 风险防控。
未来已来:效率与安全能否兼得?
有趣的是,双方都在悄然向对方靠拢。中国正加速完善AI监管框架——2023年施行的《生成式人工智能服务管理暂行办法》明确要求AI生成内容必须“显著标识”并“人工审核”;而美国也在探索“沙盒机制”,允许在非敏感场景(如内部会议纪要、代码辅助)中有限使用AI。
投资人普遍认为,未来不会是“中国模式”或“美国模式”的单极胜利,而是走向“混合路径”:在保障基本权利的前提下,释放AI的生产力潜能。正如一位科技观察者所言:“技术无国界,但治理有边界。真正的智能,不是让机器取代人,而是让人更像人。”
对普通职场人而言,这场变革带来的启示清晰而现实:AI不是选择题,而是必答题。但关键不在于是否使用,而在于如何使用——保持判断力,守住专业底线,让AI成为“增强智能”(Augmented Intelligence)而非“替代智能”。
效率狂奔的时代,别忘了为何出发
OpenClaw或许只是个符号,但它折射出一个正在加速分化的世界:一边是效率至上的实用主义,一边是权利为先的审慎保守。没有绝对的对错,只有不同的优先级。
但无论在哪片土地,真正的进步不应以牺牲人的尊严为代价。当AI成为职场“硬通货”,我们更需警惕:效率提升的终点,不是让打工人跑得更快,而是让每个人都能在技术浪潮中,站稳脚跟,看清方向,保有选择的权利。
原创文章,作者:何 煦,如若转载,请注明出处:http://damoai.com.cn/archives/15066