在继续浏览本公司网站前,请您仔细阅读此重要提示,并向下滚动至本页结尾根据您的实际情况进行选择。
请您确认您或您所代表的机构是一名“合格投资者”。“合格投资者”是指根据中华人民共和国境内法律法规,即中国证监会《私募投资基金监督管理暂行办法》所规定的“合格投资者”。《私募投资基金监督管理暂行办法》对合格投资者规定的标准如下:
一、具备相应风险识别能力和风险承担能力,投资于单只私募基金的金额不低于100万元且符合下列相关标准的单位和个人:
1、净资产不低于1000万元的单位;
2、金融资产不低于300万元或者最近三年个人年均收入不低于50万元的个人,前款所称金融资产包括银行存款、股票、债券、
基金份额、资产管理计划、银行理财产品、信托计划、保险产品、期货权益等。
二、下列投资者视为合格投资者:
1、社会保障基金、企业年金等养老基金、慈善基金等社会公益基金;
2、依法设立并在基金业协会备案的投资计划;
3、投资于所管理私募基金的私募基金管理人及其从业人员;
4、中国证监会规定的其他投资者。
如果您继续访问或使用本网站及其所载资料,即表明您声明及保证您或您所代表的机构为“合格投资者”,并将遵守对您适用的司法区域的有关法律及法规,同意并接受以下条款及相关约束。如果您不符合“合格投资者”标准或不同意下列条款及相关约束,请勿继续访问或使用本网站及其所载信息及资料。
本网站所载的资料仅供参考,并不构成广告或分销、销售要约,或招揽买入任何证券、基金或其他投资工具的邀请或要约。投资涉及风险,投资者应详细审阅产品的发售文件以获取进一步资料,了解有关投资所涉及的风险因素,并寻求适当的专业投资和咨询意见。产品净值及其收益存在涨跌可能,过往的产品业绩数据并不预示产品未来的业绩表现。本网站所提供的资料并非投资建议或咨询意见,投资者不应依赖本网站所提供的信息及资料作出投资决策。
我公司及任何雇员不对本网站所提供的资料的准确性、充足性和完整性作任何保证,也不对于本网站内所提供资料之任何错误或遗漏承担任何法律责任。与本网站所载信息及资料有关的所有版权、专利权、知识产权及其他产权均为本公司所有。本公司概不向浏览该资料人士发出、转让或以任何方式转移任何种类的权利。
2026年开春,一只“红色龙虾”悄然爬上了全球千万台电脑的桌面。
这不是餐桌上的美味,而是一款名为OpenClaw的开源AI智能体。因其图标是一只鲜红的龙虾,训练这款AI,就被网友戏称为“养龙虾”。
相较传统AI聊天机器人(15.230, -0.27, -1.74%),这只“龙虾”能做的事多得多:接管键盘鼠标、自动整理文件、起草邮件、填写表格、分析数据……一句话,不仅能“动嘴”回答,更能“动手”执行,俨然一位不知疲倦的数字员工。
于是,“龙虾”瞬间点燃了全球开发者的热情。开源平台GitHub上,其星标数短短数月内突破25万,成为最受瞩目的开源项目之一。
但就在无数人欢呼“生产力革命”到来时,质疑声也越来越多:有人账户里的钱被悄悄转走,有人电脑被黑客远程控制,还有人积累了多年的工作文件被一键清空……中国工业和信息化部、国家互联网应急中心等机构接连发布安全风险预警。
这就形成了一个“龙虾悖论”:想让它做的事情越多,给它的权限必须越大;权限越大,安全风险就越高。这个“悖论”怎么破?记者进行了采访。
安装易,用好难
装“龙虾”,只需点击几下。但真正用好它,却是一道难度不小的综合题。
小水智能CEO孙雪峰是最早一批“龙虾”使用者。第一次使用时,孙雪峰雄心勃勃,“上来就派了一个大活儿”,让“龙虾”比照一个全球知名论坛,从头搭建类似平台。“当它开始一步步向我汇报进展时,我觉得肯定没问题。”孙雪峰说,结果验收时傻了眼:除了一堆空文件夹,什么都没有。
“我当时特别失望。”孙雪峰说,“后来我才想明白,不是‘龙虾’不靠谱,是我没有真正理解它,也没学会怎么使用。”
“这款AI放大的是每个人的原有能力,但不能凭空给人增加能力。”一人公司创业者、声序智能创始人王钰博告诉记者,许多人安装是出于好奇或焦虑,而非明确的痛点需求。她自己也踩过坑:一次让“龙虾”修改代码,却忘了指令“完成后重启服务”,结果卡壳数小时。
“使用者需要对预期结果有清晰判断,再把权限交给AI,否则用户没有及时掰正方向的话,AI就会按自己认为正确的方式走下去,出问题也不知道怎么修。”王钰博说。
如果说“不好用”带来的是挫败感,那么“不安全”带来的则是实实在在的损失。有用户因服务暴露在公网上,且浏览器保存了自己的信用卡信息,导致卡片被盗刷;Meta公司的AI安全负责人Summer Yue则曾眼睁睁看着失控的“龙虾”飞速删除了自己邮箱中两百多封邮件。
北京哪吒互娱创始人苏魁坦言,之所以迟迟未敢出手安装“龙虾”,就是顾虑于安全风险:“你想让它帮你做的事情越多,给它的权限就必须越大,万一失控,捅的娄子就越大。”
腾讯云安全副总经理、AI Agent安全中心负责人谢奕智告诉记者,当前龙虾等AI智能体(Agent)主要存在两大典型安全风险:一是系统稳定性风险,AI不可控的行为可能导致系统崩溃;二是核心密钥泄露风险,为保障AI执行能力需授予密钥权限,攻击者可通过诱导式提示词,致使密钥被直接泄露。
缺乏审核的第三方插件(Skills)也是风险重灾区。据国家网络与信息安全信息通报中心通报,对3016个技能插件的分析发现,有336个插件包含恶意代码,占比高达10.8%。
一道清晰的“分水岭”已出现。“养龙虾”成功的用户,大多遵循“最小权限原则”,往往在沙箱中隔离测试,对高风险操作,设置人工确认环节;失败者,则往往对新事物的风险预估不足,一兴奋就交出全部权限,从而陷入被动。因此,决定“龙虾”实际价值的,首先是使用者的安全意识和数字素养。
是帮手,不是万能
“养龙虾”热潮激起的波澜很快超越产品本身,演变成关于AI发展方向的讨论。
力挺“龙虾”的人认为,该产品代表了未来方向。今年全国两会上,全国政协委员、中国科学院计算技术研究所研究员张云泉就表示,现在“养龙虾”创业流行,OPC(一人公司)发展势头很猛,未来大家都要加强学习,使用智能体工具。支持者认为,真正的风险就是错失新技术。
苏魁向记者讲述了自己的“转变时刻”:一次直播演示中,“龙虾”的长期记忆和自主运行能力打动了他,他随即为公司配了两只“龙虾”,一只“主内”充当“主管”,一只“主外”负责每日内容宣发,结果也很好:每日新增10—20名用户,付费用户月增长3—5倍,而每月总成本不过60元。
在苏魁看来,“龙虾”改变的不只是效率,更是单人创业的可能性边界:“人的能量有多大,不取决于有多少钱,也不取决于专业能力多强,而取决于创意能力如何。只要创意够好,再加上一群数字员工配合,就可以做大事业。”
“AI相当于我的多个员工,前端、后端、运营宣发,跟我组成团队。”作为一人公司创业者,王钰博这样描述道。她有多年民乐经验和AI开发背景,用“龙虾”搭建了一个民乐曲谱转换平台。在她看来,AI填平了算法工程师和产品开发者之间的技能鸿沟,可以帮助她推进复杂项目。
也有相对冷静的观点。孙雪峰认为,“龙虾”目前还干不了两类事:一是财务与决策,还需要时间建立新标准、新安全规范,因为人类除了干活能力,还承担法律责任与社会责任;二是任何需要人和人当面完成、带有情感交互的场景,AI还替代不了。
王钰博则认为,“龙虾”能协助的是执行层,判断层依然是人的地盘。她打了个比方:家里买齐了锅碗瓢盆、各式铲子和微波炉,不代表这个人就能成为好厨师。AI是工具,能不能用好,关键在人。
机构的态度更为审慎。目前,北京大学、安徽师范大学、珠海科技学院等多所高校已经发布预警,要求师生关注使用风险,一些高校严禁在处理教学科研数据、行政办公信息等核心场景中使用“龙虾”,有的甚至要求已安装者立即卸载清理。
谢奕智表示:“担忧是对的,但风险并不来源于技术本身,主要集中在权限滥用和恶意插件引入这些环节。关键是做好安全管控。”
不必恐慌,也别盲目
面对“龙虾热”,包括监管部门在内,各行各业都在快速作出反应。
工业和信息化部、国家互联网应急中心分别发布“龙虾”安全风险警示,明确提出“六要六不要”,点明“提示词注入”、“误操作”、功能插件(skills)投毒、安全漏洞等四类严重风险,并提出强化网络控制、加强凭证管理、严格管理插件来源、持续关注补丁和安全更新等相关建议。这体现了监管层对AI新工具“包容审慎”的态度——既不一刀切封堵,也不放任自流。
安全正成为新的竞争维度。“龙虾热”不仅催生挑战,也带来新的市场机会。一些网络安全公司推出针对AI智能体的防护方案,例如腾讯云等已推出AI Agent安全中心,提供插件安全扫描、行为全流程审计、密钥沙箱隔离等安全防护。“现在很多国内企业部署AI Agent,首要问题就是安全性够不够。安全不是可选项,而是必答题。”谢奕智说。
普通人应当如何面对“龙虾”为代表的AI热潮?受访者们给出的建议相对一致:不必恐慌,也别盲目。谢奕智建议,如果日常工作重复性高、偏流程化,可以尝试小范围试点应用AI Agent,严格做好权限管控,循序渐进把风险逐步降到最低;苏魁则表示最好是有长期的AI需求,如果今天想用明天又不用,“龙虾”就不太合适。
总之,真正决定AI工具是“神器”还是“灾难”的,往往是人的认知是否能跟上工具迭代。每一次技术迭代,都是重新平衡效率和风险,也对用户的数字素养、安全意识等提出更高要求。说到底,要让工具创造价值,首先要具备真正驾驭工具的能力。
来源:观海新闻
声明:文章转载分享,不做商业用途,如有侵权,请联系即行删除。