人人都在“养龙虾”,律师:“养龙虾”的3个法律提醒
最近圈子里流行把AI戏称为“龙虾”——大概是因为LobsterAI的Lobster二字,让人忍不住这么叫。打开手机,满屏都是“不会养龙虾就会被淘汰”“靠龙虾月入十万”的焦虑叙事。好多朋友跑来问我:“律师,你怎么看?我要不要赶紧砸钱学?”
这几天我自己也一直在想这件事,说完全不焦虑,是假的——看着身边人陆续开始用AI提效,总会隐隐担心:跟不上,会不会真的被时代甩在后面?可真要一头扎进去,又不知道哪条路是坑、哪条路是路,越想越拿不定主意。
这种感受,我相信不止我一个人有。
确实,2026年开年以来,AI行业的技术迭代确实肉眼可见地快:钉钉开放了大模型API限时免费调用,网易LobsterAI打通了企业微信、QQ等主流办公平台,智谱推出了可以一分钟本地部署的AutoClaw技术。看起来好像“不用AI就真的落伍了”——但另一边,监管风险提示也从未停过,两边声音同时响,普通人站在中间,确实很难判断。
作为天天和风险、规则打交道的律师,我反而觉得:越是全民抢热点的时候,越需要先停一步——把规则的边界理清楚,再决定往哪走。今天把我梳理的三点思考分享出来,不管你已经在“养龙虾”,还是正在犹豫要不要进场,希望都能做个参考。
一、龙虾好养,但坑是真实的——合规风险不能用“快”来赌
AI领域的规则,还在逐步落地的过程中——训练数据的来源合规、算力服务的监管要求、数据安全的边界划定、普通用户的权益保障,每一项都尚未完全厘清。
有一个细节,很多人没有注意到:部分境外AI平台的用户协议中,约定了平台对用户上传内容享有广泛的使用授权,包括用于模型训练——而这类条款往往藏得不显眼,大多数人根本不会仔细翻阅。这意味着,你随手把工作文件、客户信息输进去的那一刻,相当于在不知情的情况下完成了一次授权——而一旦权益受损,连明确的管辖法院、维权依据都很难找到。
不只是数据授权,消费权益层面同样存在灰色地带——就像黑猫投诉平台曾披露的案例,某影音平台借助AI算法的“暗箱推荐”,在没有明显提醒的情况下连续扣费三年半,用户发现时已损失数千元,维权过程也因平台协议的模糊条款走了很多弯路。这些,都是新技术落地过程中规则不完善给普通用户挖的坑,踩进去代价不小。

二、这只龙虾,可以等国内的“合规版”——不熟悉规则,先别急着赶车
对于不熟悉技术逻辑、也不了解数据合规规则的朋友,我其实建议:不必急着赶这班车。
目前主流的境外大模型,数据中心大多设在海外,数据出境本身就涉及《个人信息保护法》的合规风险。一旦发生数据泄露,国内监管的管辖权和维权路径都极为模糊。已经有人因为轻信AI工具、输入个人银行卡信息后遭到盗刷——类似的案例还有很多,从个人信息泄露到商业竞争中的AI不正当竞争,都已有迹可查。
而国内大模型的技术进展,其实远比很多人想象的要快——头部企业已推出合规的本土大模型,不少平台也开放了面向中小企业的免费普惠服务。等国内技术和规则都落地之后再放心使用,也完全来得及。慢一步不代表落后,踩错坑才是真的浪费机会。
三、龙虾再能干,有些事还是只有“人”能做
很多人问我:AI会不会有一天替代律师,替代各行各业的从业者?
从法律的底层逻辑来看,我觉得这个问题本身就值得重新想一想。法律从诞生之初,调整的就是人与人之间的社会关系——而AI是工具,无论迭代多快,永远无法替代人的价值判断、情感连接和利益平衡。
就像我在处理案件时,AI可以在几分钟内检索出相关判例,但最终如何在法理和情理之间找到那个平衡点,如何在庭审上判断对方的真实意图,如何为当事人在规则框架内争取到那一分可能——这些,永远需要人来完成。我们会为了当事人的合法权益在法庭上据理力争,会在法理之外去考量情理,会为了守住公平的底线付出远超预期的时间和精力——这些根植于人性的温度与判断,是技术无法复刻的核心竞争力。
哪怕未来AI能帮我们承担大量基础性工作,但最终做出决策、承担责任的,始终是我们自己。这,就是法律语境下,人永远不可替代的理由。
其实面对AI这件事,不必非要逼自己“要么all in,要么被淘汰”——会用工具当然是加分项,但守住自己的能力边界、不盲目踩未知的坑,本身也是一种清醒。
作为法律人,我始终相信:新技术到来的时候,搞清楚规则、守住底线,慢慢找到属于自己的节奏,才是最笃定的走法。就像王阳明说的,“山高万仞,只登一步”——不必焦虑,也不必排斥,每一步走实了,都算数。

