
浏览器都在加AI,Tor却把AI删了,为什么?
最近Tor浏览器15.0a4测试版出来,很多人点开一看,发现原本Firefox侧边栏里那个AI聊天框没了,页面右下角自动弹出的摘要预览也没了,连地址栏原本藏起来的http/https又露出来了。这事儿没上热搜,但懂的人心里一震——不是“还没加”,是“主动砍掉”。
Tor官方博客写得很直白:这些AI功能,是在Firefox 123和124版本里陆续塞进来的。比如3月上线的AI侧边栏,5月加的网页摘要链接预览。Tor团队没等它进正式版,就在自己的Alpha测试版里全清掉了。连小狐狸图标、新版历史侧边栏这种看着不痛不痒的UI元素也一并拿掉。这不是偷懒,是怕出事。
有人问,不就是本地跑个AI吗?又没上传数据,怕啥?Tor的开发者@henry在GitHub上回了一句特别实在的话:“我们审不了它的训练数据是哪来的,也看不出它在本地怎么推理,更没法保证它什么时候悄悄改了行为。”一句话说透了:匿名可以靠代码实现,但“可信”得靠人能看懂、能验证。AI黑盒一塞进来,整条信任链就断了。
最麻烦的是,哪怕AI真没联网,它也会留下痕迹。比如你点一次摘要,停顿0.8秒再点第二次,再快一点看第三页——这些微小动作可能被指纹识别技术抓到。Tor用户里很多是记者、活动者、敏感地区普通人,他们不需要“聪明”的浏览器,只需要“确定不会出卖自己”的浏览器。聪明,反而成了风险源。
还有个很少人提的事:责任归属。以前Tor浏览器出了问题,责任全在Tor项目自己。现在AI模块是Mozilla写的,模型是别人训的,推理引擎是闭源的,出了岔子,是算Tor的,还是算Mozilla的?Tor不想把安全底线押在别人身上。他们的代码必须从头到尾能被任何人下载、编译、比对,连构建过程都得可重复。AI组件一加,这套审计体系直接瘫痪。
其实Tor并不排斥AI技术。他们早就试过在本地跑极简的隐私保护模型,比如用来模糊化网页字体防止字体指纹,或者轻量级内容分类。关键不是“有没有AI”,而是“谁在控制、能不能看见、会不会突然变”。用户点一下才启动的工具,和后台自动分析你每一页停留时长的嵌入式AI,根本不是一回事。

这事看着小,但照出了整个行业的盲区。现在大家都说“AI本地运行就安全”,结果没人追问:本地跑的是什么?谁写的?参数能不能改?行为有没有日志?连医疗AI搞错诊断、律师用AI编出假判例这种事都发生了,浏览器里悄无声息塞进一个黑盒推理器,真就没事?
Tor这次删AI,不是技术倒退,是把“能看清”当成了比“更方便”更高的优先级。别的浏览器忙着让AI帮你写邮件、改网页、总结新闻,Tor选择先把那层看不见的雾擦干净。它没喊口号,也没发声明,就默默在代码里删了几十个文件,关掉了几个开关,把界面拉回更旧、更笨、但也更老实的样子。
有人觉得这是固执,但如果你用Tor,大概率不是为了赶时髦。你只是想打开网页的时候,知道自己没被多看一眼,也没被悄悄记下什么。
AI很热,可热得发烫的东西,往往不牢靠。
Tor不跟风,也不解释太多。
删了就删了。

配资之家网提示:文章来自网络,不代表本站观点。