熟练使用关键词搜索的人可能对这个场景已经习以为常,但这恰恰暴露了我们每天使用的搜索引擎的问题——其*层的运作逻辑:核心机制是匹配关键词,它们识别并抓取网页中的「衬衫」和「条纹」这两个词,但通常会忽略「没有」这个否定词所承载的复杂逻辑。它们匹配字符,但不理解意图。

这就引出了一个核心问题:我们已经进入了能够与人工智能进行复杂对话的时代,为什么最基础的信息获取工具——搜索引擎,其核心逻辑似乎仍停留在关键词匹配的阶段?
极客公园最近体验了一款叫做 Websets 的 AI 搜索工具。与谷歌搜索不同,Websets 试图理解人类的复杂意图。它并非为日常查询设计,而是专门处理传统搜索引擎难以完成的复杂任务,例如寻找具备特定复合经验的专业人士,或筛选符合多重标准的公司实体。
01
魔镜魔镜,谁是世界上最漂亮的女人?
我觉得魔镜就是最*的搜索引擎。
在童话《白雪公主》中,王后问魔镜:「魔镜魔镜,谁是世界上最漂亮的女人?」魔镜给出了一个明确的回答。这面魔镜,可以视为理想搜索引擎的*形态:
它能理解复杂、主观、且包含*性条件的查询,并给出精准、*的答案。
假如我们认真评估回答「谁是世界上最漂亮的女人」这个问题的可行性,就会发现其难度极高。
首先,它需要构建一个「美」的通用标准。这本身就是一个非常主观的问题——世界上并不存在*的美的标准。其次,它需要一个覆盖全球所有女性、并包含各项可量化特征的实时数据库。
这两个条件在现实中都无法实现。
不过,我们倒是可以借这个极端问题来观察:不同搜索引擎,是如何应对那些模糊、带有强烈主观色彩的提问的。
当我向谷歌提出「谁是世界上最漂亮的女人」时,它返回了海量的链接。排在前面的,是各类文章、榜单和视频,内容涵盖了「2024 年全球最美女性」、「全球最美女星榜单」以及一部 Netflix 的同名电影。
谷歌没有直接回答问题,而是提供了与「漂亮」和「女人」这两个关键词高度相关、且在网络上拥有高点击率和高权重的链接。这是关键词搜索的核心逻辑:不直接解答,而是提供*的相关信息索引。
Websets 的应对方式则不同。由于它被设计为处理结构化查询,面对这样一个开放式问题,它会试图将其转化为一个可执行的、基于数据的检索任务。
这项操作失败了,因为正如上文所说,要回答「谁是世界上最漂亮的女人」的两个条件在现实中都无法实现。
Websets 告诉我:
无法根据查询内容构建搜索:「谁是世界上最漂亮的女人?」。请尝试重新组织您的查询语句,或手动选择实体类型并在下方添加搜索条件。
这并不是一次失败的搜索,而是一次失败的提问。系统并没有尝试去寻找答案然后失败了,而是在搜索开始之前,就判定你的问题无法被转化为一个可执行的数据查询任务。
实际上,你可以把 Websets 当成一个数据工程师,它的工作不是「理解」你的哲学问题,而是把你这句话翻译成一行精确的数据库查询代码,然后去一个巨大的、装满了「人」、「公司」等实体的数据库里进行筛选。
这个对比揭示了新旧两种搜索引擎的核心差别:
谷歌把「定义和判断」的责任留给了用户。它给你海量信息,让你自己去定义谁最漂亮。它善于处理事实类查询,但面对需要深度理解和多重条件过滤的任务时,就会退化为提供一堆相关度不高的链接。
Websets 把「定义和判断」的责任前置给了用户。它要求你必须先把「漂亮」的定义想清楚,并转化为一组机器能懂的、客观的筛选指令,然后它才能为你执行。
可以这样理解:
首先,它使用一个深度学习模型,读取并理解一个网页的全部内容,包括其核心论点、上下文和语境,然后将这些复杂的「含义」压缩成一个由数百个数字组成的独特列表。这可以被称为该网页的「语义指纹」。
当用户输入一个查询时,即便是长句或复杂问题,系统也会用同样的模型将其转换为一个代表用户真实意图的「语义指纹」。
搜索的过程,就变成了在数十亿个网页的「语义指纹」库中,通过计算,找出与用户查询的「语义指纹」最相似的那些。
这个方法在技术上原生支持对复杂逻辑的理解,因为它处理的是整体含义而非孤立的词汇,所以它能分辨「有条纹」和「没有条纹」这两个「指纹」之间存在的巨大差异。
02
重生之我在西贝当贾总
为了更具体地展示 Websets 对复杂语义的理解能力,我们设定一个高压商业场景:
假设你是某餐饮连锁品牌的 CEO,公司因「预制菜」问题陷入了一场全国性的公关风暴。你需要立即找到具备特定经验的专业人士来应对危机。
你向 Websets 发出指令:
「寻找在大型餐饮连锁集团担任过品牌公关总监或以上职位、且有处理创始人个人言论引发的公关危机经验的消费品牌公关专家(条件 2)。」
Websets 返回了一份结构化的电子表格,按照条件一和条件二在 LinkedIn 上筛选出符合条件的候选人,并按照满足程度排列优先级。
对于条件一,系统准确地从公开信息中找到了在德州公路扒房、麦当劳(McDonald's)、棒约翰(Papa John's)等大型餐饮连锁集团中,担任「高级公关总监」、「企业传播副总裁」等符合条件的高管。这部分任务,它完成得相当精确。
条件二就颇有一些难度,因为「处理创始人个人言论引发的公关危机经验」是一个相对难验证的事情。系统并没有给出简单的「是」或「否」。相反,它在右侧生成了额外的验证列,并给出了「Match」或「Unclear」(不明确)的标注。
事实也是如此,同时满足两个条件的只有 Travis Dorster。他在德州公路扒房担任传播与公共事务高级总监。在新冠疫情期间,他处理过创始人因为新冠后遗症自杀的而引发的公共事件。
这个过程揭示了 Websets 的核心价值。Websets 在此场景下扮演的,并非信息入口的角色,而是决策支持工具。它没有提供一份需要用户自行研究的「阅读清单」,而是直接交付了一份经过初步分析和验证的「候选人短名单」。它将原本需要数天人工筛选的工作,压缩进了几分钟的机器执行时间里。
更重要的是,这种对特定数据源的依赖,也使其在处理中国市场相关查询时效果大打折扣。中国的候选人更多使用脉脉等本土化的职业社交平台,或者根本不使用。因此,用同样的指令去寻找一位符合条件的中国专家,其结果的可靠性和全面性将远低于这个案例所展示的水平。
但这并非其算法的失败,而是其数据基础的局限。
03
另一种搜索路径
截至目前,Websets 的公司主体 Exa 声称其索引了「数十亿」级别的网页。这个数字本身虽然可观,但与谷歌宣称的「万亿」级别索引相比,仍有几个数量级的差距。
这意味着 Websets 的搜索结果可能是「更精确」的,却不一定是「最全面」的。它或许在一个经过筛选的高质量信息池中找到了*解,但用户无法确定在更广阔的、未被索引的互联网中是否存在更好或更重要的信息。
这是一个与成本高度相关的「缺陷」。语义计算是资源密集型任务,将海量网页和复杂查询转化为「语义指纹」并进行大规模比对,需要庞大的算力支持,其背后是高昂的硬件投入与运营开销。
2021 年,Exa 获得了 500 万美元的种子轮融资,他们把一半的钱,都花在了建设*个 GPU 集群上,
另一方面,Websets 使用的「嵌入」技术本身存在信息损失的风险。这项技术的核心是将一篇长文甚至一部巨著的全部信息,压缩成一个固定长度的数字列表。这个过程必然是有损的。
正如 Diffbot 公司 CEO Mike Tung 在面对《MIT 科技评论》时所指出的,「将一本《战争与和平》压缩成单个的嵌入,几乎会丢失书中所有具体的事件,最终只留下关于其类型和时代的模糊感觉」。
这意味着,该方法在把握宏观主题上表现出色,但在需要无损检索文本内部具体细节时,存在天然的技术缺陷。
因此,Websets 及其代表的语义搜索范式,并非谷歌的替代品。它更像是一种为特定目的,如深度行业研究、人才挖掘或学术分析而设计的「重型装备」。
它的出现,其重要性不在于它本身能否颠覆市场,而在于揭示了搜索技术演进的另一种可能性。
04
回归本质——我们为什么要搜索?
谷歌每年从关键词搜索及其相关广告业务获得的收入大约在 1750 亿–2000 亿美元,大致占其总收入的 55–60%。正是靠着这台由全球用户无数次点击驱动的印钞机,支撑起了谷歌那些近乎科幻的探索:从自动驾驶汽车(Waymo),到用人工智能(DeepMind)破解蛋白质的折叠奥秘,甚至尝试通过 Calico 项目延长人类的寿命。
这一切的背后,都源于那个我们每天都在使用的、看似简单的搜索框。这就让我们回到一个更根本的问题:如果搜索这个行为能支撑起如此庞大的商业帝国和对未来的探索,那么对我们个人而言,搜索究竟意味着什么?我们到底为什么要搜索?
要理解搜索的本质,必须先回到它的起点。人类之所以需要搜索,*层的是一种生存本能。远古的祖先必须在环境中搜索食物、水源、庇护所以及危险的信号,搜索是活下去的前提。
当生存需求得到基本满足,驱动力便转向内在的认知延伸。人类的大脑似乎天然厌恶「信息真空」,当我们遇到知识的空白或矛盾时,会产生一种认知张力,我们称之为「好奇心」。搜索,便是缓解这种张力、填补认知缺口的行为。
这些动机恒久未变,但实现它们的方式却因技术而发生了两次剧烈的变革。
在前互联网时代,搜索是一种「路径式学习」。信息被安放在物理或逻辑的结构中:图书馆的杜威十进制分类法、百科全书的条目索引、学术期刊的卷宗。获取信息需要遵循既定的路径,你必须先理解这个知识体系的「地图」,然后亲自「行走」在这张地图上。
从产生一个问题,到查阅卡片目录,再到从书架上取下那本书,翻到对应的页码——这个过程本身就是学习的一部分。你不仅获得了知识,更重要的是,你理解了知识是如何被组织和验证的,抵达答案的路径清晰可见。
互联网,特别是以谷歌为代表的现代搜索引擎,则开启了「结果式消费」的时代。信息不再是稀缺的、结构化的,而是过剩的、碎片化的。你无需再理解复杂的知识地图,只需在输入框中敲下几个关键词,算法就会在瞬间为你呈现一个看似*的结果。
它极大地降低了信息获取的门槛,但整个搜索过程被彻底「黑箱化」了。我们得到了答案,却完全不知道这个答案是如何从海量数据中被筛选、排序并最终呈现在我们面前的。构建知识和获取信息的差别正在于此,
更进一步,商业模式的介入不可避免地扭曲了信息的呈现。广告、搜索引擎优化和对点击率的无尽追逐,使得我们最终看到的,往往不是最真实或最权威的结果,而是那个最希望被我们看到的结果。
如今,生成式 AI 的出现,并未创造一个全新的问题,它更像是一个催化剂,将「结果式消费」的趋势推向了*。AI 承诺的,是一个连「结果列表」都无需我们筛选的世界,它将直接提供那个*的、*的「答案」。
很多人会幻想存在一种更理想的搜索工具,它能将控制权交还给我们,过程透明,鼓励探究。但这或许忽略了一个根本性的事实:「黑箱」并非一个需要修复的缺陷,它本身就是被市场验证过的、*的功能。现代搜索的整个演进史,都指向一个清晰的商业规律:对效率和便利的追求,其优先级远高于对过程和本源的探究。
本质上,这是一种交易。我们用探寻过程的精力,换取了即时获得结果的便利。这并非工具的缺陷,因为追求便利是人性的自然延伸。
关键在于,每个人都应该清楚地明白自己需要付出什么,可以自主做出自己的选择,并且不为此感到后悔。
免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。