谷歌的搜索人工智能在地理方面绝对糟糕

2025-03-10 12:29来源:

谷歌的人工智能搜索不懂地理。或者,显然是字母表。而且绝对不能两者同时发生。

这一切都始于一位蓝天用户宣称谷歌现在“死了”。他们在谷歌的常规搜索引擎上附上了一张谷歌精选片段功能的截图,宣称非洲没有以字母“k”开头的国家。考虑到肯尼亚这个国家的存在,这显然是不正确的。

事实上,如果你用搜索引擎搜索“以字母k开头的非洲国家”,它会给出这样一个完全错误的结论:

更糟糕的是,这一特色声明实际上来自一篇奇怪的、似乎是人工智能生成的博客文章,内容是人类用户和ChatGPT之间的对话。根据片段,它是从一个自称为“人工智能新闻”的博客上提取的帖子——头晕了吗?——被称为

就其本身而言,这是谷歌搜索的一个令人震惊的错误,也是一个不祥的例子,即人工智能生成的糟糕内容潜入了世界上最常用的搜索算法的顶级结果。

但当我们自己测试这个小故障时,我们意识到这不仅仅是谷歌的常规搜索中出现的错误信息。谷歌注入人工智能的“SGE”搜索甚至把chatgpt胡扯的垃圾都吸了出来,然后重新解释给用户听——这清楚地表明,这个被大肆宣传的功能还不知道如何过滤明显的虚假信息。

当我们要求上海黄金交易所为我们提供“以字母K开头的非洲国家”时,这里是它告诉我们的,再次引用了那篇肮脏的帖子:

很糟糕!不过,在某种程度上,这个错误有些老生常谈;一个以不良信息为特色的网站,就像谷歌的常规搜索一样,上海黄金交易所只从表面上看了这些不良信息。

但当我们在一系列类似的问题上测试这个机器人时,情况变得更糟了。

例如,当被要求提供“以字母M开头的北美国家”的列表时,谷歌SGE深感困惑:






我们确信这是不言而喻的,这个名单是非常不正确的。这些国家中只有墨西哥的开头字母是正确的,而其中一个列出的地点——华盛顿特区——甚至都不是一个国家。

而且,与Kenaya的失误相比,人工智能得出这些结论的可能性也更小。毕竟,谷歌机器人提供的每一个链接都可以追溯到更合法的网站:美国地质勘探局的官方网站《世界人口评论》(World Population Review),以及不那么官方但不是人工智能生成的糟糕网站维基百科(Wikipedia)。

考虑到这一点,这里的问题似乎不仅仅是坏消息。此外,上海黄金交易所似乎也无法解析这种特定类型的分层、组织性问题。

这是另一个AI无法理解字母顺序的例子。例如,当被问及“按字母顺序排列的欧洲国家”时,谷歌机器人的回答是:

啊,是的,老式的HFBs。

公平地说,机器人在回答其他类似问题时确实表现得好得多。它能够正确地告诉我们哪些欧洲国家以字母“G”开头,当被要求提供以字母“C”和“j”开头的亚洲国家名单时,它也表现出色。还有一些情况是,搜索AI通过了测试,但莫名其妙地在最后添加了一个错误的项目。例如:

俗话说:接近,但没有雪茄。在这一点上,我们确实弄清楚了为什么谷歌SGE不认为任何非洲国家都是以字母“k”开头的。因为它是以字母"B "开头的,你们这些傻瓜!至少,根据谷歌的人工智能:

当我们联系谷歌时,一位发言人强调人工智能仍处于试验阶段。

“我们已经建立了强大的保护措施来减轻不准确性,但像所有基于法学硕士的体验一样,搜索中的生成人工智能是实验性的,可能会犯错误,”这位发言人在电子邮件中告诉我们。“它被训练用来自开放网络的资源来证实回应,但有时回应可能反映了网络上普遍存在的不准确性。我们已经在搜索实验室启动了这个实验,我们将继续改进和微调体验。”

值得注意的是,谷歌SGE并不是唯一一个在识别字母方面有困难的llm人工智能产品。例如,要求ChatGPT重复字母会破坏它小小的数字大脑,当被提示类似的按字母排列的地理问题时,openai构建的聊天机器人的表现并不比谷歌制造的聊天机器人好多少。当被要求提供以字母“M”开头的北美国家名单时,ChatGPT的回答是:

绝对是单词沙拉,但是谢谢!

当然,从表面上看,这个奇怪的AI盲点主要是愚蠢和奇怪的。但这只是众多例子中的一个,当一个充满陷阱的技术被整合到网络上最常用的搜索引擎中时,这可能不是一件掉以轻心的事情。

毕竟,如果说这次SGE的怪事说明了什么的话,那就是即使能够访问数字世界中的所有信息,人工智能仍然可能非常非常愚蠢。随着法学硕士课程越来越多地融入到网络的每一个角落,这是我们应该记住的。


调茬网声明:未经许可,不得转载。