Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了282,855,902字

最近回复

该文章投稿至Nemo社区   资讯  板块 复制链接


Chat-GPT 可以做数学吗

发布于 2023/02/09 18:16 170浏览 0回复 8,899

翻译:蒋迅

译者注:本文试图说明 Chat-GPT 在数学证明领域里还有缺陷。所以下面除了最基本的问题外,Chat-GPT 给出的证明都是不正确的。请读者不要把这里的证明当作标准答案。

Chat-GPT 是 Open AI 发布的令人印象深刻的全新 AI 聊天机器人。它令人印象深刻的应用程序可以在整个互联网上找到。但它能做数学吗?

通过数学,我们并不意味着简单地做一些计算。它自己的设计确保了存在着它无法解决的计算问题。我更感兴趣的是它可否解决需要一些数学推理的问题。

为了选择我们的问题,我们使用了 MMLU 数据集。Meta AI 最近发布的大型语言模型 Galactica 在这个数据集上取得了一些不错的结果。他们的发现陈述在他们论文的第 5.3 节中。

接下来,我们将挑选几个问题,看看 Chat-GPT 如何处理它们。如果失败,我们将尝试改写这个问题以期获得部分结果。

我们注意到 MMLU 数据集有多项选择题,但我们只是将问题呈现给 Chat-GPT。我们只是从 MMLU 的抽象代数部分选择问题。之后,我们将刺激 Chat-GPT 以获得直觉和证明。在最后,我们将向数学家推荐 Chat-GPT 的一些应用。

问题一

我: 乘法群 中 的逆是

Chat-GPT: 乘法群 中 的逆是 。群中元素 的逆元素是满足 的元素 ,其中 是该群的单位元。在这个群中, 是单位元,所以元素 的逆元素是满足 的元素 。

例如, 的逆是 ,因为 。同样, 的逆是 ,因为 。

注: Chat-GPT 完美地回答了这个问题并给出了极好的解释。公平地说,这是一个较简单的问题。

问题二

我:  到  有多少个同态?请以 latex 格式书写。

Chat-GPT: 有两个到 的同态。它们的定义如下:

满足对于所有 ,成立

满足对于所有的 , 成立

注: 同样,Chat-GPT 是正确的。但是,这个问题我问了几次,有一次说了 ,有一次说了 却给出了错误的理由:

 (整数)到    (整数模 2)只有两个同态。

一个同态将每个整数映射到 ,另一个同态将每个整数映射到 。

问题三

我: 令   中的 p = (1, 2, 5, 4)(2, 3)。在   中找到 <p> 的指数。请用 latex 写下你的答案。

Chat-GPT:

<p> 在   中的指数是   中按字典顺序出现在 <p> 之前的元素数。

要找到 <p> 的指数,首先要确定 p 的循环类型。排列的循环类型是其不相交循环的长度列表,按降序排列。

p 的循环型是 [2,2],因为 p 由一个 2-循环和一个 2-循环组成。

现在我们可以使用   的循环指数来确定循环类型为 [2,2] 的 S_5 中的排列数。

 的循环指数由下式给出:

其中 是   中 循环的排列数, 是表示长度为 的循环的变量。

将循环类型 [2,2] 代入循环指数给出:

它简化为:

该表达式中 的系数为 ,所以循环型为 [2,2] 的   中的排列数为 。

由于 <p> 是   中唯一具有循环型 [2,2] 的排列,因此它是   中的第 排列。

因此,<p> 在   中的指数为 。

注: 哇!这是非常错误的!第一句话是完全错误的。还有,它最后的结论, 连整数都不是,这肯定是不对的。事实上,子群的指数是有一定意义的,而且大多数是正整数。

不过,我们能够挽救一些东西。假设我们使用代数技巧计算出 <p> 的阶数为 。然后我们可以使用以下提示 Chat-GPT。

我: 现在假设 是 5 阶子群。 在   中的指数是多少?

Chat-GPT: 群 中子群 的指数是 在 中的左陪集数。这也等于 在 中的右陪集数。

由于子群的阶数能整除群的阶数,因此 的阶数必须除以 的阶数,即 120。120 的小于 120 的因数只有 1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20, 24, 30, 40, 和 120。因此, 的唯一可能顺序是 1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20 、24、30、40 和 120。

由于 的阶数为 5,所以 在 中的指数为 24.

注: 在这里,Chat-GPT 正确回答并给出了一个完美的解释。也许最好提一下所使用的主要事实是拉格朗日定理,尽管这可以很容易地通过问它“上面你使用了什么定理?”来获得。

但是直觉是什么?

使研究数学家伟大的是对问题的某种“直觉”。让我们看看 Chat-GPT 是否可以解释其中的任何一个。

我: 你能解释一下柯西-施瓦茨不等式背后的直觉吗?请用 latex 写所述的数学公式。

Chat-GPT: 当然!柯西-施瓦茨不等式是一个有用的不等式,出现在数学的各个领域,例如向量代数、内积空间和概率论。它指出对于任意两个向量 和 ,以下不等式成立:

直觉上,柯西-施瓦茨不等式指出两个向量 和 的内积由向量 和 的长度“控制”。要了解这一点,让我们考虑 和 是单位向量(即长度为 1 的向量)的特殊情况。在这种情况下,不等式变为:

这意味着 和 的内积总是小于或等于 1。这与我们的直觉一致,即如果两个单位向量“正交”(即垂直),则它们的内积应该“小”,并且 如果它们“平行”(即指向同一方向),则为“大”。

我希望这有所帮助!如果你有任何问题,请告诉我。

注: 这还算不错,但肯定可以改进。例如,解释什么时候柯西-施瓦茨不等式何时成立(当一个向量是另一向量的倍数时)有助于给出最后一段更精确的含义。人们可以看到陶哲轩这篇博客文章的前几段,以了解来自世界领先数学家之一的解释。此外,这是 Stackexchange 上关于该主题的数学讨论。

给出证明。

我: 你能证明这个吗?

Chat-GPT: 当然!这是柯西-施瓦茨不等式的证明:

首先,我们可以将不等式重写为:

接下来,我们可以如下展开左侧:

此式简化为:

现在,我们可以将算术-几何平均不等式应用于右侧的每一项:

这简化为:

最后,我们可以再次将算术几何平均不等式应用于右侧的项:

这简化为:

我们完成了!这就完成了柯西-施瓦茨不等式的证明。

我希望这个能有所帮助!如果你有任何问题,请告诉我。

注: 不幸的是,这个证明并不完全正确。无论是证明方法还是细节(即它对 AM-GM 的应用)都存在严重缺陷。

结论

老实说,Chat-GPT 对于一个无论如何都不是为数学量身定做的模型来说是相当令人印象深刻的。我认为,以目前的格式,它已经可以帮助数学家准备讲义甚至论文中更简单的部分。也许它最大的用处在于自动处理基金和工作申请的某些部分。

本文来自微信公众号:遇见数学 (ID:meetmath),作者:George Shakan


本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/672/334.htm]

点赞(0)
点了个评