翻譯:蔣迅
譯者注:本文試圖說明 ChatGPT 在數(shù)學證明領域里還有缺陷。所以下面除了最基本的問題外,ChatGPT 給出的證明都是不正確的。請讀者不要把這里的證明當作標準答案。
Chat-GPT 是 Open AI 發(fā)布的令人印象深刻的全新 AI 聊天機器人。它令人印象深刻的應用程序可以在整個互聯(lián)網上找到。但它能做數(shù)學嗎?
通過數(shù)學,我們并不意味著簡單地做一些計算。它自己的設計確保了存在著它無法解決的計算問題。我更感興趣的是它可否解決需要一些數(shù)學推理的問題。
為了選擇我們的問題,我們使用了 MMLU 數(shù)據(jù)集。Meta AI 最近發(fā)布的大型語言模型 Galactica 在這個數(shù)據(jù)集上取得了一些不錯的結果。他們的發(fā)現(xiàn)陳述在他們論文的第 5.3 節(jié)中。
接下來,我們將挑選幾個問題,看看 Chat-GPT 如何處理它們。如果失敗,我們將嘗試改寫這個問題以期獲得部分結果。
我們注意到 MMLU 數(shù)據(jù)集有多項選擇題,但我們只是將問題呈現(xiàn)給 Chat-GPT。我們只是從 MMLU 的抽象代數(shù)部分選擇問題。之后,我們將刺激 Chat-GPT 以獲得直覺和證明。在最后,我們將向數(shù)學家推薦 Chat-GPT 的一些應用。
問題一
我: 乘法群中的逆是
Chat-GPT: 乘法群中的逆是。群中元素的逆元素是滿足的元素,其中是該群的單位元。在這個群中,是單位元,所以元素的逆元素是滿足的元素。
例如,的逆是,因為。同樣,的逆是,因為。
注: Chat-GPT 完美地回答了這個問題并給出了極好的解釋。公平地說,這是一個較簡單的問題。
問題二
我: 到 有多少個同態(tài)?請以 latex 格式書寫。
Chat-GPT: 有兩個到的同態(tài)。它們的定義如下:
滿足對于所有,成立
滿足對于所有的, 成立
注: 同樣,Chat-GPT 是正確的。但是,這個問題我問了幾次,有一次說了,有一次說了卻給出了錯誤的理由:
(整數(shù))到 (整數(shù)模 2)只有兩個同態(tài)。
一個同態(tài)將每個整數(shù)映射到,另一個同態(tài)將每個整數(shù)映射到。
問題三
我: 令 中的 p = (1, 2, 5, 4)(2, 3)。在 中找到 <p> 的指數(shù)。請用 latex 寫下你的答案。
Chat-GPT:
<p> 在 中的指數(shù)是 中按字典順序出現(xiàn)在 <p> 之前的元素數(shù)。
要找到 <p> 的指數(shù),首先要確定 p 的循環(huán)類型。排列的循環(huán)類型是其不相交循環(huán)的長度列表,按降序排列。
p 的循環(huán)型是 [2,2],因為 p 由一個 2-循環(huán)和一個 2-循環(huán)組成。
現(xiàn)在我們可以使用 的循環(huán)指數(shù)來確定循環(huán)類型為 [2,2] 的 S_5 中的排列數(shù)。
的循環(huán)指數(shù)由下式給出:
其中是 中循環(huán)的排列數(shù),是表示長度為的循環(huán)的變量。
將循環(huán)類型 [2,2] 代入循環(huán)指數(shù)給出:
它簡化為:
該表達式中的系數(shù)為,所以循環(huán)型為 [2,2] 的 中的排列數(shù)為。
由于 <p> 是 中唯一具有循環(huán)型 [2,2] 的排列,因此它是 中的第排列。
因此,<p> 在 中的指數(shù)為。
注: 哇!這是非常錯誤的!第一句話是完全錯誤的。還有,它最后的結論,連整數(shù)都不是,這肯定是不對的。事實上,子群的指數(shù)是有一定意義的,而且大多數(shù)是正整數(shù)。
不過,我們能夠挽救一些東西。假設我們使用代數(shù)技巧計算出 <p> 的階數(shù)為。然后我們可以使用以下提示 Chat-GPT。
我: 現(xiàn)在假設是 5 階子群。在 中的指數(shù)是多少?
Chat-GPT: 群中子群的指數(shù)是在中的左陪集數(shù)。這也等于在中的右陪集數(shù)。
由于子群的階數(shù)能整除群的階數(shù),因此的階數(shù)必須除以的階數(shù),即 120。120 的小于 120 的因數(shù)只有 1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20, 24, 30, 40, 和 120。因此,的唯一可能順序是 1, 2, 3, 4, 5, 6, 8, 10, 12, 15, 20 、24、30、40 和 120。
由于的階數(shù)為 5,所以在中的指數(shù)為 24.
注: 在這里,Chat-GPT 正確回答并給出了一個完美的解釋。也許最好提一下所使用的主要事實是拉格朗日定理,盡管這可以很容易地通過問它“上面你使用了什么定理?”來獲得。
但是直覺是什么?
使研究數(shù)學家偉大的是對問題的某種“直覺”。讓我們看看 Chat-GPT 是否可以解釋其中的任何一個。
我: 你能解釋一下柯西-施瓦茨不等式背后的直覺嗎?請用 latex 寫所述的數(shù)學公式。
Chat-GPT: 當然!柯西-施瓦茨不等式是一個有用的不等式,出現(xiàn)在數(shù)學的各個領域,例如向量代數(shù)、內積空間和概率論。它指出對于任意兩個向量和,以下不等式成立:
直覺上,柯西-施瓦茨不等式指出兩個向量和的內積由向量和的長度“控制”。要了解這一點,讓我們考慮和是單位向量(即長度為 1 的向量)的特殊情況。在這種情況下,不等式變?yōu)椋?/p>
這意味著和的內積總是小于或等于 1。這與我們的直覺一致,即如果兩個單位向量“正交”(即垂直),則它們的內積應該“小”,并且 如果它們“平行”(即指向同一方向),則為“大”。
我希望這有所幫助!如果你有任何問題,請告訴我。
注: 這還算不錯,但肯定可以改進。例如,解釋什么時候柯西-施瓦茨不等式何時成立(當一個向量是另一向量的倍數(shù)時)有助于給出最后一段更精確的含義。人們可以看到陶哲軒這篇博客文章的前幾段,以了解來自世界領先數(shù)學家之一的解釋。此外,這是 Stackexchange 上關于該主題的數(shù)學討論。
給出證明。
我: 你能證明這個嗎?
Chat-GPT: 當然!這是柯西-施瓦茨不等式的證明:
首先,我們可以將不等式重寫為:
接下來,我們可以如下展開左側:
此式簡化為:
現(xiàn)在,我們可以將算術-幾何平均不等式應用于右側的每一項:
這簡化為:
最后,我們可以再次將算術幾何平均不等式應用于右側的項:
這簡化為:
我們完成了!這就完成了柯西-施瓦茨不等式的證明。
我希望這個能有所幫助!如果你有任何問題,請告訴我。
注: 不幸的是,這個證明并不完全正確。無論是證明方法還是細節(jié)(即它對 AM-GM 的應用)都存在嚴重缺陷。
結論
老實說,Chat-GPT 對于一個無論如何都不是為數(shù)學量身定做的模型來說是相當令人印象深刻的。我認為,以目前的格式,它已經可以幫助數(shù)學家準備講義甚至論文中更簡單的部分。也許它最大的用處在于自動處理基金和工作申請的某些部分。
本文來自微信公眾號:遇見數(shù)學 (ID:meetmath),作者:George Shakan
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。