YouToCoin報道:
喬治華盛頓大學研究人員的一項新研究發現,對諸如chatgpt這樣的AI模型的禮貌不僅是浪費計算資源,而且毫無意義。
研究人員聲稱,在提示中添加“請”和“謝謝”對AI響應的質量具有“可忽略的影響”,這直接與早期的研究和標準用戶實踐相矛盾。
這 學習周一在Arxiv上出版,在Openai首席執行官Sam Altman出版幾天後提及 那個用戶在提示中輸入“請”和“謝謝”的用戶花費了“數千萬美元”的其他令牌處理。
該論文與2024年日本研究這發現禮貌改善了AI的表現,尤其是在英語任務中。該研究測試了包括GPT-3.5,GPT-4,Palm-2和Claude-2在內的多個LLM,發現禮貌確實產生了可衡量的績效益處。
當被問及差異時大衛·阿科斯塔(David Acosta)AI驅動數據平台Arbo AI的首席AI官告訴解密喬治華盛頓的模型可能太簡單了,無法代表現實世界系統。
Acosta說:“它們不適用,因為培訓本質上是每天實時進行的,並且在更複雜的LLM中對禮貌行為存在偏見。”
他補充說,雖然奉承可能會帶您在LLM的某個地方,但“很快就會進行更正”將改變這種行為,從而使模型受到“請”和“謝謝”等短語的影響,而不管提示中使用的音調如何。
Acosta是道德AI和Advanced NLP的專家,他認為,促使工程學的更多是簡單的數學,尤其是考慮到AI模型比本研究中使用的簡化版本要複雜得多。
他說:“對禮貌和人工智能表現的矛盾通常源於培訓數據的文化差異,特定於任務的及時設計細微差別以及對禮貌的上下文解釋,需要跨文化實驗和調整任務的評估框架以闡明影響。”
GWU團隊承認,與Chatgpt(例如Chatgpt)相比,他們的模型被“有意簡化”,該系統使用了更複雜的多頭注意機制。
他們建議他們的發現應在這些更複雜的系統上進行測試,儘管他們認為他們的理論仍然會隨着注意力的數量增加而適用。
喬治·華盛頓的發現源於團隊研究AI何時突然從連貫的內容崩潰到有問題的內容,他們稱之為“ Jekyll-and-Hyde Tipping Point”。他們的發現表明,這個轉折點完全取決於您提示中的AI培訓和實質性詞,而不是禮貌。
研究解釋說:“我們的AI反應是否會流氓取決於我們提供令牌嵌入的LLM培訓,以及在我們的及時及時的實質令牌,而不是我們是否對此有禮貌。”
由物理學家Neil Johnson和Frank Yingjie Huo領導的研究團隊使用了簡化的單一注意力頭模型來分析LLMS的過程信息。
他們發現,禮貌的語言往往是“與實質性和壞輸出令牌正交的”,“可忽略不計的點產品影響” - 意味着這些單詞存在於模型內部空間的不同區域中,並且不會有意義地影響結果。
AI崩潰機制
GWU研究的核心是對AI如何以及何時突然惡化的數學解釋。研究人員發現,由於“集體效應”的“集體效應”,該模型的注意力越來越薄弱,隨着響應的時間越來越長,該模型越來越薄弱地傳播了其注意力。
最終,它達到了一個閾值,模型的注意力“捕捉”在訓練過程中所學到的潛在問題的內容模式。
換句話說,想象一下您的班級很長。最初,您清楚地掌握了概念,但是隨着時間的流逝,您的注意力在所有累積的信息中越來越薄(講座,蚊子經過,您的教授服裝,班級結束了多少時間)。
在一個可預測的點(也許在90分鐘內),您的大腦突然從理解到混亂。在這個臨界點之後,無論教授對您的講話有多禮貌或班級的趣味性,您的筆記都會充滿誤解。
隨着時間的流逝,您的注意力自然稀釋而發生了“崩潰”,而不是因為信息的提出方式。
研究人員說,從AI開始產生響應的那一刻起,研究人員將其標記為N*的數學轉折點就被“硬連線”。這意味着最終的質量崩潰是預先確定的,即使它發生在生成過程中。
該研究提供了一個確切的公式,可以根據AI培訓和用戶提示的內容進行預測何時發生這種崩潰。
文化禮貌>數學
儘管有數學證據,但許多用戶仍然與類似人類的禮貌進行AI相互作用。
根據最近的一個,近80%的來自美國和英國的用戶對他們的AI聊天機器人很好。民意調查由出版商未來。無論技術發現如何,這種行為都可能持續存在人格化他們與之互動的系統。
厚的技術服務公司Wipro的企業技術總監告訴解密這種禮貌源於文化習慣,而不是表現期望。
莫塔說:“對我來說,對AI的禮貌似乎很自然。我來自一種文化,我們表現出對在我們生活中起重要作用的任何事物的尊重 - 無論是樹,工具還是技術。”莫塔說:“我的筆記本電腦,我的電話,甚至是我的工作站……現在,我的AI工具。”
他補充說,雖然他沒有“注意到結果的準確性有很大的差異”,但當他禮貌時,回答“在重要的時候會感到更加對話,禮貌,而且机械性也不那麼机械。”
甚至Acosta也承認在處理AI系統時使用禮貌語言。
他說:“很有趣,我確實沒有意圖。” “我發現,在'對話'的最高水平,您也可以從AI中提取反向心理學,這是先進的。”
他指出,Advanced LLM經過訓練可以像人類一樣做出反應,並且像人們一樣,“ AI旨在獲得讚美”。
編輯塞巴斯蒂安·辛克萊(Sebastian Sinclair)和喬什·奎特納(Josh Quittner)