所有語言
分享
“無論人工智能如何發展,人類依然將掌握對世界的最終決定權。”
圖片來源:由無界 AI生成
作為人工智能界的風雲人物,OpenAI 首席執行官 Sam Altman 於 1 月 19 日參加了瑞士達沃斯世界經濟論壇上的一個由企業重量級人物組成的圓桌討論,主題為“動蕩世界中的技術”。
來源:Youtube
以下是 Altman 就一系列問題發表的看法,為方便閱讀已進行部分刪減:
問題:我認為大多數人對人工智能的擔憂可分為兩種。其一,它是否會終結我們所知的人類?其二,為什麼人工智能不能直接幫我開車?
Sam Altman:關於這種新工具的一個非常好的跡象是,即使它目前的能力非常有限,而且存在非常大的缺陷,人們也在想方設法利用它來提高生產效率或其他方面的收益,並且理解它的局限性 -- 因此,它是一個時而準確、時而富有創意,但同樣可能完全錯誤的系統。我們絕不會放心讓它來駕駛汽車,但非常樂意利用它來集思廣益、撰寫文章或檢查代碼。
為什麼人工智能不能開車?舊金山附近其實有很棒的自動駕駛汽車系統(如 Waymo),人們也都很喜歡它們。我的意思是,OpenAI 類型的模型在某些事情上表現出色,但在生死攸關的情況下就不行了。
人工智能在某種程度上已經去神秘化,因為人們現在真的在使用它。我認為,這始終是推動新技術發展的最佳方式。
問題:人們擔心的是信任人工智能的能力。我們能在多大程度上說,“我真的可以讓人工智能來做這件事,無論是開車、寫論文還是填寫醫療表格?”(或者)我們在某種程度上不得不相信黑匣子?
Sam Altman:我認為,人類對其他人犯錯的寬容度很高,但對電腦犯錯的寬容度卻很低。我猜,對於那些說‘自動駕駛汽車已經比人類駕駛的汽車更安全’之類話的人而言,只有(自動駕駛汽車)比人類駕駛的汽車安全 10 到 100 倍,甚至更多時,人們才會接受它……
從某種意義上說,最困難的部分是當它 99.999% 的時間都是正確的時候,你會放鬆警惕。
(考慮到)我實際上無法進入你的大腦,查看 100 萬億個突觸,並試圖了解每個突觸中發生了什麼……但我可以要求你向我解釋你的推理……我可以決定這對我來說是否合理。
我們的人工智能系統也將能夠做同樣的事情:它們將能夠用自然語言向我們解釋從 A 到 B 的步驟,而我們可以決定我們是否認為這些步驟是 ok 的。
問題:如果人工智能能夠超越人類的分析和計算能力,那麼人類還能做什麼?很多人說,這意味着我們將只剩下……我們的情商……你認為人工智能也能比我們做得更好嗎?
Sam Altman:國際象棋是人工智能的首批“受害者”之一 --Deep Blue 擊敗 Kasparov 已經是很久遠的事了。所有的評論員都說:“計算機可以擊敗人類,這是國際象棋的末日。沒有人會再費心看棋或下棋。”(但是)國際象棋從未像現在這樣受歡迎。如果(棋手)用人工智能作弊,那會是件大事。沒有人,或者說幾乎沒有人會觀看兩個人工智能之間的對弈。
我承認(人工智能革命與過去的技術顛覆相比),這次確實感覺不同。通用認知與我們所珍視的人性特質非常接近……(因此,)每個人的工作都將不同……我們都將在更高一點的抽象水平上工作,我們都將獲得更多的能力。我們仍將做出決定;隨着時間的推移,這些決定可能會更趨向於策劃,但就世界上應該發生的事情,仍然將由我們做出決定。
問題:您一直對人工智能持相對溫和的態度。但像埃隆 - 馬斯克,有時還包括比爾 - 蓋茨,以及其他非常聰明的人……都非常非常擔心。你為什麼認為他們錯了?
Sam Altman:我不認為他們一定會錯……這顯然是一項非常強大的技術,我們無法肯定地說究竟會發生什麼。所有新的重大技術革命都是如此。但我們不難想象,這項技術將會對世界產生巨大的影響,而且有可能出大錯。
我們一直在努力推動的技術方向,是我們認為可以確保安全的方向,其中包括很多東西。我們相信迭代部署。我們把這項技術推向世界……讓人們習慣它。從社會整體來看,我們有時間,或者說機構有時間,來討論如何監管,如何設置一些防護措施。
問題:從技術上講,你能為人工智能系統設置防護嗎?這樣可行嗎?
Sam Altman:如果你了解過從 GPT-3 到 GPT-4 的進展,看看它能在多大程度上與一系列價值觀保持一致,就知道我們在這方面已經取得了巨大進步。現在,還有一個比技術更難的問題,那就是“誰來決定這些價值觀是什麼、默認值是什麼、界限是什麼?它在這個國家和那個國家是如何運作的?我可以做什麼,不可以做什麼?”這是一個重大的社會問題,也是最大的問題之一。
但從技術角度來看,我們仍有樂觀的餘地,儘管我認為我們現在擁有的對齊技術(或多種技術)不會一路擴展到更強大的系統,(因此)我們需要發明新的東西。我認為,人們害怕這項技術的缺點是件好事,我們談論它,以及我們和其他人被要求達到高標準都是好事。
我對世界對像我們這樣的公司普遍感到的不適感同身受……為什麼我們的未來掌握在他們手中?還有……他們為什麼要這麼做?他們為什麼這麼做了?。..... 現在全世界都認為,這裏的利益如此巨大,我們應該去做這件事。
但我認為,我們有責任想出一個辦法,從社會中獲得意見,了解我們將如何做出這些決定,不僅要了解系統的價值是什麼,還要了解安全閾值是什麼,以及我們需要什麼樣的全球協調來確保一個國家發生的事情不會對另一個國家產生超級負面影響。
問題:怎麼看待《紐約時報》的訴訟……寫這些文章的人難道不應該得到補償嗎?
Sam Altman:我們希望在《紐約時報》上進行訓練,但這並非當務之急。實際上,我們並不需要在他們的數據上進行訓練。這是人們所不理解的 -- 任何一個特定的訓練來源都不會對我們產生太大的影響。
我們希望與《紐約時報》等內容所有者合作,並與許多其他出版商達成交易 -- 隨着時間的推移,我們還將與更多出版商達成合作 -- 當用戶問‘嘿,ChatGPT,今天達沃斯發生了什麼?’我們希望展示內容、鏈接、显示《紐約時報》、《華爾街日報》或其他任何優秀出版物的品牌,並回答‘這是今天發生的事情,這是實時信息’,然後我們希望為此付費,增加流量。但這隻是在用戶查詢時显示信息,而不是用來訓練模型。
現在,我們也可以用它來訓練模型,但這不是優先事項。我們很樂意不這樣做……我期望開始改變的一件事是,這些模型在訓練過程中能夠獲取更少量、更高質量的數據,並更努力地思考和學習。你不需要閱讀 2000 本生物教科書來理解高中生物。也許你需要讀一本,也許三本,但 2000 本……肯定幫不了你什麼。當我們的模型開始以這種方式工作時,我們將不再需要同樣大量的訓練數據。
不過,無論如何,我們都希望找到適用於整個世界(包括內容所有者)的新經濟模型……如果我們要使用你的教科書和教案教別人物理,我們希望能找到一種讓你獲得報酬的方式。如果你能教我們的模型,如果你能幫助提供反饋,那麼我很樂意為你找到新的模型,讓你在成功的基礎上獲得報酬。
因此,我們非常需要新的經濟模式。當前的對話有點集中在錯誤的層面上。我認為訓練這些模型的意義將在未來幾年發生很大變化。
問題:你曾捲入近幾十年來最廣為人知的董事會醜聞。你從中學到了什麼?
Sam Altman:在某些時候,你不得不笑。這太荒謬了……
我們知道,我們的董事會已經變得太小了,我們也知道,我們沒有所需的經驗。但在很多方面,去年對我們來說都是瘋狂的一年,以至於我們忽略了這一點。
不過,我認為更重要的一點是,隨着世界越來越接近 AGI,風險、壓力和緊張程度都會增加。對我們來說,這隻是其中的一個縮影,但可能還不是我們所面臨的最大壓力。我觀察了一段時間,發現我們每向強大的人工智能邁進一步,每個人的角色都會得到 10 點瘋狂值。這是一件非常有壓力的事情,也應該是這樣,因為我們正試圖對非常高的風險負責。
到目前為止,我在整個過程中學到的最好的東西就是我們團隊的力量。當董事會在解僱我的第二天問我是否考慮回來時,我的第一反應是“不”,因為很多事情讓我非常(沮喪)。然後我很快就恢復了理智,我意識到,我不想看到這些為公司和客戶付出了畢生精力的優秀員工建立起來的價值,被毀於一旦。但我也知道……沒有我,公司也會很好。
原文作者:Deborah Yao
文章來源:https://aibusiness.com/nlp/from-davos-sam-altman-on-agi-the-nyt-lawsuit-and-getting-fired