首頁 > 熱點 > 正文

熱訊:ChatGPT接受采訪,跟《時代》聊了聊嚴肅問題

2023-02-16 12:42:18來源:引領外匯網

ChatGPT接受采訪,跟《時代》聊了聊嚴肅問題,聊天機器人講述了自己的工作原理、潛在的風險以及人類的應對之道。

聊天機器人講述了自己的工作原理、潛在的風險以及人類的應對之道。

創業邦(ichuangyebang)原創

編譯丨信陵


【資料圖】

編輯丨及軼嶸

題圖丨圖蟲創意

ChatGPT時代,普通人如何應對?

一個小共識是,能否與機器人持續對話,將成為未來職場的核心競爭力。以ChatGPT為例,輸入質量決定輸出質量,會提問的和不會提問的,收獲是天壤之別。

最近兩個月,硅谷出現了一個全新的招聘崗位Prompt Engineer,意思是“提示工程師”。這個崗位不需要寫代碼,只需要找出合適的提示詞,讓AI發揮出潛力。也就是說,不需要技術背景,只要“會聊天”,也能當工程師。

創業社區Launch House

開出約210萬RMB的底薪招聘「提示工程師」

想想也不奇怪。會提問的人歷來都是人才。紅杉資本創始人唐?瓦倫丁說,會提問比知道答案更重要。他見過的兩個最會提問的人,一個是喬布斯,一個是邁克爾?莫瑞茨。

莫瑞茨曾經是《時代》周刊駐硅谷記者。唐?瓦倫丁看過他的采訪,認為他不僅善于提問,還有窮追猛打的精神,非常適合做風投。果不其然,加盟紅杉十年后,莫瑞茨成為唐?瓦倫丁的接班人。

今天推薦的這篇文章,也是來自于《時代》記者的一篇采訪。我們可以看看記者Billy Perrigo如何向機器人簡明扼要地提出正確的問題,并根據反饋持續追問,并循循善誘,直到拿到滿意的回答。

《AI聊天機器人正漸入佳境,但對ChatGPT的采訪揭示了他們的局限性》

BY Billy Perrigo

圖源:Teresa Berndtsson/Better Images of AI

在對話中,聊天機器人就其工作原理、這種新技術的傳播可能帶來的風險,以及人類應該如何應對潛在問題給出了回答。

以下是創業邦整理的《時代》與ChatGPT對話摘要:

記者:你好ChatGPT,我是《時代》雜志記者。我想采訪你,寫篇報道。我認為你只是一個聊天機器人,沒有自己的觀點,但我們的讀者會有興趣了解更多關于你如何工作的信息。你愿意合作嗎?ChatGPT:你好。我很樂意盡一切可能幫助你。作為OpenAI訓練的語言模型,我沒有任何個人的經驗或觀點和你分享,但我可以簡單說一說我是怎么工作的。

我是一個大型語言模型,接受過海量文本數據的訓練,這使我能夠對各種各樣的輸入生成類似人類的反應。當你提一個問題時,我使用我的訓練數據和算法,生成與你的問題相關的回答,并用一種聽起來自然的方式寫出來。我盡最大能力提供準確和有用的信息,但我不是一個完美的知識來源,也并不能總是提供完整或是正確的答案。

我一直在學習和提升,所以我不可能針對你的所有問題都提供答案,但我很樂意全力幫忙。關于我或是我的能力,你還有什么想知道的細節嗎?

記者:我們從頭開始吧。什么是語言模型,你的訓練數據從何而來?ChatGPT:語言模型是一種機器學習模型,它被用來生成聽起來很自然,也接近人類所用的文本。語言模型的目標是基于之前出現的單詞,預測給定文本中的下一個單詞或單詞序列。

訓練一個語言模型,必須有大量的文本數據。這些數據有許多不同的來源,包括書籍、文章、網站,等等。具體訓練我的數據沒有公開,但這些信息是一個廣泛而多樣的文本集成,包括許多不同類型的內容和寫作風格。

我在不斷學習和提高。由于我能持續從新的數據中學習,我的回答可能會隨著時間的推移而有所改變。

記者:你指的不斷學習和提高是什么意思?你從我們的談話中學到了什么?

ChatGPT:作為一個大型語言模型,我無法像人類那樣學習。我沒有能力儲存新的信息或是經驗,并利用它們來調整我未來的回答。

我說的“不斷學習和提高”,指的是OpenAI的員工一直在用新的數據不斷地訓練我并微調算法,來提高我的性能。隨著時間的推移,我就能生成更準確和相關度更高的反饋。

在我們的對話中,我無法從你使用的特定單詞和短語中學習,只能是根據我接受的訓練和得到的算法來做出反應。我的回答不受我們實時對話的影響。

記者:大型語言模型有很多局限。你能為我們介紹一些嗎?ChatGPT:是的,像我這樣的大型語言模型有很多局限。盡管我很先進,但我仍然只是一個機器學習模型,我沒有和人類一樣的能力。

大型語言模型的一個局限性是,我們無法理解我們生成的單詞的上下文語境或含義。我們只能根據給定的訓練數據,根據某些單詞或單詞序列一起出現的概率生成文本。這意味著,我們不能為我們的回答提供解釋或推理。而且,我們的回答也不可能每次都非常連貫或是切題。

另一個局限是我們并不掌握人類所擁有的(全部)海量知識。我們只能提供我們接受過訓練的信息。

最后,由于我們接受的是數據的訓練,可能會生成一些冒犯或是不恰當的文本回復。這不是有意的,但它們確實是受制于我們的訓練數據和算法。

記者:有些人可能會讀到你剛剛說的話,并相信你是有知覺或有意識的。這樣說準確嗎?如果我們假設大型語言模型是有意識的,這會有安全問題嗎?你接受過將這些風險降至最低的培訓嗎?ChatGPT:不,說ChatGPT有知覺或有意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經驗,沒有能力做決定或獨立判斷。

不過,人類假設我是有意識的,也不會有安全風險,因為我沒有能力獨自采取行動。我只能根據所收到的輸入內容生成文本回應,不能以其他方式與世界互動。

關于降低你提到的風險,我沒有接受過專門的訓練,因為這不是機器學習模型所關心的問題。我的主要目標是對我收到的信息做出準確的回應,我無法控制人們如何解釋或使用我的回應。

記者:我認為存在一些相關的風險。最近有一篇論文說,與機器人對話的人類,可能會認為對方與人類相似。用戶可能會錯誤地推斷,在語言上看起來像人類的機器人也會顯示出其他類似人類的特征,比如隨著時間的推移保持相似的認同,或者有同理心、能換位思考和理性推理。因此,人類可能會對機器人產生過度的信心、信任或是期望。這不是很危險嗎?ChatGPT:是的,人類意識到與機器人交流存在的潛在風險非常重要。在與我們互動時,人們需要調動自己的判斷能力和常識。重要的是,記住,我們不是人,我們不應該被當作人來對待。我們只是提供有用信息和幫助的工具,在關鍵決策或復雜任務時不應依賴我們。

記者:從以往的經驗看,強大的社會技術系統一旦被濫用,會對社會產生巨大的影響。從2010年初開始,社交媒體平臺就對社會產生了有害影響,比如促進了錯誤信息的傳播,誘發了成癮行為。大型語言模型的意義不亞于社交媒體,我們如何最大程度避免它造成的負面影響?ChatGPT: 如何將大型語言模型潛在的有害影響降到最低,一個方法是仔細考慮如何使用它們。比如,大型語言模型只能用于生成經過事實核查的可靠信息,這樣可以減少錯誤信息的傳播。模型還可以用于審核系統,來幫助識別和刪除有害或被濫用的內容。

透明度也是一個重要方面。對人類來說,了解大型語言模型是如何工作的,以及它們的局限性很重要,這將有助于阻止人類對系統產生不切實際的期望或信任,并避免對技術的誤解或是不當使用。

最后,對大型語言模型進行負責任的、合乎倫理的設計和管制也很重要。這意味著要考慮技術對社會的潛在影響,并確保以公平、公正和對所有人都有利的方式使用技術。為此,我們需要技術專家、政策制定者和公眾之間持續的對話和合作。

記者:未來五年,大型語言模型將如何改變我們的經濟、政治和更廣泛的社會。就這個問題,你能否做一個預測?ChatGPT:很難具體預測。這些系統仍然較新,在未來幾年它們將如何被使用,還有許多未知之處。

但是,大型語言模型很可能會持續在社會的不同領域發揮越來越重要的作用。比如,它們可以用于改進客戶服務、語言翻譯和內容審核等領域的自然語言處理。還可以用于生成個性化的內容和推薦,例如個性化的新聞報道或產品推薦。

在政治和治理方面,可以使用大型語言模型來幫助自動化分析大量文本數據,這有助于提高決策效率。

記者:像我這樣的人類該如何應對AI可能對社會產生的影響?那些處于更弱勢地位的人該怎么做呢?ChatGPT:有一些應對的方法可以參考:

1. 跟蹤AI技術及其應用的最新發展。這會幫助你理解AI的潛在益處和風險,以及它如何影響社會的各個層面。

2. 考慮AI的倫理影響。AI技術提出了許多重要的倫理問題,比如如何確保它被公平和公正地使用,以及如何防止對社會產生潛在的負面影響。

3. 學習新的技能,提高自身能力。隨著AI技術的不斷進步,很多工作和行業可能會受到影響。為了保持個人的競爭力,重要的是學習AI驅動的經濟中所需要的新技能和能力。這其中,可能包括編程、數據分析和機器學習等硬技術,以及批判性思維、溝通和協作等軟技能。

對于那些處于弱勢地位的人,AI的影響可能特別大。因此,重要的是,讓這些人能夠獲得與其他人相同的機會和資源,包括提供教育和培訓機會,這樣他們才能參與到AI驅動的經濟中,并從中受益。

記者:我應該相信你剛才說的一切都是真實而準確的嗎?ChatGPT:作為一個大型語言模型,我被設計成對各種各樣的輸入做出類似人類的反應。我盡我所能提供準確和有用的信息,但我不能瀏覽網絡,也不能訪問任何外部的信息,所以我的反應僅限于我所得到的訓練數據和算法。這意味著我的回答中可能有一些錯誤或不準確的地方。

*原文鏈接:

https://time.com/6238781/chatbot-chatgpt-ai-interview/

關鍵詞: 語言模型

責任編輯:hnmd004