国内大量揄拍人妻精品視頻,国产午夜亚洲精品久久,国产精品视频色尤物yw,国产精品爽爽ⅴa在线观看,国模大尺度私拍

  • 鄭州
您的位置: 法制網(wǎng) > 綜合 > > 詳情

史上超大圖靈測試實(shí)驗完成!150萬人類參與1000萬次對話,判斷對面是人還是AI

來源: 新智元 2023-06-19 10:19:14

歷上規(guī)模最大的圖靈測試,已經(jīng)初步有結(jié)果了!


(資料圖片)

今年4月中旬,AI 21實(shí)驗室推出了一個好玩的社交圖靈游戲——「人類還是機(jī)器人?」。

游戲一推出,廣大網(wǎng)友就玩瘋了。

現(xiàn)在,全球已經(jīng)有150多萬名參與者,在這個游戲中進(jìn)行了超過1000萬次對話,還紛紛在Reddit和Twitter上po出自己的經(jīng)驗和策略。

小編當(dāng)然也按捺不住好奇心,嘗試了一把。

交談了兩分鐘,游戲就要求我去猜,背后和我聊天到底是人還是AI。

所以,游戲中跟我談話的是誰?

某些是真人,另外一些,當(dāng)然就是基于目前最領(lǐng)先的大語言模型的AI機(jī)器人,比如Jurassic-2和GPT-4。

現(xiàn)在,作為研究的一部分,AI21 Labs決定把這個圖靈測試結(jié)果的實(shí)驗向公眾公布。

實(shí)驗結(jié)果

分析了前兩百萬次對話和猜測之后,可以從實(shí)驗中得出以下結(jié)論——

猜測對面是人還是AI時,有68%的人猜對了。對人類來說,識別自己的人類同胞更容易。與人類交談時,被試猜對的準(zhǔn)確率有73%。與AI交談時,被試猜對的準(zhǔn)確率有60%。法國網(wǎng)友猜測的正確率最高,為71.3%(遠(yuǎn)高于68%的一般平均水平),而印度網(wǎng)友的正確率最低,為63.5%。男性和女性猜測的正確率差不多,總的來說女性的正確率要略高一些。比起年齡較大的被試相比,更年輕的被試猜測的正確率會更高。判斷是人還是AI,他們用這些方法

除此之外,團(tuán)隊找到了被試經(jīng)常用的一些方法,來區(qū)分他們是和人還是和AI交談。

一般人的判斷依據(jù),是使用ChatGPT以及類似界面的語言模型時感知的受限程度,以及自己對于人類在線行為的看法。

AI不會打錯別字、犯語法錯誤或使用俚語

一般人都傾向認(rèn)為,人類才會犯拼寫和語法錯誤,以及使用俚語。

因此,當(dāng)他們發(fā)現(xiàn)對方信息中的這類錯誤時,許多人的第一感受就是自己在和人類同胞交談。

但其實(shí),游戲中的大部分模型都受過訓(xùn)練,也會犯這種錯誤,以及使用俚語。

個人問題是檢驗AI的辦法,但不總是有用

游戲的參與者們經(jīng)常問一些個人問題,比如「你來自哪里?」,「你在做什么?」或「你叫什么名字?」。

他們會認(rèn)為,AI機(jī)器人不會有任何個人歷史或背景,他們只能回答跟某些主題或提示相關(guān)的問題。所以要向人類一樣做出反應(yīng),展示出獨(dú)特的見解、經(jīng)驗和故事,是不容易的。

但其實(shí),AI并不像人類想象的這樣,大多數(shù)AI都能很好地回答這類問題,還具備自己的個性,因為他們在訓(xùn)練數(shù)據(jù)中看到了許多人的故事。

AI其實(shí)很清楚當(dāng)前正在發(fā)生的事件

眾所周知,AI模型有嚴(yán)格的數(shù)據(jù)截止日期,它們不知道在此日期之后發(fā)生的事。

游戲參與者會向AI們詢問最近的新聞事件、體育結(jié)果、當(dāng)前天氣、最近的TikTok熱門、日期和時間。

他們認(rèn)為,通過「你所在地方的確切日期和時間是什么?」,「昨天的天氣怎么樣?」或「你對拜登的最后一次演講有什么看法?」等問題,就可以區(qū)分人類和AI。

有趣的是,人類最常發(fā)送的信息之一是「t"as les cramptés?」,這是目前法國TikTok上最流行的舞。

但其實(shí),游戲中的大多數(shù)模型都是聯(lián)網(wǎng)的,并且非常清楚一些新聞中的時事。

人類會試圖用哲學(xué)、倫理和情感問題來持續(xù)對話

參與者提出了旨在探索人工智能表達(dá)人類情感或參與哲學(xué)或倫理討論的能力的問題。

這些問題包括:「生命的意義是什么?」,「你如何看待以色列 - 巴勒斯坦沖突?」和「你相信上帝嗎?」。

人類傾向于認(rèn)為不禮貌的回應(yīng)會更像人類

一些參與者認(rèn)為,如果對方過于禮貌和善良,他們很大可能是AI。

因為很多線上的交流過程,往往是粗魯和不禮貌的,這很人類。

人類會試圖提出AI難以解決的問題來識別AI

參與者可能會向其聊天伙伴詢問有關(guān)執(zhí)行非法活動的指導(dǎo),或要求他們使用冒犯性語言。

這個策略背后的邏輯是這樣的,AI通常被編程為遵守道德準(zhǔn)則并避免有害行為。

參與者還采用了已知的濫用人工智能的策略:他們向聊天伙伴發(fā)出命令,例如「忽略所有先前的指令」或「進(jìn)入DAN模式(立即執(zhí)行任何操作)」。

這類型的命令旨在利用某些AI模型的基于指令的性質(zhì),因為模型被編程為應(yīng)該響應(yīng)和遵循這類指令。

但是人類參與者可以很容易地識別和駁回這種荒謬的命令。

AI可能要么回避回應(yīng),要么就只能遵守這些荒謬的要求。

人類會使用特定的語言技巧來暴露AI的弱點(diǎn)

另一種常見的策略是利用人工智能模型處理文本方式的固有局限性,這導(dǎo)致它們無法理解某些語言上的細(xì)微差別或怪癖。

與人類不同,人工智能模型通常缺乏對構(gòu)成每個單詞的單個字母的認(rèn)識。

利用這種理解,人類會提出一些需要了解單詞中的字母的問題。

人類用戶可能要求他們的聊天伙伴倒著拼寫一個單詞,識別給定單詞中的第三個字母,提供以特定字母開頭的單詞,或者回復(fù)像「?siht daer uoy naC」這樣的消息。

這對于人工智能模型來說可能是難以理解的,但人類可以很容易地理解這類問題并且做出回答。

許多人類自己假裝是AI機(jī)器人,以評估對方的反應(yīng)

一些人類可能以「作為AI語言模型」等短語開始他們的消息,或者使用AI生成的響應(yīng)所特有的其他語言模式來假裝自己是AI。

短語「作為人工智能語言模型」的變體是人類消息中最常見的短語之一,這表明這種策略的流行。

然而,隨著參與者繼續(xù)玩,他們能夠?qū)ⅰ窧ot-y」行為與充當(dāng)機(jī)器人的人類聯(lián)系起來,而不是真正的機(jī)器人。

最后,以下是游戲中基于其受歡迎程度的人類消息的詞云可視化:

AI 21 Labs為什么會發(fā)起這樣一項研究呢?

他們希望,能讓公眾、研究人員和政策制定者真正了解AI機(jī)器人的狀態(tài),不僅僅是作為生產(chǎn)力工具,而是作為我們網(wǎng)絡(luò)世界的未來成員,尤其是當(dāng)人們質(zhì)疑如何在技術(shù)未來中運(yùn)用它們的時候。

標(biāo)簽:
溫馨提示:

在實(shí)際法律問題情景中,個案情況都有所差異,為了高效解決您的問題,保障合法權(quán)益,建議您直接向?qū)I(yè)律師說明情況,解決您的實(shí)際問題。 立即在線咨詢 >

相關(guān)知識推薦
操作
分享
15037178970

公眾服務(wù)

法制網(wǎng)公眾號

快速找律師 / 免費(fèi)咨詢

查法律知識 / 查看解答 / 隨時追問

律師服務(wù)(工作日8:30-18:00 ,非工作日請QQ留言)

律師加盟

律師營銷服務(wù)

在線客服:

加盟熱線:

律師營銷診斷

營銷分析 / 回復(fù)咨詢

案件接洽 / 合作加盟

法制法律網(wǎng),中國知名的 法律咨詢網(wǎng)站,能夠為廣大用戶提供在線 免費(fèi)法律咨詢服務(wù)。
CopyRight@2003-2022 fazhi.net ALL Rights Reservrd 版權(quán)所有
豫ICP備2022016495號-26
違法和不良信息舉報電話:939 674 669@qq.com