国产成人精品自在线拍,公交车上~嗯啊被高潮,丰满少妇被猛烈进av毛片,国产av综合第一页,丰满少妇猛烈a片免费看观看

ChatGPT 情商很高 但事實表明它并不適合當(dāng)搜尋引擎

作者:蘭洋科技????瀏覽量:4611????時間:2023年07月27日????標(biāo)簽: ChatGPT AI人工智能

目前基于大型語言模型的人工智慧工具,例如ChatGPT,更擅長共情而不是提供精準(zhǔn)的事實資訊。這是因為設(shè)計者優(yōu)先考慮流暢性而非精準(zhǔn)性。加上訓(xùn)練資料庫中包含大量情感資訊,將大型語言模型植入搜尋引擎的競爭毫無意義。 

001.jpg

普林斯頓大學(xué)電腦科學(xué)教授阿爾溫德?納拉亞南(Arvind Narayanan)先前為自己四歲的女兒開發(fā)了支援ChatGPT 的語音介面。這不僅是一個實驗,更是因為他相信,人工智慧機器人有一天會成為女兒生活中的重要組成部分。

AI有一天可能會成為你的生活伴侶

納拉亞南的女兒天生好奇,經(jīng)常問他有關(guān)動物、植物和人體的問題。他認(rèn)為OpenAI 開發(fā)的ChatGPT 可以提供有用的答案。令他驚訝的是,一旦他告訴系統(tǒng)正在與小孩對話,這款聊天機器人就能表現(xiàn)出無可挑剔的共情能力。

納拉亞南的女兒問:「燈滅了會怎么樣?」

「燈滅了,天就黑了,可能會有點嚇人,」ChatGPT 用人工合成的聲音回答道?!傅珓e擔(dān)心!你可以做很多事情來讓自己在黑暗中感到安全舒適?!?/p>

ChatGPT 隨后提出了一些使用夜燈的建議,并最后提醒:「在黑暗中感到有點害怕很正常?!?/p>

這個解釋顯然讓納拉亞南的女兒感到很安心。

微軟和Google正急于使用大型語言模型技術(shù)來強化搜尋引擎。但有充分的理由認(rèn)為,相比于提供事實性資訊,這項技術(shù)更適合作為人們情感上的伴侶。

聽起來可能很奇怪。但無論是Google的Bard 還是微軟的新Bing,這種人工智慧在用于搜尋資訊時都出現(xiàn)了一系列尷尬的事實性錯誤。Bard 在首次公開展示時就給出了關(guān)于詹姆斯?韋伯太空望遠(yuǎn)鏡的錯誤資訊,而新Bing 也搞錯了一大堆財務(wù)報表資料。

當(dāng)人工智慧聊天機器人用于搜尋時,出現(xiàn)事實性錯誤的代價很高。Replika 是一款人工智慧應(yīng)用程式,下載量已經(jīng)超過500 萬次。該應(yīng)用程式的創(chuàng)始人尤金尼亞?庫伊達(Eugenia Kuyda) 表示,當(dāng)人工智慧被設(shè)計成伴侶時,出現(xiàn)錯誤的代價就要低得多。她說:「這不會影響使用者體驗,不像搜尋,小小錯誤就會破壞使用者對產(chǎn)品的信任?!?/p>

Google前人工智慧研究員瑪格麗特?米切爾(Margaret Mitchell) 曾與人合作撰寫過一篇關(guān)于大型語言模型風(fēng)險的論文。她表示,大型語言模型根本“不適合”作為搜尋引擎。這些大型語言模型之所以會出錯,是因為訓(xùn)練所用的資料經(jīng)常包含錯誤資訊,而且模型也沒有基本事實來驗證所生成的內(nèi)容。此外,大型語言模型的設(shè)計者可能優(yōu)先考慮生成內(nèi)容的流暢性,而不是精準(zhǔn)性。

這也是這些工具特別擅長迎合使用者的原因之一。畢竟,目前大型語言模型都是從網(wǎng)上抓取文字進行訓(xùn)練,其中包括推特和Facebook 等社群媒體平臺上發(fā)布的情緒性內(nèi)容,以及Reddit 和Quora 等論壇上的個人心理疏導(dǎo)內(nèi)容。電影電視劇中的臺詞、小說中的對話,以及關(guān)于情商的研究論文都進入了訓(xùn)練資料庫,這使得這些工具更具有同理心。

據(jù)報導(dǎo),一些人把ChatGPT 當(dāng)成機器人治療師來使用。其中一位說,他們這樣做是為了避免成為別人的負(fù)擔(dān)。

ChatGPT情商測試表現(xiàn)比一般人還好

為了測試人工智慧的共情能力,人們對ChatGPT 進行了一次線上情商測試。結(jié)果顯示,它表現(xiàn)出色,在社會意識、關(guān)系管理和自我管理方面都獲得了滿分,在自我意識方面只是略有差池。

從某種程度上來說,ChatGPT 在測試中的表現(xiàn)比一些人還要好。

雖然一臺機器能為人們帶來共情感受有點不真實,但確實有一定道理。人們天生需要社會聯(lián)絡(luò),人類大腦也有能力反映他人感受,這意味著即使對方?jīng)]有真正“感受”到我們的想法,我們也能獲得一種理解感。人類大腦中的鏡像神經(jīng)元會在我們感受到他人的共情時被啟動,給我們帶來一種彼此相連的感覺。

當(dāng)然,共情是一個涉及多方面的概念,要想真正體驗到這種感覺,人們還是需要與真正的人進行交流。

倫敦國王學(xué)院臨床心理學(xué)家托馬斯?沃德(Thomas Ward) 研究了軟體在心理治療中的作用,他警告人們不要想當(dāng)然地認(rèn)為,特別是在心理問題很嚴(yán)重的情況下,人工智慧可以充分滿足人們在心理健康方面的需求。例如,聊天機器人可能無法理解人的情感復(fù)雜性。換句話說,ChatGPT 很少說“我不知道”,因為它在設(shè)計上傾向于自信而不是謹(jǐn)慎回答問題。

人們也不應(yīng)該把聊天機器人作為發(fā)泄情感的習(xí)慣性管道。沃德說:“在將人工智慧聊天機器人視為消除孤獨方式的世界里,微妙的人際關(guān)系,例如拉住手或明白何時說話何時傾聽,可能會消失?!?/p>

這可能會最終導(dǎo)致更多問題。但就目前而言,人工智慧在情感方面的技能至少要比它們掌握的事實更可靠。

來源:網(wǎng)絡(luò)

本文標(biāo)題:ChatGPT 情商很高 但事實表明它并不適合當(dāng)搜尋引擎

本文鏈接:http://www.yangziriver.cn/zhineng/685.html
[版權(quán)聲明]除非特別標(biāo)注,否則均為本站原創(chuàng)文章,轉(zhuǎn)載時請以鏈接形式注明文章出處。

全國統(tǒng)一服務(wù)熱線
15336679905
Copyright ?2019-2023 蘭洋(寧波)科技有限公司 版權(quán)所有
ICP備案:浙ICP備2021021247號