自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Bard 聊天機器人實用性遭谷歌內(nèi)部人士質(zhì)疑

人工智能
谷歌和 Discord 共同邀請自家 AI 聊天機器人 Bard 的忠實用戶,設(shè)立一個聊天室。其中,Bard 的產(chǎn)品經(jīng)理、設(shè)計師和工程師在聊天室內(nèi)討論了 AI 的有效性和實用性,但也有一些人開始提出質(zhì)疑。

10 月 12 日消息,據(jù)彭博社昨晚報道,谷歌和 Discord 共同邀請自家 AI 聊天機器人 Bard 的忠實用戶,設(shè)立一個聊天室。其中,Bard 的產(chǎn)品經(jīng)理、設(shè)計師和工程師在聊天室內(nèi)討論了 AI 的有效性和實用性,但也有一些人開始提出質(zhì)疑。

Discord 上 Bard 社區(qū)的兩名參與者向彭博社分享了 7 月-10 月期間聊天室內(nèi)的討論細節(jié)。Bard 的高級產(chǎn)品經(jīng)理 Dominik Rabiej 在討論中表示,自己“不信任”大語言模型生成的回復(fù)答案,并建議人們僅在“創(chuàng)意”“頭腦風暴”等方面使用 Bard。Rabiej 還表示,將 Bard 用于編程“也是一個不錯的選擇”—— 因為人們不可避免地要驗證代碼是否有效。

此外,Rabiej 還在本月強調(diào)了 Bard 中新增的“仔細檢查回復(fù)”按鈕的重要性。據(jù)稱,該功能會用橙色來突出顯示“可能不正確的”內(nèi)容。他還重申,Bard 并無法真正理解自己獲取的文本,只是根據(jù)用戶的提示用更多文本進行回復(fù)?!?strong>請記住,Bard 和任何大模型一樣都是生成式的 —— 它不是在幫你查資料或做總結(jié),而是在生成文本。”

這名產(chǎn)品經(jīng)理曾在 7 月份的一次聊天中直言道,除非(用戶自己)能獨立驗證,否則不要相信大語言模型的輸出結(jié)果?!拔覀円蚕胱屗_到你們的預(yù)期,但它還沒有?!?/strong>

另一位產(chǎn)品經(jīng)理 Warkentin 也在討論中寫道,“人性化的改進至關(guān)重要,只有這樣 Bard 才能成為一款適合所有人的產(chǎn)品。否則,用戶就沒有能力來評判產(chǎn)品的功能,我認為這將是一個巨大的錯誤?!薄拔覀儾恍枰谙笱浪械漠a(chǎn)品,而是所有人都能受用的產(chǎn)品!”

IT之家此前報道,谷歌今年 7 月擴大部署 Bard AI 工具時,加入了“分享對話鏈接”的功能。用戶可以將他和 Bard 的對話以網(wǎng)頁鏈接形式導(dǎo)出,分享給他人,讓別人繼續(xù)和 Bard 展開對話。

而 X 平臺一名分析顧問 Gagan Ghotra 發(fā)現(xiàn)了這一漏洞,谷歌錯誤將部分用戶分享的鏈接,作為索引加入搜索結(jié)果中,從而導(dǎo)致了相關(guān)敏感信息外泄。

Gagan Ghotra 據(jù)此警告用戶與不要在和 Bard 對話時分享任何“私密性內(nèi)容”,否則相關(guān)信息可能外泄

責任編輯:龐桂玉 來源: IT之家
相關(guān)推薦

2023-10-29 21:20:04

谷歌Bard聊天機器人

2023-06-14 08:09:19

聊天機器人谷歌

2023-05-11 09:57:27

谷歌OpenAI開發(fā)聊天機器人

2023-03-21 23:50:16

人工智能機器人ChatGPT

2023-05-16 12:49:02

谷歌聊天機器人AI

2023-05-11 06:59:40

谷歌AI 聊天機器人

2023-06-19 12:03:52

聊天機器人Bard

2022-07-05 06:42:01

聊天機器人人工智能

2023-04-12 14:10:30

谷歌Bard聊天機器

2023-02-13 11:42:39

2023-06-12 08:25:33

2023-06-29 15:04:21

微軟ChatGPT

2016-02-16 14:46:33

聊天機器人機器學習自然語言

2023-12-18 19:05:34

2023-04-08 11:13:44

OpenAIChatGPT

2017-03-28 12:21:21

機器人定義

2020-02-02 09:19:14

聊天機器人機器人智能

2019-12-19 16:08:40

人工智能機器人數(shù)據(jù)

2022-07-03 10:23:06

機器人場景個性化
點贊
收藏

51CTO技術(shù)棧公眾號