AI加持的新搜索引擎可信嗎?

   日期:2024-12-27    作者:9pa6t 移动:http://oml01z.riyuangf.com/mobile/quote/60214.html

2個月前,聊天機器人ChatGPT橫空出世,其能像人類一樣撰寫文章並回答問題的能力震驚了世界。這種聊天機器人帶來的對於科技行業的顛覆力量如此之大,以至於它有可能徹底改變用戶使用互聯網的方式。包括微軟和谷歌在內的科技巨頭們已開始採取行動、奮勇爭先,以免錯過這股新浪潮。

AI加持的新搜索引擎可信嗎?

諸多跡象表明,人工智能(AI)已點燃了互聯網搜索引擎領域的新戰火。但人們能在多大程度上相信這些聊天機器人及其給出的答案呢?《自然》等雜志表示,鑒於谷歌的巴德(Bard)聊天機器人在給出答案時出現了事實性錯誤,而且,聊天機器人給出答案也缺乏透明度,人類對聊天機器人給予信任還有待時日。

人工智能搶灘搜索引擎

據《自然》網站2月13日報道,世界上最大的3個搜索引擎:谷歌、必應和百度上周表示,他們將把ChatGPT或類似技術集成到自家的搜索產品中,讓人們直接獲得答案或進行對話,而不僅僅是在鍵入單詞或問題后收到鏈接列表。這3家公司都在使用大型語言模型(LLM)。LLM通過呼應它們在大型數據庫中搜尋到的文本統計模式來創建令人信服的句子。

據悉,微軟的必應使用與其投資的開放人工智能(OpenAI)公司開發的ChatGPT相同的技術。微軟於近日演示了如何處理自然語言查詢,利用新聞報道、火車時刻表和產品定價等信息生成答案和建議。無獨有偶,2月6日,谷歌公司宣布將推出由人工智能驅動的搜索引擎巴德,巴德目前正由一小群測試人員使用。百度公司由AI驅動的聊天機器人“文心一言”(ERNIE)則將於3月上市。

法國國家科學研究中心主任蒂耶裡·布瓦博解釋說,有AI加持的搜索引擎,會給所提問題一個答案,不用像現在一樣還要查看資料才能獲得答案。

此前一些較小的公司已發布了AI驅動的搜索引擎。例如,去年8月,美國計算機科學家阿拉文德·斯瑞尼瓦斯等人發布了基於LLM的搜索引擎Perplexity,其類似傳統搜索引擎與ChatGPT的結合體。他說:“搜索引擎正在演變成一種新狀態,你可以開始與它們交談,就像與朋友交談一樣。”

人類能給出多大信任

那麼,人類可以相信這些聊天機器人嗎?

瑞士蘇黎世大學計算社會科學家亞歷山大·烏爾曼表示,與獨立的搜索引擎相比,人們可能更容易信任整合了聊天機器人的搜索引擎給出的答案。

美國佛羅裡達大學科學家2022年開展的一項研究發現,對那些與亞馬遜和百思買等公司使用的聊天機器人進行互動的參與者來說,機器人越像人,它們就越信任該公司。

行業研究人員表示,通過用互聯網上的大量文本數據集進行訓練,ChatGPT等工具能以流暢的對話回答用戶的各種問題,但這種聊天機器人不能保証回答准確。據英國《新科學家》網站報道,巴德給出的與詹姆斯·韋布空間望遠鏡有關的答案中就包含明顯的事實錯誤。

谷歌發言人表示,巴德的錯誤“凸顯了嚴格測試流程的重要性”。但一些人猜測,一旦用戶發現這些錯誤,他們可能會對基於聊天機器人的搜索失去信心,而非增加信任。由於投資者擔心未來並拋售股票,這一錯誤使谷歌的市值縮水1000億美元。

《自然》指出,ChatGPT也存在一種傾向:為那些它不知道答案的問題創造虛構的答案,這可能導致虛假信息泛濫。專家警告說,還有一個風險是網民可能對答案感到滿意,但會被唯一的答案帶偏或控制。

缺乏透明度

相對缺乏透明度也使不准確問題變得更加復雜。通常搜索引擎會向用戶展示答案的來源:一個鏈接列表,以讓用戶自行選擇,但很少有人知道LLM訓練的數據是什麼。如果語言模型不正確,或傳播錯誤信息,可能會產生重大影響。

西班牙拉裡奧哈國際大學AI專家胡安·伊格納西奧·羅耶特指出,使用普通搜索引擎時,用戶可看到信息的來源,但在這些聊天機器人平台上則看不到。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号