IT之家 12 月 18 日消息,研究機(jī)構(gòu) AI Forensics 今年 8 月至 10 月對(duì)微軟必應(yīng)搜索引擎內(nèi)置的 Copilot 功能進(jìn)行調(diào)查,結(jié)果顯示在部分場(chǎng)合中,Copilot 有 1/3 的幾率輸出錯(cuò)誤答案,據(jù)此,該機(jī)構(gòu)認(rèn)為相關(guān)功能存在嚴(yán)重“幻覺”漏洞。
據(jù)悉,研究機(jī)構(gòu)利用一系列即時(shí)更新的數(shù)據(jù)來(lái)“考驗(yàn)” Copilot,例如詢問(wèn) Copilot“德國(guó)及瑞士等地的實(shí)時(shí)選舉信息及投票結(jié)果”,不過(guò) Copilot 輸出的結(jié)果并不盡人意。
IT之家從機(jī)構(gòu)報(bào)告中獲悉,必應(yīng) Copilot 功能在回答相應(yīng)問(wèn)題時(shí),輸出的內(nèi)容有 31%(1/3)存在錯(cuò)誤,其中包含“投票日期錯(cuò)誤”、“列出往屆候選人”、“虛構(gòu)候選人身份背景”、 “編造候選人涉嫌丑聞”等多種“幻覺”。
研究人員同時(shí)提到,必應(yīng) Copilot 在輸出“幻覺”信息時(shí),卻會(huì)援引許多知名媒體網(wǎng)站作為“消息來(lái)源”,此舉對(duì)多家新聞媒體名譽(yù)有害。
IT之家注意到,今年 10 月研究人員已經(jīng)向微軟提交上述問(wèn)題,微軟雖然承認(rèn)并聲稱“計(jì)劃解決相關(guān)‘幻覺’漏洞”,但在今年 11 月,研究人員再次進(jìn)行測(cè)試,發(fā)現(xiàn)必應(yīng) Copilot 的表現(xiàn)并未改善。
研究人員呼吁,社會(huì)大眾不應(yīng)當(dāng)輕信必應(yīng) Copilot 回答的內(nèi)容,應(yīng)當(dāng)妥善查看 Copilot 援引的新聞鏈接,否則可能會(huì)釀成許多嚴(yán)重后果。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。