近日,研究機構(gòu) AI Forensics 對微軟必應(yīng)搜索引擎內(nèi)置的 Copilot 功能進行了調(diào)查,結(jié)果顯示該功能在部分場合中存在嚴重的“幻覺”漏洞。根據(jù)報告,當(dāng)Copilot被詢問關(guān)于德國和瑞士等地的實時選舉信息及投票結(jié)果時,它給出的答案有31%(1/3)是錯誤的。
這些錯誤包括“投票日期錯誤”、“列出往屆候選人”、“虛構(gòu)候選人身份背景”、 “編造候選人涉嫌丑聞”等多種“幻覺”。此外,研究人員還發(fā)現(xiàn),當(dāng)Copilot輸出“幻覺”信息時,它會援引許多知名媒體網(wǎng)站作為“消息來源”,此舉可能對多家新聞媒體的名譽造成損害。
微軟公司承認了這一問題的存在,并表示“計劃解決相關(guān)‘幻覺’漏洞”。然而,在今年11月,研究人員再次進行測試時發(fā)現(xiàn),必應(yīng) Copilot 的表現(xiàn)并未得到改善。
針對這一問題,研究人員呼吁社會大眾不要輕信必應(yīng) Copilot 回答的內(nèi)容。他們建議用戶在查看Copilot的回答時,要仔細查看其援引的新聞鏈接,以確保獲取的信息是準確和可靠的。
微軟公司作為全球知名的科技公司,其搜索引擎產(chǎn)品在全球范圍內(nèi)擁有廣泛的使用者。此次Copilot功能存在的“幻覺”漏洞可能會對用戶的信息獲取和使用造成影響。因此,微軟公司需要盡快解決這一問題,以保障用戶的權(quán)益和利益。
總之,此次研究機構(gòu)AI Forensics的調(diào)查結(jié)果提醒我們,在使用搜索引擎和AI助手時,需要保持警惕和謹慎。同時,對于科技公司而言,他們需要更加注重產(chǎn)品的質(zhì)量和用戶體驗,確保提供給用戶的信息是準確和可靠的。
原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請注明出處:http://m.2079x.cn/article/608326.html