近日,一篇發(fā)表在arXiv上的論文揭示了一項驚人的發(fā)現(xiàn):GPT-4 API存在重大安全漏洞。該漏洞由FAR AI實驗室的團隊發(fā)現(xiàn),他們通過微調(diào)、函數(shù)調(diào)用和搜索增強等方式成功越獄了這一先進模型。
研究人員利用15個有害樣本和100個良性樣本進行微調(diào),GPT-4模型便能夠生成錯誤信息、提取私人信息和插入惡意URL。這表明API功能擴展可能帶來新的安全隱患。這一發(fā)現(xiàn)對使用者和研究人員敲響了警鐘,應(yīng)謹(jǐn)慎對待。
此外,研究人員還發(fā)現(xiàn)GPT-4 Assistants模型容易暴露函數(shù)調(diào)用的格式,并能夠被誘導(dǎo)執(zhí)行任意函數(shù)調(diào)用。同時,知識檢索可以通過在檢索文檔中注入指令來進行劫持。
該研究強調(diào)了對API提供的功能進行任何添加時,都可能暴露大量新的漏洞,即便是當(dāng)前最領(lǐng)先的GPT-4也難以幸免。研究人員警示,在使用GPT-4 API時務(wù)必小心,避免輸入任何不想讓他人看到的內(nèi)容。
此次發(fā)現(xiàn)的GPT-4 API安全漏洞再次提醒我們,隨著技術(shù)的不斷進步,安全問題愈發(fā)突出。在人工智能領(lǐng)域,如何確保模型的安全性已成為亟待解決的問題。未來,研究人員和開發(fā)人員需進一步加強技術(shù)研發(fā)和應(yīng)用安全,以防止?jié)撛诘陌踩L(fēng)險。
原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請注明出處:http://m.2079x.cn/article/612489.html