4月6日,OpenAI 對外宣稱已經解決了最近的安全隱私問題。周四其發(fā)布一份安全承諾,并承認有改進的空間。在近一周的時間里,包括史蒂夫沃茲尼亞克和埃隆馬斯克在內的人工智能專家和行業(yè)領袖發(fā)表了一封公開信,呼吁暫停開發(fā) GPT-4 等模型六個月,ChatGPT在意大利被徹底禁止,投訴被向聯邦貿易委員會提交了危險的錯誤信息風險。
OpenAI 斷言,它的工作是“確保在我們系統的各個層面都內置安全性?!?nbsp;OpenAI 在發(fā)布 GPT-4 之前花費了六個多月的“嚴格測試”,并表示正在研究驗證選項以強制執(zhí)行其 18 歲以上的年齡要求。該公司強調,它不會出售個人數據,只會將其用于改進其 AI 模型。它還表示愿意與政策制定者合作,并繼續(xù)與 AI 利益相關者合作,“以創(chuàng)建一個安全的 AI 生態(tài)系統”。
在安全承諾中,OpenAI 承認開發(fā)安全的 LLM 依賴于現實世界的輸入。它認為,從公共輸入中學習將使模型更安全,并允許 OpenAI 監(jiān)控濫用情況?!艾F實世界的使用也讓我們制定了越來越細致的政策來反對對人們構成真正風險的行為,同時仍然允許我們技術的許多有益用途?!?/p>
OpenAI 的 隱私政策沒有直接提及其在訓練數據中使用人們的個人信息的法律原因,但表示它在“開發(fā)”其服務時依賴于“合法利益”。與 GPT-3 不同,OpenAI 沒有公布任何進入 ChatGPT 的訓練數據的細節(jié),而 GPT-4被 認為要大幾倍。
然而,GPT-4 的技術文件包括一個關于隱私的部分,其中說它的訓練數據可能包括來自多個來源的“公開可用的個人信息”。該論文稱,OpenAI 采取措施保護人們的隱私,包括“微調”模型以阻止人們詢問個人信息,以及“在可行的情況下”從訓練數據中刪除人們的信息。
OpenAI 承諾“關于安全方法的細節(jié)”,但除了保證探索年齡驗證之外,大部分公告讀起來都像是陳詞濫調。關于它計劃如何降低風險、執(zhí)行其政策或與監(jiān)管機構合作的細節(jié)并不多。
牛津大學人工智能倫理研究所高級研究員、數據實踐作者Elizabeth Renieris 表示:“這項技術的構建模塊的基礎已經腐爛,我認為這將很難治愈。 ” 她指出,許多用于訓練機器學習系統的數據集已經存在多年,而且在將它們放在一起時可能很少考慮隱私問題。
“數據最終如何進入 GPT-4 之類的東西,存在這種分層和復雜的供應鏈,”Renieris 說。“從來沒有真正設計或默認的任何類型的數據保護?!?nbsp;2022 年,一個廣泛使用的圖像數據庫的創(chuàng)建者建議對數據集中的人臉圖像進行模糊處理,該數據庫已幫助訓練 AI 模型達十年之久 。
原創(chuàng)文章,作者:蘋果派,如若轉載,請注明出處:http://m.2079x.cn/article/570850.html