OpenAI 因隱私問題糾紛不斷 歐洲多地或?qū)hatGPT開啟調(diào)查

OpenAI 已阻止意大利人訪問其聊天機(jī)器人,同時(shí)它向正在進(jìn)一步調(diào)查的官員提供答復(fù)

近日,OpenAI 因?yàn)橛脩綦[私問題一直糾紛不斷。在3月31日,意大利數(shù)據(jù)監(jiān)管機(jī)構(gòu)發(fā)布了一項(xiàng)臨時(shí)緊急決定,要求 OpenAI 停止使用其訓(xùn)練數(shù)據(jù)中包含的數(shù)百萬意大利人的個(gè)人信息。根據(jù)監(jiān)管機(jī)構(gòu) Garante per la Protezione dei Dati Personali 的說法,OpenAI 沒有合法利在 ChatGPT 中使用人們的個(gè)人信息。作為回應(yīng),OpenAI 已阻止意大利人訪問其聊天機(jī)器人,同時(shí)它向正在進(jìn)一步調(diào)查的官員提供答復(fù)。

當(dāng)OpenAI 發(fā)布時(shí) 2020 年 7 月的 GPT-3,它提供了用于訓(xùn)練大型語言模型的數(shù)據(jù)的一瞥。根據(jù)一篇 技術(shù)論文,從網(wǎng)絡(luò)、Reddit 帖子、書籍等中收集的數(shù)百萬頁被用于創(chuàng)建生成文本系統(tǒng)。在此數(shù)據(jù)中收集的是您在網(wǎng)上分享的一些關(guān)于您自己的個(gè)人信息。這些數(shù)據(jù)現(xiàn)在讓 OpenAI 陷入困境。 

 這是西方監(jiān)管機(jī)構(gòu)首次針對(duì) ChatGPT 采取的行動(dòng),凸顯了圍繞創(chuàng)建巨大的生成式 AI 模型的隱私問題,這些模型通常在大量互聯(lián)網(wǎng)數(shù)據(jù)上進(jìn)行訓(xùn)練。而意大利提出的問題,也可能使整個(gè)歐洲都可能做出類似的決定。在意大利宣布調(diào)查后的幾天里,法國、 德國和愛爾蘭的數(shù)據(jù)監(jiān)管機(jī)構(gòu)已聯(lián)系 Garante,要求提供有關(guān)其調(diào)查結(jié)果的更多信息。

“如果商業(yè)模式只是在互聯(lián)網(wǎng)上搜索你能找到的任何東西,那么這里可能會(huì)出現(xiàn)一個(gè)非常重要的問題,”挪威數(shù)據(jù)保護(hù)機(jī)構(gòu)國際負(fù)責(zé)人 Tobias Judin 說,該機(jī)構(gòu)正在監(jiān)測(cè)事態(tài)發(fā)展。Judin 補(bǔ)充說,如果一個(gè)模型是建立在可能被非法收集的數(shù)據(jù)之上的,那么就會(huì)引發(fā)關(guān)于是否任何人都可以合法使用這些工具的問題。

歐洲的 GDPR 規(guī)則涵蓋了組織收集、存儲(chǔ)和使用人們個(gè)人數(shù)據(jù)的方式 ,保護(hù)了4 億多人的數(shù)據(jù)。這些個(gè)人數(shù)據(jù)可以是從人名到 IP 地址的任何內(nèi)容——如果它可以用來識(shí)別某人,就可以算作他們的個(gè)人信息。與美國州級(jí)隱私規(guī)則的拼湊不同,GDPR 的保護(hù)適用于人們的信息可在網(wǎng)上免費(fèi)獲得的情況。

意大利的 Garante 認(rèn)為 ChatGPT 在 GDPR 下存在四個(gè)問題:OpenAI 沒有年齡控制來阻止 13 歲以下的人使用文本生成系統(tǒng);它可以提供有關(guān)人員的不準(zhǔn)確信息;人們還沒有被告知他們的數(shù)據(jù)已被收集。也許最重要的是,它的第四個(gè)論點(diǎn)聲稱,在用于訓(xùn)練 ChatGPT 的海量數(shù)據(jù)中收集人們的個(gè)人信息“沒有法律依據(jù)”。

OpenAI 的 隱私政策沒有直接提及其在訓(xùn)練數(shù)據(jù)中使用人們的個(gè)人信息的法律原因,但表示它在“開發(fā)”其服務(wù)時(shí)依賴于“合法利益”。該公司沒有回應(yīng)《連線》雜志的置評(píng)請(qǐng)求。與 GPT-3 不同,OpenAI 沒有公布任何進(jìn)入 ChatGPT 的訓(xùn)練數(shù)據(jù)的細(xì)節(jié),而 GPT-4被 認(rèn)為要大幾倍。

然而,GPT-4 的技術(shù)文件包括一個(gè)關(guān)于隱私的部分,其中說它的訓(xùn)練數(shù)據(jù)可能包括來自多個(gè)來源的“公開可用的個(gè)人信息”。該論文稱,OpenAI 采取措施保護(hù)人們的隱私,包括“微調(diào)”模型以阻止人們?cè)儐杺€(gè)人信息,以及“在可行的情況下”從訓(xùn)練數(shù)據(jù)中刪除人們的信息。

“如何合法地收集數(shù)據(jù)用于訓(xùn)練數(shù)據(jù)集,用于從常規(guī)算法到一些非常復(fù)雜的人工智能的一切,這是一個(gè)現(xiàn)在需要解決的關(guān)鍵問題,因?yàn)槲覀冋幱谶@種技術(shù)采用的臨界點(diǎn)結(jié)束了,”Loeb and Loeb 律師事務(wù)所的合伙人杰西卡·李 (Jessica Lee) 說。

牛津大學(xué)人工智能倫理研究所高級(jí)研究員、數(shù)據(jù)實(shí)踐作者Elizabeth Renieris 表示:“這項(xiàng)技術(shù)的構(gòu)建模塊的基礎(chǔ)已經(jīng)腐爛,我認(rèn)為這將很難治愈。  ” 她指出,許多用于訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集已經(jīng)存在多年,而且在將它們放在一起時(shí)可能很少考慮隱私問題。 

“數(shù)據(jù)最終如何進(jìn)入 GPT-4 之類的東西,存在這種分層和復(fù)雜的供應(yīng)鏈,”Renieris 說?!皬膩頉]有真正設(shè)計(jì)或默認(rèn)的任何類型的數(shù)據(jù)保護(hù)?!?nbsp;2022 年,一個(gè)廣泛使用的圖像數(shù)據(jù)庫的創(chuàng)建者建議對(duì)數(shù)據(jù)集中的人臉圖像進(jìn)行模糊處理,該數(shù)據(jù)庫已幫助訓(xùn)練 AI 模型達(dá)十年之久 。 

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.2079x.cn/article/570840.html

蘋果派的頭像蘋果派管理團(tuán)隊(duì)

相關(guān)推薦