5月8日,據韓聯社消息,以三星電子等大公司正在限制內部使用生成人工智能 (AI)為首,現在公共部門也出現了抑制 AI 使用的氛圍。
日前據業(yè)內人士和當局透露,韓國國家情報院提出對各部門公務員的要求注意事項,強調在使用 OpenAI 的 GPT 系列時,只能輸入公開信息,科學部、信息通信部等部門也向相關部門提供指引,它發(fā)布了 AI 安全指南以供遵循。
開發(fā)深度學習算法并被稱為人工智能教父的 Jeffrey Hinton 博士在服務 Google 十年后辭職,并警告 AI 的危險。雖然政府正在主管制訂數字平臺政府的藍圖,考慮將超級巨大的 AI 作為基礎設施使用,但在當前形勢下,也有可能難以將 AI 用于公共事務。
因此,有人聲稱政府應該在建立超級巨大的 AI 模型和云基礎設施方面發(fā)揮領導作用。由韓國智能信息社會研究院 (AI Future Strategy Center) 的高級研究員尹昌熙撰寫的題為「大規(guī)模語言模型基礎上引入公共領域超大型 AI 的方向」的報告提出:「在包括敏感信息的國家信息方面,需要采用『GOV-GPT』類似的混合方法,在內部開發(fā)服務?!?/p>
他指出很難通過控制使用提示命令等方法防止敏感或機密信息泄漏到公共部門。同時,報告還建議,當在公共部門使用 Open AI 的 GPT 系列或 Naver 的 Hyperclova 等私有 AI 模型時,應將 AI 模型直接安裝和使用在政府自己的云 (G Cloud) 上,而不是通過應用程序接口 (API)。
報告稱:「從工作效率、前進和公共服務提高的角度來看,判斷面向公共目的的超級巨型 AI 將是不可或缺的服務,但是通過建立政府主導的 AI 和 G Cloud 等基礎設施,保持機構的數據安全和高效地管理其資源至關重要。」
原創(chuàng)文章,作者:蘋果派,如若轉載,請注明出處:http://m.2079x.cn/article/571419.html