4月6日,Meta 發(fā)布了一個(gè)“Segment Anything”AI 模型,可以檢測(cè)圖片和視頻中的對(duì)象,即使它們不屬于訓(xùn)練集。您可以通過(guò)單擊項(xiàng)目或使用自由格式的文本提示來(lái)選擇項(xiàng)目。如外媒所報(bào)道的那樣,您可以輸入“貓”這個(gè)詞,然后觀看 AI 突出顯示給定照片中的所有貓科動(dòng)物。
該模型還可以與其他模型協(xié)同工作。它可以幫助使用單個(gè)圖像重建 3D 對(duì)象,或者從混合現(xiàn)實(shí)耳機(jī)的視圖中繪制。實(shí)際上,Segment Anything 可以限制對(duì)額外 AI 培訓(xùn)的需求。
人工智能模型和數(shù)據(jù)集都可以使用非商業(yè)許可下載。也就是說(shuō),創(chuàng)作者不能將其用于產(chǎn)品。這主要用于研究和擴(kuò)大對(duì)技術(shù)的訪問(wèn)。目前,Meta 使用某種類(lèi)似的技術(shù)來(lái)管理被禁內(nèi)容、推薦帖子和標(biāo)記照片。
開(kāi)發(fā)人員承認(rèn)現(xiàn)有模型存在缺陷。它可能會(huì)遺漏更精細(xì)的細(xì)節(jié),并且在檢測(cè)邊界方面不如某些模型準(zhǔn)確。雖然 Segment Anything 可以實(shí)時(shí)處理提示,但當(dāng)涉及到要求苛刻的圖像處理時(shí),它就會(huì)陷入困境。Meta 說(shuō),一些更專(zhuān)業(yè)的 AI 工具可能會(huì)在各自領(lǐng)域勝過(guò)該模型。
你不會(huì)在機(jī)器人或其他設(shè)備中看到這種人工智能,在這些設(shè)備中,快速、準(zhǔn)確的物體檢測(cè)至關(guān)重要。然而,在完全依賴(lài)訓(xùn)練數(shù)據(jù)不切實(shí)際的情況下,這樣的模型可能仍然有用。社交網(wǎng)絡(luò)可以使用該技術(shù)來(lái)跟上快速增長(zhǎng)的內(nèi)容量。如果不出意外,這表明 Meta 想要推廣計(jì)算機(jī)視覺(jué)。
Meta 對(duì)分享 AI 的突破并不陌生,比如不成文語(yǔ)言的翻譯器。話雖如此,該公司面臨著壓力,需要證明它在該類(lèi)別中與谷歌和微軟等科技巨頭一樣強(qiáng)大。它已經(jīng)在為其社交應(yīng)用程序規(guī)劃生成人工智能“角色”,而像 Segment Anything 這樣的發(fā)明表明它有一些自己的優(yōu)勢(shì)。
原創(chuàng)文章,作者:蘋(píng)果派,如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.2079x.cn/article/570843.html