5月29日,新加坡國立大學和香港中文大學的研究人員聲稱已經創(chuàng)造了一種人工智能——稱為MinD-Video,可以從大腦信號中重建“高質量”視頻。
正如研究人員在一篇論文中介紹稱,MinD-Video AI 模型是根據(jù)來自 fMRI 讀數(shù)的公開可用數(shù)據(jù)和 AI 圖像生成器 Stable Diffusion 的增強模型共同訓練的。
研究人員稱,他們的模型能夠完全基于大腦讀數(shù)生成高質量的 AI 重建視頻,平均準確率為85%。
這篇新論文建立在研究人員之前使用人工智能通過僅分析腦電波來重建圖像的努力的基礎上。
MinD-Video可將大腦信號生成視頻效果著實讓人驚艷,例如,一段關于一群人走在繁忙街道上的視頻被翻譯成同樣擁擠的場景,生成的視頻色彩更鮮艷。
不過效果還有些瑕疵,例如,水母的視頻莫名其妙地變成了魚游泳的片段,而海龜?shù)囊曨l被重新解釋為魚的鏡頭。
研究人員認為,這些人工智能世代也可以提供神經學見解,例如顯示視覺皮層在視覺感知過程中的主導地位。
盡管這項研究令人著迷,但我們距離能夠戴上頭盔并獲得完全準確的人工智能生成的視頻流的未來還很遙遠。
原創(chuàng)文章,作者:蘋果派,如若轉載,請注明出處:http://m.2079x.cn/article/572041.html