0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook開(kāi)發(fā)出更加強(qiáng)大的機(jī)器學(xué)習(xí)模型

SSDFans ? 來(lái)源:ssdfans ? 作者:ssdfans ? 2021-03-18 09:18 ? 次閱讀

近日,F(xiàn)acebook公司分享了兩個(gè)內(nèi)部人工智能項(xiàng)目的細(xì)節(jié),分別是Learning from video和TimeSformer,這兩個(gè)項(xiàng)目旨在促進(jìn)更強(qiáng)大的機(jī)器學(xué)習(xí)模型的開(kāi)發(fā)。

其中第一個(gè)項(xiàng)目“通過(guò)視頻學(xué)習(xí)”(Learning from video),F(xiàn)acebook公司將通過(guò)用戶上傳的視頻來(lái)訓(xùn)練驅(qū)動(dòng)其社交網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)系統(tǒng)。Facebook依靠人工智能完成從內(nèi)容推薦到?jīng)Q策執(zhí)行等一系列任務(wù)。該公司希望通過(guò)用戶創(chuàng)建的視頻來(lái)訓(xùn)練其機(jī)器學(xué)習(xí)系統(tǒng),從而提升模型效果。

通常,研究人員使用自己構(gòu)造的訓(xùn)練數(shù)據(jù)集訓(xùn)練AI模型,其中的單個(gè)文件由專(zhuān)家用特定標(biāo)簽進(jìn)行標(biāo)記。這些標(biāo)簽幫助模型在學(xué)習(xí)過(guò)程中向正確的方向發(fā)展。

但是這種方法存在一個(gè)問(wèn)題:由專(zhuān)家為數(shù)據(jù)集打標(biāo)簽需要耗費(fèi)大量的時(shí)間和精力,因此構(gòu)造的數(shù)據(jù)集的大小也是有限的,這就限制了人工智能模型在訓(xùn)練期間的學(xué)習(xí)能力。

Facebook的研究人員在一篇博客文章中寫(xiě)道:“通過(guò)讓AI模型在未經(jīng)標(biāo)記的用戶創(chuàng)建的視頻上進(jìn)行訓(xùn)練,那么模型就可以從更多的信息中學(xué)習(xí),這些信息要比傳統(tǒng)手工構(gòu)造的數(shù)據(jù)集中多得多。通過(guò)學(xué)習(xí)覆蓋幾乎每個(gè)國(guó)家和數(shù)百種語(yǔ)言的全球公開(kāi)視頻流,我們的人工智能系統(tǒng)不僅可以提高準(zhǔn)確性,還可以適應(yīng)我們快速發(fā)展的世界,并認(rèn)識(shí)到不同文化和地區(qū)之間的細(xì)微差別。”

研究人員強(qiáng)調(diào),這一舉措非常注重隱私問(wèn)題。他們寫(xiě)道:“我們正在建立和維護(hù)一個(gè)強(qiáng)大的隱私機(jī)制,使用自動(dòng)化解決方案大規(guī)模加強(qiáng)隱私保護(hù)。通過(guò)在基礎(chǔ)設(shè)施層面上嵌入這項(xiàng)工作,我們可以在我們的系統(tǒng)中始終如一地滿足隱私需求?!?/p>

Facebook正在使用一種 “自監(jiān)督學(xué)習(xí)”的方法,更好地使用用戶視頻訓(xùn)練模型,這種方法是不需要對(duì)訓(xùn)練數(shù)據(jù)打標(biāo)簽的。Facebook透露,Instagram的Reels功能就是使用自監(jiān)督的人工智能模型為用戶推薦和最近看過(guò)的視頻類(lèi)似的內(nèi)容。

除了在自監(jiān)督學(xué)習(xí)方面的工作,F(xiàn)acebook還詳細(xì)介紹了另一個(gè)名為T(mén)imeSformer的人工智能項(xiàng)目。它被稱(chēng)為第一個(gè)完全基于Transformer的視頻處理AI,Transformer是最初為分析文本而創(chuàng)建的高效機(jī)器學(xué)習(xí)模型。Facebook表示,由于使用了這項(xiàng)技術(shù),TimeSformer處理數(shù)據(jù)所需的計(jì)算資源不到傳統(tǒng)模型的十分之一,而訓(xùn)練的速度是傳統(tǒng)模型的三倍。

Facebook表示,他們的方法還在其他方面改善了訓(xùn)練過(guò)程。該公司的研究人員解釋說(shuō):“目前最好的3D CNN(一種機(jī)器學(xué)習(xí)模型)只能使用幾秒鐘長(zhǎng)的視頻片段。有了TimeSformer,我們可以訓(xùn)練長(zhǎng)達(dá)幾分鐘的視頻。這可能會(huì)極大地推動(dòng)教會(huì)機(jī)器理解視頻中復(fù)雜的連續(xù)動(dòng)作的研究?!?/p>

原文鏈接:

https://siliconangle.com/2021/03/12/facebook-aims-advance-machine-learning-two-new-video-ai-projects/
編輯:lyn

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1429

    瀏覽量

    54587
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236585
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8325

    瀏覽量

    132194

原文標(biāo)題:Facebook的AI已經(jīng)可以自己看視頻訓(xùn)練了!

文章出處:【微信號(hào):SSDFans,微信公眾號(hào):SSDFans】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?136次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?142次閱讀

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書(shū)以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制了一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示了機(jī)器學(xué)習(xí)如何在這一領(lǐng)域發(fā)揮巨
    發(fā)表于 08-12 11:21

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 俯瞰全書(shū)

    上周收到《大語(yǔ)言模型應(yīng)用指南》一書(shū),非常高興,但工作項(xiàng)目繁忙,今天才品鑒體驗(yàn),感謝作者編寫(xiě)了一部?jī)?nèi)容豐富、理論應(yīng)用相結(jié)合、印刷精美的著作,也感謝電子發(fā)燒友論壇提供了一個(gè)讓我了解大語(yǔ)言模型機(jī)器
    發(fā)表于 07-21 13:35

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個(gè)流行的Python集成開(kāi)發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測(cè)試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝Py
    的頭像 發(fā)表于 07-11 10:14 ?555次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型

    處理、語(yǔ)音識(shí)別等領(lǐng)域取得了顯著的成果。PyTorch是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,由Facebook的AI研究團(tuán)隊(duì)開(kāi)發(fā)。它以其易用性、靈活性和高效性而受到廣泛歡迎。在PyTorch中,有許多預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 09:59 ?582次閱讀

    Al大模型機(jī)器

    金航標(biāo)kinghelm薩科微slkor總經(jīng)理宋仕強(qiáng)介紹說(shuō),薩科微Al大模型機(jī)器人有哪些的優(yōu)勢(shì)?薩科微AI大模型機(jī)器人由清華大學(xué)畢業(yè)的天才少年N博士和王博士團(tuán)隊(duì)
    發(fā)表于 07-05 08:52

    人工神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)機(jī)器學(xué)習(xí)模型的區(qū)別

    人工神經(jīng)網(wǎng)絡(luò)(ANN)與傳統(tǒng)機(jī)器學(xué)習(xí)模型之間的不同,包括其原理、數(shù)據(jù)處理能力、學(xué)習(xí)方法、適用場(chǎng)景及未來(lái)發(fā)展趨勢(shì)等方面,以期為讀者提供一個(gè)全面的視角。
    的頭像 發(fā)表于 07-04 14:08 ?745次閱讀

    機(jī)器學(xué)習(xí)在數(shù)據(jù)分析中的應(yīng)用

    隨著大數(shù)據(jù)時(shí)代的到來(lái),數(shù)據(jù)量的爆炸性增長(zhǎng)對(duì)數(shù)據(jù)分析提出了更高的要求。機(jī)器學(xué)習(xí)作為一種強(qiáng)大的工具,通過(guò)訓(xùn)練模型從數(shù)據(jù)中學(xué)習(xí)規(guī)律,為企業(yè)和組織提
    的頭像 發(fā)表于 07-02 11:22 ?425次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    維基百科、網(wǎng)頁(yè)內(nèi)容和書(shū)籍等,不僅掌握了語(yǔ)言的語(yǔ)法、語(yǔ)義和上下文信息,還能生成結(jié)構(gòu)連貫、語(yǔ)義合理的句子和段落。大語(yǔ)言模型的一個(gè)顯著特點(diǎn)是其龐大的參數(shù)量,已達(dá)數(shù)億甚至數(shù)十億級(jí)別。這種規(guī)模賦予模型強(qiáng)大的表示和
    發(fā)表于 05-04 23:55

    NVIDIA TAO工具套件功能與恩智浦eIQ機(jī)器學(xué)習(xí)開(kāi)發(fā)環(huán)境的集成

    恩智浦半導(dǎo)體宣布與NVIDIA合作,將NVIDIA經(jīng)過(guò)訓(xùn)練的人工智能模型通過(guò)eIQ機(jī)器學(xué)習(xí)開(kāi)發(fā)環(huán)境部署到恩智浦廣泛的邊緣處理產(chǎn)品組合中。
    的頭像 發(fā)表于 03-22 09:11 ?895次閱讀

    谷歌模型框架是什么軟件?谷歌模型框架怎么用?

    谷歌模型框架通常指的是谷歌開(kāi)發(fā)的用于機(jī)器學(xué)習(xí)和人工智能的軟件框架,其中最著名的是TensorFlow。TensorFlow是一個(gè)開(kāi)源的機(jī)器
    的頭像 發(fā)表于 03-01 16:25 ?731次閱讀

    分析 丨AI算法愈加復(fù)雜,但是機(jī)器視覺(jué)的開(kāi)發(fā)門(mén)檻在降低

    準(zhǔn)確判斷。此外,AI大模型近兩年受到關(guān)注,也可能被引入機(jī)器視覺(jué)領(lǐng)域,在跨模態(tài)理解和推理等方面展現(xiàn)出更強(qiáng)能力。 AI算法的復(fù)雜程度越來(lái)越高,機(jī)器視覺(jué)系統(tǒng)設(shè)計(jì)面臨挑戰(zhàn),然而,從各種開(kāi)發(fā)資源
    的頭像 發(fā)表于 02-19 16:49 ?574次閱讀
    分析 丨AI算法愈加復(fù)雜,但是<b class='flag-5'>機(jī)器</b>視覺(jué)的<b class='flag-5'>開(kāi)發(fā)</b>門(mén)檻在降低

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型
    的頭像 發(fā)表于 01-08 09:25 ?874次閱讀
    如何使用TensorFlow構(gòu)建<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    大語(yǔ)言模型推斷中的批處理效應(yīng)

    隨著開(kāi)源預(yù)訓(xùn)練大型語(yǔ)言模型(Large Language Model, LLM )變得更加強(qiáng)大和開(kāi)放,越來(lái)越多的開(kāi)發(fā)者將大語(yǔ)言模型納入到他們的項(xiàng)目中。其中一個(gè)關(guān)鍵的適應(yīng)步驟是將領(lǐng)域特定
    的頭像 發(fā)表于 01-04 12:32 ?541次閱讀
    大語(yǔ)言<b class='flag-5'>模型</b>推斷中的批處理效應(yīng)