0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Google LLC開(kāi)源TensorFlow Quantum

倩倩 ? 來(lái)源:互聯(lián)網(wǎng)分析沙龍 ? 2020-03-22 15:13 ? 次閱讀

Google LLC今天開(kāi)源TensorFlow Quantum,它是TensorFlow的擴(kuò)展,使開(kāi)發(fā)人員能夠?yàn)榱孔佑?jì)算機(jī)構(gòu)建人工智能模型。

量子計(jì)算仍處于早期階段,但該技術(shù)正在迅速成熟。IBM公司每年都在將其量子芯片的處理能力提高一倍,而霍尼韋爾國(guó)際公司(Honeywell International Inc.)最近推出了一種系統(tǒng),該系統(tǒng)預(yù)計(jì)將在未來(lái)五年內(nèi)提高10萬(wàn)倍的速度。

為了利用明天的超快量子機(jī),研究人員將不得不編寫(xiě)可以在qubit上運(yùn)行的專門算法,與二進(jìn)制位可以同時(shí)表示為1、0或兩種狀態(tài)的二進(jìn)制位不同,他們將需要同樣專門的開(kāi)發(fā)工具幫助完成任務(wù)。

這就是TensorFlow Quantum出現(xiàn)的地方。它提供了一組運(yùn)算符,低級(jí)編程構(gòu)造塊,用于創(chuàng)建可與qubit,量子邏輯門和量子電路配合使用的AI模型。這些運(yùn)算符消除了一些潛在的復(fù)雜性,以減少研究人員需要編寫(xiě)的代碼量。

Google研究人員Alan Ho和Masoud Mohseni在博客中寫(xiě)道:“ TFQ允許研究人員在單個(gè)計(jì)算圖中將量子數(shù)據(jù)集,量子模型和經(jīng)典控制參數(shù)構(gòu)造為張量。”

TensorFlow Quantum的一種潛在應(yīng)用是量子數(shù)據(jù)解釋。因?yàn)榭梢酝瑫r(shí)將qubit設(shè)置為1和0,所以找出由量子處理器執(zhí)行的計(jì)算結(jié)果本身就是一個(gè)重大挑戰(zhàn)。根據(jù)Google的Ho和Mohseni的說(shuō)法,TensorFlow Quantum可以使工程師開(kāi)發(fā)可自動(dòng)解散量子數(shù)據(jù)的AI模型。

研究人員寫(xiě)道:“ TFQ庫(kù)為模型的開(kāi)發(fā)提供了原語(yǔ),這些模型解開(kāi)并概括了量子數(shù)據(jù)中的相關(guān)性,為改進(jìn)現(xiàn)有的量子算法或發(fā)現(xiàn)新的量子算法提供了機(jī)會(huì)?!?/p>

目前,TensorFlow Quantum主要僅限于在模擬量子計(jì)算機(jī)中使用,但Google計(jì)劃使其進(jìn)一步兼容真實(shí)的計(jì)算機(jī)。這家搜索巨頭計(jì)劃增加對(duì)其去年推出的內(nèi)部開(kāi)發(fā)的梧桐量子系統(tǒng)(如圖)的支持。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1752

    瀏覽量

    57334
  • 開(kāi)源
    +關(guān)注

    關(guān)注

    3

    文章

    3190

    瀏覽量

    42257
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    328

    瀏覽量

    60452
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    影響LLC輸出電壓范圍的因素

    LLC(LCC,即Low-Loss-Coupling)是一種低損耗耦合的開(kāi)關(guān)電源技術(shù),廣泛應(yīng)用于各種電子設(shè)備中。LLC輸出電壓范圍的確定對(duì)于電源系統(tǒng)的性能和穩(wěn)定性至關(guān)重要。 一、LLC輸出電壓范圍
    的頭像 發(fā)表于 08-08 09:42 ?498次閱讀

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開(kāi)發(fā)的一個(gè)開(kāi)源深度學(xué)習(xí)框架,它允許開(kāi)發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計(jì)算性能、靈活的架構(gòu)以及豐富的
    的頭像 發(fā)表于 07-12 16:38 ?489次閱讀

    tensorflow和pytorch哪個(gè)更簡(jiǎn)單?

    TensorFlow和PyTorch都是用于深度學(xué)習(xí)和機(jī)器學(xué)習(xí)的開(kāi)源框架。TensorFlowGoogle Brain團(tuán)隊(duì)開(kāi)發(fā),而PyTorch由Facebook的AI研究團(tuán)隊(duì)開(kāi)
    的頭像 發(fā)表于 07-05 09:45 ?617次閱讀

    tensorflow和pytorch哪個(gè)好

    :2015年由Google Brain團(tuán)隊(duì)發(fā)布。 語(yǔ)言支持 :主要使用Python,也支持C++、Java等。 設(shè)計(jì)哲學(xué) :TensorFlow是一個(gè)端到端的機(jī)器學(xué)習(xí)平臺(tái),支持從研究到生產(chǎn)的所有階段
    的頭像 發(fā)表于 07-05 09:42 ?573次閱讀

    tensorflow簡(jiǎn)單的模型訓(xùn)練

    在本文中,我們將詳細(xì)介紹如何使用TensorFlow進(jìn)行簡(jiǎn)單的模型訓(xùn)練。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)庫(kù),廣泛用于各種機(jī)器學(xué)習(xí)任務(wù),包括圖像識(shí)別、自然語(yǔ)言處理等。我們將從安裝
    的頭像 發(fā)表于 07-05 09:38 ?428次閱讀

    keras模型轉(zhuǎn)tensorflow session

    和訓(xùn)練深度學(xué)習(xí)模型。Keras是基于TensorFlow、Theano或CNTK等底層計(jì)算框架構(gòu)建的。TensorFlow是一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)框架,由Google Brain團(tuán)隊(duì)開(kāi)發(fā)。
    的頭像 發(fā)表于 07-05 09:36 ?397次閱讀

    如何使用Tensorflow保存或加載模型

    TensorFlow是一個(gè)廣泛使用的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),它提供了豐富的API來(lái)構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在模型訓(xùn)練完成后,保存模型以便將來(lái)使用或部署是一項(xiàng)常見(jiàn)的需求。同樣,加載已保存的模型進(jìn)行預(yù)測(cè)或
    的頭像 發(fā)表于 07-04 13:07 ?951次閱讀

    TensorFlow的定義和使用方法

    TensorFlow是一個(gè)由谷歌人工智能團(tuán)隊(duì)谷歌大腦(Google Brain)開(kāi)發(fā)和維護(hù)的開(kāi)源機(jī)器學(xué)習(xí)庫(kù)。它基于數(shù)據(jù)流編程(dataflow programming)的概念,將復(fù)雜的數(shù)學(xué)運(yùn)算表示為
    的頭像 發(fā)表于 07-02 14:14 ?611次閱讀

    使用google-translate和wwe合并后無(wú)法使用google-tts怎么解決?

    我打算使用lyrat-mini做一個(gè)使用喚醒詞喚醒然后后續(xù)通過(guò)google-sr和google-tts進(jìn)行交流的聊天機(jī)器人,但是當(dāng)我合并了adf的例子中的wwe和google-translate之后
    發(fā)表于 06-28 06:05

    LLC設(shè)計(jì)指導(dǎo)

    LLC設(shè)計(jì)指導(dǎo)
    發(fā)表于 06-18 09:19 ?11次下載

    AURIX TC397是否可以搭配Google TensorFlow的演算法去運(yùn)算?

    請(qǐng)問(wèn)各位大神,AURIX TC397 是否可以搭配 Google TensorFlow 的演算法 去運(yùn)算??
    發(fā)表于 02-18 06:05

    LLC的的主控芯片怎么選

    LLC(Low-Level Control)主控芯片選擇的過(guò)程是電子產(chǎn)品設(shè)計(jì)中的一個(gè)關(guān)鍵環(huán)節(jié)。LLC主控芯片在電子產(chǎn)品中的作用是負(fù)責(zé)系統(tǒng)的低級(jí)控制和協(xié)調(diào)。它通常是產(chǎn)品的大腦,負(fù)責(zé)處理數(shù)據(jù)和信號(hào),并
    的頭像 發(fā)表于 01-16 10:55 ?1122次閱讀

    基于TensorFlow和Keras的圖像識(shí)別

    ,讓我們先花點(diǎn)時(shí)間來(lái)了解一些術(shù)語(yǔ)。TensorFlow/KerasTensorFlow是GoogleBrain團(tuán)隊(duì)創(chuàng)建的一個(gè)Python開(kāi)源庫(kù),它包含許多算法和模型
    的頭像 發(fā)表于 01-13 08:27 ?734次閱讀
    基于<b class='flag-5'>TensorFlow</b>和Keras的圖像識(shí)別

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?874次閱讀
    如何使用<b class='flag-5'>TensorFlow</b>構(gòu)建機(jī)器學(xué)習(xí)模型

    PyTorch與TensorFlow的優(yōu)點(diǎn)和缺點(diǎn)

    。但如何為特定項(xiàng)目確定理想的工具呢?本綜合指南[1]旨在闡明它們的優(yōu)點(diǎn)和缺點(diǎn)。 01?? 起源 · TensorFlow: 誕生于 Google Brain 團(tuán)隊(duì)的大腦,TensorFlow 從專有工具
    的頭像 發(fā)表于 10-30 09:56 ?933次閱讀
    PyTorch與<b class='flag-5'>TensorFlow</b>的優(yōu)點(diǎn)和缺點(diǎn)