0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

革命就在這里!歡迎來到TensorFlow 2.0

DPVg_AI_era ? 來源:lp ? 2019-04-08 12:09 ? 次閱讀

本月TensorFlow 2.0 alpha版千呼萬喚始出來,谷歌首席決策情報(bào)工程師 Cassie Kozyrkov 撰文詳解新版本的重要更新,舊的TensorFlow已死,TensorFlow 2.0萬歲!

如果你是一名人工智能愛好者,卻沒有關(guān)注到本月的一條重大新聞,就好比你在一場(chǎng)罕見的地震中打了個(gè)盹。等你醒來,會(huì)發(fā)現(xiàn)一切都將改變!

去年,我寫了一篇博文,題為《關(guān)于TensorFlow你需要了解的9件事》,但是有一件事是比其他所有事情更需要知道的:TensorFlow 2.0來了!

革命就在這里!歡迎來到TensorFlow 2.0。

這是一場(chǎng)徹底的改造。剛剛發(fā)生的一切將對(duì)每個(gè)行業(yè)產(chǎn)生重大的連鎖反應(yīng),只需等著瞧吧。如果你打算在2019年年中入坑TF,那么你會(huì)特別幸運(yùn),因?yàn)槟氵x擇了進(jìn)入AI的最佳時(shí)間(盡管如果你的舊教程中有“session”這個(gè)詞,你可能需要從頭開始學(xué)習(xí))。

簡(jiǎn)而言之:TensorFlow真正讓Keras完整起來了。相信理解這句話的朋友一定會(huì)驚訝到從椅子上掉下來的。為之振奮吧!

舊版本TensorFlow的糟糕體驗(yàn)

我聽不少人說過TensorFlow 1.x很討人喜歡,我是表示懷疑的。TensorFlow 1.x可以說是AI領(lǐng)域中的車床,勉強(qiáng)算用戶友好。充其量,你可能會(huì)因?yàn)樗芤粤钊穗y以置信的規(guī)模完成你的AI任務(wù)而感到感激。

如果你堅(jiān)稱TensorFlow 1.x很容易掌握,那么肯定會(huì)引來一些人的反對(duì)。它陡峭的學(xué)習(xí)曲線使普通用戶幾乎不可能掌握,但在掌握之后,人們又開始大肆吹捧它,就像吹噓登頂珠穆朗瑪峰時(shí)凍掉的腳趾一樣。這有意思嗎?

你不是唯一一個(gè)——這就是TensorFlow 1.x的教程,每個(gè)人都有這種體會(huì)。

TensorFlow的核心優(yōu)勢(shì)在于性能。它的設(shè)計(jì)是為了將模型從研究環(huán)境轉(zhuǎn)移到生產(chǎn)環(huán)境并大規(guī)模交付。但TF 1.x卻讓你為之費(fèi)了十足的勁。只有堅(jiān)持不懈,你才有可能加入ML從業(yè)者的行列,用它來做一些不可思議的事情,比如發(fā)現(xiàn)新的行星和開拓醫(yī)學(xué)疆土。

遺憾的是,如此強(qiáng)大的工具只掌握在如此少的人手中……直到現(xiàn)在。

不用擔(dān)心不知道tensor是什么。我們以前通常稱之為“矩陣”(廣義)

TensorFlow這個(gè)名稱,只是強(qiáng)調(diào)它非常擅長(zhǎng)執(zhí)行涉及多維數(shù)組(呃,也就是矩陣)的分布式計(jì)算這一事實(shí),而這在大規(guī)模AI應(yīng)用中很有用

可喜可愛的Keras

我們已經(jīng)介紹了TensorFlow中棘手的部分,現(xiàn)在讓我們來談?wù)勀阆胍獡肀У牟糠帧T谖夜ぷ鞯牡胤?,有一次我無意中聽到:“我覺得我真的是很喜歡Keras?!?/p>

Keras是一種逐層構(gòu)建模型的規(guī)范,支持多種機(jī)器學(xué)習(xí)框架(因此它不是TF專有的),但你可能是從TensorFlow中作為高級(jí)API訪問的TF.Keras知道它的。

順便一提,寫這篇文章時(shí)恰好是Keras的4歲生日(2019年3月27日)。生日快樂!

Keras在設(shè)計(jì)之初就秉持著與Python一致的理念,即以人為本——它的設(shè)計(jì)非常友好、靈活、易于學(xué)習(xí)

為什么不能兩者都要呢?

為什么我們必須在Keras的可愛和傳統(tǒng)TensorFlow的強(qiáng)大性能之間做選擇呢?為什么不能兩個(gè)都要?

好主意!我都要!

簡(jiǎn)言之,這就是TensorFlow 2.0。

這就是TensorFlow 2.0。你可以在這里試試運(yùn)行代碼:https://www.tensorflow.org/overview

“我們認(rèn)為,用戶不必在簡(jiǎn)單API和可擴(kuò)展的API之間做出選擇。我們想要一個(gè)更高級(jí)的API,讓你可以從MNIST數(shù)據(jù)集一直到行星規(guī)模的數(shù)據(jù)集。”——Karmel Allison,谷歌TensorFlow工程主管

可用性革命

展望未來,Keras將成為TensorFlow的高級(jí)API,它經(jīng)過了擴(kuò)展,因此你可以直接從tf.keras使用TensorFlow的所有高級(jí)特性。

所有TensorFlow都將具有Keras的簡(jiǎn)單性,涵蓋任何規(guī)模,支持所有硬件。

在新版本中,所有你討厭的TensorFlow 1.x的特性都被送上斷頭臺(tái)。為了把兩個(gè)數(shù)字加起來而不得不搞一些黑魔法似的操作?不需要了。TensorFlow Sessions?沒了。用一百萬種方法實(shí)現(xiàn)同樣的事情?不用。如果切換硬件或規(guī)模,就得重寫代碼?不用。要寫一大堆樣板文件?不用了??膳碌臒o法執(zhí)行的錯(cuò)誤消息?沒了。陡峭的學(xué)習(xí)曲線?再見了。

TensorFlow is dead, long live TensorFlow 2.0!

TensorFlow已死,TensorFlow 2.0萬歲!

你以為這是陷阱?會(huì)導(dǎo)致性能更糟糕?不,我們不會(huì)放棄性能。

TensorFlow現(xiàn)在真正可愛起來了,它是一個(gè)游戲規(guī)則的改變者,因?yàn)樗馕吨覀冞@個(gè)時(shí)代最強(qiáng)大的工具之一剛剛消除了大部分的入門壁壘。來自各行各業(yè)的技術(shù)愛好者終于有能力加入,因?yàn)樾掳姹緦?duì)所有人敞開了大門,而不僅是研究人員和其他痛苦閾值很高的學(xué)習(xí)者。

我們這個(gè)時(shí)代最強(qiáng)大的工具之一,剛剛消除了它的大部分入門壁壘!

我們敞開大門歡迎每一位朋友。想試試嗎?來玩吧!

令人愉悅的Eager

在TensorFlow 2.0中, eager execution現(xiàn)在是默認(rèn)的。即使在eager的上下文中,你也可以利用graphs,這將使你的調(diào)試和原型設(shè)計(jì)都變得更容易,而TensorFlow runtime則負(fù)責(zé)底層的性能和擴(kuò)展性。

TensorFlow 1.x(聲明式編程)中的糾纏圖對(duì)許多人而言都是噩夢(mèng)般的存在,但現(xiàn)在,有了eager execution(命令式編程),噩夢(mèng)不再。如果你以前沒學(xué)過這部分,那就更好了。TF 2.0為每個(gè)人提供相同的全新開端。

簡(jiǎn)潔的API

在Keras下,許多API在TensorFlow中得到了整合,所以現(xiàn)在用戶能夠更清楚什么時(shí)候應(yīng)該使用什么API。例如,假如你現(xiàn)在只需要使用一組優(yōu)化器和一組指標(biāo)。需要多少層?你猜對(duì)了!只需要一層!這就是Keras的風(fēng)格,簡(jiǎn)潔如一。

事實(shí)上,整個(gè)工具生態(tài)系統(tǒng)就像進(jìn)行了一次大掃除,從數(shù)據(jù)處理pipeline到簡(jiǎn)單的模型導(dǎo)出,再到TensorBoard與Keras的集成,所有的一切都被納入了一條線。

還有一些很棒的工具可以讓你切換和優(yōu)化分發(fā)策略,從而獲得驚人的擴(kuò)展效率,同時(shí)又不會(huì)失去Keras的任何便利性。

這些分發(fā)策略很漂亮,不是嗎?

讓大家久等了

如果問題不在于性能,那么是什么呢?這里面一定有陷阱,對(duì)吧?

事實(shí)上,唯一的問題就是讓大家等了這么久。TensorFlow在醞釀一個(gè)友好的版本時(shí),要求用戶非常耐心地等待。這不是故意的。因?yàn)闉?a href="http://srfitnesspt.com/v/tag/448/" target="_blank">深度學(xué)習(xí)制作工具是一個(gè)全新的領(lǐng)域,我們都是一邊做一邊想。走了彎路是不可避免的,但我們?cè)谶@條路上學(xué)到了很多。

TensorFlow社區(qū)投入了大量的精力來創(chuàng)造了最初的奇跡,然后再次付出更多的努力來打磨出最好的寶石,同時(shí)去掉不那么好的設(shè)計(jì)。我們從來沒想過先拿個(gè)半成品出來,但也許你已經(jīng)習(xí)慣了這種不舒服,以至于你沒有意識(shí)到這是暫時(shí)的。謝謝你的耐心等待!

我們不會(huì)犧牲性能!

對(duì)你的耐心等待,獎(jiǎng)勵(lì)就是你喜歡的TensorFlow 1.x的友好設(shè)計(jì)仍在,在一個(gè)一致的API之下,并刪除了大量重復(fù)功能以使它更清晰。此外,錯(cuò)誤信息也經(jīng)過了清理,現(xiàn)在更加簡(jiǎn)潔易懂,易于操作。強(qiáng)大的性能表現(xiàn)也依然存在!

重點(diǎn)是什么?

Haters可能會(huì)說v2.0中的大部分特性都可以在v1.x中找出來,只要你花時(shí)間,花經(jīng)歷,所以有什么好吹的呢?但是,并非每個(gè)人都想浪費(fèi)時(shí)間在這種事情上。改造和清理值得鮮花和掌聲,可以,但沒必要。

不容錯(cuò)過的一點(diǎn)是:TensorFlow剛剛宣布了,必須關(guān)注可用性,這一點(diǎn)上不容妥協(xié)。這是人工智能民主化的前所未有的一步!

AI可讓您自動(dòng)執(zhí)行無法提供相關(guān)說明的任務(wù),它可以讓你自動(dòng)化不可操作的東西。民主化意味著大規(guī)模的人工智能將不再是一個(gè)小型技術(shù)精英的專屬:人人都是AI高手。

想象一下,未來“我知道如何使用Python制作東西”和“我知道如何用AI制作東西”成為一種常態(tài)!我?guī)缀跸氚堰@個(gè)流行語(yǔ)用在這里“破壞性”。

超大量的代碼遷移

我們知道升級(jí)到新版本是一項(xiàng)艱苦的工作,尤其是當(dāng)變化如此劇烈時(shí)。你是不是已經(jīng)準(zhǔn)備要開始遷移代碼庫(kù)到2.0了?你不是一個(gè)人!我們Google也一樣的。放心,我們會(huì)分享遷移指南的,我們還會(huì)開發(fā)工具來幫助簡(jiǎn)化遷移代碼的工作量。

特定的功能,除了contrib之外都不會(huì)有太大問題。所有TF 1.x功能都將存在于compat.v1兼容性模塊中。我們還提供了一個(gè)自動(dòng)更新代碼的腳本,以便它在TensorFlow 2.0上運(yùn)行。在下面的視頻中了解更多信息。

上手超順暢

TF 2.0是初學(xué)者的天堂。想用TF 2.0來戲弄新手,想看初學(xué)者上手TF 2.0的笑話?那你錯(cuò)打主意了。對(duì)于初學(xué)者來說,你可能沒趕上AI的早班車,但俗話說來得早不如來得巧,現(xiàn)在絕對(duì)是入行AI的最好的時(shí)機(jī)!

2019年3月TensorFlow 2.0發(fā)布了alpha版,所以現(xiàn)在學(xué)習(xí)可以讓你及時(shí)為下一季度的完整版本打好基礎(chǔ)。

初學(xué)者完全不用擔(dān)心上手難度??梢哉f現(xiàn)在場(chǎng)地得到了平整,比賽變得更加輕松,而且永遠(yuǎn)給你留一個(gè)位置。歡迎來到TF 2.0星球!我希望你和我一樣對(duì)這個(gè)新世界感到興奮。

一起在TF 2.0的海洋里暢游吧!

訪問重新設(shè)計(jì)的TF官網(wǎng)(https://www.tensorflow.org/)來獲得教程、示例、文檔、工具等等?;蛘呷绻憧梢灾苯娱_始使用:

pip install tensorflow==2.0.0-alpha0用機(jī)器學(xué)習(xí)解鎖商業(yè)價(jià)值

許多開發(fā)者都在使用 TensorFlow 來實(shí)現(xiàn)機(jī)器學(xué)習(xí),為企業(yè)解決問題,為用戶創(chuàng)造價(jià)值,甚至為人類探索星辰大海。

TensorFlow中國(guó)選取了其中四家代表企業(yè),分享他們?nèi)绾瓮ㄟ^ TensorFlow 和機(jī)器學(xué)習(xí)來實(shí)現(xiàn)企業(yè)的價(jià)值。

阿里巴巴旗下的閑魚,是一款成交總額已經(jīng)超過 1000 億的閑置交易社區(qū)。如何使得非專業(yè)的賣家也能輕松交易,是一個(gè)重要的核心問題。龐大的規(guī)模,復(fù)雜的交易需求,使得技術(shù)成為重要的突破口。

閑魚的非算法工程師背景的技術(shù)團(tuán)隊(duì)通過 TensorFlow 逐漸深入了解機(jī)器學(xué)習(xí)領(lǐng)域,將圖像識(shí)別、深度學(xué)習(xí)模型等應(yīng)用到生產(chǎn)環(huán)境。閑魚的交易效率提升了 19.1%。

以租房場(chǎng)景為例,用戶發(fā)布照片,系統(tǒng)推薦相應(yīng)標(biāo)簽,幫助描述商品

網(wǎng)易有道致力于用技術(shù)與 AI 讓語(yǔ)言、學(xué)習(xí)和工作更加輕松和有效。有道作業(yè)寶就是一個(gè)源于這樣理念的產(chǎn)品,它可以輔助學(xué)生更快的自我檢查作業(yè)。相比于傳統(tǒng)的逐題搜索,有道作業(yè)寶實(shí)現(xiàn)了國(guó)內(nèi)首家整頁(yè)拍搜功能,1~2 秒就可以檢查 15 道題目。

美團(tuán)點(diǎn)評(píng)的使命是幫大家吃得更好,生活更好。在每天 2400 萬單訂單量的規(guī)模下,要確保能夠在 28 分鐘之內(nèi)將外賣送到用戶的手上,背后需要有非常強(qiáng)大的算法和模型的計(jì)算能力。TensorFlow 提供了最先進(jìn)的算法,并且有一個(gè)非常強(qiáng)大的工程師團(tuán)隊(duì)以及非常好的開源社區(qū)在進(jìn)行支持。

美團(tuán)在圖像、語(yǔ)音、自然語(yǔ)言處理、知識(shí)圖譜都非常廣泛的使用了基于 TensorFlow 的深度學(xué)習(xí)算法,其在美團(tuán)的搜索、推薦、廣告、金融平臺(tái)等等各項(xiàng)業(yè)務(wù)中也都有非常良好的效果。

出門問問是一家以語(yǔ)音交互及軟硬結(jié)合為核心的人工智能公司,為數(shù)百萬級(jí)的智能硬件提供中文語(yǔ)音交互的能力。出門問問的核心技術(shù)是云交互及語(yǔ)音識(shí)別,其中 TensorFlow 在語(yǔ)音識(shí)別的深度學(xué)習(xí)建模方面是起著非常重要的作用。

在中國(guó)已經(jīng)有大量企業(yè)應(yīng)用 TensorFlow 開源機(jī)器學(xué)習(xí)平臺(tái)實(shí)現(xiàn)底層的機(jī)器學(xué)習(xí)技術(shù),他們致力創(chuàng)新,為用戶創(chuàng)造更美好的世界。

*以首字母順序排列

為了普及機(jī)器學(xué)習(xí)技術(shù),使更多的企業(yè)、學(xué)生、技術(shù)愛好者可以更好的學(xué)習(xí)了解 TensorFlow。TensorFlow 團(tuán)隊(duì)與 Udacity 優(yōu)達(dá)學(xué)城合作,推出了完全免費(fèi)的 “深度學(xué)習(xí)工具 TensorFlow 入門” ,中文字幕版本現(xiàn)已上線,從實(shí)踐的角度深入淺出,覆蓋基本理論與實(shí)操案例。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29438

    瀏覽量

    267757
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4700

    瀏覽量

    68110
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    328

    瀏覽量

    60446

原文標(biāo)題:TensorFlow已死,TensorFlow萬歲!

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    LM258在這個(gè)電路里是電壓跟隨器嗎?R4在這里不影響輸出電壓?jiǎn)幔?/a>

    我想問一下LM258在這個(gè)電路里是電壓跟隨器嗎?R4在這里不影響輸出電壓?jiǎn)幔扛鶕?jù)虛短的原理,V-是等于Vref。 那么Vo和V-的關(guān)系怎么分析呢,是相等嗎?怎么根據(jù)虛斷的原理分析Vo和V-的關(guān)系?這里是怎么得到Vo=V-的呢?
    發(fā)表于 08-13 06:05

    TensorFlow是什么?TensorFlow怎么用?

    TensorFlow是由Google開發(fā)的一個(gè)開源深度學(xué)習(xí)框架,它允許開發(fā)者方便地構(gòu)建、訓(xùn)練和部署各種復(fù)雜的機(jī)器學(xué)習(xí)模型。TensorFlow憑借其高效的計(jì)算性能、靈活的架構(gòu)以及豐富的工具和庫(kù),在學(xué)
    的頭像 發(fā)表于 07-12 16:38 ?487次閱讀

    keras模型轉(zhuǎn)tensorflow session

    在這篇文章中,我們將討論如何將Keras模型轉(zhuǎn)換為TensorFlow session。 Keras和TensorFlow簡(jiǎn)介 Keras是一個(gè)高級(jí)神經(jīng)網(wǎng)絡(luò)API,它提供了一種簡(jiǎn)單、快速的方式來構(gòu)建
    的頭像 發(fā)表于 07-05 09:36 ?395次閱讀

    odf配線盒詳細(xì)介紹在這里

    ODF配線盒,也被稱為光纖分配箱或光纖配線箱,是光纖通信系統(tǒng)中的一種重要設(shè)備。它主要用于存放、管理和保護(hù)光纖接頭,以實(shí)現(xiàn)光纖的連接、分配和調(diào)度。以下是關(guān)于ODF配線盒的詳細(xì)介紹: 結(jié)構(gòu)組成: ODF配線盒主要由箱體、適配器、固定裝置、接地系統(tǒng)等部分組成,并且可以根據(jù)實(shí)際需要進(jìn)行組合和擴(kuò)展。 其內(nèi)部結(jié)構(gòu)還包括配電柜體、電源分配單元、信號(hào)分配單元和電纜終端盒等模塊。 主要功能: ODF配線盒的主要功能是固定光纜、調(diào)線和保護(hù)光
    的頭像 發(fā)表于 04-30 10:03 ?470次閱讀

    BACKUP_PRIMASK和RESTORE_PRIMASK在這里主要作用是什么?

    ); } 請(qǐng)問,BACKUP_PRIMASK和RESTORE_PRIMASK在這里主要作用是什么?像是對(duì)中斷某些掩碼的壓棧出棧,具體在這里什么意思呢?感謝
    發(fā)表于 04-29 07:10

    智慧旅游沉浸式體驗(yàn)空間在哪里?在這里!

    近日,文化和旅游部、國(guó)家發(fā)展改革委、工業(yè)和信息化部聯(lián)合公布了第一批全國(guó)智慧旅游沉浸式體驗(yàn)新空間培育試點(diǎn)項(xiàng)目名單。這些項(xiàng)目旨在依托旅游景區(qū)、度假區(qū)、休閑街區(qū)、工業(yè)遺產(chǎn)、文博場(chǎng)館、劇院劇場(chǎng)等文化和旅游場(chǎng)所或相關(guān)空間,運(yùn)用增強(qiáng)現(xiàn)實(shí)、虛擬現(xiàn)實(shí)、人工智能等數(shù)字科技并有機(jī)融合文化創(chuàng)意等元素,通過文旅融合、虛實(shí)結(jié)合等方式,對(duì)展示內(nèi)容進(jìn)行創(chuàng)造性轉(zhuǎn)化、創(chuàng)新性發(fā)展,讓游客深度介
    的頭像 發(fā)表于 03-22 08:00 ?293次閱讀
    智慧旅游沉浸式體驗(yàn)空間在哪里?<b class='flag-5'>在這里</b>!

    AGV小車高性能連接器哪里尋?答案就在這里!

    智能AGV搬運(yùn)機(jī)器人能自動(dòng)化搬運(yùn)貨物,降低成本,提高效率。其行進(jìn)路線可調(diào)度控制,包括控制面板、導(dǎo)向傳感器等組成,需使用連接器。AmassLC系列連接器具有插拔柔和、載流持久穩(wěn)定等優(yōu)點(diǎn),適用于智能設(shè)備連接,確保AGV穩(wěn)定運(yùn)行。
    的頭像 發(fā)表于 03-09 17:06 ?562次閱讀
    AGV小車高性能連接器哪里尋?答案<b class='flag-5'>就在這里</b>!

    最詳細(xì)的UART通訊協(xié)議分析在這里

    下載本篇文章的pdf版本:UART協(xié)議分析.pdf1.協(xié)議基礎(chǔ)1.1.協(xié)議簡(jiǎn)介UART是“UniversalAsynchronousReceiver/Transmitter”,通用異步收發(fā)器的縮寫。在19世紀(jì)60年代,為了解決計(jì)算機(jī)和電傳打字機(jī)通信,Bell發(fā)明了UART協(xié)議,將并行輸入信號(hào)轉(zhuǎn)換成串行輸出信號(hào)。因?yàn)閁ART簡(jiǎn)單實(shí)用的特性,其已經(jīng)成為一種使用非
    的頭像 發(fā)表于 01-12 14:15 ?1.5w次閱讀
    最詳細(xì)的UART通訊協(xié)議分析<b class='flag-5'>在這里</b>

    如何使用TensorFlow構(gòu)建機(jī)器學(xué)習(xí)模型

    在這篇文章中,我將逐步講解如何使用 TensorFlow 創(chuàng)建一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)模型。
    的頭像 發(fā)表于 01-08 09:25 ?874次閱讀
    如何使用<b class='flag-5'>TensorFlow</b>構(gòu)建機(jī)器學(xué)習(xí)模型

    DDR硬件設(shè)計(jì)要點(diǎn)都在這里

    有的芯片還有VDDL,是給DLL供電的,也和VDD使用同一電源即可。電源設(shè)計(jì)時(shí),需要考慮電壓,電流是否滿足要求,電源的上電順序和電源的上電時(shí)間,單調(diào)性等。電源電壓的要求一般在±5%以內(nèi)。電流需要根據(jù)使用的不同芯片,及芯片個(gè)數(shù)等進(jìn)行計(jì)算。
    發(fā)表于 12-18 15:56 ?873次閱讀
    DDR硬件設(shè)計(jì)要點(diǎn)都<b class='flag-5'>在這里</b>

    48V電源系統(tǒng)可恢復(fù)eFuse的設(shè)計(jì)秘訣,在這里

    48V電源系統(tǒng)可恢復(fù)eFuse的設(shè)計(jì)秘訣,在這里
    的頭像 發(fā)表于 12-05 10:09 ?675次閱讀
    48V電源系統(tǒng)可恢復(fù)eFuse的設(shè)計(jì)秘訣,<b class='flag-5'>在這里</b>!

    有關(guān)eFuse電子保險(xiǎn)絲,你應(yīng)該了解的技術(shù)干貨,都在這里!

    有關(guān)eFuse電子保險(xiǎn)絲,你應(yīng)該了解的技術(shù)干貨,都在這里!
    的頭像 發(fā)表于 12-04 10:20 ?1440次閱讀
    有關(guān)eFuse電子保險(xiǎn)絲,你應(yīng)該了解的技術(shù)干貨,都<b class='flag-5'>在這里</b>!

    J-Link 中的JTAG 接口:正確使用需要了解的注意事項(xiàng),在這里!

    J-Link 中的JTAG 接口:正確使用需要了解的注意事項(xiàng),在這里
    的頭像 發(fā)表于 12-01 16:01 ?1280次閱讀
    J-Link 中的JTAG 接口:正確使用需要了解的注意事項(xiàng),<b class='flag-5'>在這里</b>!

    這個(gè)MOS管在這里的作用是什么?是不是剛上電,MOS管是導(dǎo)通的,C115和R255是充電嘛?到上電穩(wěn)壓后MOS就不導(dǎo)通了嘛?

    這個(gè)MOS管在這里的作用是什么?是不是剛上電,MOS管是導(dǎo)通的,C115和R255是充電嘛?到上電穩(wěn)壓后MOS就不導(dǎo)通了嘛?
    發(fā)表于 11-11 11:32

    開關(guān)電源設(shè)計(jì)的十二個(gè)技巧

    簡(jiǎn)介:歡迎來到電源設(shè)計(jì)小秘笈!隨著現(xiàn)在對(duì)更高效、更低成本電源解決方案需求的強(qiáng)調(diào),本文就各種電源管理課題提出一些對(duì)您有幫助的小技巧。無論您是從事電源業(yè)務(wù)多年還是剛剛步入電源領(lǐng)域,您都可以在這里找到一些極其有用的信息,以幫助您迎接下一個(gè)設(shè)計(jì)挑戰(zhàn)。
    發(fā)表于 11-09 08:31 ?0次下載
    開關(guān)電源設(shè)計(jì)的十二個(gè)技巧