0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

TFLite在有道云筆記中用于文檔識(shí)別的實(shí)踐過程

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-05-01 17:32 ? 次閱讀

這一兩年來,在移動(dòng)端實(shí)現(xiàn)實(shí)時(shí)的人工智能已經(jīng)形成了一波潮流。去年,谷歌推出面向移動(dòng)端和嵌入式神經(jīng)網(wǎng)絡(luò)計(jì)算框架TensorFlowLite,將這股潮流繼續(xù)往前推。TensorFlowLite如何進(jìn)行操作?本文將介紹TFLite在有道云筆記中用于文檔識(shí)別的實(shí)踐過程,以及 TFLite 都有些哪些特性,供大家參考。


近年來,有道技術(shù)團(tuán)隊(duì)在移動(dòng)端實(shí)時(shí) AI 能力的研究上,做了很多探索及應(yīng)用的工作。2017 年 11 月 Google 發(fā)布TensorFlowLite (TFLlite) 后,有道技術(shù)團(tuán)隊(duì)第一時(shí)間跟進(jìn) TFLite 框架,并很快將其用在了有道云筆記產(chǎn)品中。

以下是TFLite在有道云筆記中用于文檔識(shí)別的實(shí)踐過程。

文檔識(shí)別工作的介紹

1. 文檔識(shí)別的定義

文檔識(shí)別最初是開發(fā)有道云筆記的文檔掃描功能時(shí)面對(duì)的一個(gè)問題。文檔掃描功能希望能在用戶拍攝的照片中,識(shí)別出文檔所在的區(qū)域,進(jìn)行拉伸 (比例還原),識(shí)別出其中的文字,最終得到一張干凈的圖片或是一篇帶有格式的文字版筆記。實(shí)現(xiàn)這個(gè)功能需要以下這些步驟:

識(shí)別文檔區(qū)域:將文檔從背景中找出來,確定文檔的四個(gè)角;

拉伸文檔區(qū)域,還原寬高比:根據(jù)文檔四個(gè)角的坐標(biāo),根據(jù)透視原理,計(jì)算出文檔原始寬高比,并將文檔區(qū)域拉伸還原成矩形;

色彩增強(qiáng):根據(jù)文檔的類型,選擇不同的色彩增強(qiáng)方法,將文檔圖片的色彩變得干凈清潔;

布局識(shí)別:理解文檔圖片的布局,找出文檔的文字部分;

OCR:將圖片形式的“文字”識(shí)別成可編碼的文字;

生成筆記:根據(jù)文檔圖片的布局,從 OCR 的結(jié)果中生成帶有格式的筆記。

文檔識(shí)別就是文檔掃描功能的第一步,也是場(chǎng)景最復(fù)雜的一個(gè)部分

2. 文檔識(shí)別在有道 AI 技術(shù)矩陣中的角色

有道近年來基于深度神經(jīng)網(wǎng)絡(luò)算法,在自然語言、圖像、語音等媒體數(shù)據(jù)的處理和理解方面做了一系列工作,產(chǎn)出了基于神經(jīng)網(wǎng)絡(luò)的多語言翻譯、OCR(光學(xué)字符識(shí)別)、語音識(shí)別等技術(shù)。在這些技術(shù)的合力之下,我們的產(chǎn)品有能力讓用戶以他們最自然最舒服的方式去記錄內(nèi)容,用技術(shù)去理解這些內(nèi)容,并將其統(tǒng)一轉(zhuǎn)化為文本以待下一步處理。從這個(gè)角度來看,我們的各種技術(shù)組成了以自然語言為中心,多種媒體形式相互轉(zhuǎn)換的網(wǎng)絡(luò)結(jié)構(gòu)。

文檔識(shí)別是從圖像轉(zhuǎn)化為文本的這條轉(zhuǎn)換鏈上,不起眼卻又不可缺少的一環(huán)。有了它的存在,我們可以在茫茫圖海中,準(zhǔn)確找到需要處理的文檔,并將其抽取出來進(jìn)行處理。

3. 文檔識(shí)別的算法簡(jiǎn)介

我們的文檔識(shí)別算法基于 FCNN (Fully Convolutional Neural Network) ,這是一種特別的 CNN(卷積神經(jīng)網(wǎng)絡(luò)),其特點(diǎn)是對(duì)于輸入圖片的每一個(gè)像素點(diǎn),都對(duì)應(yīng)著一個(gè)輸出(相對(duì)的,普通的 CNN 網(wǎng)絡(luò)則是每一張輸入圖片對(duì)應(yīng)著一個(gè)輸出)。因此,我們可以標(biāo)記一批包含文檔的圖片,將圖片中文檔邊緣附近的像素標(biāo)注為正樣本,其他部分標(biāo)注為副樣本。訓(xùn)練時(shí),以圖片作為 FCNN 的輸入,將輸出值與標(biāo)注值作對(duì)比得到訓(xùn)練懲罰,從而進(jìn)行訓(xùn)練。關(guān)于文檔識(shí)別算法的更多細(xì)節(jié),可以參見有道技術(shù)團(tuán)隊(duì)的《文檔掃描:深度神經(jīng)網(wǎng)絡(luò)在移動(dòng)端的實(shí)踐》這篇文章。

由于算法的主體是 CNN,因此文檔掃描算法中主要用到的算子(Operator)包括卷積層、Depthwise 卷積層、全連接層、池化層、Relu 層這些 CNN 中常用的算子。

4. 文檔識(shí)別與 TensorFlow

能夠訓(xùn)練和部署 CNN 模型的框架非常多。我們選擇使用TensorFlow框架,是基于以下幾方面的考慮的:

TensorFlow 提供的算子全面且數(shù)量眾多,自己創(chuàng)建新的算子也并不麻煩。在算法研發(fā)的初期會(huì)需要嘗試各種不同的模型網(wǎng)絡(luò)結(jié)構(gòu),用到各種奇奇怪怪的算子。此時(shí)一個(gè)提供全面算子的框架能夠節(jié)省大量的精力;

TensorFlow能夠較好的覆蓋服務(wù)器端、Android 端、iOS 端等多個(gè)平臺(tái),并在各個(gè)平臺(tái)上都有完整的算子支持;

TensorFlow是一個(gè)比較主流的選擇,這意味著當(dāng)遇到困難時(shí),更容易在互聯(lián)網(wǎng)上找到現(xiàn)成的解決辦法。

5. 為什么想在文檔識(shí)別中用 TFLite

在 TFLite 發(fā)布之前,有道云筆記中的文檔識(shí)別功能是基于移動(dòng)端TensorFlow庫 (TensorFlowMobile) 的。當(dāng)TFLite發(fā)布后,我們希望遷移到TFLite上。促使我們遷移的主要?jiǎng)恿κ擎溄訋斓捏w積。

經(jīng)過壓縮后,Android 上的TensorFlow動(dòng)態(tài)庫的體積大約是 4.5M 左右。如果希望滿足 Android 平臺(tái)下的多種處理器架構(gòu),可能需要打包 4 個(gè)左右的動(dòng)態(tài)庫,加起來體積達(dá)到 18M 左右;而 tflite 庫的體積在 600K 左右,即便是打包 4 個(gè)平臺(tái)下的鏈接庫,也只需要占用 2.5M 左右的體積。這在寸土寸金的移動(dòng) App 上,價(jià)值是很大的。

TFLite的介紹

1. TFLite 是什么

TFLite 是 Google I/O 2017 推出的面向移動(dòng)端和嵌入式的神經(jīng)網(wǎng)絡(luò)計(jì)算框架,于2017年11月5日發(fā)布開發(fā)者預(yù)覽版本 (developer preview)。相比與TensorFlow,它有著這樣一些優(yōu)勢(shì):

輕量級(jí)。如上所述,通過 TFLite 生成的鏈接庫體積很??;

沒有太多依賴。TensorFlowMobile 的編譯依賴于 protobuf 等庫,而 tflite 則不需要大的依賴庫;

可以用上移動(dòng)端硬件加速。TFLite 可以通過 Android Neural Networks API (NNAPI) 進(jìn)行硬件加速,只要加速芯片支持 NNAPI,就能夠?yàn)?TFLite 加速。不過目前在大多數(shù) Android 手機(jī)上,Tflite 還是運(yùn)行在 CPU 上的。

TensorFlow Lite的架構(gòu)設(shè)計(jì)

2. TFLite 的代碼結(jié)構(gòu)

作為 TFLite 的使用者,我們也探索了一下 TFLite 的代碼結(jié)構(gòu),這里分享一下。

目前,TFLite 的代碼位于TensorFlow工程中 "tensorflow/contrib/lite" 文件夾下。文件夾下有若干頭/源文件和一些子文件夾。

其中,一些比較重要的頭文件有:

model.h:和模型文件相關(guān)的一些類和方法。其中 FlatBufferModel 這個(gè)類是用來讀取并存儲(chǔ)模型內(nèi)容的,InterpreterBuilder 則可以解析模型內(nèi)容;

Interpreter.h:提供了用以推斷的類 Interpreter,這是我們最常打交道的類;

context.h:提供了存儲(chǔ) Tensors 和一些狀態(tài)的 struct TfLiteContext。實(shí)際使用時(shí)一般會(huì)被包裝在 Interpreter 中;

此外,有一些比較重要的子文件夾:

kernels:算子就是在這里被定義和實(shí)現(xiàn)的。其中 regester.cc 文件定義了哪些算子被支持,這個(gè)是可以自定義的。

downloads:一些第三方的庫,主要包括:

abseil: Google 對(duì) c++ 標(biāo)準(zhǔn)庫的擴(kuò)展;

eigen: 一個(gè)矩陣運(yùn)算庫;

farmhash: 做 hash 的庫;

flatbuffers: TFLite 所使用的 FlatBuffers 模型格式的庫;

gemmlowp: Google 開源的一個(gè)低精度矩陣運(yùn)算庫;

neon_2_sse: 把 arm 上的 neon 指令映射到相對(duì)應(yīng)的 sse 指令。

java:主要是 Android 平臺(tái)相關(guān)的一些代碼;

nnapi:提供了 nnapi 的調(diào)用接口。如果想自己實(shí)現(xiàn) nnapi 可以看一看;

schema:TFLite 所使用的 FlatBuffers 模型格式的具體定義;

toco:protobuf 模型轉(zhuǎn)換到 FlatBuffers 模型格式的相關(guān)代碼。

我們是怎么用TFLite的?

1. TFLite 的編譯

TFLite 可以運(yùn)行在 Android 和 iOS 上,官方給出了不同的編譯流程。

在 Android 上,我們可以使用 bazel 構(gòu)建工具進(jìn)行編譯。bazel 工具的安裝和配置就不再贅述了,有過TensorFlow編譯經(jīng)驗(yàn)的同學(xué)應(yīng)該都熟悉。依照官方文檔,bazel 編譯的 target 是 "http://tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo",這樣得到的是一個(gè) demo app。如果只想編譯庫文件,可以編譯 "http://tensorflow/contrib/lite/java:tensorflowlite" 這個(gè) target,得到的是 libtensorflowlite_jni.so 庫和相應(yīng)的 java 層接口。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/demo_android.md

在 iOS 上,則需要使用 Makefile 編譯。在 mac 平臺(tái)上運(yùn)行 build_ios_universal_lib.sh,會(huì)編譯生成 tensorflow/contrib/lite/gen/lib/libtensorflow-lite.a 這個(gè)庫文件。這是個(gè) fat library,打包了 x86_64, i386, armv7, armv7s, arm64 這些平臺(tái)上的庫。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/demo_ios.md

兩個(gè)平臺(tái)上 TFLite 庫的調(diào)用接口也有所不同:Android 上提供了 Java 層的調(diào)用接口,而 iOS 上則是 c++ 層的調(diào)用接口。

當(dāng)然,TFLite 的工程結(jié)構(gòu)是比較簡(jiǎn)單的,如果你熟悉了 TFLite 的結(jié)構(gòu),也可以用自己熟悉的編譯工具來編譯 TFLite。

2. 模型轉(zhuǎn)換

TFLite 不再使用舊的 protobuf 格式(可能是為了減少依賴庫),而是改用 FlatBuffers 。因此需要把訓(xùn)練好的 protobuf 模型文件轉(zhuǎn)換成 FlatBuffers 格式。

TensorFlow 官方給出了模型轉(zhuǎn)化的指導(dǎo)。首先,由于 TFLite 支持的算子比較少,更不支持訓(xùn)練相關(guān)的算子,因此需要提前把不需要的算子從模型中移除,即 Freeze Graph ;接著就可以做模型格式轉(zhuǎn)換了,使用的工具是 tensorflow toco。這兩個(gè)工具也是通過 bazel 編譯得到。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/docs_src/mobile/tflite/devguide.md

3. 缺失的算子

TFLite 目前僅提供有限的算子,主要以 CNN 中使用到的算子為主,如卷積、池化等。我們的模型是全卷積神經(jīng)網(wǎng)絡(luò),大部分算子 TFLite 都有提供,但 conv2d_transpose(反向卷積)算子并沒有被提供。幸運(yùn)的該算子出現(xiàn)在網(wǎng)絡(luò)模型的末端,因此我們可以將反向卷積之前的計(jì)算結(jié)果取出,自己用 c++ 實(shí)現(xiàn)一個(gè)反向卷積,從而計(jì)算出最終的結(jié)果。由于反向卷積的運(yùn)算量并不大,所以基本沒有影響到運(yùn)行速度。

如果不巧,你的模型需要但 TFLite 缺少的算子并非出現(xiàn)在網(wǎng)絡(luò)的末端,該怎么辦呢?你可以自定義一個(gè) TFLite 算子,將其注冊(cè)在 TFLite 的 kernels 列表中,這樣編譯得到的 TFLite 庫就可以處理該算子了。同時(shí),在模型轉(zhuǎn)換時(shí),還需要加上 --allow_custom_ops 選項(xiàng),將 TFLite 默認(rèn)不支持的算子也保留在模型中。

更多細(xì)節(jié)見官方文檔:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/lite/g3doc/custom_operators.md

TFLite 優(yōu)缺點(diǎn)

優(yōu)點(diǎn):在庫的大小、開發(fā)方便程度、跨平臺(tái)性、性能之間達(dá)成一個(gè)平衡

作為對(duì)比,有道技術(shù)團(tuán)隊(duì)選取了一些其他的移動(dòng)端深度學(xué)習(xí)框架,分別分析其在“開發(fā)方便程度、跨平臺(tái)性、庫的大小、性能”四個(gè)方面的表現(xiàn):

TensorFlowMobile,由于和 server 上的TensorFlow是同一套代碼,所以可以直接使用 server 上訓(xùn)練得到的模型,開發(fā)非常方便;能支持 Android, iOS, 跨平臺(tái)性沒問題;如前所述,庫的大小比較大;性能主流。

caffe2,可以比較方便的從 caffe 訓(xùn)練出的模型轉(zhuǎn)換到 caffe2 ,但缺少一些算子, 開發(fā)方便程度一般;能支持 Android, iOS,跨平臺(tái)性沒問題;庫編譯出來比較大,但是是靜態(tài)庫可以壓縮;性能主流。

Mental/Accelerate,這兩個(gè)都是 iOS 上的框架。比較底層,需要模型轉(zhuǎn)換&自己寫 inference 代碼,開發(fā)比較痛苦;僅支持 iOS;庫是系統(tǒng)自帶,不涉及庫大小問題;速度很快。

CoreML,這個(gè)是 WWDC17 發(fā)布的 iOS 11 上的框架。有一些模型轉(zhuǎn)換工具,只涉及通用算子時(shí)開發(fā)不算痛苦,涉及自定義算子時(shí)就很難辦了;僅支持 iOS 11 以上;庫是系統(tǒng)自帶,不涉及庫大小問題;速度很快。

最后是 TFLite:

TFLite,其模型可以由TensorFlow訓(xùn)練得到的模型轉(zhuǎn)換而來,但缺少一些算子, 開發(fā)方便程度一般;能支持 Android, iOS,跨平臺(tái)性沒問題;庫編譯出來很小;就我們的實(shí)驗(yàn)來看,速度比TensorFlow快一點(diǎn)。

可以看到,TensorFlowMobile 開發(fā)方便,通用性好,但鏈接庫大,性能主流(其他 server 端神經(jīng)網(wǎng)絡(luò)框架的 mobile 版也都有類似的特點(diǎn));Mental/Accelerate 這些比較底層的庫速度很快,但不能跨平臺(tái),開發(fā)比較痛苦;caffe2、TFLite 這類有為移動(dòng)端優(yōu)化過的神經(jīng)網(wǎng)絡(luò)框架則比較平衡,雖然初時(shí)會(huì)有算子不全的問題,但只要背后的團(tuán)隊(duì)不斷支持推進(jìn)框架的開發(fā),這個(gè)問題未來會(huì)得到解決。

優(yōu)點(diǎn):相對(duì)容易擴(kuò)展

由于 TFLite 的代碼(相對(duì)于TensorFlow)比較簡(jiǎn)單,結(jié)構(gòu)比較容易理清,所以可以相對(duì)容易的去擴(kuò)展。如果你想增加一個(gè) TFLite 上沒有而TensorFlow上有的算子,你可以增加一個(gè)自定義的類;如果你想增加一個(gè)TensorFlow上也沒有的算子,你也可以直接去修改 FlatBuffers 模型文件。

缺點(diǎn):ops 不夠全面

如前所述,TFLite 目前主要支持 CNN 相關(guān)的算子 ,對(duì)其他網(wǎng)絡(luò)中的算子還沒有很好的支持。因此,如果你想遷移 rnn 模型到移動(dòng)端,TFLite 目前是不 OK 的。

不過根據(jù)最新的Google TensorFlow開發(fā)者峰會(huì),Google和TensorFlow社區(qū)正在努力增加ops的覆蓋面,相信隨著更多開發(fā)者的相似需求, 更多的模型會(huì)被很好的支持。這也是我們選擇TensorFlow這樣的主流社區(qū)的原因之一。

缺點(diǎn):目前還不能支持各種運(yùn)算芯片

雖然 TFLite 基于 NNAPI,理論上是可以利用上各種運(yùn)算芯片的,但目前還沒有很多運(yùn)算芯片支持 NNAPI。期待未來 TFLite 能夠支持更多的運(yùn)算芯片,畢竟在 CPU 上優(yōu)化神經(jīng)網(wǎng)絡(luò)運(yùn)行速度是有上限的,用上定制芯片才是新世界的大門。

總結(jié)

這一兩年來,在移動(dòng)端實(shí)現(xiàn)實(shí)時(shí)的人工智能似乎已經(jīng)形成了一波潮流。有道技術(shù)團(tuán)隊(duì)在移動(dòng)端 AI 算法的研究上,也做了諸多嘗試,推出了離線神經(jīng)網(wǎng)絡(luò)翻譯 (離線 NMT) 、離線文字識(shí)別 (離線 OCR) 以及離線文檔掃描等移動(dòng)端實(shí)時(shí) AI 能力,并在有道詞典、有道翻譯官、有道云筆記中進(jìn)行產(chǎn)品化應(yīng)用。由于目前移動(dòng)端 AI 尚處在蓬勃發(fā)展階段,各種框架、計(jì)算平臺(tái)等都尚不完善。

在這里,我們以有道云筆記中的離線文檔識(shí)別功能作為實(shí)踐案例,看到了 TFLite 作為一個(gè)優(yōu)秀的移動(dòng)端AI框架,能夠幫助開發(fā)者相對(duì)輕松地在移動(dòng)端實(shí)現(xiàn)常見的神經(jīng)網(wǎng)絡(luò)。后續(xù)我們也會(huì)為大家?guī)砀嘤械兰夹g(shù)團(tuán)隊(duì)結(jié)合 TFLite 在移動(dòng)端實(shí)時(shí) AI 方面的技術(shù)探索以及實(shí)際產(chǎn)品應(yīng)用。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:玩轉(zhuǎn)TensorFlow Lite:有道云筆記實(shí)操案例分享

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    文檔識(shí)別在教育行業(yè)中的應(yīng)用

    只能使用傳統(tǒng)的筆紙摘錄,保存到計(jì)算機(jī)里,還需在通過鍵盤重新輸入一遍;既麻煩又費(fèi)時(shí)。而文檔識(shí)別使這個(gè)問題迎刃而解真正成為你的信息終端,快捷的信息輸入及輸出。 現(xiàn)在有
    發(fā)表于 03-13 17:25

    ELMOS用于手勢(shì)識(shí)別的光電傳感器E527.16

      德國(guó)艾爾默斯半導(dǎo)體公司(ELMOS)日前宣布推出一款用于手勢(shì)識(shí)別的非接觸式光電傳感器芯片E527.16.該款芯片是基于HALIOS的基本工作原理:一個(gè)LED管發(fā)射出經(jīng)過調(diào)制的紅外光,當(dāng)這些紅外光
    發(fā)表于 11-13 16:00

    如何去實(shí)現(xiàn)基于HTTPClient語音識(shí)別的POST請(qǐng)求功能呢

    如何去實(shí)現(xiàn)基于HTTPClient語音識(shí)別的POST請(qǐng)求功能呢?有哪些步驟呢?
    發(fā)表于 03-08 08:12

    分享一種在ART-Pi Smart上進(jìn)行車標(biāo)識(shí)別的設(shè)計(jì)方案

    1、在ART-Pi Smart上對(duì)攝像頭采集的數(shù)據(jù)進(jìn)行車輛識(shí)別本來計(jì)劃使用 ART-Pi Smart 進(jìn)行車標(biāo)識(shí)別的,但是現(xiàn)在實(shí)際測(cè)試發(fā)現(xiàn)攝像頭采集的數(shù)據(jù)顯示有大概率抖動(dòng)的現(xiàn)象發(fā)生,所以實(shí)現(xiàn)了將
    發(fā)表于 06-02 15:11

    使用OpenCV進(jìn)行車牌數(shù)字識(shí)別的資料免費(fèi)下載

    文檔的主要內(nèi)容詳細(xì)介紹的是使用OpenCV進(jìn)行車牌數(shù)字識(shí)別的資料免費(fèi)下載。
    發(fā)表于 01-16 08:00 ?29次下載
    使用OpenCV進(jìn)行車牌數(shù)字<b class='flag-5'>識(shí)別的</b>資料免費(fèi)下載

    基于labview的語音播報(bào)與識(shí)別的詳細(xì)資料說明

    文檔的主要內(nèi)容詳細(xì)介紹的是基于labview的語音播報(bào)與識(shí)別的詳細(xì)資料說明。
    發(fā)表于 04-03 08:00 ?37次下載
    基于labview的語音播報(bào)與<b class='flag-5'>識(shí)別的</b>詳細(xì)資料說明

    射頻識(shí)別的構(gòu)成_射頻識(shí)別的主要工作頻率

    本文主要闡述了射頻識(shí)別的構(gòu)成及_射頻識(shí)別的主要工作頻率。
    發(fā)表于 03-28 10:25 ?5803次閱讀

    語音識(shí)別的兩個(gè)方法_語音識(shí)別的應(yīng)用有哪些

    本文主要闡述了語音識(shí)別的兩個(gè)方法及語音識(shí)別的應(yīng)用。
    發(fā)表于 04-01 09:04 ?5917次閱讀

    虹膜識(shí)別技術(shù)的過程_虹膜識(shí)別的發(fā)展歷程

    本文首先介紹了虹膜識(shí)別技術(shù)的概念,其次闡述了虹膜識(shí)別技術(shù)的過程,最后闡述了虹膜識(shí)別的發(fā)展歷程。
    發(fā)表于 04-02 14:22 ?5642次閱讀

    使用Python實(shí)現(xiàn)車牌識(shí)別的程序免費(fèi)下載

    文檔的主要內(nèi)容詳細(xì)介紹的是使用Python實(shí)現(xiàn)車牌識(shí)別的程序免費(fèi)下載。
    發(fā)表于 09-11 16:12 ?35次下載
    使用Python實(shí)現(xiàn)車牌<b class='flag-5'>識(shí)別的</b>程序免費(fèi)下載

    在Android中使用TFLite c++部署

    之前的文章中,我們跟大家介紹過如何使用NNAPI來加速TFLite-Android的inference(可參考使用NNAPI加速android-tflite的Mobilenet分類器...
    發(fā)表于 02-07 11:57 ?7次下載
    在Android中使用<b class='flag-5'>TFLite</b> c++部署

    人臉識(shí)別的優(yōu)點(diǎn)和識(shí)別方法

    人臉識(shí)別廠家淺談人臉識(shí)別的智能優(yōu)點(diǎn)
    發(fā)表于 02-06 11:58 ?680次閱讀
    人臉<b class='flag-5'>識(shí)別的</b>優(yōu)點(diǎn)和<b class='flag-5'>識(shí)別</b>方法

    面部表情識(shí)別的倫理問題

    面部表情識(shí)別是一項(xiàng)涉及隱私和倫理的技術(shù),其在應(yīng)用過程中可能會(huì)引發(fā)一系列倫理問題。本文將探討面部表情識(shí)別的倫理問題,包括隱私保護(hù)、種族和性別偏見、情緒識(shí)別準(zhǔn)確率等方面。 首先,面部表情
    的頭像 發(fā)表于 08-04 18:20 ?829次閱讀

    情感語音識(shí)別的研究方法與實(shí)踐

    一、引言 情感語音識(shí)別是指通過計(jì)算機(jī)技術(shù)和人工智能算法自動(dòng)識(shí)別和理解人類語音中的情感信息。為了提高情感語音識(shí)別的準(zhǔn)確性,本文將探討情感語音識(shí)別的研究方法與
    的頭像 發(fā)表于 11-16 16:26 ?772次閱讀

    如何設(shè)計(jì)人臉識(shí)別的神經(jīng)網(wǎng)絡(luò)

    人臉識(shí)別技術(shù)是一種基于人臉特征信息進(jìn)行身份識(shí)別的技術(shù),廣泛應(yīng)用于安全監(jiān)控、身份認(rèn)證、智能門禁等領(lǐng)域。神經(jīng)網(wǎng)絡(luò)是實(shí)現(xiàn)人臉識(shí)別的關(guān)鍵技術(shù)之一,本文將介紹如何設(shè)計(jì)人臉
    的頭像 發(fā)表于 07-04 09:20 ?456次閱讀