0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenVIN賦能BLIP實現(xiàn)視覺語言AI邊緣部署

SDNLAB ? 來源: 英特爾物聯(lián)網(wǎng) ? 2023-09-04 10:54 ? 次閱讀

人類通過視覺和語言感知世界。人工智能的一個長期目標(biāo)是構(gòu)建智能體,通過視覺和語言輸入來理解世界,并通過自然語言與人類交流。比如,在《幾行代碼加速 Stable Diffusion,使用 OpenVINO 輕松文生圖》中,我們介紹了利用OpenVINO 運(yùn)行Stable Diffusion模型,快速實現(xiàn)文生圖應(yīng)用。讓人人可以成為繪畫大師,利用AI隨心作畫。

隨著計算機(jī)視覺和自然語言處理領(lǐng)域的快速發(fā)展,視覺與語言的融合越來越受到研究人員的重視。在這個背景下,BLIP(Bootstrapping Language-Image Pre-training)作為一種創(chuàng)新的預(yù)訓(xùn)練模型,引起了廣泛關(guān)注。該模型在大規(guī)模的圖像文本數(shù)據(jù)集上預(yù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)模型,以提高下游視覺語言任務(wù)的性能,如圖像文本檢索、圖像字幕和視覺問答。通過聯(lián)合訓(xùn)練圖像和文本數(shù)據(jù),為視覺與語言的融合提供了強(qiáng)大的基礎(chǔ)。

BLIP 的預(yù)訓(xùn)練過程涉及兩個關(guān)鍵組件:圖像編碼器和文本編碼器。圖像編碼器負(fù)責(zé)將輸入的圖像轉(zhuǎn)換為低維向量表示,而文本編碼器則將輸入的文本轉(zhuǎn)換為另一個低維向量表示。為了實現(xiàn)統(tǒng)一的視覺-語言預(yù)訓(xùn)練,BLIP 采用了一種跨模態(tài)約束策略,即在預(yù)訓(xùn)練階段,圖像編碼器和文本編碼器被設(shè)計成相互約束的。這樣的約束機(jī)制強(qiáng)制模型學(xué)習(xí)將視覺信息和語言信息進(jìn)行對齊,從而使得模型在后續(xù)任務(wù)中能夠更好地處理視覺與語言之間的聯(lián)合信息。

除了視覺-語言理解任務(wù),BLIP 還在視覺-語言生成任務(wù)中表現(xiàn)出色。在這個任務(wù)中,模型需要根據(jù)輸入的圖像和文本生成相關(guān)的描述或回答問題。BLIP 通過聯(lián)合訓(xùn)練和引入了圖像-文本生成任務(wù),使得模型具備了更強(qiáng)大的圖像描述和問題回答能力。這使得 BLIP 在圖像描述生成和視覺問答等任務(wù)上取得了優(yōu)異的成績。

接下來,我們一起來看看如何在研揚(yáng)科技(AAEON)的新品 UP Squared Pro 7000 Edge運(yùn)行利用OpenVINO來優(yōu)化加速BLIP的推理有哪些重點步驟吧。

作為研揚(yáng)UP Squared Pro系列的第三代產(chǎn)品,Upsquared Pro 7000 系列 (up-shop.org) 透過高性能計算能力、升級的電路板設(shè)計和擴(kuò)展的顯示接口,提供更大的開發(fā)潛力。作為該系列中首款采用Intel Core/Atom/N系列處理器(原 Alder Lake-N)的產(chǎn)品,UP Squared Pro 7000是首款配備板載LPDDR5內(nèi)存的產(chǎn)品,提高了I/O的運(yùn)行速度。此外,UP Squared Pro 7000 在圖像處理和顯示功能方面都有顯著提升,支持MIPI CSI照相機(jī),并搭配Intel UHD顯卡,可同時進(jìn)行三臺4K顯示器。

1.4倍以上CPU性能提升

UP Squared Pro 7000采用Intel Core/Atom/N-系列處理器,CPU性能是上一代的1.4倍。UP Squared Pro 7000擁有多達(dá)8個Gracemont內(nèi)核,支持OpenVINO Toolkit,以及第12代Intel處理器的UHD顯卡,擁有強(qiáng)大的計算能力、優(yōu)化的推理引擎和圖像處理功能,提供絕佳的智能解決方案。

同步支持3臺4K顯示器

UP Squared Pro 7000配備HDMI 2.0b、DP 1.2埠和透過USB Type-C的DP 1.4a,擁有出色的顯示接口。UP Squared Pro 7000整合了GPU和多重輸出,可以同步支持三個4K顯示器,非常適合用于數(shù)字廣告牌等視覺導(dǎo)向型的相關(guān)應(yīng)用。

雙倍的高速系統(tǒng)內(nèi)存

作為UP Squared Pro系列中第一塊配備板載LPDDR5系統(tǒng)內(nèi)存的板卡,UP Squared Pro 7000搭載了16GB的系統(tǒng)內(nèi)存,是上一代的兩倍。此外,快達(dá)4800MHz的內(nèi)存速度讓用戶的帶寬和數(shù)據(jù)傳輸速度加倍,同時也更加省電。

全面的I/O升級

除了維持UP Squared Pro系列4" x 4"的緊湊外形之外,UP Squared Pro 7000 在電路板設(shè)計上更為精實。UP Squared Pro 7000配備了兩個2.5GbE、三個 USB 3.2和一個FPC端口,可外接更多像是MIPI CSI 相機(jī)的外圍設(shè)備。將這些特色與板載 LPDDR5 及性能強(qiáng)大的CPU相結(jié)合,非常適合用于智慧工廠機(jī)器人方面的視覺解決方案。

注意:以下步驟中的所有代碼來自O(shè)penVINO Notebooks開源倉庫中的233-blip-visual-language-processing notebook 代碼示例,您可以點擊以下鏈接直達(dá)源代碼。https://github.com/openvinotoolkit/openvino_notebooks/tree/main/notebooks/233-blip-visual-language-processing

第一步:安裝相應(yīng)工具包、加載模型并轉(zhuǎn)換為OpenVINO IR格式

本次代碼示例需要首先安裝BLIP相應(yīng)工具包。

1.!pipinstall"transformers>=4.26.0"
然后下載及加載相應(yīng)的PyTorch模型。在本問中,您將使用可從Hugging Face下載的blip-vqa-base基本模型。同樣的操作也適用于BLIP系列中的其它模型。盡管該模型類是為執(zhí)行問答而設(shè)計的,但其組件也可以用于圖像字幕。要開始使用該模型,需要使用from_pretrained方法實例化BlipForQuestionAnswering類。BlipProcessor是一個助手類,用于準(zhǔn)備文本和視覺模態(tài)的輸入數(shù)據(jù)以及生成結(jié)果的后處理。 1.importsys2.importtime3.fromPILimportImage4.fromtransformersimportBlipProcessor,BlipForQuestionAnswering5.6.sys.path.append("../utils")7.fromnotebook_utilsimportdownload_file8.9.#Getmodelandprocessor10.processor=BlipProcessor.from_pretrained("Salesforce/blip-vqa-base")11.model=BlipForQuestionAnswering.from_pretrained("Salesforce/blip-vqa-base")
接下來,我們看看如何將原始模型轉(zhuǎn)換為OpenVINO IR格式的模型,并利用OpenVINO進(jìn)行相應(yīng)的優(yōu)化以及部署推理加速。

第二步:將模型轉(zhuǎn)換為OpenVINO IR格式

根據(jù)我們前面的介紹,BLIP模型包含視覺模型、文本編碼和文本解碼三個模型,因此我們需要分別將這三個模型轉(zhuǎn)換為OpenVINO IR格式。視覺模型的轉(zhuǎn)換操作比較常規(guī),具體代碼可以參考我們的notebook,這里重點介紹一下文本編碼和文本解碼模型的轉(zhuǎn)換部分。

  • 文本編碼器轉(zhuǎn)換:視覺問答任務(wù)使用文本編碼器來構(gòu)建問題的嵌入表示。它采用經(jīng)過分詞后的問題的input_ids,并輸出從視覺模型獲得的圖像嵌入和它們的注意力掩碼。根據(jù)問題文本的不同,標(biāo)記化輸入后的標(biāo)記數(shù)量可能不同。因此,為使用標(biāo)記的模型輸入保留動態(tài)形狀,dynamic_axes參數(shù)負(fù)責(zé)在torch.onx.export中保留輸入的動態(tài)特定維度。代碼如下:

TEXT_ENCODER_OV=Path("blip_text_encoder.xml")TEXT_ENCODER_ONNX=TEXT_ENCODER_OV.with_suffix(".onnx")text_encoder=model.text_encodertext_encoder.eval()#ifopenvinomodeldoesnotexist,convertittoonnxandthentoIRifnotTEXT_ENCODER_OV.exists():ifnotTEXT_ENCODER_ONNX.exists():#prepareexampleinputsforONNXexportimage_embeds=vision_outputs[0]image_attention_mask=torch.ones(image_embeds.size()[:-1],dtype=torch.long)input_dict={"input_ids":inputs["input_ids"],"attention_mask":inputs["attention_mask"],"encoder_hidden_states":image_embeds,"encoder_attention_mask":image_attention_mask}#specifyvariablelengthaxesdynamic_axes={"input_ids":{1:"seq_len"},"attention_mask":{1:"seq_len"}}#exportPyTorchmodeltoONNXwithtorch.no_grad():torch.onnx.export(text_encoder,input_dict,TEXT_ENCODER_ONNX,input_names=list(input_dict),dynamic_axes=dynamic_axes)#convertONNXmodeltoIRusingmodelconversionPythonAPI,usecompress_to_fp16=TrueforcompressingmodelweightstoFP16precisionov_text_encoder=mo.convert_model(TEXT_ENCODER_ONNX,compress_to_fp16=True)#savemodelondiskfornextusagesserialize(ov_text_encoder,str(TEXT_ENCODER_OV))print(f"Textencodersuccessfulyconvertedandsavedto{TEXT_ENCODER_OV}")else:print(f"Textencoderwillbeloadedfrom{TEXT_ENCODER_OV}")

  • 文本解碼器轉(zhuǎn)換:文本解碼器負(fù)責(zé)使用圖像(以及問題,如果需要的話)的表示來生成模型輸出(問題的答案或標(biāo)題)的分詞token序列。生成方法基于這樣的假設(shè),即單詞序列的概率分布可以分解為下一個單詞條件分布的乘積。換言之,模型預(yù)測由先前生成的token引導(dǎo)循環(huán)生成下一個token,直到達(dá)到停止生成的條件(生成達(dá)到最大長度序列或獲得的字符串結(jié)束的token)。在預(yù)測概率之上選擇下一個token的方式由所選擇的解碼方法來驅(qū)動。與文本編碼器類似,文本解碼器可以處理不同長度的輸入序列,并且需要保留動態(tài)輸入形狀。這部分特殊的處理可由如下代碼完成:

1.text_decoder=model.text_decoder2.text_decoder.eval()3.4.TEXT_DECODER_OV=Path("blip_text_decoder.xml")5.TEXT_DECODER_ONNX=TEXT_DECODER_OV.with_suffix(".onnx")6.7.#prepareexampleinputsforONNXexport8.input_ids=torch.tensor([[30522]])#beginofsequencetokenid9.attention_mask=torch.tensor([[1]])#attentionmaskforinput_ids10.encoder_hidden_states=torch.rand((1,10,768))#encoderlasthiddenstatefromtext_encoder11.encoder_attention_mask=torch.ones((1,10),dtype=torch.long)#attentionmaskforencoderhiddenstates12.13.input_dict={"input_ids":input_ids,"attention_mask":attention_mask,"encoder_hidden_states":encoder_hidden_states,"encoder_attention_mask":encoder_attention_mask}14.#specifyvariablelengthaxes15.dynamic_axes={"input_ids":{1:"seq_len"},"attention_mask":{1:"seq_len"},"encoder_hidden_states":{1:"enc_seq_len"},"encoder_attention_mask":{1:"enc_seq_len"}}16.17.#specifyoutputnames,logitsismainoutputofmodel18.output_names=["logits"]19.20.#pastkeyvaluesoutputsareoutputforcachingmodelhiddenstate21.past_key_values_outs=[]22.text_decoder_outs=text_decoder(**input_dict)23.foridx,_inenumerate(text_decoder_outs["past_key_values"]):24.past_key_values_outs.extend([f"out_past_key_value.{idx}.key",f"out_past_key_value.{idx}.value"])
接下來,對于文本解碼器的轉(zhuǎn)換,還有來自前一步驟的隱藏狀態(tài)的額外輸入。與輸出類似,在模型導(dǎo)出為ONNX格式后,它們將被展平。需要使用新的輸入層更新dynamic_axies和input_names。因此,其后面的轉(zhuǎn)換過程與前面的文本編碼器的轉(zhuǎn)換過程類似,在本文中不再贅述。

第三步:運(yùn)行OpenVINO 推理

如前所述,在這里我們將主要展示BLIP進(jìn)行視覺問答以及圖像字幕的流水線如何搭建、以及如何運(yùn)行OpenVINO來進(jìn)行推理的情況。


  • 圖像字幕

視覺模型接受BlipProcessor預(yù)處理的圖像作為輸入,并生成圖像嵌入,這些圖像嵌入直接傳遞給文本解碼器以生成字幕標(biāo)記。生成完成后,分詞tokenizer的輸出序列被提供給BlipProcessor,用于使用tokenizer解碼為文本。wKgZomT1R7GATsKBAAC288s9BRs649.jpg定義OVBLIPModel類:

classOVBlipModel:"""ModelclassforinferenceBLIPmodelwithOpenVINO"""def__init__(self,config,decoder_start_token_id:int,vision_model,text_encoder,text_decoder):"""Initializationclassparameters"""self.vision_model=vision_modelself.vision_model_out=vision_model.output(0)self.text_encoder=text_encoderself.text_encoder_out=text_encoder.output(0)self.text_decoder=text_decoderself.config=configself.decoder_start_token_id=decoder_start_token_idself.decoder_input_ids=config.text_config.bos_token_id定義圖像字幕函數(shù)如下,defgenerate_caption(self,pixel_values:torch.Tensor,input_ids:torch.Tensor=None,attention_mask:torch.Tensor=None,**generate_kwargs):"""ImageCaptioningpredictionParameters:pixel_values(torch.Tensor):preprocessedimagepixelvaluesinput_ids(torch.Tensor,*optional*,None):pregeneratedcaptiontokenidsaftertokenization,ifprovidedcaptiongenerationcontinueprovidedtextattention_mask(torch.Tensor):attentionmaskforcaptiontokens,usedonlyifinput_idsprovidedRetruns:generationoutput(torch.Tensor):tensorwhichrepresentssequenceofgeneratedcaptiontokenids"""batch_size=pixel_values.shape[0]image_embeds=self.vision_model(pixel_values.detach().numpy())[self.vision_model_out]image_attention_mask=torch.ones(image_embeds.shape[:-1],dtype=torch.long)ifisinstance(input_ids,list):input_ids=torch.LongTensor(input_ids)elifinput_idsisNone:input_ids=(torch.LongTensor([[self.config.text_config.bos_token_id,self.config.text_config.eos_token_id]]).repeat(batch_size,1))input_ids[:,0]=self.config.text_config.bos_token_idattention_mask=attention_mask[:,:-1]ifattention_maskisnotNoneelseNoneoutputs=self.text_decoder.generate(input_ids=input_ids[:,:-1],eos_token_id=self.config.text_config.sep_token_id,pad_token_id=self.config.text_config.pad_token_id,attention_mask=attention_mask,encoder_hidden_states=torch.from_numpy(image_embeds),encoder_attention_mask=image_attention_mask,**generate_kwargs,)returnoutputs
  • 視覺問答

視覺回答的流水線看起來很相似,但有額外的問題處理。在這種情況下,由BlipProcessor標(biāo)記的圖像嵌入和問題被提供給文本編碼器,然后多模態(tài)問題嵌入被傳遞給文本解碼器以執(zhí)行答案的生成。
在OVBLIPModel類內(nèi)部同理可定義視覺問答函數(shù)如下:defgenerate_answer(self,pixel_values:torch.Tensor,input_ids:torch.Tensor,attention_mask:torch.Tensor,**generate_kwargs):"""VisualQuestionAnsweringpredictionParameters:pixel_values(torch.Tensor):preprocessedimagepixelvaluesinput_ids(torch.Tensor):questiontokenidsaftertokenizationattention_mask(torch.Tensor):attentionmaskforquestiontokensRetruns:generationoutput(torch.Tensor):tensorwhichrepresentssequenceofgeneratedanswertokenids"""image_embed=self.vision_model(pixel_values.detach().numpy())[self.vision_model_out]image_attention_mask=np.ones(image_embed.shape[:-1],dtype=int)ifisinstance(input_ids,list):input_ids=torch.LongTensor(input_ids)question_embeds=self.text_encoder([input_ids.detach().numpy(),attention_mask.detach().numpy(),image_embed,image_attention_mask])[self.text_encoder_out]question_attention_mask=np.ones(question_embeds.shape[:-1],dtype=int)bos_ids=np.full((question_embeds.shape[0],1),fill_value=self.decoder_start_token_id)outputs=self.text_decoder.generate(input_ids=torch.from_numpy(bos_ids),eos_token_id=self.config.text_config.sep_token_id,pad_token_id=self.config.text_config.pad_token_id,encoder_hidden_states=torch.from_numpy(question_embeds),encoder_attention_mask=torch.from_numpy(question_attention_mask),**generate_kwargs,)returnoutputs·初始化OpenVINO運(yùn)行時并運(yùn)行推理初始化OpenVINOCore對象,選擇推理設(shè)備,并加載、編譯模型#createOpenVINOCoreobjectinstancecore=Core()importipywidgetsaswidgetsdevice=widgets.Dropdown(options=core.available_devices+["AUTO"],value='AUTO',description='Device:',disabled=False,)device#loadmodelsondeviceov_vision_model=core.compile_model(VISION_MODEL_OV,device.value)ov_text_encoder=core.compile_model(TEXT_ENCODER_OV,device.value)ov_text_decoder=core.compile_model(TEXT_DECODER_OV,device.value)ov_text_decoder_with_past=core.compile_model(TEXT_DECODER_WITH_PAST_OV,device.value)
  • 運(yùn)行圖像字幕推理

out=ov_model.generate_caption(inputs["pixel_values"],max_length=20)caption=processor.decode(out[0],skip_special_tokens=True)fig=visualize_results(raw_image,caption)
運(yùn)行效果如下圖所示:
  • 運(yùn)行視覺問答推理

start=time.perf_counter()out=ov_model.generate_answer(**inputs,max_length=20)end=time.perf_counter()-startanswer=processor.decode(out[0],skip_special_tokens=True)fig=visualize_results(raw_image,answer,question)
小 結(jié) 整個的步驟就是這樣!現(xiàn)在就開始跟著我們提供的代碼和步驟,動手試試用Open VINO和BLIP吧。
關(guān)于英特爾OpenVINOTM開源工具套件的詳細(xì)資料,包括其中我們提供的三百多個經(jīng)驗證并優(yōu)化的預(yù)訓(xùn)練模型的詳細(xì)資料。除此之外,為了方便大家了解并快速掌握OpenVINOTM的使用,我們還提供了一系列開源的Jupyter notebook demo。運(yùn)行這些notebook,就能快速了解在不同場景下如何利用OpenVINOTM實現(xiàn)一系列、包括計算機(jī)視覺、語音及自然語言處理任務(wù)。OpenVINOTM notebooks的資源可以在GitHub這里下載安裝。

# 研揚(yáng)科技簡介

研揚(yáng)科技成立于1992年,是工業(yè)物聯(lián)網(wǎng)和人工智能邊緣解決方案的領(lǐng)先設(shè)計商和制造商之一。以不斷創(chuàng)新為核心價值觀,研揚(yáng)科技為市場帶來可靠、高質(zhì)量的計算平臺,包括工業(yè)主板和系統(tǒng)、強(qiáng)固式平板電腦嵌入式人工智能系統(tǒng)、uCPE網(wǎng)絡(luò)設(shè)備以及LoRaWAN/WWAN解決方案。研揚(yáng)科技還帶來行業(yè)領(lǐng)先的經(jīng)驗和知識,以在全球范圍內(nèi)提供OEM/ODM服務(wù)。此外,研揚(yáng)科技與諸多城市和政府緊密合作,開發(fā)和部署智能城市生態(tài)系統(tǒng),提供個性化平臺和端到端解決方案。研揚(yáng)科技與頂級芯片設(shè)計商緊密合作,提供穩(wěn)定、可靠的平臺,并被認(rèn)可為Intel物聯(lián)網(wǎng)解決方案聯(lián)盟的鈦金級成員。欲了解更多研揚(yáng)科技的產(chǎn)品線和服務(wù),請訪問www.aaeon.com。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    60

    文章

    9826

    瀏覽量

    171149
  • 計算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7303

    瀏覽量

    87562
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29447

    瀏覽量

    267771
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    591

    瀏覽量

    13468

原文標(biāo)題:OpenVINO?賦能BLIP實現(xiàn)視覺語言AI邊緣部署

文章出處:【微信號:SDNLAB,微信公眾號:SDNLAB】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    低成本低功耗的嵌入式計算機(jī)視覺平臺ADZS-BF707-BLIP2

    ADZS-BF707-BLIP2,Blackfin低功耗成像平臺(BLIP)評估系統(tǒng)是一款低成本,低功耗的嵌入式計算機(jī)視覺平臺,適用于大量實時傳感應(yīng)用。 BLIP利用行業(yè)領(lǐng)先的低功耗B
    發(fā)表于 03-08 09:24

    EdgeBoard FZ5 邊緣AI計算盒及計算卡

    實現(xiàn)模型的訓(xùn)練、部署、推理等一站式服務(wù),降低AI開發(fā)門檻。5 卓越品質(zhì)與可靠性設(shè)計,直面工業(yè)場景高效開發(fā)寬溫設(shè)計,適應(yīng)-40度到+70度環(huán)境溫度;整體式無風(fēng)扇被動散熱,適應(yīng)工業(yè)場景的惡劣環(huán)境;此外
    發(fā)表于 08-31 14:12

    【HarmonyOS HiSpark AI Camera】邊緣計算安全監(jiān)控系統(tǒng)

    邊緣計算安全監(jiān)控系統(tǒng)計劃:本項目計劃做一個邊緣計算平臺,將用在工業(yè)或工廠環(huán)境下,檢測溫度、濕度、氣體等參數(shù),同時通過視覺AI檢測工人有沒有佩戴安全帽、手套、是否抽煙、是否有煙霧和火焰
    發(fā)表于 09-25 10:11

    MLU220-M.2邊緣端智能加速卡支持相關(guān)資料介紹

    ??梢暂p松實現(xiàn)終端設(shè)備和邊緣段設(shè)備的AI方案。MLU220-M.2加速卡用于離線模型的部署,
    發(fā)表于 08-08 17:37

    嵌入式邊緣AI應(yīng)用開發(fā)指南

    保駕護(hù)航。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型、隨時隨地訓(xùn)練模型并將其無縫部署到TI處理器上,從而實現(xiàn)硬件加速推理。圖1: 邊緣AI應(yīng)用的開發(fā)流程第1步:選擇模型
    發(fā)表于 11-03 06:53

    英碼科技精彩亮相火爆的IOTE 2023,多面AIoT產(chǎn)業(yè)發(fā)展!

    算力硬件為基礎(chǔ),搭載自研的0代碼移植工具鏈,在不觸碰客戶模型文件的前提下,實現(xiàn)算法從GPU到XPU的一鍵移植,最快1天實現(xiàn)算法適配,快、易、省長尾
    發(fā)表于 09-25 10:03

    邊緣存儲問題解決分析:AI邊緣趨勢勢不可擋

    AI 能到前端也正成為安防這個產(chǎn)業(yè)的發(fā)展趨勢,當(dāng)然,邊緣計算是一方面,監(jiān)控領(lǐng)域邊緣存儲也是一個極其重要的環(huán)節(jié)。
    的頭像 發(fā)表于 11-27 19:05 ?4578次閱讀

    華為云如何為AI開發(fā)者?

    說到底,在AI開發(fā)逐漸成為通用技能的今天,就是缺乏一種一致性的方案,從訓(xùn)練到部署、從云、邊緣到終端,通過時間軸以及空間軸的角度整合框架完成對開發(fā)者的
    的頭像 發(fā)表于 09-25 15:24 ?5153次閱讀

    AI邊緣計算應(yīng)用的必然趨勢 AI功能智盒落地應(yīng)用

    目前,公共安全領(lǐng)域大數(shù)據(jù)實戰(zhàn)日益重要,迫切需要從海量的數(shù)據(jù)中獲取有效、可靠、安全的數(shù)據(jù),人工智能將扮演越來越重要的角色。 而邊緣計算將為未來的百億終端提供AI能力,形成萬物感知、萬
    的頭像 發(fā)表于 11-20 15:11 ?3205次閱讀

    華為許映童:AI,邊緣將走向智能邊緣

    12月11日消息(李明)在“2020邊緣計算產(chǎn)業(yè)峰會”上,華為昇騰計算業(yè)務(wù)總裁許映童表示:AI,邊緣將走向智能
    的頭像 發(fā)表于 12-11 13:46 ?2271次閱讀

    賽靈思推出自適應(yīng)SOM為AI邊緣應(yīng)用提供更高效解決方案

    隨著以人工智能技術(shù)為代表的數(shù)字經(jīng)濟(jì)浪潮的來臨,如今,AI 正越來越多地被部署邊緣應(yīng)用,這些應(yīng)用要求以低時延、低功耗和小封裝尺寸執(zhí)行大量數(shù)據(jù)處理。 要想實現(xiàn)這一綜合要求就必須為整體
    的頭像 發(fā)表于 05-17 10:55 ?2068次閱讀

    ai邊緣計算在視覺分析領(lǐng)域的優(yōu)點?ai邊緣計算可以應(yīng)用于哪些領(lǐng)域

    低延遲:將AI算法部署邊緣設(shè)備上可以實現(xiàn)實時的視覺分析,避免了將所有數(shù)據(jù)傳輸?shù)皆贫诉M(jìn)行處理的延遲。這對于需要快速響應(yīng)的應(yīng)用非常重要,例如智
    的頭像 發(fā)表于 05-30 11:40 ?745次閱讀
    <b class='flag-5'>ai</b><b class='flag-5'>邊緣</b>計算在<b class='flag-5'>視覺</b>分析領(lǐng)域的優(yōu)點?<b class='flag-5'>ai</b><b class='flag-5'>邊緣</b>計算可以應(yīng)用于哪些領(lǐng)域

    AI邊緣計算是什么意思?邊緣ai是什么?AI邊緣計算應(yīng)用

    算法部署邊緣設(shè)備上實現(xiàn)智能化的計算方式。 什么是邊緣計算? 邊緣計算是一種通過把計算能力盡可能靠近數(shù)據(jù)來源或消費(fèi)者的計算模式,提高應(yīng)用程序
    的頭像 發(fā)表于 08-24 15:18 ?1918次閱讀

    OpenVINOBLIP實現(xiàn)視覺語言AI邊緣部署

    人類通過視覺語言感知世界。人工智能的一個長期目標(biāo)是構(gòu)建智能體,通過視覺語言輸入來理解世界,并通過自然語言與人類交流。比如,在《幾行代碼加
    的頭像 發(fā)表于 09-01 10:26 ?2343次閱讀

    OpenVINO? BLIP 實現(xiàn)視覺語言 AI 邊緣部署

    圖》中,我們介紹了利用OpenVINO運(yùn)行StableDiffusion模型,快速實現(xiàn)文生圖應(yīng)用。讓人人可以成為繪畫大師,利用AI隨心作畫。隨著計算機(jī)視覺和自然語
    的頭像 發(fā)表于 09-04 16:21 ?628次閱讀
    OpenVINO? <b class='flag-5'>賦</b><b class='flag-5'>能</b> <b class='flag-5'>BLIP</b> <b class='flag-5'>實現(xiàn)</b><b class='flag-5'>視覺</b><b class='flag-5'>語言</b> <b class='flag-5'>AI</b> <b class='flag-5'>邊緣</b><b class='flag-5'>部署</b>