0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

常用AI名詞解釋

新機(jī)器視覺 ? 來源:智能的大西瓜 ? 2023-12-21 15:40 ? 次閱讀

AGI:Artificial General Intelligence (通用人工智能):是指具備與人類同等或超越人類的智能,能夠表現(xiàn)出正常人類所具有的所有智能行為。又被稱為強(qiáng)人工智能。

AI:Artificial Intellige

nce (人工智能):于1956年在Dartmouth學(xué)會上提出,是一種技術(shù),通過類似人類反應(yīng)的方式對刺激做出反應(yīng)并從中學(xué)習(xí)。其理解和判斷水平通常僅在人類的專業(yè)技能中找到。AI因其具備自主學(xué)習(xí)和認(rèn)知能力,能夠進(jìn)行自我調(diào)整和改進(jìn),從而應(yīng)對更加復(fù)雜的任務(wù)。

AIGC:AI Generated Content (生成式AI):又稱為生成式AI,意指由人工智能生成的內(nèi)容。包括AI文字續(xù)寫、文字轉(zhuǎn)像的AI圖、AI主持人等應(yīng)用都屬于AIGC。

ANI:Artificial Narrow Intelligence (狹義人工智能):即專注于一項(xiàng)任務(wù)的人工智能,例如下圍棋的AlphaGo。又被稱為弱人工智能。

ASI (人工超級智能):盡管存在爭議,ASI通常被定義為超越人類思維能力的人工智能。

Accelerator(加速器):一類旨在加速人工智能應(yīng)用的微處理器。

Agents(智能體):Agent是一個設(shè)定了目標(biāo)或任務(wù)的大型語言模型,可以迭代運(yùn)行。與大型語言模型(LLM)在工具如ChatGPT中通常被用于回答問題的方式不同,Agent具有復(fù)雜的工作流程,模型本質(zhì)上可以自我對話,而無需人類驅(qū)動每一部分的交互。

Alignment(人工智能對齊):指引導(dǎo)人工智能系統(tǒng)的行為,使其符合設(shè)計(jì)者的利益和預(yù)期目標(biāo)。已對齊的人工智能行為會朝著預(yù)期方向發(fā)展,而未對齊的人工智能行為雖然具備特定目標(biāo),但此目標(biāo)并非設(shè)計(jì)者所預(yù)期。

Attention(注意力機(jī)制):在深度學(xué)習(xí)中指的是模型對輸入的不同部分分配不同注意力的機(jī)制,有助于處理長距離依賴性。注意力機(jī)制有助于模型在生成輸出時專注于輸入的相關(guān)部分。

Backpropagation(反向傳播):是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)算法,通過不斷調(diào)整模型參數(shù)以最小化預(yù)測誤差。

Bias(偏見):在機(jī)器學(xué)習(xí)中指的是模型對訓(xùn)練數(shù)據(jù)的錯誤偏見,可能導(dǎo)致對新數(shù)據(jù)的不準(zhǔn)確預(yù)測。

CLIP:Contrastive Language-Image Pre-training(對比語言-圖像預(yù)訓(xùn)練):是一種由 OpenAI 提出的模型,用于聯(lián)合處理圖像和文本,使其能夠理解和生成圖像的描述。

CNN:Convolutional Neural Network(卷積神經(jīng)網(wǎng)絡(luò)):一種專門用于處理圖像和視頻等網(wǎng)格數(shù)據(jù)的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。此類模型通常用于圖像識別任務(wù)。

CV:Computer Vision(計(jì)算機(jī)視覺:是一種讓計(jì)算機(jī)能夠理解和解釋視覺信息的技術(shù)領(lǐng)域。它指的是用攝影機(jī)和計(jì)算機(jī)代替人眼對目標(biāo)進(jìn)行識別、跟蹤和測量等機(jī)器視覺,并進(jìn)一步進(jìn)行圖像處理,使其更適合人眼觀察或傳送給儀器檢測的圖像。

ChatGPT(對話生成預(yù)訓(xùn)練變壓器):由 OpenAI 創(chuàng)建的一種對話型語言模型。于2022年11月推出。該程序使用基于GPT-3.5、GPT-4架構(gòu)的大型語言模型并以強(qiáng)化學(xué)習(xí)訓(xùn)練。

CoT:Chain-of-Thought (思維鏈提示):通過提示LLM生成一系列中間步驟,提高LLM的推理能力。這些中間步驟導(dǎo)致多步驟問題的最終答案。該技術(shù)由谷歌研究人員于2022年首次提出。

Compute(計(jì)算資源):在上下文中,通常指的是計(jì)算機(jī)硬件資源,如CPU、GPU或TPU,用于進(jìn)行計(jì)算和執(zhí)行機(jī)器學(xué)習(xí)模型。

Connectionism(聯(lián)結(jié)主義):也稱為神經(jīng)網(wǎng)絡(luò)或基于學(xué)習(xí)的AI。主要觀點(diǎn)是,知識存儲在大量連接中,模擬了大腦的神經(jīng)網(wǎng)絡(luò)。這種方法依賴于從數(shù)據(jù)中學(xué)習(xí)和適應(yīng),而不是依賴預(yù)定義的規(guī)則。連接主義AI的典型例子是深度學(xué)習(xí)。

Cross-modal Generalization(跨模態(tài)泛化):是一種機(jī)器學(xué)習(xí)能力,指的是模型能從一種模態(tài)(或類型)的數(shù)據(jù)中學(xué)習(xí),并將這些學(xué)習(xí)應(yīng)用到另一種模態(tài)的數(shù)據(jù)上。

Data Augmentation(數(shù)據(jù)增強(qiáng)):是一種通過對原始訓(xùn)練數(shù)據(jù)進(jìn)行隨機(jī)變換或擴(kuò)充的方法,以增加模型的多樣性和泛化能力。通過添加現(xiàn)有數(shù)據(jù)的略微修改的副本來增加用于訓(xùn)練模型的數(shù)據(jù)量和多樣性的過程。

Deep Learning(深度學(xué)習(xí)):是一種機(jī)器學(xué)習(xí)的分支,以人工神經(jīng)網(wǎng)絡(luò)為架構(gòu),對數(shù)據(jù)進(jìn)行表征學(xué)習(xí)的算法。深度學(xué)習(xí)中的形容詞“深度”是指在網(wǎng)絡(luò)中使用多層。

DeepMind(深度思維):是一家人工智能研究實(shí)驗(yàn)室,致力于推動人工智能的前沿研究,曾開發(fā)出AlphaGo等領(lǐng)先的人工智能系統(tǒng)。

Diffusion Models(擴(kuò)散模型):在機(jī)器學(xué)習(xí)中,是一類潛變量模型,用于訓(xùn)練馬爾可夫鏈。在計(jì)算機(jī)視覺中,通過學(xué)習(xí)逆擴(kuò)散過程訓(xùn)練神經(jīng)網(wǎng)絡(luò),使其能夠?qū)ΟB加了高斯噪聲的圖像進(jìn)行去噪。它是DALL-E、Stable Diffusion和Midiourney的基礎(chǔ)模型。

Double Descent(雙降):指機(jī)器學(xué)習(xí)中的一種現(xiàn)象,其中模型性能隨著復(fù)雜性的增加而提高,然后變差,然后再次提高。

Embedding(嵌入):在機(jī)器學(xué)習(xí)中,指的是將高維數(shù)據(jù)映射到低維空間的過程,常用于表示詞向量或圖像特征。

Emergence(涌現(xiàn)):是一種現(xiàn)象,許多小實(shí)體相互作用后形成了具有小實(shí)體不具備特性的大實(shí)體。在整合層次和復(fù)雜系統(tǒng)理論中,涌現(xiàn)扮演著核心角色。例如,生物學(xué)中的生命現(xiàn)象即是化學(xué)的一種涌現(xiàn)。

End-to-End Learning(端到端學(xué)習(xí)):是一種無需手動設(shè)計(jì)功能的機(jī)器學(xué)習(xí)模型。該模型提供原始數(shù)據(jù),期望從這些輸入中學(xué)習(xí)。

Expert Systems(專家系統(tǒng)):是一種使用專業(yè)知識和規(guī)則來模擬人類專家決策過程的人工智能系統(tǒng)。

Few-Shot Learning(小樣本學(xué)習(xí)):旨在從少量樣本中學(xué)習(xí)解決問題的方法。與小樣本學(xué)習(xí)相關(guān)的概念還包括零樣本學(xué)習(xí)(在沒有訓(xùn)練數(shù)據(jù)的情況下利用類別屬性等信息訓(xùn)練模型,從而識別新類別)。

Fine-Tuning(微調(diào)):是遷移學(xué)習(xí)的一種常用技術(shù)。目標(biāo)模型在除去輸出層的源模型上進(jìn)行復(fù)制,并在目標(biāo)數(shù)據(jù)集上微調(diào)這些參數(shù)。在自然語言處理(NLP)中尤為常見。

Fitting(擬合):是在機(jī)器學(xué)習(xí)和統(tǒng)計(jì)學(xué)中描述或預(yù)測數(shù)據(jù)的過程。理想的擬合是模型能夠準(zhǔn)確捕捉數(shù)據(jù)的基本結(jié)構(gòu)和模式,同時處理一些隨機(jī)的、無法預(yù)測的噪聲。

Forward Propagation(前向傳播):在神經(jīng)網(wǎng)絡(luò)中,是指輸入數(shù)據(jù)通過每一層(從輸入層到輸出層)產(chǎn)生輸出的過程。網(wǎng)絡(luò)對輸入應(yīng)用權(quán)重和偏差,并使用激活函數(shù)生成最終輸出。

Foundation Model(基礎(chǔ)模型):是在廣泛數(shù)據(jù)上訓(xùn)練的大型AI模型,旨在適應(yīng)特定任務(wù)。

GAN(General Adversarial Network):是一種機(jī)器學(xué)習(xí)模型,通過使兩個神經(jīng)網(wǎng)絡(luò)相互對抗(一個生成器創(chuàng)建新數(shù)據(jù),另一個鑒別器試圖將數(shù)據(jù)與真實(shí)數(shù)據(jù)區(qū)分開)來生成類似于現(xiàn)有數(shù)據(jù)的新數(shù)據(jù)。

GPT-4(Generative Pre-trained Transformer 4):是由OpenAI公司于2023年3月14日發(fā)布的自回歸語言模型。相較于GPT-3和GPT-3.5模型,在各個方面都有所優(yōu)化。

GPU(Graphics Processing Unit):是一種高性能的專用處理器,常用于加速深度學(xué)習(xí)和圖形處理任務(wù)。

Generalize(廣義化):指將事物的定義修改或補(bǔ)充以使其適用于更大范圍,伴隨著將主體的定義或概念抽象化的過程。

Generalization Ability(泛化能力):是模型對新數(shù)據(jù)的適應(yīng)和預(yù)測能力,是評估模型性能的重要指標(biāo)之一。

Generative AI(生成式人工智能):是一類能夠生成新的、以前未見的數(shù)據(jù)的人工智能系統(tǒng),如圖像、文本等。

Gradient Descent(梯度下降):是一種通過沿?fù)p失函數(shù)梯度的反方向更新模型參數(shù)的優(yōu)化算法,以最小化損失。

Hallucinate(幻覺):在人工智能中,是指模型生成的內(nèi)容不基于實(shí)際數(shù)據(jù)或與現(xiàn)實(shí)明顯不同的現(xiàn)象。

Hidden Layer(隱藏層):是神經(jīng)網(wǎng)絡(luò)中介于輸入層和輸出層之間的層,用于學(xué)習(xí)輸入數(shù)據(jù)的抽象表示。

Hyperparameter Tuning(超參數(shù)調(diào)整):通過調(diào)整模型的超參數(shù)(如學(xué)習(xí)率、層數(shù)等)來提高模型性能的優(yōu)化過程。

Inference(推理):在機(jī)器學(xué)習(xí)中指使用經(jīng)過訓(xùn)練的模型對新數(shù)據(jù)進(jìn)行預(yù)測或分類的過程。

Instruction Tuning(指令調(diào)優(yōu)):在機(jī)器學(xué)習(xí)中指通過調(diào)整模型的指令或策略來改善性能的過程。

Knowledge Distillation(數(shù)據(jù)蒸餾):旨在將原始大數(shù)據(jù)集濃縮成小型數(shù)據(jù)集,使得在小數(shù)據(jù)集上訓(xùn)練的模型與在原數(shù)據(jù)集上訓(xùn)練的模型表現(xiàn)相似。這一技術(shù)在深度學(xué)習(xí)中得到廣泛應(yīng)用,特別是在模型壓縮和模型部署方面。它有助于將復(fù)雜模型轉(zhuǎn)化為更輕量級的版本,促進(jìn)模型的遷移學(xué)習(xí)和模型集成,提高模型的魯棒性和泛化能力。

LLM(Large Language Model):是由具有數(shù)十億或更多權(quán)重的神經(jīng)網(wǎng)絡(luò)組成的語言模型。通過自監(jiān)督學(xué)習(xí)或半監(jiān)督學(xué)習(xí)對大量未標(biāo)記文本進(jìn)行訓(xùn)練。

LSTM(Long Short-Term Memory):是一種用于處理序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)架構(gòu)。

Latent Space(潛在空間):指模型學(xué)到的數(shù)據(jù)的低維表示,其中隱藏了數(shù)據(jù)的關(guān)鍵特征。

Loss Function(損失函數(shù)):也稱為成本函數(shù),是機(jī)器學(xué)習(xí)模型在訓(xùn)練期間試圖最小化的函數(shù),量化了模型預(yù)測與真實(shí)值的距離。

Machine Learning(機(jī)器學(xué)習(xí)):是人工智能的一個分支,通過機(jī)器學(xué)習(xí)可以解決人工智能中的部分問題。它是實(shí)現(xiàn)人工智能的途徑之一,強(qiáng)調(diào)通過學(xué)習(xí)解決問題。

Mixture of Experts(專家組合):是一種機(jī)器學(xué)習(xí)技術(shù),通過訓(xùn)練多個專門的子模型(“專家”),并以依賴于輸入的方式組合它們的預(yù)測。

Multimodal(模態(tài)):在人工智能中,指可以理解和生成多種類型數(shù)據(jù)(如文本和圖像)信息的模型。

NLP(Natural Language Processing):是人工智能和語言學(xué)領(lǐng)域的分支學(xué)科,探討如何處理及運(yùn)用自然語言。NLP包括認(rèn)知、理解、生成等多方面步驟。

NeRF(Neural Radiance Fields):是一種用于渲染三維場景的神經(jīng)網(wǎng)絡(luò)模型。

Neural Network(神經(jīng)網(wǎng)絡(luò)):是一種受人腦啟發(fā)的人工智能模型,由連接單元或節(jié)點(diǎn)(神經(jīng)元)組成,用于接受輸入、進(jìn)行計(jì)算并產(chǎn)生輸出。

Objective Function(目標(biāo)函數(shù)):在機(jī)器學(xué)習(xí)中指用于衡量模型性能的函數(shù),模型的訓(xùn)練目標(biāo)是最小化或最大化這個函數(shù)。

OpenAI:是一家人工智能研究實(shí)驗(yàn)室,致力于推動人工智能的前沿研究,創(chuàng)造對人類有益的AI。

Overfitting(過擬合):在機(jī)器學(xué)習(xí)中指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在未見過的新數(shù)據(jù)上表現(xiàn)差的現(xiàn)象。過度擬合訓(xùn)練數(shù)據(jù)可能導(dǎo)致模型泛化能力差。

Parameters(參數(shù)):在機(jī)器學(xué)習(xí)模型中,指模型的權(quán)重和偏差等可調(diào)整的變量。

Pre-training(預(yù)訓(xùn)練):是一種機(jī)器學(xué)習(xí)的方法,通過在大規(guī)模數(shù)據(jù)上進(jìn)行初始訓(xùn)練,然后在特定任務(wù)上進(jìn)行微調(diào)。

Prompt Engineering(提示工程):是一種調(diào)整和優(yōu)化自然語言處理模型輸入提示的方法,以獲得更準(zhǔn)確和有針對性的輸出。

RLHF(Reinforcement Learning with Human Feedback):是一種結(jié)合強(qiáng)化學(xué)習(xí)和人類反饋的方法,用于改進(jìn)模型性能。

RNN(Recurrent Neural Network):是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

Regularization(正則化):是一種用于減小模型過擬合風(fēng)險(xiǎn)的技術(shù),通過對模型參數(shù)引入額外的懲罰項(xiàng)。

Reinforcement Learning(強(qiáng)化學(xué)習(xí)):是機(jī)器學(xué)習(xí)的一個領(lǐng)域,強(qiáng)調(diào)如何基于環(huán)境而行動,以取得最大化的預(yù)期利益。是除了監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)之外的第三種機(jī)器學(xué)習(xí)方法。

Singularity(奇點(diǎn)):在人工智能的背景下,奇點(diǎn)(技術(shù)奇點(diǎn))指的是未來的一個假設(shè)時間點(diǎn),當(dāng)技術(shù)增長變得不可控和不可逆轉(zhuǎn)時,將導(dǎo)致人類文明發(fā)生不可預(yù)見的變化。

Supervised Learning(監(jiān)督學(xué)習(xí)):是一種機(jī)器學(xué)習(xí)方法,模型通過從有標(biāo)簽的訓(xùn)練數(shù)據(jù)中學(xué)習(xí),通過最小化預(yù)測和實(shí)際標(biāo)簽之間的差異來訓(xùn)練模型。

Symbolic AI(符號主義):也被稱為基于規(guī)則的AI或邏輯主義。符號主義認(rèn)為所有知識和推理都可以用符號和規(guī)則來表示。這種方法依賴于明確定義的規(guī)則和符號,通過邏輯推理解決問題。專家系統(tǒng)是符號主義AI的典型例子。

TPU(Tensor Processing Unit):是由谷歌設(shè)計(jì)的專用硬件,用于高效進(jìn)行張量運(yùn)算,特別適用于深度學(xué)習(xí)任務(wù)。

TensorFlow:是由谷歌開發(fā)的開源機(jī)器學(xué)習(xí)框架,用于構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。

Token(標(biāo)記):在自然語言處理中,指的是文本中的基本單元,可以是一個單詞、一個字符或一個子詞。

Training Data(訓(xùn)練數(shù)據(jù)):用于訓(xùn)練機(jī)器學(xué)習(xí)模型的數(shù)據(jù)集,包含輸入特征和相應(yīng)的標(biāo)簽。

Transfer Learning(遷移學(xué)習(xí)):是一種機(jī)器學(xué)習(xí)方法,通過在一個任務(wù)上學(xué)到的知識來改善在另一個相關(guān)任務(wù)上的性能。

Transformer(變壓器):是一種處理序列數(shù)據(jù)的模型架構(gòu),通過自注意力機(jī)制實(shí)現(xiàn)了對序列的全局關(guān)注。

Turing Test(圖靈測試):是一種測試人工智能是否能夠表現(xiàn)得像人類一樣的方法,即能否欺騙人類判別其是否為機(jī)器。

Underfitting(欠擬合):在機(jī)器學(xué)習(xí)中指的是模型對訓(xùn)練數(shù)據(jù)學(xué)得不夠好,不能很好地適應(yīng)新數(shù)據(jù)。

Unsupervised Learning(無監(jiān)督學(xué)習(xí)):是一種機(jī)器學(xué)習(xí)方法,模型從沒有標(biāo)簽的數(shù)據(jù)中學(xué)習(xí),目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)中的模式和結(jié)構(gòu)。

Validation Data(驗(yàn)證數(shù)據(jù)):用于調(diào)整模型超參數(shù)的數(shù)據(jù)集,不用于模型的訓(xùn)練,而是用于評估模型性能。

Vector(向量):在數(shù)學(xué)和機(jī)器學(xué)習(xí)中指的是具有大小和方向的量,常用于表示特征或嵌入。

XAI(Explainable Artificial Intelligence):是一種人工智能方法,強(qiáng)調(diào)模型決策的可解釋性和可理解性。

Zero-Shot(零樣本學(xué)習(xí)):是一種機(jī)器學(xué)習(xí)范例,使用預(yù)先訓(xùn)練的深度學(xué)習(xí)模型來泛化新類別的樣本。其思路是將訓(xùn)練實(shí)例中已包含的知識遷移到測試實(shí)例分類的任務(wù)中。需要注意,零樣本學(xué)習(xí)中訓(xùn)練和測試集是不相交的。

歡迎各位讀者提出批評和建議,大家有什么感興趣的內(nèi)容話題或者想了解的技術(shù)知識可以進(jìn)行評論留言,咱們一同討論,有好的學(xué)習(xí)資源我也會第一時間分享給各位,共同學(xué)習(xí)人工智能領(lǐng)域的知識。

來源:智能的大西瓜

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 微處理器
    +關(guān)注

    關(guān)注

    11

    文章

    2229

    瀏覽量

    82201
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29359

    瀏覽量

    267635
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46316

    瀏覽量

    236469

原文標(biāo)題:常用AI名詞解釋(純干貨!?。。?/p>

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電視系統(tǒng)名詞解釋

    電視系統(tǒng)名詞解釋
    發(fā)表于 09-25 14:17

    計(jì)算機(jī)相關(guān)的名詞解釋 精選資料分享

    當(dāng)我們參考計(jì)算機(jī)系統(tǒng)或驅(qū)動相關(guān)書籍時,書中通常會提起一些縮寫名詞,比如:BIOS、MMU、DSP、DMA、MIPS等,它們具體表示什么呢?本篇文章將介紹這些常用名詞的含義以及實(shí)際用途(名詞解釋
    發(fā)表于 07-27 06:02

    常用無線電名詞解釋

    常用無線電名詞解釋 直流  直流是直流電的簡稱。一般是指方向不隨時間變化的電流。 交流  交流
    發(fā)表于 05-04 20:46 ?1433次閱讀

    天線名詞解釋

    天線名詞解釋 天線的方向性:是指天線向一定方向輻射電磁波的能力。它的這種能力可采用方向圖,方向圖主瓣
    發(fā)表于 10-20 15:23 ?2122次閱讀

    充電的名詞解釋

    充電的名詞解釋 1)充電率(C-rate) C是Capacity的第一個
    發(fā)表于 11-10 13:57 ?2568次閱讀

    電池名詞解釋(二)

    電池名詞解釋(二) ▓前言     在電池的領(lǐng)域中,有許多專有名詞,使用者通常對其真正的函意,大多
    發(fā)表于 11-14 10:51 ?1029次閱讀

    iPhone/Touch名詞解釋(一)

    iPhone/Touch名詞解釋(一) 什么是:"激活A(yù)ctivate" 表示沒有簽署協(xié)議的用戶可以激活使用i
    發(fā)表于 01-27 09:30 ?1193次閱讀

    iPhone名詞解釋(二)

    iPhone名詞解釋(二) 什么是PwangeTool?什么是QuickPwn?什么是BootNeuter? PwangeTool是一款Mac端的用于越獄和破解iPhone的程序。Q
    發(fā)表于 01-27 09:34 ?841次閱讀

    視頻常用名詞解釋

    視頻常用名詞解釋·Digital Video 數(shù)字視頻     數(shù)字視頻就是先用攝像機(jī)之類的視頻捕捉設(shè)備,將外界影像的顏色和亮度信息轉(zhuǎn)變?yōu)殡娦?/div>
    發(fā)表于 02-06 15:44 ?2781次閱讀

    常見半導(dǎo)體名詞解釋

    本文主要陳述相關(guān)常見半導(dǎo)體的名詞解釋。
    發(fā)表于 02-07 17:43 ?7356次閱讀

    無線電通信名詞解釋

    無線電通信名詞解釋,通信專業(yè)方面專有名詞解釋
    發(fā)表于 01-12 17:41 ?26次下載

    自動控制原理常用名詞解釋

    自動控制原理常用名詞解釋
    發(fā)表于 12-20 22:19 ?0次下載

    最新105個新電氣名詞解釋說明

    本文主要介紹了105個新電氣名詞解釋說明。
    發(fā)表于 06-24 08:00 ?0次下載
    最新105個新電氣<b class='flag-5'>名詞解釋</b>說明

    入門知識:單片機(jī)常用名詞解釋

    入門知識:單片機(jī)常用名詞解釋
    的頭像 發(fā)表于 06-19 16:59 ?5178次閱讀

    一文了解通信技術(shù)的常用名詞解釋

    一文了解通信技術(shù)的常用名詞解釋
    的頭像 發(fā)表于 06-19 17:55 ?5876次閱讀