0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

生成式AI的定義和特征

CHANBAEK ? 來(lái)源:網(wǎng)絡(luò)整理 ? 2024-07-05 17:33 ? 次閱讀

引言

生成式人工智能(Generative Artificial Intelligence, GAI)是人工智能領(lǐng)域的一個(gè)重要分支,它利用機(jī)器學(xué)習(xí)算法,特別是深度學(xué)習(xí)技術(shù),使計(jì)算機(jī)能夠模擬人類的創(chuàng)造性行為,生成全新的、具有實(shí)際意義的數(shù)據(jù)或內(nèi)容。這種技術(shù)已經(jīng)在自然語(yǔ)言處理、圖像生成、音頻合成等多個(gè)領(lǐng)域展現(xiàn)出巨大的潛力和應(yīng)用價(jià)值。本文將詳細(xì)探討生成式AI的定義、特征類,并通過(guò)代碼示例展示其在實(shí)際應(yīng)用中的實(shí)現(xiàn)。

生成式AI的定義

生成式AI是一種利用機(jī)器學(xué)習(xí)算法,特別是生成模型,從大量數(shù)據(jù)中學(xué)習(xí)并生成新數(shù)據(jù)或內(nèi)容的技術(shù)。其核心在于讓計(jì)算機(jī)模型學(xué)會(huì)從數(shù)據(jù)中提取規(guī)律,并據(jù)此創(chuàng)造出與輸入數(shù)據(jù)相似但又不同的新數(shù)據(jù)。與傳統(tǒng)的判別式AI(Discriminative AI)不同,生成式AI不僅關(guān)注于數(shù)據(jù)的分類或預(yù)測(cè),更側(cè)重于數(shù)據(jù)的生成和創(chuàng)造。

生成式AI的特征

生成式AI具有多種特征,這些特征共同構(gòu)成了其強(qiáng)大的生成能力和廣泛的應(yīng)用前景。以下是幾個(gè)主要的特征類:

  1. 多樣性 :生成式AI能夠生成多樣化的數(shù)據(jù),包括但不限于圖像、文本、音頻等。這種多樣性使得它在多個(gè)領(lǐng)域都有廣泛的應(yīng)用。
  2. 創(chuàng)新性 :生成式AI能夠創(chuàng)造出全新的、前所未有的內(nèi)容,這在一定程度上模擬了人類的創(chuàng)造性過(guò)程。
  3. 可解釋性 :部分生成式AI模型(如變分自編碼器VAE)能夠解釋生成數(shù)據(jù)的概率分布,有助于理解數(shù)據(jù)的內(nèi)在結(jié)構(gòu)。
  4. 高效性 :隨著計(jì)算能力的提升和算法的優(yōu)化,生成式AI能夠在短時(shí)間內(nèi)生成大量高質(zhì)量的數(shù)據(jù)。
  5. 自主學(xué)習(xí) :生成式AI模型,如生成對(duì)抗網(wǎng)絡(luò)(GAN),能夠在訓(xùn)練過(guò)程中自主學(xué)習(xí)并優(yōu)化生成策略,無(wú)需人為設(shè)定生成數(shù)據(jù)的分布。

代碼示例

為了更直觀地展示生成式AI的實(shí)現(xiàn),我們將通過(guò)兩個(gè)具體的例子——使用變分自編碼器(VAE)生成圖像和使用生成對(duì)抗網(wǎng)絡(luò)(GAN)生成手寫數(shù)字——來(lái)展示其代碼實(shí)現(xiàn)。

1. 使用變分自編碼器(VAE)生成圖像

VAE是一種基于概率生成模型的生成式算法,它將輸入數(shù)據(jù)映射到一個(gè)潛在空間,并從該空間中采樣生成新的數(shù)據(jù)。以下是一個(gè)簡(jiǎn)化的VAE模型示例,用于生成手寫數(shù)字圖像(使用MNIST數(shù)據(jù)集):

import torch  
from torch import nn  
from torch.nn import functional as F  
from torchvision import datasets, transforms  
  
class VAE(nn.Module):  
    def __init__(self):  
        super(VAE, self).__init__()  
  
        # Encoder  
        self.fc1 = nn.Linear(784, 400)  
        self.fc21 = nn.Linear(400, 20)  # Mean layer  
        self.fc22 = nn.Linear(400, 20)  # Log variance layer  
  
        # Decoder  
        self.fc3 = nn.Linear(20, 400)  
        self.fc4 = nn.Linear(400, 784)  
  
    def encode(self, x):  
        h1 = F.relu(self.fc1(x))  
        return self.fc21(h1), self.fc22(h1)  
  
    def reparameterize(self, mu, logvar):  
        std = torch.exp(0.5*logvar)  
        eps = torch.randn_like(std)  
        return mu + eps*std  
  
    def decode(self, z):  
        h3 = F.relu(self.fc3(z))  
        return torch.sigmoid(self.fc4(h3))  
  
    def forward(self, x):  
        mu, logvar = self.encode(x.view(-1, 784))  
        z = self.reparameterize(mu, logvar)  
        return self.decode(z), mu, logvar  
  
# 數(shù)據(jù)加載和預(yù)處理  
transform = transforms.Compose([transforms.ToTensor(),  
                                transforms.Normalize((0.5,), (0.5,))])  
train_loader = datasets.MNIST(root='./data', train=True, download=True, transform=transform)  
  
# 實(shí)例化模型和優(yōu)化器  
model = VAE()  
optimizer = torch.optim.Adam(model.parameters(), lr=1e-3)  
  
# 訓(xùn)練過(guò)程(簡(jiǎn)化)  
for epoch in range(num_epochs):  
    for data in train_loader:  
        img, _ = data  
        img = img.view(img.size(0), -1)  
        recon, mu, logvar = model(img)
# Reconstruction loss  
    BCE = F.binary_cross_entropy(recon, img.view(recon.size(0), -1), reduction='sum')  
      
    # KL divergence loss  
    KLD = -0.5 * torch.sum(1 + logvar - mu.pow(2) - logvar.exp())  
      
    # Total loss  
    loss = BCE + KLD  
      
    # Backward + Optimize  
    optimizer.zero_grad()  
    loss.backward()  
    optimizer.step()  

    # Logging  
    if (epoch+1) % 10 == 0:  
        print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')
2. 使用生成對(duì)抗網(wǎng)絡(luò)(GAN)生成手寫數(shù)字

GAN由兩部分組成:生成器(Generator)和判別器(Discriminator)。生成器負(fù)責(zé)生成盡可能逼真的數(shù)據(jù),而判別器則負(fù)責(zé)區(qū)分生成的數(shù)據(jù)和真實(shí)數(shù)據(jù)。以下是一個(gè)簡(jiǎn)單的GAN模型,用于生成手寫數(shù)字:

import torch  
from torch import nn  
from torch.optim import Adam  
from torchvision import datasets, transforms  
  
class Generator(nn.Module):  
    def __init__(self):  
        super(Generator, self).__init__()  
        self.main = nn.Sequential(  
            nn.Linear(100, 256),  
            nn.LeakyReLU(0.2),  
            nn.Linear(256, 512),  
            nn.LeakyReLU(0.2),  
            nn.Linear(512, 1024),  
            nn.LeakyReLU(0.2),  
            nn.Linear(1024, 784),  
            nn.Tanh()  
        )  
  
    def forward(self, input):  
        return self.main(input)  
  
class Discriminator(nn.Module):  
    def __init__(self):  
        super(Discriminator, self).__init__()  
        self.main = nn.Sequential(  
            nn.Linear(784, 1024),  
            nn.LeakyReLU(0.2),  
            nn.Linear(1024, 512),  
            nn.LeakyReLU(0.2),  
            nn.Linear(512, 256),  
            nn.LeakyReLU(0.2),  
            nn.Linear(256, 1),  
            nn.Sigmoid()  
        )  
  
    def forward(self, input):  
        return self.main(input)  
  
# 數(shù)據(jù)加載和預(yù)處理  
transform = transforms.Compose([transforms.ToTensor(),  
                                transforms.Normalize((0.5,), (0.5,))])  
train_loader = datasets.MNIST(root='./data', train=True, download=True, transform=transform)  
  
# 實(shí)例化模型和優(yōu)化器  
G = Generator()  
D = Discriminator()  
G_optimizer = Adam(G.parameters(), lr=0.0002)  
D_optimizer = Adam(D.parameters(), lr=0.0002)  
  
# 訓(xùn)練過(guò)程(簡(jiǎn)化)  
for epoch in range(num_epochs):  
    for data in train_loader:  
        real_images, _ = data  
        real_labels = torch.ones(batch_size, 1)  
        fake_labels = torch.zeros(batch_size, 1)  
  
        # Train Discriminator  
        D_optimizer.zero_grad()  
        outputs = D(real_images)  
        d_loss_real = F.binary_cross_entropy(outputs, real_labels)  
        z = torch.randn(batch_size, 100)  
        fake_images = G(z)  
        outputs = D(fake_images.detach())  
        d_loss_fake = F.binary_cross_entropy(outputs, fake_labels)  
        d_loss = d_loss_real + d_loss_fake  
        d_loss.backward()  
        D_optimizer.step()  
  
        # Train Generator  
        G_optimizer.zero_grad()  
        z = torch.randn(batch_size, 100)  
        fake_images = G(z)  
        outputs = D(fake_images)  
        g_loss = F.binary_cross_entropy(outputs, real_labels)  
        g_loss.backward()  
        G_optimizer optimizer.step()

可以在這里添加額外的代碼來(lái)監(jiān)控訓(xùn)練進(jìn)度,比如保存模型、繪制損失圖等。

注意:上面的代碼是一個(gè)簡(jiǎn)化的GAN訓(xùn)練過(guò)程,實(shí)際中可能需要更復(fù)雜的設(shè)置,比如:

  1. 標(biāo)簽平滑(Label Smoothing) :可以減少判別器的過(guò)度自信,有助于生成器生成更真實(shí)的數(shù)據(jù)。
  2. 特征匹配(Feature Matching) :通過(guò)匹配生成數(shù)據(jù)和真實(shí)數(shù)據(jù)在判別器中間層的特征,來(lái)訓(xùn)練生成器。
  3. 學(xué)習(xí)率衰減(Learning Rate Decay) :隨著訓(xùn)練的進(jìn)行,逐漸降低學(xué)習(xí)率,有助于模型更細(xì)致地調(diào)整參數(shù)。
  4. Batch Normalization 和 Spectral Normalization :在GAN中,這些技術(shù)可以幫助穩(wěn)定訓(xùn)練過(guò)程,防止模式崩潰等問(wèn)題。
  5. 保存和加載模型 :在訓(xùn)練過(guò)程中定期保存模型,以便在訓(xùn)練完成后或在后續(xù)研究中復(fù)用。
  6. 可視化結(jié)果 :將生成的圖像定期保存并可視化,以直觀地評(píng)估GAN的生成質(zhì)量。
  7. 評(píng)估指標(biāo) :雖然GAN通常通過(guò)主觀的視覺(jué)評(píng)估來(lái)評(píng)價(jià),但也可以使用一些客觀指標(biāo),如Inception Score和Fréchet Inception Distance(FID),來(lái)量化生成圖像的質(zhì)量。
  8. 使用預(yù)訓(xùn)練的模型 :在某些情況下,使用預(yù)訓(xùn)練的判別器或生成器可以加速訓(xùn)練過(guò)程或提高生成質(zhì)量。

在實(shí)際應(yīng)用中,GAN的設(shè)計(jì)和訓(xùn)練是一個(gè)高度迭代和實(shí)驗(yàn)性的過(guò)程,需要不斷地調(diào)整和優(yōu)化才能達(dá)到最佳效果。

當(dāng)然,我們可以繼續(xù)探討GAN訓(xùn)練過(guò)程中的一些高級(jí)技巧和最佳實(shí)踐。

1. 平衡生成器和判別器的訓(xùn)練

在GAN中,生成器和判別器是相互競(jìng)爭(zhēng)的,因此它們的訓(xùn)練需要保持平衡。如果判別器變得過(guò)強(qiáng),它可能會(huì)拒絕所有來(lái)自生成器的樣本,導(dǎo)致生成器無(wú)法從錯(cuò)誤中學(xué)習(xí)。相反,如果生成器變得過(guò)強(qiáng),判別器可能會(huì)無(wú)法從真實(shí)數(shù)據(jù)和生成數(shù)據(jù)之間做出有效區(qū)分,這也會(huì)阻礙訓(xùn)練。

為了平衡這兩個(gè)網(wǎng)絡(luò),一種常見(jiàn)的方法是讓判別器在每個(gè)訓(xùn)練迭代中更新多次(例如,每次生成器更新前讓判別器更新5次)。然而,這種方法需要仔細(xì)調(diào)整以避免判別器過(guò)擬合訓(xùn)練數(shù)據(jù)。

2. 使用Wasserstein GAN (WGAN) 和其變體

傳統(tǒng)GAN使用JS散度或KL散度來(lái)衡量真實(shí)數(shù)據(jù)分布和生成數(shù)據(jù)分布之間的差異,但這些散度在不相交分布的情況下可能無(wú)法提供有意義的梯度。WGAN通過(guò)最小化Wasserstein距離(也稱為Earth-Mover距離)來(lái)改進(jìn)這一點(diǎn),它通常能提供更穩(wěn)定的訓(xùn)練過(guò)程和更好的生成質(zhì)量。

WGAN的關(guān)鍵改進(jìn)包括:

  • 使用絕對(duì)值裁剪或梯度懲罰來(lái)限制判別器的權(quán)重,以滿足1-Lipschitz約束。
  • 去掉判別器輸出層的Sigmoid激活函數(shù),并最小化真實(shí)樣本和生成樣本評(píng)分之間的差異。

3. 損失函數(shù)的調(diào)整

除了上述的WGAN損失外,還可以嘗試其他類型的損失函數(shù)來(lái)改進(jìn)GAN的性能。例如:

  • 最小二乘GAN(LSGAN)使用最小二乘損失而不是傳統(tǒng)的交叉熵?fù)p失,這有助于減少梯度消失問(wèn)題并產(chǎn)生更高質(zhì)量的圖像。
  • Hinge損失也被證明在某些情況下能夠改善GAN的訓(xùn)練穩(wěn)定性。

4. 架構(gòu)選擇

生成器和判別器的架構(gòu)對(duì)GAN的性能有很大影響。深度殘差網(wǎng)絡(luò)(ResNets)、卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和自注意力機(jī)制等現(xiàn)代網(wǎng)絡(luò)架構(gòu)已被用于構(gòu)建更強(qiáng)大的GAN。例如,ProgressiveGAN和StyleGAN就采用了復(fù)雜的生成器架構(gòu)來(lái)生成高分辨率、高質(zhì)量的圖像。

5. 早期停止和正則化

為了防止過(guò)擬合,可以使用早期停止技術(shù)來(lái)監(jiān)控驗(yàn)證集上的性能,并在性能開(kāi)始下降時(shí)停止訓(xùn)練。此外,還可以應(yīng)用各種正則化技術(shù),如L1/L2正則化、Dropout和批歸一化(Batch Normalization),來(lái)穩(wěn)定訓(xùn)練過(guò)程并提高泛化能力。

6. 數(shù)據(jù)增強(qiáng)

雖然GAN通常用于生成新數(shù)據(jù),但數(shù)據(jù)增強(qiáng)技術(shù)也可以用于增強(qiáng)訓(xùn)練數(shù)據(jù)集的多樣性,從而提高GAN的泛化能力。例如,可以對(duì)真實(shí)圖像應(yīng)用旋轉(zhuǎn)、縮放、裁剪和顏色變換等操作來(lái)生成額外的訓(xùn)練樣本。

7. 多階段訓(xùn)練

在某些情況下,可以采用多階段訓(xùn)練策略來(lái)逐步提高GAN的性能。例如,可以先在低分辨率下訓(xùn)練GAN,然后逐漸增加分辨率,直到達(dá)到所需的圖像質(zhì)量。這種方法有助于穩(wěn)定訓(xùn)練過(guò)程并減少計(jì)算資源的需求。

8. 實(shí)驗(yàn)和調(diào)試

最后,GAN的訓(xùn)練通常需要大量的實(shí)驗(yàn)和調(diào)試。由于GAN的行為高度依賴于其架構(gòu)、損失函數(shù)、優(yōu)化器和超參數(shù)的選擇,因此需要進(jìn)行廣泛的實(shí)驗(yàn)來(lái)找到最佳配置。此外,監(jiān)控訓(xùn)練過(guò)程中的損失曲線、生成圖像的質(zhì)量和多樣性等指標(biāo)也是非常重要的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7289

    瀏覽量

    87518
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46316

    瀏覽量

    236479
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    472

    瀏覽量

    436
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI作畫大受追捧,生成AI技術(shù)的機(jī)會(huì)與挑戰(zhàn)!

    特征,不是簡(jiǎn)單的重復(fù)。 生成AI的關(guān)鍵技術(shù)是生成對(duì)抗網(wǎng)絡(luò)(GANs, Generative
    的頭像 發(fā)表于 10-17 08:15 ?2469次閱讀

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成 AI 模型

    Foundry 提供從數(shù)據(jù)策管、合成數(shù)據(jù)生成、微調(diào)、檢索、防護(hù)到評(píng)估的全方位生成 AI 模型服務(wù),以便部署自定義 Llama 3.1 N
    發(fā)表于 07-24 09:39 ?663次閱讀
    NVIDIA <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自<b class='flag-5'>定義</b> Llama 3.1 <b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 模型

    Python特征生成作用和生成的方法

    的,好的特征可以顯著地提升模型效果。這意味著通過(guò)特征生成(即從數(shù)據(jù)設(shè)計(jì)加工出模型可用特征),是特征工程相當(dāng)關(guān)鍵的一步。 本文從
    的頭像 發(fā)表于 03-10 15:53 ?2102次閱讀
    Python<b class='flag-5'>特征</b><b class='flag-5'>生成</b>作用和<b class='flag-5'>生成</b>的方法

    什么是生成AI?生成AI的四大優(yōu)勢(shì)

    生成AI是一種特定類型的AI,專注于生成新內(nèi)容,如文本、圖像和音樂(lè)。這些系統(tǒng)在大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,并使用機(jī)器學(xué)習(xí)算法
    發(fā)表于 05-29 14:12 ?4394次閱讀

    虹軟圖像深度恢復(fù)技術(shù)與生成AI的創(chuàng)新 生成AI助力

    當(dāng)前,生成人工智能(AI)技術(shù)的快速發(fā)展令人矚目。它能夠理解人類的描述,并在短時(shí)間內(nèi)生成逼真的圖像和視頻。在生成
    發(fā)表于 06-21 09:06 ?420次閱讀

    利用 NVIDIA Jetson 實(shí)現(xiàn)生成 AI

    近日,NVIDIA 發(fā)布了 Jetson 生成 AI 實(shí)驗(yàn)室(Jetson Generative AI Lab),使開(kāi)發(fā)者能夠通過(guò) NVIDIA Jetson 邊緣設(shè)備在現(xiàn)實(shí)世界中探
    的頭像 發(fā)表于 11-07 21:25 ?838次閱讀
    利用 NVIDIA Jetson 實(shí)現(xiàn)<b class='flag-5'>生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b>

    NVIDIA 加快企業(yè)自定義生成 AI 模型開(kāi)發(fā)

    的業(yè)務(wù)數(shù)據(jù)進(jìn)行自定義。 如今,免費(fèi)、開(kāi)源的大語(yǔ)言模型對(duì)企業(yè)來(lái)說(shuō)就像是一頓“自助餐”。但對(duì)于構(gòu)建自定義生成 AI 應(yīng)用的開(kāi)發(fā)者來(lái)說(shuō),這頓“大餐”可能會(huì)讓他們應(yīng)接不暇,因?yàn)樗麄冃枰獫M足各
    的頭像 發(fā)表于 11-16 21:15 ?523次閱讀
    NVIDIA 加快企業(yè)自<b class='flag-5'>定義生成</b><b class='flag-5'>式</b> <b class='flag-5'>AI</b> 模型開(kāi)發(fā)

    生成AI技術(shù)的應(yīng)用前景

    生成 AI(人工智能)與我們熟知的 AI 有何不同?這篇文章將為我們一探究竟!
    的頭像 發(fā)表于 11-29 12:20 ?1213次閱讀

    生成AI手機(jī)出貨量或?qū)w速增長(zhǎng),市場(chǎng)份額提升顯著

    同時(shí),反轉(zhuǎn)點(diǎn)還預(yù)期,至2027年,生成AI智慧型手機(jī)的市場(chǎng)保有量將超過(guò)10億部。按照其定義生成
    的頭像 發(fā)表于 04-16 16:55 ?564次閱讀

    MediaTek攜手生態(tài)伙伴聯(lián)合發(fā)布《生成AI手機(jī)產(chǎn)業(yè)白皮書》,共同定義生成AI手機(jī)

    Lab、騰訊混元、vivo等生態(tài)伙伴*,聯(lián)合發(fā)布《生成AI手機(jī)產(chǎn)業(yè)白皮書》,共同定義了“生成
    發(fā)表于 05-07 10:25 ?166次閱讀

    聯(lián)發(fā)科聯(lián)合生態(tài)伙伴推出《生成AI手機(jī)產(chǎn)業(yè)白皮書》,生成AI手機(jī)發(fā)展路線明確了!

    深入探討,同時(shí),聯(lián)發(fā)科展示了其天璣AI生態(tài)戰(zhàn)略以及終端生成AI應(yīng)用開(kāi)發(fā)的一站解決方案——“天璣AI
    的頭像 發(fā)表于 05-07 16:34 ?370次閱讀
    聯(lián)發(fā)科聯(lián)合生態(tài)伙伴推出《<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>手機(jī)產(chǎn)業(yè)白皮書》,<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>手機(jī)發(fā)展路線明確了!

    MediaTek攜手生態(tài)伙伴聯(lián)合發(fā)布《生成AI手機(jī)產(chǎn)業(yè)白皮書》

    、騰訊混元、vivo等生態(tài)伙伴*,聯(lián)合發(fā)布《生成AI手機(jī)產(chǎn)業(yè)白皮書》,共同定義了“生成
    的頭像 發(fā)表于 05-08 16:48 ?357次閱讀

    原來(lái)這才是【生成AI】??!

    隨著ChatGPT、文心一言等AI產(chǎn)品的火爆,生成AI已經(jīng)成為了大家茶余飯后熱議的話題。可是,為什么要在AI前面加上“
    的頭像 發(fā)表于 06-05 08:04 ?290次閱讀
    原來(lái)這才是【<b class='flag-5'>生成</b><b class='flag-5'>式</b><b class='flag-5'>AI</b>】!!

    生成AI與神經(jīng)網(wǎng)絡(luò)模型的區(qū)別和聯(lián)系

    生成AI與神經(jīng)網(wǎng)絡(luò)模型是現(xiàn)代人工智能領(lǐng)域的兩個(gè)核心概念,它們?cè)谕苿?dòng)技術(shù)進(jìn)步和應(yīng)用拓展方面發(fā)揮著至關(guān)重要的作用。本文將詳細(xì)探討生成
    的頭像 發(fā)表于 07-02 15:03 ?474次閱讀

    如何用C++創(chuàng)建簡(jiǎn)單的生成AI模型

    生成AI(Generative AI)是一種人工智能技術(shù),它通過(guò)機(jī)器學(xué)習(xí)模型和深度學(xué)習(xí)技術(shù),從大量歷史數(shù)據(jù)中學(xué)習(xí)對(duì)象的特征和規(guī)律,從而能夠
    的頭像 發(fā)表于 07-05 17:53 ?630次閱讀