0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Portrait Light背后的技術(shù)以及如何訓(xùn)練其機(jī)器學(xué)習(xí)模型

倩倩 ? 來源:互聯(lián)網(wǎng)分析沙龍 ? 作者:互聯(lián)網(wǎng)分析沙龍 ? 2020-12-19 10:41 ? 次閱讀

Google于去年9月發(fā)布了Pixel 4a 5G和Pixel 5設(shè)備的肖像燈功能。現(xiàn)在,他在他發(fā)布的博客文章中詳細(xì)說明了如何開發(fā)“肖像光”功能。

通過稍后對(duì)智能手機(jī)的相機(jī)進(jìn)行細(xì)微的更改,可以使使用智能手機(jī)的相機(jī)拍攝的照片印象更加深刻。Google的Portrait Light功能還可以改變光線的方向和強(qiáng)度,使照片更令人印象深刻。

Google于9月發(fā)布了其針對(duì)Pixel 4a 5G和Pixel 5設(shè)備的基于人工智能的功能。該公司在博客文章中詳細(xì)介紹了Portrait Light背后的技術(shù)以及如何訓(xùn)練其機(jī)器學(xué)習(xí)模型。

據(jù)報(bào)道,谷歌使用了數(shù)百萬張帶有和不帶有來自不同方向的多余光線的照片來訓(xùn)練這些模型之一。這家科技巨頭獲得了這些照片,這要?dú)w功于具有64個(gè)攝像頭和331個(gè)可編程LED光源的球形照明裝置。

流程并不僅限于此。拍攝了70人的不同膚色,面部形狀,性別,發(fā)型,衣服甚至配飾。該公司還培訓(xùn)了一個(gè)模型,該模型確定了自動(dòng)照明安裝的最佳照明配置文件。

盡管Google首次針對(duì)Pixel 4a 5G和Pixel 5設(shè)備發(fā)布了此功能,但是Portrait Light也可以在較舊的Pixel設(shè)備上使用。除了以上兩個(gè)設(shè)備,Pixel 4和Pixel 4a均將Portrait Light作為默認(rèn)模式。在較舊的Pixel型號(hào)中,編輯照片時(shí)可以從“設(shè)置”菜單激活“肖像燈”。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 智能手機(jī)
    +關(guān)注

    關(guān)注

    66

    文章

    18374

    瀏覽量

    179539
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1752

    瀏覽量

    57334
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46416

    瀏覽量

    236658
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    多個(gè)神經(jīng)網(wǎng)絡(luò)層組成,每個(gè)層都包含大量的神經(jīng)元和權(quán)重參數(shù)。 傳統(tǒng)機(jī)器學(xué)習(xí)模型規(guī)模相對(duì)較小,參數(shù)數(shù)量通常只有幾千到幾百萬個(gè),模型結(jié)構(gòu)相對(duì)簡(jiǎn)單。 二、
    的頭像 發(fā)表于 10-23 15:01 ?154次閱讀

    【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    今天來學(xué)習(xí)大語言模型在自然語言理解方面的原理以及問答回復(fù)實(shí)現(xiàn)。 主要是基于深度學(xué)習(xí)和自然語言處理技術(shù)。 大語言
    發(fā)表于 08-02 11:03

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個(gè)流行的Python集成開發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測(cè)試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝Py
    的頭像 發(fā)表于 07-11 10:14 ?564次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少
    的頭像 發(fā)表于 07-11 10:12 ?589次閱讀

    大語言模型的預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語言模型的預(yù)訓(xùn)練是這一技術(shù)發(fā)展的關(guān)鍵步驟,它通過在海量無標(biāo)簽數(shù)據(jù)上進(jìn)行訓(xùn)練,使模型
    的頭像 發(fā)表于 07-11 10:11 ?326次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型
    的頭像 發(fā)表于 07-10 15:45 ?2424次閱讀

    Al大模型機(jī)器

    豐富的知識(shí)儲(chǔ)備。它們可以涵蓋各種領(lǐng)域的知識(shí),并能夠回答相關(guān)問題。靈活性與通用性: AI大模型機(jī)器人具有很強(qiáng)的靈活性和通用性,能夠處理各種類型的任務(wù)和問題。持續(xù)學(xué)習(xí)和改進(jìn): 這些模型可以
    發(fā)表于 07-05 08:52

    人臉識(shí)別模型訓(xùn)練是什么意思

    人臉識(shí)別模型訓(xùn)練是指通過大量的人臉數(shù)據(jù),使用機(jī)器學(xué)習(xí)或深度學(xué)習(xí)算法,訓(xùn)練出一個(gè)能夠識(shí)別和分類人臉
    的頭像 發(fā)表于 07-04 09:16 ?398次閱讀

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    訓(xùn)練好的模型,這些模型通常在某些通用任務(wù)上表現(xiàn)出色,并且可以作為后續(xù)特定任務(wù)的起點(diǎn),通過遷移學(xué)習(xí)或微調(diào)(Fine-tuning)等方式進(jìn)行適應(yīng)和優(yōu)化。以下是對(duì)預(yù)
    的頭像 發(fā)表于 07-03 18:20 ?1868次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程以及
    的頭像 發(fā)表于 07-01 16:13 ?827次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    大語言模型的核心特點(diǎn)在于龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)
    發(fā)表于 05-07 17:10

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    全面剖析大語言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語言的基本表示,這是理解大語言模型技術(shù)的前提。接著,詳細(xì)介紹自然語言處理預(yù)訓(xùn)練的經(jīng)典
    發(fā)表于 05-05 12:17

    【大語言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    預(yù)訓(xùn)練和微調(diào),直到模型的部署和性能評(píng)估。以下是對(duì)這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transf
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗

    大語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語言文本。這些模型通過
    發(fā)表于 05-04 23:55

    深度學(xué)習(xí)如何訓(xùn)練出好的模型

    算法工程、數(shù)據(jù)派THU深度學(xué)習(xí)在近年來得到了廣泛的應(yīng)用,從圖像識(shí)別、語音識(shí)別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓(xùn)練出一個(gè)高效準(zhǔn)確的深度學(xué)習(xí)模型并不容易。不僅需要有高質(zhì)量的數(shù)
    的頭像 發(fā)表于 12-07 12:38 ?1012次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>如何<b class='flag-5'>訓(xùn)練</b>出好的<b class='flag-5'>模型</b>