国产九九视频一区二区三区_亚洲欧美资源在线_精品国产自在久精品国产_成人午夜黄色影院

  • 首頁 > 產經新聞頻道 > 科技資訊

    英偉達官方盤點2023年10大研究!「神經朗琪羅」秒變逼真大衛,用AI生成3D虛擬世界

    2023年12月25日 11:00:22 來源:新智元公眾號

      英偉達官方盤點2023年10大研究,從CV到AI,從智能體到生成式AI。英偉達不但現實世界中用GPU收割全世界,也在虛擬世界中用一項項匪夷所思的技術展開了一場革命。

      2023年,是人工智能爆炸式增長的一年。

      紅色代表人工智能,藍色代表機器學習

      微軟、谷歌、Meta等科技巨頭紛紛回顧了這一年研究成果。英偉達雖以賣算力成為全球GPU霸主,但在AI研究方面也毫不遜色。

      對此,Jim Fan本人總結了,英偉達2023年研究的十大看點。

      主題的主要分布:3個有關具身AI(機器人,虛擬角色);2個有關3D生成模型;2個圖形處理;2個圖像生成;1個視頻生成的研究。

      TOP1:「神經朗琪羅」讓16世紀的大衛復活

      來自英偉達和約翰霍普金斯大學的研究人員提出的新型AI模型,利用神經網絡重建3D物體。最新研究還被CVPR2023錄用。

      論文地址:https://research.nvidia.com/labs/dir/neuralangelo/paper.pdf

      特別是,Neuralangelo可以從手機視頻,無人機拍攝的視頻重建「高保真的大規模場景」。

      Neuralangelo這項研究曾被TIME雜志評為「2023年200個最佳發明」之一。

      以前的AI模型在重建3D場景時,往往難以準確捕捉到重復的紋理模式、均勻的顏色以及強烈的色彩變化。

      為此,團隊提出了一個將多分辨率3D哈希網格的表征能力和神經表面渲染相結合的全新方法——Neuralangelo。

      去年,英偉達研究人員曾創造了一種新工具3D MoMa,將照片變成3D物體易如反掌。

      NeuralAngelo建立在這一概念的基礎上,允許導入更大、更詳細的空間和對象。而它特別之處在于,可以準確捕捉重復的紋理模式、同質的顏色和強烈的顏色變化。

      通過采用「即時神經圖形基元」,也就是NVIDIA Instant NeRF技術的核心,Neuralangelo由此可以捕捉更細微的細節。

      團隊的方法依賴于2個關鍵要素:

      (1)用于計算高階導數作為平滑操作的數值梯度;

      (2)在控制不同細節級別的哈希網格上進行由粗到細的優化。

      即使沒有輔助深度,Neuralangelo也能有效地從多視圖圖像中恢復密集3D表面結構,其保真度顯著超過了以往的方法,使得能夠從RGB視頻捕捉中重建詳細的大規模場景。

      比如,Neuralangelo「復刻」出3D版的著名雕像大衛,大理石的細節、紋理栩栩如生。

      要知道,收藏在佛羅倫薩美術學院的大衛雕像,僅身高3.96米,加上基座都有5.5米。

      它甚至可以重建一棟建筑物的內外部結構,屋頂瓦片、玻璃窗格、還有各種細節都一一再現。

      TOP2:對標DreamFusion,英偉達3D生成模型速度更快

      Magic3D是一個可以從文字描述中生成3D模型的AI模型。

      論文地址:https://arxiv.org/pdf/2211.10440.pdf

      在輸入諸如「一只坐在睡蓮上的藍色毒鏢蛙」這樣的提示后,Magic3D在大約40分鐘內生成了一個3D網格模型,并配有彩色紋理。

      Magic3D還可以對3D網格進行基于提示的實時編輯。想改變生成模型,只要改改文字提示,就能立即生成新的模型。

      與谷歌DreamFusion方式類似,Magic3D同樣是將低分辨率生成的粗略模型優化為高分辨率的精細模型,由此產生的Magic3D方法,可以比DreamFusion更快地生成3D目標。

      從上面Magic3D的架構示意圖可以看出,Magic3D以「由粗到細」的方式從輸入的文本提示中生成高分辨率的三維內容。

      整個生成過程分為兩個階段。

      第一階段,研究團隊使用eDiff-I作為低分辨率文本-圖像擴散先驗。通過優化Instant NGP獲得初始3D表示。

      之后通過反復抽樣和渲染低分辨率圖像,不斷計算Score Distillation Sampling的損失來訓練Instant NGP。

      優化后使用DMTet,從Instant NGP中提取一個粗略模型,并使用哈希網格和稀疏加速結構對其進行加速。

      該擴散先驗用于計算場景的梯度,根據64×64的低分辨率圖像在渲染圖像上定義的損失進行建模。

      第二階段,研究團隊使用高分辨率潛在擴散模型(LDM),不斷抽樣和渲染第一階段的粗略模型。

      通過交互渲染器進行優化,反向生成512×512的高分辨率渲染圖像。

      TOP3:高逼真頭發模擬

      盡管當前取得了巨大的技術進步,頭發和毛發模擬對動畫工作室來說仍然是一個挑戰。考慮重力、風、相互作用是一項計算密集型任務,無法實時準確完成。

      英偉達研究人員實現了在GPU上計算頭發模擬的新方法——ADMM,論文已被SIGGRAPH2023上展示。

      論文地址:https://research.nvidia.com/publication/2023-08_interactive-hair-simulation-gpu-using-admm

      總的來說,這項研究實現了使用AI來預測頭發在現實世界中的行為方式。

      比起先前的方法,它的性能更加強大,甚至,可以根據頭發的復雜程度以交互幀率計算模擬,如下圖所示,

      論文研究者Gilles Daviet解釋道,通過在各種場景中的測試,頭發模擬每幀耗時在0.18-8秒之間。

      簡而言之,平均計算時間將根據各種因素而增加,比如頭發數量和長度,或者如何精確處理碰撞。

      至于內存,根據場景的不同,模擬所需的內存從1GB到2×9.5GB不等(在雙GPU設置下)。

      這種更快的頭發模擬技術,可用于多種用途。

      基于物理的編輯工具可用于調整現有的發型,同時保持彈性和自碰撞約束。

      他創建的演示工具可以「統一縮放頭發的長度和/或弧度;沿切割平面修剪發棒;以及通過類似彈簧的力在選擇半徑內直接操作發絲」。

      TOP4:GPT-4加持,AI智能體完成復雜任務

      英偉達、賓大、加州理工、德州奧斯汀等機構的專家提出一個開放式Agent——Eureka,它是一個開放式智能體,為超人類水平的機器人靈巧性設計了獎勵功能。

      論文鏈接:https://arxiv.org/pdf/2310.12931.pdf

      英偉達等機構的研究人員開發出的Eureka系統,可以讓GPT-4直接教機器人完成基本的動作。

      比如,花樣轉筆。

      具體來說,它是一個GPT-4加持的獎勵設計算法,充分利用了GPT-4優秀的零樣本生成、代碼生成和上下文學習的能力,產生的獎勵可以用于通過強化學習來讓機器人獲得復雜的具體技能。

      在沒有任何特定于任務的提示或預定義的獎勵模板的情況下,Eureka生成的獎勵函數的質量,已經能夠超過人類專家設計的獎勵!

      具體來說,Eureka通過在上下文中發展獎勵功能,實現了人類水平的獎勵設計,包含了3個關鍵組成部分。

      - 模擬器環境代碼作為上下文,快速啟動初始「種子」獎勵函數。

      - GPU上的大規模并行RL,可以快速評估大量候選獎勵。

      - 獎勵反射可在上下文中產生有針對性的獎勵突變。

      TOP5:用LDM實現高分辨率視頻生成

      這篇論文介紹了Latent Diffusion Models(LDM)在高分辨率視頻生成任務中的應用。

      通過在低維潛空間中訓練擴散模型,LDM實現了高質量圖像合成,并避免了過多的計算需求。

      論文地址:https://arxiv.org/pdf/2304.08818.pdf

      研究人員將LDM應用于視頻生成,并進行了微調,實現了對512x1024分辨率駕駛視頻的優秀表現。

      此外,研究人員還將現有的文本到圖像LDM模型轉換為高效、精確的文本到視頻模型,并展示了個性化文本到視頻生成的結果。

      具體來說,這個模型生成的整體流程如下,先生成關鍵幀,然后也使用擴散模型進行插幀,將相鄰幀的latent作為插幀片段的兩端進行保留,中間待插入的幀latent用噪聲初始化。

      然后經過解碼器,生成視頻,再用超分模塊。

      在生成長視頻和插幀時,使用mask-condition的方法,就是用一個二值的mask,通過給定一定的context幀的latent,來預測被mask的幀latent,可以通過迭代的方法生成長視頻。

      生成的視頻效果如下,分辨率為有1280x2048像素,由113幀組成,以24fps的速度渲染,產生4.7秒的長剪輯。

      這項用于文本到視頻生成的視頻LDM基于穩定擴散,總共有4.1B個參數,包括除剪輯文本編碼器之外的所有組件。

      在這些參數中,只有27億是通過視頻進行訓練的。

      具體用例中,比如可以進行多模態駕駛情景預測。

      作為另一個可能相關的應用程序,研究人員可以采用相同的起始幀并生成多個看似合理的推出。在下面的兩組視頻中,合成從相同的初始幀開始。

      TOP6:文本提示生成材質,并且將材質并無縫復制在任何表面上

      項目介紹:https://blogs.nvidia.com/blog/siggraph-research-generative-ai-materials-3d-scenes/

      英偉達研究人員憑借可幫助藝術家快速迭代3D場景的生成式AI模型演示,贏得了SIGGRAPH現場活動的最佳展示獎。

      在演示中,英偉達研究人員在客廳場景下進行了展示。

      研究人員使用OpenUSD來添加磚紋理墻,創建和修改沙發和抱枕的面料選擇,以及將抽象的動物設計融入了墻壁的特定區域。

      在包括建筑、游戲開發和室內設計在內的創意產業中,這些功能可以幫助藝術家快速探索想法并嘗試不同的美學風格,以創建場景的多個版本。

      而這個完全基于物理的材質生成功能將通過英偉達Picasso基礎模型平臺提供服務。

      通過英偉達Picasso基礎模型平臺,企業開發人員、軟件創建者和服務提供商可以選擇訓練、微調、優化和推斷圖像、視頻、3D 和360HDRi 的基礎模型,以滿足他們的視覺設計需求。

      TOP7:CALM——訓練可操縱虛擬角色在物理模擬中執行動作的方法

      項目地址:https://research.nvidia.com/labs/par/calm/

      CALM是一種為用戶控制的交互式虛擬角色生成多樣化且可定向行為的方法。

      通過模仿學習,CALM 可以學習運動的表示形式,捕捉人體運動的復雜性和多樣性,并能夠直接控制角色運動。

      該方法聯合學習控制策略和運動編碼器,該編碼器可以重建給定運動的關鍵特征,而不僅僅是復制它。

      結果表明,CALM 學習語義運動表示,從而能夠控制生成的運動和風格調節,以進行更高級別的任務訓練。

      CALM由3個部分組成:

      在低級訓練期間,CALM學習編碼器和解碼器。編碼器從運動參考數據集中獲取運動、關節位置的時間序列,并將其映射到低維潛在表示。

      此外,CALM 還聯合學習解碼器。解碼器是一個低級策略,它與模擬器交互并生成與參考數據集類似的運動。

      第二個階段:方向性控制

      為了控制運動方向,研究人員訓練高級任務驅動策略來選擇潛在變量。

      這些潛在變量被提供給生成所請求的動作的低級策略。

      在這里,學習到的運動表示可以實現某種形式的風格調節。為了實現這一點,運動編碼器用于獲取所請求運動的潛在表示。

      然后,向高級策略提供與所選潛在變量和代表所請求風格的潛在變量之間的余弦距離成比例的額外獎勵,從而指導高級策略采用所需的行為風格。

      第三階段:推理

      最后,將先前訓練的模型(低級策略和方向控制器)組合起來組成復雜的動作,而無需額外的訓練。

      為此,用戶生成一個包含標準規則和命令的有限狀態機 (FSM)。它決定了執行哪個動作,類似于用戶如何控制視頻游戲角色。

      比如,開發人員可以構建一個 FSM,如 (a)「蹲下走向目標,直到距離 <1m」,然后 (b)「踢」,最后 (c)「慶祝」。

      TOP8:通過比賽視頻讓虛擬角色學習網球技能

      項目地址:https://research.nvidia.com/labs/toronto-ai/vid2player3d/

      英偉達研究人員提出了一個系統,它可以從廣播視頻中收集的大規模網球比賽演示中學習各種物理模擬的網球技能。

      他們的方法建立在分層模型的基礎上,結合了低級模仿策略和高級運動規劃策略,以在從廣播視頻中學習的運動嵌入中引導角色。

      當大規模部署在包含大量現實世界網球比賽示例的大型視頻集上時,研究人員的方法可以學習復雜的網球擊球技巧,并將多個鏡頭真實地鏈接在一起形成擴展的比賽,僅使用簡單的獎勵,并且無需明確的擊球注釋類型。

      為了解決從廣播視頻中提取的低質量運動,研究人員通過基于物理的模仿來校正估計的運動,并使用混合控制策略,通過高級策略預測的校正來覆蓋學習運動嵌入的錯誤方面。

      系統可以合成兩個物理模擬角色,通過模擬球拍和球的動力學進行長時間的網球比賽。

      系統包括四個階段。首先,研究人員估算2D和3D球員姿勢以及全局根部軌跡,以此創建運動數據集。

      其次,訓練一個低層次的模仿策略,用于模仿運動數據,控制模擬角色的低層次行為,并生成一個物理修正的運動數據集。

      接下來,研究人員對修正后的運動數據集進行條件變分自編碼器(VAE)的擬合,以學習一個低維的運動嵌入,從而產生類人的網球動作。

      最后,訓練一個高層次的運動規劃策略,通過結合運動嵌入輸出的身體動作和對角色腕部運動的預測修正,生成目標運動姿態。

      然后,通過低層次策略模仿這一目標動作,以控制物理模擬的角色執行所需任務。

      TOP9:高效、高質量的網格優化方法——FlexiCubes

      這項研究是基于梯度的網格優化。研究人員通過將3D 表面網格表示為標量場的等值面來迭代優化3D 表面網格,這是攝影測量、生成建模和逆向物理等應用中越來越常見的范例。

      現有的實現采用經典的等值面提取算法。這些技術旨在從固定的已知字段中提取網格,并且在優化設置中,它們缺乏表示高質量特征保留網格的自由度,或者遭受數值不穩定的影響。

      研究人員提出了FlexiCubes,這是一種等值面表征,專門用于優化幾何、視覺甚至物理目標方面的未知網格。

      研究人員將額外精心選擇的參數引入到表征中,從而允許對提取的網格幾何形狀和連接性進行本地靈活調整。

      在優化下游任務時,這些參數會通過自動微分與底層標量場一起更新。這種提取方案基于雙行進立方體,以改進拓撲屬性,并提出擴展以選擇性地生成四面體和分層自適應網格。

      通過大量實驗,研究人員在綜合基準和實際應用中驗證了FlexiCube,表明它在網格質量和幾何保真度方面提供了顯著改進。

      具體來說,FlexiCubes提供了兩個顯著的優勢,可以為各種應用實現簡單、高效和高質量的網格優化:

      漸進式的優化:網格的微分是明確定義的,基于梯度的優化在實踐中有效收斂。

      靈活性:網格頂點可以單獨進行局部調整,以適應表面特征并找到具有少量元素的高質量網格。

      通過可微渲染進行攝影測量

      可微分等值曲面技術DMTet是最近工作nvdiffrec的核心,它聯合優化了圖像的形狀、材質和光照。

      通過在拓撲優化步驟中簡單地用 FlexiCube替換DMTet,保持管道的其余部分不變,我們觀察到在相等三角形數量下改進的幾何重建。

      3D 網格生成

      最近的3D 生成模型 GET3D 將3D 表示差異化地渲染為2D 圖像,并利用生成對抗框架僅使用2D 圖像監督來合成3D 內容。

      FlexiCubes可以在3D 生成模型中充當即插即用的可微分網格提取模塊,并顯著提高網格質量。

      使用四面體網格進行可微分物理模擬

      FlexiCube可以微分地提取四面體網格。均勻曲面細分允許我們將其與可微分物理模擬框架 (gradSim) 和可微分渲染管道 (nvdiffrast) 結合起來,共同從多視圖視頻中恢復3D 形狀和物理參數。

      在這里,研究人員展示了初步結果:給定變形物體的視頻序列,他們可以恢復靜止姿勢的四面體網格,以及在模擬下再現運動的材料參數。

      動畫對象的網格簡化

      FlexiCubes 不是在參考姿勢中擬合單個網格,而是允許通過現成的蒙皮工具對網格進行不同的蒙皮和變形,并同時針對整個動畫序列進行優化。

      對整個動畫的端到端優化有助于重新分配三角形密度,以避免網格拉伸。

      添加網格正則化

      FlexiCubes表征足夠靈活,可以通過自動微分直接評估依賴于提取的網格本身的目標和正則化器,并將其納入基于梯度的優化中。

      研究人員對提取的網格應用可開發性術語,以促進面板的可制造性。

      Top10:使用專家降噪器集合進行文本到圖像的擴散

      項目地址:https://research.nvidia.com/labs/dir/eDiff-I/

      英偉達的研究人員提出了eDiff-I,這是一種用于合成給定文本的圖像的擴散模型。

      受擴散模型的行為在不同采樣階段不同的經驗觀察的啟發,研究人員訓練一組專家去噪網絡,每個網絡專門針對特定的噪聲區間。

      模型通過T5文本嵌入、CLIP圖像嵌入和CLIP文本嵌入為條件,可以生成與任何輸入文本提示相對應的逼真圖像。

      除了文本到圖像的合成之外,我們還提供了兩個額外的功能 :

      (1) 樣式傳輸,這使我們能夠使用參考樣式圖像控制生成樣本的樣式

      (2) 「用文字繪畫」,用戶可以通過在畫布上繪制分割圖來生成圖像的應用程序,這對于制作所需的圖像非常方便。

      模型的工作流程由三個擴散模型的級聯組成 :

      一個可以合成64x64分辨率樣本的基本模型,以及兩個可以將圖像分別逐步上采樣到256x256和1024x1024分辨率的超分辨率堆棧。

      模型采用輸入標題并首先計算 T5XXL 嵌入和文本嵌入。可以選擇使用根據參考圖像計算的CLIP圖像編碼。這些圖像嵌入可以用作風格向量。

      然后將這些嵌入輸入到級聯擴散模型中,該模型逐漸生成分辨率為1024x1024的圖像。

      在擴散模型中,圖像合成通過迭代去噪過程進行,該過程逐漸從隨機噪聲生成圖像。

      如下圖所示,模型從完全隨機的噪聲開始,然后分多個步驟逐漸去噪,最終生成熊貓騎自行車的圖像。

      在傳統的擴散模型訓練中,訓練單個模型來對整個噪聲分布進行去噪。在這個框架中,研究人員訓練了一組專家降噪器,專門用于在生成過程的不同間隔中進行降噪,從而提高合成能力。

      文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。

    海報生成中...

    最新新聞

    熱門新聞

    即時

    全球頂級AI創作社區回歸!海藝AI國內首發“全民娛樂化創作

    海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。

    新聞

    市場占比高達35.8%,阿里云引領中國AI云增長

    9月9日,國際權威市場調研機構英富曼(Omdia)發布了《中國AI云市場,1H25》報告。中國AI云市場阿里云占比8%位列第一。

    企業IT

    華為坤靈發布IdeaHub千行百業體驗官計劃,助力中小企

    9月24日,華為坤靈召開“智能體驗,一屏到位”華為IdeaHub千行百業體驗官計劃發布會。

    3C消費

    雅馬哈推出兩款高端頭戴耳機YH-4000與YH-C3000

    雅馬哈昨日宣布推出兩款頭戴式耳機,分別是平板振膜的YH-4000和動圈原理的YH-C3000。

    研究

    IDC:2025上半年全球智能家居清潔機器人出貨量同比暴

    IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。

    国产九九视频一区二区三区_亚洲欧美资源在线_精品国产自在久精品国产_成人午夜黄色影院
    奇米一区二区三区av| 菠萝蜜视频在线观看一区| 久久综合九色综合97婷婷 | 9人人澡人人爽人人精品| 国产成人免费xxxxxxxx| 国产剧情av麻豆香蕉精品| 国产一区二区三区久久悠悠色av| 久草这里只有精品视频| 国产一区二区女| hitomi一区二区三区精品| 91免费视频大全| 欧美日韩国产区一| 日韩视频免费观看高清完整版| 日韩视频在线永久播放| 久久精品视频一区二区| 亚洲少妇中出一区| 日韩精品色哟哟| 国产精品资源网| 99免费精品在线| 欧美日韩精品欧美日韩精品| 欧美成人国产一区二区| 国产丝袜在线精品| 亚洲国产欧美日韩另类综合| 久久精品国产亚洲一区二区三区| 国产成人夜色高潮福利影视| 91美女片黄在线观看| 欧美男男青年gay1069videost| 亚洲精品在线网站| 亚洲女人的天堂| 久久精品二区亚洲w码| 99久久精品国产导航| 欧美一区二区视频免费观看| 国产精品乱人伦一区二区| 午夜电影一区二区| 福利一区福利二区| 欧美精品亚洲二区| 国产精品乱人伦中文| 日本在线播放一区二区三区| 国产91色综合久久免费分享| 欧美日韩精品一区视频| 国产精品理伦片| 美洲天堂一区二卡三卡四卡视频 | 大桥未久av一区二区三区中文| 欧美亚洲综合久久| 欧美国产欧美综合| 蜜桃免费网站一区二区三区| 91福利国产精品| 日本一区二区免费在线观看视频| 日韩高清不卡一区二区三区| 99国产精品久| 久久精品欧美日韩精品| 免费成人在线网站| 在线观看欧美日本| 国产精品成人一区二区三区夜夜夜 | 亚洲成a人v欧美综合天堂下载| 不卡免费追剧大全电视剧网站| 欧美一级片在线看| 亚洲成人黄色影院| 日本久久一区二区| 1024成人网| 成人免费视频免费观看| 国产午夜三级一区二区三| 久久99精品国产.久久久久 | 91一区二区在线| 国产欧美1区2区3区| 国产在线看一区| 日韩免费性生活视频播放| 日韩激情视频在线观看| 欧美高清视频不卡网| 亚洲成av人影院在线观看网| 欧美色图免费看| 亚洲一区二区三区在线看| 欧美这里有精品| 亚洲图片自拍偷拍| 欧美唯美清纯偷拍| 亚洲国产精品一区二区www| 欧美午夜影院一区| 亚洲成人激情综合网| 51精品秘密在线观看| 日韩精品欧美精品| 精品国产污污免费网站入口| 国产精品自产自拍| 欧美国产精品一区| 一本大道综合伊人精品热热| 亚洲乱码国产乱码精品精的特点 | 国产福利一区二区三区在线视频| 久久久久久久综合色一本| 国产酒店精品激情| 国产精品免费视频网站| k8久久久一区二区三区| 亚洲婷婷在线视频| 欧美影院午夜播放| 日产精品久久久久久久性色| 日韩一卡二卡三卡四卡| 国产精品1区2区3区在线观看| 国产日韩欧美在线一区| 91伊人久久大香线蕉| 亚洲成人一区在线| 精品国产乱码久久久久久牛牛| 国产盗摄一区二区三区| 亚洲欧美日本韩国| 91精品国产一区二区| 国产一区二区三区四区五区入口 | 色综合视频一区二区三区高清| 亚洲精品伦理在线| 日韩一区二区高清| 成人免费看黄yyy456| 亚洲精品国产a久久久久久 | 亚洲私人黄色宅男| 欧美日韩激情在线| 国产激情一区二区三区桃花岛亚洲| 国产精品久久久一本精品| 欧美日韩久久久一区| 国产一区二区精品久久| 亚洲精品老司机| 2024国产精品| 欧美日产国产精品| 成人av小说网| 蜜桃一区二区三区在线观看| 国产精品二三区| 日韩欧美在线123| 一本一道久久a久久精品| 国产在线日韩欧美| 亚洲国产欧美日韩另类综合| 国产亚洲精品aa午夜观看| 欧美日韩成人一区二区| 99精品久久只有精品| 国产一区二区三区高清播放| 亚洲国产综合91精品麻豆| 欧美国产综合一区二区| 欧美一区二区三区免费在线看| 91一区二区在线观看| 国产永久精品大片wwwapp| 亚洲a一区二区| 有坂深雪av一区二区精品| 国产欧美日韩不卡免费| 日韩丝袜情趣美女图片| 欧美年轻男男videosbes| 色综合婷婷久久| 成人av综合在线| 国产91露脸合集magnet| 久久精品99国产国产精| 午夜一区二区三区视频| 成人欧美一区二区三区在线播放| 精品国产电影一区二区| 91精品欧美福利在线观看| 欧美网站大全在线观看| 91福利精品视频| 91精彩视频在线| 色激情天天射综合网| 色拍拍在线精品视频8848| aaa欧美日韩| 不卡的av电影| 成人av网站在线观看免费| 国产一区 二区| 国产一区二区三区四| 极品销魂美女一区二区三区| 久草这里只有精品视频| 精品在线一区二区| 国产美女久久久久| 国产成人小视频| 懂色av一区二区三区蜜臀| 国产精品一卡二卡| 成人精品视频.| 99久久99久久免费精品蜜臀| 91影视在线播放| 欧美曰成人黄网| 91精品国产一区二区三区蜜臀| 日韩视频国产视频| 久久久91精品国产一区二区精品 | 欧美亚一区二区| 欧美日本一区二区三区四区| 欧美日本一区二区在线观看| 91.com视频| 久久综合网色—综合色88| 国产拍欧美日韩视频二区| 国产精品福利在线播放| 一区二区三区久久| 免费精品99久久国产综合精品| 激情小说亚洲一区| aaa国产一区| 欧美日韩成人一区| 久久亚洲免费视频| 亚洲色图欧美激情| 青椒成人免费视频| 成人网在线免费视频| 欧美色图激情小说| 久久亚洲影视婷婷| 樱桃国产成人精品视频| 免费在线看成人av| 不卡的av中国片| 制服丝袜激情欧洲亚洲| 国产欧美精品区一区二区三区 | 欧美性三三影院| 日韩欧美国产电影| 亚洲日穴在线视频| 久久精品国产精品亚洲综合| 91影视在线播放| 精品国产一区二区亚洲人成毛片 | 亚洲欧美aⅴ...|