中文字幕在亚洲第一在线_亚洲VA中文字幕无码一二三区_亚洲AV无码乱码在线观看裸奔_亚洲丰满熟女一区二区v

您的位置:首頁 >資訊 > 正文

環球消息!Language Model Reasoning

來源:程序員客棧2023-02-21 23:57:33

自從那篇著名的《Chain of Thought Prompting Elicits Reasoning in Large Language Models》發布以來,一下子引爆了使用 Large Language Models (LLMs) 做推理任務的熱潮。同時,越來越多的研究者開始深挖 LLMs 的各種能力。其中,推理能力作為一種可能的“象征著真正的智慧”的能力,在過去的一年里興許不是被探索和研究得最多的,但肯定是被討論得最為熱烈的,ChatGPT的發布更是將氣氛推到了頂峰,LLMs 自此徹底破圈。盡管如此,大家很快就發現,雖然LLMs 的續寫或回答能力很強,說起話來語言流暢優美,態度彬彬有禮,但在事實性問題,以及需要深思熟慮,多步推理 (Multi-step Reasoning) 的問題上,LLMs 的表現依然不盡如人意。為了更好地了解 LLMs 與 Reasoning 這個領域的情況與進展,我會在本文中介紹過去一年多的時間里,嘗試使用語言模型來解決推理任務的幾篇論文。由于能力所限,我無法覆蓋所有的相關論文,但會在文末列出更多的相關文獻供讀者朋友參考。

首先,我將介紹一些背景,因為有些讀者可能不熟悉這個領域,然后是現有的工作,最后對它們的共同點和區別做一些總結。


(資料圖)

背景介紹

那么,前面總是提到推理 (Reasoning) 這個詞,什么是推理?我嘗試用自己的語言來解釋“推理”的含義,最后發現我寫得還不如 ChatGPT,于是這里我就簡單地摘抄幾句它寫的解釋:

Reasoning is the process of thinking about something in a logical way in order to form a conclusion or judgment.

Reasoning involves the use of evidence, logic, and critical thinking skills to carefully evaluate and understand information, ideas, and arguments.

Reasoning is a method that allows us to make decisions and draw conclusions based on available information.

翻譯過來就是推理是以合乎邏輯的方式思考問題,以形成結論或判斷的過程。推理涉及使用證據、邏輯和批判性思維技能來仔細評估和理解信息、想法和論點。推理是一種方法,使我們能夠根據現有的信息做出決定并得出結論。憑我高中語文和英語作文經常不及格的水平來看我認為它解釋得非常到位了。

目前,較為常見的 NLP 推理任務大概可以被分成上圖這三種:數學推理,常識推理以及符號推理。前兩種很容易理解,就是字面意思,而最后一種,即符號推理,通常指的是給定一些特定符號代表的狀態,然后對它們做一些操作,問題就是最后的狀態是什么樣的,例如給定一個列表,對其進行旋轉操作,問你最終的狀態是什么。下圖中列出了這三種類型的任務的一些代表性數據集。

下圖是上面提到的數據集的一些示例。數學推理任務為綠色,常識推理為橙色,藍色為符號推理。這張圖是借用自 Chain of Thought,后面會介紹。

看到這里不太熟悉語言模型的讀者也許還有一些疑問,為什么我們要用語言模型來解決推理任務?為什么不能給每個任務都設計一些專門的模型?比如上面的math word problems,我們可以設計一個復雜的pipeline來抽取這其中的變量和計算關系,最后輸出答案,以及什么date understanding,last letter concatenation,coin flip,這些甚至可以通過精心設計的規則達到100%的準確率。

首先,語言模型很靈活,我們不再需要設計一個管道來處理輸入的信息。在傳統的Knowledge based Question Answering中,涉及到實體抽取、識別關系、檢索知識庫等等,這是一個非常復雜的過程。而使用語言模型,目前,我們只需要設計一個輸入輸出的模板,然后它就可以通過 In-context learning 來回答新的問題。最近大火的 ChatGPT 基于的是 *Reinforcement Learning from Human Feedback (RLHF)*,我們甚至不再需要設計模板,只需要直接問問題就夠了。

其次,由于超大參數量+超大規模語料的預訓練過程,語言模型通常包含了不同領域的豐富知識,這意味著我們不再需要刻意地維護一個結構化的知識庫以供檢索模型使用。當然,這也有弊端,那就是模型訓練結束后,它的知識就固定在了那一刻,往后世界上發生的任何事它都無從知曉了,這也是未來需要解決的一個問題。

最后,語言模型可以用自然語言生成中間推理步驟,相比那些直接輸出概率分布的分類模型,這為我們觀察模型如何一步步達到最終答案提供了一個窗口。例如一個情感分類問題,語言模型能告訴你某句話里的某個詞表達的是不滿情緒,因而它將其分為負類,而用類似BERT這樣的模型,要么是直接輸出一個二分類的概率分布,要么是通過設計模板+完形填空的方式 (This movie is awesome. Sentiment: [MASK]),得到一個看似具有解釋性的答案,但是其實模型輸出的只不過是從一個二分類概率分布變成了一個全詞表的概率分布,經過一些后處理,最終又變成了一個二分類的概率分布。

相關工作

下面正式開始介紹相關的論文。總體上,我把介紹的相關工作分成三個主要的類型,如下圖所示:一個生成器加一個驗證器,思維鏈提示 (CoT Prompt) 以及前兩種的混合方法。在第一種類型中,生成器負責生成多個推理路徑,驗證器用于評估這些生成的解答,并選出最終的答案。

思維鏈提示主要是靠人工編寫一些帶有詳細中間推理步驟的問答范本作為 Prompt 拼在要問的問題前面,模型模仿前面的例子對問題做出詳細的推理和解答,這通常被稱為語境學習 (In-context learning)。

一個 Generator + Verifier 的典型工作是《Training Verifiers to Solve Math Word Problems》,作者來自OpenAI。隨這篇論文一起發布的還有當前十分流行的數學題數據集 GSM8K,它包含了大約8000個小學數學問題。因為他們沒有給自己的工作起名字,所以后面就簡單用OpenAI來指代這項工作。在這項工作中,他們用標準的語言建模目標 (standard language modeling objective) 在GSM8K上訓練了一個GPT-3,作為生成器。

然后,他們使用這個生成器為訓練集中的每個問題采樣100條sulutions。他們使用生成的solutions再額外訓練一個GPT-3作為驗證器,該驗證器對solution中的每個token都預測一個分數,如果最終答案是正確的,預測的分數應該是1,否則應該是0,損失用均方誤差計算。

在測試階段,他們對測試問題采樣出100條solutions,然后使用驗證器選擇得分最高的solution作為最終答案。它將 GPT-3 175B 的準確率從33%的提升到了57%。使用驗證器的 GPT-3 6B 達到了約40%的準確率,超過了微調后的 GPT-3 175B。這證明了使用一個額外的驗證器來選擇solution是十分有效的。值得注意的一點是,他們用 GPT-3 生成推理過程時使用了計算器來輔助 GPT-3,即 GPT-3 只需要列出正確的計算公式,計算器會保證它一定會得到正確的答案。

也許這個做法看起來不那么優雅,為什么不讓整個的生成過程都完全由語言模型完成?我個人認為這種做法其實是既好用,又符合常理的。試想一下人在做計算題的時候,能完全不依賴計算器嗎?對大多數人來說,兩位數的乘除法就已經不是能立馬得出答案的了,更不要說三位數及以上的乘除法了,但是人只要能保證計算邏輯的正確性,列出完整正確的公式,那么一切交給計算器就好了,這也是人類能完成各種各樣極其龐大復雜的工程的核心所在,那就是人會使用工具。我覺得在這里讓語言模型結合計算器來解決數學問題是完全沒有問題的,如果反其道而行,非要在語言模型的算術能力上面做文章,死磕語言模型的加減乘除能力,才是本末倒置,畢竟,人發明計算器的目的就是為了把人從各種低階重復機械的計算中解放出來,人才有更多時間和精力去思考那些更高維度更抽象的東西。

這項工作叫作 Chain of Thought Prompt,它開啟了一扇新的大門:提示大規模語言模型去一步一步地解決問題。這個想法非常直接和簡單,但其效果卻實在令人驚訝。具體方法就是在測試輸入的前面拼接了幾個由問題、中間推理步驟和最終答案組成的人工寫的例子,然后LLMs通過 In-context learning 就學會了要一步一步解決問題,而標準的 few-shot prompt 則效果很差。

在 CoT 論文出來后不久,緊接著 Goolge 又發表了一篇提升 CoT 的論文,就是所謂的自洽 (Self-Consistency)。這個方法非常簡單,就是對給定問題采樣多個solutions,并通過多數投票獲得最終答案。方法其實并不新鮮,采樣多個再選取最好的那個之前 OpenAI 早就提出來了,只不過這里更簡化了一步,去掉了 Verifier,借助大模型的能力直接用多數投票就能得到不錯的效果。其實我覺得OpenAI肯定早在做那篇文章時也試過了用多數投票方法的效果,他們也采樣了100條,沒有道理不會做一個很簡單的多數投票來看看效果如何,畢竟等待訓練Verifier完成的時間也沒事情做。我個人認為這篇 Self-Consistency 的創新性較為有限,屬于是站在了 Chain-of-Thought 肩膀上的一篇手速快的“實驗報告”。

雖然性能相當好,但我個人認為自洽性只是一種技巧。同時,和思維鏈提示一樣,它們目前最大的問題是只對非常非常大的語言模型有效。在我的實驗中,思維鏈提示對60億參數的 GPT-J 幾乎不起作用,使用自洽性后在 GSM8K 上只能提高0.5%的準確率。(不過,對大公司來說,對小模型沒用可能不算一個問題吧。。。)

自我改進 (Self-Improvement) 是差不多同一班人馬的另一項后續工作。在 CoT 與 Self-Consistency 的基礎上,它對訓練集問題采樣出較多的solutions,使用多數投票來獲得答案,如果模型對這個答案非常有信心,即相當大比例的solutions都是相同的答案,那么他們就會保留這些solutions,用于之后回頭微調語言模型。使用模型生成的solutions來微調它自己,所以這種方法被稱為 Self-Improvement。

谷歌對 PaLM 540B 進行了微調,效果當然又提升了,只能說有錢真的可以為所欲為。只是這項工作的可能對普通科研工作者來說沒有太多的啟發,除非它能證明更小的模型也能自我改進,但是就像前面我所說的,當模型較小的時候,準確率本身已經極低了,根本無法獲得像用大模型生成一樣的高質量 solutions,那么自我改進又從何談起呢?

除此以外,還有幾項工作專注于改進原始的 CoT。例如這項工作,Zero-shot-CoT,它嘗試克服 CoT 需要人工標注的缺點。它使用了兩個階段的提示,首先加入一個提示“讓我們一步一步地思考”,就可以使LLMs一步一步地寫出推理過程。然后,他們使用一個能夠抽取答案的提示來獲得最終的答案。其效果非常令人驚訝,在一些數據集上甚至可以和 Few-shot-CoT相媲美,雖然有些數據集還是差了不少,總體上我認為這項工作是非常簡潔和優雅的。這項工作也和 CoT 一起中了NeurIPS。

Automatic CoT 是另一項后續工作。盡管 Zero-shot-CoT 很簡單,表現也不錯,但它比 Few-shot-CoT 還是要差一些的。這項工作嘗試使用 Zero-shot-CoT 來構建 Few-shot-CoT 的例子,以此消除 Zero-shot-CoT 和 Few-shot-CoT 之間的差距。

具體來說,該方法是首先用k-means將訓練集中的問題分成k個cluster,對于每個cluster,根據問題與聚類中心的距離進行排序,返回排序后的問題列表。接著,遍歷這個問題列表,使用 Zero-shot-CoT 編寫問題的推理路徑,當生成的solution的質量滿足要求時,將這個例子保存,作為之后 Few-shot-CoT 的prompt,同時打破當前的循環,在下一個cluster上重復上述過程,構建另一個范例。

最終的效果確實不錯,但是可能將其稱為 Automatic CoT 還是有些不那么確切,畢竟整個過程并不是那么的 automatic。這篇工作也中了 ICLR 2023。

另一項與 CoT 提示非常相似的工作是 least-to-most prompt。其思路是將復雜的問題簡化為較容易的子問題,并按順序解決這些子問題,最終解決原始問題。

DIVERSE 結合了 CoT 和驗證器。主要有兩個方面的改進,首先它使用了更多樣的 few-shot 例子并證明了其有效性,這也被后來的 automatic CoT 工作再一次證明;其次是它訓練了一個額外的驗證器來為每個推理路徑產生一個分數。與OpenAI和Google的工作不同的是,OpenAI使用一個驗證器來選擇最高分的solution,而Google則使用多數投票來選擇最終答案,DIVERSE 使用驗證器預測的分數作為權重來投票選擇最終答案。

11月有三篇idea比較類似的文章掛在arxiv上,分別是《Teaching Algorithmic Reasoning via In-context Learning》,《PAL: Program-aided Language Models》和《Program of Thoughts Prompting: Disentangling Computation from Reasoning for Numerical Reasoning Tasks》。它們背后的想法比較相似,盡管實施細節有些不同。PAL 這篇文章使用 prompt 來提示 LLMs 寫 python 代碼,而把最終的計算留給 python 解釋器。事實上,應用額外的工具來處理計算應該算是由 OpenAI 在他們最早的工作中提出的,他們提出利用計算器來處理語言模型生成的方程式。我認為他們之間的區別在于它提示 LLMs 寫下并保存中間變量,以便最終用編程語言計算結果,而不是通過“=”號來觸發調用計算器。

到目前為止,本文所介紹的所有工作都是基于超大語言模型的,難道推理問題只是參數千億規模的 LLMs 的游戲?下面介紹兩篇沒有依賴這些超大模型來解決推理任務的工作。

第一篇是《STaR: Self-Taught Reasoner Bootstrapping Reasoning With Reasoning》,這項工作叫作 STaR。具體來說,他們用 few-shot 提示了一個語言模型來生成推理過程的例子,并過濾出答案正確的那些例子,以便進一步微調語言模型。不斷重復這個過程,使用改進后的模型來生成下一次的訓練集。但這個方法的性能增益很快就飽和了,因為前一個循環中未能解決的問題,到了下一個循環還是沒能解決。因此,他們提出了一種叫做 合理化 (rationalization) 的方法,即在問題中加入一個提示,事實上就是直接告訴語言模型哪個答案是正確的,并希望語言模型能寫出一個合理的推理過程。

在常識推理任務上,STaR 表現良好,可與微調后的GPT-3相媲美。但是在像GSM8K這樣的更難的數據集上,它的表現卻遠遠不能令人滿意。正如下圖所示,一個只有幾十億個參數的語言模型似乎不可能在困難的推理問題上取得與那些有上千億參數的模型相當的性能,比如GSM8K。CoT prompt 都不起作用,直接微調 + STaR 也不起作用。

但是,有一項工作證明了這不是真的,像 GPT-J 這樣的模型在數學推理任務上可以與那些 LLMs 相媲美,甚至超過它們。《Solving Math Word Problem via Cooperative Reasoning induced Language Models》這篇工作借鑒了認知科學的理念,尤其是雙過程理論(dual process theory)。人類的推理有一個雙過程框架,由一個即時反應系統(系統1)和一個深思熟慮的推理系統(系統2)組成,整個推理由它們的交互決定。作者設計了一個類似人類的推理架構叫作 CoRe,系統1作為生成器,系統2作為驗證器。

整體的方法框架如下圖所示。

在 Step 1,作者 follow 了 OpenAI 的原始工作。

在 Step 2,不同于之前的工作是在完成所有的生成后再使用驗證器來選擇 solution,作者認為在生成的過程中間提供反饋是非常重要的,這樣的話對推理路徑的搜索就是在指導下進行的,那些高質量的路徑會被更多地探索。作者使用了了兩個驗證器,一個是 GPT-J 用于提供 token-level 反饋,另一個用 DeBERTa 用于提供 sentence-level 反饋。這種樹狀搜索過程與蒙特卡洛樹搜索(MCTS)算法非常相似,因此作者利用這種算法將生成器和驗證器結合起來,讓它們共同解決推理問題。

在 Step 3,為了進一步提高模型的推理能力,作者利用這個閉環的協同推理框架來生成更多的例子以進一步微調語言模型和驗證模型。值得注意一點是,作者發現直接用最終答案來過濾生成的例子效果并不理想。相反,他們通過生成器和驗證器的合作來過濾它們,所以過濾也是一個協同過程,作者把這個過程稱為自我思考(Self-Thinking)。最后重復 Step 2 和 Step 3 直到性能飽和。

作者在 GSM8K 上對模型進行了微調,而在其他數學推理數據集上進行 zero-shot。可以看出,推理能力可以在同一領域內轉移,在GSM8K上的微調有助于語言模型解決其他數學推理問題。使用了 CoRe 的 GPT-J 可以與那些超大的語言模型相媲美。即使在最難的數據集GSM8K上,它也超過了OpenAI 以前的微調 SoTA,后者使用兩個 GPT-3 175B,一個作為生成器,一個作為驗證器。在其他數據集上的 zero-shot 結果也超過了之前的 fine-tune SoTA。

總結

下圖是對這些工作的特點的一個簡單總結:

可以預見的是,在未來的一段時間里 LLMs 與 Reasoning 將會吸引更多的研究者參與進來。同時,ChatGPT 的能力還在被不停地探索和挖掘,以往那些簡單的下游任務,如情感分類,摘要,文本糾錯,風格遷移,在這些超大模型出現之后,極有可能自此退出研究界,只在工業界里的某些特定場景下被繼續研究。不管怎么樣,新技術產生問題一定還是要比它能夠解決的問題要多的,它會解放我們研究那些較為簡單低階任務的精力,從而讓我們有更多時間去研究如何解決更加有挑戰性的問題,那些曾經想都沒想過或者無從下手的問題,現在正等著我們一個個去攻破。

參考文獻

[1] Training Verifiers to Solve Math Word Problems

[2] Chain of Thought Prompting Elicits Reasoning in Large Language Models

[3] Self-Consistency Improves Chain of Thought Reasoning in Language Models

[4] Large Language Models Can Self-Improve

[5] Large Language Models are Zero-Shot Reasoners

[6] Automatic Chain of Thought Prompting in Large Language Models

[7] Least-to-Most Prompting Enables Complex Reasoning in Large Language Models

[8] On the Advance of Making Language Models Better Reasoners

[9] Teaching Algorithmic Reasoning via In-context Learning

[10] PAL: Program-aided Language Models

[11] Program of Thoughts Prompting: Disentangling Computation from Reasoning for Numerical Reasoning Tasks

[12] STaR: Self-Taught Reasoner Bootstrapping Reasoning With Reasoning

[13] Solving Math Word Problem via Cooperative Reasoning induced Language Models

最近更新

中文字幕在亚洲第一在线_亚洲VA中文字幕无码一二三区_亚洲AV无码乱码在线观看裸奔_亚洲丰满熟女一区二区v

    无吗不卡中文字幕| 日韩美女一区二区三区| 91国在线观看| 欧美一区二区日韩| 国产丝袜欧美中文另类| 亚洲视频网在线直播| 亚洲一卡二卡三卡四卡无卡久久 | 免费成人在线播放| 国产精品一区二区黑丝| 91麻豆蜜桃一区二区三区| 国产精品久久久一本精品| 亚洲午夜一二三区视频| 欧美日韩在线精品一区二区三区激情| 精品免费日韩av| 亚洲日本丝袜连裤袜办公室| 日韩福利电影在线观看| 丰满白嫩尤物一区二区| 国产精品人人做人人爽人人添| 亚洲成人www| 91精品欧美综合在线观看最新| 国产色产综合产在线视频| 日本免费新一区视频| 盗摄精品av一区二区三区| 亚洲一区二区三区在线看| 91精品国产aⅴ一区二区| 一区二区三区四区国产精品| 久久成人免费电影| 久久九九国产精品| 一本一道综合狠狠老| 欧美大片一区二区三区| 亚洲黄色免费网站| 99精品久久久久久| 亚洲午夜电影在线| 日本一区二区不卡视频| 免费成人小视频| ...中文天堂在线一区| 欧美高清精品3d| 亚洲欧洲精品天堂一级 | 欧美精品123区| 国产精品久久久久永久免费观看 | 在线视频欧美精品| 中文字幕佐山爱一区二区免费| 国产福利一区二区三区视频在线| 91婷婷韩国欧美一区二区| 一区二区三区四区乱视频| 欧美一区二区三区男人的天堂| 亚洲夂夂婷婷色拍ww47| 成人av在线一区二区三区| 亚洲黄色小说网站| 欧美一区二区三区在| 日韩中文字幕区一区有砖一区 | 91精品国产综合久久久久| 亚洲成人你懂的| 99精品视频在线播放观看| 色天使色偷偷av一区二区| 日本一区二区三区在线观看| 国产成人免费在线观看| 一区二区三区免费| 中文字幕在线播放不卡一区| 99久久国产免费看| 欧美一区三区二区| 精东粉嫩av免费一区二区三区| 国产精品成人午夜| 欧美岛国在线观看| 国产精品资源网站| 欧洲精品一区二区三区在线观看| 亚洲夂夂婷婷色拍ww47| 国产精品福利电影一区二区三区四区| 久久色视频免费观看| 爽爽淫人综合网网站| 亚洲人成网站在线| 久久久久国产精品免费免费搜索| 美国十次综合导航| 午夜精品视频一区| 婷婷久久综合九色综合伊人色| 亚洲欧洲在线观看av| 中文一区二区在线观看| 丰满少妇久久久久久久| 欧美军同video69gay| 极品少妇xxxx精品少妇| 欧洲精品在线观看| 美腿丝袜亚洲色图| 在线亚洲欧美专区二区| 欧美a一区二区| 色综合天天天天做夜夜夜夜做| 亚洲成人激情自拍| 亚洲一级片在线观看| 亚洲一区二区三区四区在线观看| 亚洲日本在线看| 亚洲精品久久久久久国产精华液| 91香蕉视频黄| 久久久精品人体av艺术| 久久青草国产手机看片福利盒子| 69精品人人人人| 国产在线不卡一卡二卡三卡四卡| 亚洲成人动漫在线观看| 婷婷中文字幕一区三区| 午夜视频在线观看一区二区三区| 亚洲成人动漫一区| 婷婷综合在线观看| 免费黄网站欧美| 欧美日韩精品免费| 青椒成人免费视频| 欧美无砖专区一中文字| 日韩国产一二三区| 欧美综合视频在线观看| 国产一区二区在线视频| 欧美一区二区福利视频| 波多野结衣视频一区| 337p亚洲精品色噜噜噜| 成人午夜视频在线观看| 久久婷婷色综合| 欧美经典一区二区三区| 国产欧美一二三区| 中文字幕乱码久久午夜不卡| 亚洲欧美另类图片小说| 亚洲精品第1页| 日本欧美肥老太交大片| 欧美卡1卡2卡| 99精品视频一区二区| 国产精品免费视频一区| 亚洲色欲色欲www| 日韩国产欧美在线观看| 欧美日韩精品一区二区三区| 国产91精品一区二区麻豆亚洲| 2021久久国产精品不只是精品| 成人黄色网址在线观看| 国产日韩欧美精品综合| 亚洲色图欧美激情| 日韩avvvv在线播放| 在线成人免费观看| 久久久久久久久久久电影| 亚洲欧美成aⅴ人在线观看 | 国产精品福利一区二区| 香港成人在线视频| 亚洲.国产.中文慕字在线| 久久成人精品无人区| 精品国内片67194| 国产精品福利影院| 日本不卡1234视频| 日韩免费看的电影| 中文字幕在线观看一区二区| 日韩高清在线电影| 日韩一级二级三级| 国产精品久久久久久久裸模 | 日韩理论片中文av| 色综合久久久久综合| 成人一区在线看| 中文字幕一区二区三区不卡在线| 亚洲成人动漫av| 成人性生交大片免费看视频在线 | 中文在线免费一区三区高中清不卡| 亚洲国产综合在线| 91精品国产色综合久久久蜜香臀| 国产日韩欧美电影| 亚洲男人天堂av| 欧美午夜精品一区| 久久精品免费在线观看| 丝袜美腿亚洲色图| 精品久久国产97色综合| 一区二区视频在线| 国产91色综合久久免费分享| 亚洲色图20p| 欧美日韩国产一二三| 国产日产欧美一区| 蜜桃视频第一区免费观看| 久久综合九色欧美综合狠狠| 一区二区三区日本| 成人av电影免费观看| 亚洲一区在线观看免费观看电影高清 | 91视频免费播放| 午夜精品一区二区三区电影天堂 | 麻豆一区二区在线| 91精品国产91久久久久久最新毛片 | 国产一二三精品| 亚洲桃色在线一区| 欧美巨大另类极品videosbest | 99在线视频精品| 婷婷开心激情综合| 久久久精品黄色| 在线观看一区二区精品视频| 久久婷婷国产综合国色天香| 男人的j进女人的j一区| 亚洲国产激情av| 欧美群妇大交群中文字幕| 一区在线观看免费| 福利一区二区在线| 亚洲国产婷婷综合在线精品| 精品av久久707| 色综合中文字幕国产 | 91精品国产综合久久精品| 18成人在线观看| 成人免费视频网站在线观看| 亚洲一区二区三区四区中文字幕| 精品久久久久99| 色综合一个色综合亚洲| 国产精品全国免费观看高清| 国产激情精品久久久第一区二区 | 欧美网站一区二区| 亚洲欧洲精品一区二区三区不卡|