亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频

? 歡迎來到蟲蟲下載站! | ?? 資源下載 ?? 資源專輯 ?? 關于我們
? 蟲蟲下載站

?? opencv 圖像處理和計算機視覺參考手冊.htm

?? Opencv的中文參考指南
?? HTM
?? 第 1 頁 / 共 5 頁
字號:
cvSubS( corners, dilated_corners, corners );
cvCmpS( corners, 0, corner_mask, CV_CMP_GE );
cvReleaseImage( &corners );
cvReleaseImage( &dilated_corners );
</PRE>
<HR>

<H3><A name=decl_cvCornerEigenValsAndVecs>CornerEigenValsAndVecs</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">計算圖像塊的特征值和特征向量,用于角點檢測</SPAN></P><PRE>void cvCornerEigenValsAndVecs( const CvArr* image, CvArr* eigenvv,
                               int block_size, int aperture_size=3 );
</PRE>
<P>
<DL>
  <DT>image
  <DD>輸入圖像. 
  <DT>eigenvv
  <DD>保存結果的數組。必須比輸入圖像寬 6 倍。 
  <DT>block_size
  <DD>鄰域大小 (見討論). 
  <DT>aperture_size
  <DD>Sobel 算子的核尺寸(見 <A 
  href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvSobel">cvSobel</A>). 
  </DD></DL>
<P>對每個象素,函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvCornerEigenValsAndVecs">cvCornerEigenValsAndVecs</A> 
考慮 <CODE>block_size</SPAN></CODE> × <CODE>block_size</SPAN></CODE> 大小的鄰域 
S(p),然后在鄰域上計算圖像差分的相關矩陣:</P><PRE>    | sum<SUB>S(p)</SUB>(dI/dx)<SUP>2</SUP>   sum<SUB>S(p)</SUB>(dI/dx&#8226;dI/dy)|
M = |                                 |
    | sum<SUB>S(p)</SUB>(dI/dx&#8226;dI/dy)  sum<SUB>S(p)</SUB>(dI/dy)<SUP>2</SUP> |
</PRE>
<P>然后它計算矩陣的特征值和特征向量,并且按如下方式(λ<SUB>1</SUB>, λ<SUB>2</SUB>, x<SUB>1</SUB>, 
y<SUB>1</SUB>, x<SUB>2</SUB>, y<SUB>2</SUB>)存儲這些值到輸出圖像中,其中<BR><BR>λ<SUB>1</SUB>, 
λ<SUB>2</SUB> - <CODE>M 的</SPAN></CODE>特征值,沒有排序<BR>(x<SUB>1</SUB>, 
y<SUB>1</SUB>) - 特征向量,對 λ<SUB>1</SUB><BR>(x<SUB>2</SUB>, y<SUB>2</SUB>) - 特征向量,對 
λ<SUB>2</SUB><BR></P>
<HR>

<H3><A name=decl_cvCornerMinEigenVal>CornerMinEigenVal</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">計算梯度矩陣的最小特征值,用于角點檢測</SPAN></P><PRE>void cvCornerMinEigenVal( const CvArr* image, CvArr* eigenval, int block_size, int aperture_size=3 );
</PRE>
<P>
<DL>
  <DT>image
  <DD>輸入圖像. 
  <DT>eigenval
  <DD>保存最小特征值的圖像. 與輸入圖像大小一致 
  <DT>block_size
  <DD>鄰域大小 (見討論 <A 
  href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvCornerEigenValsAndVecs">cvCornerEigenValsAndVecs</A>). 

  <DT>aperture_size
  <DD>Sobel 算子的核尺寸(見 <A 
  href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvSobel">cvSobel</A>). 
  當輸入圖像是浮點數格式時,該參數表示用來計算差分固定的浮點濾波器的個數. </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvCornerMinEigenVal">cvCornerMinEigenVal</A> 
與 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvCornerEigenValsAndVecs">cvCornerEigenValsAndVecs</A> 
類似,但是它僅僅計算和存儲每個象素點差分相關矩陣的最小特征值,即前一個函數的 min(λ<SUB>1</SUB>, λ<SUB>2</SUB>) </P>
<HR>

<H3><A name=decl_cvFindCornerSubPix>FindCornerSubPix</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">精確角點位置</SPAN></P><PRE>void cvFindCornerSubPix( const CvArr* image, CvPoint2D32f* corners,
                         int count, CvSize win, CvSize zero_zone,
                         CvTermCriteria criteria );
</PRE>
<P>
<DL>
  <DT>image
  <DD>輸入圖像. 
  <DT>corners
  <DD>輸入角點的初始坐標,也存儲精確的輸出坐標 
  <DT>count
  <DD>角點數目 
  <DT>win
  <DD>搜索窗口的一半尺寸。如果 <CODE>win</SPAN></CODE>=(5,5) 那么使用 5*2+1 × 5*2+1 = 11 × 11 
  大小的搜索窗口 
  <DT>zero_zone
  <DD>死區的一半尺寸,死區為不對搜索區的中央位置做求和運算的區域。它是用來避免自相關矩陣出現的某些可能的奇異性。當值為 (-1,-1) 表示沒有死區。 
  <DT>criteria
  <DD>求角點的迭代過程的終止條件。即角點位置的確定,要么迭代數大于某個設定值,或者是精確度達到某個設定值。 
  <CODE>criteria</SPAN></CODE> 可以是最大迭代數目,或者是設定的精確度,也可以是它們的組合。 </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvFindCornerSubPix">cvFindCornerSubPix</A> 
通過迭代來發現具有子象素精度的角點位置,或如圖所示的放射鞍點(radial saddle points)。</P>
<P><IMG src="OpenCV 圖像處理和計算機視覺參考手冊.files/cornersubpix.png" align=center> </P>
<P>子象素級角點定位的實現是基于對向量正交性的觀測而實現的,即從中央點<CODE>q</CODE>到其鄰域點<CODE>p</CODE> 
的向量和<CODE>p</CODE>點處的圖像梯度正交(服從圖像和測量噪聲)。考慮以下的表達式: </P><PRE>ε<SUB>i</SUB>=DI<SUB>p<SUB>i</SUB></SUB><SUP>T</SUP>&#8226;(q-p<SUB>i</SUB>)
</PRE>其中,<CODE>DI<SUB>p<SUB>i</SUB></SUB></CODE>表示在<CODE>q</CODE>的一個鄰域點<CODE>p<SUB>i</SUB></CODE>處的圖像梯度,<CODE>q</CODE>的值通過最小化<CODE>ε<SUB>i</SUB></CODE>得到。通過將<CODE>ε<SUB>i</SUB></CODE>設為0,可以建立系統方程如下: 
<PRE>sum<SUB>i</SUB>(DI<SUB>p<SUB>i</SUB></SUB>&#8226;DI<SUB>p<SUB>i</SUB></SUB><SUP>T</SUP>)&#8226;q - sum<SUB>i</SUB>(DI<SUB>p<SUB>i</SUB></SUB>&#8226;DI<SUB>p<SUB>i</SUB></SUB><SUP>T</SUP>&#8226;p<SUB>i</SUB>) = 0
</PRE>
<P>其中<CODE>q</CODE>的鄰域(搜索窗)中的梯度被累加。調用第一個梯度參數<CODE>G</CODE>和第二個梯度參數<CODE>b</CODE>,得到:</P><PRE>q=G<SUP>-1</SUP>&#8226;b
</PRE>
<P>該算法將搜索窗的中心設為新的中心<CODE>q</CODE>,然后迭代,直到找到低于某個閾值點的中心位置。 </P>
<HR>

<H3><A name=decl_cvGoodFeaturesToTrack>GoodFeaturesToTrack</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">確定圖像的強角點</SPAN></P><PRE>void cvGoodFeaturesToTrack( const CvArr* image, CvArr* eig_image, CvArr* temp_image,
                            CvPoint2D32f* corners, int* corner_count,
                            double quality_level, double min_distance,
                            const CvArr* mask=NULL );
</PRE>
<P>
<DL>
  <DT>image
  <DD>輸入圖像,8-位或浮點32-比特,單通道 
  <DT>eig_image
  <DD>臨時浮點32-位圖像,尺寸與輸入圖像一致 
  <DT>temp_image
  <DD>另外一個臨時圖像,格式與尺寸與 <CODE>eig_image</SPAN></CODE> 一致 
  <DT>corners
  <DD>輸出參數,檢測到的角點 
  <DT>corner_count
  <DD>輸出參數,檢測到的角點數目 
  <DT>quality_level
  <DD>最大最小特征值的乘法因子。定義可接受圖像角點的最小質量因子。 
  <DT>min_distance
  <DD>限制因子。得到的角點的最小距離。使用 Euclidian 距離 
  <DT>mask
  <DD>ROI:感興趣區域。函數在ROI中計算角點,如果 mask 為 NULL,則選擇整個圖像。 </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvGoodFeaturesToTrack">cvGoodFeaturesToTrack</A> 
在圖像中尋找具有大特征值的角點。該函數,首先用<A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvCornerMinEigenVal">cvCornerMinEigenVal</A> 
計算輸入圖像的每一個象素點的最小特征值,并將結果存儲到變量 <CODE>eig_image 
中。</CODE>然后進行非最大值抑制(僅保留3x3鄰域中的局部最大值)。下一步將最小特征值小于 
<CODE>quality_level</SPAN></CODE>&#8226;max(<CODE>eig_image</SPAN></CODE>(x,y)) 
排除掉。最后,函數確保所有發現的角點之間具有足夠的距離,(最強的角點第一個保留,然后檢查新的角點與已有角點之間的距離大于 <CODE>min_distance 
)。</CODE></P>
<HR>

<H2>采樣、差值和幾何變換</H2>
<HR>

<H3><A name=decl_cvInitLineIterator>InitLineIterator</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">初始化線段迭代器</SPAN></P><PRE>int cvInitLineIterator( const CvArr* image, CvPoint pt1, CvPoint pt2,
                        CvLineIterator* line_iterator, int connectivity=8 );
</PRE>
<P>
<DL>
  <DT>image
  <DD>帶采線段的輸入圖像. 
  <DT>pt1
  <DD>線段起始點 
  <DT>pt2
  <DD>線段結束點 
  <DT>line_iterator
  <DD>指向線段迭代器狀態結構的指針 
  <DT>connectivity
  <DD>被掃描線段的連通數,4 或 8. </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvInitLineIterator">cvInitLineIterator</A> 
初始化線段迭代器,并返回兩點之間的象素點數目。兩個點必須在圖像內。當迭代器初始化后,連接兩點的光柵線上所有點,都可以連續通過調用 
<CODE>CV_NEXT_LINE_POINT</SPAN></CODE> 來得到。線段上的點是使用 4-連通或8-連通利用 Bresenham 
算法逐點計算的。</P>
<H4><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">例子:使用線段迭代器計算彩色線上象素值的和</SPAN></H4><PRE>    CvScalar sum_line_pixels( IplImage* image, CvPoint pt1, CvPoint pt2 )
    {
        CvLineIterator iterator;
        int blue_sum = 0, green_sum = 0, red_sum = 0;
        int count = cvInitLineIterator( image, pt1, pt2, &amp;iterator, 8 );

        for( int i = 0; i &lt; count; i++ ){
            blue_sum += iterator.ptr[0];
            green_sum += iterator.ptr[1];
            red_sum += iterator.ptr[2];
            CV_NEXT_LINE_POINT(iterator);

            /* print the pixel coordinates: demonstrates how to calculate the coordinates */
            {
            int offset, x, y;
            /* assume that ROI is not set, otherwise need to take it into account. */
            offset = iterator.ptr - (uchar*)(image-&gt;imageData);
            y = offset/image-&gt;widthStep;
            x = (offset - y*image-&gt;widthStep)/(3*sizeof(uchar) /* size of pixel */);
            printf("(%d,%d)\n", x, y );
            }
        }
        return cvScalar( blue_sum, green_sum, red_sum );
    }
</PRE>
<HR>

<H3><A name=decl_cvSampleLine>SampleLine</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">將光柵線讀入緩沖區</SPAN></P><PRE>int cvSampleLine( const CvArr* image, CvPoint pt1, CvPoint pt2,
                  void* buffer, int connectivity=8 );
</PRE>
<P>
<DL>
  <DT>image
  <DD>帶采線段的輸入圖像 
  <DT>pt1
  <DD>起點 
  <DT>pt2
  <DD>終點 
  <DT>buffer
  <DD>存儲線段點的緩存區,必須有足夠大小來存儲點 max( 
  |<CODE>pt2.x</SPAN></CODE>-<CODE>pt1.x</SPAN></CODE>|+1, 
  |<CODE>pt2.y</SPAN></CODE>-<CODE>pt1.y</SPAN></CODE>|+1 ) :8-連通情況下,或者 
  |<CODE>pt2.x</SPAN></CODE>-<CODE>pt1.x</SPAN></CODE>|+|<CODE>pt2.y</SPAN></CODE>-<CODE>pt1.y</SPAN></CODE>|+1 
  : 4-連通情況下. 
  <DT>connectivity
  <DD>線段的連通方式, 4 or 8. </DD></DL>
<P>函數 cvSampleLine 實現了線段迭代器的一個特殊應用。它讀取由兩點 pt1 和 pt2 
確定的線段上的所有圖像點,包括終點,并存儲到緩存中。</P>
<HR>

<H3><A name=decl_cvGetRectSubPix>GetRectSubPix</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">從圖像中提取象素矩形,使用子象素精度</SPAN></P><PRE>void cvGetRectSubPix( const CvArr* src, CvArr* dst, CvPoint2D32f center );
</PRE>
<P>
<DL>
  <DT>src
  <DD>輸入圖像. 
  <DT>dst
  <DD>提取的矩形. 
  <DT>center
  <DD>提取的象素矩形的中心,浮點數坐標。中心必須位于圖像內部. </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvGetRectSubPix">cvGetRectSubPix</A> 
從圖像 <CODE>src 中提取矩形</SPAN></CODE>:</P><PRE>dst(x, y) = src(x + center.x - (width(dst)-1)*0.5, y + center.y - (height(dst)-1)*0.5)
</PRE>
<P>其中非整數象素點坐標采用雙線性差值提取。對多通道圖像,每個通道獨立單獨完成提取。盡管函數要求矩形的中心一定要在輸入圖像之中,但是有可能出現矩形的一部分超出圖像邊界的情況,這時,該函數復制邊界的模識(<A 
href="http://www.assuredigit.com/">hunnish</A>:即用于矩形相交的圖像邊界線段的象素來代替矩形超越部分的象素)。 
</P>
<HR>

<H3><A name=decl_cvGetQuadrangleSubPix>GetQuadrangleSubPix</A></H3>
<P class=Blurb><SPAN 
style="FONT-FAMILY: 宋體; mso-ascii-font-family: Helvetica; mso-hansi-font-family: Helvetica">提取象素四邊形,使用子象素精度</SPAN></P><PRE>void cvGetQuadrangleSubPix( const CvArr* src, CvArr* dst, const CvMat* map_matrix,
                            int fill_outliers=0, CvScalar fill_value=cvScalarAll(0) );
</PRE>
<P>
<DL>
  <DT>src
  <DD>輸入圖像. 
  <DT>dst
  <DD>提取的四邊形. 
  <DT>map_matrix
  <DD>3 × 2 變換矩陣 [<CODE>A</SPAN></CODE>|<CODE>b</SPAN></CODE>] (見討論). 
  <DT>fill_outliers
  <DD>該標志位指定是否對原始圖像邊界外面的象素點使用復制模式(<CODE>fill_outliers</CODE>=0)進行差值或者將其設置為指定值(<CODE>fill_outliers</CODE>=1)。 

  <DT>fill_value
  <DD>對超出圖像邊界的矩形象素設定的值(當 <CODE>fill_outliers</CODE>=1時的情況). </DD></DL>
<P>函數 <A 
href="http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_cv.cn.htm#decl_cvGetQuadrangleSubPix">cvGetQuadrangleSubPix</A> 
以子象素精度從圖像 <CODE>src</CODE> 中提取四邊形,使用子象素精度,并且將結果存儲于 <CODE>dst</SPAN></CODE> 
,計算公式是:</P><PRE>dst(x+width(dst)/2, y+height(dst)/2)= src( A<SUB>11</SUB>x+A<SUB>12</SUB>y+b<SUB>1</SUB>, A<SUB>21</SUB>x+A<SUB>22</SUB>y+b<SUB>2</SUB>),

w其中 <CODE>A</CODE>和 <CODE>b</CODE> 均來自映射矩陣(譯者注:A, b為幾何形變參數) <CODE>map_matrix</CODE>
             | A<SUB>11</SUB> A<SUB>12</SUB>  b<SUB>1</SUB> |
map_matrix = |            |

?? 快捷鍵說明

復制代碼 Ctrl + C
搜索代碼 Ctrl + F
全屏模式 F11
切換主題 Ctrl + Shift + D
顯示快捷鍵 ?
增大字號 Ctrl + =
減小字號 Ctrl + -
亚洲欧美第一页_禁久久精品乱码_粉嫩av一区二区三区免费野_久草精品视频
欧美日韩国产一区| 日韩女优电影在线观看| 中文字幕一区二区三区av| 成人美女视频在线看| 国产精品国产三级国产专播品爱网 | 粉嫩欧美一区二区三区高清影视| 久久久久国产精品免费免费搜索| 国产一区二区三区视频在线播放| 久久精品夜夜夜夜久久| 丁香激情综合国产| ●精品国产综合乱码久久久久| 粉嫩aⅴ一区二区三区四区五区| 亚洲特黄一级片| 久久久91精品国产一区二区三区| 国产麻豆午夜三级精品| 中文子幕无线码一区tr| av色综合久久天堂av综合| 亚洲欧美国产77777| 成年人国产精品| 亚洲成人免费看| 欧美本精品男人aⅴ天堂| 国产精品一区二区91| 国产精品亲子伦对白| 91黄色激情网站| 日精品一区二区| 欧美va日韩va| 成人99免费视频| 亚洲国产成人av网| 欧美电影免费观看高清完整版| 国产一区二区剧情av在线| 国产精品久久一卡二卡| 色综合久久66| 亚洲mv在线观看| 26uuu久久综合| 成人污视频在线观看| 亚洲第一搞黄网站| 精品国产免费一区二区三区四区| 国产精品一区二区三区99| 亚洲欧洲精品一区二区三区| 欧美日韩免费一区二区三区视频| 婷婷激情综合网| 国产免费成人在线视频| 色婷婷精品久久二区二区蜜臂av| 日本怡春院一区二区| 国产情人综合久久777777| 91国偷自产一区二区三区成为亚洲经典| 天天综合日日夜夜精品| 日韩免费视频一区| 色噜噜狠狠色综合中国| 老司机免费视频一区二区三区| 国产精品三级av| 欧美老肥妇做.爰bbww视频| 国产一区三区三区| 一区二区三区高清在线| www激情久久| 欧美丰满一区二区免费视频 | 欧美在线免费播放| 国产一区二区精品久久91| 午夜视频在线观看一区二区三区| 国产女主播视频一区二区| 欧美一区二区久久| 欧美在线视频不卡| 99久久婷婷国产综合精品 | 精一区二区三区| 亚洲自拍都市欧美小说| 中文字幕不卡在线观看| 亚洲精品在线三区| 在线不卡中文字幕| 欧洲一区在线电影| 偷窥国产亚洲免费视频| 成人永久免费视频| 欧美变态tickling挠脚心| 激情久久五月天| 日韩福利电影在线观看| 日韩成人午夜精品| 欧美欧美午夜aⅴ在线观看| 亚洲欧美日韩中文播放| 欧美午夜精品久久久久久超碰| 最新成人av在线| 国产成人精品亚洲日本在线桃色| 精品国产区一区| 一区二区中文视频| 日本91福利区| 欧洲一区二区三区在线| 一区二区三区.www| 欧美日韩一卡二卡三卡| 亚洲一区国产视频| 欧美日韩欧美一区二区| 日本va欧美va欧美va精品| 欧美变态tickling挠脚心| 久草热8精品视频在线观看| 国产精品美女久久久久久久久久久| 国产精品一二三四| 日本一区二区三区国色天香| 成人高清免费观看| 一色桃子久久精品亚洲| av在线播放一区二区三区| 亚洲激情av在线| 欧美精品丝袜中出| 国产精品一品二品| 中文字幕亚洲精品在线观看| 日本黄色一区二区| 日本视频在线一区| 久久免费视频色| 一本大道久久a久久综合婷婷 | 91免费在线看| 日本中文字幕不卡| 亚洲成人激情社区| 欧美日韩国产免费一区二区| 久久精品国产999大香线蕉| 久久久久国产精品厨房| 欧美性一级生活| 国产精品一级片在线观看| 日韩美女一区二区三区| 成人中文字幕合集| 日韩成人午夜电影| 一区二区三区日韩| 亚洲精品一区二区在线观看| 99国产精品久久久久久久久久 | 欧美性猛片xxxx免费看久爱| 日韩精品欧美精品| 亚洲女厕所小便bbb| 久久www免费人成看片高清| 国产精品区一区二区三区| 日韩女优毛片在线| 日韩一区二区三区精品视频| 成人黄色在线看| 日韩精品电影在线| 亚洲精品水蜜桃| 一区二区三区资源| 亚洲女爱视频在线| 一区二区三区日韩精品视频| 亚洲人精品午夜| 一区二区三区欧美激情| 国产清纯白嫩初高生在线观看91| 日韩亚洲欧美一区| 精品对白一区国产伦| 久久嫩草精品久久久精品一| 亚洲精品一区二区三区香蕉| 国产三级一区二区| 国产精品网站在线播放| 国产精品久久久久国产精品日日 | 一区二区免费看| 亚洲欧美自拍偷拍| 中文在线一区二区| 国产欧美一区二区三区在线老狼| 久久久亚洲精品石原莉奈| 欧美videos中文字幕| 久久色视频免费观看| 国产日产亚洲精品系列| 欧美国产精品中文字幕| 亚洲激情五月婷婷| 蜜臀精品一区二区三区在线观看 | 麻豆一区二区在线| 狠狠色伊人亚洲综合成人| 黄色小说综合网站| 福利视频网站一区二区三区| 东方欧美亚洲色图在线| 99re这里只有精品首页| 一本大道久久a久久精品综合 | 成人精品亚洲人成在线| 99久久久免费精品国产一区二区 | 色悠久久久久综合欧美99| 欧美午夜精品电影| 日韩三级精品电影久久久| 国产亚洲精久久久久久| 亚洲视频香蕉人妖| 日韩激情av在线| 成人免费黄色在线| 欧美伊人久久大香线蕉综合69| 91精品国产乱码| 欧美videossexotv100| 精品久久久久久无| 亚洲自拍偷拍麻豆| 波多野结衣在线aⅴ中文字幕不卡| 日韩午夜电影av| 性做久久久久久免费观看欧美| 波多野结衣精品在线| 色综合久久88色综合天天6 | 国产欧美日韩另类视频免费观看 | 激情六月婷婷久久| 精品视频在线免费观看| 中文天堂在线一区| 久久99精品国产麻豆婷婷洗澡| 在线观看免费视频综合| 国产欧美一区二区三区网站| 日韩av电影天堂| 欧美日韩综合在线| 亚洲欧美日韩国产成人精品影院| 精品一区二区三区av| 欧美日韩一区二区三区四区| 日韩毛片在线免费观看| 99国产欧美另类久久久精品| 精品国产电影一区二区| 免费成人在线网站| 久久精品网站免费观看| 成人污视频在线观看| 亚洲精选免费视频| 欧美日韩国产在线播放网站| 日本不卡一区二区三区 |