欧美三区_成人在线免费观看视频_欧美极品少妇xxxxⅹ免费视频_a级毛片免费播放_鲁一鲁中文字幕久久_亚洲一级特黄

基于Python的圖像數(shù)據(jù)增強Data Augmentation解析

系統(tǒng) 2169 0

1.1 簡介

深層神經(jīng)網(wǎng)絡一般都需要大量的訓練數(shù)據(jù)才能獲得比較理想的結果。在數(shù)據(jù)量有限的情況下,可以通過數(shù)據(jù)增強(Data Augmentation)來增加訓練樣本的多樣性, 提高模型魯棒性,避免過擬合。

在計算機視覺中,典型的數(shù)據(jù)增強方法有翻轉(zhuǎn)(Flip),旋轉(zhuǎn)(Rotat ),縮放(Scale),隨機裁剪或補零(Random Crop or Pad),色彩抖動(Color jittering),加噪聲(Noise)

筆者在跟進視頻及圖像中的人體姿態(tài)檢測和關鍵點追蹤(Human Pose Estimatiion and Tracking in videos)的項目。因此本文的數(shù)據(jù)增強僅使用――翻轉(zhuǎn)(Flip),旋轉(zhuǎn)(Rotate ),縮放以及縮放(Scale)

2.1 裁剪(Crop)

  • image.shape--([3, width, height])一個視頻序列中的一幀圖片,裁剪前大小不統(tǒng)一
  • bbox.shape--([4,])人體檢測框,用于裁剪
  • x.shape--([1,13]) 人體13個關鍵點的所有x坐標值
  • y.shape--([1,13])人體13個關鍵點的所有y坐標值
            
def crop(image, bbox, x, y, length):
    x, y, bbox = x.astype(np.int), y.astype(np.int), bbox.astype(np.int)

    x_min, y_min, x_max, y_max = bbox
    w, h = x_max - x_min, y_max - y_min

    # Crop image to bbox
    image = image[y_min:y_min + h, x_min:x_min + w, :]

    # Crop joints and bbox
    x -= x_min
    y -= y_min
    bbox = np.array([0, 0, x_max - x_min, y_max - y_min])

    # Scale to desired size
    side_length = max(w, h)
    f_xy = float(length) / float(side_length)
    image, bbox, x, y = Transformer.scale(image, bbox, x, y, f_xy)

    # Pad
    new_w, new_h = image.shape[1], image.shape[0]
    cropped = np.zeros((length, length, image.shape[2]))

    dx = length - new_w
    dy = length - new_h
    x_min, y_min = int(dx / 2.), int(dy / 2.)
    x_max, y_max = x_min + new_w, y_min + new_h

    cropped[y_min:y_max, x_min:x_max, :] = image
    x += x_min
    y += y_min

    x = np.clip(x, x_min, x_max)
    y = np.clip(y, y_min, y_max)

    bbox += np.array([x_min, y_min, x_min, y_min])
    return cropped, bbox, x.astype(np.int), y.astype(np.int)
          

2.2 縮放(Scale)

  • image.shape--([3, 256, 256])一個視頻序列中的一幀圖片,裁剪后輸入網(wǎng)絡為256*256
  • bbox.shape--([4,])人體檢測框,用于裁剪
  • x.shape--([1,13]) 人體13個關鍵點的所有x坐標值
  • y.shape--([1,13])人體13個關鍵點的所有y坐標值
  • f_xy--縮放倍數(shù)
            
def scale(image, bbox, x, y, f_xy):
    (h, w, _) = image.shape
    h, w = int(h * f_xy), int(w * f_xy)
    image = resize(image, (h, w), preserve_range=True, anti_aliasing=True, mode='constant').astype(np.uint8)

    x = x * f_xy
    y = y * f_xy
    bbox = bbox * f_xy

    x = np.clip(x, 0, w)
    y = np.clip(y, 0, h)

    return image, bbox, x, y
          

2.3 翻轉(zhuǎn)(fillip)

這里是將圖片圍繞對稱軸進行左右翻轉(zhuǎn)(因為人體是左右對稱的,在關鍵點檢測中有助于防止模型過擬合)

            
def flip(image, bbox, x, y):
    image = np.fliplr(image).copy()
    w = image.shape[1]
    x_min, y_min, x_max, y_max = bbox
    bbox = np.array([w - x_max, y_min, w - x_min, y_max])
    x = w - x
    x, y = Transformer.swap_joints(x, y)
    return image, bbox, x, y
          

翻轉(zhuǎn)前:

翻轉(zhuǎn)后:

基于Python的圖像數(shù)據(jù)增強Data Augmentation解析_第1張圖片

2.4 旋轉(zhuǎn)(rotate)

angle--旋轉(zhuǎn)角度

            
def rotate(image, bbox, x, y, angle):
    # image - -(256, 256, 3)
    # bbox - -(4,)
    # x - -[126 129 124 117 107 99 128 107 108 105 137 155 122 99]
    # y - -[209 176 136 123 178 225 65 47 46 24 44 64 49 54]
    # angle - --8.165648811999333
    # center of image [128,128]
    o_x, o_y = (np.array(image.shape[:2][::-1]) - 1) / 2.
    width,height = image.shape[0],image.shape[1]
    x1 = x
    y1 = height - y
    o_x = o_x
    o_y = height - o_y
    image = rotate(image, angle, preserve_range=True).astype(np.uint8)
    r_x, r_y = o_x, o_y
    angle_rad = (np.pi * angle) /180.0
    x = r_x + np.cos(angle_rad) * (x1 - o_x) - np.sin(angle_rad) * (y1 - o_y)
    y = r_y + np.sin(angle_rad) * (x1 - o_x) + np.cos(angle_rad) * (y1 - o_y)
    x = x
    y = height - y
    bbox[0] = r_x + np.cos(angle_rad) * (bbox[0] - o_x) + np.sin(angle_rad) * (bbox[1] - o_y)
    bbox[1] = r_y + -np.sin(angle_rad) * (bbox[0] - o_x) + np.cos(angle_rad) * (bbox[1] - o_y)
    bbox[2] = r_x + np.cos(angle_rad) * (bbox[2] - o_x) + np.sin(angle_rad) * (bbox[3] - o_y)
    bbox[3] = r_y + -np.sin(angle_rad) * (bbox[2] - o_x) + np.cos(angle_rad) * (bbox[3] - o_y)
    return image, bbox, x.astype(np.int), y.astype(np.int)
          

旋轉(zhuǎn)前:

旋轉(zhuǎn)后:

基于Python的圖像數(shù)據(jù)增強Data Augmentation解析_第2張圖片

3 結果(output)

數(shù)據(jù)增強前的原圖:

基于Python的圖像數(shù)據(jù)增強Data Augmentation解析_第3張圖片

數(shù)據(jù)增強后:

基于Python的圖像數(shù)據(jù)增強Data Augmentation解析_第4張圖片

以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術交流、商務合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 国产精品美女久久久久久免费 | 国产精品日本欧美一区二区 | 夜夜爽夜夜叫夜夜高潮漏水 | 亚洲第一国产 | 一级片视频免费观看 | 青青青国产观看免费视频 | 99视频有精品视频高清 | 国产精品国产三级在线专区 | 欧美精品国产综合久久 | 欧美精品1区2区 | 欧美色性 | 在线不卡一区 | 成人欧美一区在线视频在线观看 | 欧美成人免费看片一区 | 国产精品久久久久久久免费大片 | 热久久免费视频 | 伊人午夜视频 | 色一欲一性一乱一区二区三区 | 奇米影视四色7777 | 国产精品单位女同事在线 | 久久综合九九 | 国产中文字幕在线 | 神马午夜不卡片 | 日韩系列 | 日本国产欧美 | 青青草无限次破解版污 | 激情.com| 成人国产精品免费视频 | 亚洲 欧美 中文字幕 | 日本久久网| 日韩精品 电影一区 亚洲 | 亚洲精品在线免费 | 国产高清卡一卡新区 | 午夜亚洲国产成人不卡在线 | www.日日日 | 亚洲国产国产综合一区首页 | jiucao在线观看精品 | 国产精品免费在线播放 | 加勒比精品久久一区二区三区 | 久久久成人精品 | 天天草天天 |