반응형

pix2pix 태스크를 진행할 때 데이터 셋을 모을 필요가 있다.

나의 경우 구글맵 실사 이미지를 2D 이미지로 변환하는 태스크를 수행한다.

이때 학습 이미지 화질이나 질감 등에 크게 영향을 끼치지 않는 증강기법을 적용한다.

flip, rotate를 적용하면 좋을 것 같다.

def h_flip(input_image, real_image):
    input_image = cv2.flip(input_image,1)
    real_image = cv2.flip(real_image,1)
    return input_image, real_image

def v_flip(input_image, real_image):
    input_image = cv2.flip(input_image,0)
    real_image = cv2.flip(real_image,0)
    return input_image, real_image

def rotate90(input_image, real_image):
    input_image = cv2.rotate(input_image,cv2.ROTATE_90_CLOCKWISE)
    real_image = cv2.rotate(real_image,cv2.ROTATE_90_CLOCKWISE)
    return input_image, real_image
    
def rotate180(input_image, real_image):
    input_image = cv2.rotate(input_image,cv2.ROTATE_180)
    real_image = cv2.rotate(real_image,cv2.ROTATE_180)
    return input_image, real_image
    
def rotate270(input_image, real_image):
    input_image = cv2.rotate(input_image,cv2.ROTATE_90_COUNTERCLOCKWISE)
    real_image = cv2.rotate(real_image,cv2.ROTATE_90_COUNTERCLOCKWISE)
    return input_image, real_image

기존에 노가다로 625개의 데이터 셋을 구비했는데 이러한 증강기법으로 3750개로 늘어났다.

반응형

+ Recent posts