2016-12-07 5 views
2

Я новичок в JavaCV. Я пытаюсь обнаружить самый большой прямоугольник в изображении и начертить его цветом с оригинальным изображением. Я отправляю код ниже, который я пробовал, но он не работает. Я правильно получаю edgeDetectedImage. Я получаю 4 угловых точки должным образом. Просто cvDrawLine не работает. Пожалуйста, помогите, если у меня ничего не было:Android: обнаружение формы с JavaCV

OnClick кнопки Я обрабатываю изображение и показываю его снова на ImageView. В onClickListener кнопки:

if ((new File(path + "trial.jpg")).exists()) { 
    opencv_core.IplImage originalImage = opencv_imgcodecs.cvLoadImage(path + "trial.jpg", opencv_imgcodecs.CV_IMWRITE_JPEG_QUALITY); 
    opencv_core.IplImage iplImage = opencv_imgcodecs.cvLoadImage(path + "trial.jpg", opencv_imgcodecs.CV_LOAD_IMAGE_GRAYSCALE); 
    opencv_core.IplImage edgeDetectedImage = applyCannyRectangleEdgeDetection(iplImage, 80); 
    opencv_core.CvSeq largestContour = findLargestContour(edgeDetectedImage); 
    opencv_core.CvPoint[] cvPoints = new opencv_core.CvPoint[4]; 
    for(int i=0; i<largestContour.total();i++) 
    { 
    opencv_core.CvPoint cvPoint = new opencv_core.CvPoint(cvGetSeqElem(largestContour, i)); 
    cvPoints[i] = cvPoint; 
    } 
    cvDrawLine(originalImage, cvPoints[0], cvPoints[1], opencv_core.CvScalar.YELLOW, 10, 10, 10); 
    cvDrawLine(originalImage, cvPoints[1], cvPoints[2], opencv_core.CvScalar.YELLOW, 10, 10, 10); 
    cvDrawLine(originalImage, cvPoints[2], cvPoints[3], opencv_core.CvScalar.YELLOW, 10,10, 10); 
    cvDrawLine(originalImage, cvPoints[3], cvPoints[0], opencv_core.CvScalar.YELLOW, 10, 10,10); 
    opencv_imgcodecs.cvSaveImage(path + "img1.jpg", originalImage); 
        if ((new File(path + "img1.jpg").exists())) { 
         imageView.setImageDrawable(Drawable.createFromPath(path + "img1.jpg")); 
        } 
       } 

Метод applyCannyRectangleEdgeDetection (IplImage, Int):

private opencv_core.IplImage applyCannyRectangleEdgeDetection(opencv_core.IplImage iplImage, int percent) { 
    opencv_core.IplImage destImage = downScaleImage(iplImage, percent); 
    OpenCVFrameConverter.ToMat converterToMat = new OpenCVFrameConverter.ToMat(); 
    Frame grayImageFrame = converterToMat.convert(destImage); 
    opencv_core.Mat grayImageMat = converterToMat.convertToMat(grayImageFrame); 
    GaussianBlur(grayImageMat, grayImageMat, new opencv_core.Size(5, 5), 0.0, 0.0, BORDER_DEFAULT); 
    destImage = converterToMat.convertToIplImage(grayImageFrame); 
    cvErode(destImage, destImage); 
    cvDilate(destImage, destImage); 
    cvCanny(destImage, destImage, 20, 55); 
    return destImage; 
} 

Метод downScaleImage (IplImage, Int)

private opencv_core.IplImage downScaleImage(opencv_core.IplImage srcImage, int percent) { 
    opencv_core.IplImage destImage = cvCreateImage(cvSize((srcImage.width() * percent)/100, (srcImage.height() * percent)/100), srcImage.depth(), srcImage.nChannels()); 
    cvResize(srcImage, destImage); 
    return destImage; 
} 

Метод findLargestContour (IplImage)

private opencv_core.CvSeq findLargestContour(opencv_core.IplImage edgeDetectedImage) { 
    opencv_core.IplImage foundContoursOfImage = cvCloneImage(edgeDetectedImage); 
    opencv_core.CvMemStorage memory = new opencv_core.CvMemStorage().create(); 
    opencv_core.CvSeq contours = new opencv_core.CvSeq(); 
    cvFindContours(foundContoursOfImage, memory, contours, Loader.sizeof(opencv_core.CvContour.class), CV_RETR_LIST, CV_CHAIN_APPROX_SIMPLE, new opencv_core.CvPoint(0, 0)); 
    int maxWidth = 0; 
    int maxHeight = 0; 
    opencv_core.CvRect contr = null; 
    opencv_core.CvSeq seqFound = null; 
    opencv_core.CvSeq nextSeq; 
    for (nextSeq = contours; nextSeq != null; nextSeq = nextSeq.h_next()) { 
     contr = cvBoundingRect(nextSeq, 0); 
     if ((contr.width() >= maxWidth) && (contr.height() >= maxHeight)) { 
      maxHeight = contr.height(); 
      maxWidth = contr.width(); 
      seqFound = nextSeq; 
     } 
    } 
    opencv_core.CvSeq result = cvApproxPoly(seqFound, Loader.sizeof(opencv_core.CvContour.class), memory, CV_POLY_APPROX_DP, cvContourPerimeter(seqFound) * 0.1, 0); 
    return result; 
} 

ответ

0

Извините, что это должно быть в комментариях, но у меня недостаточно репутации. То, что я вижу из вашего кода, состоит в том, что canny применяется на уменьшенном изображении, а также в контуре. Вы рисуете линии на исходном изображении (который не уменьшается на процентах), поэтому, естественно, он выглядел бы неправильно (если он выглядит неправильно, а что-то делается). В противном случае вы должны указать цветовое пространство изображения, это не имеет значения для рисования, но делает для canny.

+0

Я беру точки из уменьшенного изображения и рисуя на изображении. Все операции по сбрасыванию и сглаживанию были сделаны, чтобы получить эти 4 угловые точки. И используя эти точки, я рисую строки на оригинальном изображении. То, что вы говорите в соответствии с этим, хотя размеры не будут соответствовать оригинальному изображению, но по крайней мере что-то должно быть нарисовано на изображении. В моем случае здесь ничего не рисуется на изображении. –

+0

Можете ли вы разместить изображение и угловые точки? Если нет, проверили ли вы координаты углов прямоугольника с изображением? –

+0

Потому что из вашего кода выглядит, что контуры извлекаются из изображения, которое составляет 0,8 размера исходного изображения, на которое вы рисуете. Кроме того, какую версию OpenCV вы используете? –

Смежные вопросы