2013-06-17 5 views
0

Я делаю простой приложение для камеры для iOS и MAC. После того как пользователь щелкнул изображение, он генерирует UIimage на iOS (NSImage на MAC). Я хочу, чтобы можно было выделить области в изображении, которое было выставлено. В основном отображаемые области будут мигать, когда отображается это изображение.выделить переэкспонированные области в UIImage

Кто-нибудь знает алгоритм о том, как определить, где на изображении переэкспонировано. Я просто добавляю значения R, G, B на каждый пиксель. И если сумма на каждом пикселе больше определенной величины, тогда начните мигать этим пикселем и сделайте это для всех пикселей?

Или мне нужно сделать сложную математику из космоса, чтобы понять это?

Благодаря грубой

+1

С RGB, если какое-либо из значений находится в максимуме, возможно, произошло обрезание. «Передержан» является субъективным. Определите «переэкспонированные» и начните там. –

+0

переэкспонировал или «выдул» части изображения, как его называли фотографы. Думаю, это означает любые части с максимальным значением? Я действительно не знаю точно, но моя камера может мигать части изображения, которые выдуваются из передержанных. Это то, что я имею в виду, но я хочу сделать это в приложении. –

ответ

0

вам придется пройти через изображение, в зависимости от желаемой точности и точности, вы можете комбинировать пропуск и усреднение пикселей, чтобы придумать с гладкой областью ... это будет зависеть от детали вашего цветового пространства, но представьте себе пространство YUV (потому что вам нужно посмотреть только одно значение: Y или яркость):

Если 240/255 считается белым, тогда большее значение, скажем, 250/255, будет и вы можете отметить его, а затем отобразить в оверлее.

Смежные вопросы