Я делаю простой приложение для камеры для iOS и MAC. После того как пользователь щелкнул изображение, он генерирует UIimage на iOS (NSImage на MAC). Я хочу, чтобы можно было выделить области в изображении, которое было выставлено. В основном отображаемые области будут мигать, когда отображается это изображение.выделить переэкспонированные области в UIImage
Кто-нибудь знает алгоритм о том, как определить, где на изображении переэкспонировано. Я просто добавляю значения R, G, B на каждый пиксель. И если сумма на каждом пикселе больше определенной величины, тогда начните мигать этим пикселем и сделайте это для всех пикселей?
Или мне нужно сделать сложную математику из космоса, чтобы понять это?
Благодаря грубой
С RGB, если какое-либо из значений находится в максимуме, возможно, произошло обрезание. «Передержан» является субъективным. Определите «переэкспонированные» и начните там. –
переэкспонировал или «выдул» части изображения, как его называли фотографы. Думаю, это означает любые части с максимальным значением? Я действительно не знаю точно, но моя камера может мигать части изображения, которые выдуваются из передержанных. Это то, что я имею в виду, но я хочу сделать это в приложении. –