При определении сети сегментации для изображений RGB , например, в примере сети fcn-xs на mxnet, , входной слой изображения RGB подается на несколько сверток, активаций, и т. д. ...Как выделяется цветовая контрастность в сетях сериализации изображений CNN
Свертка, например, определяется следующим образом: mxnet.symbol.Convolution (data = input, kernel = (3, 3), pad = (1, 1), num_filter = 64, Рабочая область = workspace_default, name = "conv1_1")
С одной стороны, фильтры свертки здесь 2D, то есть каждый цветный слой R, G, B обрабатывается отдельно. С другой стороны, из неврологии хорошо известно, что соответствующие признаки содержатся в цветовом контрасте, а не в самом цветовом канале, то есть цвета должны быть вычтены друг из друга, например. Красный минус Зеленый или Синий минус Желтый.
Как обеспечить соблюдение сетевой структуры? Как компоненты R G B смешиваются и объединяются?
(странно говоря с самим собой ....) Я полагаю, что определяя kernel = (2, 1, 1), pad = (0, 0, 0) У меня может быть вырожденный 3-й фильтр, который также работает с цветовой гаммой. С некоторой удачей (a.k.a. как надлежащее обучение) я получаю цветовой контраст на выходе, т. Е. Фильтр будет иметь два коэффициента, один положительный и один отрицательный, которые будут суммироваться более или менее до нуля. Меня действительно удивляет то, что авторы FCN этого не думали. Я на правильном пути ??? –