Да, это уже сделано и хорошо документированы в нескольких научно-исследовательских работ, как CNN Features off-the-shelf: an Astounding Baseline for Recognition и How transferable are features in deep neural networks?. Оба показывают, что использование возможностей CNN, обучаемых на одном наборе данных, но протестированных на другом, обычно выполняется очень хорошо или избивает современное состояние.
В общем, вы можете использовать функции со слоя до последнего, нормализовать их и использовать их с другим классификатором.
Другая связанная техника - тонкая настройка, где после обучения сети последний слой заменяется и переучивается, но весы предыдущих слоев сохраняются фиксированными.