2016-10-23 4 views
1

Я просто новичок R-кодера и был вдохновлен использованием технологий PCA и технологий для классификации изображений. Однако большинство примеров, по-видимому, находятся в Python, и я предпочел бы продолжить разработку в R.Любой простой классификационный код EigenFaces в R

Я загрузил изображения лица Cambridge в оттенках серого в столбец 400 образцов x 10304 ImageData с каждым столбцом, представляющим сложенное значение пикселя в оттенках серого 112x92 , Я могу построить каждое изображение с помощью pixmapRGB OK.

Я выполняю анализ PCA и считаю, что я извлек собственные значения, но когда я воссоздаю свое первое изображение с 50 EigenFaces, это еще далеко, больше похоже на грубую EigenFace.

Так что я не думаю, что я обрабатывать свои средства изображения и масштабируются правильно или неправильно (я пробовал и без colmeans среднего изображения, и prcomp без центра = FALSE.

Так что я действительно ищу для некоторых встык EigenFaces классификационного кода в R

cmeans = colMeans(TrainImages) 
DisplayImage(cmeans, main = "Average Person") 
ProcTrainData = TrainImages # - cmeans 

# Now PCA Analysis - Adjusted Tolerance to 0.125 to return ~50 PCs 
PCAProcess = prcomp(ProcTrainData, center = TRUE, tol = 0.125) 

# Analyse PCA results Results 
par(mfrow = c(1, 2)) 
screeplot(PCAProcess) 
devs = PCAProcess$sdev^2/sum(PCAProcess$sdev^2) 
plot(1 - devs, main = "Percent Variance Explained", type = "l") 

EigenFaces = PCAProcess$rotation 

# Project Training Data into PCA Eignevalue space 
TrainPCAValues = ProcTrainData %*% EigenFaces 

# Plot first ten EigenFaces 
par(mfrow = c(2, 5)) 
par(oma = rep(2, 4), mar = c(0, 0, 3, 0)) 

for (i in 1:10) { 
    DisplayImage(EigenFaces[, i], main = paste0("EF ", i)) #PCs from sample data 
} 
# ======== Recover the first Image by the use of PCA attributes and Eigen 
# Images 
Composite[1:ImageSize] = 0 # PCAProcess$center; 
for (iv in 1:50) { 
    Composite = Composite + TrainPCAValues[1, iv] * EigenFaces[, iv] 
} 

DisplayImage(Composite) 
DisplayImage(TrainImages[1, ]) 
DisplayImage(PCAProcess$center) 

Эйген Лица Eigen Faces

Сформирован Composite против оригинала 1 Sample Generated Composite vs Original 1st Sample

ответ

0

Просто немного прогресса. В принципе я решил игнорировать вычисления среднего значения перед вызовом prcomp, и вместо того, чтобы использовать prcomp рассчитать масштаб и центр:

enter code here# Adjusted Tolerance to 0.05 to return ~50 PCs 
PCAProcess = prcomp(TrainImages,center = TRUE,scale. = TRUE ,tol=0.05) 
# 
# Analyse PCA results Results 
summary(PCAProcess) 
par(mfrow=c(1, 2)) 
screeplot(PCAProcess) 
devs = PCAProcess$sdev^2/sum(PCAProcess$sdev^2) 
plot(1-devs, main='Percent Variance Explained', type='l') 
# 
# The PCA Process will have reduced the Original Image Dimension 96x96 = 9216 down to ~50 
# The Rotated Data into ~50 dimension is in PCAProcess$x arrays (
# The Eigen Rotatations of the original dimensionare captued in  PCAProcess$rotation 
# 
# Looks like we can get away with use of 25 PCs to get about 95% or varience 
EigenFaces = PCAProcess$rotation[,1:25]; 
# Plot first ten EigenFaces 
par(mfrow=c(2, 5)) 
par(oma = rep(2, 4), mar=c(0, 0, 3, 0)) 
for (i in 1:10){ 
    im <- matrix(data=rev(EigenFaces[,i]), nrow=96, ncol=96) 
image(1:96, 1:96, im, col=gray((0:255)/255)) 
} 
# 
# Training Reconstruction Matrix *just first 25 attributes in PCA space 
ReconstructTraining = PCAProcess$x[,1:25]%*%t(EigenFaces) 
# 
# Need to unscale and uncentre back using the prcomp computed scale and centre 
# 
if(PCAProcess$scale != FALSE){ 
ReconstructTraining <- scale(ReconstructTraining, center = FALSE ,scale=1/PCAProcess$scale) 
} 
if(all(PCAProcess$center != FALSE)){ 
    ReconstructTraining <- scale(ReconstructTraining, center = -1 * PCAProcess$center, scale=FALSE) 
} 
# ============================ 
#Recover the first Image by the use of PCA attributes and Eigen Images 
# 
par(mfrow=c(1, 2)) 
# Original Image 2 
im <- matrix(data=rev(im.train[2,]), nrow=96, ncol=96) 
image(1:96, 1:96, im, col=gray((0:255)/255)) 

RestoredImage <- matrix(data=rev(ReconstructTraining[2,]), nrow=96, ncol=96) 
image(1:96, 1:96, RestoredImage, col=gray((0:255)/255)) 

Еще не особенно хорошо по сравнению с различными EigneFaces Учебники и документы. Таким образом, с использованием 25 EigenFaces Original vs reconstructed

Скриншот Python EigenFaces выглядит намного лучше, чем использование R. Поэтому я перейду на использование Python для машинного обучения, поскольку оно, кажется, лучше поддерживается сообществом.

+0

Спрашивается ли вы, что вы связаны с одним и тем же набором данных? Вы пробовали строить стандартные отклонения? – broncoAbierto

Смежные вопросы