У меня есть Alluxio на локальном с Spark, и я вставляю 1000 файлов в память Alluxio.
Тем не менее, чтение файла происходит очень медленно, время чтения файла из памяти Alluxio равно время чтения файла с диска. Я не understant почему ...Прочитайте несколько файлов с Spark java от Alluxio медленно
File Name Size Block Size In-Memory Persistence State Pin Creation Time Modification Time
file1 54.73KB 512.00MB 100% NOT_PERSISTED NO 08-16-2016 12:52:31:278 08-16-2016 12:52:31:372
file2 54.73KB 512.00MB 100% NOT_PERSISTED NO 08-16-2016 12:52:31:377 08-16-2016 12:52:31:384
file3 54.72KB 512.00MB 100% NOT_PERSISTED NO 08-16-2016 12:52:31:386 08-16-2016 12:52:31:393
file4 54.71KB 512.00MB 100% NOT_PERSISTED NO 08-16-2016 12:52:31:394 08-16-2016 12:52:31:400
file5 54.72KB 512.00MB 100% NOT_PERSISTED NO 08-16-2016 12:52:31:401 08-16-2016 12:52:31:407
...
Я прочитал данные с файла API:
FileSystem fs = FileSystem.Factory.get();
AlluxioURI path = new AlluxioURI(/partition0);
List<URIStatus> status = fs.listStatus(path);
for (int i=0; i<status.size(); i++)
{
path = new AlluxioURI(status.get(i).getPath());
if(fs.exists(path)==true)
{
FileInStream in = fs.openFile(path);
String file = "";
InputStreamReader ipsr = new InputStreamReader(in);
BufferedReader br=new BufferedReader(ipsr);
String line;
line=br.readLine();
while (line != null){
//System.out.println(line);
file = file + line;
line=br.readLine();
}
byte[] cfv = file.getBytes();
br.close();
// Close file relinquishing the lock
in.close();
}
}
я не использую действительно Искробезопасная сейчас, потому что тест, чтобы прочитать раздел с 1000 файлов очень медленный ... (я хочу прочитать файл по разделу с Spark в futur).
Есть ли у кого-то идеал, почему читать так медленно?
Спасибо, я лучше понимаю свои ошибки. Есть ли правило для выбора оптимального размера блока в соответствии с размером блока? – TiGi