У меня есть некоторые большие кодированные данные base64 (хранятся в быстрых файлах в файловой системе hadoop). Эти данные были первоначально gzipped текстовыми данными. Мне нужно уметь читать фрагменты этих закодированных данных, декодировать их, а затем очищать их до GZIPOutputStream.Потоковое декодирование данных Base64
Любые идеи о том, как я мог это сделать, вместо того, чтобы загружать все данные base64 в массив и вызывать Base64.decodeBase64 (byte [])?
Я прав, если я прочитал символы до разделителя '\ r \ n' и расшифровал его по строкам? , например. :
for (int i = 0; i < byteData.length; i++) {
if (byteData[i] == CARRIAGE_RETURN || byteData[i] == NEWLINE) {
if (i < byteData.length - 1 && byteData[i + 1] == NEWLINE)
i += 2;
else
i += 1;
byteBuffer.put(Base64.decodeBase64(record));
byteCounter = 0;
record = new byte[8192];
} else {
record[byteCounter++] = byteData[i];
}
}
К сожалению, этот подход не дает никаких человекочитаемых результатов. В идеале, я хотел бы потоковое чтение, декодирование и поток данных.
Сейчас я пытаюсь поставить в InputStream, а затем скопировать в gzipout
byteBuffer.get(bufferBytes);
InputStream inputStream = new ByteArrayInputStream(bufferBytes);
inputStream = new GZIPInputStream(inputStream);
IOUtils.copy(inputStream , gzipOutputStream);
И это дает мне java.io.IOException: Коррумпированные GZIP прицеп
'byteBuffer.put (Base64.decodeBase64 (запись));' Не должно быть, что 'byteBuffer.put (Base64.encodeBase64 (запись));' –
'записи' кодируется в Base64. Я пытаюсь получить декодированные данные и добавить их в ByteBuffer. –