У меня есть довольно прямой вопрос, я собираюсь сделать много запросов HTTP для получения полезной нагрузки XML, и мне нужно проанализировать полезную нагрузку и внести некоторые изменения в базы данных.Самый эффективный способ справиться с большим количеством HttpRequests
Я собираюсь делать эти запросы довольно часто, поэтому любая оптимизация будет хорошей.
Мне интересно, есть ли более эффективный способ выполнения запросов, так как это займет больше времени. Я пишу это на Java, я использую SAXParser для анализа полезной нагрузки XML для данных, которые мне нужны. Я использую класс HttpURLConnection для запросов Http, и я просто запускаю поток, синхронизированный и ожидающий каждого запроса. Я пытался одновременно запускать запросы, и я сталкиваюсь с некоторыми проблемами. Компьютер, на котором я буду работать, очень способен, поэтому я не буду сталкиваться с проблемами памяти или обработки. Так что я задаю следующие вопросы:
- Было бы более эффективным взять хэш полезной нагрузки XML и сохранить его в БД или проанализировать XML и проверить данные вручную?
- Есть ли более эффективная библиотека для HttpRequests, чем HttpURLConnection?
- Могут ли быть сделаны какие-либо оптимизации с потоками запросов?
Любое понимание оценено.
Вы, вероятно, выиграете от клиента async http – irreputable