У меня есть json-файл, похожий на, например.Добавить элементы JSON в список, а затем удалять дубликаты эффективно в Python
[{ "фу": "thejimjams", "су": 4580}, { "фу": "thejimjams", "су": 216575430}, { "фу": "thejimjams", «су»: 184695850}]
мне нужно поставить все значения для связки JSon файлов в категории «су» в списке. Поэтому каждый файл (около 200) будет иметь свой собственный список, тогда я собираюсь объединить список и удалить дубликаты. Есть ли и целесообразно, когда я делаю это, чтобы сохранить системные ресурсы и время?
Я собираюсь сделать список, пропустить через json-файл, чтобы каждый «su» поместил его в список, перейдите к следующему файлу, затем добавьте список, затем сканируйте, чтобы удалить дубликаты.
С точки зрения удаления дубликатов я думаю после того, что ответ был на этот вопрос: Combining two lists and removing duplicates, without removing duplicates in original list если это не не эффективно
В основном открыты для рекомендаций по хорошим способом для осуществления этого.
Thanks,
Благодарим, что я в основном принял этот подход, как только все упомянутые наборы в качестве решения, я увижу, если реализация 'set (su для суса в списках для su in sus)' улучшает производительность. – eWizardII