Мне нужно сканировать данные с веб-страницы в определенном порядке, так как мне понравились объявленные поля в моем классе предметов, а затем их нужно поместить в файл csv file.problem, где сейчас хранятся данные не в specfic порядке, как в случае его утилизации данные любого поля и вставка в файл csv, но я хочу, чтобы он хранил данные, как я объявил в моем классе товаров. Я новичок в python. Вы можете сказать мне, как это сделатьКак хранить данные, просканированные в scrapy в определенном порядке?
Для бывшего: моего класса элемента класса DmozItem (Item): названия = поле() ссылки = поле() убывания = Field()
сейчас при хранении данных в csv-файле его сохранение сначала происходит по ссылке, а затем заголовок «desc»: [], «link»: ["/ Computers/Programming /"], "title": ["Programming"]}
Привет, вы предлагаете добавить одну строку «field_iter = ['title', 'link', 'desc']", потому что все остальные коды одинаковы, но даже после добавления этого вывода идет то же самое – user3706469
Также я искал в документах, я нашел это : fields_to_export Список с именами полей, которые будут экспортированы, или Нет, если вы хотите экспортировать все поля. По умолчанию - None. Некоторые экспортеры (например, CsvItemExporter) уважают порядок полей, определенных в этом атрибуте. но не смог найти это в BaseItemExporter – user3706469
Вы наконец решили решение? – zczhuohuo