Я пытаюсь найти лучший способ обработки следующих данных. Я очищаю сайт и использую файл Text (.prn) (файл для печати, это файл с данными, которые я хочу, я думаю, что это было бы лучше, чем файл Adobe Acrobat) для сбора данных. Моя проблема заключается в том, когда я переношу данные в python: данные только приближаются к вертикали по экрану по одной букве за раз, поэтому, хотя есть несколько строк, эти данные просто передаются по одному столбцу. Интересно, знает ли кто-нибудь, как заставить данные войти, более «традиционным» способом, где я могу привести строку [0], строку [1] и т. Д. ... Вот мой код, если он помогает (вы также можете увидеть некоторые другие функции, которые я пробовал).Форматирование данных из текстового файла (.prn)
import os
import urllib
import urllib2
import string
import sys
import os
from bs4 import BeautifulSoup
import csv
import mechanize
from numpy import*
import datetime
import traceback
from pylab import*
site="http://www.treasurydirect.gov/govt/reports/pd/mspd/mspd.htm"
br = mechanize.Browser()
br.set_handle_equiv(False)
br.open(site)
print 'br.title',br.title()
allforms = list(br.forms())
br.form = allforms[0]
br.follow_link(text_regex="February", nr=0)
#br.click_link(text='February', nr=0) # this works to
#next page
print br.title()
allforms = list(br.forms())
print allforms
br.form = allforms[0]
getstuff=br.click_link(text="Text (.prn)", nr=0) # this works to
#getstuff= br.click_link(text="Adobe Acrobat (.pdf)", nr=0) Adobe Acrobat (.pdf)
br.open(getstuff)
csvData=br.response().read() # use read to BeautifulSoup(x)
#site = BeautifulSoup(csvData)
#print site
for row in csvData:
print row[0]
Вот точная страница сайта, где текстовый файл (.prt) находится по адресу: http://www.treasurydirect.gov/govt/reports/pd/mspd/2013/2013_feb.htm
Я пытаюсь обрабатывать данные в тексте (.prn) файл под РЕЗЮМЕ. , пожалуйста, дайте советы по наилучшему способу обработки данных.
Я использую python27, механизировать, красивый суп и URLLIB
просто хочу сказать, что это был самый удивительный ответ, который я когда-либо получал, я многому научился от него и до сих пор использовать скрипт на от недели к месяцу. Спасибо furins – user1087809
Вы очень любезны, чтобы сообщить мне об этом! Я рад, что мой ответ помог вам! – furins