2016-06-22 3 views
0

У меня есть скрипт python, который очищает веб-сайт в CSV-файле. Я пытаюсь преобразовать его в инструкцию mySQL insert. Код ниже вставляет значения NULL в мою таблицу. Как я могу изменить его на работу?Convert CSV Scrape to mySQL insert

Примечание: прокомментированные строки удаляют царапину CSV, которая работает.

#f = codecs.open('results.csv', 'w', encoding='UTF-8') 
d = date.today() 
todays_date = date.strftime(d, '%m/%d/%y') 
#f.write("Date,Time,Away) 
#f.write('\n') 

def scrape_game_info(): 
    all_tbodies = driver.find_elements_by_tag_name('tr') 
parsed_tbodies = [ 
    i for i in all_tbodies if 'ctl00_content_ctl00' in i.get_attribute('id')] 
del parsed_tbodies[0] 
dictionary = OrderedDict(itertools.izip_longest(
    *[iter(parsed_tbodies)] * 2, fillvalue="")) 
for key, value in dictionary.items(): 
    tds = key.find_elements_by_tag_name('td') 
    date = tds[0].text 
    if date == todays_date: 
     away=tds[2].text 
     #f.write(date) 
     #f.write(',') 
     #f.write(time) 
     #f.write(',') 
     #f.write(away_rotation_number) 
     #f.write(',') 
pgp=("INSERT INTO pgp (Date, Time, Away)\ 
VALUES (date, time, Away) 
cursor.execute(pgp) 

** это часть кода, но я считаю достаточно, чтобы помочь определить проблему.

+0

Почему бы не загрузить csv непосредственно в mysql? – splash58

+0

Поскольку я буду запускать этот скрипт часто –

+1

У меня есть люди с графическим интерфейсом, которые каждый день загружают данные infile. На месте вашей вещи петлителя. Очень быстро. – Drew

ответ

0

Я использовал предложение Дрю использовать данные загрузки infile. Я запускал сценарий как обычно, который создает csv. Затем я добавил код, который загружает данные после создания сценария.