# pick up the file which needs to be processed
current_file = file_names[0]
print "Processing current file: " + current_file
key = bucket.get_key(current_file)
print "Processing key: " + str(key)
key.get_contents_to_filename(working_dir + "test_stats_temp.dat")
print "Current directory: ",outputdir
print "File to process:",current_file
выход теста Обработка для: DS = 2013-08-27IOError: Нет такого файла или каталога:
Обработка текущего файла: выход/test_count_day/DS = 2013-08-27/task_201308270934_0003_r_000000
ключ Обработка: ключ: hadoop.test.com, выход/test_count_day/DS = 2013-08-27/task_201308270934_0003_r_000000
Traceback (most recent call last):
File "queue_consumer.py", line 493, in <module>
test_process.load_test_cnv_stats_daily(datestring,working_dir,mysqlconn,s3_conn,test_output_bucket,test_output)
File "/home/sbr/aaa/test_process.py", line 46, in load_test_cnv_stats_daily
key.get_contents_to_filename(working_dir + "test_stats_temp.dat")
File "/usr/lib/python2.7/dist-packages/boto/s3/key.py", line 1275, in get_contents_to_filename
fp = open(filename, 'wb')
IOError: [Errno 2] No such file or directory: '/home/sbr/aaa/test_stats_temp.dat'
Я получил эту ошибку, когда я принес данные в БД с выхода S3. Я здесь смущен. Как справиться с этой проблемой?
Существует ли ваш 'work_dir'? – datasage
Спасибо за ваш отзыв! Я починил это !! – brisk
@ datasage - вы можете повернуть свой комментарий в ответ, даже если это быстрое решение. Обеспечивает лучшую видимость в случае, если кто-то столкнется с этим в будущем :) – andreimarinescu