2013-08-30 3 views
3
# pick up the file which needs to be processed 
    current_file = file_names[0] 
    print "Processing current file: " + current_file 

    key = bucket.get_key(current_file) 
    print "Processing key: " + str(key) 
    key.get_contents_to_filename(working_dir + "test_stats_temp.dat") 
    print "Current directory: ",outputdir 
    print "File to process:",current_file 

выход теста Обработка для: DS = 2013-08-27IOError: Нет такого файла или каталога:

Обработка текущего файла: выход/test_count_day/DS = 2013-08-27/task_201308270934_0003_r_000000

ключ Обработка: ключ: hadoop.test.com, выход/test_count_day/DS = 2013-08-27/task_201308270934_0003_r_000000

Traceback (most recent call last): 
     File "queue_consumer.py", line 493, in <module> 
     test_process.load_test_cnv_stats_daily(datestring,working_dir,mysqlconn,s3_conn,test_output_bucket,test_output) 
     File "/home/sbr/aaa/test_process.py", line 46, in load_test_cnv_stats_daily 
     key.get_contents_to_filename(working_dir + "test_stats_temp.dat") 
     File "/usr/lib/python2.7/dist-packages/boto/s3/key.py", line 1275, in get_contents_to_filename 
     fp = open(filename, 'wb') 
    IOError: [Errno 2] No such file or directory: '/home/sbr/aaa/test_stats_temp.dat' 

Я получил эту ошибку, когда я принес данные в БД с выхода S3. Я здесь смущен. Как справиться с этой проблемой?

+1

Существует ли ваш 'work_dir'? – datasage

+0

Спасибо за ваш отзыв! Я починил это !! – brisk

+0

@ datasage - вы можете повернуть свой комментарий в ответ, даже если это быстрое решение. Обеспечивает лучшую видимость в случае, если кто-то столкнется с этим в будущем :) – andreimarinescu

ответ

2

Ошибка:

IOError: [Errno 2] No such file or directory: '/home/sbr/aaa/test_stats_temp.dat'

Указывает, что путь установлен с working_dir не существует. Создание каталога исправит его.

Смежные вопросы