2017-01-19 2 views
-1

Я пытался получить несколько запросов с использованием requests.getПолучение нескольких URL-адреса из запроса

Вот мой код:

import requests 
links=['http://regsho.finra.org/FNSQshvol20170117.txt','http://regsho.finra.org/FNSQshvol20170118.txt'] 
    for url in links: 
    for number in range(1,10): 
     page = requests.get(url+str(number)) 
     print(page.text) 

К сожалению, это не создает мне никаких результатов.

Может кто-нибудь возражать, помогая мне?

+0

, какой URL вы хотите получить? –

+0

Вы пытаетесь получить 'http: // regsho.finra.org/FNSQshvol20170117.txt1', который не существует –

+0

Привет, это больше похоже на .txt файл (например, http://regsho.finra.org/FNSQshvol20170118. txt) – OrangeEfficiency

ответ

0
import requests 
links=['http://regsho.finra.org/FNSQshvol20170117.txt','http://regsho.finra.org/FNSQshvol20170118.txt'] 
for url in links: 
    page = requests.get(url) 
    print(page.text) 

удалить цикл.

из:

Date|Symbol|ShortVolume|ShortExemptVolume|TotalVolume|Market 
20170117|A|185680|1576|584041|Q 
20170117|AA|203741|929|406062|Q 
20170117|AAAP|3133|0|13594|Q 
20170117|AAC|39417|0|63472|Q 
20170117|AADR|1311|0|2627|Q 
20170117|AAL|854774|5778|1580018|Q 
20170117|AAMC|4450|0|6008|Q 
20170117|AAME|3636|200|7186|Q 
20170117|AAN|66111|200|118626|Q 
20170117|AAOI|359275|1600|603069|Q 
20170117|AAON|12291|0|31544|Q 
20170117|AAP|71928|0|169905|Q 
20170117|AAPL|2935502|68038|9269269|Q 
+0

Большое спасибо за это. – OrangeEfficiency

+0

@OrangeEfficiency, пожалуйста, примите мой ответ, чтобы закрыть этот вопрос. –

0

Вы можете попробовать так:

import requests 

links=['http://regsho.finra.org/FNSQshvol20170117.txt','http://regsho.finra.org/FNSQshvol20170118.txt'] 

with open('path_file17', 'w') as f1, open('path_file18', 'w') as f2: 
    f1.write(requests.get(links[0]).content) 
    f2.write(requests.get(links[1]).content) 
+0

Спасибо за это. Извините, я не понял свой вопрос. В принципе, я просто хочу извлечь содержимое из этих двух текстовых файлов. – OrangeEfficiency

+0

Хорошо, вы можете получить это просто. Что после этого? Сохраните его список? Проводите анализ с помощью панд? – MYGz

+0

Сначала я хочу сохранить их в txt-файле, а затем сделать регрессионный анализ, используя stata – OrangeEfficiency

0

Чтобы просто извлечь данные вам не нужно Петля диапазон номеров

import requests 
links=['http://regsho.finra.org/FNSQshvol20170117.txt','http://regsho.finra.org/FNSQshvol20170118.txt'] 
for url in links: 
    page = requests.get(url) 
    print(page.text) 
+0

Большое спасибо за это – OrangeEfficiency

Смежные вопросы