2016-03-05 3 views
-1

Я пытаюсь получить содержимое веб-страницы. Почему-то всякий раз, когда я пробую urlopen, он говорит, что «нет такого ресурса». Я также не могу использовать urllib2.Чтение содержимого веб-страницы с помощью Python

Я просто хотел бы получить содержимое веб-страницы, такие как http://www.example.com

import urllib 
import re 

textfile = open('depth_1.txt','w') 
print("Enter the URL you wish to crawl..") 
print('Usage - "http://phocks.org/stumble/creepy/" <-- With the double quotes') 
myurl = input("@> ") 
for i in re.findall('''href=["'](.[^"']+)["']''', urllib.urlopen(myurl).read(), re.I): 
    print(i) 
    for ee in re.findall('''href=["'](.[^"']+)["']''', urllib.urlopen(i).read(), re.I): 
      print(ee) 
      textfile.write(ee+'\n') 
textfile.close() 

Здесь ошибка:

Traceback (most recent call last): 
    File "/Users/austinhitt/Desktop/clases_example.py", line 8, in <module> 
    for i in re.findall('''href=["'](.[^"']+)["']''', 
urllib.urlopen(myurl).read(), re.I): 
AttributeError: module 'urllib' has no attribute 'urlopen' 
+0

Вы используете Python 3, но res ource, который вы изучаете Python, устарел и использует Python 2. 'urllib2' больше не существует в Python 3, его функциональность существует в основном в' urllib' и его подмодулях –

+2

Для учебного ресурса я бы рекомендовал [Автоматизировать скучный материал с помощью Python] (https://automatetheboringstuff.com/), который включает в себя главу о веб-скребке с использованием Python 3. –

+0

@AnttiHaapala Я согласен с вами. Поэтому мне нужно знать, как открыть url в python 3. Моя оболочка IDLE говорит, что urlopen из url lib не работает. – HittmanA

ответ

0

Только для запросов на использование контента, и если вы хотите играть Arround с содержанием, которое необходимо использовать для скрипирования, например:

import requests 
r = requests.get('http://scrapy.org') 
r.content 
r.headers 
r.status_code 
+0

Я не уверен, почему вы заявляете, что в вашем примере кода требуется терапия. – tagoma

+0

Нет, я говорю, что если он хочет только контент, он может использовать запросы, но если ему нужно что-то еще, он может использовать scrapy, мой пример использует запросы. –

Смежные вопросы