请问老师。提取不到url,网址https://d.weibo.com/623751_1/

来源:8-9 云打码实现验证码识别

贴心咯睡觉

2019-06-14

 start_urls = ['https://d.weibo.com/623751_1/']              
  browser.get(self.start_urls[0])
                t_selector = Selector(text=browser.page_source)
                print(browser.page_source)
                url_123 = t_selector.css("a.W_autocut.S_txt1::attr(href)").extract()

![图片描述](http://img.mukewang.com/szimg/5d0751d800019d2219201039.jpg)
```![图片描述](http://img.mukewang.com/szimg/5d07524900019d2219201039.jpg)



![图片描述](http://img.mukewang.com/szimg/5d0752e900019d2219201039.jpg)
写回答

3回答

bobby

2019-06-18

//img.mukewang.com/szimg/5d088a180001a37215950783.jpg 我刚才试了一下 能获取到啊 写法和你上面的写法一致:

url_123 = t_selector.css("a.W_autocut.S_txt1::attr(href)").extract()

0
2
bobby
回复
贴心咯睡觉
好的,加油
2019-06-26
共2条回复

bobby

2019-06-17

t_selector.css("a.W_autocut S_txt1::attr(href)") 这样试试呢

0
1
贴心咯睡觉
老师我截图了,还是获取不到
2019-06-17
共1条回复

bobby

2019-06-17

你要提取的是哪个元素?能否截图我看看

0
1
贴心咯睡觉
我是模拟登陆了以后,想采集这个url下的所有文章的url,但是提取不出来,显示为空,browser.page_source我拷贝出来是有文章链接的
2019-06-17
共1条回复

Scrapy打造搜索引擎 畅销4年的Python分布式爬虫课

带你彻底掌握Scrapy,用Django+Elasticsearch搭建搜索引擎

5796 学习 · 6290 问题

查看课程