}'://www.zhihu.com/question/404788883
}'://www.zhihu.com/question/404788883
```python import requests def get_content(url): response =requests.get('https:' + url) # print(response.text) if __name__ == '__main__': # 获取知乎页面源代码 url='question/'+str(123456789) getcontent=url ``` 这个脚步可以从网页中抓取指定的问题标题,但是无法获得具体回复部分,这里我提供一个完整解决方案: 首先,你需要使用`User-Agent`,因为网站可能限制爬虫访问。你还应该处理cookies,以便保持登录状态。 然后,在请求头添加以下字段: headers={ 'Cookie': '你的cookie值', 'Referer':' https :// www. z hi hu. com / question/'+ str (id), } 其中 `Refererer`: 是指当前URL,它是一个HTTP标示器,告訴服务器請求來自於哪個網頁。 最后,可以通过正则表达式筛选出想要的一些关键字进行匹配,然后返回相应数据即可。如果只关心题目及其第一条评论,那么这里就不再做进一步操作;如果要查看所有用户发言,就遍历response.json()中的data数组并打印每一项内包含的人物名称及相关话语吧! 当然啦,要注意不要滥