腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
使用AWS Glue Crawler创建列名时删除/重命名特殊字符
我正在使用AWS
爬虫
爬行S3桶,它在雅典娜中创建表模式。据我所知,雅典娜不支持具有特殊字符的列名,比如(
反
斜杠)等等。这是一种可以在
爬虫
从S3桶中爬行时排除/重命名这些列名的方法。
浏览 3
修改于2021-10-14
得票数 2
回答已采纳
1
回答
Scrapy -基于正则表达式处理的异地请求
我必须抓取
5-6
个域名。我想写一个
爬虫
,这样离线请求如果包含一些子字符串的例子设置为aaa,bbb,ccc,如果离线url包含来自上面设置的子字符串,那么它应该被处理,而不是过滤掉。
浏览 11
提问于2016-08-23
得票数 0
回答已采纳
1
回答
在数据库中查找和替换URL,而不尾随URL末尾的斜杠
但是,一些放置内容的人在<a href""></a> URL的末尾没有添加
反
斜杠(尾斜杠)的情况下就生成了URL。它会自动添加一个
反
斜杠到末尾,这可以算作谷歌
爬虫
的重定向。TL;博士 如何在没有
反
斜杠的情况下替换WordPress内容中的所有URL,使用(https://test.com/testpage)并添加
反
斜杠(https://test.com/testpage/
浏览 0
修改于2020-10-16
得票数 0
0
回答
使用Python
爬虫
,怎么处理
反
爬机制?
python
、
爬虫
、
验证码
、
requests
、
数据
我用Python requests来请求数据,但经常出现bug,要没ip无效,要么需要验证码,怎么处理呢?
浏览 182
提问于2025-07-19
2
回答
在它们的真实符号中变成utf
我刚刚自己做了第一个网络
爬虫
,它上了维基百科,下载了整个页面的html。我设法获得了一个列表的内容。列表中的值包含正数或负数。但它给了我一个'\xe2\x88\x922',而不是打印出一个'-2'。我尝试了string.replace("\xe2\x88\x92","-"),但由于
反
斜杠的原因,这似乎不起作用。你知道我怎样才能把这些utf东西转换成它们真正的符号吗?
浏览 18
修改于2020-07-04
得票数 3
1
回答
如何抓取Vue构建的基于组件的web应用程序并作出反应?
javascript src=/static/js/app.335a9e9866cb7dc6a517.js></script> </html>我使用Abot框架爬行建议
浏览 7
提问于2022-03-06
得票数 0
回答已采纳
1
回答
爬虫
/SEO友好/Mod重写/它没有任何意义
它看起来很漂亮,链接最糟糕的是后面跟着一个
反
斜杠。 我的客户发行的。他想知道为什么管理员和用户的后端界面仍然显示那些巨大的丑陋链接。这些是非常非常丑陋的链接,我说的是三到四个
反
斜杠,后面跟着不同的get序列等等,所以你可能会理解MOD_REWRITING背后的复杂性。一时冲动,我说我让它保持原样是为了确保后端接口不会被任何
爬虫
嗅探到。但我不确定这是否一定是真的。
爬虫
在哪里停下来?他们什么时候会放弃尝试解析链接呢?我知道我可以使用.robot文件来指定规则。
浏览 1
提问于2012-03-16
得票数 1
回答已采纳
2
回答
PHP cURL crawler无法获取所有数据
我正在尝试使用PHP和cURL库来编写我的第一个
爬虫
。我的目标是系统地从一个站点获取数据,这意味着代码不会跟踪给定站点上的所有超链接,而只是特定的链接。一旦完成,
爬虫
就会转到页面上的那些分类站点,并查看该分类是否有多个页面。如果是这样,它还会将子页面存储在另一个数组中。最后,我合并数组以获得需要抓取的站点的所有链接,并开始获取所需的数据。问题是
爬虫
运行了
5-6
分钟,然后停止,并且没有获取所有需要的子页面链接。我打印数组的内容来检查结果。我在日志中看不到任何http错误,所有站点都给出了http 200状态代码。我假设网站在
浏览 0
修改于2013-01-01
得票数 1
回答已采纳
2
回答
在Service Fabric服务之间移动大型数据是一种
反
模式吗?
我正在使用Service Fabric开发一个web数据
爬虫
。我已经将爬行过程划分为无状态服务管道。第一个服务加载HTML。(S1)第二个函数解析其中的数据。本身就是大量的数据,我不得不设置这种设计是
反
模式吗
浏览 0
修改于2017-10-01
得票数 0
2
回答
有没有一种简单快速的方法来生成JavaScript?
(在
5-6
次点击后)页面通过执行javascript生成更多的评论。也许有某种技术,或者其他任何东西可以改进我的解决方案,我们将非常感谢您的帮助。
浏览 0
修改于2015-05-04
得票数 0
2
回答
根据条件在现有列中添加新行
range weather flag calculation
5-6
good n 14
5-6
worse y 5 输出如下: range weather flag calculation 0-5 worse n null 0-5 worse y
浏览 11
提问于2020-01-13
得票数 1
回答已采纳
1
回答
如何从非React环境中更新组件?
我的应用程序的本质是,在页面加载后,它需要通过API检索数据,并且它连续执行
5-6
次,在每个请求之间有一些小的停顿。这通常需要10到30秒。即使它是
反
模式的。
浏览 5
修改于2019-07-23
得票数 0
1
回答
不认识的
反
爬虫
技术,提示412错误,有高手知道?
爬虫
近期发现大量网站采用相似的
反
爬技术,Heritrix提示412,网址http://www.xgrsks.cn/,还有湖北省编制网、检察院、政府网都采用这种,网上查不到相关办法
浏览 1026
提问于2021-04-26
2
回答
jq合并json数组元素
我的数据位于以下json数组中: { "min": 5, "max": 6}]1-2,
5-6
.[] |[ .min, .max|tostring ] | join("-")"1-2"我不知道如何从那个表达到想要的"1-2","
5-6
“。
浏览 0
提问于2018-12-10
得票数 3
回答已采纳
1
回答
从长文本文件中的字符串数组中找到相应的数字。
我有一个文本文件,它的单个字符串格式如下,每个数字nad名称都是唯一的:我还有一个Python数组,它包含200个唯一的名称字符串,我想遍历这个数组来找到匹配的
5-6
位数字,并将其存储为一个元组。由于文本文件中的单个字符串有"
5-6
位数字“:”name“位24,000次,所以问题是不确定有什么合适的方法来做到这一点。
浏览 2
提问于2021-11-23
得票数 1
回答已采纳
1
回答
爬虫
和
爬虫
架构
当我遇到这个设计问题时,我一直在用php构建一个刮板和
爬虫
。我想知道创建一个分离爬行和抓取任务的系统(大多数专业系统似乎都是这样做的)和一个在
爬虫
爬行时抓取任务的系统之间的权衡。
浏览 4
修改于2012-04-16
得票数 2
回答已采纳
1
回答
HTML流的SEO/爬行性影响
随着HTML流(例如反应18流)的兴起,我想知道
爬虫
是如何处理HTML的。谷歌
爬虫
是如何处理这个问题的?谷歌确实提到了流这里,但它没有说明谷歌
爬虫
如何处理HTML。 其他
爬虫
(DuckDuckGo,Bing,Facebook,Twitter等)怎么样?我假设
爬虫
会等到HTML流结束时,这个假设安全吗?
浏览 0
提问于2021-07-27
得票数 7
4
回答
如何停止云主机上的
爬虫
?
云服务器
我在云主机上运行了一个scrapy
爬虫
,这个
爬虫
可以一直运行,假如我没有停止
爬虫
就和主机断开了连接,是不是除了关机就没有办法停止
爬虫
了?
浏览 502
提问于2018-01-27
1
回答
PHP使用解析器创建多维数组
', '116 (
5-6
)', 1921, 'n.A.', '128 (7-8)', 4626, 'n.A.', '140 (9-10)', 4222, 'n.A.', '116 (
5-6
)', 18834, 'n.A.', '128 (7-8)', 30662, 'n.A.', '140 (9-10)', 28981, '
浏览 3
修改于2011-11-17
得票数 1
2
回答
Rails
5-6
:获取完整URL
我想知道在Rails5或6中是否有获取当前访问的完整url的方法。 例如: http://localhost:3000/#about http://localhost:3000/books/#reference 我尝试过request.fullpath,但它不能处理特殊字符,如来自http://localhost:3000/#about或http://localhost:3000/books/#reference的# 我只需要完整的网址,因为它是。有没有办法做到这一
浏览 12
提问于2020-01-30
得票数 1
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券