http://www.sufeinet.com/plugin.php?id=keke_group

苏飞论坛

 找回密码
 马上注册

QQ登录

只需一步,快速开始

分布式系统框架(V2.0) 轻松承载百亿数据,千万流量!讨论专区 - 源码下载 - 官方教程

HttpHelper爬虫框架(V2.7-含.netcore) HttpHelper官方出品,爬虫框架讨论区 - 源码下载 - 在线测试和代码生成

HttpHelper爬虫类(V2.0) 开源的爬虫类,支持多种模式和属性 源码 - 代码生成器 - 讨论区 - 教程- 例子

查看: 2617|回复: 2

[其他] 如何实现 100w 以上的数据url 去重

[复制链接]
发表于 2014-4-13 10:34:49 | 显示全部楼层 |阅读模式
我做蜘蛛爬取信息 我之前是把url 存储数据库里但是 随着数据流的增加 性能也掉了下来 有什么 好的方式实现 url 过滤 吗?? 谢谢大神们


1. 开通SVIP会员,免费下载本站所有源码,不限次数据,不限时间
2. 加官方QQ群,加官方微信群获取更多资源和帮助
3. 找站长苏飞做网站、商城、CRM、小程序、App、爬虫相关、项目外包等点这里
发表于 2014-4-13 17:16:23 | 显示全部楼层
最好是在跑完一次后再去,而不是一边跑不边去,这样肯定会慢的,
 楼主| 发表于 2014-4-13 18:18:31 | 显示全部楼层
这个倒是解决的方式 。。。我现在有两张表 一张是存url 一张表是存页面的信息 ; 我还得需要一个功能 就是url 重新爬取 如果 在重新爬一次那么 我又有100w  我是比对两张表再去重吗?  
您需要登录后才可以回帖 登录 | 马上注册

本版积分规则

QQ|手机版|小黑屋|手机版|联系我们|关于我们|广告合作|苏飞论坛 ( 豫ICP备18043678号-2)

GMT+8, 2024-11-24 04:37

© 2014-2021

快速回复 返回顶部 返回列表