• python 爬虫与协同过滤的新闻推荐系统 计算机竞赛


    1 前言

    🔥 优质竞赛项目系列,今天要分享的是

    🚩 python 爬虫与协同过滤的新闻推荐系统

    🥇学长这里给一个题目综合评分(每项满分5分)

    • 难度系数:3分
    • 工作量:3分
    • 创新点:4分

    该项目较为新颖,适合作为竞赛课题方向,学长非常推荐!

    🧿 更多资料, 项目分享:

    https://gitee.com/dancheng-senior/postgraduate

    1 课题背景

    由于网络信息科技的不断进步和数据量的快速增长每天会产生巨大的信息量,使得互联网上的数据信息越来越庞大、系统变得越来越臃肿,这些庞大的海量信息给用户寻找自己感兴趣的内容带来了极大的困难,往往会导致用户迷失在信息迷宫中,从而无法找到自己真正感兴趣的内容。因此,高效快速的进行新闻推荐变得极其重要。
    本项目使用前后端分离,前端是基于Vue设计的界面,后端基于python Django框架建立。

    2 实现效果

    整体软件结构
    在这里插入图片描述

    2.1 用户端

    在这里插入图片描述

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    2.2 管理端

    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    3 Django

    简介
    Django是一个基于Web的应用框架,由python编写。Web开发的基础是B/S架构,它通过前后端配合,将后台服务器的数据在浏览器上展现给前台用户的应用。Django本身是基于MVC模型,即Model(模型)+View(视图)+
    Controller(控制器)设计模式,View模块和Template模块组成了它的视图部分,这种结构使动态的逻辑是剥离于静态页面处理的。
    Django框架的Model层本质上是一套ORM系统,封装了大量的数据库操作API,开发人员不需要知道底层的数据库实现就可以对数据库进行增删改查等操作。Django强大的QuerySet设计能够实现非常复杂的数据库查询操作,且性能接
    在这里插入图片描述
    安装


    ​ pip install django

    使用

    #!/usr/bin/env python'''Django's command-line utility for administrative tasks.'''import os
    ​    import sys
    
    
    ​    
    ​    def main():'''Run administrative tasks.'''
    ​        os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'newsServer.settings')try:from django.core.management import execute_from_command_line
    ​        except ImportError as exc:raise ImportError("Couldn't import Django. Are you sure it's installed and ""available on your PYTHONPATH environment variable? Did you ""forget to activate a virtual environment?") from exc
    ​        execute_from_command_line(sys.argv)
    
    
    ​    
    ​    if __name__ == '__main__':
    ​        main()
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25

    4 爬虫

    网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。爬虫对某一站点访问,如果可以访问就下载其中的网页内容,并且通过爬虫解析模块解析得到的网页链接,把这些链接作为之后的抓取目标,并且在整个过程中完全不依赖用户,自动运行。若不能访问则根据爬虫预先设定的策略进行下一个
    URL的访问。在整个过程中爬虫会自动进行异步处理数据请求,返回网页的抓取数据。在整个的爬虫运行之前,用户都可以自定义的添加代理,伪 装
    请求头以便更好地获取网页数据。爬虫流程图如下:
    在这里插入图片描述
    相关代码

        def getnewsdetail(url):# 获取页面上的详情内容并将详细的内容汇集在news集合中
    ​        result = requests.get(url)
    ​        result.encoding = 'utf-8'
    ​        soup = BeautifulSoup(result.content, features="html.parser")
    ​        title = getnewstitle(soup)if title == None:return None
    ​        date = getnewsdate(soup)
    ​        mainpage, orimainpage = getmainpage(soup)if mainpage == None:return None
    ​        pic_url = getnewspic_url(soup)
    ​        videourl = getvideourl(url)
    ​        news = {'mainpage': mainpage,'pic_url': pic_url,'title': title,'date': date,'videourl': videourl,'origin': orimainpage,}return news
    
    
    ​    
    ​    def getmainpage(soup):'''
    ​            @Description:获取正文部分的p标签内容,网易对正文部分的内容通过文本前部的空白进行标识\u3000
    ​            @:param None
    ​        '''if soup.find('div', id='article') != None:
    ​            soup = soup.find('div', id='article')
    ​            p = soup.find_all('p')for numbers in range(len(p)):
    ​                p[numbers] = p[numbers].get_text().replace("\u3000", "").replace("\xa0", "").replace("新浪", "新闻")
    ​            text_all = ""for each in p:
    ​                text_all += each
    ​            logger.info("mainpage:{}".format(text_all))return text_all, p
    ​        elif soup.find('div', id='artibody') != None:
    ​            soup = soup.find('div', id='artibody')
    ​            p = soup.find_all('p')for numbers in range(len(p)):
    ​                p[numbers] = p[numbers].get_text().replace("\u3000", "").replace("\xa0", "").replace("新浪", "新闻")
    ​            text_all = ""for each in p:
    ​                text_all += each
    ​            logger.info("mainpage:{}" + text_all)return text_all, p
    ​        else:return None, None
    
    
    ​    
    ​    def getnewspic_url(soup):'''
    ​            @Description:获取正文部分的pic内容,网易对正文部分的图片内容通过div中class属性为“img_wrapper”
    ​            @:param None
    ​        '''
    ​        pic = soup.find_all('div', class_='img_wrapper')
    ​        pic_url = re.findall('src="(.*?)"', str(pic))for numbers in range(len(pic_url)):
    ​            pic_url[numbers] = pic_url[numbers].replace("//", 'https://')
    ​        logging.info("pic_url:{}".format(pic_url))return pic_url
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66

    5 Vue

    简介
    Vue是一套用于构建用户界面的渐进式框架。其核心库只关注视图层,不仅易于上手,还便于与第三方库或既有项目整合。Vue框架主要有以下三个特点:

    • 遵循MVVM模式
      MVVM是Model-View-ViewModel的简写,它本质上是MVC的改进版。MVVM的主要目的是分离视图(View)和模型(Model)。如图所示。
      在这里插入图片描述

    • 组件化
      组件系统允许我们使用小型、独立和通常可复用的组件构建大型应用。几乎任意类型的应用界面都可以抽象为一个组件树,如图所示。
      在这里插入图片描述

    • 虚拟DOM
      频繁操作操作真实DOM会出现页面卡顿,影响用户体验。Vue的虚拟DOM不会立即操作DOM,而是将多次操作保存起来,进行合并计算,减少真实DOM的渲染计算次数,提升用户体验。

    6 推荐算法(Recommendation)

    基于协同过滤的推荐算法(Collaborative Filtering Recommendations)
    协同过滤(Collaborative Filtering)推荐算法是最经典、最常用的推荐算法。
    所谓协同过滤, 基本思想是根据用户之前的喜好以及其他兴趣相近的用户的选择来给用户推荐物品(基于对用户历史行为数据的挖掘发现用户的喜好偏向,
    并预测用户可能喜好的产品进行推荐),一般是仅仅基于用户的行为数据(评价、购买、下载等),
    而不依赖于项的任何附加信息(物品自身特征)或者用户的任何附加信息(年龄, 性别等)。目前应用比较广泛的协同过滤算法是基于邻域的方法,
    而这种方法主要有下面两种算法:

    • 基于用户的协同过滤算法(UserCF): 给用户推荐和他兴趣相似的其他用户喜欢的产品
    • 基于物品的协同过滤算法(ItemCF): 给用户推荐和他之前喜欢的物品相似的物品

    代码实现

     def itemcf_sim(df):
            """
                文章与文章之间的相似性矩阵计算
                :param df: 数据表
                :item_created_time_dict:  文章创建时间的字典
                return : 文章与文章的相似性矩阵
                思路: 基于物品的协同过滤(详细请参考上一期推荐系统基础的组队学习), 在多路召回部分会加上关联规则的召回策略
            """
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8


    user_item_time_dict = get_user_item_time(df)

        # 计算物品相似度
        i2i_sim = {}
        item_cnt = defaultdict(int)
        for user, item_time_list in tqdm(user_item_time_dict.items()):
            # 在基于商品的协同过滤优化的时候可以考虑时间因素
            for i, i_click_time in item_time_list:
                item_cnt[i] += 1
                i2i_sim.setdefault(i, {})
                for j, j_click_time in item_time_list:
                    if(i == j):
                        continue
                    i2i_sim[i].setdefault(j, 0)
                    
                    i2i_sim[i][j] += 1 / math.log(len(item_time_list) + 1)
                    
        i2i_sim_ = i2i_sim.copy()
        for i, related_items in i2i_sim.items():
            for j, wij in related_items.items():
                i2i_sim_[i][j] = wij / math.sqrt(item_cnt[i] * item_cnt[j])
        
        # 将得到的相似性矩阵保存到本地
        pickle.dump(i2i_sim_, open(save_path + 'itemcf_i2i_sim.pkl', 'wb'))
        
        return i2i_sim_
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    7 APScheduler框架

    简介
    Advanced Python Scheduler (APScheduler) 是一个 Python 库,可让您安排 Python
    代码稍后执行,可以只执行一次,也可以定期执行。您可以随意添加新工作或删除旧工作。如果您将任务存储在数据库中,它们也将在调度器重新启动后幸存下来并保持其状态。当调度器重新启动时,它将运行它在离线时应该运行的所有任务。

    除此之外,APScheduler 可以用作跨平台、特定于应用程序的平台特定调度器的替代品,例如 cron 守护程序或 Windows
    任务调度器。但是请注意,APScheduler
    本身不是守护程序或服务,也不附带任何命令行工具。它主要用于在现有应用程序中运行。也就是说,APScheduler
    确实为您提供了一些构建块来构建调度器服务或运行专用调度器进程。

    安装

    pip安装:


    ​ pip install apscheduler

    本项目相关使用:

    from apscheduler.schedulers.blocking import BlockingScheduler
    ​    from Recommend.NewsRecommendByCity import beginrecommendbycity
    ​    from Recommend.NewsRecommendByHotValue import beginrecommendbyhotvalue
    ​    from Recommend.NewsRecommendByTags import beginNewsRecommendByTags
    ​    from Recommend.NewsKeyWordsSelect import beginSelectKeyWord
    ​    from Recommend.NewsHotValueCal import beginCalHotValue
    ​    from Recommend.NewsCorrelationCalculation import beginCorrelation
    ​    from Recommend.HotWordLibrary import beginHotWordLibrary
    ​    
    
        sched = BlockingScheduler()
        sched2 = BlockingScheduler()
    
    
    ​    
    ​    def beginRecommendSystem(time):'''
    ​            @Description:推荐系统启动管理器(基于城市推荐、基于热度推荐、基于新闻标签推荐)
    ​            @:param time --> 时间间隔
    ​        '''
    ​        sched.add_job(func=beginrecommendbycity, trigger='interval', max_instances=1, seconds=int(time),id='NewsRecommendByCity',
    ​                      kwargs={})
    ​        sched.add_job(beginrecommendbyhotvalue, 'interval', max_instances=1, seconds=int(time),id='NewsRecommendByHotValue',
    ​                      kwargs={})
    ​        sched.add_job(beginNewsRecommendByTags, 'interval', max_instances=1, seconds=int(time), id='NewsRecommendByTags',
    ​                      kwargs={})
    ​        sched.start()
    
    
    ​    
    ​    def stopRecommendSystem():'''
    ​            @Description:推荐系统关闭管理器
    ​            @:param None
    ​        '''
    ​        sched.remove_job('NewsRecommendByCity')
    ​        sched.remove_job('NewsRecommendByHotValue')
    ​        sched.remove_job('NewsRecommendByTags')
    
    
    ​    
    ​    def beginAnalysisSystem(time):'''
    ​            @Description:数据分析系统启动管理器(关键词分析、热词分析、新闻相似度分析、热词统计)
    ​            @:param time --> 时间间隔
    ​        '''
    ​        sched2.add_job(beginSelectKeyWord, trigger='interval', max_instances=1, seconds=int(time),id='beginSelectKeyWord',
    ​                      kwargs={"_type": 2})
    ​        sched2.add_job(beginCalHotValue, 'interval', max_instances=1, seconds=int(time),id='beginCalHotValue',
    ​                      kwargs={})
    ​        sched2.add_job(beginCorrelation, 'interval', max_instances=1, seconds=int(time), id='beginCorrelation',
    ​                      kwargs={})
    ​        sched2.add_job(beginHotWordLibrary, 'interval', max_instances=1, seconds=int(time), id='beginHotWordLibrary',
    ​                      kwargs={})
    ​        sched2.start()def stopAnalysisSystem():
            '''
                @Description:数据分析系统关闭管理器
                @:param None
            '''
            sched2.remove_job('beginSelectKeyWord')
            sched2.remove_job('beginCalHotValue')
            sched2.remove_job('beginCorrelation')
            sched2.remove_job('beginHotWordLibrary')
            sched2.shutdown()
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31
    • 32
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 41
    • 42
    • 43
    • 44
    • 45
    • 46
    • 47
    • 48
    • 49
    • 50
    • 51
    • 52
    • 53
    • 54
    • 55
    • 56
    • 57
    • 58
    • 59
    • 60
    • 61
    • 62
    • 63
    • 64
    • 65
    • 66
    • 67
    • 68
    • 69
    • 70
    • 71
    • 72
    • 73
    • 74
    • 75

    7 最后

    🧿 更多资料, 项目分享:

    https://gitee.com/dancheng-senior/postgraduate

  • 相关阅读:
    如何使用http来获取thingsbord中的设备数据
    Golang 继承
    C#高效查表算法及线性插值算法实例
    python 练习--更新
    【Linux初阶】Linux小程序 - 进度条
    [STL]map与set
    DDD领域驱动设计-限界上下文
    DOS攻击-ftp_fuzz.py
    【C++入门到精通】 哈希结构 | 哈希冲突 | 哈希函数 | 闭散列 | 开散列 [ C++入门 ]
    Java中如何实现文件预览的功能
  • 原文地址:https://blog.csdn.net/m0_43533/article/details/133808487