自然语言处理实战项目4-文本相似度的搜索功能,搜索文本内容

自然语言处理实战项目4-文本相似度的搜索功能,搜索文本内容

大家好,我是微学AI,今天给大家带来自然语言处理实战项目4-文本相似度的搜索功能,搜索文本内容。文本相似度搜索是一种基于自然语言处理技术,用于搜索和匹配文本内容的方法。其主要目的是将用户输入的查询内容与已有的文本数据进行比较,并找到最相似的文本数据。

本文本以目标实现为导向,实战让大家跑通文本相似度的搜索功能。

一、实现文本相似度的搜索功能步骤:

1.首先加载与处理文件夹数据,本文以txt文件为例子,批量处理。

2.然后构建文件名和文件内容的索引文件。

3.在进行文档向量化与模型构建,生成向量模型

4.加载模型进行相似度的计算并返回。

5.后续可以新增文档到向量模型,可搜索到新加的文件

www.zeeklog.com  - 自然语言处理实战项目4-文本相似度的搜索功能,搜索文本内容

、文本相似度的搜索功能代码:

1.构建文件搜索引擎类

import os
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.metrics.pairwise import cosine_similarity
import pickle
from settings.app_config import project_config as fileconfig
import PyPDF2
import csv

index_file = 'index.pkl'
vectorizer_file = 'vectorizer.pkl'
index_file_path = 'file_path.pickle'

# 构建文件搜索引擎类
class FileSearchManage():
    def __init__(self):
        self.index_file_path = index_file_path
        self.index_file = index_file 
        self.vectorizer_file = vectorizer_file

    #读取文件
    def read_files(self,folder_path):
        files_data = {}
        for file_name in os.listdir(folder_path):
            if file_name.endswith(".txt"):
                with open(os.path.join(folder_path, file_name), 'r', encoding='utf-8') as f:
                    files_data[file_name] = f.read().replace('\n', '')
        return files_data


    # 保存 csv 文件
    def save_csv_files(self, folder_path,csv_path):
        # 将信息写入csv文件
        with open(csv_path, 'w', newline='', encoding='utf-8') as csvfile:
            fieldnames = ['file_name', 'paragraph', 'content']
            writer = csv.DictWriter(csvfile, fieldnames=fieldnames)
            writer.writeheader()
            for file_name in os.listdir(folder_path):
                if file_name.endswith(".pdf"):
                    path_name, paragraph = ocr_paragraph_pdf(os.path.join(folder_path, file_name))
                    for i, pa in enumerate(paragraph):
                        pa = pa.replace('\n', '').replace(' ', '')
                        if len(pa) > 4:
                           writer.writerow({'file_name': file_name,
                                         'paragraph': i,
                                         'content': pa})

    # 读取pickle索引文件
    def read_pickle(self,index_file_path):
        with open(index_file_path, 'rb') as f:
            index = pickle.load(f)
        return index

    #分词、去除停用词 处理
    def preprocess_data(self,files_data):
        processed_data = {}
        for file_name, content in files_data.items():
            # 在这里可以对文档内容进行预处理(例如:分词、去除停用词)
            processed_data[file_name] = content
        return processed_data

    # 创建索引文件向量
    def create_tfidf_index(self,processed_data):
        vectorizer = TfidfVectorizer()
        corpus = list(processed_data.values())
        X = vectorizer.fit_transform(corpus)
        return X, vectorizer

    # 报错文件json
    def save_file(self,index_file_path,files_data):
        with open(index_file_path, 'wb') as f:
            pickle.dump(files_data, f)

    # 保存索引文件向量
    def save_index(self,index, vectorizer, index_file, vectorizer_file):
        with open(index_file, 'wb') as f:
            pickle.dump(index, f)
        with open(vectorizer_file, 'wb') as f:
            pickle.dump(vectorizer, f)

    # 加载索引文件向量
    def load_index(self,index_file, vectorizer_file):
        with open(index_file, 'rb') as f:
            index = pickle.load(f)
        with open(vectorizer_file, 'rb') as f:
            vectorizer = pickle.load(f)
        return index, vectorizer

    def preprocess_query(self,query):
        # 对查询进行预处理(例如:分词、去除停用词)
        return query

    # 文件查找函数
    def search(self,query, index, vectorizer, files_data,num):
        processed_query = self.preprocess_query(query)
        query_vector = vectorizer.transform([processed_query])
        cosine_similarities = cosine_similarity(index, query_vector)

        top_file_indices = cosine_similarities.ravel().argsort()[-int(num):][::-1]

        # print(top_file_indices)
        results = []
        for file_index in top_file_indices:
            file_name = list(files_data.keys())[file_index]
            file_content = files_data[file_name]
            similarity = cosine_similarities[file_index][0]
            results.append((file_name, file_content, similarity))

        return sorted(results, key=lambda x: x[-1], reverse=True)
        # return most_similar_file_name, most_similar_file_content

    # 文件相似度计算
    def search_similar_files(self,query,num):

        files_data = self.read_pickle(self.index_file_path)
        #processed_data = self.preprocess_data(files_data)

        index, vectorizer = self.load_index(self.index_file, self.vectorizer_file)
        result = self.search(query, index, vectorizer, files_data,num)

        result = [x[0]+" "+str(x[2]) for x in result]
        return result
        # print('File content:', result_file_content)

    # 获取文件内容
    def get_content(self,filename):
        files_data = self.read_pickle(self.index_file_path)
        result = files_data[filename]
        return result

    # 新增新的索引文件
    def add_new_file(self,file_path):
        index,vectorizer = self.load_index(self.index_file, self.vectorizer_file)
        files_data = self.read_pickle(self.index_file_path)
        content =''
        try:
            if file_path.split('.')[-1]=='txt':
                with open(file_path, 'r', encoding='utf-8') as f:
                    file_content =  f.read().replace('\n', '')
                    files_data[file_path.split('/')[-1]] = file_content

            if file_path.split('.')[-1] == 'pdf':
                with open(file_path, 'rb') as f:
                    pdf_reader = PyPDF2.PdfFileReader(f)
                    # 获取PDF文件的页数
                    num_pages = pdf_reader.numPages
                    # 创建文本文件,并将PDF文件每一页的内容写入
                    for i in range(num_pages):
                        page = pdf_reader.getPage(i)
                        text = page.extractText().replace(' ', '')
                        content = content + text
                file_content = content.replace('\n', '')
                files_data[file_path.split('/')[-1]] = file_content

            with open(self.index_file_path, 'wb') as f:
                    pickle.dump(files_data, f)

            corpus = list(files_data.values())
            X = vectorizer.fit_transform(corpus)

            with open(self.index_file, 'wb') as f:
                pickle.dump(X, f)
            with open(self.vectorizer_file, 'wb') as f:
                pickle.dump(vectorizer, f)
            return  'successful'
        except Exception as e:
            print(e)
            return 'fail'

2.构建文件夹导入函数

if __name__ == '__main__':
       
    folder_path = '文件夹的地址'  # 例如'E:/data'
   

    def create_file(folder_path):
         FileSearch = FileSearchManage()
         files_data = FileSearch.read_files(folder_path)
         processed_data = FileSearch.preprocess_data(files_data)
         FileSearch.save_file(index_file_path,processed_data)
         index, vectorizer = FileSearch.create_tfidf_index(processed_data)
         FileSearch.save_index(index, vectorizer, index_file, vectorizer_file)


    def file_search(query):

        FileSearch = FileSearchManage()
        files_data = FileSearch.read_pickle(index_file_path)
        processed_data = FileSearch.preprocess_data(files_data)
        index, vectorizer = FileSearch.load_index(index_file, vectorizer_file)
        result_file_name = FileSearch.search(query, index, vectorizer, files_data,num=5)
        print('File name:', result_file_name)


    def file_add(folder_path):
        FileSearch = FileSearchManage()
        files_data = FileSearch.read_pdf_files(folder_path)
        with open(index_file_path, 'wb') as f:
            pickle.dump(files_data, f)
        processed_data =  FileSearch.preprocess_data(files_data)
        index, vectorizer = FileSearch.create_tfidf_index(processed_data)
        FileSearch.save_index(index, vectorizer, index_file, vectorizer_file)
        index, vectorizer = FileSearch.load_index(index_file, vectorizer_file)
        query = '*****'
        result_file_name = FileSearch.search(query, index, vectorizer, files_data,num=5)


   create_file(folder_path)
   #query ='搜索语句'
   #file_search(query)
   
   #file_add(folder_path)
  

我们还可以根据自己的需求,添加新的文件,可以是txt,pdf的文件,pdf有的文件可以直接转文本,有的图片的需要OCR识别,这个可以接入OCR进行识别,使得系统更加的完善。欢迎大家进行关注与支持,有更多需求和合作的可以联系。

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk