实现Python将csv数据导入到Neo4j

实现Python将csv数据导入到Neo4j

目录

一、获取数据集

1.1 获取数据集

1.2 以“记事本”方式打开文件

1.3  另存为“UTF-8”格式文件

1.4 选择“是”

二、 打开Neo4j并运行

2.1 创建新的Neo4j数据库

2.2 分别设置数据库名和密码

​编辑 2.3 启动Neo4j数据库

2.4 打开Neo4j数据库

 2.5 运行查看该数据库是否为空

三、打开Python创建项目 

3.1 创建一个包,存项目

3.2 创建一个项目

3.3 检查自己的依赖是否完全

3.3.1 点击“File”-“Settings”

3.3.2  找到“Project:PythonProject”-"Python Interpreter"

3.4 导入相关依赖,打开Terminal

3.5 输入命令

四、实现Python连接Neo4j 

4.1 Python连接Neo4j测试

4.2 导入数据集

4.3 处理数据集

4.4 初始化neo4j并合并数据集关系

4.5 把节点导入到Neo4j中

4.6 运行代码后,查看Neo4j是否有节点

4.7 导入节点关系

4.8 查看Neo4j

五、该过程出现的Bug

5.1 UnicodeDecodeError: 'utf-8' codec can't decode byte 0xc8 in position 0: invalid continuation byte 


一、获取数据集

1.1 获取数据集

《我是刑警》的人物关系数据集资源https://download.ZEEKLOG.net/download/Z0412_J0103/90160496

1.2 以“记事本”方式打开文件

1.3  另存为“UTF-8”格式文件

1.4 选择“是”

二、 打开Neo4j并运行

2.1 创建新的Neo4j数据库

2.2 分别设置数据库名和密码

 2.3 启动Neo4j数据库

2.4 打开Neo4j数据库

 2.5 运行查看该数据库是否为空

match(n) return n;

三、打开Python创建项目 

3.1 创建一个包,存项目

3.2 创建一个项目

3.3 检查自己的依赖是否完全

3.3.1 点击“File”-“Settings”

3.3.2  找到“Project:PythonProject”-"Python Interpreter"

检查是否导入了“neo4j”、“pandas”、”py2neo

3.4 导入相关依赖,打开Terminal

3.5 输入命令

pip install neo4j-python-driver pandas py2neo

四、实现Python连接Neo4j 

4.1 Python连接Neo4j测试



其中的”123456“是你刚刚建立的Neo4j密码,此处只需要修改该密码就可以了

4.2 导入数据集



其中地址需要改变,其它地方都不用变

运行结果如下

4.3 处理数据集



 执行结果如下

4.4 初始化neo4j并合并数据集关系

# 初始化一个空列表来存储所有的元组 tuple_total = [] # 迭代DataFrame的每一行 for index, row in invoice_data.iterrows(): ties_total = [row['人物'], row['关系'], row['关系人物']] # 将所有元组添加到结果列表中 tuple_total.extend([ties_total]) print(tuple_total)

4.5 把节点导入到Neo4j中

#把节点导入neo4j中 def create_node(people): for name in people: node_1 = Node('人物', name = name) graph.create(node_1) create_node(people)

4.6 运行代码后,查看Neo4j是否有节点

4.7 导入节点关系

matcher = NodeMatcher(graph) # 导入关系 for i in range(0, len(tuple_total)): name_1 = matcher.match('人物', name=tuple_total[i][0]).first() name_2 = matcher.match('人物', name=tuple_total[i][2]).first() rel = tuple_total[i][1] relationship = Relationship(name_1, rel, name_2) graph.create(relationship)

4.8 查看Neo4j

 

五、该过程出现的Bug

5.1 UnicodeDecodeError: 'utf-8' codec can't decode byte 0xc8 in position 0: invalid continuation byte 

解决过程:

是因为你的CSV文件没有设置为”UTF-8“ ,具体过程看本文的1.2和1.3过程

上一篇文章:ZEEKLOG中群发功能及自动回复设置教程_ZEEKLOG粉丝群发https://blog.ZEEKLOG.net/Z0412_J0103/article/details/144074981下一篇文章: JDK11下载安装和配置超详细过程-ZEEKLOG博客https://blog.ZEEKLOG.net/Z0412_J0103/article/details/144451166?sharetype=blogdetail&sharerId=144451166&sharerefer=PC&sharesource=Z0412_J0103&spm=1011.2480.3001.8118

Read more

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

核心应用场景 马尔科夫模型在医疗健康领域的应用核心在于其处理时序与状态转移的能力,尤其适用于以下几类具有明确阶段性的临床与管理问题: 1. 疾病进展建模:量化慢性病(如糖尿病、心血管疾病、慢性肾病)在不同临床分期之间的转移风险,为早期干预提供依据。 2. 治疗决策优化:在考虑治疗效果、副作用、成本及患者偏好的多维度下,模拟不同治疗策略的长期结局,辅助制定个性化方案。 3. 生存分析与预后预测:动态评估患者的生存概率或特定终点事件(如复发、再入院)发生风险,随时间更新预测。 4. 医疗资源需求预测:基于患者群体的状态流模型,预测未来不同科室(如ICU、康复病房)的床位、设备及人力需求。 实战示例:构建糖尿病进展预测模型 以下是一个基于模拟数据的糖尿病进展马尔科夫模型构建框架,展示了从数据到模拟的核心流程。 import numpy as np

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

零成本运行AI智能体:OpenClaw+Ollama本地私有化部署完全指南 告别API账单,让AI真正属于你自己——数据隐私+零Token成本+离线可用 引言:为什么需要本地模型? 在OpenClaw的生态中,模型是AI的“大脑”。无论是GPT-4还是Claude,云端大模型虽然强大,但存在三个无法回避的问题: 1. 成本居高不下:一个中等规模的团队,每月API费用轻松超过$500 2. 隐私风险:敏感代码、商业文档、个人数据必须上传到厂商服务器 3. 网络依赖:断网环境AI直接“罢工” OpenClaw + Ollama的组合正是为解决这些问题而生。Ollama作为轻量级本地大模型管理工具,能将Llama、Qwen等开源模型部署在你的电脑上,让OpenClaw彻底摆脱云端依赖,实现本地推理、数据私有化、零Token成本的全闭环体验 。 本地部署模式 用户指令 OpenClaw网关 本地Ollama Llama/Qwen 返回结果 零成本 数据留在本地 云端部署模式 用户指令

OpenClaw 实操指南 07:飞书 CLI 开源:让 AI 真正接管你的飞书全流程

OpenClaw 实操指南 07:飞书 CLI 开源:让 AI 真正接管你的飞书全流程

2026年3月28日,飞书官方开源larksuite/cli(v1.0.0),以200+命令、19个AI Agent Skills,将飞书2500+开放API封装为命令行接口,面向人类开发者与AI Agent双用户,重构办公协作的操作范式。这不仅是工具升级,更是飞书从“GUI服务人”到“GUI+CLI双态并行”的战略跃迁——GUI给人交互,CLI给AI执行,让AI真正成为办公的“执行者”而非“旁观者”。 一、飞书CLI是什么:从API到命令行的能力跃迁 1. 核心定位与架构 飞书CLI是官方开源、MIT协议、免费商用的命令行工具,核心定位是让AI Agent直接操控飞书全量数据与业务,而非仅做信息查询。其三层架构清晰划分能力边界: * Shortcuts层:高频快捷命令(如lark-cli calendar +agenda查今日日程),降低人类使用门槛。 * API Commands层:200+

2026全球最强十大AI大模型

1. GPT-5.2 定位:深度推理之王。 优势: *  极致推理:在数学、物理、逻辑谜题及复杂代码架构设计上仍保持全球第一,尤其是其“Thinking”模式,能处理极度复杂的链式推理任务。 缺点: * 成本高昂:API调用价格昂贵,不适合大规模低成本应用。 2.Gemini 3 Pro (Google) 定位:原生多模态霸主,长上下文王者。 优势: * 超长上下文:支持数百万Token的上下文窗口,能一次性处理整本书、长达数小时的视频或大型代码库。 * 多模态融合:真正的“原生”多模态,对图像、音频、视频的理解能力远超其他模型,能直接分析视频中的细微动作和语音语调。 * 谷歌生态:与Google Workspace、Search深度集成,实时信息检索能力极强。 缺点: * 幻觉问题:在处理极度冷门的知识时,偶尔会出现“自信地胡说八道”的情况。