AI之MLMs之Tool:Open Notebook的简介、安装和使用方法、案例应用之详细攻略

AI之MLMs之Tool:Open Notebook的简介、安装和使用方法、案例应用之详细攻略

AI之MLMs之Tool:Open Notebook的简介、安装和使用方法、案例应用之详细攻略

目录

Open Notebook的简介

1、特点

(1)、与 Google Notebook LM 的核心优势对比

(2)、核心功能 (Core Capabilities)

(3)、高级功能 (Advanced Features)

Open Notebook的安装和使用方法

1、安装

1.1、准备工作

1.2、安装步骤

方法一:使用 Docker 命令 (适用于本地或远程服务器)

方法二:使用 Docker Compose (推荐,便于管理)

1.3、关键设置说明

2、使用方法

Open Notebook的案例应用

个人知识库和研究助手:

内容创作者的灵感与素材管理工具:

注重隐私的企业或个人信息管理:

开发者的可扩展 AI 平台:


Open Notebook的简介

Open Notebook 是一个开源的、注重隐私的 Google Notebook LM 替代品,旨在提供更强的灵活性和更多的功能。在这个由人工智能主导的时代,项目的设计理念是,思考和获取新知识的能力不应成为少数人的特权,也不应受限于单一供应商。Open Notebook 赋予用户以下核心能力:

  • 控制您的数据:让您的研究保持私密和安全。
  • 选择您的 AI 模型:支持包括 OpenAI, Anthropic, Ollama, LM Studio 在内的超过16家供应商。
  • 组织多模态内容:支持 PDF、视频、音频、网页等多种格式。
  • 生成专业播客:具备先进的多人播客生成功能。
  • 智能搜索:在所有内容中进行全文和向量搜索。
  • 带上下文聊天:基于您的研究资料进行 AI 对话。

该项目致力于成为一个私有的、支持多模型、100% 本地化且功能齐全的 Notebook LM 替代方案,让用户能够完全掌控自己的数据和工作流。

Github地址https://github.com/lfnovo/open-notebook

1、特点

Open Notebook 在功能和设计上相较于 Google Notebook LM 具有显著优势,并提供了一系列强大且灵活的特性。

(1)、与 Google Notebook LM 的核心优势对比

特性

Open Notebook

Google Notebook LM

优势

隐私与控制

自托管,数据完全属于您

仅限 Google 云

完整的数据主权

AI 提供商选择

16+ 提供商 (OpenAI, Anthropic, Ollama 等)

仅限 Google 模型

灵活性和成本优化

播客演讲者

1-4 名演讲者,可自定义配置

仅限 2 名演讲者

极高的灵活性

上下文控制

3个精细化级别

“全有或全无”模式

隐私和性能调优

内容转换

内置和自定义转换

选项有限

无限的处理能力

API 访问

完整的 REST API

无 API

完全的自动化能力

部署方式

Docker、云或本地

仅限 Google 托管

可在任何地方部署

引用来源

全面且附带来源链接

基础引用

保证研究的完整性

定制化

开源,完全可定制

封闭系统

无限的可扩展性

成本

只需支付 AI 使用费

月度订阅 + 使用费

透明且可控

(2)、核心功能 (Core Capabilities)

  • 隐私优先:您的数据保留在自己的控制之下,不依赖任何云服务。
  • 多笔记本组织:无缝管理多个不同的研究项目。
  • 通用内容支持:支持 PDF、视频、音频、网页、Office 文档等多种内容格式。
  • 多模型 AI 支持:集成了超过16家 AI 提供商,包括 OpenAI、Anthropic、Ollama、Google、LM Studio 等,并支持任何与 OpenAI 兼容的端点。
  • 专业播客生成:利用 Episode Profiles (剧集配置) 生成先进的多人播客。
  • 智能搜索:在所有内容上进行全文搜索和向量搜索。
  • 上下文感知聊天:基于您上传的研究材料与 AI 进行对话。
  • AI 辅助笔记:自动生成见解或手动撰写笔记。

(3)、高级功能 (Advanced Features)

  • 推理模型支持:完全支持如 DeepSeek-R1 和 Qwen3 等思考型模型。
  • 内容转换:强大的可定制操作,用于总结和提取见解。
  • 全面的 REST API:提供完整的编程访问权限,用于自定义集成。
  • 可选的密码保护:为公开部署提供身份验证,确保安全。
  • 精细的上下文控制:精确选择要与 AI 模型共享的内容。
  • 引用功能:AI 的回答会附带精确的来源引用。

2、供应商支持矩阵

支持LM Studio及任何兼容OpenAI的端点

ProviderLLM SupportEmbedding SupportSpeech-to-TextText-to-Speech
OpenAI
Anthropic
Groq
Google (GenAI)
Vertex AI
Ollama
Perplexity
ElevenLabs
Azure OpenAI
Mistral
DeepSeek
Voyage
xAI
OpenRouter
OpenAI Compatible*

Open Notebook的安装和使用方法

1、安装

项目推荐使用 Docker 进行快速部署,并提供了针对不同场景的配置方案。

1.1、准备工作

安装 Docker 和 Docker Compose。
准备一个用于存放数据的目录。

1.2、安装步骤

方法一:使用 Docker 命令 (适用于本地或远程服务器)

创建一个工作目录:

mkdir open-notebook && cd open-notebook

本地机器设置 (当你在运行 Docker 的同一台电脑上访问 Open Notebook 时):

docker run -d \ --name open-notebook \ -p 8502:8502 -p 5055:5055 \ -v ./notebook_data:/app/data \ -v ./surreal_data:/mydata \ -e OPENAI_API_KEY=your_key_here \ -e SURREAL_URL="ws://localhost:8000/rpc" \ -e SURREAL_USER="root" \ -e SURREAL_PASSWORD="root" \ -e SURREAL_NAMESPACE="open_notebook" \ -e SURREAL_DATABASE="production" \ lfnovo/open_notebook:v1-latest-single

访问地址:http://localhost:8502

远程服务器设置 (用于服务器、NAS、树莓派等远程设备):

docker run -d \ --name open-notebook \ -p 8502:8502 -p 5055:5055 \ -v ./notebook_data:/app/data \ -v ./surreal_data:/mydata \ -e OPENAI_API_KEY=your_key_here \ -e API_URL=http://YOUR_SERVER_IP:5055 \ -e SURREAL_URL="ws://localhost:8000/rpc" \ -e SURREAL_USER="root" \ -e SURREAL_PASSWORD="root" \ -e SURREAL_NAMESPACE="open_notebook" \ -e SURREAL_DATABASE="production" \ lfnovo/open_notebook:v1-latest-single

注意:将 YOUR_SERVER_IP 替换为您的服务器实际 IP 地址或域名。
访问地址:http://YOUR_SERVER_IP:8502

方法二:使用 Docker Compose (推荐,便于管理)

在 open-notebook 目录下创建一个 docker-compose.yml 文件:

services: open_notebook: image: lfnovo/open_notebook:v1-latest-single ports: - "8502:8502" # Web UI - "5055:5055" # API (必需!) environment: - OPENAI_API_KEY=your_key_here # 远程访问时,请取消注释并设置你的服务器IP/域名: # - API_URL=http://192.168.1.100:5055 # 数据库连接 (单容器必需) - SURREAL_URL=ws://localhost:8000/rpc - SURREAL_USER=root - SURREAL_PASSWORD=root - SURREAL_NAMESPACE=open_notebook - SURREAL_DATABASE=production volumes: - ./notebook_data:/app/data - ./surreal_data:/mydata restart: always

启动服务:

docker compose up -d

1.3、关键设置说明

端口:必须同时暴露 8502 (Web 界面) 和 5055 (API 后端) 两个端口。
API_URL 环境变量:在远程访问时,API_URL 必须设置为您访问服务器的方式所对应的 API 地址。例如,如果您通过 http://192.168.1.100:8502 访问,则 API_URL 必须设置为 http://192.168.1.100:5055。不要在远程服务器上使用 localhost。

2、使用方法

安装并启动后,通过浏览器访问 http://localhost:8502 或 http://YOUR_SERVER_IP:8502 即可开始使用。应用界面采用三栏式布局:
来源 (Sources):管理您所有的研究材料,如 PDF、视频、网页等。
笔记 (Notes):创建手动笔记或由 AI 生成的笔记。
聊天 (Chat):基于您上传的“来源”内容与 AI 进行对话。

Open Notebook的案例应用

尽管文档没有提供具体的客户案例,但其功能设计明确指向了以下应用场景:

个人知识库和研究助手:

学者、研究人员或学生可以上传大量的 PDF 论文、网页、视频讲座和书籍。

利用智能搜索快速定位信息,通过上下文感知聊天功能就复杂的学术问题与自己的资料库进行“对话”,并让 AI 辅助生成带有精确引用的摘要和笔记。

内容创作者的灵感与素材管理工具:

播客主、博主或作家可以收集各种格式的素材(文章、音频、视频)。

使用内容转换功能自动提取关键信息和摘要。

最独特的是,可以利用专业播客生成功能,直接将研究笔记和想法转换成包含多达四位不同“演讲者”的专业级播客脚本和音频。

注重隐私的企业或个人信息管理:

对于处理敏感信息的用户(如律师、记者、策略分析师),Open Notebook 的自托管和隐私优先特性至关重要。

所有数据都存储在用户自己的服务器上,完全避免了将敏感研究资料上传到第三方云服务的风险。

开发者的可扩展 AI 平台:

由于项目完全开源并提供全面的 REST API,开发者可以将其作为基础,构建定制化的 AI 应用。

例如,可以将其集成到现有的工作流中,实现自动化报告生成、知识库问答机器人等功能。

Read more

Linux命名管道(FIFO)通信:从原理到实操,一文搞懂跨进程通信

Linux命名管道(FIFO)通信:从原理到实操,一文搞懂跨进程通信

🔥个人主页:Cx330🌸 ❄️个人专栏:《C语言》《LeetCode刷题集》《数据结构-初阶》《C++知识分享》 《优选算法指南-必刷经典100题》《Linux操作系统》:从入门到入魔 《Git深度解析》:版本管理实战全解 🌟心向往之行必能至 🎥Cx330🌸的简介: 目录 前言: 一、先搞懂:命名管道(FIFO)是什么? 1. 命名管道的本质 2. 命名管道的核心特点 3. 命名管道与匿名管道的对比 二. 命名管道的创建方式 2.1 命令行创建(mkfifo 命令) 2.2 代码创建(mkfifo 函数) 2.3 命名管道的打开规则 三、实操实现:手搓命名管道通信 3.1 前置准备(

By Ne0inhk
Flutter 组件 injectfy 适配鸿蒙 HarmonyOS 实战:逻辑注入矩阵,构建跨模块解耦与动态依赖管理架构

Flutter 组件 injectfy 适配鸿蒙 HarmonyOS 实战:逻辑注入矩阵,构建跨模块解耦与动态依赖管理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 injectfy 适配鸿蒙 HarmonyOS 实战:逻辑注入矩阵,构建跨模块解耦与动态依赖管理架构 前言 在鸿蒙(OpenHarmony)生态迈向超大规模应用拆分、涉及数百个独立 Feature 模块与底层硬件服务深度解耦的背景下,如何实现灵活的“控制反转(IoC)”与“依赖注入(DI)”,已成为决定应用架构可维护性的“生命线”。在鸿蒙设备这类强调模块化挂载与 HAP/HSP 动态分发的环境下,如果应用内部的组件实例依然采用强耦合的硬编码初始化,由于由于各模块间复杂的循环依赖,极易由于由于初始化顺序错乱导致应用在流转拉起时的崩溃。 我们需要一种能够实现零成本解耦、支持单例(Singleton)与工厂(Factory)模式且具备极简注册语义的依赖注入框架。 injectfy 为 Flutter 开发者引入了轻量级的对象容器管理方案。它不仅支持对底层 Service 的全局托管,更提供了灵活的注入探测机制。在适配到鸿蒙

By Ne0inhk