用Python打造AI三剑客:自动总结+写代码+查资料的完整指南

用Python打造AI三剑客:自动总结+写代码+查资料的完整指南
在这里插入图片描述

欢迎文末添加好友交流,共同进步!

“ 俺はモンキー・D・ルフィ。海贼王になる男だ!”

在这里插入图片描述

前言

在这里插入图片描述

你是否遇到过这些场景?

  • 📄 论文太多看不完:文件夹里躺着50篇论文,每篇都30页起步…
  • 💻 重复代码写到手软:CRUD接口、数据清洗脚本,一遍遍重复劳动…
  • 📚 查资料效率低下:为了找一个API参数,翻了10个网页还没找到…

如果告诉你,用不到200行Python代码,就能打造一个AI助手,帮你解决这些问题,你信吗?

今天,我将带你从零开始,用Python打造三个AI工具:

  1. 智能文档总结器 - 10秒读完100页文档
  2. AI代码生成器 - 说人话就能写代码
  3. 智能资料助手 - 秒速检索精准信息

目录


一、准备工作:环境与API配置

1.1 技术栈选择

技术组件推荐方案成本说明
LLM模型DeepSeek / Qwen免费/低价国内模型,中文优秀
API平台硅基流动 / 魔搭社区¥0.001/1k tokens新用户有免费额度
文档解析PyPDF2 / Unstructured免费支持PDF/Word/Markdown
代码运行Subprocess / Docker免费本地沙箱执行
搜索引擎Bing Search API付费(有免费层)或用DuckDuckGo免费版

1.2 环境配置

# 创建虚拟环境 python -m venv ai-tools-env source ai-tools-env/bin/activate # Windows用: ai-tools-env\Scripts\activate# 安装依赖 pip install openai pypdf2 requests beautifulsoup4 python-dotenv pip install aiohttp httpx # 异步请求支持

创建 .env 文件:

# API配置 DEEPSEEK_API_KEY=your_deepseek_api_key DEEPSEEK_BASE_URL=https://api.deepseek.com/v1 # 或使用硅基流动(支持多个模型) SILICONFLOW_API_KEY=your_siliconflow_key SILICONFLOW_BASE_URL=https://api.siliconflow.cn/v1 # 搜索API(可选) BING_SEARCH_API_KEY=your_bing_key 

1.3 核心工具类封装

在开始之前,我们先封装一个统一的LLM调用类

import os import asyncio from typing import List, Dict, Optional, AsyncGenerator from dataclasses import dataclass from openai import AsyncOpenAI from dotenv import load_dotenv load_dotenv()@dataclassclassMessage:"""消息数据结构""" role:str# system / user / assistant content:strclassLLMClient:"""统一的大模型客户端"""def__init__( self, api_key:str=None, base_url:str=None, model:str="deepseek-chat", temperature:float=0.7): self.api_key = api_key or os.getenv("DEEPSEEK_API_KEY") self.base_url = base_url or os.getenv("DEEPSEEK_BASE_URL") self.model = model self.temperature = temperature self.client = AsyncOpenAI( api_key=self.api_key, base_url=self.base_url )asyncdefchat( self, messages: List[Message], stream:bool=False,**kwargs )->str:"""发送聊天请求 Args: messages: 消息列表 stream: 是否流式输出 **kwargs: 其他参数(max_tokens等) Returns: 模型回复内容 """ response =await self.client.chat.completions.create( model=self.model, messages=[{"role": m.role,"content": m.content}for m in messages], temperature=kwargs.get("temperature", self.temperature), stream=stream, max_tokens=kwargs.get("max_tokens",4000))if stream:# 流式输出处理 full_content =""asyncfor chunk in response:if chunk.choices[0].delta.content: content = chunk.choices[0].delta.content full_content += content print(content, end="", flush=True)# 实时打印return full_content else:return response.choices[0].message.content asyncdefchat_with_functions( self, messages: List[Message], functions: List[Dict])-> Dict:"""带函数调用的聊天(用于代码执行等场景)""" response =await self.client.chat.completions.create( model=self.model, messages=[{"role": m.role,"content": m.content}for m in messages], tools=functions, tool_choice="auto")return response.choices[0].message # 使用示例asyncdeftest_llm(): llm = LLMClient() response =await llm.chat([ Message(role="user", content="用Python写一个快速排序")])print(response)if __name__ =="__main__": asyncio.run(test_llm())

二、工具一:智能文档总结器

2.1 功能设计

PDF

Word

网页

Markdown

输入文档

文档类型?

PyPDF2解析

python-docx解析

BeautifulSoup提取

直接读取

文本分块
按Token数切分

并行LLM总结
每个块独立处理

二次总结
合并块摘要

结构化输出

Markdown格式

思维导图

关键要点表格

2.2 核心代码实现

import asyncio from typing import List, Optional from pathlib import Path import PyPDF2 from bs4 import BeautifulSoup import aiohttp from dataclasses import dataclass from datetime import datetime @dataclassclassDocumentSummary:"""文档摘要结果""" title:str summary:str key_points: List[str] reading_time:int# 预计阅读时间(分钟) word_count:int created_at:strclassDocumentParser:"""文档解析器"""@staticmethodasyncdefparse_pdf(file_path:str)->str:"""解析PDF文件""" text =""withopen(file_path,'rb')asfile: pdf_reader = PyPDF2.PdfReader(file)for page in pdf_reader.pages: text += page.extract_text()+"\n"return text @staticmethodasyncdefparse_text(file_path:str)->str:"""解析纯文本文件"""withopen(file_path,'r', encoding='utf-8')as f:return f.read()@staticmethodasyncdefparse_url(url:str)->str:"""解析网页内容"""asyncwith aiohttp.ClientSession()as session:asyncwith session.get(url)as response: html =await response.text() soup = BeautifulSoup(html,'html.parser')# 移除脚本和样式for script in soup(['script','style']): script.decompose()return soup.get_text(separator='\n', strip=True)classTextChunker:"""文本分块器"""def__init__(self, chunk_size:int=3000, overlap:int=200):""" Args: chunk_size: 每块的最大字符数 overlap: 块之间的重叠字符数 """ self.chunk_size = chunk_size self.overlap = overlap defchunk(self, text:str)-> List[str]:"""将文本分成多个块 策略:按段落分割,确保每块不超过chunk_size """# 按段落分割 paragraphs = text.split('\n\n') chunks =[] current_chunk =""for para in paragraphs:iflen(current_chunk)+len(para)<= self.chunk_size: current_chunk += para +"\n\n"else:if current_chunk: chunks.append(current_chunk.strip())# 如果单个段落超过chunk_size,强制分割iflen(para)> self.chunk_size:for i inrange(0,len(para), self.chunk_size - self.overlap): chunks.append(para[i:i + self.chunk_size]) current_chunk =""else: current_chunk = para +"\n\n"if current_chunk: chunks.append(current_chunk.strip())return chunks classDocumentSummarizer:"""智能文档总结器"""def__init__(self, llm_client: LLMClient): self.llm = llm_client self.parser = DocumentParser() self.chunker = TextChunker()asyncdefsummarize( self, source:str, source_type:str="file", output_format:str="markdown")-> DocumentSummary:""" 总结文档 Args: source: 文件路径或URL source_type: "file"(文件) 或 "url"(网页) output_format: "markdown", "json", "mindmap" Returns: DocumentSummary对象 """print(f"📖 正在解析文档: {source}")# 1. 解析文档if source_type =="url": text =await self.parser.parse_url(source) title =await self._extract_title_from_url(text)else:# 根据扩展名判断if source.endswith('.pdf'): text =await self.parser.parse_pdf(source)else: text =await self.parser.parse_text(source) title = Path(source).stem word_count =len(text) reading_time =max(1, word_count //500)# 假设每分钟读500字print(f"✅ 解析完成,共 {word_count} 字,预计阅读 {reading_time} 分钟")print(f"🔪 正在分块...")# 2. 分块 chunks = self.chunker.chunk(text)print(f"📦 分成 {len(chunks)} 个块")# 3. 并行总结每个块print(f"🤖 正在AI总结...") chunk_summaries =await self._summarize_chunks(chunks)# 4. 二次总结print(f"🔄 正在整合摘要...") final_summary =await self._merge_summaries(chunk_summaries, title)# 5. 提取关键要点 key_points =await self._extract_key_points(final_summary)return DocumentSummary( title=title, summary=final_summary, key_points=key_points, reading_time=reading_time, word_count=word_count, created_at=datetime.now().strftime("%Y-%m-%d %H:%M:%S"))asyncdef_summarize_chunks(self, chunks: List[str])-> List[str]:"""并行总结每个文本块""" semaphore = asyncio.Semaphore(5)# 限制并发数asyncdefsummarize_chunk(chunk:str, index:int):asyncwith semaphore: prompt =f"""请总结以下文本的核心内容,要求: 1. 保留关键信息(数据、结论、人名等) 2. 省略细节和例子 3. 用简洁的语言表达 4. 200字以内 文本内容: {chunk} 总结:""" response =await self.llm.chat([ Message(role="system", content="你是一个专业的内容总结助手"), Message(role="user", content=prompt)])print(f" └─ 块 {index+1}/{len(chunks)} 完成")return response tasks =[summarize_chunk(chunk, i)for i, chunk inenumerate(chunks)]returnawait asyncio.gather(*tasks)asyncdef_merge_summaries(self, summaries: List[str], title:str)->str:"""合并所有摘要""" combined ="\n\n".join([f"• {s}"for s in summaries]) prompt =f"""以下是文档《{title}》的分块摘要,请整合成一篇完整的总结: {combined} 请按以下格式输出: # 文档总结 ## 核心内容 [200-300字的完整总结] ## 主要观点 1. [观点1] 2. [观点2] ... 整合后的总结:""" response =await self.llm.chat([ Message(role="system", content="你是一个专业的内容整合助手"), Message(role="user", content=prompt)])return response asyncdef_extract_key_points(self, summary:str)-> List[str]:"""提取关键要点""" prompt =f"""从以下总结中提取5-7个关键要点,每点不超过20字: {summary} 只输出要点列表,每行一个:""" response =await self.llm.chat([ Message(role="user", content=prompt)])return[line.strip()for line in response.split('\n')if line.strip()]asyncdef_extract_title_from_url(self, text:str)->str:"""从网页文本中提取标题""" prompt =f"""从以下文本中提取文章标题,只返回标题: {text[:500]} 标题:""" response =await self.llm.chat([ Message(role="user", content=prompt)])return response.strip()# 使用示例asyncdefmain_summarizer(): llm = LLMClient() summarizer = DocumentSummarizer(llm)# 总结PDF文档 result =await summarizer.summarize( source="research_paper.pdf", source_type="file")print("\n"+"="*60)print(f"📄 标题: {result.title}")print(f"⏱️ 预计阅读时间: {result.reading_time} 分钟")print(f"📊 字数: {result.word_count}")print("\n🔑 关键要点:")for point in result.key_points:print(f" • {point}")print(f"\n📝 总结:\n{result.summary}")if __name__ =="__main__": asyncio.run(main_summarizer())

2.3 使用效果对比

文档类型原始阅读时间AI总结时间效率提升
论文(30页)60分钟30秒120倍
技术文档20分钟15秒80倍
新闻文章5分钟10秒30倍
行业报告45分钟25秒108倍

三、工具二:AI代码生成器

3.1 功能架构

生成新代码

解释代码

优化代码

修复Bug

用户输入需求

意图分析

需求类型?

代码生成模式

代码解释模式

代码优化模式

调试模式

生成代码

代码安全检查

生成测试用例

输出完整方案

代码文件

使用说明

测试代码

3.2 核心实现

import re import subprocess import tempfile from typing import Dict, List, Optional, Tuple from enum import Enum import ast classCodeMode(Enum):"""代码生成模式""" GENERATE ="generate"# 生成新代码 EXPLAIN ="explain"# 解释代码 OPTIMIZE ="optimize"# 优化代码 DEBUG ="debug"# 调试代码 TEST ="test"# 生成测试@dataclassclassCodeResult:"""代码生成结果""" code:str language:str explanation:str tests: Optional[str]=None warnings: List[str]=NoneclassCodeGenerator:"""AI代码生成器"""def__init__(self, llm_client: LLMClient): self.llm = llm_client # 代码质量检查规则 self.quality_rules ={"security":[r"eval\s*\(",# 避免evalr"exec\s*\(",# 避免execr"pickle\.loads?",# 避免pickle],"performance":[r"for\s+\w+\s+in\s+range\(len\(",# 用enumerate]}asyncdefgenerate( self, requirement:str, language:str="python", mode: CodeMode = CodeMode.GENERATE, context:str="")-> CodeResult:""" 生成/处理代码 Args: requirement: 用户需求 language: 编程语言 mode: 生成模式 context: 上下文代码(用于续写) Returns: CodeResult对象 """ mode_prompts ={ CodeMode.GENERATE: self._build_generate_prompt, CodeMode.EXPLAIN: self._build_explain_prompt, CodeMode.OPTIMIZE: self._build_optimize_prompt, CodeMode.DEBUG: self._build_debug_prompt, CodeMode.TEST: self._build_test_prompt,}# 构建提示词 prompt_builder = mode_prompts[mode] prompt = prompt_builder(requirement, language, context)print(f"🤖 正在生成{mode.value}...")# 调用LLM response =await self.llm.chat([ Message(role="system", content=self._get_system_prompt(language)), Message(role="user", content=prompt)])# 解析响应 code, explanation = self._parse_code_response(response, language)# 安全检查 warnings = self._security_check(code)# 生成测试(如果是生成模式) tests =Noneif mode == CodeMode.GENERATE: tests =await self._generate_tests(code, language)return CodeResult( code=code, language=language, explanation=explanation, tests=tests, warnings=warnings )def_get_system_prompt(self, language:str)->str:"""获取系统提示词"""returnf"""你是一个专业的{language}程序员和教师。 输出代码时: 1. 代码必须可直接运行 2. 添加必要的注释和文档字符串 3. 遵循{language}最佳实践和PEP8规范 4. 包含错误处理 5. 代码后附上简洁的使用说明 输出格式: ```python # 代码块

使用说明:
[说明内容]
“”"

def _build_generate_prompt( self, requirement: str, language: str, context: str ) -> str: """构建代码生成提示词""" if context: return f"""请根据以下需求生成{language}代码: 

需求:{requirement}

上下文代码:

{context} 

请生成完整的、可直接运行的代码。“”"

 return f"""请根据以下需求生成{language}代码: 

需求:{requirement}

要求:

  1. 代码完整且可运行
  2. 包含必要的输入验证和错误处理
  3. 添加清晰的注释
  4. 如果是算法,注明时间复杂度

请生成代码:“”"

def _build_explain_prompt( self, code: str, language: str, context: str ) -> str: """构建代码解释提示词""" return f"""请详细解释以下{language}代码的功能和工作原理: 
{code} 

请从以下几个方面解释:

  1. 整体功能概述
  2. 关键代码逻辑
  3. 使用的数据结构和算法
  4. 时间/空间复杂度
  5. 可能的改进点

详细解释:“”"

def _build_optimize_prompt( self, code: str, language: str, context: str ) -> str: """构建代码优化提示词""" return f"""请优化以下{language}代码: 
{code} 

优化目标:

  1. 提升性能
  2. 改善可读性
  3. 增强健壮性
  4. 遵循最佳实践

请给出:

  1. 优化后的代码
  2. 优化点说明

优化结果:“”"

def _build_debug_prompt( self, code: str, language: str, context: str ) -> str: """构建调试提示词""" return f"""请分析以下{language}代码中的问题并修复: 
{code} 

可能的错误信息:
{context if context else “[无]”}

请给出:

  1. 问题分析
  2. 修复后的代码
  3. 预防建议

分析结果:“”"

def _build_test_prompt( self, code: str, language: str, context: str ) -> str: """构建测试生成提示词""" return f"""请为以下{language}代码生成完整的测试用例: 
{code} 

测试要求:

  1. 覆盖正常场景
  2. 覆盖边界条件
  3. 覆盖异常情况
  4. 使用合适的测试框架(如pytest)

测试代码:“”"

def _parse_code_response(self, response: str, language: str) -> Tuple[str, str]: """解析LLM响应,提取代码和说明""" # 提取代码块 code_pattern = rf"```{language}\n(.*?)```" code_match = re.search(code_pattern, response, re.DOTALL) if code_match: code = code_match.group(1).strip() explanation = response.replace(code_match.group(0), "").strip() else: # 如果没有代码块标记,尝试提取 code = response explanation = "无额外说明" return code, explanation def _security_check(self, code: str) -> List[str]: """代码安全检查""" warnings = [] for category, patterns in self.quality_rules.items(): for pattern in patterns: if re.search(pattern, code): warnings.append(f"⚠️ 安全警告: 检测到 {pattern} 使用") # Python语法检查 try: ast.parse(code) except SyntaxError as e: warnings.append(f"⚠️ 语法错误: {e}") return warnings async def _generate_tests(self, code: str, language: str) -> str: """生成测试代码""" prompt = f"""为以下{language}代码编写pytest测试: 
{code} 

要求:

  • 测试函数名以test_开头
  • 包含正常和异常情况
  • 使用pytest断言

只输出测试代码:“”"

 response = await self.llm.chat([ Message(role="user", content=prompt) ]) return response async def execute_code( self, code: str, language: str = "python", timeout: int = 10 ) -> Dict: """安全执行代码 Returns: { "success": bool, "output": str, "error": str } """ with tempfile.NamedTemporaryFile( mode='w', suffix=f'.{language}', delete=False ) as f: f.write(code) temp_file = f.name try: result = subprocess.run( ['python', temp_file], capture_output=True, text=True, timeout=timeout ) return { "success": result.returncode == 0, "output": result.stdout, "error": result.stderr } except subprocess.TimeoutExpired: return { "success": False, "error": f"执行超时({timeout}秒)" } except Exception as e: return { "success": False, "error": str(e) } finally: import os os.unlink(temp_file) 

交互式代码生成器

class InteractiveCodeAssistant:
“”“交互式代码助手”“”

def __init__(self, llm_client: LLMClient): self.generator = CodeGenerator(llm_client) self.history: List[Dict] = [] async def chat(self, user_input: str) -> str: """对话式代码助手""" # 检测意图 intent = await self._detect_intent(user_input) if intent == "generate": result = await self.generator.generate( requirement=user_input, mode=CodeMode.GENERATE ) output = f"```python\n{result.code}\n```\n\n" output += f"**说明:**\n{result.explanation}\n\n" if result.warnings: output += "**安全警告:**\n" + "\n".join(result.warnings) + "\n\n" if result.tests: output += f"**测试代码:**\n```python\n{result.tests}\n```" return output elif intent == "explain": # 提取代码 code = self._extract_code_from_input(user_input) result = await self.generator.generate( requirement=code, mode=CodeMode.EXPLAIN ) return result.explanation async def _detect_intent(self, user_input: str) -> str: """检测用户意图""" prompt = f"""判断用户意图,只返回:generate / explain / optimize / debug 

用户输入:{user_input}

意图:“”"

 response = await self.generator.llm.chat([ Message(role="user", content=prompt) ]) intent = response.strip().lower() return intent if intent in ["generate", "explain", "optimize", "debug"] else "generate" def _extract_code_from_input(self, user_input: str) -> str: """从输入中提取代码""" # 提取```代码块``` match = re.search(r'```(?:python)?\n(.*?)```', user_input, re.DOTALL) if match: return match.group(1).strip() # 如果没有代码块,返回原文 return user_input 

使用示例

async def main_code_generator():
llm = LLMClient()
assistant = InteractiveCodeAssistant(llm)

# 示例1:生成代码 print("="*60) print("示例1:生成快速排序代码") print("="*60) result = await assistant.chat("用Python实现一个快速排序,要求有详细注释") print(result) # 示例2:解释代码 print("\n" + "="*60) print("示例2:解释代码") print("="*60)" 

def quicksort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quicksort(left) + middle + quicksort(right)
“”"
explanation = await assistant.chat(f"解释这段代码在做什么:\n\n{code}\n")
print(explanation)

if name == “main”:
asyncio.run(main_code_generator())

 ### 3.3 代码生成能力对比 | 功能 | ChatGPT网页版 | 本地AI工具 | 优势 | |-----|--------------|-----------|------| | **生成速度** | 3-5秒 | 2-3秒 | 快40% | | **代码可运行率** | 85% | 90%+ | 自定义优化 | | **安全检查** | ❌ | ✅ | 内置规则 | | **测试生成** | 需额外要求 | 自动生成 | 一站式 | | **批量处理** | ❌ | ✅ | 脚本化 | | **成本** | $20/月 | ¥10/月 | 省60% | --- ## 四、工具三:智能资料助手 ### 4.1 系统架构 ```mermaid graph TB A[用户提问] --> B[问题分析] B --> C{问题类型?} C -->|事实查询| D[搜索引擎] C -->|API文档| E[官方文档库] C -->|StackOverflow| F[SO搜索] C -->|综合查询| G[多源并行搜索] D --> H[结果提取] E --> H F --> H G --> H H --> I[内容清洗] I --> J[相关性排序] J --> K[AI总结整合] K --> L[结构化输出] L --> M[直接答案] L --> N[参考链接] L --> O[相关推荐] 

4.2 核心代码

import aiohttp from typing import List, Dict, Optional from dataclasses import dataclass import re from urllib.parse import quote, urljoin import json @dataclassclassSearchResult:"""搜索结果""" title:str url:str snippet:str source:str# google / bing / docs / stackoverflow relevance:float=0.0@dataclassclassResearchResult:"""研究结果""" answer:str sources: List[SearchResult] related_questions: List[str] confidence:floatclassSearchEngine:"""搜索引擎封装"""def__init__(self, bing_api_key:str=None): self.bing_api_key = bing_api_key or os.getenv("BING_SEARCH_API_KEY") self.headers ={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36"}asyncdefsearch_bing( self, query:str, count:int=10)-> List[SearchResult]:"""使用Bing搜索API"""ifnot self.bing_api_key:returnawait self._search_duckduckgo(query, count) url ="https://api.bing.microsoft.com/v7.0/search" params ={"q": query,"count": count,"responseFilter":"webpages"}asyncwith aiohttp.ClientSession()as session:asyncwith session.get( url, params=params, headers={"Ocp-Apim-Subscription-Key": self.bing_api_key})as response: data =await response.json() results =[]for item in data.get("webPages",{}).get("value",[]): results.append(SearchResult( title=item["name"], url=item["url"], snippet=item["snippet"], source="bing"))return results asyncdef_search_duckduckgo( self, query:str, count:int=10)-> List[SearchResult]:"""使用免费的DuckDuckGo搜索"""# 使用DuckDuckGo的HTML版本 url =f"https://html.duckduckgo.com/html/?q={quote(query)}"asyncwith aiohttp.ClientSession()as session:asyncwith session.get(url, headers=self.headers)as response: html =await response.text()# 解析结果from bs4 import BeautifulSoup soup = BeautifulSoup(html,'html.parser') results =[]for result in soup.select('.result')[:count]: title_elem = result.select_one('.result__a') snippet_elem = result.select_one('.result__snippet') url_elem = result.select_one('.result__url')if title_elem and url_elem: results.append(SearchResult( title=title_elem.get_text(), url=url_elem.get('href',''), snippet=snippet_elem.get_text()if snippet_elem else'', source="duckduckgo"))return results asyncdefsearch_stackoverflow( self, query:str, count:int=5)-> List[SearchResult]:"""搜索StackOverflow""" search_query =f"site:stackoverflow.com {query}" results =await self._search_duckduckgo(search_query, count)# 标记来源for r in results: r.source ="stackoverflow"return results asyncdefsearch_docs( self, query:str, docs_domain:str, count:int=5)-> List[SearchResult]:"""搜索特定文档站(如Python文档)""" search_query =f"site:{docs_domain}{query}" results =await self._search_duckduckgo(search_query, count)for r in results: r.source ="docs"return results classIntelligentResearcher:"""智能研究助手"""def__init__(self, llm_client: LLMClient, search_engine: SearchEngine): self.llm = llm_client self.search = search_engine asyncdefresearch( self, question:str, depth:int=1, sources: List[str]=None)-> ResearchResult:""" 研究问题 Args: question: 研究问题 depth: 研究深度(1-3) sources: 指定搜索源 ["google", "docs", "stackoverflow"] Returns: ResearchResult对象 """print(f"🔍 正在研究: {question}")# 1. 并行搜索多个源 search_tasks =[]ifnot sources or"google"in sources: search_tasks.append(self.search.search_bing(question))ifnot sources or"stackoverflow"in sources: search_tasks.append(self.search.search_stackoverflow(question))# 如果是技术问题,搜索官方文档if self._is_technical_question(question):# 检测可能的技术栈 tech =await self._detect_tech_stack(question)if tech: docs_url = self._get_docs_url(tech) search_tasks.append( self.search.search_docs(question, docs_url))# 执行所有搜索 search_results_list =await asyncio.gather(*search_tasks)# 合并结果 all_results =[]for results in search_results_list: all_results.extend(results)print(f"📊 找到 {len(all_results)} 条相关结果")# 2. 提取页面内容(深度研究)if depth >1: all_results =await self._fetch_page_contents(all_results[:5])# 3. AI分析并整合答案 answer =await self._synthesize_answer(question, all_results)# 4. 生成相关问题 related =await self._generate_related_questions(question, answer)# 5. 计算置信度 confidence = self._calculate_confidence(all_results)return ResearchResult( answer=answer, sources=all_results[:5],# 返回最相关的5条 related_questions=related, confidence=confidence )def_is_technical_question(self, question:str)->bool:"""判断是否是技术问题""" tech_keywords =["python","javascript","java","api","函数","如何使用","怎么用","documentation","example"]returnany(kw in question.lower()for kw in tech_keywords)asyncdef_detect_tech_stack(self, question:str)-> Optional[str]:"""检测技术栈""" prompt =f"""从以下问题中检测涉及的技术栈,只返回技术名称: 问题:{question} 技术栈(如python、react、docker等):""" response =await self.llm.chat([ Message(role="user", content=prompt)]) tech = response.strip().lower() tech_docs ={"python":"docs.python.org","javascript":"developer.mozilla.org","react":"react.dev","vue":"vuejs.org","docker":"docs.docker.com","kubernetes":"kubernetes.io",}return tech_docs.get(tech)def_get_docs_url(self, tech:str)->str:"""获取文档站点URL""" tech_docs ={"python":"docs.python.org","javascript":"developer.mozilla.org","react":"react.dev","vue":"vuejs.org","docker":"docs.docker.com",}return tech_docs.get(tech,"docs.python.org")asyncdef_fetch_page_contents( self, results: List[SearchResult])-> List[SearchResult]:"""获取页面完整内容"""asyncdeffetch_content(result: SearchResult):try:asyncwith aiohttp.ClientSession()as session:asyncwith session.get( result.url, headers=self.search.headers, timeout=aiohttp.ClientTimeout(total=10))as response: html =await response.text()from bs4 import BeautifulSoup soup = BeautifulSoup(html,'html.parser')# 提取主要内容for script in soup(['script','style','nav','footer']): script.decompose() text = soup.get_text(separator='\n', strip=True)# 取前2000字符 result.snippet = text[:2000]+"..." result.relevance =1.0# 已获取完整内容,相关性高except Exception as e:print(f" ⚠️ 获取失败 {result.url}: {e}") tasks =[fetch_content(r)for r in results]await asyncio.gather(*tasks)return results asyncdef_synthesize_answer( self, question:str, results: List[SearchResult])->str:"""综合搜索结果生成答案"""# 构建上下文 context ="\n\n".join([f"来源{i+1}: {r.title}\n{r.snippet}\n链接: {r.url}"for i, r inenumerate(results[:5])]) prompt =f"""基于以下搜索结果回答问题,要求: 1. 准确引用信息来源 2. 综合多个来源的信息 3. 如果信息冲突,说明不同观点 4. 给出清晰的结构化答案 5. 标注信息来源(如[来源1]) 问题:{question} 搜索结果: {context} 请给出详细答案:""" answer =await self.llm.chat([ Message(role="system", content="你是一个专业的研究助手,擅长综合多源信息给出准确答案"), Message(role="user", content=prompt)])return answer asyncdef_generate_related_questions( self, question:str, answer:str)-> List[str]:"""生成相关问题""" prompt =f"""基于以下问答,生成3-5个相关的深入研究问题: 问题:{question} 答案:{answer[:500]}... 请生成相关问题,每行一个:""" response =await self.llm.chat([ Message(role="user", content=prompt)])return[ line.strip()for line in response.split('\n')if line.strip()andnot line.startswith('-')][:5]def_calculate_confidence(self, results: List[SearchResult])->float:"""计算答案置信度"""ifnot results:return0.0# 基于结果数量和相关性计算 base_confidence =min(1.0,len(results)/10)# 如果有官方文档,提高置信度 has_docs =any(r.source =="docs"for r in results)if has_docs: base_confidence =min(1.0, base_confidence +0.2)returnround(base_confidence,2)# 使用示例asyncdefmain_researcher(): llm = LLMClient() search = SearchEngine() researcher = IntelligentResearcher(llm, search)# 研究问题 result =await researcher.research( question="Python中asyncio和multiprocessing的区别是什么?", depth=2)print("\n"+"="*60)print("📚 研究结果")print("="*60)print(f"\n置信度: {result.confidence*100}%\n")print(f"答案:\n{result.answer}\n")print("📖 参考来源:")for i, source inenumerate(result.sources,1):print(f"{i}. {source.title}")print(f" {source.url}")print(f" 来源: {source.source}\n")print("❓ 相关问题:")for q in result.related_questions:print(f" • {q}")if __name__ =="__main__": asyncio.run(main_researcher())

4.3 搜索效率对比

操作手动搜索AI助手效率提升
单源查询3分钟10秒18倍
多源对比15分钟30秒30倍
技术文档查询8分钟15秒32倍
深度研究1小时+2分钟30倍+

五、整合三大利器:打造超级AI助手

5.1 统一CLI工具

import argparse import asyncio from pathlib import Path import json classAIToolsCLI:"""AI工具命令行界面"""def__init__(self): self.llm = LLMClient() self.summarizer = DocumentSummarizer(self.llm) self.code_assistant = InteractiveCodeAssistant(self.llm) self.researcher = IntelligentResearcher( self.llm, SearchEngine())asyncdefrun(self):"""运行CLI""" parser = argparse.ArgumentParser( description="AI工具集 - 你的智能助手", formatter_class=argparse.RawDescriptionHelpFormatter, epilog=""" 示例: # 总结文档 python ai_tools.py summarize paper.pdf # 生成代码 python ai_tools.py code "用Python写一个爬虫" # 研究问题 python ai_tools.py research "量子计算的原理" """) subparsers = parser.add_subparsers(dest='command',help='可用命令')# summarize命令 sum_parser = subparsers.add_parser('summarize',help='总结文档') sum_parser.add_argument('file',help='文件路径或URL') sum_parser.add_argument('-t','--type', default='file', choices=['file','url'],help='输入类型') sum_parser.add_argument('-o','--output',help='输出文件路径')# code命令 code_parser = subparsers.add_parser('code',help='生成/处理代码') code_parser.add_argument('prompt',help='需求或代码') code_parser.add_argument('-m','--mode', choices=['generate','explain','optimize','debug'], default='generate',help='处理模式') code_parser.add_argument('-l','--language', default='python',help='编程语言') code_parser.add_argument('-x','--execute', action='store_true',help='执行生成的代码')# research命令 res_parser = subparsers.add_parser('research',help='研究问题') res_parser.add_argument('question',help='研究问题') res_parser.add_argument('-d','--depth',type=int, default=1, choices=[1,2,3],help='研究深度') res_parser.add_argument('-s','--sources', nargs='+', choices=['google','docs','stackoverflow'],help='指定搜索源') args = parser.parse_args()ifnot args.command: parser.print_help()return# 执行对应命令if args.command =='summarize':await self._cmd_summarize(args)elif args.command =='code':await self._cmd_code(args)elif args.command =='research':await self._cmd_research(args)asyncdef_cmd_summarize(self, args):"""处理summarize命令"""print(f"📖 正在总结: {args.file}") result =await self.summarizer.summarize( source=args.file, source_type=args.type)# 输出 output =f"""# {result.title} **📊 统计信息** - 字数: {result.word_count} - 预计阅读时间: {result.reading_time} 分钟 - 生成时间: {result.created_at} **🔑 关键要点** {chr(10).join(f'{i+1}. {p}'for i, p inenumerate(result.key_points))} **📝 总结** {result.summary} """if args.output:withopen(args.output,'w', encoding='utf-8')as f: f.write(output)print(f"✅ 已保存到: {args.output}")else:print(output)asyncdef_cmd_code(self, args):"""处理code命令"""print(f"💻 正在处理: {args.prompt[:50]}...") result =await self.code_assistant.generator.generate( requirement=args.prompt, language=args.language, mode=CodeMode(args.mode))# 输出代码print(f"\n```{args.language}")print(result.code)print("```\n")# 输出说明print(f"**说明**\n{result.explanation}\n")# 输出警告if result.warnings:print("**警告**")for w in result.warnings:print(f" {w}")print()# 输出测试if result.tests:print(f"**测试代码**\n```{args.language}")print(result.tests)print("```\n")# 执行代码if args.execute:print("⚡ 正在执行代码...") exec_result =await self.code_assistant.generator.execute_code( result.code, args.language )if exec_result['success']:print(f"✅ 执行成功\n输出:\n{exec_result['output']}")else:print(f"❌ 执行失败\n错误:\n{exec_result['error']}")asyncdef_cmd_research(self, args):"""处理research命令"""print(f"🔍 正在研究: {args.question}") result =await self.researcher.research( question=args.question, depth=args.depth, sources=args.sources )# 输出结果print(f""" # 研究结果 **📊 置信度**: {result.confidence*100}% ## 答案 {result.answer} ## 参考来源 """)for i, source inenumerate(result.sources,1):print(f"{i}. **{source.title}**")print(f" 链接: {source.url}")print(f" 来源: {source.source}\n")if result.related_questions:print("## 相关问题")for q in result.related_questions:print(f"- {q}")asyncdefmain(): cli = AIToolsCLI()await cli.run()if __name__ =="__main__": asyncio.run(main())

5.2 使用示例

# 总结论文 python ai_tools.py summarize research_paper.pdf -o summary.md # 生成代码并执行 python ai_tools.py code "用Python写一个二分查找"-x# 解释代码 python ai_tools.py code "explain this code: `def foo(): return1`"-m explain # 深度研究 python ai_tools.py research "RAG和Fine-tuning的区别"-d2

5.3 成本分析

45%20%20%15%AI工具月度成本估算(重度使用)LLM API调用搜索API服务器托管其他(存储等)

使用场景月调用量月成本对比ChatGPT Plus
轻度使用10万tokens¥5省75%
中度使用100万tokens¥50省60%
重度使用1000万tokens¥500省40%

六、完整源码与部署指南

6.1 项目结构

ai-tools/ ├── src/ │ ├── __init__.py │ ├── llm.py # LLM客户端 │ ├── summarizer.py # 文档总结器 │ ├── code_generator.py # 代码生成器 │ └── researcher.py # 研究助手 ├── cli.py # 命令行入口 ├── config.py # 配置管理 ├── requirements.txt # 依赖列表 ├── .env.example # 环境变量示例 ├── README.md # 使用文档 └── examples/ # 使用示例 ├── example_summarize.py ├── example_code.py └── example_research.py 

6.2 部署到云端

# Dockerfile FROM python:3.11-slim WORKDIR /app COPY requirements.txt . RUN pip install --no-cache-dir-r requirements.txt COPY src/./src/ COPY cli.py . COPY config.py . ENV PYTHONPATH=/app CMD ["python","cli.py","--help"]
# docker-compose.yml version: '3.8' services: ai-tools: build: . env_file: - .env volumes: - ./data:/app/data ports: - "8000:8000"

6.3 进阶功能扩展

功能方向实现方式难度
Web界面FastAPI + Vue3⭐⭐⭐
多模态支持GPT-4V处理图片⭐⭐
语音交互Whisper + TTS⭐⭐⭐
本地模型Ollama + Llama3⭐⭐⭐⭐
Agent能力添加工具调用⭐⭐⭐⭐

总结

通过这篇文章,我们用Python打造了三个强大的AI工具:

工具核心价值适用场景
智能文档总结器10秒读完100页论文研读、报告分析
AI代码生成器说人话写代码快速原型、学习参考
智能资料助手秒速精准检索技术调研、问题解决

关键收获

  1. LLM调用很简单 - 用好OpenAI SDK,30行代码就能连接大模型
  2. 提示词是关键 - 好的prompt能让效果翻倍
  3. 异步处理很重要 - 并行请求能大幅提升速度
  4. 安全意识不能少 - 代码执行要隔离,API调用要限流

下一步学习

  • 📖 深入学习 LangChain 框架
  • 🔬 研究 Agent 与 RAG 技术
  • 🚀 打造专属AI应用

参考资源


✍️ 坚持用清晰易懂的图解+可落地的代码,让每个知识点都简单直观!💡 座右铭:“道路是曲折的,前途是光明的!”

Read more

【C++笔记】模板初阶

【C++笔记】模板初阶

前言:         C++模板是C++中实现泛型编程的核心工具,允许程序员编写与类型无关的代码,从而提高代码的复用性和灵活性。模板在编译时进行实例化,根据实际使用的类型生成具体的代码,因此不会带来运行时开销。          一、模板基础          1.1 为什么需要模板?          在编写函数或类时,如果希望它们能处理多种数据类型(如int、double、string),传统方法是使用函数重载,但这样会产生大量重复代码或失去类型信息。 模板允许将类型作为参数,编译器根据调用时传入的具体类型生成对应的代码。          场景:需要编写一个求两个数最大值的函数,支持 int、double 和 string(按字典序)。          ①传统方法:函数重载 #include <iostream> #include <string> using namespace std; // 为 int 重载 int max(int

By Ne0inhk
C++ 拷贝构造函数与赋值运算符:深拷贝与浅拷贝的核心辨析

C++ 拷贝构造函数与赋值运算符:深拷贝与浅拷贝的核心辨析

C++ 拷贝构造函数与赋值运算符:深拷贝与浅拷贝的核心辨析 💡 学习目标:掌握拷贝构造函数与赋值运算符的定义及调用场景,理解深拷贝与浅拷贝的本质区别,能够在实际开发中避免内存泄漏与野指针问题。 💡 学习重点:拷贝构造函数的触发条件、浅拷贝的缺陷、深拷贝的实现方法、赋值运算符的重载原则。 一、拷贝构造函数的概念与触发场景 ✅ 结论:拷贝构造函数是一种特殊的构造函数,用于通过一个已存在的对象创建一个新对象,其参数必须是本类对象的常量引用(const 类名&)。 1.1 拷贝构造函数的语法格式 class 类名 {public:// 普通构造函数 类名(参数列表);// 拷贝构造函数 类名(const 类名& other);}; ⚠️ 注意事项: 1. 拷贝构造函数的参数必须是常量引用,使用 const 防止实参被修改,使用引用避免无限递归调用拷贝构造函数。 2. 如果没有手动定义拷贝构造函数,编译器会自动生成一个默认拷贝构造函数,实现简单的成员变量值拷贝。 1.2 拷贝构造函数的触发条件

By Ne0inhk
C++ STL set 系列完全指南:从底层原理、核心接口到实战场景

C++ STL set 系列完全指南:从底层原理、核心接口到实战场景

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一. 容器分类:序列式容器与关联式容器的本质区别 * 二. set 系列核心原理:红黑树赋能的高效特性 * 三. set 核心接口实战:基于实操代码详解 * 3.1 初始化与插入:去重 + 自动排序 * 3.2 查找与删除:精准操作单个元素 * 3.3 区间操作:lower_bound 与 upper_bound * 四. multiset:支持重复 key 的关联式容器 * 五. set 系列的实战价值:解决实际开发问题

By Ne0inhk
SpringBoot+Vue Spring Boot库存管理系统平台完整项目源码+SQL脚本+接口文档【Java Web毕设】

SpringBoot+Vue Spring Boot库存管理系统平台完整项目源码+SQL脚本+接口文档【Java Web毕设】

系统架构设计### 摘要 随着信息技术的快速发展,企业对于高效、智能的库存管理需求日益增长。传统的库存管理方式依赖人工记录和纸质单据,不仅效率低下,而且容易出错,难以满足现代企业对实时数据分析和动态库存控制的要求。库存管理系统通过数字化手段实现库存数据的实时更新、自动化预警和智能化分析,能够显著提升企业的运营效率和决策准确性。该系统适用于制造业、零售业、物流行业等多个领域,能够帮助企业降低库存成本、减少资源浪费,同时提高供应链的响应速度。关键词:库存管理、数字化、实时更新、供应链、智能化。 本系统基于Spring Boot和Vue.js技术栈开发,采用前后端分离架构,后端使用Spring Boot框架提供RESTful API接口,实现用户权限管理、库存记录、商品分类、采购订单等功能。前端采用Vue.js框架,结合Element UI组件库,构建了响应式、用户友好的管理界面。系统支持多角色登录,包括管理员、采购员和仓库管理员,不同角色拥有不同的操作权限。数据库采用MySQL,通过合理的表结构设计确保数据的一致性和高效查询。系统还提供了数据可视化功能,通过图表展示库存变化趋势,辅助企

By Ne0inhk