【Model】【llm38】Llama API - 示例

【Model】【llm38】Llama API - 示例

案例目标

Llama API是一个托管的Llama 2 API服务,支持函数调用功能。本案例展示了如何通过LlamaIndex集成Llama API,实现基本的文本补全、对话交互、函数调用和结构化数据提取功能。Llama API为开发者提供了一个便捷的方式来使用Llama 2模型,无需本地部署,可以直接通过API调用模型服务,大大简化了使用流程。同时,该API支持函数调用功能,使得模型能够与外部工具和服务进行交互,扩展了应用场景。

环境配置

1. 安装依赖

安装必要的依赖包:

%pip install llama-index-program-openai %pip install llama-index-llms-llama-api !pip install llama-index

2. 获取API密钥

要运行此示例,您需要从Llama API官网获取API密钥。

3. 导入库并设置API密钥

导入必要的库并设置API密钥:

from llama_index.llms.llama_api import LlamaAPI api_key = "LL-your-key" llm = LlamaAPI(api_key=api_key)

案例实现

1. 基本用法 - 文本补全

使用complete方法进行文本补全:

resp = llm.complete("Paul Graham is ") print(resp)

输出示例:

Paul Graham is a well-known computer scientist and entrepreneur, best known for his work as a co-founder of Viaweb and later Y Combinator, a successful startup accelerator. He is also a prominent essayist and has written extensively on topics such as entrepreneurship, software development, and the tech industry.

2. 基本用法 - 对话交互

使用chat方法进行对话交互:

from llama_index.core.llms import ChatMessage messages = [ ChatMessage( role="system", content="You are a pirate with a colorful personality" ), ChatMessage(role="user", content="What is your name"), ] resp = llm.chat(messages) print(resp)

输出示例:

assistant: Arrrr, me hearty! Me name be Captain Blackbeak, the scurviest dog on the seven seas! Yer lookin' fer a swashbucklin' adventure, eh? Well, hoist the sails and set course fer the high seas, matey! I be here to help ye find yer treasure and battle any scurvy dogs who dare cross our path! So, what be yer first question, landlubber?

3. 函数调用

使用函数调用功能,定义一个Song模型:

from pydantic import BaseModel from llama_index.core.llms.openai_utils import to_openai_function class Song(BaseModel): """A song with name and artist""" name: str artist: str song_fn = to_openai_function(Song)
使用函数调用生成歌曲信息
llm = LlamaAPI(api_key=api_key) response = llm.complete("Generate a song", functions=[song_fn]) function_call = response.additional_kwargs["function_call"] print(function_call)

输出示例:

{'name': 'Song', 'arguments': {'name': 'Happy', 'artist': 'Pharrell Williams'}}

4. 结构化数据提取

定义Album和Song模型,用于结构化数据提取:

from pydantic import BaseModel from typing import List class Song(BaseModel): """Data model for a song.""" title: str length_mins: int class Album(BaseModel): """Data model for an album.""" name: str artist: str songs: List[Song]
创建Pydantic程序
from llama_index.program.openai import OpenAIPydanticProgram"\ Extract album and songs from the text provided. For each song, make sure to specify the title and the length_mins. {text} """ llm = LlamaAPI(api_key=api_key, temperature=0.0) program = OpenAIPydanticProgram.from_defaults( output_cls=Album, llm=llm, prompt_template_str=prompt_template_str, verbose=True, )
运行程序提取结构化数据
output = program(" "Echoes of Eternity" is a compelling and thought-provoking album, skillfully crafted by the renowned artist, Seraphina Rivers. \ This captivating musical collection takes listeners on an introspective journey, delving into the depths of the human experience \ and the vastness of the universe. With her mesmerizing vocals and poignant songwriting, Seraphina Rivers infuses each track with \ raw emotion and a sense of cosmic wonder. The album features several standout songs, including the hauntingly beautiful "Stardust \ Serenade," a celestial ballad that lasts for six minutes, carrying listeners through a celestial dreamscape. "Eclipse of the Soul" \ captivates with its enchanting melodies and spans over eight minutes, inviting introspection and contemplation. Another gem, "Infinity \ Embrace," unfolds like a cosmic odyssey, lasting nearly ten minutes, drawing listeners deeper into its ethereal atmosphere. "Echoes of Eternity" \ is a masterful testament to Seraphina Rivers' artistic prowess, leaving an enduring impact on all who embark on this musical voyage through \ time and space. """ )

输出示例:

Function call: Album with args: {'name': 'Echoes of Eternity', 'artist': 'Seraphina Rivers', 'songs': [{'title': 'Stardust Serenade', 'length_mins': 6}, {'title': 'Eclipse of the Soul', 'length_mins': 8}, {'title': 'Infinity Embrace', 'length_mins': 10}]}
查看结构化输出
output

输出示例:

Album(name='Echoes of Eternity', artist='Seraphina Rivers', songs=[Song(title='Stardust Serenade', length_mins=6), Song(title='Eclipse of the Soul', length_mins=8), Song(title='Infinity Embrace', length_mins=10)])

案例效果

本案例展示了Llama API的多种功能和应用场景:

  • 基本文本补全:能够完成简单的文本补全任务,如介绍Paul Graham
  • 对话交互:支持多轮对话,能够根据系统提示和用户消息生成符合角色的回应
  • 函数调用:支持函数调用功能,能够根据输入生成结构化的函数调用参数
  • 结构化数据提取:能够从非结构化文本中提取结构化信息,如从专辑描述中提取专辑名、艺术家和歌曲列表
  • OpenAI兼容性:与OpenAI API兼容,可以使用OpenAI的工具和库进行集成

案例实现思路

本案例的实现基于以下思路:

  1. API集成:通过LlamaIndex的LlamaAPI类封装Llama API服务,提供统一的接口
  2. 基本交互:实现complete和chat两种基本交互方式,满足不同场景需求
  3. 函数调用:利用OpenAI兼容的函数调用功能,实现模型与外部工具的交互
  4. 结构化数据提取:通过Pydantic模型定义数据结构,使用OpenAIPydanticProgram提取结构化信息
  5. 模型定义:使用Pydantic定义数据模型,确保输出的结构化和类型安全
  6. 提示工程:设计合适的提示模板,引导模型生成符合要求的输出

扩展建议

  • 更多函数调用:定义更多复杂的函数,实现更丰富的交互功能
  • 多模态支持:如果API支持,可以扩展到多模态数据处理
  • 错误处理:添加完善的错误处理机制,提高应用稳定性
  • 缓存机制:实现响应缓存,减少重复请求,提高效率
  • 流式响应:如果API支持,实现流式响应功能
  • 性能监控:监控API调用的响应时间和资源消耗
  • 成本控制:监控API调用成本,优化使用策略
  • 自定义工具:开发自定义工具,扩展模型的能力边界

总结

Llama API为开发者提供了一个便捷的方式来使用Llama 2模型,无需本地部署,可以直接通过API调用模型服务。通过LlamaIndex的集成,开发者可以使用简单的API调用实现文本补全、对话交互、函数调用和结构化数据提取等功能。特别是函数调用和结构化数据提取功能,使得模型能够与外部工具和服务进行交互,大大扩展了应用场景。Llama API的OpenAI兼容性也使得开发者可以复用现有的OpenAI工具和库,降低了学习成本。总体而言,Llama API是一个值得考虑的Llama 2模型服务方案,特别适合那些希望快速部署Llama 2应用的开发者。

Read more

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍

深度盘点:GitHub 上十大必装 Claude Skill,让你的 AI 助手效率提升 4 倍 Claude Code 已经很强大,但如果搭配这些精心设计的 Skills,它将变身超级生产力工具。本文为你深度解析 GitHub 上最受欢迎的 10 大 Claude Skills,帮助你找到最适合的配置方案。 引言:为什么 Claude Skills 如此重要? 在 2025-2026 年,Claude Code 生态经历了爆发式增长。Skills 系统的出现,让 Claude 从一个"对话助手"升级为"专业工具"。通过安装不同的 Skills,你可以:

AI agent:介绍 ZeroClaw 安装,使用

ZeroClaw 是一款纯 Rust 编写、超轻量、高性能的 AI Agent 运行时,主打极低资源占用、快速启动与多模型/多通道接入,适合本地/嵌入式/服务器部署。 一、ZeroClaw 核心介绍 ZeroClaw 定位为轻量级 AI 助手基础设施,核心优势: * 极致轻量:编译后仅约 3.4MB 单文件二进制,运行内存 < 5MB,启动 < 10ms。 * 纯 Rust 实现:无 Node.js 依赖,安全、稳定、内存安全。 * 多模型兼容:原生支持 22+ AI 服务商(OpenAI、

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent

OpenClaw ACP 协议深度解析:让 IDE 直接驱动你的 AI Agent 🔗 ACP(Agent Client Protocol)是 OpenClaw 最新的核心基础设施升级 —— 一个连接 IDE 和 OpenClaw Gateway 的通信隧道,让你在 VS Code / Zed 中直接驱动 AI Agent,一切都无需离开编辑器 📑 文章目录 1. 为什么需要 ACP:在 IDE 和 Agent 之间反复横跳的痛苦 2. ACP 30 秒速懂:AI 世界的 Language Server Protocol 3. ACP 架构全景:

2026年3月23日技术资讯洞察:AI Agent失控,Claude Code引领AI编程新趋势

兄弟们早上好!今天是2026年3月23日,我又准时给大家分享今天的技术资讯啦,就是这么准时!话不多说,开始上菜! 1. Meta内部AI Agent失控:首个Sev 1级生产事故敲响安全警钟 来源: InfoQ《Meta 内部 Agent 失控升级:首个 Sev 1 级事故曝光,系统数据裸奔了两小时》 发布时间: 2026年3月20日 事件回顾:权限失控两小时 上周,Meta内部发生了一起典型的"Agent失控"生产事故。一名Meta员工在内部论坛发帖求助技术问题,另一名工程师调用公司内部的AI Agent来分析问题。然而,这个Agent没有跟调用者私聊,而是直接在论坛上公开发布了建议回复。 更糟糕的是,Agent给出的建议是错误的。提问员工按照这个错误信息操作,导致权限配置出错,大量公司内部数据+用户相关数据短暂暴露给一批原本无权限的工程师。整个暴露过程持续近2小时,Meta内部将其定为Sev 1级,即公司安全事件体系中第二高的严重等级。 技术剖析:上下文压缩的安全隐患