unity

unity技术材料

大模型微调之 在亚马逊AWS上实战LlaMA案例(七)

python

大模型微调之 在亚马逊AWS上实战LlaMA案例(七)

大模型微调之 在亚马逊AWS上实战LlaMA案例(七) 微调SageMaker JumpStart上的LLaMA 2模型 这是在us-west-2的测试结果。 展示了如何使用SageMaker Python SDK部署预训练的Llama 2模型,并将其微调到你的数据集,用于领域适应或指令调整格式。 设置 首先安装并升级必要的包。在首次执行下面的单元格后,重新启动内核。 !pip install --upgrade sagemaker datasets 以下是您提供的Markdown内容的中文翻译: 部署预训练模型 将部署Llama-2模型作为SageMaker终端节点。要训练/部署13B和70B模型,请分别将model_id更改为"meta-textgeneration-llama-2-7b"和"meta-textgeneration-llama-2-70b"。 "B"在这里 代表模型的参数数量,其中"7B"表示70亿参数的模型。"meta-textgeneration-llama-2-7b"和&

By Ne0inhk
CLIP-convnext_xxlarge-laion2B-s34B-b82K-augreg-soup

AI

CLIP-convnext_xxlarge-laion2B-s34B-b82K-augreg-soup

CLIP-convnext_xxlarge-laion2B-s34B-b82K-augreg-soup 的模型卡 目录 1. 模型详细信息 模型描述 使用timm在 LAION-2B(英语)(的一个子集)上训练的一系列 CLIP ConvNeXt-XXLarge(自定义的ConvNeXt 大小)模型。 模型数据集解决八月注册Top-1 ImageNet Zero-Shot(%)拉伊奥-2B256x256RRC(0.33,1.0)、RE(0.35)、SD(0.1)79.1拉伊奥-2B256x256RRC(0.3、1.0)、RE(0.4)、SD(0.1)79.3拉伊奥-2B256x256不适用79.4RRC = 随机调整大小裁剪(裁剪百分比),RE = 随机擦除(

By Ne0inhk
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)

unity

基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一)

基于LlaMA 3 + LangGraph 在windows本地部署大模型 (一) RAG 是未来人工智能应用的基石。大家并不是在寻求仅仅产生无意义反应的人工智能。而目标是人工智能能够从特定文档集中检索答案,理解查询的上下文,指导自己搜索其嵌入内容或在必要时诉诸网络搜索,评估自身响应的有效性以防止幻觉,并最终根据 提供的文档提供类似人类的答案 本文将剖析所提供的代码片段的每一行,以揭示 Langchain 的内部工作原理: # Install modules !pip install ollama langchain beautifulsoup4 chromadb gradio unstructured langchain-nomic langchain_community tiktoken langchainhub langgraph tavily-python gpt4all -q !pip install "unstructured[all-docs]" -q !ollama pull llama3 !ollama pull nomic-embed-textp

By Ne0inhk
大模型微调之 在亚马逊AWS上实战LlaMA案例(十)

AI

大模型微调之 在亚马逊AWS上实战LlaMA案例(十)

大模型微调之 在亚马逊AWS上实战LlaMA案例(十) 训练数据集格式 SageMaker JumpStart 目前支持域适应格式和指令调整格式的数据集。在本节中,我们指定两种格式的示例数据集。有关更多详细信息,请参阅附录中的数据集格式化部分。 域适应格式 文本生成 Llama 2 模型可以在任何特定领域的数据集上进行微调。在特定领域的数据集上进行微调后,该模型有望生成特定领域的文本,并通过少量提示解决该特定领域中的各种 NLP 任务。对于此数据集,输入由 CSV、JSON 或 TXT 文件组成。例如,输入数据可能是亚马逊向 SEC 提交的文本文件: This report includes estimates, projections, statements relating to our business plans, objectives, and expected operating results that are

By Ne0inhk
大模型微调之 在亚马逊AWS上实战LlaMA案例(九)

python

大模型微调之 在亚马逊AWS上实战LlaMA案例(九)

大模型微调之 在亚马逊AWS上实战LlaMA案例(九) 代码阅读 * src/llama_recipes/inference/prompt_format_utils.py 这段代码是一个Python模块,它定义了几个类和模板,用于生成安全评估的提示文本。以下是对每一行代码的注释和提示词的翻译: # Copyright (c) Meta Platforms, Inc. and affiliates. # This software may be used and distributed according to the terms of the Llama 2 Community License Agreement. * 注释:这行代码声明了软件的版权所有者为Meta Platforms, Inc.及其关联公司,并说明该软件的使用和分发需遵守Llama 2社区许可协议的条款。 from dataclasses

By Ne0inhk
LangChain 56 深入理解LangChain 表达式语言十九 config运行时选择大模型LLM LangChain Expression Language (LCEL)

python

LangChain 56 深入理解LangChain 表达式语言十九 config运行时选择大模型LLM LangChain Expression Language (LCEL)

LangChain系列文章 1. 1. 在运行时配置链内部 通常情况下,您可能希望尝试或甚至向最终用户公开多种不同的操作方式。为了尽可能地简化这一体验,我们定义了两种方法。 1. 首先是 configurable_fields 方法。这使您可以配置可运行项的特定字段。 1. 其次是 configurable_alternatives 方法。通过这种方法,您可以列出在运行时可以设置的任何特定可运行项的替代方案。 2. 配置字段Fields 通过LLMs,我们可以配置诸如temperature, 随机性。 from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI from langchain_core.runnables import ConfigurableField from dotenv import load_dotenv # 导入从

By Ne0inhk
LangChain 57 深入理解LangChain 表达式语言二十 LLM Fallbacks速率限制备份大模型 LangChain Expression Language (LCEL)

unity

LangChain 57 深入理解LangChain 表达式语言二十 LLM Fallbacks速率限制备份大模型 LangChain Expression Language (LCEL)

LangChain系列文章 1. 1. 添加备用方案Fallbacks 在LLM应用程序中可能会出现许多故障点,无论是LLM API的问题,模型输出不佳,还是其他集成的问题等等。备用方案可以帮助您优雅地处理并隔离这些问题。 至关重要的是,备用方案不仅可以应用在LLM级别上,还可以应用在整个可运行级别上。 1. 处理LLM API错误 这可能是回退的最常见用例。对LLM API的请求可能因各种原因失败 - API可能宕机,您可能已达到速率限制,任何数量的原因。因此,使用回退可以帮助防止这些类型的问题。 重要提示:默认情况下,许多LLM包装器会捕获错误并重试。在使用回退时,您很可能希望关闭这些功能。否则,第一个包装器将继续重试而不会失败。 1. 序列的备用方案Fallbacks for Sequences 我们还可以为序列创建备用方案,这些备用方案本身就是序列。在这里,我们使用两种不同的模型来做到这一点:ChatOpenAI,然后是普通的OpenAI(不使用聊天模型)。因为OpenAI不是一个聊天模型,你可能想要一个不同的提示。 from lang

By Ne0inhk
LangChain 58 深入理解LangChain 表达式语言21 Memory消息历史 LangChain Expression Language (LCEL)

python

LangChain 58 深入理解LangChain 表达式语言21 Memory消息历史 LangChain Expression Language (LCEL)

LangChain系列文章 1. 1. 添加消息历史记录 memory RunnableWithMessageHistory让我们可以向某些类型的链中添加消息历史记录。 具体来说,它可用于接受以下之一作为输入的任何可运行对象 * 一系列BaseMessage * 一个带有以一系列BaseMessage为值的键的字典 * 一个带有以字符串或一系列BaseMessage为最新消息值的键和一个带有历史消息值的单独键的字典 并且以以下之一作为输出返回 * 可以被视为AIMessage内容的字符串 * 一系列BaseMessage * 一个带有包含一系列BaseMessage的键的字典 让我们看一些示例来看看它是如何工作的。 2. 环境准备 我们将使用Redis来存储我们的聊天消息记录和ChatOpenAI模型,所以我们需要安装以下依赖项: pip install -U langchain redis 发现Docker Desktop version 4.26.1 需要设置 > Advanced > CLI tools 选择 System Dock

By Ne0inhk
LangChain 59 深入理解LangChain 表达式语言22 multiple chains多个链交互 LangChain Expression Language (LCEL)

大前端

LangChain 59 深入理解LangChain 表达式语言22 multiple chains多个链交互 LangChain Expression Language (LCEL)

LangChain系列文章 1. multiple chains多个链交互 可运行的任务可以轻松地用来串联多个链。 * chain1: 先英文问奥巴马来自哪个城市。 * chain2: 把chain1的城市当做参数传入chain2,问这个城市属于哪个国家,并用中文输出。 from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI from langchain_core.runnables import ConfigurableField # We add in a string output parser here so the outputs between the two are the same type from langchain_core.

By Ne0inhk
LangChain 60 深入理解LangChain 表达式语言23 multiple chains链透传参数 LangChain Expression Language (LCEL)

python

LangChain 60 深入理解LangChain 表达式语言23 multiple chains链透传参数 LangChain Expression Language (LCEL)

LangChain系列文章 1. multiple chains多个链交互 可运行的任务可以轻松地用来串联多个链。 多个链之间交互,第四个链接受来自第二和第三个链的输出 from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI from langchain_core.runnables import ConfigurableField # We add in a string output parser here so the outputs between the two are the same type from langchain_core.output_parsers import StrOutputParser

By Ne0inhk
LangChain 61 深入理解LangChain 表达式语言24 multiple chains链透传参数 LangChain Expression Language (LCEL)

AI

LangChain 61 深入理解LangChain 表达式语言24 multiple chains链透传参数 LangChain Expression Language (LCEL)

LangChain系列文章 1. 1. 分支和合并 您可能希望一个组件的输出被2个或更多其他组件处理。让您可以分割或分叉链条,以便多个组件可以并行处理输入。稍后,其他组件可以合并结果,以合成最终的响应。这种类型的链条创建了一个计算图,看起来像下面这样: Input / \ / \ Branch1 Branch2 \ / \ / Combine from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI from langchain_core.runnables import ConfigurableField # We add in a string output parser here so the outputs between the two are the

By Ne0inhk
LangChain 62 深入理解LangChain 表达式语言25 agents代理 LangChain Expression Language (LCEL)

python

LangChain 62 深入理解LangChain 表达式语言25 agents代理 LangChain Expression Language (LCEL)

LangChain系列文章 1. 1. Agents 您可以将一个可运行的任务传递给Agents。 通常情况下,从可运行的代理程序构建一个代理需要几个步骤: 1. 中间步骤的数据处理。这些数据需要以语言模型能够识别的方式表示。这应该与提示中的指令紧密耦合。 2. 提示本身 3. 模型,如果需要的话,需要包括停止标记 4. 输出解析器 - 应该与提示中指定的格式一致。 from langchain.prompts import PromptTemplate from langchain_community.chat_models import ChatOpenAI from langchain_core.runnables import ConfigurableField # We add in a string output parser here so the outputs

By Ne0inhk