论文阅读之——Semantic Scholar

Semantic Scholar

Semantic Scholar 是由美国 Allen Institute for AI(AI2) 开发的一个学术搜索引擎,旨在帮助研究人员快速获取高质量的学术信息。它结合了人工智能和自然语言处理技术,让用户可以更智能地浏览文献、发现引用、理解研究主题等。

官方网站:https://www.semanticscholar.org

Semantic Scholar 的入门使用

进入官网后直接根据所需检索的论文标题、作者等关键字进行搜索。

在这里插入图片描述


以搜索论文MFAS: Multimodal Fusion Architecture Search为例:

在这里插入图片描述


进入其中的一个结果后,可以看到文章的DOI等ID信息,Semantic Scholar也为用户提供了相应的PDF、引用该文章的代码以及文章中相关的图表等信息。Semantic Scholar还会引用该文章的所有文章及与该文章相关的论文。

在这里插入图片描述
在这里插入图片描述


Semantic Scholar也接入了大模型AI,用户可以直接在系统中对该文章进行提问。

在这里插入图片描述

Semantic Scholar API

该系统同时为用户提供了API接口,适合开发者和研究人员用来获取论文元数据、引用信息、作者信息等。
官方提供的API使用实例代码链接:https://github.com/allenai/s2-folks/tree/main/examples

在这里插入图片描述


首先需要根据自己的需求向官方写一份API申请,申请通过后官方会向邮箱中发送API密钥,然后就可以使用啦!(PS.最好使用学校提供的教育邮箱)
其官方代码库中提供了JavaScript、python等版本,检索论文、检索相关引用等具体功能的相关代码,大家可以尝试使用。

在这里插入图片描述


下面附上我自己的代码,用户收集引用某一篇文章的所有文章的标题、作者、摘要等字段信息,保存在json文件中。

import requests import json from tqdm import tqdm API_KEY ="*********"# 替换为你的 API Key PAPER_ID ="******************"# 替换为你要查找的论文 DOI 或 Semantic Scholar ID FIELDS ="title,authors,abstract,venue,year,externalIds" HEADERS ={ "x-api-key": API_KEY }defget_all_citations(paper_id): all_citations =[] offset =0 limit =100print("开始下载所有引用文献...")whileTrue: url =f"https://api.semanticscholar.org/graph/v1/paper/{ paper_id}/citations" params ={ 

Read more

LLaMA Factory 核心原理讲解

LLaMA Factory 核心原理讲解

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了LLaMA Factory 核心原理讲解,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 核心模块讲解 * 3. SFT流程讲解 1. 前言 在之前的文章主要介绍了LLaMA Factory的操作方法,其中包括: * LLaMA Factory多卡微调的实战教程 * 基于华为昇腾910B和LLaMA Factory多卡微调的实战教程 * LLaMA Factory添加新模型template的实战解析 * LLaMA Factory在预测阶段时添加原有问题的实战代码 * 详解大模型多轮对话的数据组织形式 但也有同学提出疑问

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南

OpenClaw 集成 GitHub Copilot 指南 本文档介绍如何将 GitHub Copilot 作为模型提供商集成到 OpenClaw 中,实现通过 GitHub 账户调用 Copilot 模型能力。 目录 * 什么是 OpenClaw * 什么是 GitHub Copilot * 前提条件 * 安装 OpenClaw * 两种集成方式 * 方式一:内置 GitHub Copilot 提供商(推荐) * 方式二:Copilot Proxy 插件 * 设置默认模型 * 配置文件示例 * 模型管理 * 常见问题排查 * 参考资料 什么是 OpenClaw OpenClaw 是一个开源的 AI 助手平台,提供自托管的 AI 网关(

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

前言 * 你有没有发现,AI 正在悄悄渗透进我们的生活:写文案、画插图、做PPT、答作业,它几乎无所不能😍 !但很多人可能会问: AI,我能用吗?用得起吗?适合我吗?特别是中文用户,面对清一色英文界面、动辄上百元的 API 费用、还要“翻墙”的闭源大模型,常常望而却步😩。 * 好消息来了,文心一言4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相😎。这不仅是一款中文大模型,更像是为中文用户量身定做的一把 AI 钥匙,让你在本地就能打开 AI 世界的大门!在这个“不会用 AI 就像不会用手机”的时代,早点上手,早点受益。 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.

LLaMA-Factory本地部署与离线安装指南

LLaMA-Factory本地部署与离线安装实战指南 在大模型技术飞速发展的今天,越来越多企业和开发者希望基于主流预训练模型构建专属的垂直领域AI能力。然而,从环境配置到微调训练,整个流程往往伴随着复杂的依赖管理和网络限制问题——尤其是在内网部署、数据安全要求严格的生产环境中。 LLaMA-Factory 正是为解决这一痛点而生。它不仅集成了全参数微调、LoRA、QLoRA 等多种高效微调方法,还提供了直观的 WebUI 操作界面,真正实现了“开箱即用”。更关键的是,其对多后端推理引擎(如 vLLM)、量化格式(GPTQ/AWQ/HQQ)和优化技术(FlashAttention-2、Unsloth)的全面支持,让资源受限场景下的高性能训练成为可能。 但如果你所在的服务器无法访问公网?如何确保在防火墙之后依然能顺利搭建这套系统?本文将带你一步步完成 本地化部署 与 完全离线安装 的全过程,尤其适用于金融、政务、制造等对网络隔离有严格要求的行业环境。 我们先从最简单的在线安装说起,再深入剖析无网环境下的完整迁移方案。你会发现,只要掌握核心思路,即使是跨机器的复杂部署,也能变得清晰可