大部分中国人是分不清爱党和爱国的

当然, 如果你们不知道什么叫人权、分不清什么是人治和法治, 那当我没说。

时至今日, 中国已经成为了世界超级大国, 没有人能像从前一样肆意践踏我们的尊严和领土。 这得益于科技、经济、人文的发展。 并不是内宣的鼓吹和煽动。

科技我们有华为、经济总量我们全球第二。 但这显然是不够的, 国力的提升除了科技和经济, 人文环境也是重要的发动机,或者说,是非常重要的基础。

良好的人文环境是培养科技人才的重要土壤

在14亿人口的基数下,华为那几万精英,只能带领我们开好头, 真正的长远发展, 还是要培养人材。我们要的是培养10个华为、100个华为、甚至是1万个华为。 我不认为一个自卑的民族、通过靠给战犯石碑尿尿的民族,可以达成上述成就。

我一直在想,高端人才为什么都喜欢跑路美国, 这些受过高等教育、受过国家恩惠的人应该更加爱国才对。别人的确收入高、科技发达、医疗先进。 另一方面, 他们是对国内人文环境的恐惧。冷不伶仃哪天说错一句话,就会成为刀下鬼、贴上公知标签。

如果我们能更加尊重人权, 改人治为法治, 党政能更加民主,培养良好的人文环境,中国的成就, 远比今天要壮观。

爱国不需要站队

爱国是发自内心热爱生你养你的土地。 爱护流着相同血脉的黄皮肤同胞。而爱党就意味着你需要在利益之间站队,党政本来就是一个小团体, 代表统治阶级的根本利益,利益总是双面的,你的对立面,一定是那些被统治的人民。

不要参与内宣

保持独立思考、保持自主意识,从自己开始尊重人权,并影响身边的人建立基本的人权意识、自由意志,是我们一个普通人力所能及能做的。 而不是跟着抖音、头条那些爽文鼓吹、成为内宣的傀儡。

发自内心热爱你的国家。

Read more

使用本地大模型调用代码,根本就是一场骗局!

使用本地大模型调用代码,根本就是一场骗局!

通过大模型调用其他工具到底可不可行?ChatGPT 或许能轻松搞定一切,但同样的需求落在本地大模型上,恐怕就要打个问号了。 法国开发工程师 Emilien Lancelot 尝试了多款号称具备工具调用功能的 agent 框架,来看看本地大模型到底能不能完成任务,但结果就像他总结的“一无所获”。是什么让这位工程师失望了? 用 AutoGPT,得会点“糊弄学” AutoGPT 是款貌似强大的框架,提供很酷的 CLI 外加 Flutter UI,能够通过浏览器创建 agent。其主要功能是处理用户的文档、音频、视频等本地内容。 但是……它主要依靠 ChatGPT 或其他专有大模型服务来完成繁重工作,至少给我们的感觉是如此。 我们必须“唬弄”AutoGPT 才能使用 Ollama 端点,让其误认为是 ChatGPT。 ## OPENAI_API_KEY - OpenAI API

By Ne0inhk
详细说明Encoder-only架构的特点以及他和encoder decoder的区别和联系

详细说明Encoder-only架构的特点以及他和encoder decoder的区别和联系

Poe Encoder-only 架构的特点 Encoder-only 模型只使用 Transformer 的编码器部分,专注于对输入序列的理解和表征学习。这类模型通常被用在需要对输入文本进行深度理解的任务上,如文本分类、问答和语义匹配。以下是 Encoder-only 架构的核心特点: 1. 双向上下文建模 * 特点:Encoder-only 模型通过自注意力机制(Self-Attention)同时关注输入序列的前后文。 * 优势:相比单向模型(如 Decoder-only),它可以更全面地捕捉输入序列的全局语义,适合需要理解复杂上下文的任务。 * 实现方式:在训练过程中,不对输入序列进行因果掩码(Causal Masking),允许模型在任何位置访问序列的所有位置。 * 例子:BERT 的 Masked Language Model(MLM)训练任务通过随机遮盖部分单词,依赖左侧和右侧的信息来预测被遮盖的词,即双向建模的典型体现。 2. 适用于理解任务 * 特点:Encoder-only 模型专注于理解输入序列,而不生成输出序列,因此适合处理分类、

By Ne0inhk
手把手教学,DeepSeek-R1微调全流程拆解

手把手教学,DeepSeek-R1微调全流程拆解

手把手教学,DeepSeek-R1微调全流程拆解 原创 极客见识  2025年02月09日 09:02 广东 DeepSeek 通过发布其开源推理模型 DeepSeek-R1 颠覆了 AI 格局,该模型使用创新的强化学习技术,以极低的成本提供与 OpenAI 的 o1 相当的性能。 更令人印象深刻的是,DeepSeek 已将其推理能力提炼成几个较小的模型。这篇文章,我们将使用其蒸馏版本之一引导大家完成 DeepSeek-R1 的整个微调过程。 本文章将演示了如何微调其中一个模型(使用我们自己的自定义思维链数据集),然后保存和部署微调后的模型。 高级推理模型微调 DeepSeek 简介 DeepSeek-R1 是由深度求索(DeepSeek)公司开发的突破性推理模型。DeepSeek-R1 基于 DeepSeek-V3-Base(总共 671B 个参数,每次推理 37B 处于活动状态)构建,使用强化学习 (RL) 在提供最终答案之前生成思路链

By Ne0inhk