【AIGC安全】CCF-CV企业交流会直播回顾:探寻AI安全治理,共筑可信AI未来

【AIGC安全】CCF-CV企业交流会直播回顾:探寻AI安全治理,共筑可信AI未来

文章目录

在这里插入图片描述


一、活动背景:AI技术快速发展与安全治理需求迫切

随着人工智能(AI)技术的迅猛进步,尤其是以ChatGPT为代表的大型语言模型技术的兴起,AI技术已广泛渗透至各个领域。然而,AI技术的快速发展亦伴随着一系列安全隐患的出现,如数据安全、知识产权、算法偏见、有害内容生成以及深度伪造、AI诈骗等。这些问题不仅引起了公众的广泛关注和深切忧虑,也对AI技术的健康发展和社会的和谐稳定构成了潜在威胁。全国网络安全标准化技术委员会等机构亦发布了相关框架和指导原则,旨在规范AI技术的发展和应用,降低其潜在风险。同时,学术界和工业界也在积极探索AI安全治理的途径,从立法、监管、前沿研究、技术实践等多个层面出发,寻求有效的解决方案。

正是在此背景下,由中国计算机学会计算机视觉专委会主办,合合信息承办,中国运筹学会数学与智能分会协办的《打造大模型时代的可信AI》论坛应时而生。该论坛旨在汇聚来自高校、研究机构、企业的专家学者,共同探讨AI安全领域的最新进展和未来趋势,为AI技术的健康发展提供有益的思路和建议。


二、论坛内容

论坛伊始,在热烈的掌声中,中国计算机学会计算机视觉专委会副秘书长潘金山博士走上台前,发表了热情洋溢的致辞。潘金山博士首先对各位嘉宾和参会者的到来表示了热烈的欢迎和衷心的感谢。他提到,在这个大模型时代,AI技术正以前所未有的速度改变着我们的生活和工作方式。然而,随着AI技术的广泛应用,其安全性问题也日益凸显,成为制约AI技术进一步发展的重要因素。潘博士强调,AI安全治理不仅关乎技术的健康发展,更关乎社会的和谐稳定。因此,加强AI安全治理,推动AI技术向善发展,已成为我们共同的责任和使命。他希望通过此次论坛,能够汇聚来自高校、研究机构、企业的专家学者,共同探讨AI安全领域的最新进展和未来趋势,为AI技术的健康发展提供有益的思路和建议。在致辞的最后,潘金山博士预祝本次论坛圆满成功,并期待各位嘉宾和参会者能够收获满满,为AI安全治理事业贡献自己的力量。


金耀辉:智能共生时代:平衡生成式AI的创新与风险

上海交通大学人工智能研究院教授、总工程师金耀辉老师在分享中指出,大语言模型的内容安全风险多种多样,包括提示词注入、输出处理不安全、训练数据中毒、模型拒绝服务等。这些风险不仅影响模型的性能,还可能对社会造成负面影响。例如,三星员工违规使用ChatGPT导致机密资料外泄,新闻网站CNET使用LLMs生成文章却包含严重事实错误,这些案例都为我们敲响了警钟。

那么,如何保障LLMs的内容安全呢?金耀辉老师提出了几种安全保障手段。首先是训练对齐,通过算法和数据对模型进行微调,使其更加符合安全需求。这种方法可以增强模型的整体安全性能,减少算法偏见和有害内容的生成。此外,还有面向安全的提示引导和文本过滤等方法。提示引导利用特定流程和策略引导LLMs,进一步激活其固有的安全属性;而文本过滤则通过外接模块检测有害内容,并触发处理机制,防止有害内容的产生和传播。

金耀辉老师的分享为我们提供了宝贵的见解和思考。在享受生成式AI带来的便利和创新的同时,我们也需要时刻关注其带来的风险和挑战,积极寻求解决方案和保障手段。只有这样,我们才能真正实现生成式AI的创新与风险的平衡,推动人工智能技术的健康发展。

上海交通大学人工智能研究院教授、总工程师金耀辉进行《智能共生时代:平衡生成式AI的创新与风险》主题分享

何延哲:人工智能安全检测评估的逻辑和要点

然而,仅有技术手段是不够的,规范标准也是AI健康生长的外部力量。中国电子标准院网安中心测评实验室副主任何延哲就人工智能安全检测评估的核心逻辑与关键要点进行了精彩纷呈的分享。

何延哲老师首先强调了人工智能安全检测评估的背景与必要性。随着人工智能技术的迅猛发展,其带来的安全风险也日益凸显,涵盖网络信息安全、科技伦理安全、算力网络安全、数据安全与隐私保护等多个维度。这些风险不仅关乎个人权益,更可能对社会稳定与经济发展产生深远影响。

针对这些风险,何延哲老师深入剖析了当前人工智能安全检测评估的方法与思路。他提到,我国已出台多项相关法律法规、政策文件及标准规范,为人工智能安全检测评估提供了坚实的制度保障。同时,他还介绍了人工智能安全模块的拆分与检测评估的基本思路,包括算力网络安全、个人信息保护、数据安全等关键领域。

在分享中,何延哲老师特别强调了基于人工智能相关标准规范的安全检测评估机制的重要性。他详细解读了《信息安全技术 机器学习算法安全评估规范》、《基于个人信息的自动化决策安全要求》等标准规范,并指出这些规范为人工智能安全检测评估提供了明确的指导与依据。此外,何延哲老师还强调了加强个人信息处理全生命周期保护、定期开展合规审计、采取加密等措施保障个人信息安全的重要性。

电子标准院网安中心测评实验室副主任、CCIA数安委常务副主任何延哲进行《人工智能安全检测评估的逻辑和要点》主题分享

谢洪涛:面向特定人物深度伪造视频的主动防御与被动检测技术

在下一环节,中国科学技术大学教授谢洪涛,为与会者带来了一场关于面向特定人物深度伪造视频的主动防御与被动检测技术的深度解析。

谢洪涛教授首先介绍了深度伪造技术的背景及其发展现状。他指出,随着深度学习技术的飞速发展,深度伪造技术已经能够在人脸图像、语音等领域实现高度逼真的伪造效果,这无疑给个人隐私、国家安全等方面带来了前所未有的挑战。随后,谢教授详细阐述了主动防御与被动检测技术的核心原理。主动防御技术主要是在内容发布前添加一定程度的干扰信号,以防止伪造或即便伪造也能够顺利溯源。而被动检测技术则是在人脸素材被恶意伪造后,利用伪造视频自身获取线索或提取特征进行检测。

在主动防御方面,谢教授介绍了通过添加对抗攻击噪声、嵌入特定信息等方式,实现对特定人物视频图像的主动干扰和主动取证。这些技术能够有效防止伪造者利用深度伪造技术对视频进行篡改,从而保护个人隐私和国家安全;在被动检测方面,谢教授则重点介绍了基于多模态先验知识的一致性检测、基于多层级纹理不一致性学习的深度伪造人脸检测等技术。这些技术能够通过对伪造视频进行精细化的分析,准确识别出伪造痕迹,从而实现对深度伪造视频的有效检测。

此外,谢洪涛教授还分享了其研究团队在主动防御与被动检测技术方面所取得的最新研究成果。他们提出了一系列创新性的算法和方法,如基于扩散模型的反演能力搜索对抗人脸、基于互相关序列嵌入水印等,这些成果在学术界和工业界都产生了广泛的影响。

中国科学技术大学教授、国家杰出青年基金获得者谢洪涛教授进行《面向特定人物深度伪造视频的主动防御与被动检测技术》主题分享

郭丰俊:视觉内容安全技术的前沿进展与应用

随后,合合信息图像算法研发总监郭丰俊的分享让我看到了AI技术在图像篡改检测方面的最新成果。在开篇部分,郭丰俊老师不仅指出了当前视觉内容安全需求日益增多的原因,还强调了这一领域的重要性。他提到,随着AI技术的不断发展,伪造技术也在不断进步,这使得伪造内容变得更加难以识别。同时,黑灰产利用这些技术进行非法活动,给社会带来了极大的危害。因此,企业、政府等对于视觉内容安全的需求变得越来越迫切。

郭丰俊老师介绍合合信息的通用篡改检测目前已经落地证券、保险、银行、零售等行业,同时支持证照、证书、票据、截图、扫描文档等通用类的篡改模型。另外一个人脸鉴伪检测产品也已经落地,支持换脸、生成式人脸检测等。

在这里插入图片描述

在这里插入图片描述

另外,郭老师介绍,合合信息文档图像篡改检测近年来受关注程度也越来越高,从2022年以来,相关方向的比赛多次收获了第一名的好成绩。

在这里插入图片描述

在谈到视觉内容安全技术的挑战时,郭丰俊老师不仅列举了当前技术面临的主要问题,还深入分析了这些问题的根源和解决方案。他提到,跨域泛化能力是当前技术面临的一大挑战,因为不同领域的数据分布和特征差异很大,导致模型在不同领域上的表现差异也很大。为了解决这个问题,学术界和工业界都在探索新的方法和算法,以提高模型的泛化能力。此外,他还提到了截图或PDF等纯色背景图篡改检测、质量退化导致的篡改痕迹损失以及检出精度与误检率的矛盾等问题,并给出了相应的解决方案和建议。

他提到,随着深度学习技术的不断发展,越来越多的研究者开始探索基于深度学习的篡改检测方法,这些方法在检测精度和效率上都有了很大的提升。此外,他还介绍了基于区块链的内容追溯技术、基于多模态信息融合的篡改检测方法等前沿研究方向,这些方向都具有很大的潜力和应用前景。

在总结部分,郭丰俊老师不仅强调了视觉内容安全技术的重要性,还呼吁业界同仁共同努力,推动这一领域的发展。他提到,制定相关标准和规范是促进内容安全系统更好落地的重要举措之一,因为标准和规范可以为行业提供明确的指导和方向。同时,他也对大模型等新技术的应用表示了期待和关注,认为这些新技术将为视觉内容安全技术带来新的突破和发展机遇。郭丰俊老师的分享内容丰富、见解独到,为我们提供了一个全面了解视觉内容安全技术的机会。

合合信息图像算法研发总监郭丰俊进行《视觉内容安全技术的前沿进展与应用》主题分享

赫然:生成式人工智能安全与治理

中国科学院自动化研究所研究员、IEEE/IAPR Fellow赫然博士的分享则让我对人工智能鉴别与合成技术之间的博弈有了更深入的认识。赫然博士首先介绍了生成式人工智能的基本概念和发展历程。他强调,生成式人工智能作为人工智能的一个重要分支,已经取得了显著的进步,并在各个领域展现出巨大的潜力。然而,随着其应用的日益广泛,安全和治理问题也日益凸显。
赫然博士指出,生成式人工智能面临的主要安全风险包括数据泄露、隐私侵犯、内容造假等。这些风险不仅可能对个人造成危害,还可能对国家安全和社会稳定构成威胁。因此,加强生成式人工智能的安全与治理显得尤为重要。
为了应对这些挑战,赫然博士提出了一系列建议。他强调,应建立健全的生成式人工智能监管机制,明确责任主体和监管标准。同时,加强技术研发和创新,提高生成式人工智能的安全性和可控性。此外,还应加强国际合作与交流,共同应对生成式人工智能带来的全球性挑战。

中国科学院自动化研究所研究员、IEEE/IAPR Fellow赫然进行《生成式人工智能安全与治理》主题分享

三、回顾总结

整场直播下来,我深感收获颇丰。我不仅学到了最新的AI技术知识,更对AI安全治理有了更深入的认识。我意识到,AI技术的快速发展带来了前所未有的机遇和挑战,而加强AI安全治理、推动AI向善发展是我们每个人的责任。同时,我也看到了专家学者们在AI安全治理方面所做出的努力和取得的成果,这让我对AI技术的未来发展充满了信心和期待。

回顾这场盛会,我感受到了专家学者们对AI安全治理的深刻洞察和坚定信念。我相信,在他们的共同努力下,AI技术一定会更加安全、可信、可靠地服务于人类社会。而我,也将继续关注AI技术的发展动态,为AI技术的健康发展贡献自己的一份力量。

Read more

AI写作(十)发展趋势与展望(10/10)

AI写作(十)发展趋势与展望(10/10)

一、AI 写作的崛起之势 在当今科技飞速发展的时代,AI 写作如同一颗耀眼的新星,迅速崛起并在多个领域展现出强大的力量。 随着人工智能技术的不断进步,AI 写作在内容创作领域发挥着越来越重要的作用。据统计,目前已有众多企业开始采用 AI 写作技术,其生成的内容在新闻资讯、财经分析、教育培训等领域广泛应用。例如,在新闻资讯领域,AI 写作能够实现对热点事件的即时追踪与快速报道。通过自动化抓取、分析海量数据,结合预设的新闻模板与逻辑框架,内容创作者能够迅速生成高质量的新闻稿,极大地提升了新闻发布的时效性和覆盖面。 在教育培训领域,AI 写作也展现出巨大的潜力。AI 写作助手可以根据用户输入的主题和要求,自动生成文章的大纲和结构,帮助学生和教师快速了解文章的主要内容和逻辑关系,更好地进行后续的写作工作。同时,它还能进行语法和拼写检查、关键词提取和语义分析,提高文章的质量,为学生和教师提供更好的写作支持和服务。 在企业服务方面,AI 智能写作技术成为解决企业内容生产痛点的有效方法之一。它可以帮助企业实现自动化内容生产,提高文案质量和转化率。通过学习和模仿人类的写作风格和语言表达能力

昔日AI绘画框架王者Stable Diffusion WebUI,已死

昔日AI绘画框架王者Stable Diffusion WebUI,已死

写在前面 【WeThinkIn出品】栏目分享Rocky的认知思考与经验感悟,范围涵盖但不限于AI行业。 欢迎大家关注Rocky的公众号:WeThinkIn 欢迎大家关注Rocky的知乎:Rocky Ding AIGC算法工程师面试面经秘籍分享:WeThinkIn/Interview-for-Algorithm-Engineer欢迎大家Star~ 获取更多AI行业的前沿资讯与干货资源 AIGC时代的 《三年面试五年模拟》AI算法工程师求职面试秘籍独家资源:【三年面试五年模拟】AI算法工程师面试秘籍 Rocky最新撰写10万字Stable Diffusion 3和FLUX.1系列模型的深入浅出全维度解析文章:深入浅出完整解析Stable Diffusion 3(SD 3)和FLUX.1系列核心基础知识 AIGC算法岗/开发岗面试面经交流社群(涵盖AI绘画、AI视频、大模型、AI多模态、数字人等AIGC面试干货资源)欢迎大家加入:https://t.zsxq.com/33pJ0 大家好,我是Rocky。 “还记得我们第一次打开Stable Diffusion WebUI,用上第

工具篇-如何在Github Copilot中使用MCP服务?

工具篇-如何在Github Copilot中使用MCP服务?

Model Context Protocol (MCP) 是由 Anthropic 公司于 2024 年 11 月推出的一种开放协议标准,目的在于标准化 LLM 与外部数据源、工具及服务之间的交互方式。MCP 被广泛类比为“AI 领域的 USB-C 接口”。 一、vscode的安装 下载vscodeVisual Studio Code - Code Editing. Redefined安装完成打开 选择copilot,这个是AI助手,帮助你编程  然后注册登录,可以使用GitHub的账号登录,很多工具都可以通过GitHub帐号登录,所以注册一个GitHub帐号是很有必要的。 二、使用MCP 2.1 准备好MCP 先按这篇文章准备好高德地图的MCP:工具篇-Cherry Studio之MCP使用-ZEEKLOG博客 2.2 在Github Copilot中配置 MCP服务

LLaMA Factory 核心原理讲解

LLaMA Factory 核心原理讲解

大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于大模型算法的研究与应用。曾担任百度千帆大模型比赛、BPAA算法大赛评委,编写微软OpenAI考试认证指导手册。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。授权多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的学生进入到算法行业就业。希望和大家一起成长进步。 本文主要介绍了LLaMA Factory 核心原理讲解,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 核心模块讲解 * 3. SFT流程讲解 1. 前言 在之前的文章主要介绍了LLaMA Factory的操作方法,其中包括: * LLaMA Factory多卡微调的实战教程 * 基于华为昇腾910B和LLaMA Factory多卡微调的实战教程 * LLaMA Factory添加新模型template的实战解析 * LLaMA Factory在预测阶段时添加原有问题的实战代码 * 详解大模型多轮对话的数据组织形式 但也有同学提出疑问