办公系统
个人会员
单位会员
首页 新闻中心 新闻资讯 正文

第十九届电子年会|内容和网络的融合专题论坛成功召开

2026-05-12

第十九届中国电子信息年会于2026年4月17-19日在中国光谷科技会展中心召开。4月17日上午,内容和网络的融合专题论坛成功举办。本次论坛由南京大学和华中科技大学主办,上海交通大学张文军院士和华中科技大学江涛教授担任主席,南京大学曹汛教授担任执行主席,邀请了中国传媒大学张勤教授、中国科学技术大学李厚强教授、北京大学马思伟教授、华东师范大学熊红凯教授、北京航空航天大学徐迈教授、上海大学沈礼权研究员等众多领域内知名专家学者参会。论坛包含嘉宾致辞、8个特邀报告两个核心环节,各位专家围绕相关主题展开广泛深入的交流。


内容和网络的融合专题论坛嘉宾合影

论坛主席、上海交通大学教授、未来媒体网络协同创新中心主任张文军院士在开场致辞中向出席活动的各位来宾表示热烈欢迎,向论坛主办单位、协办单位、支持单位及媒体单位的指导与帮助表示衷心的感谢。接着,张院士作了题为《视觉时空重建与可控生成》的主题报告,指出当前AIGC视频生成正面临可控性不足的产业瓶颈,输入端信息时空稀疏与生成计算过程全黑盒,导致视频内容生成不可预测、难以编辑。主流视觉大模型技术架构均缺失显式时空孪生体,无法实现精准控制。随着视觉生成技术向产业落地推进,构建物理孪生式的世界叙事模型,实现重建、控制、生成引擎的有序衔接,成为突破瓶颈的关键。报告聚焦视觉时空重建、可控生成核心技术、视频通信新范式等核心议题,搭建起技术交流、思想碰撞的平台,助力推动行业从视频“概率采样生成”到“确定性可控生成”的范式跃迁,为我国在AIGC视频生成、视觉通信领域抢占技术高地、掌握产业主动权凝聚力量。

论坛主席、上海交通大学张文军院士

接下来嘉宾报告环节由本次论坛执行主席、南京大学曹汛教授主持。曹汛教授简要介绍了论坛的筹备过程和核心议程,强调了内容与网络融合对6G发展、数字经济升级的重要意义,希望各位专家通过本次论坛充分交流研究成果、凝聚发展共识,推动相关技术快速落地。

论坛执行主席、南京大学曹汛教授

在接下来的专家报告环节,特邀专家依次登台,结合自身研究领域分享最新成果与前沿思考,中国传媒大学张勤教授作了题为《从贝叶斯概率到情智动力:AI音乐本体的范式转型与未来演进》的报告。报告中,他指出人工智能音乐的早期发展主要依赖贝叶斯概率框架,将音乐生成视为基于大规模语料的条件概率推断与风格重组过程,这一范式虽在技术上取得显著成就,却本质上仍停留于机械的数据拟合与表层模式拼贴,难以触及音乐作为人类情感、感知与空间体验深层表达的核心。近年来,随着其团队创新性提出的“情智信息理论”在动态情感-智能耦合机制上的突破,结合DMS动声系统在实体声景构建与空间音频交互的前沿实践,AI音乐正在经历一场深刻的认识论与本体论重构,逐步跨越单纯的数学统计边界,向具备自主情感感知、动态共情能力以及环境-听众-创作三者实时互动重塑的“AI音乐本体”方向演进。

中国传媒大学张勤教授

中国科学技术大学李厚强教授作了题为《大模型时代下的智能图像视频编码》的主题报告。报告围绕深度学习和大模型技术给图像视频编码带来的新机遇展开,重点介绍了团队在智能图像编码和智能视频编码方面的研究进展,包括基于变换大模型的端到端图像压缩框架、基于熵模型大模型的端到端视频压缩框架等内容。他指出,大模型与编码技术的融合有望进一步提升压缩效率、优化视觉质量,破解传统编码技术的瓶颈,为新一代智能编码技术发展提供新的研究思路,助力推动视频编码领域的技术革新。

中国科学技术大学李厚强教授

北京大学马思伟教授作了题为《沉浸式通信关键技术与应用》的主题报告。报告指出,沉浸式通信是6G的重要应用场景之一,其核心是实现“身临其境”的多感官交互,但其多感官数据具有超大带宽、超低时延和高同步性需求,给内容采集、编码、传输与交互带来了系统性挑战。马思伟教授介绍了团队在沉浸式视频通信方面的近期工作,包括三维场景内容采集与表示、编码传输、重建显示和多模态交互等关键技术,打破了传统通信的单一视觉局限,并展示了沉浸媒体技术在博物馆、景区展演等场景中的创新应用,为沉浸式通信的落地推广提供了可行路径。

北京大学马思伟教授

华东师范大学熊红凯教授作了题为《视频大模型的表示生成和通算融合》的主题报告。报告从大模型的数学原理和技术思想出发,围绕生成、扩散、表示学习、多尺度建模、量化压缩编码等内容展开分析,并进一步探讨了通算融合背景下的大模型集合通信和未来智能体通信问题。他指出,视频大模型不仅推动了内容表示与生成能力的提升,也为通信系统与计算系统的协同设计提供了新的研究方向,助力实现“通算一体”的6G发展目标。

华东师范大学熊红凯教授

北京航空航天大学徐迈教授作了题为《面向人类与机器视觉语义的混合压缩方法》的主题报告。报告指出,在网络视频数据量快速增长的背景下,传统视频与图像压缩方法面临边际效应明显、语义利用不足等问题,难以适配人类视觉与机器视觉协同服务的需求。徐迈教授重点介绍了面向视觉语义的压缩方法,以及面向机器视觉任务的混合编码模型,通过语义表征、特定熵编码等模块实现语义信息的高效压缩,借鉴单应性变换等技术降低冗余信息,其相关算法在Instereo2K和KITTI数据集上取得了更佳效果,为人类视觉和机器视觉协同服务的内容编码提供了新的技术路径。

北京航空航天大学徐迈教授

上海大学沈礼权研究员作了题为《海洋水下动态点云数据获取传输与三维场景重建》的主题报告。报告面向海洋水下三维点云信息获取与传输的实际需求,精准剖析了水下三维点云数据量大、水下通信带宽受限、低码率传输导致三维数据质量下降等行业难题,这些难题严重制约了海洋资源勘探、水下环境监测等领域的发展,并介绍了水下三维点云获取、语义驱动甚低码率分层编码、自适应分层传输以及三维场景重建等关键方法,展示了基于ROV的海洋水下成像与压缩传输系统,为实现海洋水下三维场景信息“看得准、传得出、显得真”提供了重要技术支撑,助力推动海洋信息化建设。

上海大学沈礼权研究员

华中科技大学江涛教授作了题为《面向网媒融合的大规模移动实时流传输研究》的主题报告。江涛教授结合自身团队的研究成果,指出网媒融合传输范式通过融合分析网络状态与媒体特征,能够更优地制定大规模移动实时流在网络各环节的传输策略,是实现高质量实时流传输的重要途径,其相关技术已在移动大视频传输领域实现重要突破,研发的CDN模块国际市场占有率排名第一。他围绕移动蜂窝网络中的核心网、接入网和用户端三大传输环节,分别介绍了核心网感知、接入网优化与用户端表征等方面的研究进展,构建了一体化的大规模移动实时流传输技术体系,有助于在资源受限和信道复杂的多用户场景下实现多并发、低时延和高效用的用户体验提升,为短视频、直播等新兴业态的高质量发展提供保障。

华中科技大学江涛教授

此次内容和网络的融合专题论坛的成功举办,不仅全面展现了我国在内容与网络融合领域的最新技术成果和研究进展,也为学术界、产业界搭建了高效的交流合作平台,破解了技术攻关与产业落地中的诸多困惑。与会人员纷纷表示,将以此次论坛为契机,加强交流协作,聚焦内容智能表征、网络高效传输、语义压缩等核心方向,持续推进基础理论研究和关键技术攻关,推动技术成果转化应用,推动我国在新一代信息网络与智能内容服务领域实现更高水平创新发展,为数字经济高质量发展注入强劲动力。

返回列表页

加入会员

学会官微