Please wait a minute...
ISSN 2468-502X
浙江大学出版社、爱思唯尔(Elsevier)联合出版
导航切换
Vis Inf
首页
关于期刊
期刊介绍
编委会
索引信息
联系我们
在线期刊
当期目录
过刊浏览
优先出版
推荐文章
专题浏览
最多阅读
最多下载
最高引用
作者中心
作者投稿
投稿指南
版权协议
论文模板
读者服务
读者登录
留言板
订阅服务
E-mail Alert
资源中心
下载中心
多媒体中心
English Version
当期目录
2019年, 第2期 刊出日期:2019-06-30
上一期
下一期
本期栏目:
论文
全选
合并摘要
导出引用
EndNote
Reference Manager
ProCite
BibTeX
RefWorks
显示图片
论文
Select
深度外观建模综述
收藏
Yue Dong
Vis Inf. 2019 (
2
): 59-68. DOI: 10.1016/j.visinf.2019.07.003
摘要
(
602
)
外观建模是计算机图形学中的一项重要任务,用于捕捉和再现真实世界物体在不同光照和视角下的丰富外观。随着深度学习技术的最新进展,人们已经提出了一组基于深度学习的方法来提高外观建模的效率和质量。在本文中,我们从图形和机器学习的角度对这些深度外观建模技术进行了综述,并探讨了这一方向面临的挑战和机遇。
Select
蜂窝结构应力映射的直接设计
收藏
Liangchao Zhu, Ming Li, Weiwei Xu
Vis Inf. 2019 (
2
): 69-80. DOI: 10.1016/j.visinf.2019.07.002
摘要
(
428
)
本文旨在采用参数化设计方式,以任意精度实时预测蜂窝结构的应力分布,包括蜂窝的几何形状和分布,或外部载荷的大小。经典的模型简化技术必须同时考虑仿真精度和交互速度,而且难以实现这一目标。我们将应力分布表示为蜂窝设计参数的显式函数,通过离线计算这一从设计到应力的映射来实现这一点。该映射可通过求解一个高维空间中扩展有限元分析问题予以确定,映射函数中包括了空间坐标和设计参数。高维问题固有的维数灾难 (部分)通过空间分离得以解决,其中采用了两种主要技术。首先,目标映射采取分离的单变量函数乘积之和的简化形式,从而扩展了适当广义分解技术。其次,将不同计算域的仿真问题转化为固定域的仿真问题,结合高阶奇异值分解,将积分函数表达为分离的单变量函数的乘积之和。本文提供了大量的2D和3D示例证明了该方法的性能。
Select
城市计算的准全息计算模型
收藏
Baoquan Chen, Qiong Zeng, Zhanglin Cheng
Vis Inf. 2019 (
2
): 81-86. DOI: 10.1016/j.visinf.2019.07.001
摘要
(
403
)
随着智慧城市和城市计算技术的发展,产生了大量的数据。这些数据来自多个传感器,通常为异质结构,对应高度分散的连接方式。面对城市计算中更复杂的任务,需要集成的数据表示和智能计算模型。为此我们深入研究两个基本问题:
–我们能否为整个信息
-
物理社会系统提供集成的数据表示?
此外,我们能否提供一个综合框架来选择合适的数据以理解某一具体的城市事件?
为了解决这些问题,我们提出了全息数据表示和准全息计算模型。提供了准全息计算模型的案例研究,并讨论了该模型有待进一步解决的问题。
Select
BeXplorer:大型多人在线角色扮演类游戏中玩家交流与消费行为动态关联的可视分析
收藏
Junhua Lu, Xiao Xie, Ji Lan, Tai-Quan Peng, Yingcai Wu, Wei Chen
Vis Inf. 2019 (
2
): 87-101. DOI: 10.1016/j.visinf.2019.06.002
摘要
(
362
)
随着大型多人在线角色扮演游戏(MMORPG)的快速发展,MMORPG运营商记录了大量关于玩家在游戏中行为的细粒度数据。这些数据为研究玩家行为间的动态互动以及这些互动背后各种社会结构的作用提供了很多机会。 然而,对这些行为数据进行建模和可视化充满了挑战性。本文提出了一个新颖的影响敏感模型来分析这些行为之间的动态互动。 基于此模型,我们引入了新的可视化分析系统,BeXplorer。利用该系统,分析人员能够交互探索玩家的沟通和购买行为间的动态互动,并分析这种互动受玩家所处社会结构限制的方式。 通过三个案例研究和一个基于任务的评估,证明了本文方法的有效性和适用性。
Select
Hair-GAN:采用生成式对抗网络从单幅图像恢复3D头发结构
收藏
Meng Zhang, Youyi Zheng
Vis Inf. 2019 (
2
): 102-112. DOI: 10.1016/j.visinf.2019.06.001
摘要
(
619
)
本文提出了一种生成对抗网络的架构Hair-GAN,可从单个图像中恢复3D头发结构。该网络意在建立从2D头发图像到3D头发结构的参数化变换。本文采用3D体素场来表示3D头发结构,它不仅记录了头发缕所占用的空间而且记录了其方向。给定一幅头发图像,我们首先将其与一人头的泡沫模型配准,然后提取一组记录了头发方向信息的2D图像,连同泡沫模型深度图一起输入到Hair-GAN中。 通过发生器网络可计算出头发的3D体素场,为最终头发合成提供结构指导。建模结果不仅保持了与输入图像中头发风格的相似性,而且从其他视线方向看具有许多生动的细节。通过模拟多种发型并与现有技术进行比较,证明了本文的方法的有效性。