专题:公共空间的游憩、交互与感知

面向运动视觉的环境视觉信息分析与感知测度方法研究进展

  • 朱海鹏 , 1 ,
  • 孔宇航 2 ,
  • (日)大野隆造 3
展开
  • 1.东南大学建筑学院
  • 2.天津大学建筑学院
  • 3.东京科学大学

朱海鹏/女/博士/东南大学建筑学院讲师/研究方向为建筑设计及理论、环境行为学

孔宇航/男/博士/天津大学建筑学院教授/研究方向为建筑设计及理论

(日)大野隆造/男/博士/东京科学大学名誉教授/研究方向为环境行为学

Copy editor: 边紫琳

收稿日期: 2024-11-28

  修回日期: 2025-03-24

  网络出版日期: 2025-12-10

基金资助

国家自然科学基金“路径结构演变视角下的古典园林游观空间‘表征-感知’时序模型与优化设计项目名称”(52408006)

2024年度教育部人文社会科学研究基金“近代路径结构演变视角下的苏州古典园林游观体验机制研究”(24YJCZH475)

国家自然科学基金“基于中华语境‘建筑-人-环境’融贯机制的当代营建体系重构研究”(52038007)

版权

版权所有 © 2025 风景园林编辑部

Research Progress on Ambient Visual Information Analysis and Perception Measurement Methods for Motion Vision

  • Haipeng ZHU , 1 ,
  • Yuhang KONG 2 ,
  • (JPN) OHNO Ryuzo 3
Expand
  • 1. School of Architecture, Southeast University
  • 2. School of Architecture, Tianjin University
  • 3. Institute of Science Tokyo

ZHU Haipeng, Ph.D., is a lecturer in the School of Architecture, Southeast University. Her research focuses on architectural design and theory, and environment-behavior studies

KONG Yuhang, Ph.D., is a professor in the School of Architecture, Tianjin University. His research focuses on architectural design and theory

(JPN) OHNO Ryuzo, Ph.D., is an emeritus professor in the Institute of Science Tokyo. His research focuses on environment-behavior studies

Received date: 2024-11-28

  Revised date: 2025-03-24

  Online published: 2025-12-10

Copyright

Copyright © 2025 Landscape Architecture. All rights reserved.

摘要

【目的】人们对周围环境的认知在很大程度上依赖于运动过程中的视觉感知,系统评述运动过程中视觉信息获取与主观感知反馈间的动态关联性,为以人为本的城市公共空间设计优化提供技术路径。【方法】以环境视觉信息分析和主观感知测度为核心,系统综述环境视觉信息分析方法、运动视觉模拟技术及序列主观感知测度方法。【结果】全景图像能够完整记录环境视觉信息、准确标定“视点-环境”空间关系,在全景绿视率、天空率等静态视觉信息量化方面应用成熟,但在光流、运动视差等动态视觉信息分析方面,仍需要提高量化精度、实现动态视觉信息的快速识别与实时计算。运动视觉模拟方法强调将虚拟现实(virtual reality, VR)技术与运动传感设备相结合,以提升运动视觉体验的真实性与沉浸感;序列主观感知测度可结合心理物理学方法与可穿戴传感器,实现对环境刺激的毫秒级响应;机器学习技术在视觉感知评价中展现出巨大潜力。【结论】未来研究应提升动态视觉信息分析精度,强化序列感知测度中的多模态数据融合技术,优化机器学习模型的情境适应性与泛化能力,为运动视觉感知研究提供更有效的技术路径。

本文引用格式

朱海鹏 , 孔宇航 , (日)大野隆造 . 面向运动视觉的环境视觉信息分析与感知测度方法研究进展[J]. 风景园林, 2025 , 32(5) : 12 -21 . DOI: 10.3724/j.fjyl.LA20240083

Abstract

[Objective] Rapid urbanization has prioritized functional and efficient architectural and urban space design, often at the expense of human-centered spatial experience. As China’s urbanization shifts toward optimizing existing spaces, the focus of public space design is evolving to emphasize ambiance and user experience. Evidence-based design, rooted in the “human – space – experience” relationship, has become essential for understanding how people perceive and engage with spaces, offering a foundation for creating more humanized environments. Cognition of built environments, including urban spaces and landscapes, relies on dynamic visual exploration rather than static observation. Visual information, continuously changing during movement, plays a critical role in spatial cognition and environmental experience. Dynamic perception enables a more comprehensive understanding of spaces, making it vital for improving design quality and user satisfaction. Emerging technologies such as panoramic imaging, virtual reality (VR), and wearable sensors provide new opportunities to quantify visual information, simulate dynamic perception, and evaluate subjective experience. These advancements have made the dynamic visual perception in urban public spaces a key research focus. This research reviews the methods for analyzing environmental visual information and dynamic perception. By integrating objective physical environment analysis with subjective perception evaluation, the research proposes a unified framework to explore the mechanisms linking built environments with spatial cognition, and predicts future research directions. [Methods] This research employs a comprehensive review methodology to examine the mechanisms of dynamic visual perception in urban public spaces. By integrating insights from environmental psychology, urban design, and visual perception studies, the research systematically explores both objective and subjective dimensions of spatial cognition. For the analysis of objective physical environments, the research reviews advancements in panoramic imaging, skyline and greenery visibility assessments, and dynamic visual metrics such as optical flow and motion parallax. These methods are evaluated based on their accuracy, computational efficiency, and applicability to real-world environments. In terms of subjective visual perception, the research reviews the methods for simulating dynamic experience through VR, including immersive navigation, motion tracking, and behavior re-creation. This review highlights approach for designing realistic visual experience and capturing human responses to dynamic environments. Additionally, techniques for quantifying subjective perceptions are explored. These include real-time emotion evaluation using wearable sensors, physiological measurements, and machine learning models for multimodal data analysis. Challenges such as data annotation, contextual dependency, and ethical considerations are critically examined to address the complexity of perception assessment. By synthesizing the aforesaid methods, the research establishes a structured framework that supports the evaluation and simulation of dynamic visual perception in built environments, providing a robust foundation for future research and practical applications. [Results] Environmental visual information analysis methods: Panoramic imaging has been shown to offer significant advantages in environmental visual information analysis, enabling comprehensive capture of 360° three-dimensional environmental data centered around the human viewpoint. This method provides a more accurate and reliable representation of the “viewpoint – environment” relationship, overcoming limitations such as shooting angle and lens distortion. Current research primarily focuses on static visual information, such as greenery visibility and sky visibility, using street view data or panoramic images. The primary research trends include improving the accuracy of visual element recognition and enhancing the ability to recognize specific scene elements. While pedestrian trajectory tracking and space syntax-based visual fields are well-developed in dynamic visual information, there is still a gap in the quantification and visualization of motion-induced visual cues, such as optical flow and motion parallax. Motion perception simulation technology: Studies indicate a clear difference in the motion perception results between sequences of images and films. Sequential images fail to effectively convey dynamic visual cues, making them inadequate for simulating motion perception. VR environments, combined with omnidirectional treadmills and handheld controllers, provide more accurate motion simulation by allowing users to simulate physical movements and choose walking paths freely and replicating real-world tour behaviors. Subjective perception quantification methods: Wearable sensors, capable of forming millisecond-level physiological responses to environmental stimuli, have become an effective tool in evaluating subjective environmental experience. However, the challenge remains in using physiological data to precisely identify emotions and understand the dynamic process of perception. Adding sequential descriptive sensors to traditional measurement methods can enhance the accuracy of subjective perception evaluation. Despite the promising applications of machine learning in subjective perception research, challenges such as data annotation difficulties, context dependence, and privacy concerns still persist. [Conclusion] The research demonstrates the advantages of using panoramic images in capturing comprehensive visual information in both static and dynamic environments, offering a more accurate representation of spatial relationships and overcoming traditional limitations. However, there is a need for further development in the quantification and visualization of dynamic visual cues, such as motion parallax and optical flow, as well as in the real-time analysis of dynamic visual information using machine learning. Motion perception simulation methods have highlighted the limitations of traditional sequential images and emphasized the benefits of virtual reality environments for more accurate and immersive experience. Additionally, wearable sensors provide an effective method for quantifying subjective perception, though challenges related to data annotation, context dependence, and privacy must be addressed. Future research directions include improving multimodal fusion techniques, developing personalized perception models, and enhancing the interpretability and transparency of machine learning models, all while ensuring privacy protection.

在快速城市化进程中,建筑与城市空间设计长期侧重功能实用性与建造效率,虽满足了基础需求,却弱化了人本关怀与空间体验。随着城市化进入存量优化阶段,公共空间设计从功能供给转向场所氛围营造与体验升级[1]。当前背景下,“人-环境-感知”相互作用的循证设计研究展现出核心价值,通过构建物理环境与心理感知的量化分析模型,既为解析环境认知内在机制提供了方法论支撑,又为人本化、高品质空间营造提供了决策依据。
视觉是接收环境信息的主要途径。视点运动所引发的连续时空变化对人们的空间认知、场所体验具有显著影响。相较于定点观测,运动中的观察者接收到的序列化的环境信息能够促进观察者建立环境认知、增强空间体验。在此基础上,探究运动视觉感知中环境信息的连续获取与感知反馈效应,是推动人本导向空间设计范式演进的重要研究路径。
在新数据环境下,城市街景、全景视觉、虚拟现实(virtual reality, VR)与可穿戴传感器等技术的发展,为环境视觉信息量化、运动视觉模拟、主观感知评价与生理指标计测等提供了新的契机,这也使运动视觉感知视角下的城市公共空间视觉感知影响机理研究成为研究热点[2-4]
本研究聚焦于运动视觉感知研究,从客观物理环境与主观视觉感知2个层面,系统综述环境视觉信息与视觉感知的序列测度方法与模拟技术,提出运动视觉感知影响机理研究框架(图1)。在客观物理环境量化方面,本研究基于环境视觉感知机制,聚焦全视域范围内的视觉环境,梳理静态与动态视觉信息分析方法的历时性演变。在主观视觉感知测度方面,本研究分类整理现实环境与虚拟环境中的运动视觉模拟技术,以及序列主观感知测度方法。通过构建建成环境空间视觉感知影响机理研究框架,系统梳理并比较相关方法,同时预测未来的研究热点与技术发展方向。
图1 运动视觉感知影响机理研究框架

Fig. 1 A framework for the research on the impact mechanism of visual perception in motion

1 环境视觉感知机制

模拟运动视觉体验并量化序列视觉信息与主观感知的关键在于理解人眼视觉感知系统的运作机制。人们对周围环境的感知并不局限于静态且有限的局部视域,而是通过观察者的位移、眼动扫视与头部转向等动态过程,逐步构建对空间全视域、三维的整体认知。然而,现有的视觉环境模拟及感知量化研究往往忽视了人们感知环境的动态方式。因此,在开展研究之前需明确视野与视觉世界,静、动态视觉感知的概念。

1.1 视野与视觉世界

准确区分视野(visual field)与视觉世界(visual world)概念的差异,是实现视觉信息正确量化的关键基础[5]表1)。本研究探讨的环境视觉信息建立在视觉世界概念的基础上,基于观察者坐标系,构建水平360°和垂直360°的全天球视觉环境(图2-1),区别于以固定视角获取的有限的局部视野范围(图2-2),通过头部转动、多视角观察形成的完整的全视域视觉环境(图2-3),更接近真实场景下的空间认知模式。
表1 视野与视觉世界的差异

Tab. 1 Differences between visual field and visual world

特征类别 边界特性 空间感知范围 中心清晰度分布 信息获取机制 知觉表现形式
视野 具有边界但边界模糊,整体呈椭圆形(水平约180°,垂直约150°) 受生理视域限制 中心区域细节丰富,向边缘锐度递减 静态注视下的被动接收 近似于二维图像帧
视觉世界 无边界,围绕观察者360°范围的全景特征(水平360°,垂直360°) 超越生理视域限制,通过身体与环境交互扩展 无固定中心,通过眼动扫视获得区域性清晰认知 动态扫视、主动探索 基于实体交互的三维空间体验
图2 观察者坐标系下的局部视野与全视域视觉环境

Fig. 2 Local field of view and full field of visual environments in the observer coordinate system

1.2 静、动态视觉感知

视觉生态学理论提出以观察者视点为中心环绕的环境光学阵列是携带视觉信息的基本单元[6]。光照射在环境表面或物体上后被反射到观察视点,由于不同材质表面反射的环境光学阵列不同,人们可以辨别不同环境表面。人们对周围环境的认知不仅依靠静态、固定视角的观看,更依赖于视点移动过程中随着视角变化观察对象不断展现的不同的侧面,从而形成对环境中物体结构与关系的完整认知。
在观察点固定的情况下,静态光学阵列内各环境表面所占据的视立体角具有差异性,这些视立体角与物体表面的实际空间分布形成严格的几何对应关系,构成静态影像结构信息,具体包括边界轮廓、光影梯度、色彩对比及亮度差异等要素[7]。静态视觉信息具有持久性,当物体保持静止时,其对应的视觉表征结构持续存在。
当观察者移动或环境中存在物体位移时,光学阵列中各视立体角将随之变化,具体表现为视域范围的扩张或收缩、环境信息的出现或消失等变化。这种有序视角变换构成的环境光学阵列的连续变动即为光学性流动(光流)[6],光流是一种动态的信息。由运动引发的动态视觉信息包括光流、运动视差与光学遮掩与显现。人类通过解析光流参数(方向、速度及不动点位置等)进行运动状态判定与空间导航(图3)。
图3 视觉生态学理论下的静、动态视觉感知[6-7]

Fig. 3 Static and dynamic visual perception under the visual ecology theory[6-7]

具身记忆模型[8]表明观察者在复杂环境中移动时,动态与静态视觉信息共同协作帮助观察者建立对周围环境的稳定记忆。光流为观察者、物体与环境之间提供三维关系,在空间感知上具有高精度的校准作用。当运动停止时,观察者依靠静态影像结构的时间持续性,通过具身记忆维持对三维空间结构的感知。

2 环境视觉信息分析方法

环境视觉信息分析方法包括对静态与动态环境视觉信息的定性描述与定量测度两大类。静态视觉信息主要反映环境构成要素的可视性特征,动态视觉信息则关注观察者在运动过程中的视觉变化规律。

2.1 静态视觉信息分析方法

2.1.1 环境视觉信息记述法

鱼眼相机、全景相机、全站仪等数据采集设备的出现,为全方位、快速获取环境视觉信息,准确记录视点与环境界面的空间关系提供了硬件基础,将视觉信息的记述方法拓展至全视域范围。Thiel[9]开发了鱼眼相机半球投影法,以视点为中心记录360°的环境信息。Ohno[10]提出了环境视觉信息记述法,构建了全天球坐标系,通过高度角(${\text{α}} $)与方位角($\;{\text{β}} $)精准标定光学阵列单元(图4-1),并将球面投影至二维平面,为量化、可视化三维视觉信息提供二维媒介(图4-2)。这种全天球环境视觉信息记述法与人们实际感受到的视觉环境不同,常被误认为存在“失真”现象,实际上该方法准确记录了视点与环境要素间的空间构成关系,为进一步量化全视域范围内的视觉信息提供了有效数据支撑。
图4 环境视觉信息记述法[10]

Fig. 4 Description method for environmental visual information[10]

2.1.2 环境视觉信息定量方法

视觉信息的定量测度经历了从固定视角、有限视野范围向以视点为中心、全视域范围的演变,研究重点逐渐转向结合全景图像计算环境构成要素的可视域面积。例如基于普通相机拍摄的4∶3比例的照片,通过划分网格单元,计算自然景观与人工景观的可视量比例[11]。随着技术的发展,全景相机的引入推动了对视觉信息的全面量化,相关研究提出了利用全天球相机拍摄全景图像来计算视觉构成要素可视量的方法,并应用在大学校园户外空间[12]、日本回游式庭院[13]、建筑出口空间[14]等多种场景中,探讨了人们沿路径移动时,环境构成要素(如植被、建筑、天空等)可视域的连续变化与认知行为、感知评价间的动态关联性。
在新数据环境下,街景大数据、全景投影变换技术以及深度学习技术的快速发展,为全视域视觉信息分析和动态空间认知研究提供了新机遇。城市设计研究领域通过街景语义分割实现了街道空间构成要素(如绿色植被可视度)的定量化解析[15]。当前研究热点集中在2个方面。1)提升街道空间构成要素识别精度:依托全景成像系统获取球面影像,运用投影变换算法优化绿视率[16-17]与天空率[18]的识别精度。2)扩展街道空间构成要素识别范围:针对特定场景,如城市滨河绿道,强化对水体界面、桥体建构筑物、生态护岸等景观组件的识别能力[19],形成更为完整的评价体系。

2.2 动态视觉信息分析方法

2.2.1 动态序列视觉信息记述方法

在对序列环境视觉信息进行定性描述的研究中,常用方法包括通过序列图片记录场景变化、使用注记系统标注关键视觉特征,以及利用影片视频捕捉动态视觉信息(表2)。例如,连续视景通过序列透视图的形式,记录观察者在移动过程中对城市空间特征的感知规律,揭示空间节奏与视觉变化的关系[20];运动注记法结合序列透视图、行为符号与时间轴,记录物理环境刺激与主体行为轨迹[21];序列环境注记法通过抽象的符号系统将空间要素(材质、纹理、功能设施)与行为 模式(停留、交互)转化为视觉信息图谱[22];Bosselmann[23]通过光学探头拍摄等比缩放模型,模拟人在真实环境中的行走体验。
表2 序列视觉信息记述常用方法[20-25]

Tab. 2 Common description methods for sequential visual information[20-25]

分类 文献 年份 方法 特点
序列图片 Appleyard[25] 1964 道路上的景观 1)由于相机参数和镜头焦距的限制,传统拍摄手段难以全面捕捉完整的环境视觉信息;
2)拍摄角度与照片畸变等因素会影响环境信息属性的准确记录,例如空间方位和视域面积,这种不准确性在一定程度上降低了环境视觉信息量化分析的精确性
Cullen[20] 1961 连续视景
注记系统 Halprin[21] 1965 运动注记法
Thiel[22] 1961 序列环境注记法
影片视频 Bosselmann[23] 2012 采用影片视频模拟物理环境 视频作为运动体验的模拟媒介参与规划设计
采用内窥镜拍摄模型影片视频
Heft[24] 2000 对比序列图片感知与影片视频感知 视频区别于序列图片,可以呈现动态视觉信息
在完整且有效呈现静态和动态视觉信息的目标驱动下,序列视觉信息的记述方法不断演进。由于序列图片丢失光流信息,导致无法通过序列图片真实记录观察者的运动环境体验。注记系统通过添加时间切片、行为轨迹、运动速度等补充观察者行进过程中连续体验的缺失。影片视频这一动态媒介的出现完整记录、再现了视觉环境的动态变化,成为城市设计中运动体验模拟的有效工具。环境行为学实证研究表明,动态媒介(如视频)和静态媒介(如照片、幻灯片)在呈现同一运动场景时,人们的视觉评价具有显著差异[24]。这说明静态媒介丢失的动态视觉线索,即连续的光流,是运动视觉感知的关键要素。

2.2.2 动态视觉信息定量测度方法

对动态视觉信息的定量测度主要基于Gibson[6]提出的3种关键运动视知觉线索(即动态视觉信息):光流、运动视差、光学遮掩与显现。在风景园林、建筑学等相关领域,对这些线索的定量化测量方法主要为光流法和等视域分析。

2.2.2.1 光流法

光流是指图像中每个像素点在连续帧之间的运动方向和速度。通过跟踪像素点在不同帧之间的位置变化,可以获得物体在序列图片或视频中的运动信息。光流法在计算机视觉领域被广泛应用于运动检测、对象跟踪与动作识别等任务。在风景园林、城市规划、建筑学等领域,光流及其分析方法主要分为2类。
一类是指在视点位置固定的情况下,由环境中元素运动引发的光流,此类光流主要用于人群行为轨迹追踪。基于摄像机或无人机拍摄的连续视频,利用帧间差异法[26]、背景减除法[27]来获取行人的运动轨迹;随后利用深度学习算法YOLOv3和DeepSORT,分别进行视频中行人目标检测与行为轨迹获取,实时获得研究场地内行人的轨迹数据[28-29]。该方法通过获取人群行为的时空间分布特征,为公共空间品质优化提供设计依据。
另一类是指在周围环境中由于视点移动引发的光流,针对此类光流有3种处理方法。1)基于全天球环境视觉信息记述法,通过实地全景摄影与3D模型全景渲染,对光流轨迹、光流速率、光流位移等表征指标进行测算。2)基于全景摄影和图像光流投影的图解分析算法,可通过MatLab图像处理工具实现现实场景中的目标光流测速、视觉更新识别等游观表征指标的测度分析,现已应用于传统园林场景的游观体验研究[30]、城市街道空间光环境分析[31]。3)针对虚拟空间的光流测度,通过全景渲染技术获取移动路径中的序列视觉信息和视深度图,对比相邻视点间的视觉信息差异,计算焦点对象和环境界面的光流变化[32]

2.2.2.2 等视域分析

等视域的概念来源于詹姆斯·吉布森(James Gibson)的视觉生态学理论,指从任意观察点朝向视点汇聚的光学阵列[6]。在空间层面,等视域指从某一视点能看到的空间范围,并随视点移动而发生变化[33]。等视域概念最初被指出具有三维、全视域、动态(运动)属性,但在定量化分析、可视化表达方面经历了由二维向三维、三维向具身等视域的发展阶段(表3)。
表3 等视域分析的发展脉络[34-42]

Tab. 3 Evolution of isovist field analysis[34-42]

分析方法 文献 数据类型 工具和原理 可视化表达
二维等视域分析 Turner等[34] 平面图 空间句法、图论 二维视域多边形
三维等视域分析 Chang等[35] 平面图结合立面或剖面图 空间句法、图论 平面和立面热力图
Varoudis等[36] 3D模型 多层空间网格 多层平面热力图
Lu等[37] 3D模型 均匀空间网格 三维空间网格点的可见度
Fisher-Gewirtzman等[38] 3D模型 射线投射法 三维视域体积
Morello等[39] 3D点云 射线投射法 视域动画
具身等视域分析 王浩峰等[40] 平面图 空间句法、图论 二维平面热力图
Fisher-Gewirtzman[41] 3D模型 射线投射法 三维视域体积
Krukar等[42] 3D模型 射线投射法 三维视域体积
二维等视域分析通常基于二维的可见性计算模型。Turner等[34]提出了一种从等视域到可视图的方法论,结合空间句法的拓扑分析方法,发展出视域关系分析方法及相应的软件Depthmap。该方法通过均匀栅格覆盖建筑平面,绘制每个栅格中心点的等视域图,并利用几何特征(如面积、周长、重心)和一系列局部或全局参数(如连接度、整合度)来分析视觉关系的拓扑深度变化。此类分析已广泛应用于空间特性分析和行为学研究领域。
三维等视域分析引入高度和体积维度,用于分析复杂空间的可见性。根据分析原理,三维等视域分析可分为3类:1)将三维等视域转化为平面与立面二维可视域的叠加,避免复杂的体积计算问题,但在准确性上有所欠缺[35];2)在可视图的基础上,引入多层或均匀空间网格,分析网格中心点的等视域图,相关研究表明三维可见性能够比二维可见性更准确地反映空间特性[36-37];3)采用射线投射法,以视点为中心发射射线,分析其在空间中被环境界面阻挡后形成的可视范围[38-39]。通过三维点云数据提升分析精度,遍历像素点与视点位置的可见关系能够获得更加精准的三维等视域[43-44]
具身等视域分析结合认知科学和环境行为学理论,在等视域分析中考虑用户的行为与感知。一方面,相关研究将运动和时间因素纳入可见性分析,考虑观察者在空间中移动时的可见性变化。如王浩峰等[40]改进了空间句法中的可视性图表分析(visibility graph analysis, VGA),将足部高度的可达性和眼睛高度的可视性结合,量化视点移动后可视范围的变化,并指出该方法可进一步扩展至三维空间。另一方面,相关研究也探讨了物理空间中的三维等视域分析结果与用户实际视觉感知的差异。三维等视域分析引入了加权视野(即视野对观察者的相对影响),作为预测空间感知的工具,重点关注“感知密度”。将主观的定性信息与可见空间体积的客观测量相结合,能够更准确地评估人们对空间的感知情况[41]。相关研究还表明,具身的三维等视域分析比通用的三维等视域分析更能准确预测人们对空间的感知,尤其是在空间宽敞度和复杂度方面[42]

3 运动视觉模拟技术

运动视觉模拟是主观感知序列测度的基础。除了真实环境中的漫游[45],VR技术的快速发展为运动视觉体验提供了多种方式。体验者可以利用桌面式VR、头戴式显示设备 (head mounted display, HMD)、洞穴式自动虚拟环境(cave automatic virtual environment, CAVE)来模拟真实场景,并结合手持控制器、万向跑步机等交互设备,高效地再现真实环境中的运动视觉体验。在VR环境中,体验者通常会以被动、主动2种方式体验运动视觉。

3.1 被动式模拟技术

被动式模拟技术通常通过在VR设备中呈现序列图片或影片视频2种方式来模拟运动视觉。相关研究通过实验比较了上述2种方式对环境认知与偏好评价的影响,结果表明序列图片相对于影片视频并不能有效模拟运动视觉感知过程,序列图片会丢失部分动态视觉信息,影片视频这类动态媒介更利于人们对环境的理解与认知[24, 46]
随着全景视觉技术的不断发展,全景图像已被证实能够有效再现真实室内外空间[47-48]。由于全景影像与头戴式显示设备和洞穴式自动虚拟环境的兼容性良好,360°全景漫游场景已成为模拟在真实环境中的运动视觉可行的替代方案[49]。通过VR设备再现全景相机拍摄的真实场景影像,使体验者自由转动头部选择任意视角观看,360°沉浸在虚拟世界中。同时,影像可以辅以真实音频、摄影师拍摄过程中因行走而产生的视觉变化,以增强体验者的行走感受,从而大大提升VR环境的逼真度和临场感。
已有研究基于街景影像建立了VR城市景观视觉分析系统,用于收集和分析视觉注意力相关的感知数据[50]。此外,360°VR视频在城市街道景观主观评价中的可用性和有效性也得到了验证。与传统街景图像相比,基于VR环境的评估结果与实地评估一致,尤其是在空间感、行为特性及整体街道氛围的评估中,360°VR视频评估结果展现出更高的准确性[51]。然而,这种方法的不足之处在于3D虚拟环境中缺乏人与环境互动的要素。

3.2 主动式模拟技术

主动式模拟技术需要借助辅助设备在VR环境中实现运动,主要包含4种方法(图5)。1)基于体验者在现实世界空间中的物理移动,结合实验室空间规模设计应用程序[52];2)使用一些额外的传感器来检测某种物理运动并将其转换为VR运动,如万向跑步机[53]、VR自行车系统[54]、全身触觉动态捕捉服[55];3)VR中的大多数人工移动都是通过手持控制器来实现的,这些控制器是头戴式显示设备的一部分,如Quest 2、Oculus Rift、HTC Vive等;4)瞬移是VR游戏中常用的移动方法,玩家将控制器指向要移动到的位置,然后按下按钮即可立即传送到该位置。既有研究比较了万向跑步机、手持控制器、瞬移3种运动方式对距离感知的作用,其中瞬移不连续的光流效果会降低体验者对距离估计的精确度[56]
图5 主动式模拟技术实现运动的方式[52-55]

Fig. 5 Motion enabling by active motion simulation technology[52-55]

4 序列主观感知测度方法

序列主观感知指的是人在移动过程中,通过连续获取感知信息并整合而形成对环境的认知,核心特点在于感知的时序性:每一时刻的感知结果都会影响后续时刻的感知。序列主观感知强调感知信息在时间上的连贯性与依赖性,前一时刻的视觉、触觉或空间感知结果为下一时刻的感知奠定基础,从而形成完整的环境感知链条。序列主观感知测度通常依赖时序数据和生理指标,结合动态视觉信息、运动路径和情感反应等探索感知变化的规律和影响因素,从而揭示人在动态环境中感知结构的时空关联。

4.1 传统主观感知评价方法

心理物理学领域将主观感知评价方法分为两大类。1)通过阈值测量(如差别阈值)和主观等效点(point of subjective equivalence, PSE)确定心理量与刺激强度的对数关系[57],具体包括极限法、恒定刺激法等;2)通过感觉量表(如量值估计法)建立心理量与刺激强度的幂函数关系,消除对阈值的依赖,直接量化主观感知强度[58]图6)。
图6 心理物理测量对象及其测量方法[59]

Fig. 6 Objects and methods of psychophysical measurement[59]

4.1.1 主观等效点

主观等效点是感知测量中的核心参数,用于量化被试者认为两个刺激在主观上强度相等的物理值。调节法、极限法和恒定刺激法等传统实验方法,主要用于测定感知阈值。在此基础上,研究者可通过比较标准刺激与测试刺激的感知等价值,结合心理测量曲线分析得到主观等效点[57]。调节法让被试者调整比较刺激以匹配标准刺激;极限法通过逐步变化的比较刺激寻找感知的转折点;恒定刺激法则随机呈现多种固定刺激,要求被试者做出感知有无、高低、强弱的判断,从而得出阈值。以上方法常用于视觉、听觉等多种感知的测量。

4.1.2 感觉量表

感觉量表是测量感知强度和差异的重要手段,其基本原理在于通过对标准刺激和比较刺激的反应构建心理连续体,并与物理量相对应[59]。常用的方法包括成对比较法、等分法、量值估计法和语义差异法。成对比较法通过将全部刺激进行两两配对,并针对某一特性对配对二者进行比较,按照各刺激明显于其他刺激的频次进行排序,形成顺序量表;连续类别法通过序数类别(如5级量表)对被试者的感知进行评估,并借助正态分布假设来校准类别之间的差异,以获取更精确的心理刻度。量值估计法通过让被试者对不同刺激与标准刺激进行定量比较,从而为每个刺激分配相应数值;语义差异法通过若干对偶形容词(如“高效-低效”“友好-冷漠”)在语义上对目标进行多维度评分,通常采用7级或9级量表,并采用多维尺度分析方法对感知数据的高维结构进行降维建模,解析并重构主观感知特征,从而提升复杂心理感知现象的量化精度。

4.2 外接传感器

连续评价法是一种用于实时记录被试者在观看或体验刺激时感知变化的技术[60]。被试者通过连续控制滑杆、拨轮或其他装置,即时反馈感知的细微变化[61]。这种方法通过高频率记录数据(每秒多次)捕捉感知波动来提供更为细致的动态感知数据。例如,Inagami等[12]在传统测度方法李克特量表的基础上,开发了可序列记述感知的便携式评级传感器,针对“封闭感与开敞感”这一特定感知进行实时记录。被试者通过控制手柄上的滑杆反馈感知等级,数据会以5次/s的速度连续记录在便携式笔记本电脑上。

4.3 基于可穿戴生理计测设备的情绪地图

为了进一步扩展连续评价法的应用,研究者探索了多种外接传感器来实现连续记录感知的目标。可穿戴生理计测设备如皮电、脑电、心电、肌电和呼吸传感器等,可对人们应对环境刺激时的生理反应形成毫秒级响应。既有研究结合生理数据与全球定位系统(global positioning system, GPS)空间位置数据,生成具有时空属性的情绪评价轨迹[4, 62]
生理信号在情绪识别方面具有局限性,需要结合其他人因测量方法提高准确性。虽然生理信号可以反映情绪的强度,但对情绪效价(即情绪的正负方向)区分能力有限。因此,单一生理信号通常无法提供足够的信息来准确识别复杂的情绪状态[63]。生理反应并不总是能精确对应情绪的主观体验。不同情绪可能会引发相似的生理反应,仅依赖生理信号难以准确区分情绪类型[64]。将生理信号与自我报告和行为观察等多模态数据结合,能够更好地捕捉用户的情绪状态和空间体验。通过整合这些数据,可以克服单一方法的局限性,提升情绪识别的准确性[65]图7)。此外,生理信号通常能够直接反映情绪,但对感知状态的反映则较为间接,所以在主观感知评价研究中多作为解释感知结果的辅助工具。
图7 融合多源数据与多方法协同的序列感知评估路径[61-62]

Fig. 7 Assessment approach for sequential perception based on the integration of multi-source data and the collaboration of multiple methods[61-62]

4.4 基于机器学习模型的主观感知评价

基于机器学习模型的主观感知评价是一个多学科交叉领域,结合了心理学、计算机科学、信号处理以及统计学的知识,用以理解和预测个体的主观感知体验。主观感知评价通常涉及对个人体验、情感状态或主观反应的量化,这些感知数据通常是模糊且非线性的。传统评价方法依赖于问卷调查和评分量表,然而随着传感技术的发展,大量多模态数据如生理信号、行为数据和环境因素等变得易于收集,这为机器学习模型的应用奠定了基础。从上述数据中提取能够反映主观感知的特征,如时域特征、频域特征、行为特征等,并通过不同的机器学习模型实现感知预测、情感分类、情感强度预测等。
基于机器学习模型的主观感知评价在城市街道景观要素与主观感知关联性研究方面已得到应用,Ogawa等[66]使用能够反映街道环境视觉特征的街景图像数据,以及被试者对街景图像视觉吸引力、安全性、愉悦度等方面的感知评分或感知标签,构建多维感知数据集。通过计算机视觉技术提取图像中的颜色、纹理、形状等视觉特征,以及建筑、绿地、道路等语义标签,实现特征量化与空间语义解析。通过监督学习模型,如支持向量机、随机森林算法和卷积神经网络,学习视觉特征与主观评价之间的映射关系,来预测街景的主观感知评价。

5 结论与展望

5.1 环境视觉信息分析方法

全景图像在环境视觉信息分析中具有两大优势:1)全景图像通过360°空间信息采集技术完整记录以人眼视点为中心的三维环境视觉信息,显著优于传统设备的局部采样模式,能够提升视觉数据的完整性与真实性;2)全景图像基于观察者坐标系构建几何空间映射模型,可精准量化视点与周边建筑界面的方位角、距离参数,有效消除镜头畸变与拍摄角度引起的分析误差。基于上述特性,Ohno[10]提出的全天球环境视觉信息记述法为量化分析运动视角下“视点-环境”之间的动态空间关系奠定了理论基础。
目前,国内外针对环境视觉信息的研究多基于网络街景数据或全景相机拍摄的静态全景图像,主要集中在绿视率、天空率等静态视觉信息的量化分析上。当前研究趋势主要体现在2个方面:1)提升可视化要素识别与计算的精度;2)增强针对特定场景要素的多样化识别能力。
关于动态视觉信息的研究,行人轨迹追踪和基于空间句法的等视域分析技术已较为成熟。然而,针对运动引发的视知觉线索的相关研究不足,如光流、运动视差等的量化测度与可视化方法,仍需更多关注,以全面理解动态环境中视觉信息的变化机制及其对空间认知的影响。已有研究基于全天球环境视觉信息记述法,结合全景投影类型、图形特征及投影变换方法,提出了基于光流的动态环境视觉信息分析方法。未来研究可以从2个方向进一步深化:1)结合机器学习模型,实现动态视觉信息快速、实时分析与可视化表达;2)利用三维激光雷达获取高精度点云数据,构建精细化模型,以提高动态视觉信息量化的准确度。

5.2 运动视觉模拟技术

在漫游场景设定方面,被试者对序列图片与影片视频的运动视觉感知结果具有明显差异,这是因为序列图片无法完整、有效呈现动态视觉信息,可通过影片视频播放或三维模型自由探索的方式设计漫游场景,避免运动视觉线索的丢失。在场景再现方面,VR环境有助于漫游场景再现,可结合万向跑步机与手持控制器让被试者模拟身体运动行为、自由选择行走路径,使模拟的运动视觉体验更接近真实环境中的游览行为。

5.3 序列主观感知测度方法

传统生理物理学测度方法较难实现主观感知的实时测度,然而可穿戴传感器不断发展,可对人们应对环境刺激时的生理反应形成毫秒级响应,逐步成为一种评价环境综合体验的新技术。由于生理信号在情绪精准识别方面的有效性较低以及情绪与感知之间存在差异性,目前生理数据仅作为主观感知评价的辅助工具。可通过在传统测度方法上增加序列记述传感器的方式,针对某种具体主观感知进行有效测度,同时结合生理计测方法辅助分析人们对环境认知的动态过程。
尽管基于机器学习模型的主观感知评价具有广泛的应用前景,但也面临一些挑战。1)数据标注困难:主观感知具有高度个体化特征,标注数据的获取通常昂贵且费时;2)情境依赖性强:感知评价通常依赖于特定的情境,跨情境的模型泛化能力尚待提升;3)隐私与伦理问题:评价涉及对个人生理数据和情感状态的分析,隐私保护和伦理规范是重要的考虑因素。未来的发展方向包括更精确的多模态数据融合技术与更加个性化的感知模型,以及在保障隐私的前提下,开发更具解释性和透明性的机器学习模型。

①视点运动与环境界面交互生成光流、运动视差、光学遮掩与显现3类核心运动视觉线索。光流导致观察者前移时环境界面呈现逆向流动;运动视差导致物体运动速率由于相对距离不同存在差异;光学遮掩与显现导致距离近的物体轮廓渐次覆盖或显露远端物体。

图表来源(Sources of Figures and Tables):

图12由作者绘制;图3由作者根据参考文献[6][7]绘制;图4由作者根据参考文献[10]绘制;图5由作者根据参考文献[52]~[55]绘制;图6由作者根据参考文献[58]绘制;图7由作者根据参考文献[60][61]绘制;表1由作者根据参考文献[20]~[25]绘制;表2由作者根据参考文献[34]~[42]绘制。

[1]
周庆华, 王一睿. 基于感知维度的城市设计思考[J]. 规划师, 2021, 37(16): 73-77.

DOI

ZHOU Q H, WANG Y R. Perception Oriented Urban Design[J]. Planners, 2021, 37(16): 73-77.

DOI

[2]
成实, 王建国. 基于动态观览评价的视觉景观研究探索: 以南京市滨江型公共空间为例[J]. 中国园林, 2021, 37(11): 57-62.

CHENG S, WANG J G. Visual Landscape Research on Dynamic Viewing Evaluation: A Case Study of Nanjing Riverside Public Viewing Space[J]. Chinese Landscape Architecture, 2021, 37(11): 57-62.

[3]
刘滨谊, 杨轶伦. 城市街景动态环视旷奥度评价[J]. 风景园林, 2022, 29(8): 64-70.

LIU B Y, YANG Y L. Evaluation of Kuang-Ao Degree in Dynamic Circular Viewing of Urban Streetscape[J]. Landscape Architecture, 2022, 29(8): 64-70.

[4]
陈筝, 刘颂. 基于可穿戴传感器的实时环境情绪感受评价[J]. 中国园林, 2018, 34(3): 12-17.

DOI

CHEN Z, LIU S. Real-Time Environmental Affective Experience Assessment via Wearable Sensors[J]. Chinese Landscape Architecture, 2018, 34(3): 12-17.

DOI

[5]
GIBSON J J. The Perception of the Visual World[M]. Boston: Houghton Mifflin, 1950.

[6]
GIBSON J J. The Ecological Approach to Visual Perception[M]. Boston: Houghton Mifflin, 1979.

[7]
潘静, 张慧远, 陈东濠, 等. 动、静态视觉信息在真实世界视觉搜索中的作用[J]. 心理科学进展, 2020, 28(8): 1219-1231.

PAN J, ZHANG H Y, CHEN D H, et al. Visual Search in Real World: The Role of Dynamic and Static Optical Information[J]. Advances in Psychological Science, 2020, 28(8): 1219-1231.

[8]
PAN J S, BINGHAM N, BINGHAM G P. Embodied Memory: Effective and Stable Perception by Combining Optic Flow and Image Structure[J]. Journal of Experimental Psychology Human Perception and Performance, 2013, 39(6): 1638-1651.

DOI

[9]
THIEL P. People, Paths, and Purpose: Notations for a Participatory Envirotecture[M]. Seattle: University of Washington Press, 1997.

[10]
OHNO R. Concept of Ambient Vision and Description Method of Ambient Visual Information: A Study on Description Method of Ambient Visual Information and Its Application (Part 1)[J]. Journal of Architecture, Planning and Environmental Engineering (Transactions of AIJ), 1993, 451: 85-92.

[11]
乐志, 梁晓娜, 范榕. 苏州古典园林中的视觉质量评价分析[J]. 中国园林, 2017, 33(1): 113-118.

DOI

YUE Z, LIANG X N, FAN R. The Application of Landscape Visual Quality Assessment Theory in Classical Gardens of Suzhou[J]. Chinese Landscape Architecture, 2017, 33(1): 113-118.

DOI

[12]
INAGAMI M, OHNO R. Anisotropy of Environmental Perception Caused by Spatial Changes During Locomotion[J]. Journal of Environmental Psychology, 2010, 30(2): 258-266.

DOI

[13]
OHNO R, HATA T, KONDO M. Experiencing Japanese Gardens: Sensory Information and Behavior[M]//DEMICK J, TAKAHASHI T, WAPNER S, et al. Handbook of Japan-United States Environment-Behavior Research: Toward a Transactional Approach. New York: Plenum Press, 1997: 163-182.

[14]
OHNO R, UDAGAWA A, SOEDA M. Effects of Emerging Scenes from the Occluding Edges on Visual Attention and Evaluation of the Landscape[J]. Journal of Architecture and Planning (Transactions of AIJ), 2002, 67(556): 197-203.

DOI

[15]
叶宇, 张灵珠, 颜文涛, 等. 街道绿化品质的人本视角测度框架: 基于百度街景数据和机器学习的大规模分析[J]. 风景园林, 2018, 25(8): 24-29.

YE Y, ZHANG L Z, YAN W T, et al. Measuning Street Greening Quality from Humanistic Perspective: A Large-Scale Analysis Based on Baidu Street View Images and Machine Learning Algorithms[J]. Landscape Architecture, 2018, 25(8): 24-29.

[16]
张炜, 周昱杏, 杨梦琪. 全景绿视率自动识别和计算研究[J]. 风景园林, 2019, 26(10): 89-94.

ZHANG W, ZHOU Y X, YANG M Q. Research on Automatic Identification and Measurement of Panoramic Visible Green Index[J]. Landscape Architecture, 2019, 26(10): 89-94.

[17]
KI D, LEE S. Analyzing the Effects of Green View Index of Neighborhood Streets on Walking Time Using Google Street View and Deep Learning[J]. Landscape and Urban Planning, 2021, 205: 103920

DOI

[18]
XIA Y X, YABUKI N, FUKUDA T. Sky View Factor Estimation from Street View Images Based on Semantic Segmentation[J]. Urban Climate, 2021, 40: 100999

DOI

[19]
李鑫, 吴丹子, 李倞, 等. 基于深度学习的城市滨河绿道景观视觉感知评价研究[J]. 北京林业大学学报, 2021, 43(12): 93-104.

DOI

LI X, WU D Z, LI L, et al. Research on Visual Perception Evaluation of Urban Riverside Greenway Landscape Based on Deep Learning[J]. Journal of Beijing Forestry University, 2021, 43(12): 93-104.

DOI

[20]
CULLEN G. The Concise Townscape[M]. London: The Architectural Press, 1961.

[21]
HALPRIN L. Motation[J]. Progressive Architecture, 1965: 126-133.

[22]
THIEL P. A Sequence-Experience Notation[J]. Town Planning Review, 1961, 32(1): 33

DOI

[23]
BOSSELMANN P. The Berkeley Environmental Simulation Laboratory: A 12 Year Anniversary[J]. Berkeley Planning Journal, 2012, 1(1): 150-160.

[24]
HEFT H, NASAR J L. Evaluating Environmental Scenes Using Dynamic Versus Static Displays[J]. Environment and Behavior, 2000, 32(3): 301-322.

DOI

[25]
APPLEYARD D, LYNCH K, MYER J R. The View from the Road[J]. Economic Geography, 1964, 42(3): 119-124.

[26]
胡一可, 丁梦月, 王志强, 等. 计算机视觉技术在城市街道空间设计中的应用[J]. 风景园林, 2017, 24(10): 50-57.

HU Y K, DING M Y, WANG Z Q, et al. The Application Potential Research on Computer Vision Technology in Urban Street Spaces[J]. Landscape Architecture, 2017, 24(10): 50-57.

[27]
杨柳, 胡一可. 城市型风景名胜区入口空间构成与人群行为研究[J]. 中国园林, 2018, 34(S2): 134-139.

YANG L, HU Y K. The Space Composition and Crowd Behavior Study on Entrances of Urban Scenic Area[J]. Chinese Landscape Architecture, 2018, 34(S2): 134-139.

[28]
吴韶集, 胡一可. 基于深度学习的公共空间人群行为可视化研究: 以天津大学卫津路校区为例[J]. 风景园林, 2022, 29(2): 106-111.

WU S J, HU Y K. A Visualized Research of Human’s Behavior in Public Spaces Based on Deep Learning: A Case Study of Weijin Road Campus, Tianjin University[J]. Landscape Architecture, 2022, 29(2): 106-111.

[29]
邓慧姝. 基于运动轨迹追踪和压力传感器网络分析公共空间界面的体感交互机制[J]. 世界建筑, 2023(7): 72-77.

DENG H S. Analysis of Somatosensory Interaction Mechanisms in Public Space Interfaces Based on Motion Trajectory Tracking and Pressure-sensor Network[J]. World Architecture, 2023(7): 72-77.

[30]
朱海鹏, 孔宇航, 大野隆造. 基于全景技术的园林游观体验视觉分析方法: 以留园为例[J]. 风景园林, 2021, 28(12): 77-84.

ZHU H P, KONG Y H, OHNO R. Visual Analysis Method of Garden Tour Experience Based on Panoramic Images: A Case Study of the Lingering Garden[J]. Landscape Architecture, 2021, 28(12): 77-84.

[31]
ZHU H, GU Z. A Method of Estimating the Spatiotemporal Distribution of Reflected Sunlight from Glass Curtain Walls in High-Rise Business Districts Using Street-View Panoramas[J]. Sustainable Cities and Society, 2022, 79: 103671

DOI

[32]
朱海鹏.基于环境视觉信息分析的建筑游观空间设计优化方法研究[D].天津: 天津大学, 2022.

ZHU H P. Research on Architectural Sequential Space Based on Ambient Visual Information Analysis and Its Application for Design Assistance[D]. Tianjin: Tianjin University, 2022.

[33]
BENEDIKT M L. To Take Hold of Space: Isovists and Isovist Fields[J]. Environment and Planning B: Planning and Design, 1979, 6(1): 47-65.

DOI

[34]
TURNER A, DOXA M, O’SULLIVAN D, et al. From Isovists to Visibility Graphs: A Methodology for the Analysis of Architectural Space[J]. Environment and Planning B: Planning and Design, 2001, 28(1): 103-121.

DOI

[35]
CHANG D K, PARK J H. Exploration of Isovist Fields to Model 3D Visibility with Building Facade[J]. Architectural Research, 2011, 13(3): 19-29.

DOI

[36]
VAROUDIS T, PSARRA S. Beyond Two Dimensions: Architecture Through Three Dimensional Visibility Graph Analysis[J]. Journal of Space Syntax, 2014, 5: 91-108.

[37]
LU Y, GOU Z, YE Y, et al. Three-Dimensional Visibility Graph Analysis and Its Application[J]. Environment and Planning B: Urban Analytics and City Science, 2019, 46(5): 948-962.

DOI

[38]
FISHER-GEWIRTZMAN D, WAGNER I A. Spatial Openness as a Practical Metric for Evaluating Built-Up Environments[J]. Environment and Planning B: Planning and Design, 2003, 30(1): 37-49.

DOI

[39]
MORELLO E, RATTI C. A Digital Image of the City: 3D Isovists in Lynch’s Urban Analysis[J]. Environment and Planning B: Planning and Design, 2009, 36(5): 837-853.

DOI

[40]
王浩锋, 吴昆, 金珊, 等. 一种改进的空间句法视域关系分析方法[J]. 新建筑, 2022(4): 78-82.

DOI

WANG H F, WU K, JIN S, et al. An Improved Visibility Graph Analysis Method of Space Syntax[J]. New Architecture, 2022(4): 78-82.

DOI

[41]
FISHER-GEWIRTZMAN D. Integrating ‘Weighted Views’ to Quantitative 3D Visibility Analysis as a Predictive Tool for Perception of Space[J]. Environment and Planning B: Urban Analytics and City Science, 2018, 45(2): 345-366.

DOI

[42]
KRUKAR J, MANIVANNAN C, BHATT M, et al. Embodied 3D Isovists: A Method to Model the Visual Perception of Space[J]. Environment and Planning B: Urban Analytics and City Science, 2021, 48(8): 2307-2325.

DOI

[43]
DÍAZ-VILARIÑO L, GONZÁLEZ-DESANTOS L, VERBREE E, et al. From Point Clouds to 3D Isovists in Indoor Environments[J]. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2018, 624: 149-154.

[44]
张冠亭, 彭予洋, 奈豪斯. 基于LiDAR点云的中国传统园林视觉空间定量分析方法: 以寄畅园为例[J]. 风景园林, 2024, 31(7): 108-114.

ZHANG G T, PENG Y Y, NIJHUIS S. Method for Quantitative Analysis of Visual Space of Chinese Traditional Gardens Based on LiDAR Point Cloud: A Case Study of Jichang Garden[J]. Landscape Architecture, 2024, 31(7): 108-114.

[45]
张利, 谢祺旭, 邓慧姝, 等. 空间体验实证的人因分析技术路径[J]. 世界建筑, 2022(9): 42-47.

DOI

ZHANG L, XIE Q X, DENG H S, et al. An Ergonomic Analysis Approach for Spatial Experience Proof[J]. World Architecture, 2022(9): 42-47.

DOI

[46]
HEFT H. The Participatory Character of Landscape[J]. Open Space: People Space, 2007, 2: 1-7.

[47]
SUGITA S, NISHINA D, KOBAYASHI R, et al. A Study on Alternative Possibility of Psychological Evaluation of Exterior Space by Whole Sky Image Evaluation[J]. Journal of Environmental Engineering (Transactions of AIJ), 2018, 83(745): 235-245.

DOI

[48]
AKIYAMA M, NISHINA D, SUGITA S, et al. A Study on Alternative Possibility of Whole Sky Image in Psychological Evaluation of Indoor Space[J]. Journal of Environmental Engineering (Transactions of AIJ), 2018, 83(748): 503-513.

DOI

[49]
WU X, LAI I K W. The Use of 360-Degree Virtual Tours to Promote Mountain Walking Tourism: Stimulus-Organism-Response Model[J]. Information Technology & Tourism, 2022, 24(1): 85-107.

[50]
KIM S N, LEE H. Capturing Reality: Validation of Omnidirectional Video-Based Immersive Virtual Reality as a Streetscape Quality Auditing Method[J]. Landscape and Urban Planning, 2022, 218: 104290

DOI

[51]
ZHANG R X, ZHANG L M. Panoramic Visual Perception and Identification of Architectural Cityscape Elements in a Virtual-Reality Environment[J]. Future Generation Computer Systems, 2021, 118: 107-117.

DOI

[52]
SAYYAD E, SRA M, HOLLERER T. Walking and Teleportation in Wide-Area Virtual Reality Experiences[C]// IEEE Xplore. 2020 IEEE International Symposium on Mixed and Augmented Reality. Porto de Galinhas: IEEE, 2020: 608-617.

[53]
LI H, THRASH T, HÖLSCHER C, et al. The Effect of Crowdedness on Human Wayfinding and Locomotion in a Multi-level Virtual Shopping Mall[J]. Journal of Environmental Psychology, 2019, 65: 101320

DOI

[54]
BOGACZ M, HESS S, CHOUDHURY C F, et al. Cycling in Virtual Reality: Modelling Behaviour in an Immersive Environment[J]. Transportation Letters, 2021, 13(8): 608-622.

DOI

[55]
JIA H. The Application and Impact of Artificial Intelligence in the Field of Animation as Well as the Existing Disadvantage[J]. Transactions on Computer Science and Intelligent Systems Research, 2024, 5: 660-671.

DOI

[56]
LI H, MAVROS P, KRUKAR J, et al. The Effect of Navigation Method and Visual Display on Distance Perception in a Large-Scale Virtual Building[J]. Cognitive Processing, 2021, 22(2): 239-259.

DOI

[57]
FECHNER G T. Elements of Psychophysics, 1860[J]. Readings in the History of Psychology, 2007: 206-213.

[58]
STEVENS S S. On the Psychophysical Law[J]. Psychological Review, 1957, 64(3): 153-181.

[59]
中野靖久. 心理物理測定法[J]. Vision, 1995, 7(1): 17-27.

NAKANO Y. Psychophysical Measurement Methods[J]. Vision, 1995, 7(1): 17-27.

[60]
BIOCCA F, DAVID P, WEST M. Continuous Response Measurement (CRM): A Computerized Tool for Research on the Cognitive Processing of Communication Messages[M]//LANG A. Measuring Psychological Responses to Media Messages. London: Routledge, 2014: 15-64.

[61]
OHNO R. Studies on Environmental Perception During Locomotion: A Review of Empirical Studies by the Ohno Laboratory[J]. Japan Architectural Review, 2018, 1(2): 194-206.

DOI

[62]
ASPINALL P, MAVROS P, COYNE R, et al. The Urban Brain: Analysing Outdoor Physical Activity with Mobile EEG[J]. British Journal of Sports Medicine, 2015, 49(4): 272-276.

DOI

[63]
LARSEN J T, BERNTSON G G, POEHLMANN K M, et al. The Psychophysiology of Emotion[M]//LEWIS M, HAVILAND-JONES J M, BARRETT L F, et al. Handbook of Emotions. New York: Guilford Press, 2008: 180-195.

[64]
KREIBIG S D. Autonomic Nervous System Activity in Emotion: A Review[J]. Biological Psychology, 2010, 84(3): 394-421.

DOI

[65]
MAUSS I B, ROBINSON M D. Measures of Emotion: A Review[J]. Cognition & Emotion, 2009, 23(2): 209-237.

[66]
OGAWA Y, OKI T, ZHAO C, et al. Evaluating the Subjective Perceptions of Streetscapes Using Street-View Images[J]. Landscape and Urban Planning, 2024, 247: 105073

DOI

文章导航

/