研究

基于正射影像数据的绿视率计量方法研究

  • 潘子暘 ,
  • 胡路瑶 ,
  • 杨凡 , * ,
  • 包志毅
展开
  • 浙江农林大学风景园林与建筑学院

潘子暘/男/浙江农林大学风景园林与建筑学院在读硕士研究生/研究方向为风景园林与植物应用、风景园林规划与设计

胡路瑶/女/浙江农林大学风景园林与建筑学院在读硕士研究生/研究方向为风景园林资源及其保护利用、风景园林规划与设计

杨凡/男/博士/浙江农林大学风景园林与建筑学院副教授、硕士生导师/研究方向为植物景观功能及设计应用

包志毅/男/博士/浙江农林大学风景园林与建筑学院教授、名誉院长、博士生导师/本刊编委/研究方向为植物景观规划设计、园林植物资源和产业化

Copy editor: 刘颖

收稿日期: 2025-06-04

  网络出版日期: 2026-03-12

基金资助

国家自然科学基金青年科学基金项目“基于AR技术的绿视率心理影响的量化研究——以居住区绿地为例”(31901362)

版权

版权所有 © 2026 风景园林编辑部

Research on Measurement Methodology of Green View Index Based on Orthophoto Data

  • PAN Ziyang ,
  • HU Luyao ,
  • YANG Fan , * ,
  • BAO Zhiyi
Expand
  • College of Landscape and Architecture, Zhejiang A & F University

PAN Ziyang is a master student in the College of Landscape and Architecture, Zhejiang A&F University. His research focuses on landscape architecture and plant application, and landscape planning and design

HU Luyao is a master student in the College of Landscape and Architecture, Zhejiang A&F University. Her research focuses on landscape resources and their conservation and utilization, and landscape planning and design

YANG Fan, Ph.D., is an associate professor and master supervisor in the College of Landscape and Architecture, Zhejiang A&F University. His research focuses on vegetation landscape function and design application

BAO Zhiyi, Ph.D., is a professor, honorary dean and doctoral supervisor in the College of Landscape and Architecture, Zhejiang A&F University, and an editorial board member of this journal. His research focuses on vegetation landscape planning and design, and vegetation resources and industrialization

Received date: 2025-06-04

  Online published: 2026-03-12

Copyright

Copyright © 2026 Landscape Architecture. All rights reserved.

摘要

【目的】

针对传统绿视率(green view index, GVI)计量方法效率低、覆盖范围受限的问题,本研究提出一种基于正射影像数据的新型绿视率计量方法,旨在构建半自动化框架,以提升城市绿地可视性评估的效率与适用范围。

【方法】

基于投影几何原理,构建绿视率与正射影像参数间的数学模型,利用正射影像提取植被空间分布与投影信息,构建三维模型以模拟绿视率场景,结合Python程序实现绿视率的自动识别与计算;最后通过与基于实地相机图像数据源的绿视率进行对比分析,验证该方法的可靠性。

【结果】

逻辑推导得出基于正射影像数据的绿视率计算式,从理论方面证明了方法的可行性,揭示了绿视率与正射影像中植物阴影的几何参数、太阳高度角、测点与周边绿化的空间距离等要素之间的定量映射关系。对275组实地与模拟绿视率数据的分析表明,两者呈现显著线性关系,模型验证了方法的可靠性。

【结论】

基于正射影像的绿视率计量方法能够有效表征城市绿地的三维可视性,为绿视率自动化计量提供了可扩展的技术路径,有助于推动城市绿化评价体系向精细化与标准化方向发展。

本文引用格式

潘子暘 , 胡路瑶 , 杨凡 , 包志毅 . 基于正射影像数据的绿视率计量方法研究[J]. 风景园林, 2026 , 33(2) : 115 -124 . DOI: 10.3724/j.fjyl.LA20250338

Abstract

[Objective]

Against the backdrop of accelerating global urbanization, urban green space systems critically enhance ecological quality, mitigate urban heat island effects and air pollution, and improve residents’ physical and mental well-being with substantial physiological and psychological benefits. Under “Beautiful China” strategy, precise urban greening assessment has emerged as a core challenge in landscape architecture. The green view index (GVI), a 3D perceptual metric quantifying visible green vegetation proportion, better fulfills human-centered evaluation needs than traditional 2D indicators like green coverage rate. However, existing methods relying on manual field surveys, LiDAR point clouds, or street view imagery suffer from inefficiency, high costs, viewpoint simulation biases, limited coverage (often restricted to road networks), and high costs, hindering large-scale urban applications. To address interdisciplinary challenges in urban green space evaluation, this study proposes a novel orthophoto-based GVI measurement method to establish a semi-automated framework, overcoming traditional data limitations and significantly enhancing urban green visibility assessment efficiency, spatial coverage, and practical applicability for diverse green space types including enclosed parks and campuses.

[Methods]

Two representative small-to-medium-scale, low-density green spaces—Ginkgo Square (YS) on a university campus and Jinxiu Park (JS) in Hangzhou Lin’an District—were strategically selected for validation, as their simplified vegetation structures minimized 3D occlusion complexities during this foundational study. Using stratified sampling reflecting pedestrian movement patterns, 112 observation points covered roads, recreational zones, and transitional areas. Based on projective geometry principles, a quantitative “shadow−facade−GVI” mapping model was developed: First, DJI Mavic 2 drones captured high-resolution orthophotos (100 m altitude, 10 mm focal length, 24 mm ground sample distance) during summer daylight hours, while 308 on-site GVI images were synchronously taken at 1.5 m eye height using standardized protocols (24 mm focal length, 16∶9 aspect ratio) to simulate human perspective. Pix4Dmapper software performed geometric corrections (WGS 84/UTM zone 50N), enabling manual extraction of vegetation shadow locations and pixel areas (m 1) from orthophotos. Vegetation facade area (S 2=S 1·tanθ S) and equivalent volumes (modeled as rotational ellipsoids) were derived using solar elevation angle (θ S), dynamically calculated from GPS coordinates, date, and local time. SketchUp then constructed simplified 3D scene models—representing trees as ellipsoid canopies (derived from crown shadows) combined with cylindrical trunks, extruding shrubs/structures from shadow footprints, and modeling dense woodlands as aggregated volumes. The theoretically derived formula I GV=(m 1×tanθ S/M) (f 1×p×H/f 2×c×L)2×100% quantified relationships between GVI and orthophoto-measured parameters. Python scripts automated GVI calculation by identifying green pixels, with pedestrian-route-weighted spatial integration generating overall site GVI. Model reliability was rigorously tested via Spearman’s rank correlation and linear regression analyses using 275 paired field-simulation samples.

[Results]

Mathematical derivation confirmed GVI’s direct calculability from orthophoto-extracted parameters—shadow area (m 1), solar elevation (θ S), camera specifications (focal length f 2, pixel size c), and observer-to-vegetation distance (L)—establishing a robust 2D-to-3D visual perception conversion mechanism. Statistical analysis of 275 validation datasets revealed a highly significant linear relationship between simulated and field-measured GVI: I GV, simulated = 0.82 × I GV, field + 0.13 (R 2=0.593, p < 0.001). Site-level GVI errors remained low (YS: 44.60% simulated vs. 41.17% field, Δ = 3.43%; JS: 38.19% vs. 32.63%, Δ = 5.56%), demonstrating method consistency. Scenario-based analysis further revealed: strongest correlation in open recreational areas (r=0.841), tightly clustered errors at road nodes, systematic overestimation in low-GVI scenarios (<40%) likely due to minor shadow detection artifacts, and higher variability in open-space viewpoints (IQR span: 0.1676) attributable to broader sightlines. These patterns collectively validate spatial heterogeneity as a key accuracy-influencing factor, informing future model refinements.

[Conclusion]

This study innovatively leverages widely available orthophotos to create a semi-automated GVI measurement framework, achieving standardized image analysis workflows, breaking street-view imagery’s road-network dependency and extending robust assessment to parks, campuses, and enclosed green spaces previously excluded from automated evaluation. With significantly reduced errors compared to traditional methods, this method establishes a scalable pathway for citywide green visual database construction, advancing urban greening evaluation towards operational precision and standardization. Current manual modeling steps are solely for validation, while parametric tools enable full automation potential. Integration with China’s National Territorial Survey Cloud Platform enables seamless geospatial data fusion, while Digital Twin compatibility supports dynamic visualization of green view service efficacy, serving the human-centered ecological governance goals in the "Beautiful China" strategy. Current limitations include terrain data absence-induced about 10% systematic errors in sloped terrain and dense canopy occlusion requiring aggregated estimation, which will be addressed through near-future enhancements: fusing open-source DEM data for terrain-aware occlusion modeling and embedding semantic segmentation-based deep learning algorithms for automated shadow segmentation and classification.

随着全球城市化进程的加速,城市环境面临着日益严峻的挑战。城市绿地系统在提升生态环境质量[1]、缓解城市热岛效应[2]和减少空气污染[3]等方面发挥着至关重要的作用,同时也深刻影响着居民的身心健康和生活质量[4]。2022年,党的二十大报告提出,建设美丽中国是全面建设社会主义现代化国家的重要目标,并强调良好生态环境是人民幸福生活的关键因素之一。在这一宏大背景下,如何更加精细地衡量和评估城市绿化水平,为针对性促进城市绿色基础设施建设提供数据与理论支撑,成为风景园林领域亟待解决的关键问题。
绿视率(green view index, GVI)指人的视野内绿色植被的比例[5]。相较于绿化覆盖率、绿地率等二维层面指标对于宏观环境效益的评估[6-8],绿视率从三维空间体系,即立体视野界面直观反映人体对环境的视觉感知,更为注重个人的感受与体验,是城市园林绿化精细化发展背景下更契合人本视角的绿化评价指标,其研究与在城市绿化评价指标体系中的应用也日益成熟与普遍[9]。高绿视率水平的环境不仅代表着较高的人居环境质量,还能够提升城市风貌的审美价值,对于居民的生理与心理健康也有积极效益[10-14]。因此,针对绿视率评估指标的研究,能为城市绿化的规划实践提供科学依据,具有重要的理论意义与实践价值。
当前,绿视率的研究方向主要涵盖城市绿化评价、人居环境生态和人体健康效应等方面[9],城市绿化评价的研究多聚焦于评价体系的探索与构建、绿视率自动化计算以及绿视率评价等方面[15-16]。然而,由于设备限制与学科交叉带来的挑战,相关研究的深入程度与实用性仍然不足,难以满足城市绿地评价体系的需求。近年来,绿视率计量方法逐步从人工目视估算转向深度学习算法驱动,如基于街景图像的语义分割[17-18]和卷积神经网络模型[19]。然而,现有数据采集方法仍受限于数据源的覆盖范围与采集效率:街景图像局限于城市街道[20-26],三维激光点云需高成本实地采集[27-29],且二者在模拟人视视角时存在偏差[30]。此外,传统方法依赖网格划分或手动像素提取,效率低且易受光照条件干扰[31-36]。近年,遥感三维建模技术为俯视数据向人视感知转换提供了关键支撑:基于数字高程模型(digital elevation model, DEM)与遥感影像的三维可视化技术已实现景观空间结构的真实还原[37-38];无人机遥感影像进一步验证了植被场景三维重建的可行性[39],而融合正射影像与数字表面模型(digital surface model, DSM)的深度学习框架显著提升了建筑边界提取精度[40]。然而,针对植被视觉感知的轻量化定量模型仍旧欠缺。基于此,本研究利用正射影像数据进行绿视率计量,旨在通过提高数据精确度,增强数据与人本视角的契合度,提升城市公共绿地绿视率测定效率,并降低对实地数据的依赖,从而为绿视率评价在绿地类型、时间与空间维度上的拓展应用,提供新的数据基础与方法支持。

1 研究范围与方法

1.1 视点选取与拍摄

研究区域为杭州市临安区内的高校校园绿地银杏广场(简称YS)与公园绿地锦绣公园(简称JS),所选场地的现状地形平坦,且均为具有代表性的中小尺度、低密度植被城市绿地。本研究选择此类场地主要基于其适配性与验证价值:绿视率作为人本视角的三维绿化感知指标,其精细化评估在边界明确、植被分布相对集中的中小尺度场景中,更易验证绿视率计量模型对人视视角的还原精度;当前自动化绿视率计量多依赖街景图像,本研究采用正射影像数据可有效突破其道路网络覆盖限制,有助于验证绿视率计量方法在公园、校园等典型非道路型封闭绿地中的适用性,寻求技术路径的普适性;相较于高密度区域复杂的遮挡与碎片化绿化,低密度场景能规避当前方法在自动化处理三维遮挡关系方面的技术挑战,确保本阶段结论的稳健性,符合聚焦基础框架验证的研究目标。因研究区域尺度较小,且为了更直观地反应人体对环境的视觉感知,观测选点以分层抽样法为基础[41],以道路形态、游憩区域面积、视线关系为主要指标来决定观测点的位置、数量及方向,最终选取了112个视点作为研究样点(图12)。
图1 银杏广场观测点位示意

Fig. 1 Location of field observation points in Ginkgo Square

图2 锦绣公园观测点位示意

Fig. 2 Location of field observation points in Jinxiu Park

本研究选取2023、2024年的夏季(6—8月)作为观测时段。此期间木本植物冠层充分发育且形态稳定,同时日照强烈、天气晴朗,正射影像成像的干扰最小,为基于投影几何的绿视率计量方法验证提供了理想的数据基础[41-44]。为进行对比研究,分别采用Cadrage软件模拟Sony A7s(full frame)相机、御-Mavic2大疆无人机的各项参数,用Da-Jiang Innovations (DJI)系列软件采集实地绿视率图像与正射影像。根据中华人民共和国国家卫生健康委员会2020年发布的中国成年人平均身高数据,以及《大阪府绿视率调查指南》的绿视率图像拍摄建议[43],实地绿视率图像选取1.5 m的人视高度进行拍摄,并固定24 mm焦距与16︰9纵横比,以模拟人眼视野范围。

1.2 数据处理

本研究基于WGS 84/UTM zone 50N坐标系,使用Pix4Dmapper软件对无人机航拍影像进行正射校正,通过地面控制点与影像匹配算法实现坐标标准化,确保影像几何精度满足后续建模需求。目前,正射影像向多视角绿视率图像的自动化转换算法尚未成熟,因此本研究采用人工方法,以Photoshop软件提取正射影像中的绿色植物及其他构筑物相对位置与阴影面积数据,结合经纬度、拍摄时间、飞行高度等参数推导其现实位置与等效体积,完成二维到三维模型的转换,最终生成模拟绿视率图像。

1.2.1 正射影像中的绿色植物及其他构筑物现实位置数据计算

为获取正射影像中的绿色植物及其他构筑物现实位置数据,需先计算正射影像的地面采样距离(ground sample distance, GSD)。将GSD的量符号记为D SG,计算式
$ D_{{\rm{SG}}}= p\times H/{f}_{1} 。 $
其中:p表示无人机影像像元大小,即正射图像中每个像素的尺寸;H表示拍摄距离,即无人机飞行高度;f 1表示实际焦距,即无人机相机镜头的焦距。
经DJI官网,查得御-Mavic2大疆无人机影像传感器像元大小为2.4 ${\text{μ}}{\rm{m}} $。采样时设置无人机飞行高度H=100 m,镜头焦距f 1=10 mm。经计算可知本研究获取的正射影像D SG=24 mm,即正射影像中1像素尺寸代表实际地面距离24 mm。由此可根据Photoshop软件中提取的绿色植物及其他构筑物相对位置数据,即像素坐标,结合D SG,推导出正射影像中的绿色植物及其他构筑物现实位置数据(图3)。
图3 正射影像阴影像素提取对象及范围示意(以JS为例)

Fig. 3 Schematic of the target region for shadow pixel extraction (using JS as an example)

1.2.2 正射影像中植物阴影实际面积计算

正射影像中植物阴影实际面积S 1的计算式
$ {s} = {{D} _{ {{\rm{SG}}}}} ^2{,} $
$ {S} _{ {1}} = {m} _{ {1}} {\times s。} $
式中,s表示单位像素代表的实际面积,m 1表示正射影像中的像素数量。由此可根据Photoshop软件中植物阴影像素数量,推导出正射影像中植物阴影实际面积。

1.2.3 植物立面面积计算

理想情况下,植物立面面积S 2与植物阴影面积S 1存在投影几何关系(图4)。因此,为获取植物立面面积,需先求得太阳高度角 ${\text{θ}}_{\rm{S}} $,计算式
图4 正射影像植物阴影-立面-绿视率转换机制及参数空间关系示意

Fig. 4 Schematic of the conversion mechanism and spatial parameter relationships from orthophoto vegetation shadows to vertical projection and green view index

$ {\text{δ}}_{{\rm{T}}}= \frac{{{\text{Λ}} }-120{^{\text{°}}}}{15^{\text{°}}} \text{,} $
$ {S} _{ \mathrm{T}} = {t} {\rm{+}} {\delta } _{ \mathrm{T}} {\text{,}} $
$ {h} =15\times ( {S} _{ \mathrm{T}} {-12)\text{,}} $
$ {\delta } {=-23.44^{\text{°}}\times {\rm{cos}}[360/365\times }( {N} {{\rm{+}}10)]\text{,}} $
$ \mathrm{或} \ {\delta } {=-23.44^{\text{°}}\times {\rm{cos}}[2\text{π} /365\times (} {N} {{\rm{+}}10)]\text{,}} $
$ {{\text{θ}} } _{ \mathrm{S}} \mathrm{=arcsin(cos} {h} {\times {\rm{cos}}} {\delta } {\times {\rm{cos}}} {{\text{Φ}} } \mathrm{+sin} {\delta } {\times {\rm{sin}}} {{\text{Φ}} } {)。} $
式中: ${\text{δ}}_{{\rm{T}}} $表示时差; ${\text{Λ}} $表示当地经度;S T表示真太阳时,即地方时;t 表示北京时间;h 表示时角; ${\text{δ}} $表示赤纬;N 表示积日; ${{\text{θ}} } _{ \mathrm{S}} $表示太阳高度角; ${\text{Φ}}$表示当地纬度;式(7-1)中,余弦中角度的单位为角度;式(7-2)中,余弦中角度的单位为弧度。
理想条件下,单株植物视作旋转椭球体,即⊙O为正圆,直径EF=AC,则植物任一立面面积相等,S MANC=S MENF。又因为S M''E''N''F''/S MENF=M''O'/MO'=1/tan ${{\text{θ}} } _{ \mathrm{S}} $,所以S MANC=S M''E''N''F''×tan ${{\text{θ}} } _{ \mathrm{S}} $,即S 2=S 1×tan ${{\text{θ}} } _{ \mathrm{S}} $图4)。

1.2.4 正射影像中的绿色植物等效体积数据计算

理想条件下,将单株植物视作旋转椭球体,其中,乔木树干部分被单独建模为圆柱体,但其体积不计入后续的绿色植物等效体积数据。考虑到树干在绿视率计算中所占的视觉比例较小,且场地内乔木胸径差异不大,为简化建模,本研究基于场地乔木的平均胸径,将所有圆柱体(树干)直径统一设定为200 mm。为获取正射影像中的绿色植物等效体积数据,需先求得该旋转椭球体的长轴MN(即2aa为椭球体半长轴)和短轴AC(即2bb为椭球体半短轴)的长度。长轴2a与短轴2b符合表达式
$ {S} {=\text{π} } {ab} {。} $
其中,S为椭球体最大横截面,即植物立面面积S 2
设MN=l 1,AC=l 2,NO'=l 3,M''N''=l 4,A'C'=l 5,N''O'=l 6。根据Photoshop软件提取数据与式(1)中的像素尺度,易知l 4l 5l 6长度。根据式(2~6)中投影关系,易知l 1=l 4×tan ${{\text{θ}} } _{ \mathrm{S}} $l 2=l 5l 3=l 6× ${\rm{tan}}{{\text{θ}} } _{ \mathrm{S}} $。因此2a/2b=l 4× ${\rm{tan}}{{\text{θ}} } _{ \mathrm{S}} $/l 5,结合式(9)可知2a= $2\sqrt{{(l_4 \text{×} {{\rm{tan}}{{\text{θ}}}_{ \mathrm{S}}}}\text{×} S_2/\text{π}l_5)}$,2b= $2\sqrt{(l_5\text{×} S_2/\text{π}l_4\text{×} {\rm{tan}}{{\text{θ}} } _{ \mathrm{S}}\text{×} S_2 )}$。综上,可计算得到全部正射影像单株乔木等效体积数据(表1)。
表1 正射影像乔木测量数据(部分)

Tab. 1 Tree measurement data from orthophotos (partial)

序号 x坐标/
像素
y坐标/
像素
旋转椭球体 圆柱体
底部z坐标/像素 短轴/mm 长轴/mm 底部z坐标/像素 直径/mm 高度/mm
JS0589 11 406 4 613 200.00 5 120 8 520 0 200 4 800
JS0590 11 325 4 682 37.50 1 910 3 340 0 200 900
JS0591 7 005 2 576 116.67 4 400 8 380 0 200 2 800
JS0592 7 284 1 849 25.00 3 780 3 040 0 200 600
JS0593 7 435 2 208 25.00 3 780 3 040 0 200 600
JS0594 7 747 2 664 37.50 3 650 1 600 0 200 900

1.2.5 绿色植物绿视像素数据计算

基于投影几何原理,植物立面面积S 2与相机采集影像中植物所占像素数m 2的映射关系可通过相机参数量化表征。设相机镜头焦距为f 2、物距(相机与植被距离)为L、相机影像像元尺寸为c,将空间采样距离(spatial sample distance, SSD)的量符号记为D SS,则SSD计算式
$ D_{{\rm{SS}}}= (c\times L)/{f}_{2} \text{,} $
单像素实际对应面积s计算式同式(1),
$ s=D_{{\rm{SS}}}^{2}= {(c\times L/{f}_{2})}^{2} \text{,} $
植被立面面积S 2对应的像素数量m 2计算式
$ m_{2}= {S}_{2}/s 。 $
将像素数量m 2代入绿视率计算式,可得:
$ I_{{\rm{GV}}}= {m}_{2}/M\times 100\text{%}= ({S}_{2}/M)\times {({f}_{2}/c\times L)}^{2}\times 100\text{%}。 $
式中,M为相机采集图像总像素数。至此,已获取全部绿视率计算所需数据,可据此直接计算绿视率数值(图4)。

1.3 模型构建

本研究中,绿视率模拟场地模型采用SketchUp 2018软件进行构建。首先,依据正射影像数据确定研究场地的空间范围,并将地面部分按绿地、道路与硬质休憩区域等类别进行划分。然后,根据影像中的地上部分特征,分别构建单株乔木、灌木、构筑物及乔木群落等理想化模型,依据其自然属性、人工属性及可识别程度进行分类。
单株乔木模型由2部分组成:上部为旋转椭球体,代表乔木树冠;下部为圆柱体,代表乔木树干。首先,根据正射影像提供的坐标数据确定模型的位置。其次,分析正射影像中乔木树冠阴影面积与树冠阴影的高度与宽度之比、树干阴影的长度等特征,推导出旋转椭球体的长轴与短轴长度,以及圆柱体的高度,进而构建单株乔木模型。最后,根据乔木的类型对树冠和树干2部分进行着色处理。
本研究将植物简化为旋转椭球体,是基于正射影像阴影的几何特征与计算效率之间权衡的结果。为验证简化模型的几何可靠性,本研究选取典型节点进行阴影对比分析(图5)。可见椭球体简化模型虽未还原冠层细节,但其投影轮廓与真实阴影在主体形态、边界趋势上基本吻合,表明该简化方式能有效支撑绿视率的核心参数反演。
图5 植被阴影-模型投影对比验证示意

Fig. 5 Comparative validation of vegetation shadows and model projections

灌木与构筑物模型的构建则依据正射影像数据确定其空间位置与范围,并通过阴影高度与投影关系推算模型的高度。利用SketchUp 2018软件中的“推拉”工具,直接构建相应模型,并根据要素类型进行着色处理。
乔木群落模型适用于正射影像中难以识别单株乔木的密集林区区域。该区域的空间位置与分布范围可以通过正射影像数据确定,因此将其作为一个整体构建。首先,依据正射影像数据确定模型的空间范围,并根据平均阴影高度与投影关系推算树冠和树干的高度。随后,利用SketchUp 2018软件的“推拉”工具,直接构建代表树冠与树干的2层模型。上层代表密集林区的树冠,下层代表树干部分,最后进行着色处理,得到完整模型(图67)。
图6 银杏广场3D模型示意

Fig. 6 3D model schematic of Ginkgo Square

图7 锦绣公园3D模型示意

1.4 模拟绿视率图像采集

为获得与实地观测视点相对应的模拟绿视率图像,本研究在SketchUp 2018软件构建的3D模型中,首先根据正射影像数据确定模拟视点的空间坐标及方位。随后,利用软件中的高级镜头工具创建物理相机,并设置相机的属性,具体为:相机高度1 500 mm,倾斜角度0°,翻滚角度0°,焦距24 mm,纵横比16︰9。最后,导出模拟场景的绿视率图像。

1.5 绿视率计算

本研究使用基于Python的图像处理方法计算实地与模拟图像中的绿视率。首先,使用的程序通过Python的PIL库读取并转换图像为RGB格式。然后,为使图像识别中的绿色植物更符合人体视觉特性,程序从RGB色彩空间转换为HSL模型,并根据实地拍摄的图像,调整色调与明度的取值范围,以更好地反映自然环境中的绿色空间[45]。对于非绿色像素,进行去饱和处理。随后,计算绿色像素占图像总像素的比例,得出绿视率数据并导出。Python程序已实现绿视率像素的自动识别,后续可通过应用程序编程接口(application programming interface, API)与地理信息系统(geographic information system, GIS)平台集成,减少人工干预。
综合植物阴影面积转换计算式(1~3)、阴影-立面面积转换推导计算式(4~8)以及立面面积-绿视像素转换计算式(10~13),可得绿视率计算式
$ \begin{aligned} I_{{\rm{GV}}}= & {m}_{1}\times {\tan {\text{θ}} }_{\mathrm{S}}/M\times\\& [\left( {f}_{2}\times p\times H)/({f}_{1}\times c\times L\right) ]{^{2}}\times 100\mathrm{\% } \text{,}\end{aligned} $
$ I_{{\rm{GV}}\text{,}t}= \sum \nolimits_{i=1}^{n}{I}_{\text{GV},i} 。 $
式中,I GV,i为第i个阴影单体所对应的部分绿视率,n为观测方位下可视的阴影单体数量,I GV,t为该观测方位的绿视率。根据该计算式,可基于阴影面积反演的3D模型参数推导求得模拟绿视率,实现正射影像数据到视觉感知指标的定量映射。
本研究以分层抽样法为基础,以道路形态和游憩区域面积作为主要筛选标准,在银杏广场和锦绣公园分别确定了39个和73个观测点,共计112个。每个观测点的图像拍摄以视线关系为主导,选取了1~4个不同的拍摄方向。在此基础上,银杏广场采集了96张图像,锦绣公园采集了212张图像,共获得308张实地绿视率图像。此外,模型中还生成了与实地图像数量等量的模拟绿视率图像,以进行对比与分析(图8)。
图8 GVI图像提取结果

Fig. 8 Extraction results of green view index (GVI) images

为了更加直观地反映人体对环境的视觉感知,本研究采用了以行人游线为导向的绿视率计算方法。具体而言,对于道路绿视率,将两两观测点之间的道路视为基本单位,采用端点的平均绿视率作为该段道路的绿视率,并根据该道路在场地游线中所占的长度比例赋予相应权重。在游憩区域的绿视率计算中,则通过计算区域内部各观测点的平均绿视率来代表该区域的绿视率,并根据区域周长在场地游线中的占比来赋予相应的权重。最终,所有计算得到的绿视率值通过加权求和处理,得出场地的总体绿视率。

2 结果与分析

2.1 正射影像模拟绿视率模型

为验证模型模拟绿视率的可靠性,本研究通过实地拍摄影像计算实地绿视率,并基于SketchUp 2018构建模拟绿视率模型。通过斯皮尔曼等级相关性分析(表2),对275组有效样本进行检验[46],实地与模拟绿视率显著正相关(r=0.751,p<0.001)。设实地绿视率为x,模拟绿视率为y,进一步回归分析表明(图9表3),两者线性关系为:y=0.82x+0.13(R 2=0.593,p<0.001),模型预测精度较高。应用该模型计算场地总体绿视率,结果显示银杏广场模拟值(44.60%)与实地值(41.17%)差异为3.43%,锦绣公园模拟值(38.19%)与实地值(32.63%)差异为5.56%。2个场地的误差均小于6%,表明模型具有较高的整体计算精度和可靠性。
表2 实地绿视率与模拟绿视率的相关性分析

Tab. 2 Field and simulated GVI correlation analysis

变量 模拟绿视率 实地绿视率
  注:**表示在0.01级别(双尾),相关性显著。
模拟绿视率 1.000 0.751**
实地绿视率 0.751** 1.000
图9 实地GVI与模拟GVI的线性回归结果

Fig. 9 Linear regression of field GVI and simulated GVI

表3 线性回归模型结果

Tab. 3 Linear regression model results

模型项 B SE β t p
  注:B为非标准化系数,SE为标准误差,β为标准化系数,t为t检验值,p为显著性水平,R²为决定系数,F为F检验值。
常量 0.128 0.016 8.191 <0.001
实地绿视率 0.817 0.041 0.770 19.958 <0.001
R 2 0.593
F 398.325
p <0.001

2.2 基于场景特征的正射影像模拟绿视率模型精度分析

本研究基于空间功能区位、实地绿视率水平、空间布局及视觉视角对各观测点进行分类,进而对比分析了模拟绿视率与实地绿视率之间的差值(即模拟绿视率值减实地绿视率值)。斯皮尔曼相关性分析表明,所有类别下模拟与实地绿视率均显著相关(p<0.001),但模型精度因场景特征影响存在分化。

2.2.1 空间功能区位

游憩场地相关性最高(r=0.841),差值分布均等但局部波动显著;边界道路(r=0.743)与内部道路(r=0.725)差值分布集中(四分位距分别为0.01210.15060.0066~0.1216),但整体正向偏移需通过常量校正优化(图10表4)。表明模型在交通廊道中表现稳健,而在游憩场地的特定场景中仍受制约。
图10 基于空间功能分异的绿视率差值分布特征

Fig. 10 Distribution of GVI difference across spatial functional differentiations

表4 基于空间功能分异的实地绿视率与模拟绿视率相关性分析

Tab. 4 Field and simulated GVI correlation analysis across spatial functional zones

场景特征 变量 模拟绿视率 实地绿视率
  注:**表示在0.01级别(双尾),相关性显著。
边界道路 模拟绿视率   1.000   0.743**
实地绿视率 0.743** 1.000
内部道路 模拟绿视率 1.000 0.725**
实地绿视率 0.725** 1.000
游憩场地 模拟绿视率 1.000 0.841**
实地绿视率 0.841** 1.000

2.2.2 实地绿视率水平

低绿视率场景(GVI<40%)拟合优度较高(r=0.686),但存在系统性高估(四分位距为0.0179~0.1514);高绿视率场景(GVI≥40%)误差离散度更低(四分位距跨度为0.1243),表明复杂植被覆盖下的误差相对可控(图11表5)。植被空间异质性显著影响模型精度,低绿视率场景更易受非植物绿色、非典型植被、光照或材质反射等局部干扰因子影响,高绿视率场景则因冠层分层遮蔽产生偏差。
图11 基于实地绿视率水平的绿视率差值分布特征

Fig. 11 Distribution of GVI difference across field GVI levels

表5 基于实地绿视率水平的实地绿视率与模拟绿视率相关性分析

Tab. 5 Field and simulated GVI correlation analysis stratified by field GVI levels

场景特征 变量 模拟绿视率 实地绿视率
  注:**表示在0.01级别(双尾),相关性显著。
低绿视率 模拟绿视率 1.000 0.686**
实地绿视率 0.686** 1.000
高绿视率 模拟绿视率 1.000 0.464**
实地绿视率 0.464** 1.000

2.2.3 空间布局与视觉视角

本研究采用分层抽样法将绿视率视点分为路中视点、三岔路口视点、十字路口视点和开放空间视点4种类型(图12)。开放空间视点模拟值离散度高(四分位距跨度为0.1676),但整体一致性较好(中位线0.0075);道路节点视点绿视率差值分布集中(路中视点与三岔路口视点四分位距分别为0.0077~0.13070.0182~0.1503),十字路口绿视率差值分布介于开放空间与道路节点之间(图13表6)。模型在均质化空间(如道路节点)中表现稳健,而开放空间因视觉开放性高而需进一步优化。同时模拟精度分布也印证了视觉开放性梯度对参数捕捉的影响机制,揭示了空间异质性程度与视觉开放性需作为模型优化中的协同考量因素。
图12 基于空间布局与视觉视角的GVI视点分类

Fig. 12 Classification of GVI viewpoints incorporating spatial layout and visual perspectives

图13 基于空间布局以及视觉视角的绿视率差值分布特征

Fig. 13 Distribution of GVI difference across spatial layout and visual perspective

表6 基于空间布局与视觉视角的实地绿视率与模拟绿视率相关性分析

Tab. 6 Field and simulated GVI correlation analysis incorporating spatial layout and visual perspectives

场景特征 变量 模拟绿视率 实地绿视率
  注:**表示在0.01级别(双尾),相关性显著。
路中视点 模拟绿视率 1.000 0.726**
实地绿视率 0.726** 1.000
三岔路口视点 模拟绿视率 1.000 0.755**
实地绿视率 0.755** 1.000
十字路口视点 模拟绿视率 1.000 0.844**
实地绿视率 0.844** 1.000
开放空间视点 模拟绿视率 1.000 0.841**
实地绿视率 0.841** 1.000

3 讨论及结论

相较于传统依赖实地勘测的方法,本研究提出的正射影像绿视率计量方法,能通过标准化影像解析流程实现包含绿视率采集环节的绿视率自动化计量。该方法可直接利用无人机或卫星正射影像进行植被视觉占比分析,单次作业即可完成平方千米级区域的绿视率提取。这种自动化技术路径不仅规避了人工实地采集绿视率的复杂性与主观性,更通过二维影像的平面投影关系实现了人眼视角的等效模拟,为城市尺度的绿视率普查提供了可复制的技术框架。
与以往的绿视率计量自动化研究相比,本研究以正射影像作为数据源,依托透视与投影关系,构建了绿视率模拟数学模型,证明了绿视率数据采集环节自动化的可行性。该方法在数据采集阶段有效减少了实地勘测的成本与人力消耗,且能够降低人为干预与误差的影响,确保数据采集的标准化。此外,正射影像方法还提高了数据获取的效率与覆盖范围,在取得影像元数据的基础上,能够通过无人机或卫星等遥感手段获取绿视率数据,从而为建立城市大范围、长期的绿视率变化数据集提供了可能。结合其他遥感数据,能够更好地跟踪城市绿化的发展趋势,有助于绿视率与城市环境之间的多维度、全方位评估。
当前技术的局限性主要源于影像源特性,模型误差主要源于地形简化、场地外可视区域数据缺失、冠层几何假设及光照条件差异。地形数据缺失导致约10%的系统性偏差,密集林区因冠层遮蔽需采用整体估算策略,以及光照阴影效应引起的局部波动。本研究未整合三维地形数据与植物间遮挡效应,可能导致地形起伏区域的绿视率估算误差。后续研究可通过融合数字高程模型与多视角影像数据,优化视线遮挡关系的动态模拟。
本研究通过理论推导与实证验证,得到3点主要结论。
1)提出了一种可验证的绿视率计量新方法:建立了基于正射影像阴影参数与投影几何的绿视率计量模型,理论推导与实验数据(275组样本)均证实了模型的可靠性(模拟与实地GVI线性回归R 2=0.593,场地整体误差小于6%)。
2)实现了数据源的突破:打破了传统方法对街景影像(局限于道路网络)的依赖,首次将公园、校园等封闭绿地纳入自动化评估范围,拓展了绿视率自动化评价的适用场景。
3)搭建了可扩展的半自动化框架:验证了从正射影像解析到绿视率计算全链条的可行性,为未来开发全自动化工具及与地理信息系统(如国土调查云平台)集成提供了明确的技术依据。
基于当前成果与局限,未来研究将深化2个技术方向。一方面,本研究的绿视率计量方法可与国土调查云平台等地理信息系统对接,构建绿视率智能计算模块,实现城市绿视率指标的实时监测与可视化呈现;同时,融合数字表面模型与多视影像等多源遥感数据,建立动态可视性分析框架,支撑数字孪生城市的绿化视觉体验量化评估。另一方面,可结合语义分割等深度学习算法,优化高密度植被区域的复杂遮挡建模,突破街景与正射影像的多源数据协同瓶颈,系统性提升视觉表征精度与泛化能力。通过构建城市感知模拟技术体系,推动绿视率从研究指标向城市规划常规工具的转化,为人本视角的绿地生态服务效能动态评估提供量化支撑。

图表来源(Sources of Figures and Tables):

图1235所使用的正射影像底图,以及图48中所展示的实地场景照片,均为本研究团队于2023与2024年夏季,通过御-Mavic2大疆无人机航拍及实地相机拍摄所获取的第一手资料;其余图表由作者绘制。

文章亮点

1、创新性地利用正射影像替代传统数据源,构建基于投影几何原理的绿视率计量模型,突破街景数据源局限于道路网络的瓶颈,提升数据获取效率与覆盖范围。

2、系统揭示了绿视率与正射影像中各要素的定量映射关系,并基于275组实地-模拟绿视率数据的对比验证,证实计量方法可靠性,为绿视率自动化计量提供理论基础与实证支撑。

3、利用易获取的无人机与卫星的正射影像,显著降低了对实地数据的依赖与成本,为构建大范围绿地视觉数据库提供支撑,助力美丽中国建设与人本绿化评价。

[1]
XIAO Y, GAN S, HUANG M D, et al. The Evaluation of Urban Green Space Landscape Changes and Ecosystem Services in Beijing[J]. Journal of Resources and Ecology, 2022, 13 (5): 897-911.

DOI

[2]
LI G D, CAO Y, FANG C L, et al. Global Urban Greening and Its Implication for Urban Heat Mitigation[J]. Proceedings of the National Academy of Sciences of the United States of America, 2025, 122 (4): e2417179122

[3]
LI K, MAO Y P, LI Y J, et al. Exploring the Pathways of Urban Green Space Exposure on Respiratory Health: An Empirical Study in Nanjing, China[J]. Urban Forestry & Urban Greening, 2024, 101: 128536

DOI

[4]
ENGEMANN K, PEDERSEN C B, ARGE L, et al. Residential Green Space in Childhood Is Associated with Lower Risk of Psychiatric Disorders from Adolescence into Adulthood[J]. PNAS, 2019, 116 (11): 5188-5193.

DOI

[5]
青木阳二.視野の広がリと緑量感の関連[J].造园杂志, 198, 51(1): 1-10.

AOKI Y. The Relationship Between the Expansion of Field of View and the Perception of Green Quantity[J]. Journal of the Japanese Institute of Landscape Architecture, 1987, 51(1): 1-10.

[6]
杨纯, 蒋恬田, 李欣, 等. 绿化覆盖率对城市绿地破碎度与地表温度的关系的影响[J]. 生态环境学报, 2024, 33 (2): 242-248.

DOI

YANG C, JIANG T T, LI X, et al. Effects of Percent Green Cover on the Relationship Between Greenspace Fragmentation and Land Surface Temperature: A Case Study in Changsha, China[J]. Ecology and Environmental Sciences, 2024, 33 (2): 242-248.

DOI

[7]
孙淑萍, 古润泽, 张晶. 北京城区不同绿化覆盖率和绿地类型与空气中可吸入颗粒物(PM10)[J]. 中国园林, 2004, 20 (3): 77-79.

DOI

SUN S P, GU R Z, ZHANG J. Inhalable Particulate Matter (PM10) Related to Different Green Cover Percentage and Greenbelt Types in Beijing[J]. Chinese Landscape Architecture, 2004, 20 (3): 77-79.

DOI

[8]
DEĞERMENCI A S, ZENGIN H. Determining the Effect of Green Space Ratio and Urbanization on the Land Surface Temperature, a Case Study in the Istanbul Metropolitan[J]. Contemporary Problems of Ecology, 2024, 17 (5): 743-760.

DOI

[9]
朱怀真, 杨凡, 南歆格, 等. 国内外绿视率研究进展[J]. 中国城市林业, 2022, 20 (3): 140-146.

DOI

ZHU H Z, YANG F, NAN X G, et al. Research Progress in Visible Green Index[J]. Journal of Chinese Urban Forestry, 2022, 20 (3): 140-146.

DOI

[10]
NIE W, JIA J X, WANG M M, et al. Research on the Impact of Panoramic Green View Index of Virtual Reality Environments on Individuals’ Pleasure Level Based on EEG Experiment[J]. Landscape Architecture Frontiers, 2022, 10 (2): 36

DOI

[11]
MAAS J, VERHEIJ R A, GROENEWEGEN P P, et al. Green Space, Urbanity, and Health: How Strong Is the Relation?[J]. Journal of Epidemiology and Community Health, 2006, 60 (7): 587-592.

DOI

[12]
GRAHN P, STIGSDOTTER U A. Landscape Planning and Stress[J]. Urban Forestry & Urban Greening, 2003, 2 (1): 1-18.

DOI

[13]
DZHAMBOV A M, MARKEVYCH I, TILOV B G, et al. Residential Greenspace Might Modify the Effect of Road Traffic Noise Exposure on General Mental Health in Students[J]. Urban Forestry & Urban Greening, 2018, 34: 233-239.

DOI

[14]
LIAO J Q, ZHANG B, XIA W, et al. Residential Exposure to Green Space and Early Childhood Neurodevelopment[J]. Environment International, 2019, 128: 70-76.

DOI

[15]
折原夏志. 緑景観の評価に関する研究: 良好な景観形成に向けた 緑の評価手法に関する考察[J]. 調査研究期報, 2006 (3): 4-13.

ORIHARA N. A Study on the Evaluation of Green Landscapes: An Examination of Green Assessment Methods for Forming Good Landscapes[J]. Research Report, 2006 (3): 4-13.

[16]
陈明, 戴菲, 李文佩, 等. 基于绿视率的城市绿化评估: 以武汉江汉区为例[J]. 中国城市林业, 2019, 17 (3): 1-6.

CHEN M, DAI F, LI W P, et al. A Study of Urban Greening Assessment Based on Visible Green Index: A Case Study of Jianghan District in Wuhan[J]. Journal of Chinese Urban Forestry, 2019, 17 (3): 1-6.

[17]
张驰.基于DeepLab V3+框架的上海静安区街道绿视率评价及驱动因素研究[D].上海: 上海应用技术大学, 2022.

ZHANG C. Evaluation of Street Green View Index and Driving Factors in Jing’an District, Shanghai Based on DeepLab V3+ Framework[D]. Shanghai: Shanghai Institute of Technology, 2022.

[18]
张超群.基于街景图片数据的长春市中心城区生活街道空间品质评价研究[D].长春: 吉林农业大学, 2022.

ZHANG C Q. Evaluation of Residential Street Space Quality in Central Changchun Based on Street View Image Data[D]. Changchun: Jilin Agricultural University, 2022.

[19]
张炜, 周昱杏, 杨梦琪. 全景绿视率自动识别和计算研究[J]. 风景园林, 2019, 26 (10): 89-94.

DOI

ZHANG W, ZHOU Y X, YANG M Q. Research on Automatic Identification and Measurement of Panoramic Visible Green Index[J]. Landscape Architecture, 2019, 26 (10): 89-94.

DOI

[20]
刘晓天, 孙冰, 廖超, 等. 基于街景图像的城市街道绿视率计量方法比较分析[J]. 江西农业大学学报, 2020, 42 (5): 1022-1031.

DOI

LIU X T, SUN B, LIAO C, et al. Comparison of Computational Methods for Urban Street Green View Indexes Based on Street View Images[J]. Acta Agriculturae Universitatis Jiangxiensis, 2020, 42 (5): 1022-1031.

DOI

[21]
徐磊青, 江文津, 陈筝. 公共空间安全感研究: 以上海城市街景感知为例[J]. 风景园林, 2018, 25 (7): 23-29.

XU L Q, JIANG W J, CHEN Z. Study on Perceived Safety in Public Spaces: Take Perception of Stree View in Shanghai as an Example[J]. Landscape Architecture, 2018, 25 (7): 23-29.

[22]
BERLAND A, LANGE D A. Google Street View Shows Promise for Virtual Street Tree Surveys[J]. Urban Forestry & Urban Greening, 2017, 21: 11-15.

DOI

[23]
GONG F Y, ZENG Z C, NG E, et al. Spatiotemporal Patterns of Street-Level Solar Radiation Estimated Using Google Street View in a High-Density Urban Environment[J]. Building and Environment, 2019, 148: 547-566.

DOI

[24]
SHEN Q M, ZENG W, YE Y, et al. StreetVizor: Visual Exploration of Human-Scale Urban Forms Based on Street Views[J]. IEEE Transactions on Visualization and Computer Graphics, 2018, 24 (1): 1004-1013.

DOI

[25]
CAO R, ZHU J S, TU W, et al. Integrating Aerial and Street View Images for Urban Land Use Classification[J]. Remote Sensing, 2018, 10 (10): 1553

DOI

[26]
LI X J, ZHANG C R, LI W D, et al. Assessing Street-Level Urban Greenery Using Google Street View and a Modified Green View Index[J]. Urban Forestry & Urban Greening, 2015, 14 (3): 675-685.

DOI

[27]
成实, 张冠亭, 张潇涵, 等. 基于LiDAR点云的景观空间“绿视率”量化分析方法研究[J]. 中国园林, 2022, 38 (2): 12-19.

DOI

CHENG S, ZHANG G T, ZHANG X H, et al. Research on the Quantitative Analysis Method of “Green Viewing Ratio” of Landscape Spatial Form Based on Three-Dimensional LiDAR Point Cloud Data[J]. Chinese Landscape Architecture, 2022, 38 (2): 12-19.

DOI

[28]
贺鹏, 易正晖, 王佳. 基于地面激光扫描点云数据测定树木三维绿量[J]. 测绘通报, 2013 (S2): 104-107.

HE P, YI Z H, WANG J. Measurement of Tridimensional Green Biomass of Trees Based on Terrestrial Laser Scanners[J]. Bulletin of Surveying and Mapping, 2013 (S2): 104-107.

[29]
李凤霞, 石辉, 撒利伟, 等. 微分法三维激光点云数据单木三维绿量测定研究[J]. 西安建筑科技大学学报(自然科学版), 2017, 49 (4): 530-535.

DOI

LI F X, SHI H, SA L W, et al. 3D Green Volume Measurement of Single Tree Using 3D Laser Point Cloud Data and Differential Method[J]. Journal of Xi’an University of Architecture & Technology (Natural Science Edition), 2017, 49 (4): 530-535.

DOI

[30]
苏志恒.基于绿视率、天空率和建筑率的道路景观信息适应性研究[D].西安: 长安大学, 2024.

SU Z H. Research on Adaptability of Road Landscape Information Based on Green View Index, Sky View Index and Building View Index[D]. Xi’an: Chang’an University, 2024.

[31]
何云玲, 白振洋, 张林艳. 城市生态环境绿色度量值的分析研究: 以昆明城区道路植物为例[J]. 安徽农业科学, 2013, 41 (2): 686-689.

DOI

HE Y L, BAI Z Y, ZHANG L Y. Research on the Related Indicators of Green Quantity of Urban Eco-environment[J]. Journal of Anhui Agricultural Sciences, 2013, 41 (2): 686-689.

DOI

[32]
周垠, 龙瀛. 街道步行指数的大规模评价: 方法改进及其成都应用[J]. 上海城市规划, 2017 (3): 88-93.

DOI

ZHOU Y, LONG Y. Large-Scale Evaluation for Street Walkability: Methodological Improvements and the Empirical Application in Chengdu[J]. Shanghai Urban Planning Review, 2017 (3): 88-93.

DOI

[33]
李杰.城市休闲空间绿视率及其景观评价[D].上海: 上海师范大学, 2017.

LI J. Evaluation of Green Appearance Percentage in Recreational Open Space[D]. Shanghai: Shanghai Normal University, 2017.

[34]
梁金洁.基于街景图像的北京市五环内绿视率分析研究[D].北京: 北京林业大学, 2019.

LIANG J J. Analysis of Green Vision Rate in Beijing Five Rings Based on Street View Image[D]. Beijing: Beijing Forestry University, 2019.

[35]
GOU A P, ZHANG C, WANG J B. Study on the Identification and Dynamics of Green Vision Rate in Jing’an District, Shanghai Based on Deeplab V3+ model[J]. Earth Science Informatics, 2022, 15 (1): 163-181.

[36]
KUMAKOSHI Y, CHAN S Y, KOIZUMI H, et al. Standardized Green View Index and Quantification of Different Metrics of Urban Green Vegetation[J]. Sustainability, 2020, 12 (18): 7434

DOI

[37]
王建强, 钟春惺, 江丽钧, 等. 基于多视航空影像的城市三维建模方法[J]. 测绘科学, 2014, 39 (3): 70-74.

WANG J Q, ZHONG C X, JIANG L J, et al. 3D City Modeling Construction Based on Multi-view Aerial Images[J]. Science of Surveying and Mapping, 2014, 39 (3): 70-74.

[38]
陈飞, 吴英男. 基于数字高程模型和遥感影像的三维可视化[J]. 测绘科学, 2009, 34 (S2): 127-129.

CHEN F, WU Y N. The 3D Visualization Based on Digital Elevation and Remote Sensing Image[J]. Science of Surveying and Mapping, 2009, 34 (S2): 127-129.

[39]
彭培胜, 王懿祥, 吴建强, 等. 基于无人机遥感影像的三维森林景观可视化[J]. 东北林业大学学报, 2013, 41 (6): 61-65.

DOI

PENG P S, WANG Y X, WU J Q, et al. Three-Dimensional Visualization of Forest Landscape Based on UAV Remote Sensing Images[J]. Journal of Northeast Forestry University, 2013, 41 (6): 61-65.

DOI

[40]
WANG D J, JIANG Q M, LIU J Z. Deep-Learning-Based Automated Building Information Modeling Reconstruction Using Orthophotos with Digital Surface Models[J]. Buildings, 2024, 14 (3): 808

DOI

[41]
肖希, 韦怡凯, 李敏. 日本城市绿视率计量方法与评价应用[J]. 国际城市规划, 2018, 33 (2): 98-103.

DOI

XIAO X, WEI Y K, LI M. The Method of Measurement and Applications of Visible Green Index in Japan[J]. Urban Planning International, 2018, 33 (2): 98-103.

DOI

[42]
中华人民共和国住房和城乡建设部办公厅.住房城乡建设部办公厅关于国家标准《绿色建筑评价标准》公开征求意见的通知[EB/OL].(2018-9-21)[2023-10-20].https://www.mohurd.gov.cn/gongkai/fdzdgknr/zqyj/201809/20180921_237690.html.

Ministry of Housing and Urban-Rural Development of the People’s Republic of China. Notice on soliciting public comments for the national standard Assessment Standard for Green Building[EB/OL]. (2018-09-21) [2023-10-20]. https://www.mohurd.gov.cn/gongkai/fdzdgknr/zqyj/201809/20180921_237690.html.

[43]
緑視率調査ガイドライン平成25年8月大阪府[EB/OL].[2023-08-06]. http://www.pref.osaka.lg.jp/attach/17426/00000000/guideline.pdf.

Guidelines for the Investigation of the Visibility Index of Osaka in August, 2005[EB/OL]. [2023-08-06]. http://www.pref.osaka.lg.jp/attach/17426/00000000/guideline.pdf.

[44]
陈柯辰. 1961—2012年杭州的升温趋势和四季分配之变化[J]. 中国农学通报, 2013, 29 (35): 345-350.

CHEN K C. Warming Trend and Seasonal Variation in Hangzhou from 1961 to 2012[J]. Chinese Agricultural Science Bulletin, 2013, 29 (35): 345-350.

[45]
彭锐, 刘海霞. 城市道路绿视率自动化计算方法研究[J]. 北京规划建设, 2018, 32 (4): 61-64.

PENG R, LIU H X. Research on Automated Calculation Method of Green View Index for Urban Roads[J]. Beijing Planning Review, 2018, 32 (4): 61-64.

[46]
查特吉, 哈迪.例解回归分析[M].郑忠国, 许静, 译.北京: 机械工业出版社, 2013.

CHATTERJEE S, HADI A S. Regression Analysis by Example[M]. ZHENG Z G, XU J, translated. Beijing: China Machine Press, 2013.

文章导航

/