诏安信息港 网站首页 资讯列表 资讯内容

IBM发布地理空间基础模型 帮助人类追踪并适应地理环境变化

2023-06-08| 发布者: 诏安信息港| 查看: 144| 评论: 3|来源:互联网

摘要: 摘要:watsonx.ai模型由IBM与美国宇航局合作构建,旨在将卫星数据转化为显示洪水、火灾及其它地理图景变化的高...
北京国丹白癜风医院

摘要:watsonx.ai模型由IBM与美国宇航局合作构建,旨在将卫星数据转化为显示洪水、火灾及其它地理图景变化的高分辨率地图,揭示地球的过去并防范于未来

图为美国宇航局(NASA)2021年飓风艾达洪水的卫星图像

watsonx.ai模型由IBM与美国宇航局合作构建,旨在将卫星数据转换为洪水、火灾和其它地理图景变化的高分辨率地图,以揭示我们星球的过去,并暗示其未来可能的变化。

目前,世界上近四分之一的人口生活在洪水区,随着海平面上升和气候变化引发的风暴日益严重,预计这一数字还会攀升,致使更多人处于危险之中。准确绘制洪水事件地图的能力,不仅是当下保护民众生命财产安全的关键,也是未来指导在风险较低的地区进行发展规划的关键。

IBM日前在Think大会发布了一个新的地理空间基础模型,就是通过将NASA的海量卫星观测数据转换为自然灾害和其它环境变化的定制地图,为实现人类了解地球地理环境的过去与未来这一目标迈出了第一步。该模型是IBMwatsonx.ai地理空间产品的一部分,计划在今年下半年通过IBMEnvironmentalIntelligenceSuite(EIS)为IBM客户提供预览版。潜在应用包括帮助估算农作物、建筑和其它基础设施与气候相关的风险,评估和监测森林以进行碳抵消计划,以及开发预测模型以帮助企业制定缓解和适应气候变化的战略。

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网。

作为与美国宇航局达成的太空行动协议的一部分,IBM在四个月前开始建立有史以来第一个用于分析地理空间数据的基础模型。基础模型通过让开发人员在原始文本上训练一个模型,并通过额外训练为其它自然语言处理(NLP)任务自定义模型,从而对NLP进行了革命性的改变。以前,用户必须为每个任务训练一个新模型,这需要大量的数据管理和计算工作。IBM研究院没有用文字来训练基础模型,而是教一个模型来理解卫星图像。IBM研究人员预训练了NASA的HarmonizedLandsatSentinel-2(HLS-2)数据。HLS数据提供了来自NASA/USGSLandsat8联合卫星上的可操作陆地成像仪(OLI)和欧盟哥白尼哨兵-2A和哨兵-2B卫星上的多光谱仪器(MSI)的一致表面反射率数据。组合测量有助于以30米的空间分辨率每两到三天对土地进行一次全球观测。

然后,他们为该模型提供手工标记的示例,教它识别诸如历史上洪水和火灾遗迹的范围,以及土地利用和森林生物量的变化。

该模型的设计旨在简单易用,用户只需选择一个区域、一个映射任务和一组日期,例如,如果用户在搜索栏中输入“法国莱讷港”并选择日期2019年12月13日至15日,那么该模型就能用粉红色来突出显示洪水延伸的距离。用户可以叠加其它数据集以查看农作物或建筑物被淹没的位置。这些可视化有助于在类似的灾难场景中进行未来规划:它们提供的信息可以帮助减轻洪水影响,为保险和风险管理决策提供信息,规划基础设施,应对灾害和保护环境。

IBM在用于处理视频的掩蔽自动编码器上构建了该模型,并将其调整为卫星镜头的画面。为了教模型理解随时间展开的图像序列,研究人员将每张图像的一部分留空出来让模型来重建它。它重建的图像越多,就越能理解它们之间的关系。然后,他们针对特定任务(如分类和分割图像)微调模型。这种微调工作流基于PyTorch,具有增强的分割库,允许研究人员处理时空数据。

为了提高模型的效率,研究人员还缩小了卫星图像的大小,使他们能够以更小的块来处理数据,并减少GPU的使用。然后,他们在IBM研究院的Vela超级计算机上使用了超过5,000个GPU小时来训练该模型。

早期结果看起来很有希望。在测试中,研究人员发现,与最先进的深度学习模型相比,使用一半的标记数据绘制洪水和火灾烧痕的准确性提高了15%。IBM估计,该模型可以将地理空间分析速度提高三到四倍,并有助于减少训练传统深度学习模型所需的数据清理和标记量。

如需了解IBM技术、产品和服务的更多信息,点击访问IBM官网

或扫描以下二维码进行访问:



分享至:
| 收藏
收藏 分享 邀请

最新评论(0)

Archiver|手机版|小黑屋|诏安信息港  

GMT+8, 2019-1-6 20:25 , Processed in 0.100947 second(s), 11 queries .

Powered by 诏安信息港 X1.0

© 2015-2020 诏安信息港 版权所有

微信扫一扫