Mais

Renomear esses arquivos com Python

Renomear esses arquivos com Python


Tenho vários arquivos LAS que foram entregues com diferentes convenções de nomenclatura. Quero renomear os arquivos para que todos tenham a mesma nomenclatura uniforme - com base nas coordenadas leste e norte de cada centroide de blocos.
Eu gerei um arquivo de texto com os nomes antigos e novos e estou tentando montar um script Python - mas estou encontrando este erro

Traceback (última chamada mais recente): Arquivo "C:  LASTools  Test  ReName_Files.py", linha 64, em  newName = newList [indexOldName] NameError: o nome 'indexOldName' não está definido

Aqui está o script. Eu sou muito novo em Python e isso pode me levar horas de pesquisa e tentativa e erro (já demorou).

import os folder = "C:  LASTools  Test " lookupTable = open (folder + "LookupTable.txt") tableList = lookupTable.readlines () lookupTable.close () old = "TIFF" new = "TILE" newTable = [] para a linha em tableList: newLine = line.strip () newerLine = newLine.strip (",") newestLine = newerLine.strip ("'") quaseFinalLine = newestLine.replace (' "'," ") finalLine = quaseFinalLine .split (",") newTable.append (finalLine) header = newTable [0] indexOld = header.index (old) - 1 indexNew = header.index (new) - 1 oldList = [] newList = [] para o item em newTable: if item! = newTable [0]: valueOld = item [indexOld] valueNew = item [indexNew] oldList.append (valueOld) newList.append (valueNew) para o arquivo em os.listdir (pasta): nameAndExt = os.path .splitext (arquivo) oldName = nameAndExt [0] extension = nameAndExt [1] imprimir oldName se oldName em oldList: indexOldName = oldList.index (oldName) newName = newList [indexOldName] os.rename (pasta + oldName + extensão, pasta + novoNome + extensão)

Eu concordo com o Curlew, esta não é uma questão de GIS ... entretanto, você está usando LasTools (parece, você não está importando!) Que é uma lib de GIS.

Aqui está um código que pode ajudar - observe que está em objetos Esri arcpy, mas o Laspy você pode usar como referência:

import sys sys.path.append (r'C:  Python27  ArcGIS10.1  Lib  site-packages ') import os, string, laspy, arcpy de laspy.file import File if len (sys.argv)! = 5 : print "Argumentos insuficientes!" sys.exit () InFolder = sys.argv [1] OutFolder = sys.argv [2] OutCoSys = sys.argv [3] IndexName = sys.argv [4] se não os.path.exists (InFolder): imprimir " Na pasta não encontrada "sys.exit () se não os.path.exists (OutFolder): print" Pasta de saída não encontrada "sys.exit () OutShape ="% s \% s.shp "% (OutFolder, IndexName ) if os.path.exists (OutShape): try: print "Removendo o índice antigo" arcpy.Delete_management (OutShape) except: print "Incapaz de remover, verifique se há gravação" print "de acesso e permissões" sys.exit () arcpy .CreateFeatureclass_management (OutFolder, IndexName + ".shp", "POLYGON", "", "DISABLED", "DISABLED", OutCoSys) arcpy.AddField_management (OutShape, "FileName", "TEXT", "", "", " 125 ") InsCur = arcpy.InsertCursor (OutShape, OutCoSys) para ThisFile in os.listdir (InFolder): FileName, Ext = os.path.splitext (ThisFile) if Ext.lower () ==" .las ": LasOpened = Tentativa falsa: LASfile = File (InFolder + "" + ThisFile, mode = 'r') # Este é o bit em que você deve se interessar # O MinCo e o MaxCo são uma lista / tupla na ordem [[X ], [Y]] MinCo = LASfile.header.get_min () MaxCo = LASfile.header.get_max () # o centróide é então # CenX = (MinCo [0] + MaxCo [0]) / 2 # CenY = (MinCo [1] + MaxCo [1]) / 2 # Faça o seu nome de arquivo a partir daí e use # os.rename (InFolder + "" + ThisFile, InFolder + "" + NewName) # para renomear LASfile.close () LasOpened = True exceto: print "Incapaz de abrir% s com LasPY"% ThisFile se LasOpened: Xmin = int (MinCo [0] / 1000) * 1000 Ymin = int (MinCo [1] / 1000) * 1000 Xmax = (int (MaxCo [0] / 1000) * 1000) + 1000 # Xmin + 1000 # int (MaxCo [0] / 1000) * 1000 # Xmin + 1000 Ymax = (int (MaxCo [1] / 1000) * 1000) + 1000 # Ymin + 1000 # int (MaxCo [1] / 1000) * 1000 # Ymin + 1000 Xmin = MinCo [0] Ymin = MinCo [1] Xmax = MaxCo [0] Ymax = MaxCo [1] PArray = arcpy. Array () NewPol = InsCur.newRow () TPnt = arcpy.Point (Xmin, Ymin) PArray.add (TPnt) TPnt = arcpy.Point (Xmin, Ymax) PArray.add (TPnt) TPnt = arcpy.Point (Xmax, Ymax) PArray.add (TPnt) TPnt = arcpy.Point (Xmax, Ymin) PArray.add (TPnt) TPnt = arcpy.Point (Xmin, Ymin) PArray.add (TPnt) Poly = arcpy.Polygon (PArray, OutCoSys) NewPol.shape = Poly NewPol.setValue ("FileName", ThisFile) InsCur.insertRow (NewPol) do PArray do NewPol del InsCur

Coloquei alguns comentários lá para chamar sua atenção. Para usuários do Esri, esta é uma boa maneira de obter um shapefile de sua cobertura de arquivos LAS. Observe, eu escrevi isso antes de 10.1 com o LASdataset, portanto, é basicamente redundante.


if oldName em oldList: indexOldName = oldList.index (oldName) newName = newList [indexOldName]

O problema é quandoAntigo nomenunca está emoldListentãoindexOldNamenunca é definido para nada (definido) e o erro é gerado.

Certifique-se de que oldName esteja realmente em oldList e defina comoindexOldNamealgo, como:

if oldName em oldList: indexOldName = oldList.index (oldName) else: indexOldName = 0 newName = newList [indexOldName]

Divirta-se com a colorização de Lidar com imagens

por ArthurCrawford

Este blog está em desenvolvimento, apenas começando e crescerá com o tempo:

Nos últimos anos, tenho publicado nuvens de pontos coloridos lidar como suplementos para as cidades 3D, como a área de St. Louis, que criei usando a solução 3D Basemap e extraindo edifícios do lidar. Sean Morrish escreveu um blog maravilhoso sobre a mecânica de publicar lidar. Ultimamente, tenho olhado para o uso de nuvens de pontos LIDAR coloridas como uma forma eficaz e relativamente barata de criar mapas de base 3D. Tem algumas vantagens, pois a maioria dos estados, condados e cidades já tem lidar disponível, a maioria tem imagens de alta resolução e todos têm imagens NAIP necessárias para criar essas cenas.

Cenas lidar do condado de Mantiowoc:

Alguns condados, cidades e estados já estão fazendo isso. Manitowoc County, WI., Tem um 3D LiDAR Point Cloud e também cria cenas com os dados. O condado de Manitowoc também fez um ótimo mapa da história mostrando como seu lidar é usado como uma nuvem de pontos lidar colorida aqui e é altamente recomendável dar uma olhada nele.

O StoryMap mostra com um vídeo como capturar distâncias verticais, horizontais e diretas de superfícies de solo LiDAR em qualquer local em todo o condado. Como obter medições detalhadas de pequenas características de superfície LiDAR, como profundidade de valas até a estrada.

Meça as distâncias das nuvens de pontos LiDAR em relação às superfícies do solo LiDAR usando os telhados das casas como um exemplo para ver a altura do edifício.

Aqui está uma das camadas de cena do Manitowac Buildings onde eles tiveram a ideia criativa de usar o mesmo lidar colorido para dar lados falsos ao mostrar o lidar classificado como edifícios várias vezes, cada um com uma elevação um pouco menor, alterando o deslocamento na simbologia. Mais adiante no blog, mostro como fazer isso.

Tiramos o chapéu para Bruce Riesterer, do condado de Manitowoc, que juntou tudo isso antes de se aposentar, incluindo a ideia de usar os pontos de construção várias vezes com cores diferentes para mostrar as laterais dos edifícios e agora está trabalhando para a indústria privada, veja seu novo trabalho em RiestererB_AyresAGO.

Visualizador 3D do estado de Connecticut:

Eu ajudei o estado de Connecticut CLEAR a colorir seu lidar usando imagens NAIP como a primeira nuvem de pontos lidar em todo o estado publicada no ArcGIS Online. Descobriu-se que tinha cerca de 650 GB de lidar dividido em dois pacotes de camada de cena. O tempo gasto nele foi principalmente tempo de processamento e tempo de carregamento. O CLEAR do estado de Connecticut me enviou as mais novas imagens NAIP que eles tinham e com todos os dados em um computador, eu apenas deixei rodar colorindo o lidar. Com essa camada e outras camadas que o CLEAR tinha online, uma cena da web foi criada. Uma classe de recurso foi adicionada com links para seus arquivos laz, para as imagens, DEM e outras camadas. Isso permite que os usuários visualizem o lidar em um visualizador 3D antes de fazer o download. Os usuários podem até fazer medições com linhas ou áreas em 3D que permitem que a maioria dos usuários as visualize antes.

Aqui estão várias visualizações usando diferentes simbologias e filtros na nuvem de pontos LIDAR publicada para Connecticut.

Código de classe modulado com intensidade: A intensidade modulada permite que os recursos apareçam como estradas, calçadas, detalhes em telhados e árvores.

Elevação modulada com intensidade:

Cor filtrada para mostrar edifícios:

Aqui estão alguns exemplos de como exibir em seu blog:

Recentemente, a equipe Urban me pediu para ajudar com Chicago e criei pegadas de construção 3D básicas a partir das pegadas de construção do Chicago Data Portal. Usei o Geiger lidar de 8ppm para criar o DSM, nDSM e DTM para a solução 3D Basemap. Em seguida, colori o lidar usando imagens NAIP e novamente as imagens de alta resolução de 2018. Em seguida, extraí os pontos classificados como vegetação e os usei para substituir as imagens de folhagem de alta resolução na camada de cena para mostrar as árvores como verdes, mas para obter os topos dos telhados usando a alta resolução.

Acima está a imagem de alta resolução usada para colorir o lidar na cena. Abaixo está a mesma área com o lidar colorido com NAIP para a vegetação (alguns lados do edifício foram classificados pelo vendedor como vegetação na entrega ao USGS do Geiger lidar de 8ppm). Você pode ver como as árvores são muito mais identificáveis ​​usando o lidar colorido com NAIP.

Isso pode ser usado como um mapa base 3D. Os edifícios 3D não possuem telhados segmentados (divididos pela altura), mas o lidar mostra o detalhe dos edifícios. Abaixo está o Edifício John Hancock identificado em azul com um polígono multipatch básico em uma camada de cena com transparência aplicada.

Aqui está uma vista do Navy Pier com as árvores coloridas NAIP e o lidar colorido de alta resolução ao mesmo tempo.

Escolhendo as imagens a serem usadas:

Usando o Chicago Lidar, também construí uma cena para comparar os diferentes tipos de imagens usadas para colorir o lidar. É um guia usando o vídeo abaixo para mostrar como imagens de alta resolução são ativadas vs. imagens de alta resolução são ativadas vs. 1m NAIP ativado. Você pode ver abaixo como a folha em imagens é ótima para mostrar árvores. Suas imagens não precisam atender exatamente ao ano do lidar, mas quanto mais próximo melhor. Mas torná-lo visual atraente é importante na cartografia 3D com nuvens de pontos coloridas.


Às vezes, imagens coloridas de outono antes de as folhas caírem podem ser ótimas para as cenas, mas tudo depende do que você deseja mostrar.

Maneira de adicionar árvores com galhos e pontas como folhas:

Aqui está um teste que fiz usando a simbologia Dead Tree para representar o tronco e galhos, enquanto as folhas vêm do lidar colorido. My tool Trees from LIdar ou 3D Basemap Solution tree tools pode criar as árvores de lidar e então os pontos podem ser simbolizados com o símbolo Dead Tree. Esta imagem foi feita no ArcGIS Pro, não uma cena.

Visualizador 3D da cidade de Klaipėda (Lituânia):

A cidade de Klaipėda, na Lituânia, usou nuvens de pontos coloridos de árvores com cilindros para representar troncos. A malha aqui é muito detalhada. Por terem sido ampliados até agora, os pontos parecem bastante grandes.

Aqui está outra visualização com zoom reduzido:

E outro mais ampliado:

Algumas das cenas acima usam imagens NAIP em vez de imagens de alta resolução. Por que, quando uma resolução mais alta está disponível. Freqüentemente, as imagens de alta resolução são um tanto oblíquas onde o NAIP é coletado geralmente de uma altitude mais elevada. Com a altitude mais alta, você obtém menos inclinações de edifícios nas imagens e muitas vezes o espaçamento do lidar não suporta imagens de alta resolução. Nesses casos, o NAIP costuma ser o preferido, mas crie nuvens de pontos com alguns arquivos para ver quais são as diferenças.

Aqui está um sobre Fairfax County, VA, usando seu lidar colorido publicado (de seu 3D LiDAR Viewer) e usando intensidade para mostrar os telhados. Com intensidade, você pode ver os detalhes do telhado melhor do que com as imagens do NAIP.

Com edifícios grandes, as laterais e telhados do edifício usando intensidade para simbologia realmente mostram os detalhes. Os lados dos edifícios são apenas representativos, não mostrando a aparência dos lados reais.

Aqui está abaixo apenas usando pontos coloridos NAIP sem as laterais do edifício e telhados usando intensidade para simbologia.

A falta de lados dos edifícios torna difícil ver onde o edifício realmente está e muitos dos detalhes do telhado são perdidos. Colorir com intensidade permite mais detalhes porque a intensidade é uma medida, coletada para cada ponto, da força de retorno do pulso de laser que gerou o ponto. Baseia-se, em parte, na refletividade do objeto atingido pelo pulso de laser. As imagens muitas vezes não correspondem exatamente com o lidar devido à coleta talvez um pouco fora e um leve ângulo oblíquo encontrado na ortorretificação de imagens.

Colorir Redlands 2018 lidar:

Aqui está um exemplo de colorir a cidade de Redlands com o lidar 2018 no qual trabalhei para apoiar um dos grupos aqui na Esri. É altamente recomendável pegar apenas um arquivo las para começar, percorrer todo o processo até a publicação para ter certeza de que não há problemas. No passado, executei horas de download e colorização, apenas para descobrir que uma projeção está errada ou outra coisa não está correta (imagens ruins, muito escuras ou muito claras, etc.).

1. Baixei o lidar 2018 do USGS.

uma. Baixe o arquivo de metadados com footprints, descompacte-o e adicione o shapefile Tile ao ArcGIS Pro

b. Peguei o caminho completo e o nome dos arquivos laz do site do USGS. Aqui está um exemplo: do caminho para o arquivo para download:

c. Adicionou um campo de caminho aos blocos e calculou o caminho com o arquivo de nome individual para substituir o caminho original copiado em b. Esta é a fórmula que usei no campo de cálculo:

"ftp://rockyftp.cr.usgs.gov/vdelivery/Datasets/Staged/Elevation/LPC/Projects/USGS_LPC_CA_SoCal_Wildfires_B1_2018_LAS_2019/laz/USGS_LPC_CA_SoCal_Wildfires_B1_2018_" Nome & amp! & amp "_LAS_2019.laz"

d. Em seguida, exportou para um arquivo de texto e usou um software de download gratuito usando FTP para baixar em massa todos os arquivos dos arquivos lidar laz do USGS para os tiles que cruzavam a classe de recurso Limites da cidade de Redlands.

2. Use Converter LAS para converter os dados do formato laz para LAS. LAS é necessário para colorir o lidar. Ocorreu um erro, mas era porque a projeção não era compatível. Desativou a reorganização e converteu de laz para las.

3. Observou a projeção nos relatórios nos metadados baixados e descobriu que não era compatível porque usava metros em vez de pés, modificou uma projeção e, em seguida, copiou usando uma ferramenta simples de construção de modelo para fornecer um arquivo de projeção para cada arquivo LAS .

4. Avaliamos o lidar criando um preenchimento de um conjunto de dados las: solo, conveses de ponte, água, sobreposição, etc. foram classificados. Edifícios e vegetação, não.

5. Classifique o Edifício LAS com opção agressiva de classificar os edifícios. Classificar os edifícios permite que você os filtre na cena futura. Também é bom para extrair pegadas de construção, outra operação que eu normalmente faço.

6. Use Classificar LAS por Altura para classificar a vegetação. (3) Vegetação baixa configurada para 2m, (4) Vegetação média configurada para 5m, (5) Vegetação alta configurada para 50m. Isso fez com que a Baixa Vegetação não fosse triturada de 0 a 2m, Média & gt2m a 5m e Alta Vegetação & gt5m a 50m. Isso é feito para que você possa desligar a vegetação em uma cena.

7. Usei o serviço de imagens ArcGIS Pro NAIP com o modelo definido como Nenhum e a ferramenta Dividir Raster para baixar a área que preciso com base nos limites da cidade de Redlands.

8. Criou um conjunto de dados em mosaico das imagens NAIP. Função aplicada a reamostragens de 0,6m a 0,2m e aplicada uma estatística com 2 círculos sobre ela. Isso fará com que o curso de imagens NAIP de 0,6 m (ou 1 m) o suavize para uma melhor colorização.

9. Coloriu o lidar com a ferramenta Color LAS. Defina-o como RGB colorido e infravermelho com as bandas 1,2,3,4 e uma pasta de saída. O padrão coloca um "_colorized" nele, eu normalmente não faço isso e simplesmente faço a pasta de saída ser chamada colorlas. Defina o lasd colorido de saída para um diretório acima com o mesmo nome.

10. Adicionado ao Pro e revisado o lasd dos arquivos. Achei que cobria a área, o lidar estava devidamente colorido e tinha uma boa aparência. Defina a simbologia para RGB.

11. Crie a ferramenta Point Cloud Scene Layer Package com a saída lidar para criar um arquivo slpk e depois adicionado ao ArcGIS Pro para se certificar de que estava funcionando corretamente. Altere os padrões.

12. Usei minha conta do ArcGIS Online para carregar o slpk ou a ferramenta Share Package.

13. Publique a cena e veja-a online.

14. Adicione as camadas de cena lidar várias vezes e use simbolizar ou propriedades para mostrar o que você gostaria. Você pode ver um exemplo no Chicago 3D. Se você abri-lo e salvá-lo como seu (conectado), poderá acessar as camadas nas camadas da cena para ver como elas são configuradas com Simbologia e Propriedades.

Abaixo estão alguns trabalhos em que ajudei o estado de Kentucky. O resultado é semelhante de alguma forma ao trabalho dos neoimpressionistas Georges Seurat e Paul Signac, que foram os pioneiros de uma técnica de pintura, apelidada de Pontilhismo.

Seascape de Georges Seurat em Port en Bessin Normandia abaixo:

Adicionar troncos de árvore ao fundo faz com que as cenas de nuvem de pontos pareçam um pouco mais reais e permite que os visualizadores vejam melhor que se trata de uma árvore. Recentemente, trabalhei em uma área de parque em Kentucky com o apoio da Divisão de Informações Geográficas (DGI) para tentar criar troncos de árvore como o da cidade de Klaipėda na Lituânia e, em seguida, adicionar lados de edifícios como um teste. Eu não queria que os troncos das árvores sobrecarregassem a cena, apenas fossem um item de fundo para tornar o cenário mais realista. A imagem e o link para a cena mostram as setas vermelhas apontando para os troncos das árvores. Usei funções raster aplicadas ao intervalo de valores usando Las Point Statistics as Raster. Primeiro criei um intervalo de valores de elevação usando um valor de amostragem de 5 pés usando Las Point Statistic s como raster. Então usei funções raster para criar um raster mostrando os pontos altos como mostrado abaixo.(1) .Estatísticas: média 5x5. (2) Menos: Estatísticas - intervalo, máximo de, interseção de. (3). Remapear: Mínimo -0,1 a 0,1, Saída 0, Alterar os valores ausentes para NoData. (4). Mais: Alcance mais Max Of, Intersection Of. (5). Remapear: 0 a 26 definido para nenhum dado. Em seguida, usei Raster to Points para criar uma camada de pontos do raster. Adicione o campo e calcule como Height from gridcode, Adicione o campo TreeTrunkRadius e calcule (! Height! / 60) + .5, isso me deu uma largura para usar mais tarde para os polígonos 3D.Colocou os pontos nas camadas 3D e aplicou o tipo - altura da base e o campo aplicado a altura e pés americanos. Ise uma expressão para Height usando o Expression Builder $ feature.Height * 0,66, porque eu queria que os troncos das árvores subissem apenas 2/3 da altura das árvores. Usei 3D Layer to Feature Class para criar uma classe de recurso de linha e, em seguida, usá-la como entrada para Buffer 3D usando a opção Field para distância e TreeTrunkRadius como o campo de entrada. Em seguida, uso Criar pacote de camada de cena de objeto 3D para gerar o TreeTrunks.slpk. Usei Adicionar item à sua conta ArcGIS Online e publicá-lo. Uma vez online, brinquei com as cores para deixá-lo marrom. Esse processo também poderia ter usado a ferramenta Árvores do Lidar, mas as imagens do NAIP eram de outono e não tinham a mesma refletividade NDVI para esse processo.

Para preencher as laterais do edifício, classifiquei os edifícios usando Classificar Edifício LAS. Em seguida, usei Extrair LAS com um filtro na nuvem de pontos do conjunto de dados lidar para extrair apenas aqueles com o código da classe de construção. Publiquei isso e adicionei 9 vezes a um grupo na cena. As três primeiras camadas de construção, ajustei-as em 0,5, 0 e -0,5 metros e as deixei coloridas com a imagem. Isso fez com que o telhado parecesse um pouco mais sólido, pois havia vãos. Em segundo lugar, peguei as 6 camadas restantes e as configurei para cor de intensidade com incrementos de -1m, -2m, -3m, -4m, -5m e -6m. Isso criou as paredes dos edifícios. Mudei a gama de cores para -3m para dar uma linha ligeiramente mais escura para atravessá-la. Agrupei todas as camadas juntas para que fossem uma camada. Você também pode usar o filtro para edifícios e colorir com o código de classe e, em seguida, definir a cor do código de classe para ser a cor que você deseja para os lados da construção. Se você definir o modulado com intensidade, isso também altera a aparência, muitas vezes dando sombra nas laterais dos prédios ou o que às vezes parece janelas.

Visão padrão antes de adicionar as laterais do prédio e espessura ao telhado:

Com a ilusão de paredes adicionadas e o telhado engrossado (Cumberland, KY):

Aqui está outra vista mostrando as laterais do edifício:

É uma ilusão com as laterais dos edifícios, as cores não combinam com o lado real dos edifícios e as diferenças na intensidade do lidar usado não mostram as verdadeiras diferenças nas laterais como as janelas percebidas acima. Como a maioria das ilusões ou representações, faz os olhos pensarem que são as laterais dos edifícios. Às vezes, como a maioria das ilusões ou representações, não funciona de todos os ângulos como esta construção funcionava com uma pequena quantidade de pontos:

No geral, acho que os lados representativos ajudam a identificar o que é um edifício e o que não é. As cores das laterais do edifício não combinam com a realidade, nem mostram janelas ou portas verdadeiras. Fazer isso geralmente é um processo muito caro e demorado após a geração de modelos 3D dos edifícios. Você ainda pode gerar os edifícios 3D com a solução de mapa de base 3D do governo local para ArcGIS Pro e tê-los semitransparentes e usar para seleção e análise sem qualquer coloração. Você também pode usar rpks aplicados aos edifícios para representar os modelos 3D com mais precisão, mas isso seria novamente uma representação sem dados muito detalhados.

Como obter Lidar facilmente para grandes áreas: Aqui está um vídeo de como baixar grandes volumes de blocos Lidar facilmente do USGS para uma área de projeto. Inclui como obter uma lista dos arquivos laz para download. Depois de fazer o download, use Converter LAS para transferir os arquivos do formato LAZ para o LAS. O formato LAS é necessário para executar a classificação, colorização e edição manual da nuvem de pontos.

Cobrindo o básico das nuvens de pontos Lidar coloridas, criando pacotes de camadas de cena e visualizando:

Aqui está um vídeo em que passo pelo processo de Colorir Lidar e o que procuro com os tempos abaixo para ir a determinados itens (26 minutos de duração):

0:30 segundos falando de entrada lidar e alguns na classificação de lidar.

01:05 Adicionando serviços de imagens e revisão do alinhamento de imagens para usar na colorização do lidar.

1: 49: Adicionando Obtendo o serviço de imagens NAIP.

2:20: Serviços de imagens de alta resolução.

3:35: Falando sobre as árvores coloridas com imagem de folha fora de folha vs. folha em imagem.

4:55: Comparando imagens, calçadas colorindo as árvores sem folhas.

6:00: Usando Split raster para baixar imagens para usar em um serviço.

8:25: Mosaic to New Raster as imagens divididas baixadas.

10:50: Verifique o download do mosiac

13:52: Falando em lidar, quão grande é, quanto tempo leva para colorir, tempos de download de serviços usando Split Raster, tamanho do pacote da camada de cena em relação ao Lidar antes não colorido.

15:40: Adicionando o lidar colorido e vendo-o em 3D.

16:40: Aumentando o limite de exibição para permitir que mais pontos sejam vistos no visualizador 3D.

17:00: Adicionando imagens e revisando o lidar colorido.

17:56: Aumentando o tamanho dos pontos dos pontos para melhor ver os telhados, árvores e laterais dos edifícios no lidar colorido. Falando sobre como a cor não combina com as laterais dos edifícios.

19:00: Olhando para as árvores, sombras.

19:25: Olhando para os telhados e para as ruas.

20:10: Criando um pacote de camada de cena de nuvem de ponto de criação.

21:30: Adicionando Pacote de Camadas de Cena ao Pro e vendo o aumento da velocidade devido ao lavramento e formatação. Reveja desta forma para acelerar.

22:30: Olhando para ele com diferentes configurações em simbologia, elevação, classe, intensidade, retorno (Geiger lidar não tem retornos).

24:35: Olhando para uma única árvore.

26:35: Mostrando a cena da web

Há também este vídeo feito alguns anos atrás que cobre o assunto de maneiras diferentes.

Carregar um DTM de resolução mais alta (DEM), pois o aterramento geralmente é necessário. Neste link você pode desligar o DTM1m_tif que é o DTM LIDAR terrestre vs. o World Terrain Service para ver a diferença. Nos EUA, na maioria das vezes o NED é geralmente bom o suficiente para que suas las coloridas fiquem muito próximas, mas às vezes seus prédios coloridos vão para o solo e os pontos lidar perto do solo ficam embaixo dele ou flutuam em cima dele. Você pode pegar seus arquivos las e no ArcGIS Pro ver se os pontos de chão caem abaixo ou acima do terreno. Se a diferença for muito grande, você precisa publicar seu DTM. A solução 3D Basemap (agora chamada de solução Local Government 3D Basemap) pode guiá-lo através deste processo e pode no futuro guiá-lo através da colorização e publicação do lidar. Aqui está um blog que explica como fazer isso e a ajuda. A solução Local Government 3D Basemaps tem tarefas que também podem orientá-lo nesse processo de publicação de uma elevação.

Ferramentas de importação para a construção de pacotes lidar coloridos:

Editar códigos de classificação de arquivo LAS - Cada ponto lidar pode ter um código de classificação atribuído a ele que define o tipo de objeto que refletiu o pulso de laser. Os pontos Lidar podem ser classificados em várias categorias, incluindo terra nua ou solo, topo do dossel e água. As diferentes classes são definidas usando códigos numéricos inteiros nos arquivos LAS.

Covert LAS - Converte arquivos LAS entre diferentes métodos de compactação, versões de arquivo e formatos de registro de ponto.

Extrair LAS - filtra, recorta e reprojeta a coleção de dados lidar referenciados por um conjunto de dados LAS.

Colorir LAS - Aplica cores e valores do infravermelho próximo de imagens ortográficas a pontos LAS.

Classificar edifício LAS - Classifica telhados e laterais de edifícios em dados LAS.

Classify Ground - Classifica pontos de solo em dados LIDAR aéreos.

Classificar LAS por altura - reclassifica os pontos lidar com base em sua altura da superfície do solo. Usado principalmente para classificar a vegetação.

Classificar Ruído LAS - Classifica pontos LAS com características espaciais anômalas como ruído.

Classificar sobreposição de LAS - Classifica os pontos de LAS de varreduras de sobreposição de levantamentos de lidar aéreo.

Alterar códigos de classe LAS - reatribui os códigos de classificação e sinalizadores de arquivos LAS.

Criar pacote de camada de cena de nuvem de pontos - cria um pacote de camada de cena de nuvem de pontos (arquivo .slpk) a partir da entrada do conjunto de dados LAS, zLAS, LAZ ou LAS.

Compartilhar Pacote - Compartilha um pacote fazendo upload para ArcGIS Online ou ArcGIS Enterprise.

Aqui está um lidar colorido para olhar:

Nuvem de pontos de Helsinque (Finlândia) Scene Viewer

Visualizador de cenas de Barneget Bay (Nova Jersey, EUA)

Visualizador de cenas da cidade de Denver Point Cloud (Colorado, EUA)

City of Redlands (Califórnia, EUA) Scene Viewer tem uma comparação de alta resolução com lidar com colorido NAIP.

Teste de Kentucky Lidar (Cumberland, Kentucky, EUA) Visualizador de cenas Imagens de outono aplicadas a árvores, acréscimos de lados de edifícios, troncos de árvores adicionados.


gxapi. DH_MASK_APPEND = 0 DH_MASK_NEW ¶

gxapi. DH_PLOT_PLAN = 0 DH_PLOT_SECTION ¶

gxapi. DH_PLOT_SECTION = 1 DH_PLOT_STRIPLOG ¶

gxapi. DH_PLOT_STRIPLOG = 2 DH_PLOT_HOLE_TRACES ¶

gxapi. DH_PLOT_HOLE_TRACES = 3 DH_PLOT_3D ¶

gxapi. DH_PLOT_3D = 4 DH_PLOT_SECTION_STACK ¶

gxapi. DH_PLOT_SECTION_STACK = 5 DH_PLOT_SECTION_FENCE ¶

gxapi. DH_PLOT_SECTION_FENCE = 6 DH_PLOT_SECTION_CROOKED ¶

gxapi. DH_PLOT_SECTION_CROOKED = 7


Extração de recursos de Arthur de LiDAR, DEMs e imagens

por ArthurCrawford

26/07/2019: Adicionado como fazer um inventário de árvore 3D sem lidar ou altura (dica DBH).

24/10/2018: Adicionado link e instruções para criar edifícios 3D usando lidar da Microsoft Building Footprints US.

04/10/2018: Adicionada uma atualização para as ferramentas no mapeamento 3D com nuvens de pontos Lidar abaixo, chamada ArthursLidarBuildingExtractionTools_10_04_2018.zip. Isso corrige problemas com a abordagem não classificada para construção de coleção do lidar, uma ferramenta para prender edifícios extraídos em parcelas, e ferramenta Jagged que ajuda a identificar edifícios irregulares que vêm como resultado da regularização. Essas ferramentas são melhorias que testei com muitas cidades / condados para a extração de edifícios. Essas atualizações serão eventualmente aplicadas ao mapeamento 3D com Lidar Point Clouds. Para criar edifícios 3D a partir das pegadas de construção 2D extraídas, use a versão mais recente da solução de mapas base 3D do governo local.

28/09/2017: Por favor, veja o mapeamento 3D com Lidar Point Clouds, este são ArcGIS Pro Tools, dados de exemplo e exercícios de workshop do workshop do FMI que desenvolvemos para o Imagery and Mapping Forum deste ano antes do ESRI UC. Isso abrange Extração de pegadas de construção de Lidar classificado para edifícios, Extração de pegadas de construção de Lidar não classificado para edifícios e os mapas de base 3D para levar as pegadas para 3D e adicionar árvores. Isso substitui a metodologia com Geoff Taylor mostrada em Extracting Building Footprints from Classified LiDAR usando algumas de minhas técnicas mais antigas.

05/12/2016: Adicionado extensivamente às sugestões da ferramenta Regularize Building Footprint.

08/12/2016: Mudou 1.200 para 12.000 nas sugestões da ferramenta Regularize Building Footprint.

21/12/2016: Adicionado limpeza extraída de edifícios usando a ferramenta Regularize Building Footprint

22/12/2016: Erro corrigido em modelos para limpar edifícios extraídos usando a ferramenta Regularize Building Footprint devido a um bug na ferramenta Regularize Building Footprint (inserindo uma classe de recursos vazia).

01/03/2017: Problema encontrado com a ferramenta de limpeza extraída usando a ferramenta Regularize Building Footprint não funcionando se não houver grandes edifícios (mais de 25.000 pés quadrados), olhando para dentro.

Este blog será dedicado à extração de recursos de nuvens raster ou de pontos para vetor. Tenho gerado conteúdo para os mapas de base do Mapa Topo do Mundo, incluindo os contornos, elevações de pontos, vegetação e até edifícios de Lidar. Ultimamente, tenho me concentrado em extrair prédios e árvores de Lidar e / ou imagens. Eu escrevi uma ferramenta para extrair Árvores do Lidar 5 anos atrás e está publicada aqui.

Instruções para criar edifícios em 3D a partir das pegadas de construção da Microsoft nos EUA:

Aqui está um link para vê-lo em 3D: Scene Viewer

Extração semiautomática de pegadas de construção de imagens

Em anexo está a ferramenta para ArcGIS Pro 1.3 para Extrair Edifícios de Imagens. Você precisará do Analista 3D e do Analista Espacial para esta ferramenta. Ele obtém imagens segmentadas com a ferramenta Segment Mean Shift e convertidas em vetores. Em seguida, você seleciona os vetores e executa a ferramenta. Ele usa um modelo para converter em edifícios corrigidos dos vetores raster brutos e anexar a uma classe de recurso. Abaixo está um exemplo de vetores de segmentação selecionados e depois executados na ferramenta para obter pegadas de construção. Sugiro selecionar vários edifícios e, em seguida, executar a ferramenta. A ferramenta está anexada na parte inferior como ExtractBuildingsFromImageryPro1_3v4.zip. Depois de descompactar os dados, certifique-se de usar definir projeção na classe de recursos de construção no output.gdb para corresponder à projeção de suas imagens.

Houve um problema com os caminhos que não funcionavam corretamente. Acredito que isso agora esteja corrigido, pois o espaço de trabalho é definido como in_memory. Se você obtiver um erro para o caminho não encontrado, abra o modelo e altere os caminhos no modelo para C: Usuários aluno Documentos ArcGIS Projetos ImageryExtraction ImageryExtraction.gdb seg para in_memory seg. Você terá que fazer isso para todos os arquivos temporários no modelo. Obrigado a quem relatou este erro.

  1. Baixe a ferramenta do meu blog.
  2. Descompacte a ferramenta.
  3. Obtenha imagens de alta resolução da área da qual deseja extrair edifícios (6 polegadas é o melhor).
  4. Mapa do ArcGIS Pro (1.3 ou superior) aberto
  5. Adicione suas imagens ao mapa
  6. Na guia Inserir, use Adicionar caixa de ferramentas para adicionar a caixa de ferramentas ExtractBuildingsFromImageryPro1_3.tbx.
  7. Execute a ferramenta de segmentação de imagens para vetor em suas imagens. Isso leva tempo (5 minutos para um arquivo de 349 mg). Se for quatro bandas, insira 4 2 1 nos índices de bandas.
  8. Mude a simbologia da saída para vermelho e coloque no topo da imagem de deslocamento médio do segmento. Deve ser assim:
  9. Desative a imagem de segmentação e, com a imagem original por baixo, selecione os polígonos para as casas que deseja converter em polígonos de construção.
  10. Pela primeira vez, execute Definir Projeção para a classe de recursos de construção para corresponder às suas imagens.
  11. Abra os vetores de segmentação para a ferramenta de recurso e execute após definir seus parâmetros.
  12. Inspecione seus resultados:

Regularize Building Footprint Tool - Limpe recursos extraídos brutos extraídos de lidar ou imagens.

Edifícios extraídos de Lidar e Raster brutos precisam ser limpos e a ferramenta Regularize Building Footprint faz um bom trabalho, mas é difícil saber o que inserir nos parâmetros da ferramenta. Tenho trabalhado em modelos para fazer isso e agora adicionei um modelo para executar a ferramenta Regularize Building Footprint contra edifícios extraídos raster, chamada de Clean Extracted Buildings usando a ferramenta Regularize Building Footprint.

A ferramenta Limpar edifícios extraídos usando a ferramenta Regularize Building Footprint requer ArcGIS ArcMap 10.4 com ArcGIS for Desktop Advanced e requer a extensão Analyst 3D. Esta é a primeira versão lançada é derivada dos processos abaixo. A entrada para esta ferramenta pode ser rasterizada construindo automaticamente extraída de imagens / mapas digitais / mapas digitalizados em cópia impressa. Usei processos semelhantes para extrair os edifícios de mapas do sistema operacional, rasters lidar gerados e até mesmo imagens classificadas de edifícios. Isso vai além da ferramenta acima na limpeza de recursos usando a ferramenta Regularize Building Footprint.

Hora de executar as duas operações (Aviso: a ferramenta usará a maior parte da capacidade de computação do seu sistema):

Intel Core i7 - 4600 CPU @ 2,10 GHz 2,70 GHz U com 8 GB de memória (64 bits) - 25 minutos para 10.000 recursos

Intel Xeon CPU E5 -1620 0 @ 3,60 GHz 3,60 GHz com memória de 32 GB (64 bits) - 8 minutos para 10.000 recursos

Abaixo, em branco, estão os edifícios originais extraídos do lidar bruto e Aqua Green é o CircleBuildings extraído. O vermelho é a saída de edifícios. Os edifícios sob as circunferências precisarão ser excluídos

1. Para usar esta ferramenta, primeiro execute um Dissolve em seus recursos com multipart desativado.

2. Baixe e descompacte o arquivo anexado. Limpe os edifícios extraídos usando o Regularize Building Footprint Tool.zip

Execute primeiro a ferramenta "1. Regularizar pegadas de construção para círculo (projeção dos pés)".

3. Execute a próxima etapa "2. Regularizar as pegadas dos edifícios, todas não circulares (projeção dos pés)".

4. Revise sua saída de CircleBuildings primeiro, não devem ser tantos e você precisa verificar se eles são realmente

círculos. Se não, exclua. Isso deve coletar tanques, edifícios redondos, gazebos, etc. Se um edifício não for completamente redondo,

mas é como um hexágono ou algo semelhante, tente usar o botão generalize na edição com 1 ou 2 ou 3 para obter os lados

reto como um hexágono ou octógono. Adicione outras estruturas de círculo que você vê, geralmente elas estão próximas umas das outras. Salvar quando

5. Adicione sua classe de recursos de Construções e selecione por localização aqueles com seu centroide em CircleBuildlings e, em seguida, exclua.

6. Reveja seus edifícios. Se você tiver problemas gerais de extração, observe o tipo de construção. Vá para o "2.

Regularize Building Footprints All Non-Circle (Feet Projection) "ferramenta e ajuste essas configurações usando a

Regularize a ajuda da ferramenta Building Footprint.

Estão incluídos alguns dados de amostra e a saída antes de serem revisados ​​manualmente. Você pode ver alguns degraus de escada no

recursos vem. Isso se deve ao fato de a ferramenta ser configurada apenas para lidar com ângulos retos e diagonais para grandes e médios

tipos de edifícios (ver tipo de chamada de campo). O campo TotalProcess na classe de recursos Edifícios mostra os processos

usado. Exemplo: “Regularizado, Simplificado, Simplificado, Simplificado, Simplificado” significa que possuía um Edifício Regularizado

Ferramenta de pegada com uma saída Regularizada, então foi simplificada usando uma ferramenta 2, 4, 6 e 8 Simplificar Edifícios.

* Problema encontrado com a ferramenta de limpeza extraída usando a ferramenta Regularize Building Footprint que não funciona se não houver grandes edifícios (mais de 25.000 pés quadrados), procurando como consertar isso.

Processo manual delineado para ajudá-lo se você quiser entender melhor o que a ferramenta está fazendo:

Primeiro comece extraindo os círculos de seus dados. Eu geralmente corro um condado ou dois de cada vez com isso.

Execute os Círculos primeiro sete vezes - Regularize a pegada do edifício com Tolerância 2, 4, 5, 6, 8 e Tolerância 12 e

as consultas de definição abaixo:

Tolerância 1.6 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 220 AND Shape_Area & gt 175

Tolerância 1.8 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 240 AND Shape_Area & gt 220

Tolerância 2 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 1400 AND Shape_Area & gt 240

Tolerância 4 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 2500 AND Shape_Area & gt 1400

Tolerância 5 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 3000 AND Shape_Area & gt 2500

Tolerância 6 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 8000 AND Shape_Area & gt 3000

Tolerância 8 com os vetores brutos usando uma consulta de definição de Shape_Area & lt = 12000 AND Shape_Area & gt 8000

Tolerância 12 com os vetores brutos usando uma consulta de definição de Shape_Area & gt 12000

Mescle a saída para BuildingsCircle e, em seguida, aplique uma consulta de definição de STATUS = 0. Isso deve funcionar para extrair círculos automaticamente.

Sugiro revisar os círculos para ter certeza de que estão corretos, excluindo os que não estão.

Você vai querer começar a editar nos círculos mesclados, selecionar todos e usar o generalize com uma entrada de 0,1 pé.

Isso transforma os círculos perfeitos em círculos com vértices que são usados ​​como entrada para cenas de governo local.

Selecione os edifícios extraídos brutos que não são círculos usando Selecionar por localização. Execute um Dissolve com Create mulitpart features desmarcado.

Divida em três grupos por tamanho abaixo e execute Regularize Building Footprint com os valores abaixo:

• Pequeno: "Shape_Area" & lt 5.000 pés quadrados

Right_ANGELS Tolerance 2, Densification 2, Precision 0,25

• Médio: "Shape_Area" & gt = 5000 AND "Shape_Area" & lt = 25000 Right_ANGLES_AND_DIAGONAL Tolerance 3, Densification 3,
Precisão 0,25, Penalidade Diagonal 1,5

Grande: "Shape_Area" & gt = 25000 Right_ANGLES_AND_DIAGONAL
Tolerância 4, densidade 4, precisão 0,25, penalidade diagonal 1,5

Depois de executar esses grupos, mescle o resultado em BuildingsNonCircle e execute dissolver nos recursos. Execute um Eliminate Polygon Part nos recursos com pelo menos 20 Square Feet e Eliminate apenas a parte contida. Isso é feito para eliminar os orifícios internos nos polígonos limpos. Execute uma Simplificação de Edifícios com Tolerância de Simplificação 2 e, em seguida, novamente com isso como entrada com uma Tolerância de Simplificação 4.

Fundir seus edifícios de círculo e os edifíciosNonCirclesb4 para obter seus edifícios concluídos. Comece analisando edifícios em comparação com imagens / lidar para encontrar erros (sempre haverá erros, pelo que parece).

Extraindo Edifícios e Árvores de Lidar

Aqui está também uma ferramenta para identificação de construção e árvore da Lidar desenvolvida por Joe McGlinchy e Roslyn Dunn. É um trabalho em andamento e só funciona com ArcGIS Desktop 10.3.1 atualmente. Ele coleta pegadas de construção e árvores de círculo que podem ser executadas por meio da Ferramenta Regularizar Pegada de Construção acima.

Outra ferramenta para extrair árvores que desenvolvi usa imagens Lidar e NAIP está aqui. Uma versão do Pro está anexada (Árvores da LIDAR e NAIP_Pro).

Adicionando cor aos telhados de edifícios para exibição no ArcGIS Pro (Scene Viewer)

Adicionar cor aos telhados no ArcGIS Pro realmente faz com que as cenas pareçam mais realistas com Cenas de Governo Local. Há mais de um ano, desenvolvi um modelo para adicionar cores hexadecimais a edifícios como um campo para exibir no ArcGIS Pro. Com o processo de Cenas de Governo Local, você pode usar um campo com uma Cor Hex para obter cores adicionadas para exibição no ArcGIS Pro usando suas camadas. Costumo usar duas fontes de imagens de épocas diferentes e uso uma para o telhado, depois outra para a cor lateral (adicione outro campo chamado cor lateral). Embora usá-lo para a cor lateral seja ideal, é uma maneira fácil de colorir edifícios em massa.

1. Corte a folha de imagens de alta resolução para a área onde você tem edifícios que deseja adicionar cor.

2. Reamostrar para 3 pés ou mais, isso permitirá que a ferramenta Segment Mean Shift funcione muito mais rápido.

3. Execute o Deslocamento médio do segmento nas imagens de folha com os parâmetros padrão.

4. Execute Adicionar cor hexadecimal de imagens a telhados 10.4 ou ArcGIS Pro Adicionar cor hexadecimal a telhados (anexo abaixo).

5. Baixe os arquivos da camada Old Local Government Scenes (anexados abaixo compactados) e descompacte.

6. Mova seus edifícios para a cena 3D no Pro e clique nas propriedades para definir a elevação como absoluta.

7. No Pro, execute o Apply Symbology from Layer usando o LOD2BuildingShellsFloors_feet.lyrx ou LOD2BuildingShells_meters.lyrx no diretório OldLocalGovernmentScenesLayerFiles que você descompactou. A nova versão das Cenas de Governo Local não tem cor para telhados ou laterais de edifícios, provavelmente será alterada em versões futuras.

7. Defina a cor do telhado para o seu campo de cor hexadecimal na simbologia e aplique.

Abaixo está St. Louis em 3D com cores adicionadas aos edifícios. O Arco foi a única característica desenhada. Todas as cores de construção foram aplicadas por meio de imagens usando o processo acima. As árvores foram extraídas usando Árvores do LIDAR (aqui). Os edifícios foram segmentados usando a ferramenta Segment Mean Shift em um DEM reclassificado preso às pegadas do edifício e depois convertido em polígonos. Isso dá aos edifícios 3D várias alturas para diferentes seções. Adicionar cor hexadecimal de imagens a telhados foi executado em polígonos individuais para as diferentes partes do telhado.

Aqui está um outro exemplo sobre St. Charles, County, MO. Recentemente, eles tornaram seus dados Open Data por meio do MSDIS e, no fim de semana seguinte, processei 160.000 edifícios em 3D usando o Local Government Scenes com um modelo em torno dele para rodar em lote (Scene Viewer). Para as cores do lado da construção, usei esta fórmula para calcular uma cor das cores do telhado. As cores laterais não estão corretas, mas dá uma visão mais realista.

"#" + hex (int (((int (! HexColor! [1: 3], 16)) - random.randrange (30) +20) * - 1)) [- 2:] + hex (int (( (int (! HexColor! [3: 5], 16)) - random.randrange (30)) * - 1) +20) [- 2:] + hex (int (((int (! HexColor! [5:) 7], 16)) - random.randrange (30)) * - 1) +20) [- 2:]

Outra opção é usar o lado real da cor dos edifícios. Para fazer isso, comece com uma pesquisa de imagens em um navegador da web por casas na área que você está fazendo. Você pode então capturar as imagens, georreferenciá-las lado a lado no ArcMap e colocá-las em mosaico. Execute Segment Mean Shift na imagem em mosaico e, em seguida, crie uma classe de recursos para colocar edifícios falsos sobre as áreas das quais deseja obter cores. Execute a ferramenta Add_Hex_Color_From_RGB_Imagery_to_Roofs_10.4 nesses edifícios e, em seguida, exporte-a para uma tabela. Veja quantos registros há na tabela, adicione um campo aos edifícios chamado junção e calcule-o com um número aleatório igual ao número de registros da tabela (importar aleatório no bloco de código, random.randint (1.100), sendo 100 o número de registros). Em seguida, adicione um campo ao seu edifício chamado cor lateral e calcule-o após fazer uma junção com a tabela usando o objectid e o campo de junção. Use este campo como entrada para a simbologia para as laterais dos edifícios. Um exemplo é abaixo disso para Fort Bend, TX, onde extraímos as pegadas dos edifícios de lidar, executamos através das cenas do governo local e, em seguida, aplicamos cor aos telhados a partir de imagens e as cores laterais aleatoriamente.

Fort Bend County, TX, em 3D:

Pegando seu inventário de árvore e exibindo-o em 3d no ArcGIS Pro:

Um tempo atrás, um parque local me perguntou sobre o que fazer com seu novo Inventário de árvore para seu conselho, que foi entregue como uma classe de recursos pontual com gênero. Sugeri mostrá-lo usando ArcGIS Pro em 3D. Abaixo estão as instruções para adicionar uma altura aos pontos da árvore de Lidar e, em seguida, calcular um campo para o Gênero a partir do nome científico. Calculando a altura e um campo apenas com o Gênero, você pode exibir as árvores em 3D no Pro facilmente. Aqui está um link para todas as árvores disponíveis:

Com as árvores, tê-lo conduzido pela Genus significa que um Silver Maple (Acer saccharinum) será mostrado em campo apenas como "Acer" para conduzir a simbologia. Com o link acima, você pode ver que o Acer será mostrado como uma árvore do Sugar Maple. Geralmente, é perto o suficiente para dar uma boa representação do tipo de árvore.

Olhando através da pesquisa, parece que obter a altura de uma árvore a partir do DAP não funciona muito bem. Então, eu sugiro usar o Lidar ou a altura se estiver no Inventário da Árvore. O único problema que encontrei foram as árvores recém-plantadas que o lidar não tinha ou nós menores quando o lidar foi feito.

  1. Reveja os pontos, você provavelmente desejará reprojetar os pontos para o mesmo que seu lidar.
  2. O primeiro passo foi baixar o arquivo LAS da área
    (formato lidar de dados).
  3. A segunda etapa foi criar um conjunto de dados las com as
    arquivos.
  4. Em seguida, usamos o LAS Point como Statistics as Raster usando Z_Range
    método para obter um DEM das alturas das árvores.
  5. Eu executei uma ferramenta de estatística focal com no máximo 3 círculos para
    obter a propagação do ponto mais alto para que cruze o ponto.
  6. Executei Adicionar informações de superfície para obter o Z do
    raster para os pontos de inventário da árvore, esta é a altura da árvore.
  7. Adicione um campo chamado Genus e calcule o campo usando
    o nome científico. ArcGIS precisa
    uma entrada do Gênero apenas, então usei este script vb em 10.4 para fazer isso a partir do nome científico em python (ArcGIS Pro)! BOTÂNICO! .split ('', 1) [0] ou script vb Split ([BOTÂNICO ], "", 2) (0)
  8. Abra o ArcGIS Pro Scene e adicione as árvores como Adicionar camadas predefinidas
    Árvores realistas usando aquele campo Gênero, você obtém uma simbologia mais correta
    para as árvores e o campo de altura. Isso não funciona com todos os seus
    árvores, mas muitos são suportados.
    Novamente, você pode ver aqueles com suporte neste link: Tipos de gênero de árvore com suporte — ArcGIS Pro | ArcGIS for Desktop
  9. Adicione imagens e analise suas árvores para ter certeza de que estão corretas. Um erro comum é a altura em metros ou pés, mas escolhi o errado.

Aqui estão alguns dados que experimentei em Amherst, MA com os dados de origem e um subconjunto processado anexado chamado SubsetOfAmherstMATreeInventory2010.zip:

Outro para olhar é Tower Grove Park em St. Louis, MO. A cena tem mais de 6.000 árvores renderizadas. Algumas árvores não vêm com o gênero correto e aparecem como brancas.

Recebi alguns dados de inventário de árvores do Cemitério Bellefontaine aqui em St. Louis, MO. Usei uma junção com árvores semelhantes ao nome de gênero científico que o Jardim Botânico de Missouri fez para suas árvores renderizar em 3D. Esri suporta cerca de 60 gêneros de árvores para renderização 3D. Então usei o lidar para obter uma fórmula simples para converter o DAP (Diâmetro na Altura do Peito) para a Altura da árvore. Não é preciso, mas reproduziu as árvores razoavelmente bem. Existem fórmulas muito complexas por aí que eu poderia investigar mais para vincular o DAP à altura, isso pode permitir que muitos inventários de árvores se tornem 3D facilmente. A tabela para calcular um gênero semelhante está abaixo com os outros downloads chamados MissouriBotanicalGardenSubstitutesForTreeGenus.txt.

Cena mostrando árvores feitas em 3D usando uma fórmula aplicada ao DBH ((DBH x 2) +20). 5.150 do gênero de árvores 9.153 foram suportados usando os 63 tipos de gênero suportados pelo Esri ArcGIS Pro. 2.120 árvores não correspondiam ao gênero de suporte para renderização, mas uma tabela foi usada fornecida pelo Jardim Botânico de Missouri para gêneros de árvores semelhantes. As árvores em branco não foram apoiadas ou mapeadas para a simbologia do gênero, isso incluiu 1.883 árvores e arbustos. Para calcular o gênero, usei o campo SPP (nome científico) com! SPP! .Split ('', 1) [0]

Scene Viewer - certifique-se de ligar o lidar para ver o quão perto ou não as árvores estão de altura.

Agradecimentos especiais a St. Charles County, Monica Balestreri, MSDIS, Michael Owen, Town of Amherst (MA), Dan Hedges, Joe McGlinchy, Roslyn Dunn, Thomas Maurer, Hua Wei, Jeff Liedtke, JD Overton, Khalid Duri, David Altergott, Tower Grove Park, Andy Watson e os outros que me ajudaram.


Definições de grade

Uma definição de grade se baseia em uma referência espacial, também definindo o Extensão espacial de uma imagem. Assim, fornece uma visão completa do posicionamento geográfico de uma imagem ou área de estudo desejada. Uma definição de grade é apenas uma definição, não uma referência espacial ou imagem.

Quando você precisa co-registrar uma série de tempo de imagens ou criar uma pilha de camadas de bandas com diferentes resoluções, uma definição de grade especifica o sistema de coordenadas comum, referência espacial e extensão espacial que eles irão compartilhar.

Uma definição de grade completa pode ser especificada usando qualquer uma das seguintes combinações:

  • Sistema de coordenadas + extensão espacial + tamanho do pixel
  • Sistema de coordenadas + extensão espacial + número de linhas + número de colunas
  • Sistema de coordenadas + tamanho do pixel + número de linhas + número de colunas

As ferramentas a seguir permitem que você especifique uma definição de grade usando qualquer uma dessas combinações. Eles também podem criar uma definição de grade automaticamente com base na área onde várias imagens se sobrepõem (interseção geométrica) ou a extensão espacial combinada de várias imagens (união geométrica).


Compatibilidade do arquivo do curso entre a versão Steam e Skytrak TGC2019

Estou tendo problemas para obter o design de um curso no qual estou trabalhando na versão Steam PC do TGC2019 Designer e na minha versão do simulador Skytrak, então posso jogar o curso no meu simulador. Este é um curso LIDAR inicialmente criado usando a grande ferramenta do Chad. Tive dois motivos para mudar para a versão Steam: 1) Eu uso um computador diferente na minha garagem com meu dispositivo Skytrak e 2) Não consegui que a ferramenta do Chad carregasse o curso que salvei da versão Skytrak. Essa foi minha primeira bandeira vermelha de que o formato de arquivo .course não era compatível entre as duas versões do TGC2019.

Agora estou tentando pegar um rascunho do design do curso do meu laptop (versão Steam) e importá-lo para a minha versão Skytrak. O Designer na versão Skytrak não lista o arquivo que coloquei no mesmo diretório de um novo arquivo de curso salvo na versão Skytrak. Portanto, definitivamente há problemas de compatibilidade.

Alguém mais caiu nessa? Em caso afirmativo, há alguma maneira de contornar isso? A única outra solução que consigo pensar é trabalhar no código do Chad (sou um programador Python) e tentar fazer com que ele suporte os dois formatos de arquivo.


Renomeie esses arquivos com Python - Sistemas de Informação Geográfica

Visualização 3D em tempo real de dados geoespaciais com o Blender

Este é o material para o workshop FOSS4G realizado em Boston, MA em 14 de agosto de 2017.

E se seus dados geoespaciais e simulações como inundações, propagação de fogo e cálculos de visualização forem convertidos instantaneamente em mundos 3D realistas, interativos e imersivos, sem a necessidade de lidar com software de modelagem 3D excessivamente complicado ou proprietário? Neste workshop prático, exploraremos como automatizar a importação e o processamento de vários tipos de dados geoespaciais (por exemplo, rasters, vetores) usando o Blender, um software de modelagem 3D e mecanismo de jogo de código aberto. Começaremos com uma introdução breve e focada na interface gráfica do usuário (GUI) do Blender, API Python, bem como os addons GIS e realidade virtual. Depois de importar nossos dados GIS para o Blender, passaremos pelas técnicas (tanto com GUI e linha de comando) para aumentar o realismo de nosso mundo 3D através da aplicação de texturas, sombreamento e iluminação. Para tornar nosso trabalho reutilizável em diferentes projetos, automatizaremos todos os fluxos de trabalho de importação e processamento usando Python. Por fim, mostraremos como publicá-lo online para compartilhá-lo com o mundo.

Parte 1. Noções básicas de interface e funcionalidades do Blender

Parte 2. Processamento, sombreamento e renderização de dados geoespaciais

Parte 3. Modelagem 3D em tempo real e acoplamento

Parte 4. Publique seu trabalho online usando Blend4Web

Seção Duração
Parte 1 8:00- 9:45
Quebrar 15 min
Parte 2 10:00-11:00
Parte 3 11:00-11:30
Parte 4 11:30-12:00

I. O que é o Blender e por que usar o Blender?

O Blender é um software de modelagem 3D, renderização e mecanismo de jogo de código aberto. Você pode criar cenas fotorrealistas e animações realistas com ele. O recurso que torna o Blender altamente adequado para visualização geoespacial é sua capacidade de importar vários dados georreferenciados graças ao complemento BlenderGIS. Quase todas as operações feitas na interface do blender podem ser programadas no ambiente de script Python, permitindo que você automatize ou processe em lote seu fluxo de trabalho de modelagem 3D. Além disso, usando os addons Blend4Web ou sketchfab, você seria capaz de publicar seus modelos geoespaciais online, para que todos possam explorar ou fazer download de seu trabalho de forma interativa.

II. Componentes básicos da interface do Blender

O Blender possui vários componentes e recursos que, graças aos seus recursos de código aberto, estão crescendo a cada dia. Cobrir todos os aspectos do próprio software requer várias lições. O objetivo desta seção é fornecer uma breve introdução à interface gráfica de usuário do Blender e alguns de seus recursos que são essenciais para trabalhar com dados geoespaciais, e serão usados ​​ao longo deste tutorial. Apresentaremos especificamente os seguintes componentes: Áreas, editores, guias, cabeçalhos, painéis

A janela do aplicativo do Blender pode ser organizada de forma flexível e dividida em vários Áreas. Uma área contém o espaço de trabalho para um tipo específico de editor, como um Editor de visualização 3D, ou um Outliner. Na figura acima você pode ver que a janela do aplicativo está dividida em cinco áreas, cada uma atribuída a um editor.

Editores são responsáveis ​​por exibir e modificar diferentes aspectos dos dados. Imagine editores como softwares completos, cada um especializado em tarefas específicas, como alteração de propriedades de dados, edição de imagem, edição de vídeo, design de animação, design de jogo e etc. Você pode atribuir uma área a um editor específico usando Seletor de tipo de editor , o primeiro botão no lado esquerdo de um cabeçalho (figura abaixo, esquerda). Cada área no Blender pode conter qualquer tipo de editor e também é possível abrir o mesmo tipo várias vezes.

Abas são seções sobrepostas na interface do usuário. As guias podem ser verticais (estante de ferramentas) ou horizontais (Editor de propriedades, Preferências do usuário).

Outra característica comum é o Cabeçalho, que contém menus e ferramentas comumente usadas específicas para cada editor. Ele tem uma pequena faixa horizontal com um fundo cinza claro, que fica na parte superior ou inferior da área.

Finalmente, a menor unidade organizacional na interface do usuário é um Painel. Normalmente, você pode recolher os painéis para ocultar seu conteúdo. Eles são usados ​​no Editor de propriedades, mas também, por exemplo, na estante de ferramentas e na região de propriedades. Na imagem abaixo à direita você pode ver três painéis, um deles expandido e os demais recolhidos.

Acima: Seletor de tipo de editor (esquerda), uma barra de ferramentas com guias (meio), painéis da barra de ferramentas (direita) Abaixo de: Um cabeçalho com guias

Agora que você tem algumas idéias gerais sobre a interface, revisaremos alguns dos editores mais usados.

O Vista 3D é a interface visual com os dados 3D e a cena com inúmeras funcionalidades para modelagem, animação, pintura de textura, etc. Ao contrário do ambiente 2D do software GIS, onde você só pode navegar nas direções xey, a janela de visualização 3D permite controle total sobre nossa visualização ângulo, profundidade, tamanho, etc. Você pode pressionar e segurar o botão de rolagem do mouse (ou clique do meio) para alterar o ângulo de visão (ou orbitar), deslocar e arrastar para panoramizar e rolar para aumentar o zoom para frente e para trás.

Agora observe o painel do lado esquerdo da região que é chamado Prateleira de ferramentas e possui uma variedade de ferramentas para edição 3D. Complementos recém-instalados também aparecem nesta barra de ferramentas. Agora observe o fundo Cabeçalho. Inclui menus para adicionar e editar objetos, bem como opções de visualização e sombreamento.

Cabeçalho de visualização 3D (obtido do manual do Blender)

Cabeçalho Ver menu permite que você selecione um ponto de vista específico, como perspectiva superior, esquerda ou diferentes. Cada um desses comandos possui um atalho de teclado, por exemplo, você pode pressionar o teclado numérico 3 (se você tiver um teclado completo) para alternar para a vista superior.

Adicionar menu fornece uma lista de diferentes tipos de objetos 2D e 3D que podem ser adicionados a uma cena

Em Modo de interação de objeto você pode aspecto diferente dos dados. Neste tutorial, nos concentramos Modo de objeto e Modo de edição. Modo de edição permite que você acesse mais estruturas de baixo nível de seu objeto, como faces e vértices. Nos exemplos que completamos neste tutorial, usaremos algumas dessas opções para refinar o modelo de superfície. É importante se familiarizar com os 3 elementos principais, Rostos, Arestas e Vértice. Você pode selecionar esses elementos clicando em seus ícones correspondentes.

No lado direito do modo de interação, está a janela de visualização Modo de sombreamento que você pode usar para escolher os métodos de renderização de visualização e janela de visualização. Modo sólido é o modo padrão e mostra objetos com faces sólidas, mas sem texturas e sombreamento. O Modo de textura mostra o objeto com texturas. Modo material é a aproximação rápida do material completo, incluindo textura e sombreamento. Modo renderizado permite a renderização em tempo real, que calcula o produto quase final instantaneamente conforme você interage com o objeto (com materiais e iluminação precisos).

Seleção e interação de objetos básicos

Objetos são basicamente tudo o que você vê na visualização 3D. Eles incluem objetos 3D, luzes, câmeras e muito mais. Você pode selecionar qualquer objeto na cena usando o clique com o botão direito. Os objetos selecionados são destacados em laranja. Use os 3 eixos (ou seja, alças) para mover o objeto em sua direção preferida. Para selecionar vários objetos, pressione e segure a tecla Control e clique com o botão direito nos objetos para adicioná-los à sua seleção. Para cancelar a seleção, segure a tecla Shift e clique com o botão direito do mouse no objeto. Você pode mover (agarrar) objetos pressionando G, girá-los pressionando R ou escalá-los usando a tecla S. Você pode restringir qualquer transformação a um eixo específico pressionando x, y, z. Você pode excluir o objeto selecionando-o, pressionando a tecla delete e selecionando ok.

Como o próprio nome sugere, o outliner lista e organiza os objetos da cena. A partir daí, você pode definir a hierarquia, visibilidade dos objetos 3D ou bloqueá-los, se necessário. Você também pode selecionar e ativar objetos clicando em seus nomes na lista. A figura abaixo mostra Editor Outliner que listam três objetos (Câmera, Cubo e Lâmpada) e o objeto Lâmpada é selecionado.


O console Python é um editor útil para testar e executar comandos curtos, que podem ser integrados em fluxos de trabalho maiores. Os módulos de modelagem e jogos do Blender já estão carregados no console do Python para que você possa testar seus trechos de código sem esforço extra de chamar os módulos.


Console Python (obtido do manual do Blender)

Exemplo 1. Operação de objeto simples usando o console Python.

  • Ligar Cubo objeto e imprimir sua localização
    • Copie e cole as linhas de comando individuais no console e pressione Enter

    O editor de texto permite que você edite seu script python e execute-o dentro do Blender. Pressionando o + ícone você pode iniciar um novo arquivo e clicar em Executar script para executar seu código. Você precisa chamar os módulos de modelagem e jogos no editor de texto.

    Exemplo 2. Processamento em lote de operações de objeto simples usando editor de texto

    • Crie uma matriz de 20 por 20 cubos com tamanho e localização variados.
      • No editor de texto, clique no + ícone para criar um novo arquivo de texto
      • Copie e cole o snippet abaixo e clique em Executar script botão
      • Os resultados devem ser semelhantes à figura abaixo
      • Exclua todos os objetos de cubo, adicione um Macaco objeto e adicione um Avião objeto
        • Abra uma nova janela de texto ou exclua o conteúdo das existentes (selecione o conteúdo com ctrl + A e pressione del)

        Editor de propriedades permite que você modifique as propriedades da cena, configuração de renderização, transformação de objetos ou alteração de suas propriedades de material ou textura. Os componentes com os quais trabalharemos nos exemplos a seguir são Propriedades do objeto, material e textura.

        Nota: A interface do editor de propriedades muda dinamicamente de acordo com o objeto selecionado. Por exemplo, se você selecionar a luz, o ícone do pequeno sol aparecerá para definir as propriedades da luz e, da mesma forma, você deve selecionar a câmera para poder ver a guia da câmera e modificar as propriedades.

        Propriedades do objeto guia permite transformar a localização, orientação e escala do objeto, junto com suas propriedades de exibição. Você pode usar a entrada numérica para parâmetros de transformação.

        Exemplo 3. Transformação de objeto básico usando modificador de propriedades

        • Certifique-se de que Suzanne objeto é selecionado. Deve ser destacado em delineador
        • Vamos para Editor de propriedadesAba de objeto ‣ Expandir o Transformar painel
        • Modelo 3, 2, 4 para X, Y, Z parâmetros, respectivamente.
        • Mudar Rotação e Escala parâmetros para ver como eles afetam o objeto

        Materiais guia permite que você atribua ou altere o material de um objeto. Você pode adicionar e remover materiais ou usar o navegador de materiais para atribuir materiais criados anteriormente ao objeto. Neste tutorial, apresentamos brevemente dois componentes básicos de Materiais, Shaders e Texturas.

        Sombreamento (ou coloração) permite ajustar a cor de base (conforme modificada pelo fenômeno de difusão e reflexão especular) e a intensidade da luz. Você também pode atribuir Textura para os objetos, que é chamado Mapeamento de textura. O mapeamento de textura é freqüentemente usado para adicionar detalhes às superfícies projetando imagens e padrões nessas superfícies. Por meio dos exemplos a seguir, praticamos sombreamento simples e mapeamento de textura.

        Exemplo 4. Atribuição de Shaders e Texturas simples

        • Shaders
          • Do objeto selecionado de outlier, certifique-se de que Suzanne objeto é selecionado
          • Vamos para editor de propriedadesguia de objeto ‣ Clique no + Novo botão para criar um novo material
          • Clique duas vezes no nome do material (por exemplo, Material.001) e altere para Mymat
          • Expanda o painel de antevisão para ver uma antevisão ao vivo do material à medida que o altera
          • Mude o parâmetro de cor para vermelho
          • Vá para a parte inferior do editor 3D CabeçalhoSombreamento da janela de visualizaçãorendido para ver o objeto renderizado em tempo real
          • Mude a cor para amarelo
          • Clique no BSDF difuso campo na frente do parâmetro de superfície e selecione Glass BSDF
          • Agora tente Emissão BSDF e BSDF brilhante shaders enquanto o viewport shader está ligado Renderizado modo para ver o efeito na renderização. A visualização do material e a renderização da cena devem ser semelhantes à figura abaixo

          Da esquerda para direita: BSDF difuso, BSDF de vidro, BSDF brilhante, Emissão

          • Texturas
            • Enquanto o shader ainda está em “Glossy BSDF”, clique no botão de opção na frente do parâmetro “Color”. Um widget com várias colunas aparecerá. Na coluna de textura, selecione “Voronoi” para ver como a textura afeta a renderização.
            • Agora tente a textura “Gradiente”. A visualização do material e a renderização da cena devem ser semelhantes às duas colunas da esquerda na figura abaixo.

            Da esquerda para direita: Textura gradiente, textura Voronoi, BSDF brilhante, sombreador de mistura

            Para criar materiais mais sofisticados, você pode usar Editor de nó . O editor de nós é uma interface visual para visualizar e criar uma rede interconectada de nós. Nessa rede, cada nó individual realiza alguma operação no material, mudando como ele aparecerá quando aplicado à malha, e o passa para o próximo nó. Desta forma, aparências materiais muito complexas podem ser alcançadas.

            Exemplo 5. Configure um Mix Shader usando o editor de nós. Neste exemplo, misturamos um shader brilhante com um shader difuso para fazer um material composto.

            • Clique com o botão direito no objeto Monkey (Suzanne) para selecioná-lo
            • Alterne o editor do console Python (área inferior esquerda) para Editor de nó (figura abaixo, esquerda).
            • No editor de nós, você verá os nós que já configuramos. A saída do sombreador de nó brilhante é conectada à entrada de superfície da saída de Material.
              Agora adicionaremos dois outros shaders, um shader difuso e um shader mix.
            • Do cabeçalho inferior do Editor de Nó ‣ AdicionarShaderBSDF difuso
            • Do cabeçalho inferior do Editor de Nó ‣ AdicionarShaderMix shader. Você deve ser capaz de ver que ambos os nós foram adicionados ao seu editor de nós.
            • Altere o valor da cor do nó Diffuse para R: 0,075 G: 0,35 B: 0,50
            • Desconecte o BSDF brilhante entrada da superfície
            • Conecte a saída BSDF de ambos os sombreadores Diffuse e Glossy às entradas no lado esquerdo do Mix (Shader)
            • Conecte a saída do Shader (no lado direito) à entrada da superfície dos nós de saída do Material (figura abaixo, à direita).
            • Com o Fac parâmetro, você pode ajustar o nível de mistura.
            • Seu material deve se parecer com a coluna da direita da figura acima, saiba mais sobre nós

            Outros recursos complementares para aprender a interface do blender

            Parte 2. Processamento, sombreamento e renderização de dados geoespaciais

            Nesta seção, aprenderemos como configurar o complemento GIS do blender e georreferenciar a cena. Também revisaremos o procedimento de importação, processamento e sombreamento de dados vetoriais e rasterizados. Continuaremos com as instruções usando uma atribuição simples de viewshed. O objetivo da atribuição é visualizar e comparar simulações de enquadramento visual computadas para 4 locais diferentes em um site. O fluxo de trabalho geral é o seguinte.

            I) Preparando a cena e iluminando II) Georreferenciando a cena III) Importando e processando o raster de superfície digital IV) Importando e processando o shapefile do ponto de vista V) Dobrando o mapa de enquadramento e ortofoto no modelo de superfície

            Observação: Viewshed é um mapa raster que mostra as áreas visíveis de uma superfície a partir de um determinado local.

            Existem duas maneiras de completar o método de script de exemplo (usando o editor Python do blender) e o método GUI (interface gráfica do usuário). Para cada etapa, o procedimento da GUI é listado como marcadores. Abaixo disso, você pode encontrar o trecho de código se desejar seguir o procedimento de script. Para executar o trecho de código, abra um novo arquivo de texto em Editor de texto e para cada etapa copie e cole diretamente o snippet de código no editor e clique em Executar script para executar o código.

            Método Duração dificuldade
            GUI 1-2 horas Complexo
            Editor Python 10-15 minutos Fácil

            Observação Para um melhor aprendizado, complete o exemplo com os dois métodos, mas não misture e combine. Tente seguir um método do início ao fim.

            A primeira etapa é limpar a cena e configurar os parâmetros de renderização e iluminação. GUI

            • Execute o Blender e abra o arquivo Example_A.blend.
            • Selecione o padrão Cubo objeto na janela de visualização 3D e exclua-o (clique com o botão direito no objeto ‣ pressione delete ‣ ok)
            • Certifique-se de que o motor de renderização está definido para "Ciclos". Você pode encontrá-lo no cabeçalho superior, o padrão é Blender Render
            • Para aumentar a elevação da lâmpada e alterar o tipo de lâmpada para sol para iluminação adequada:
              • Clique com o botão esquerdo no Luminária objeto em Outliner para selecioná-lo
              • Vamos para Editor de propriedadesObjeto (o ícone do cubo laranja) ‣ Transformar painel ‣ no Localização matriz, mude o Z valor para 1000 (veja a figura abaixo, se necessário)
              • Em Editor de propriedadesLuminária (dois ícones à direita do Objeto ícone) ‣ expanda o Luminária painel ‣ Alterar o tipo de lâmpada para sol
              • Expandir o Nós painel ‣ Clique em Nós de uso para permitir a modificação dos parâmetros do Sun.
              • Colocou o Força parâmetro para 6,00

              Editor Python

              II. Georreferenciando a cena do Blender

              Configurando o complemento Blender GIS

                o complemento BlenderGIS
            • Vamos para ArquivoPreferências de usuário (Alt + Ctrl + U) ‣ ComplementosInstalar do arquivo (parte inferior da janela)
            • Navegue e selecione o arquivo "BlenderGIS-master.zip"
            • Você deve ser capaz de ver o addon 3Dview: BlenderGIS adicionado à lista. Caso contrário, digite "gis" na barra de pesquisa, certificando-se de que no Categorias painel Tudo é selecionado. Nos resultados da pesquisa, você deve ser capaz de ver 3Dview: BlenderGIS. Selecione para carregar o addon.
            • Na parte inferior da janela de preferências, clique em Salvar configurações do usuário então o addon é salvo e carregado automaticamente cada vez que você abre o liquidificador
            • Adicionando um novo sistema de referência de coordenadas predefinido (CRS)

              Antes de configurar o sistema de referência de coordenadas da cena do Blender e configurar a projeção da cena, você deve conhecer o Sistema de Referência de Coordenadas (CRS) e o Identificador de Referência Espacial (SRID) de seu projeto. Você pode obter o SRID em http://epsg.io/ ou no site de referência espacial usando seu CRS. Os conjuntos de dados de exemplo neste exercício usam um NAD83 (HARN) / CRS da Carolina do Norte (SSRID EPSG: 3358)

              • No painel de complemento do BlenderGIS (nas janelas de preferências), selecione para expandir o Visualização 3D: BlenderGIS
              • No painel de preferências, encontre Sistemas de Referência Espacial e clique no acrescentar botão
              • Na janela de adição, coloque "3358" para definição e "NAD83 (HARN) / Carolina do Norte" para Descrição. Então selecione Salvar nas preferências de addon
              • Selecione OK e feche a janela Preferências do usuário

              Saiba mais sobre gerenciamento de georreferenciamento no Blender

              Configurando o sistema de coordenadas da cena

              • Encontre e clique na interface do complemento GIS na barra de ferramentas esquerda da janela de visualização 3D. No painel “Geoscene”, clique no ícone de formato de engrenagem e mude para NAD83 (HARN), clique em ok.

              III. Importando modelo de superfície digital

              Os raster podem ser importados e usados ​​de diferentes maneiras. Você pode importá-los Como DEM para usá-lo como uma superfície 3D ou as_Raw DEM_ para ser triangulado ou revestido dentro do Blender. Você pode selecionar Na malha para drapejá-los como uma textura em suas malhas 3D. Neste exemplo, importamos um modelo de superfície digital (DSM) derivado do conjunto de dados de pontos de dados Lidar como uma malha 3D usando Como DEM método. Nota: O Blender GIS importa tanto o Modelo Digital de Elevação (DEM) quanto o Modelo Digital de Superfície (DSM) por meio de Como DEM método.

              • Vamos para ArquivoimportarRaster Georreferenciado
              • No canto inferior esquerdo da janela, encontre Modo e selecione Como DEM
              • Definir subdivisão para Subsurf e selecione NAD83 (HARN) para georreferenciamento
              • Navegue até a pasta 'workshop_material' e selecione 'example1_dsm.tif'
              • Clique em Importar georaster no cabeçalho superior direito
              • Se todas as etapas forem seguidas corretamente, você deve ser capaz de ver o terreno na janela de visualização 3D

              Editor Python

              Subdivisão e refinamento da superfície

              Normalmente, quando os modelos de superfície ou de elevação são importados no Blender, eles são reduzidos para uma subdivisão padrão, resultando na suavização dos detalhes da superfície. O procedimento a seguir subdivide a malha importada em faces menores para aprimorar a representação da superfície. Nesta etapa, aumentamos as unidades de subdivisão para adquirir uma superfície mais detalhada.

              • Selecione o modelo de superfície (clique com o botão direito no objeto)
              • Vamos para Vista 3D barra de ferramentas inferior do editor ‣ Modo de interação de objetoModo de edição
              • Troque para Seleção de rosto
              • Se o objeto não for laranja (ou seja, nada estiver selecionado), vá para Selecione(Desmarcar todos (ou pressione A) para selecionar todas as faces (quando as faces do objeto forem selecionadas, elas ficarão laranja)
              • Vamos para Ferramentas (barra de ferramentas à esquerda) ‣ Ferramentas de malhaSubdividir . A caixa de diálogo de subdivisão deve aparecer na parte inferior esquerda da barra de ferramentas. Digite "4" na guia de número de cortes
              • Vamos para Vista 3D barra de ferramentas inferior do editor ‣ Modo de interação de objetoModo Objeto . Você deve ser capaz de ver os detalhes da superfície neste ponto (figura inferior, imagem à direita).

              Editor Python

              4. Importando shapefile do ponto de vista

              Nesta etapa, importaremos as localizações dos pontos de vista como um arquivo de forma de recurso de ponto. Com esses recursos, podemos visualizar a localização do observador a partir da qual os visores são calculados na superfície digital. O complemento BlenderGIS pode importar características de formas respeitando seus atributos. Neste exemplo, o "viewpoint.shp" tem Elevação e Nome atributos que usaremos para atribuir um nome alto e exclusivo aos nossos pontos de visão.

              • Para importar o arquivo de forma do ponto de vista:
                • Vamos para ArquivoimportarShapefile
                • Navegue pelo diretório de dados da oficina, selecione vpoints.shp e clique em Importar envio . A caixa de diálogo de importação de formas deve aparecer na frente da interface do complemento GIS.
                • Ativar Elevação do campo e no painel de campo selecione altura
                • Ativar Objetos separados
                • Ativar Nome do objeto do campo e no painel de campo selecione Nome, você deve ser capaz de ver 4 os pontos na superfície e 4 objetos adicionados ao Outliner com os nomes Viewshed_1, Viewshed_2, Viewshed_3, Viewshed_4
                • Selecione OK

                Editor Python

                Criação de marcadores de ponto de vista

                Os pontos importados são vetores 2D que não podem ser renderizados porque não possuem superfícies reais. Agora criamos 4 pequenas esferas e combinamos sua localização com os pontos importados para visualizar as localizações do observador em 3D.

                • Para criar esferas na localização do ponto de vista:
                  • Vá para a janela de visualização 3D cabeçalho inferiorAdicionarMalhaEsfera ultravioleta. A caixa de diálogo Adicionar esfera UV abrirá no lado esquerdo da barra de ferramentas. Defina o parâmetro de tamanho para 3.000
                  • Selecione o objeto Esfera (clicando nele em Outliner) e pressione ctrl + c, ctrl + v para fazer uma cópia do objeto, você deve ver o Sphere.001 no esboço. Faça 3 cópias da esfera.
                  • No delineamento, renomeie os objetos de esfera para Sphere1, Sphere2,. , Sphere4. Você pode fazer isso clicando no nome do objeto.
                  • A partir de Outliner selecione o objeto Viewshed_1
                  • Vamos para Editor de PropriedadesObjetoTransformarLocalização para recuperar as coordenadas do ponto de visualização (X, Y, Z)
                  • Copie e cole as coordenadas recuperadas de Viewshed_1 nos parâmetros de localização para Sphere1
                  • Adicione 2,0 unidades extras ao parâmetro Z (apenas para Localização) para elevar as esferas acima do solo
                  • Repita este processo para cada enquadramento visual e cada esfera
                  • Agora você deve ter 4 esferas alinhadas nos pontos de visualização importados.

                  Editor Python

                  Gerando 4 cópias das esferas da superfície e do ponto de vista

                  Nesta etapa, criamos 3 cópias adicionais do modelo de superfície e movemos cada uma das esferas do ponto de vista para o
                  superfície correspondente.

                  • Selecione o objeto DSM e pressione ctrl + c, ctrl + v para fazer uma cópia do objeto, você deve ver o objeto example1_dsm.001 no delineador
                  • Selecione o objeto example1_dsm001
                  • vamos para Editor de PropriedadesObjeto (ícone de cubo)
                  • No Transformar painel ‣ Delta TransformX: modelo 750 para mover a superfície duplicada 750 metros para o leste
                  • Crie outra cópia do DSM, coloque -750 para o parâmetro Y para mover a superfície duplicada 750 metros para o sul
                  • Crie outra cópia do DSM, coloque 750 no parâmetro X e -750 no parâmetro Y. O modelo final deve ser semelhante a uma figura
                  • Repita o mesmo procedimento para as 4 esferas (começando da esfera 1) para que cada uma delas seja movida para uma das superfícies.

                  Editor Python

                  Agora vamos criar um material misto para combinar ortofoto e mapas de visualização. Usaremos sombreadores de emissão para mostrar viewsheds como superfícies brilhantes. Para fazer isso, criamos mapas de visualização em tons de cinza com fundo preto, o sombreador de emissão atribui maior poder de emissão de luz aos pixels mais claros.

                  • Certifique-se de que o Motor de renderização está configurado para Ciclos e janela de visualização 3D Sombreamento está configurado para Material
                  • Altere o painel do editor inferior para Editor de nó. Isso pode ser feito simplesmente alterando o seletor de Tipo de Editor (canto inferior esquerdo da janela).
                  • Selecione o primeiro objeto DSM "example_dsm1"
                  • Vamos para Guia PropriedadesMaterial Aperte + Novo botão para adicionar material
                    • Renomeie o material para "Viewshed1"
                    • Expandir o Superfície painel e clique no ícone em forma de quadrado cinza no lado direito do Superfície parâmetro para ver uma janela pop-up com parâmetros de textura. Selecione Mix Shader . Você deve ser capaz de ver dois Shaders adicionado abaixo do sombreador de mixagem.
                    • Clique no botão de rádio do lado direito do cor campo ‣ texturaTextura da imagem
                    • Clique em Aberto e carregue "viewshed_1_1.png". Você deve ser capaz de ver o enquadramento visual na superfície do DSM
                    • Mudar o Força controle deslizante para 1,8 para aumentar a potência de emissão do visor
                    • Clique no botão de rádio do lado direito do cor campo ‣ texturaTextura da imagem
                    • Clique em Aberto e carregue "ortho.png". Você deve ser capaz de ver o enquadramento visual na superfície do DSM

                    Agora observe como a lógica do material e o fluxo de trabalho são representados no editor Node. Você pode brincar com cada um dos nós individuais, as ligações entre eles e os valores.

                    • Brinque com o Fac controle deslizante no Mix shader nó para ajustar o nível de mistura
                    • Para repetir o procedimento de sombreamento para os outros 3 objetos usando "Viewshed_2_1.png", "Viewshed_3_1.png", "Viewshed_4_1.png"
                      • Selecione o objeto de superfície e vá para Guia PropriedadesMaterial Pressione o botão em forma de redemoinho (ao lado do novo botton) para navegar e carregar o matarial "Viewshed 1". Faça uma nova cópia do material pressionando o botão numérico à esquerda do campo do nome do material. Renomeie o novo material para "Viewshed 2".
                      • Agora, no editor de Nó ou na guia Material, altere a textura de emissão para "viewshed_2_1.png"
                      • Repita o mesmo procedimento para duas outras superfícies.

                      Editor Python

                      Agora siga o mesmo fluxo de trabalho para sombrear as esferas do ponto de vista, mas desta vez use apenas o nó difuso (BSDF difuso) a com cor laranja sólida.

                      • Selecione a primeira esfera, crie um novo material usando Diffuse BSDF
                      • Mude a cor da superfície para laranja
                      • Carregue o material em todos os objetos de esfera

                      Agora vamos tentar executar todo o procedimento com um arquivo python usando Editor de texto e Console Python
                      ‣ GUI

                      • Do topo do cabeçalho, vá para ArquivoNovo para abrir uma nova cópia do Blender
                      • Salve o arquivo do blender com seu nome preferido no diretório da oficina. Observação: Esta é uma etapa importante, pois todos os seus caminhos no código Python estão vinculados a esse diretório
                      • No topo do cabeçalho, encontre Layout (perto de ajuda ) e mudar o layout para Scripting O layout de script inclui: a Editor de texto(deixei uma Console Python (embaixo) e Vista 3D (certo)
                      • Procedimento para Editor de texto
                        • Em Editor de textoAberto ‣ Vá para o diretório do workshop e encontre example_a.py
                        • Clique em executar script
                        • digite as seguintes linhas no console. Observe que você precisa digitar o caminho do workshop em seu computador na primeira linha.

                        Console Python & gt & gt & gt

                        Editor Python

                        Parte 3. Modelagem 3D em tempo real e acoplamento

                        I. Introdução ao acoplamento com temporizador modal

                        Nesta seção, aprendemos o básico para configurar o acoplamento simples para importação e processamento de dados geoespaciais, em tempo real. Fazemos isso configurando um sistema de monitoramento dentro do blender que procura continuamente por comandos de entrada (por exemplo, através de sockets), arquivos (por exemplo, arquivo de forma, arquivos raster, etc.) ou interação do usuário (por exemplo, mouse, joystick, teclado) . No Blender este procedimento é feito através de um módulo chamado Operador de cronômetro modal. A razão pela qual nos concentramos neste módulo específico é que bibliotecas de monitoramento de rotina como Watchmode ou Threading não são bem tratadas no Blender e freqüentemente resultam em travamentos. Esses módulos interferem na capacidade do blender de executar vários operadores ao mesmo tempo e atualizar diferentes partes da interface à medida que a ferramenta é executada.

                        Os dados podem ser transferidos localmente ou pela rede, usando uma cópia de arquivo simples ou métodos mais avançados, como soquetes. Como exemplo, o vídeo a seguir mostra um acoplamento em tempo real com GRASS GIS. O próprio GrassGIS é emparelhado com o Kinect para escanear as mudanças de elevação e cor no modelo físico. Conforme o usuário interage com o modelo físico, GRASS GIS executa várias simulações e as exporta como formatos raster e de forma para um diretório do sistema. No Blender Cronômetro modal está monitorando continuamente o diretório para atualizar o modelo com base nos tipos de dados de entrada. Isso inclui superfície do terreno (Geotiff), simulação de lagoas (3Dpolygon), manchas de cobertura (polígono 3D), localização da câmera (3Dpolyline), trilha (3Dpolyline).

                        Vamos dar uma olhada nos componentes e na funcionalidade do módulo no exemplo a seguir.

                        Execute o script que é carregado no editor de texto

                        Selecione o objeto Macaco e mova-o. Você verá que conforme você move o objeto, três operações são executadas simultaneamente: 1) os valores RGB mudam, 2) um objeto de texto muda para mostrar os valores RGB atualizados, 3) e o objeto de texto temporizador muda para mostrar o tempo decorrido em segundos.

                        Cancele o modo modal com a tecla "Esc".

                        Dê uma olhada rápida no código comentado para verificar os componentes dos módulos e sua funcionalidade

                        II. Acoplamento com dados GIS

                        Neste exemplo, estamos usando o cronômetro modal para monitorar um diretório do sistema, no workshop_materials pasta você pode ver duas pastas chamadas "Watch" e "scratch". A pasta de rascunho contém 45 arquivos de formas e 45 imagens. Os shapefiles representam pontos de vista em um caminho e as texturas representam visores simulados a partir desses locais. Os visores são combinados com a cobertura vegetal para mostrar a composição do uso do solo na superfície visível. Por meio de um script python, configuramos um cronômetro modal para procurar constantemente por arquivos para importar e processar. Para emular a simulação geoespacial, configuramos um segundo cronômetro modal que copia os dados geoespaciais da pasta Scratch para a pasta Watch (veja o esquema acima). O script python consiste nas seguintes classes python.

                        1. adaptar classe processa os arquivos de entrada e objetos de cena. Especificamente, ele executa as seguintes operações.

                        • Importa o mapa viewshed
                        • Substitui a textura de emissão do DSM objeto com o mapa importado
                        • Importa o arquivo de forma do ponto de vista
                        • Alinha a localização do marcador de enquadramento visual (Toro objeto) com a localização do ponto de vista importado.

                        2. Temporizador modal Olha para o Assistir diretório, detecta o tipo de arquivo de entrada, envia-os para adaptar a classe e, finalmente, remove o arquivo da pasta monitorada.
                        3. Modal_copy atua como um substituto para seu software GIS e copia arquivos de textura e formato de ponto da pasta Scratch para a pasta Watch para simular a condição em que seu aplicativo GIS está enviando arquivos automaticamente pela rede ou localmente. 4. Painel um pequeno widget com botões para executar os módulos (2 e 3)

                        • Vá para o arquivo ‣ preferências ‣ addons ‣ BlenderGIS ‣ painel de importação / exportação
                        • Desmarcar Ajustar vista 3D e Sombreamento sólido texturizado forçado.
                        • Agora execute o script carregado no editor de texto
                        • O script adiciona um novo painel na barra de ferramentas da visualização 3D (lado esquerdo) com dois botões, Modo assistir e Copiar arquivos
                        • Primeira Imprensa Modo assistir e então pressione Copiar arquivos
                        • Você deve ser capaz de ver os mapas de enquadramento visual e o objeto de localização do observador sendo atualizados ao longo do caminho.

                        Parte 4. Publique seu trabalho online usando Blend4Web

                        O Blend4Web é uma ferramenta poderosa para publicar e compartilhar facilmente seus dados online, dentro do blender. Especialmente para não codificadores, o addon é uma ferramenta conveniente para criar modelos interativos sofisticados. Para dar uma olhada nas funcionalidades do Blend4Web, observe os seguintes aplicativos apresentados na biblioteca de exemplos do Blend4Web.
                        Everest
                        Renderização de baixo poli

                        Exemplo . Isosuperfícies

                        Neste exemplo, usamos o complemento Blend4Web para exportar um modelo 3D online. Os dados de amostra são emprestados de um projeto focado na visualização de padrões espaço-temporais do comportamento de pedestres usando dados coletados de webcams públicas. Os dados são visualizados usando uma Isosurface criada no Paraview. A forma de uma isosuperfície mostra a evolução espaço-temporal da densidade de pedestres. O eixo do tempo é representado como uma rampa de cores disposta sobre a isosuperfície.

                        I. Configurando o complemento Blend4Web

                        • De workshop_materials diretório localizar e abrir isosurface.blend
                        • Para configurar Blend4Web adicionar
                          • Vamos para ArquivoPreferênciasaddonsinstalar do arquivo
                          • De workshop_materials localize e selecione o diretório blend4web_addon_17_06.zip
                          • Certifique-se de que o addon está configurado e selecionado
                          • Clique salvar as configurações do usuário e feche a janela de preferências

                          II. Exportando cena do blender para o formato da web

                          Para exportar a cena do blender como .html usando GUI

                          • Vamos para ArquivoExportarBlend4Web (.html)
                          • Nomeie seu arquivo e clique em B4W Export HTML botão
                          • Clique duas vezes no arquivo html para abri-lo no navegador

                          Para exportar a cena do blender como .html usando editor

                          Este trabalho é baseado em grandes contribuições e suporte da equipe do Blender, desenvolvedores do complemento Blender GIS (domlysz / BlenderGIS), Centro de Análise Geoespacial, laboratório Geoforall da NC State e Garrett Millar.


                          Existem várias organizações que fornecem dados de elevação. Por exemplo, vamos baixar um arquivo DEM do Monte Santa Helena antes ou depois de sua erupção nos anos & # 3980. Esses arquivos são de domínio público e são distribuídos pela USGS.

                          Descompacte o arquivo e renomeie-o como mtsthelens.dem da seguinte maneira:

                          Normalmente, os arquivos DEM têm grandes resoluções e o Gazebo não consegue lidar com isso, então é uma boa ideia ajustar a resolução do seu DEM. O próximo comando irá dimensionar o terreno para 129x129 e irá copiar para o diretório / dem / mídia Gazebo.

                          Um arquivo DEM no Gazebo é carregado da mesma maneira que você carrega uma imagem de mapa de altura. O Gazebo detecta automaticamente se o arquivo é uma imagem simples ou um arquivo DEM. Crie o arquivo volcano.world e copie o próximo conteúdo. Salve o arquivo onde quiser, por exemplo, em / tmp.

                          O elemento & ltheightmap & gt & ltsize & gt no código acima informa ao Gazebo se deve carregar o DEM com as dimensões originais (quando & ltsize & gt não estiver presente) ou dimensioná-lo (quando & ltsize & gt estiver presente). Caso você prefira dimensionar o DEM, o elemento & ltsize & gt informa ao Gazebo o tamanho em metros que o terreno terá na simulação. Se você deseja manter a proporção correta, certifique-se de calcular corretamente seu tamanho em todas as três dimensões. Em nosso exemplo, o DEM será dimensionado para um quadrado de 150 x 150 metros e uma altura de 50 metros. A elevação mínima para este arquivo DEM em particular é 685 metros, portanto, no elemento & ltpos & gt, traduzimos todo o DEM na direção z negativa para que fique em z = 0 no mundo.

                          Inicie o Gazebo com o mundo que contém seu arquivo DEM e você deverá ver o vulcão. Em nosso caso, o arquivo está no diretório / tmp.

                          Tente fazer o mesmo com o arquivo DEM para o Monte Santa Helena após a erupção. Você deve obter um mapa de altura no Gazebo semelhante à imagem abaixo:


                          QGIS 2.10 RPMs para Fedora 21, Centos 7, Scientific Linux 7

                          Graças ao trabalho de Volker Fröhlich e outros empacotadores Fedora / EPEL, fui capaz de criar Pacotes RPM do QGIS 2.10 Pisa para Fedora 21, Centos 7 e Scientific Linux 7 usando a excelente plataforma COPR.

                          Os seguintes pacotes agora podem ser instalados e testados em epel-7-x86_64 (Centos 7, Scientific Linux 7, etc.), e Fedora-21-x86_64:

                          • qgis 2.10.1
                          • qgis-debuginfo 2.10.1
                          • qgis-devel 2.10.1
                          • grama qgis 2.10.1
                          • qgis-python 2.10.1
                          • qgis-server 2.10.1

                          Instruções de instalação (execute como & # 8220root & # 8221 usuário ou use & # 8220sudo & # 8221):


                          Renomeie esses arquivos com Python - Sistemas de Informação Geográfica

                          Um Modelo Digital de Elevação (DEM) é uma representação 3D da superfície de um terreno que não inclui nenhum objeto como edifícios ou vegetação. DEMs são freqüentemente criados usando uma combinação de sensores, como LIDAR, radar ou câmeras. As elevações do terreno para posições no solo são amostradas em intervalos horizontais regularmente espaçados. A Wikipedia é um bom recurso para obter mais detalhes sobre DEMs.

                          O termo DEM é apenas uma denominação genérica, não um formato específico. Na verdade, os DEMs podem ser representados como uma grade de elevações (raster) ou como uma rede irregular triangular baseada em vetor (TIN). Atualmente, o Gazebo só oferece suporte a dados raster nos formatos suportados disponíveis em GDAL.

                          A principal motivação para apoiar DEMs no Gazebo é ser capaz de simular um terreno realista. Os aplicativos de resgate ou agricultura podem estar interessados ​​em testar o comportamento do robô usando um terreno simulado que corresponda ao mundo real.

                          Traga suporte DEM para Gazebo

                          Para trabalhar com arquivos DEM, você deve instalar bibliotecas GDAL.

                          Arquivo DEM e a definição no formato SDF

                          Existem várias organizações que fornecem dados de elevação. Como exemplo, vamos baixar um arquivo DEM do Monte Santa Helena antes ou depois de sua erupção nos anos 80. Esses arquivos são de domínio público e são distribuídos pela USGS.

                          Descompacte o arquivo e renomeie-o como mtsthelens.dem da seguinte maneira:

                          Normalmente, os arquivos DEM têm grandes resoluções e o Gazebo não consegue lidar com isso, então é uma boa ideia ajustar a resolução do seu DEM. O próximo comando irá dimensionar o terreno para 129x129 e irá copiar para o diretório / dem / mídia Gazebo.

                          Um arquivo DEM no Gazebo é carregado da mesma maneira que você carrega uma imagem de mapa de altura. O Gazebo detecta automaticamente se o arquivo é uma imagem simples ou um arquivo DEM. Crie o arquivo volcano.world e copie o próximo conteúdo. Salve o arquivo onde quiser, por exemplo, em / tmp.

                          O elemento & ltheightmap & gt & ltsize & gt no código acima informa ao Gazebo se deve carregar o DEM com as dimensões originais (quando & ltsize & gt não estiver presente) ou dimensioná-lo (quando & ltsize & gt estiver presente). Caso você prefira dimensionar o DEM, o elemento & ltsize & gt informa ao Gazebo o tamanho em metros que o terreno terá na simulação. Se você deseja manter a proporção correta, certifique-se de calcular corretamente seu tamanho em todas as três dimensões. Em nosso exemplo, o DEM será dimensionado para um quadrado de 150 x 150 metros e uma altura de 50 metros. A elevação mínima para este arquivo DEM em particular é 685 metros, portanto, no elemento & ltpos & gt, traduzimos todo o DEM na direção z negativa para que fique em z = 0 no mundo.

                          Inicie o Gazebo com o mundo que contém seu arquivo DEM e você deverá ver o vulcão. Em nosso caso, o arquivo está no diretório / tmp.

                          Tente fazer o mesmo com o arquivo DEM para o Monte Santa Helena após a erupção. Você deve obter um mapa de altura no Gazebo semelhante à imagem abaixo:

                          Como obtenho um arquivo DEM da minha região de interesse?

                          A seguir, vamos descrever um método para obter um arquivo DEM de uma região específica de interesse.

                          A Global Land Cover Facility mantém um banco de dados topográfico digital de alta resolução da Terra. Vá para a ferramenta de pesquisa e visualização e você verá algo semelhante à imagem abaixo. Cada patch de terreno tem um caminho e uma linha exclusivos que você deve conhecer antes de usar a ferramenta. Usaremos o QGIS para descobrir o caminho / linha de nossa região de interesse.

                          QGIS é um programa de sistema de informações geográficas de fonte aberta e multiplataforma que fornece recursos de visualização, edição e análise de dados. Baixe o QGIS seguindo as instruções detalhadas no site do QGIS.

                          Abra o QGIS, clique no ícone da coluna esquerda rotulado camada WMS / WMTS, clique em Adicionar servidores padrão, selecione servidor Lizardtech e, em seguida, pressione o botão conectar. Selecione o valor MODIS e pressione Adicionar. Feche a janela pop-up. A próxima etapa é adicionar outra camada com todos os diferentes patches disponíveis. Baixe este arquivo de forma e descompacte-o em qualquer pasta. Volte ao QGIS e pressione Add Vector Layer (ícone da coluna à esquerda). Pressione Browse e selecione o arquivo wrs2_descending.shp descompactado anteriormente. Pressione Abrir na janela que é aberta. Agora, você verá as duas camadas na janela principal. Vamos mudar a transparência da camada wrs2_descending para poder ver as duas camadas ao mesmo tempo. Clique duas vezes na camada wrs2_descending e, a seguir, modifique seu valor de transparência para algo em torno de 85%.

                          Use a rolagem e o botão esquerdo para navegar até sua região de interesse. Em seguida, clique no ícone identificado como Identificar recursos na barra superior. Clique na sua região de interesse e todos os fragmentos de terreno ao redor da área serão destacados. Uma nova janela pop-up mostrará os valores de caminho / linha para cada patch destacado. Na imagem abaixo você pode ver o caminho e a linha do patch DEM contendo Las Palmas, um dos lugares paradisíacos das Ilhas Canárias, Espanha.

                          Volte para o seu navegador com a ferramenta de pesquisa GLCF e escreva os valores do caminho / linha nas colunas denominadas Caminho inicial e Linha inicial. Em seguida, clique em Enviar consulta, pressione Preview e Download para ver seus resultados. Escolha seu arquivo de terreno e pressione Download. Por fim, selecione seu arquivo com extensão .gz e descompacte-o em sua pasta favorita. Os arquivos do Global Land Cover Facility estão no formato GeoTiff, um dos formatos mais comuns de arquivos DEM disponíveis.

                          Preparando dados DEM para uso no Gazebo

                          Os dados DEM geralmente são criados em alta resolução. Usar gdalwarp para reduzir a resolução do terreno para um tamanho mais gerenciável antes de usá-lo no Gazebo.

                          Os dados DEM geralmente contêm "buracos" ou áreas "vazias". Essas seções correspondem a áreas onde os dados não puderam ser coletados durante a criação do DEM. No caso de um "furo" de dados, o furo será atribuído ao valor mínimo ou máximo do tipo de dados que é usado naquele DEM.

                          Sempre tente baixar versões "concluídas" dos conjuntos de dados DEM, onde os buracos foram preenchidos.Se o seu terreno DEM contiver buracos (também conhecidos como valores NODATA), tente repará-lo manualmente usando ferramentas gdal, como gdal_fillnodata.py.

                          Trabalhando com vários DEMs no Gazebo

                          Embora o Gazebo não ofereça suporte direto a vários DEMs, o GDAL tem um conjunto de utilitários para mesclar um conjunto de DEMs em um único. A primeira etapa é baixar o conjunto de DEMs que deseja mesclar. Observe que os patches podem até mesmo se sobrepor uns aos outros. O GDAL os mesclará perfeitamente. Assumindo que seu diretório atual contém um conjunto de arquivos Geotiff prontos para serem mesclados, execute o próximo comando.