Mais

Exibindo o tempo computacional estimado ao executar ferramentas no ArcGIS for Desktop?


Tenho quase certeza de que configurei modelos para exibir o tempo de execução / tempo computacional estimado para os modelos / ferramentas no passado, mas não consigo me lembrar de como ativar essa opção. Procurei na web sem sucesso e gostaria de determinar se isso é possível.

Se não for possível apenas ativar a opção, há código python que posso usar para obter essas informações?


Por padrão, as versões mais recentes do ArcGIS executam ferramentas em segundo plano. Quando os modelos estão rodando em segundo plano, não há uma barra de progresso bacana. Para obter a barra de progresso de volta, você precisa desativar o geoprocessamento em segundo plano por meio de:

Geoprocessamento> Opções de geoprocessamento> Processamento em segundo plano> Desmarcar caixa de seleção

É claro que isso pode afetar o desempenho do processamento, portanto, esteja ciente disso.


Basta abrir a janela Resultados (menu Geoprocessamento - Resultados) e expandir sua sessão atual. O tempo de execução está disponível nas Mensagens.


Ferramentas de pesquisa

Abaixo está uma lista de ferramentas de pesquisa comumente usadas na UON. É limitado a software relacionado à pesquisa que atenda a qualquer um dos seguintes critérios:

  • disponível sob uma licença local sem nenhum custo (restrições de uso podem ser aplicadas)
  • disponível ou comprado por membros de várias escolas, centros ou faculdades (custos adicionais ou restrições de uso podem ser aplicadas)
  • software de código aberto com instalação suportada por serviços de TI ou método de implantação disponível

Muitos desses aplicativos podem ser instalados automaticamente por meio do Centro de software em seu computador UON e alguns também estão disponíveis para uso doméstico por funcionários ou alunos.

Se o software no qual você está interessado não estiver listado, entre em contato conosco por meio do formulário da web de solicitação de pesquisa personalizada, pois podem existir outros usuários dentro da Universidade e um acordo de custos compartilhados pode ser possível.

Clique nos cabeçalhos abaixo para saber mais sobre cada software.


Desafios e etapas futuras - um olhar sobre o mapeamento de inundações da FEMA

Em primeiro lugar, os dados são o elemento mais essencial do mapeamento GIS - o próprio programa apenas cria uma exibição visual dos dados inseridos. [11] Sem dados precisos, o programa não pode produzir representações precisas das informações desejadas ou relacionamentos entre eles. Portanto, o maior desafio é a fragilidade dos dados atuais, ou seja, a falta de dados em geral. Embora esteja melhorando atualmente, há também uma deficiência de software GIS prontamente disponível e, mais importante, uma falha na comunicação / utilização do GIS e das informações que ele pode fornecer. [12]

Considerando o papel significativo que o GIS já desempenha na gestão de emergências, acredito que o governo, assim como os governos locais, deveriam alocar fundos para melhorar cada uma dessas três questões. Primeiro, para aumentar a coleta de dados e melhorar a precisão dos dados existentes, segundo, para promover o uso de software GIS pelas comunidades e, terceiro, para melhorar a acessibilidade e comunicação das informações produzidas. Com relação a esses aspectos, gostaria de discutir o mapeamento de inundações da Agência Federal de Gerenciamento de Emergências (FEMA) como parte do Programa Nacional de Seguro contra Inundações (NFIP).

O NFIP foi criado para fornecer um meio para os proprietários de casas se protegerem financeiramente de eventos de enchentes - seguro contra enchentes é oferecido aos proprietários se a comunidade participa do NFIP e cumpre os decretos de gestão de várzea estabelecidos pela FEMA. [13]

O programa de mapeamento de risco de inundação da FEMA, Mapeamento, Avaliação e Planejamento de Risco (MAP), identifica perigos de inundação e avalia os riscos de certas áreas. [14] Este mapeamento é usado para criar os mapas de taxas de seguro contra inundações (FIRMs), a base dos regulamentos do NFIP e requisitos de seguro. [15] Os FIRMs são então usados ​​para determinar os prêmios de seguro e definir padrões mínimos de várzea para as comunidades com base nos riscos avaliados do local específico. [16] Atualmente, o NFIP afirma que está trabalhando para atualizar a precisão dos mapas de inundações e fornecer aos segurados informações para melhor compreender o programa. [17]

1. Melhorar a precisão dos dados GIS

Na análise de custo-benefício, o mapeamento de risco apresenta benefícios líquidos positivos, indicando que é benéfico trabalhar para melhorar a precisão do nosso mapeamento. [18] Um estudo realizado pela FEMA em 2000 constatou que, ao considerar todos os custos (atualizações de dados de inundação, manutenção de mapas, novo mapeamento, conversão para novos padrões e atendimento ao cliente), os mapas de inundação criaram um benefício de 1,33 bilhão de dólares, com um custo de 799 milhões. [19] Atualmente, os mapas de inundações são usados ​​cerca de 30 milhões de vezes por ano por agências governamentais, contratantes da FEMA, credores, agentes de seguros, desenvolvedores de terras, planejadores comunitários, proprietários de propriedades, corretores de imóveis e por outros para avaliação de risco, gestão de terras, mitigação e desastres resposta. [20] Com isso em mente, é claro que a precisão desses mapas é vital e relevante para decisões generalizadas.

Por exemplo, o aumento da precisão dos mapas de inundação da FEMA está previsto para afetar diretamente as taxas de seguro e o uso da terra. [21] Estimativas mais precisas do risco de inundação permitem que os prêmios de seguro apropriados sejam calculados para certas áreas e estruturas particulares. [22] A precisão do preço também pode aumentar a compreensão e a confiança do risco de inundação e, portanto, incentivar e garantir a cobertura de seguro. [23] Em relação ao uso da terra, os prêmios de seguro com preços corretos refletem com precisão o risco e, por sua vez, reduzem o desenvolvimento de terras em áreas de alto risco. [24] Melhorias na precisão podem adicionar restrições a propriedades que deveriam ter sido designadas em risco (reduzindo futuras perdas de vidas e propriedades) e, inversamente, levantando restrições em áreas que foram designadas incorretamente em risco (redução de custos e melhorias obrigatórias, habilitando o terreno para ser usado de outras maneiras). [25] Na verdade, o site da FEMA inclui uma opção para contestar limites de várzea se os proprietários acreditarem que suas propriedades foram identificadas incorretamente em áreas de alto risco - aumentar a precisão dos mapas de inundação pode, portanto, reduzir a contestação de limites e economizar tempo, dinheiro e esforço de todas as partes.

Aprendendo com os mapas de inundação FIRM do NFIP e da FEMA, podemos ver que é realmente benéfico investir na coleta de dados para uso de GIS no gerenciamento de emergências. Isso pode ser aplicado a qualquer contexto, ao invés de apenas inundações e seguro nacional contra inundações - talvez para riscos de incêndio ou terremoto, ou qualquer coisa relevante para o planejamento de uma comunidade.

2 e amp3. Promover o uso de software GIS e melhorar a comunicação de riscos

Poucas pesquisas foram feitas para mostrar como comunicar os riscos de forma eficaz ao público por meio de mapas de perigo. [26] No entanto, estudos anteriores mostraram que, em particular, há problemas com a comunicação via mapas de inundação FIRM da FEMA. [27] Ao assumir a responsabilidade de investigar o site da FEMA, achei muito difícil navegar e entender. Há uma quantidade enorme de informações e não está claro como ou por quem elas se destinam a ser usadas. Por meio da página "Pesquisa por endereço" do Centro de serviços de mapa de inundação, um proprietário pode simplesmente digitar seu endereço para obter um mapa de inundação interativo, National Flood Hazard Layer (NFHL). É aqui que a tarefa aparentemente simples se torna complicada. Eu baixei o mapa correspondente ao endereço atual do meu apartamento apenas para descobrir que não tinha absolutamente nenhuma ideia do que estava olhando ou o que qualquer um dos dados significava. Em seguida, consegui localizar uma página de perguntas frequentes no site, com um link de um documento de 54 páginas disponível para download intitulado “Como ler um tutorial do mapa de taxas de seguro contra inundações”. É bem possível que eu não tenha gasto tempo suficiente tentando ler e entender as orientações fornecidas pela página da FEMA na web, mas é claro por que um proprietário ou indivíduo com pouca ou nenhuma experiência nesta área não conseguiria entender as implicações dos dados .

Além disso, o software de mapeamento interno da FEMA, HAZUS, está disponível ao público para download. HAZUS, utilizando sistemas GIS, é descrito como uma "metodologia padronizada aplicável nacionalmente que estima perdas potenciais de terremotos, ventos de furacão e inundações." [28] Procurando baixar e examinar o software, descobri que ele requer o programa ArcGIS da ESRI para ser executado , e que o site da FEMA direciona os usuários à ESRI, onde ele pode ser adquirido. A partir disso, posso presumir que o programa HAZUS é principalmente usado e direcionado aos governos locais, em vez de indivíduos e proprietários de casas. Embora isso faça sentido, novamente limita a acessibilidade de informações valiosas que podem ser fornecidas - e até mesmo os governos locais podem optar por não arcar com os custos de análise de dados públicos por meio de mapeamento GIS (custos do programa e de indivíduos educados para usar o programa , tempo para sobrepor dados, etc.).

Mais uma vez, com base exclusivamente nos mapas FIRM da FEMA e no programa HAZUS, podemos ver que a acessibilidade dos programas GIS, bem como a comunicação de informações de risco, está em questão. Conforme sugerido por Susan Cutter, professora de geografia da Universidade da Carolina do Sul, os gerentes de emergência devem buscar parceiros da comunidade, como universidades, para auxiliar no mapeamento e análise das necessidades. [29] Por experiência pessoal, ela descreve a parceria contínua entre a Universidade da Carolina do Sul e a Divisão de Gerenciamento de Emergências da Carolina do Sul, permitindo que as duas trabalhem em direção a um objetivo comum - os alunos podem ganhar experiência, enquanto a organização pode utilizar os recursos produzidos. [30] Ela ainda sugere que se os custos do programa ou a capacidade de usar um programa estão em questão (como ESRI ArcGIS), outras ferramentas de mapeamento ou plataformas podem estar disponíveis. [31] Por exemplo, eu baixei o QGIS, um programa GIS grátis ao invés do ArcGIS comum, mas caro.


Software e kits de ferramentas atualmente em uso por pesquisadores da ACE

A plataforma de código aberto abcEconomics, desenvolvido por Davoud Taghawi-Nejad para aplicativos de Economia Computacional Baseada em Agente, é uma plataforma de modelagem baseada em Python para simulações econômicas. O abcEconomics vem com funções padrão para permitir simulações de processos de produção, comércio e consumo para empresas e consumidores de uma maneira consistente com fluxo de estoque. abcEconomics permite que modeladores programem agentes como objetos de classe Python comuns, mas os programas resultantes, se grandes (por exemplo, mais de 10.000 agentes), podem ser facilmente executados em um computador multi-core / processador para vantagem de velocidade. Informações detalhadas sobre como baixar, instalar e programar com abcEconomics são fornecidas a seguir Manual de documentação abcEconomics.

O Modelador Adaptativo, desenvolvido por Jim Witkam (Altreva, Inc.), cria modelos de simulação de mercado baseados em agentes para previsão de preços de ações, moedas ou outros títulos negociados no mundo real. O modelo baseado em agentes simula um mercado financeiro que consiste em milhares de agentes cujas regras de negociação (técnicas) evoluem por meio de uma forma adaptativa especial de programação genética. A evolução das regras de negociação combinada com a dinâmica de preços de mercado leva a população de agentes a aprender a reconhecer e antecipar padrões de preços recorrentes enquanto se adapta às mudanças no comportamento do mercado. As previsões podem ser baseadas no comportamento de todos os agentes ou em um grupo dinâmico dos agentes de melhor desempenho. Para os pesquisadores da ACE, esta aplicação pode ser interessante para estudar o comportamento e as habilidades preditivas emergentes de um modelo de mercado baseado em agente que inclui informações de um mercado do mundo real. Várias opções de inicialização de modelo estão incluídas, como um mecanismo de programação genética configurável pelo usuário para a criação de regras de negociação. A simulação de negociação de inteligência zero também é suportada. Várias estatísticas populacionais e outros dados podem ser visualizados em gráficos, histogramas de distribuição e gráficos de dispersão, tudo em tempo real. Os dados podem ser exportados para arquivos CSV para análise posterior em outros aplicativos. Uma versão de avaliação gratuita (sem expiração) com extensa documentação pode ser baixada da página inicial do Adaptive Modeler, acima. Modelador Adaptativo é direcionado para plataformas Windows e requer a instalação do Microsoft .Net 2.0 ou superior.

De Site da Cormas: "Os sistemas de gestão de recursos são complexos quando os recursos comuns são explorados por vários usuários. A dinâmica ecológica se expressa em diferentes níveis, ou seja, individual, populacional e comunitário. A dinâmica social se expressa no nível de indivíduos ou organizações. Em recursos renováveis gestão, as interações entre a dinâmica da agricultura e o uso de recursos devem ser levadas em consideração. A modelagem computacional facilita o entendimento dessas interações. .Cormas é um software de simulação multiagente para a gestão de recursos renováveis. Ele fornece a estrutura para a construção de modelos de interações entre indivíduos e grupos usando recursos (renováveis). "

ECJ é um sistema de computação evolutiva de pesquisa escrito em Java. Ele foi projetado para ser altamente flexível, com quase todas as classes (e todas as suas configurações) determinadas dinamicamente no tempo de execução por um arquivo de parâmetro fornecido pelo usuário. Todas as estruturas do sistema são organizadas para serem facilmente modificáveis. Mesmo assim, o sistema foi projetado visando a eficiência. O ECJ foi desenvolvido no Laboratório de Computação Evolutiva ECLab da George Mason University. O projeto irmão do ECJ é o MASON, um sistema de simulação multiagente que se encaixa perfeitamente com o ECJ.

Estratégia é uma biblioteca de software e ferramentas de teoria dos jogos para a construção e análise de jogos de forma normal e extensa finita mantida atualmente por pesquisadores do Departamento de Economia da Texas A&M University. Gambit inclui uma interface gráfica com o usuário, a Gambit Command Language e uma biblioteca de código-fonte C ++ para representar jogos, adequada para uso em outros aplicativos. Todo o código-fonte do Gambit está disponível gratuitamente, licenciado sob a GNU General Public License.

Do desenvolvedor (Steve Phelps, U de Liverpool): O JASA (Java Auction Simulator API) foi transferido para o Kit de ferramentas de modelagem baseada em agente Java (JABM). O JABM inclui funcionalidade para visualizar as redes de comércio dinâmicas que surgem quando os agentes negociam entre si em um mercado orientado por pedidos. Um vídeo desta visualização pode ser encontrado aqui. Detalhes adicionais sobre o kit de ferramentas JABM podem ser encontrados em um documento de trabalho intitulado "Modelagem baseada em agente com o kit de ferramentas JABM".

O Tutorial Java: um guia prático para programadores, mantido pela Sun Microsystems, Inc., é um guia prático online para programadores com centenas de exemplos de trabalho completos e várias dicas para informações básicas (executando seu primeiro programa, iniciando, aprendendo a linguagem Java, etc.). O tutorial é organizado em grupos de lições básicas e especializadas em vários assuntos: por exemplo, começando com Java escrevendo miniaplicativos classes Java essenciais criando uma GUI com gráficos 2D de rede personalizados JFC / Swing e Java Beans. Centenas de exemplos completos de trabalho estão incluídos nessas lições.

Pietro Terna (Economia, Universidade de Torino, Itália) desenvolveu o Java Enterprise Simulator baseado em Swarm (jES) O objetivo do jES é permitir a construção de modelos de simulação para empresas (firmas) reais e virtuais. O simulador pode modelar uma única empresa ou um sistema de empresas (por exemplo, dentro de um distrito ou dentro de um sistema de empresa virtual). A última versão do jES, juntamente com as instruções completas do usuário, pode ser encontrada aqui.

UMA Laboratório de Desenvolvimento de Simulação (Lsd) foi desenvolvido por Marco Valente (Universidade de L'Aquila) para modelagem de simulação de evolução, como exemplificado pelo famoso modelo Nelson-Winter (1982) de competição Schumpteriana em uma indústria ou economia. Os aplicativos Lsd adotam uma abordagem de dinâmica de sistemas (equações de diferença / diferenciais) usando a dinâmica do replicador em vez de uma abordagem baseada em agente de baixo para cima, mas o uso subjacente de C ++ sugere que uma abordagem mais baseada em agente também pode ser possível. Para uma discussão extensa sobre Lsd, consulte: M. Valente and E.S. Anderson, "A Hands-On Approach to Evolutionary Simulation: Nelson-Winter Models in the Laboratory for Simulation Development", The Electronic Journal of Evolutionary Modeling and Economic Dynamics, No. 1003, Edição 1, 15 de janeiro de 2002.

O Laboratório de Computação Evolutiva da George Mason University e o Centro de Complexidade Social gerenciam o desenvolvimento do MASON kit de ferramentas de simulação multiagente. MASON inclui uma biblioteca de modelos e um conjunto opcional de ferramentas de visualização em 2D e 3D. MASON é um esforço conjunto entre o ECLab (Laboratório de Computação Evolutiva) da George Mason University e o GMU Center for Social Complexity, e foi projetado por Sean Luke, Gabriel Catalin Balan e Liviu Panait, com a ajuda de Claudio Cioffi-Revilla, Sean Paus, Daniel Kuebrich e Keith Sullivan. Uma apresentação SwarmFest04 no MASON pode ser acessada aqui.

MATLAB é uma linguagem de alto desempenho para computação técnica. Informações sobre o MATLAB podem ser obtidas em Site da MathWorks. Warren Thorngate tem um artigo intitulado Ensino de simulação social com MATLAB que apareceu no online Jornal de sociedades artificiais e simulação social, Volume 3, No. 1, 2000. Neste artigo, Thorngate explica por que MATLAB é sua linguagem de programação de escolha para ensinar técnicas de programação de simulação para alunos novos em simulação.

Moduleco é uma estrutura modular orientada a objetos projetada para simular fenômenos sociais multiagentes, como mercados, organizações, efeitos de rede e dinâmica populacional. Os desenvolvedores são Denis Phan e Antoine Beugnard. Para obter mais informações, incluindo aplicativos para download e informações bibliográficas, visite o site da Moduleco acima.

NetLogo, um descendente do StarLogo (veja abaixo), é um ambiente de simulação e modelagem de complexidade de propósito geral multiplataforma do Centro para Aprendizado Conectado e Modelagem Baseada em Computador (CCL), Northwestern University, Evanston, Illinois. O NetLogo vem com uma grande biblioteca de modelos de amostra e exemplos de código que ajudam os usuários iniciantes a começar a criar modelos. O NetLogo está sendo usado por laboratórios de pesquisa e cursos universitários em uma ampla variedade de domínios nas ciências sociais e naturais. Um download gratuito e um guia do usuário podem ser obtidos no site NetLogo acima.

PyABM é um kit de ferramentas de código aberto (licenciado GPL) com o objetivo de simplificar a programação e análise de modelos baseados em agentes escritos na linguagem de programação Python. O kit de ferramentas visa padronizar o desenvolvimento de modelo e cenário, garantindo a documentação e a repetibilidade dos resultados do modelo. O desenvolvimento do PyABM está em andamento.

No site oficial da linguagem Python: "Pitão é uma linguagem de programação interpretada, interativa e orientada a objetos. Geralmente é comparado a Tcl, Perl, Scheme ou Java. Python combina poder notável com sintaxe muito clara. Possui módulos, classes, exceções, tipos de dados dinâmicos de nível muito alto e tipagem dinâmica. . A implementação do Python é portátil: ele roda em muitas marcas de UNIX, (e) no Windows, DOS, OS / 2, Mac, Amiga. . "

O principal recurso para todas as coisas do Python, incluindo os últimos lançamentos de software, é o Site Python. Pesquisadores novos em Python podem querer navegar no Guia do iniciante. Outro recurso é Anaconda, uma distribuição Python gratuita que inclui muitos pacotes. Também, Jupyter é um Ambiente de Desenvolvimento Integrado (IDE) que oferece suporte a Python, R e outras linguagens de programação.

Além disso, Claudius Gr & aumlbner (Johannes Kepler University) e Torsten Heinrich (University of Oxford) prepararam vários materiais introdutórios de instalação do Python em apoio a um curso intitulado Complexidade: Teoria e Modelos Computacionais. Esses materiais incluem: (i) um guia de instalação para Python e pacotes necessários (Mac / Windows / Linux) (ii) instruções gerais para a instalação de um Editor ou Ambiente de Desenvolvimento Integrado (IDE) (iii) instruções específicas para a instalação do Jupyter IDE (Mac / Windows / Linux) e (iv) script de teste para teste de instalação.

Repast (REcursive Porous Agent Simulation Toolkit) é um kit de ferramentas de simulação baseado em agente projetado especificamente para aplicações de ciências sociais. Originalmente desenvolvido por pesquisadores da Universidade de Chicago e do Laboratório Nacional de Argonne, o Repast agora é gerenciado pela organização voluntária sem fins lucrativos ROAD (Repast Organization for Architecture and Development). Repast foi lançado nas seguintes versões: RepastJ (baseado em Java) RepastPy (baseado na linguagem de script Python) Repast.Net (implementado em C #, mas qualquer linguagem .Net pode ser usada) Repast S (Simphony, baseado em Java) e Repast HPC (computação de alto desempenho). Repast é executado em praticamente todas as plataformas de computação modernas (por exemplo, Windows, Mac OS e Linux). Os últimos lançamentos do Repast, juntamente com informações técnicas detalhadas sobre a instalação e uso do RePast, podem ser encontrados em Site RePast Sourceforge.

Leigh Tesfatsion (Economia, Iowa State University, Ames, IA) preparou um Guia de autoaprendizado RePast para ajudar os novatos a começar a programar com Repast em um ambiente de desenvolvimento integrado (IDE) Java. Os tópicos abordados incluem: Introdução à Modelagem Baseada em Agente Introdução à Programação Orientada a Agente Introdução a Java Familiarizando-se com a programação RePast com RePast e possíveis áreas de aplicação de modelagem RePast. Links extensos são fornecidos para materiais de recursos on-line. Embora alguma experiência anterior em programação seja desejável, o guia de estudo não presume tal experiência.

  • UMA mundo definir o ambiente virtual onde a simulação ocorre
  • Populações de agentes autônomos que habitam o mundo
  • Programas direcionando o comportamento dos agentes
  • Mecanismos genéticos emulando a seleção natural que atua sobre os programas dos agentes.

SimX é uma biblioteca hospedada no GitHub para desenvolver simulações paralelas de memória distribuída de eventos discretos em Python. O SimX é escrito principalmente em C ++ e fornece ao modelador de simulação a funcionalidade central necessária em uma biblioteca de simulação paralela, como enfileiramento de eventos, avanço de tempo, particionamento de domínio, sincronização, serialização de objetos e passagem de mensagens. APIs SimX são expostas a Python, permitindo rápido desenvolvimento e prototipagem de uma simulação paralela inteiramente em Python. SimX é um software livre, disponível sob a licença GNU LGPL.

Thomas Maxwell, Ferdinando Villa e Robert Costanza, todos do International Institute for Ecological Economics (Center for Environmental Science, University of Maryland System), desenvolveram um ambiente integrado para modelagem espacial de alto desempenho chamado de Ambiente de Modelagem Espacial (SME). Da página inicial do SME: "Este ambiente, que liga de forma transparente ambientes de modelagem baseados em ícones com recursos de computação avançados, permite que modeladores desenvolvam simulações em um ambiente gráfico amigável, não exigindo nenhum conhecimento de programação de computador. Construção de geradores de código automático (espacial ) simulações e permitem o processamento distribuído em uma rede de computadores paralelos e seriais, permitindo acesso transparente a instalações de computação de última geração. O ambiente impõe as restrições de modularidade e hierarquia no design do modelo e oferece suporte ao arquivamento de componentes reutilizáveis ​​do modelo definidos em nossa Modular Modeling Language (MML). "

StarLogo Nova é um ambiente de modelagem programável visual para explorar o funcionamento de sistemas descentralizados que foi projetado especificamente para ser amigável para alunos do ensino fundamental e médio. O StarLogo Nova pode ser usado para modelar muitos fenômenos da vida real, como bandos de pássaros, engarrafamentos, colônias de formigas e economias de mercado simples. Amplo suporte (tutoriais, demonstrações, grupos de discussão de usuários) é fornecido no site StarLogo Nova.

Enxame é essencialmente uma coleção de bibliotecas de software, escritas em Objective C, desenvolvidas por pesquisadores do Santa Fe Institute para a construção de simulações de eventos discretos de sistemas complexos com elementos ou agentes heterogêneos. Algumas bibliotecas de nível inferior, que fazem interface com Objective C, também são escritas em Tk, uma linguagem de script que implementa ferramentas gráficas básicas, como gráficos, janelas e widgets de entrada.

O Trade Network Game (TNG), implementado (código aberto) em C ++, combina o jogo evolucionário com a seleção preferencial de parceiros. Gerações sucessivas de traders com recursos limitados escolhem e recusam parceiros comerciais com base em recompensas esperadas continuamente atualizadas, envolvem-se em negociações arriscadas modeladas como jogos de duas pessoas e desenvolvem suas estratégias comerciais ao longo do tempo. O design modular da estrutura TNG facilita a experimentação com especificações alternativas para estrutura de mercado, correspondência de parceiros comerciais, formação de expectativas e evolução da estratégia comercial. A estrutura do TNG pode ser usada para estudar as implicações evolutivas dessas especificações em três níveis diferentes: formação da rede comercial (quem está negociando com quem e com que regularidade), comportamentos expressos pelos comerciantes em relacionamentos com parceiros comerciais e resultados de bem-estar social. O código-fonte e o manual do TNG, juntamente com artigos de pesquisa relacionados ao TNG, podem ser obtidos no Página inicial da TNG.

Ventana Systems, Inc., de Harvard, Massachusetts, foi formada em 1985 com o propósito de desenvolver modelos de simulação em grande escala que integram elementos técnicos e de negócios para resolver problemas de gerenciamento difíceis. Ventana Systems agora suporta sua própria linguagem de simulação, chamada Vensim. Na página inicial do Vensim: "O Vensim é usado para desenvolver, analisar e empacotar modelos de feedback dinâmico de alta qualidade. Os modelos são construídos graficamente ou em um editor de texto. Os recursos incluem funções dinâmicas, subscrições (matrizes), análise de sensibilidade de Monte Carlo, otimização, tratamento de dados, interfaces de aplicativos e muito mais. Vensim PLE (Personal Learning Edition) é um software que o ajuda a começar na modelagem de dinâmica de sistema e é gratuito para uso educacional e barato para uso comercial. Vensim PLE é ideal para uso em sala de aula e aprendizado pessoal da dinâmica do sistema. "


Metodologia

Nesta seção, é apresentada uma abordagem de modelagem espaço-temporal, que integra os modelos discutidos e os avança a fim de promover o planejamento da geração de energia renovável em escala municipal e atender aos requisitos enumerados na seção anterior. São propostos modelos para estimar o potencial FER e a demanda de eletricidade e aquecimento em alta resolução espaço-temporal para municípios, bem como duas alternativas de uso dos dados gerados, a fim de apoiar o processo de planejamento e tomada de decisão. O último inclui um algoritmo de árvore de decisão e uma interface de usuário baseada em GIS. O primeiro serve para selecionar usinas de geração de eletricidade com a melhor correspondência para a demanda de eletricidade e para dimensionar sistemas de armazenamento de eletricidade necessários e ideais. O segundo oferece um ambiente interativo para o planejamento de redes de aquecimento urbano, com base na demanda de energia para aquecimento de edifícios individuais e na redução da demanda (devido a medidas de retrofit), e na adoção de sistemas ativos de captação de energia solar.

A metodologia proposta é resumida graficamente na Fig. 4, é descrita nas próximas subseções e seus múltiplos componentes são explicados em detalhes junto com os estudos de caso em [183,184,185,186]. As diferentes partes da metodologia e as ferramentas de planejamento foram implementadas usando o ambiente de processamento de array em memória de Python [187] e Numpy [188], os pacotes Scipy [189] e Pandas [190], e ferramentas GIS de código aberto incluindo gdal / ogr [191], GRASS GIS [192] e QGIS [193]. TGRASS [157], o banco de dados espaço-temporal do GRASS GIS, foi usado para gerenciamento de dados.

Visão geral da metodologia: fluxo de trabalho geral da metodologia proposta

Potencial de geração de energia de FER flutuante em alta resolução espaço-temporal

Três etapas subsequentes são propostas para calcular o potencial de FER flutuante em alta resolução espaço-temporal. O primeiro passo é o uso de um procedimento baseado em GIS para reduzir a área de estudo apenas para os locais onde as usinas de geração de energia baseadas em FER poderiam ser colocadas. No caso das tecnologias solares ativas (PV e ST), os telhados representam as melhores localizações possíveis, uma vez que não há conflito com outros usos ou recursos. No entanto, não é tecnicamente possível usar toda a superfície do telhado para sistemas fotovoltaicos (pelo menos com as tecnologias fotovoltaicas mais amplamente utilizadas) ou sistemas ST. Portanto, objetos como trapeiras e chaminés devem ser excluídos da análise. As áreas de superfície restantes de um telhado são classificadas com base nos dois principais fatores de construção que influenciam a produção de sistemas solares ativos, inclinação (declive) e orientação (aspecto) [194]. Para produzir essa seleção e classificação, são empregados DSM de alta resolução e pegadas de construção. A precisão da identificação de cada superfície potencial depende fortemente da qualidade e resolução dos dados espaciais. Um exemplo para as partes do telhado de três edifícios classificados em oito aspectos diferentes é apresentado na Fig. 5. Conforme discutido em detalhes em [195], uma resolução DSM de 25 cm (DSM0,25 na Fig. 5) é o melhor compromisso entre precisão e quantidade de dados para identificar e classificar superfícies adequadas para sistemas solares ativos com base apenas no aspecto e inclinação.

Resoluções DSM para identificação da superfície do telhado: resultados da identificação e classificação da superfície do telhado para DSMs com resoluções variando de 1 cm × cm (DSM0.01) a 1 m × 1 m (DSM1). Os dados LiDAR para gerar o DSM1 foram fornecidos pela Bavarian Surveying Agency (2014), http://geodaten.bayern.de. Os dados e metodologia para gerar o resto do DSM correspondem aos apresentados em [195]

No caso da seleção de áreas para implantação de energia eólica, o procedimento não é tão simples quanto para as tecnologias solares. É utilizado um procedimento baseado em GIS que exclui áreas inadequadas devido a fatores legais e ambientais. Como o município usado para a maioria dos estudos de caso está localizado na Baviera (Alemanha), as restrições implementadas correspondem às recomendações de projeto e aprovação de turbinas eólicas na Baviera, conforme descrito em [196]. Excluem:

(a) Locais em um raio de 100 m de rodovias federais, ferrovias, linhas de energia e estradas federais, estaduais e rurais

(b) Localizações em um raio de 500 m de áreas de tráfego aéreo, edifícios industriais, parques nacionais, áreas de conservação de paisagem, áreas de proteção de pássaros, biótopos e habitats de flora e fauna

(c) Áreas em um raio de 800 m de edifícios residenciais e edifícios em áreas residenciais e comerciais mistas,

do uso de energia eólica. No entanto, esses tipos de restrições podem ser adaptados à regulamentação local de qualquer área de estudo em particular no mundo todo.

A segunda etapa para calcular o potencial de FER flutuante em alta resolução espaço-temporal consiste em gerar as séries temporais de irradiância solar ou recursos eólicos disponíveis para cada localização potencial identificada na etapa anterior. Essas séries temporais correspondem a um ano específico ou a um ano meteorológico típico. A irradiância solar é calculada em resolução temporal horária ou intra-horária para cada pixel dentro das áreas adequadas usando os módulos r.horizon e r.sun do GRASS GIS. r.sun é uma ferramenta de código aberto que tem sido amplamente usada em estudos meramente espaciais sobre tecnologias solares ativas, e é uma ferramenta mais flexível, eficiente e confiável para calcular a irradiância solar em alta resolução espaço-temporal para municípios inteiros do que sua contraparte proprietária, analista solar do ArcGIS [197]. O sombreamento nas superfícies é levado em consideração ao calcular os horizontes devido a objetos próximos e distantes, que são calculados separadamente usando r.horizon. Os horizontes de objetos próximos, como edifícios vizinhos, chaminés ou águas-furtadas são calculados com um DSM com a maior resolução disponível. Horizontes devido a objetos distantes, como montanhas, em um raio de 230 km 2 são calculados usando um DSM de resolução mais grosseira. Parâmetros atmosféricos adicionais (por exemplo, fator de turbidez Linke) para o cálculo de céu claro são recuperados de fontes de dados com cobertura global, como o banco de dados SODA [198]. Os dados necessários para estimar a irradiância solar em condições de céu real são adquiridos a partir de medições individuais do solo, anos de referência de teste, dados derivados de imagens de satélite ou dados de reanálise. Medições de solo e anos de referência de teste são as fontes de dados mais precisas, mas dados derivados de imagens de satélite e dados de reanálise têm melhor cobertura e são fontes de dados adequadas para locais com baixa densidade de estações terrestres [199]. Finalmente, os dados de irradiância do céu real resultantes de todos os pixels em uma determinada superfície são resumidos em um único valor. Fazendo isso, séries temporais de 1 ano com resolução de pelo menos 1 h de irradiância solar para cada superfície adequada são geradas.

Para o caso de recursos eólicos, as séries temporais da velocidade do vento para cada área adequada para turbinas eólicas são calculadas usando a lei de potência de perfis logarítmicos para estimar a velocidade do vento na altura do cubo. Isso requer certos dados de referência da velocidade do vento (medições do solo ou dados de reanálise) e informações sobre o comprimento da rugosidade da superfície que pode ser estimado a partir dos dados de uso do solo. Os resultados são séries temporais da velocidade do vento horária ou intra-horária na altura do cubo para cada área adequada para turbinas eólicas.

A terceira etapa é o cálculo do rendimento energético de cada instalação ER possível. A saída fotovoltaica é calculada com base na série temporal de irradiância calculada na etapa anterior, eficiência do painel fotovoltaico, fator de correção de temperatura, temperatura do ar ambiente, fator de redução devido ao tipo de instalação, temperatura nominal de operação e área de superfície disponível. No caso dos sistemas ST, os parâmetros relevantes são também as séries temporais de irradiância, a temperatura do ar ambiente, a temperatura operacional do sistema, a eficiência e a área de superfície disponível. A temperatura ambiente pode ser obtida a partir de anos de referência de teste ou dados de reanálise. Para turbinas eólicas, a saída de energia é estimada usando uma curva de desempenho da turbina que depende do fator de capacidade, velocidade do vento de corte, velocidade do vento nominal, velocidade do vento de corte, diâmetro do rotor, potência de saída nominal e densidade da massa de ar. A saída instantânea dos sistemas é assumida como permanecendo constante durante cada etapa de tempo (isso implica que a irradiância, temperatura e velocidade do vento permanecem inalteradas durante a duração da etapa de tempo considerada), e a saída final são as séries temporais de geração de energia das respectivas instalações.

Demanda de energia para eletricidade, aquecimento e aquecimento de água em alta resolução espaço-temporal

Uma abordagem amplamente utilizada, identificada na revisão da literatura, é adotada para gerar séries temporais de demanda de eletricidade: Totais anuais da demanda de eletricidade do município de operadores de rede locais são transformados em séries temporais usando os perfis de carga padronizados fornecidos pela Associação Federal Alemã de Energia e Gestão da Água (BDEW- Bundesverband der Energie- und Wasserwirtschaft). Esses perfis de carga consideram as variações diárias e sazonais e estão disponíveis em etapas de 15 minutos para 11 tipos diferentes de usuários. As suposições subjacentes são que as demandas reais tendem a ser semelhantes aos perfis de carga padronizados com um número maior de usuários (desvios em torno de ± 10%) [200] e que todos os usuários fazem parte da mesma rede. No caso em que apenas os usuários residenciais são estudados, os dados da população também podem ser usados ​​para calcular o consumo anual de eletricidade, que pode ser transformado em séries temporais usando os perfis de carga padronizados.

Uma abordagem UBEM é usada para estimar a demanda de energia para aquecimento e aquecimento de água. A metodologia proposta em [179] é estendida para considerar ganhos de energia solar dependentes da localização, que são calculados com a série temporal de irradiância solar calculada com o procedimento descrito na seção anterior. O núcleo desta abordagem UBEM é uma versão customizada do procedimento simples de cálculo por hora da EN ISO 13790. A customização inclui a consideração de apenas uma zona de construção e a redução dos dados de entrada para informações sobre a qualidade da construção fornecidas pelo banco de dados do Projeto TABULA. Este modelo térmico é empregado para cada edifício principal em uma área de estudo (edifícios secundários como estábulos, garagens ou depósitos de ferramentas são omitidos sob o pressuposto de que se trata de edifícios sem aquecimento). Os edifícios são classificados com base em dados vetoriais georreferenciados dos edifícios (LOD1) que incluem tipo de uso, ano de construção, número de pisos e área de referência (calculada a partir da pegada do edifício e do número de pisos). Os edifícios residenciais são classificados nas tipologias do projeto TABULA enquanto os edifícios não residenciais são organizados apenas pela classe do ano de construção. Em seguida, a versão personalizada do procedimento simples de cálculo por hora da EN ISO 13790 é empregada para cada edifício. Os dados de qualidade da construção civil (por exemplo você-valores de paredes e janelas) são recuperados da tipologia de edifício particular ou de um edifício médio que representa uma determinada classe do ano. Os ganhos de radiação solar são estimados com os mesmos dados de irradiância usados ​​para os sistemas PV e ST. Uma vez que o DSM subjacente tem resolução 2.5D e não 3D e a ferramenta r.sun também funciona apenas em 2.5D, as suposições são necessárias para o cálculo da irradiância em superfícies verticais.Os dados georreferenciados são usados ​​para omitir do cálculo paredes que são cobertas por outros edifícios ou objetos e para construir um buffer de 1 m fora das paredes que são realmente atingidas pela radiação solar. A irradiância média nessas superfícies é adotada como entrada para o cálculo dos ganhos de energia solar provenientes de cada parede. A necessidade de energia para a preparação de água quente é calculada dependendo da quantidade de água quente consumida em um determinado intervalo de tempo (dependendo do número de ocupantes ativos em um edifício e sua necessidade diária padrão total de água quente) e uma equação termodinâmica simples para determinar o quantidade de energia necessária para aquecer a quantidade de água até a temperatura desejada em um determinado intervalo de tempo. Além disso, em comparação com [179], o modelo de ocupação não se baseia em um modelo estocástico que se baseia em levantamentos de tempo de uso, como o descrito em [201], mas em uma distribuição determinística do número de ocupantes por moradia, que depende de o perfil da demanda de eletricidade. Isso implica que os ganhos de calor devido à ocupação, eletrodomésticos e iluminação estão correlacionados à demanda de eletricidade prevista. A saída do UBEM é a série temporal da necessidade de energia para aquecimento e preparação de água quente para cada edifício em uma resolução temporal de 1 h.

Planejamento de sistemas de energia renovável distribuída

O desafio depois de produzir a enorme quantidade de dados de demanda de energia e potencial espaço-temporal de alta resolução de ER é torná-los utilizáveis ​​para os processos de planejamento e tomada de decisão. Para tanto, duas alternativas de análise são propostas. Estes são brevemente descritos nas próximas subseções e explicados em detalhes em [183] ​​e [184].

Dimensionando sistemas de energia renovável distribuída

É proposta uma árvore de decisão para encontrar a melhor correspondência entre os perfis de geração de eletricidade de várias instalações FER e a demanda de eletricidade de um município (ou parte dele). O núcleo da árvore de decisão é um critério chamado AdequadoF (Eq. 1) que classifica a produção de energia de cada planta com base na quantidade de energia fornecida corretamente (Eq. 2) e a quantidade de energia em excesso (Eq. 3.).

onde Exct = quantidade de energia em excesso na etapa de tempo t

Dt = demanda local de eletricidade na etapa de tempo t

Et = saída de energia da usina (eólica ou fotovoltaica) no intervalo de tempo t

PrSut = quantidade de demanda fornecida adequada no intervalo de tempo t

A árvore de decisão começa classificando cada instalação potencial de ER em relação à demanda local usando o AdequadoF. A usina de energia RE com o ProperF mais alto é selecionada e sua série temporal de produção de eletricidade é subtraída da carga de demanda local. Posteriormente, as usinas de energia RE restantes são avaliadas novamente usando a demanda residual. Uma segunda instalação de energia RE é selecionada com base em AdequadoF. Este processo de seleção continua até que a soma da produção de energia das usinas de geração de energia de ER seja igual à taxa de penetração de FER desejada. O rendimento final do conjunto de usinas selecionadas serve para dimensionar e calcular o estado de carga dos sistemas de armazenamento com tamanhos definidos a priori, otimizados para serem aproveitados o máximo possível ou para armazenar toda a eletricidade produzida gerada pelo conjunto de usinas selecionadas . Ao definir a capacidade de armazenamento para um determinado valor pré-definido, o impacto da adoção de sistemas de armazenamento na matriz energética local pode ser examinado.

A contribuição da usina virtual (constituída pelo conjunto de usinas de geração de ER) para o balanço energético local é avaliada por um conjunto de indicadores. Estes incluem a capacidade instalada total (em kW), variabilidade da produção (em kW), demanda total não atendida (em MWh), energia excedente total (em MWh), energia total adequadamente fornecida (em MWh), probabilidade de perda de fornecimento de energia (LPSP), horas de fornecimento acima da maior demanda, horas de fornecimento acima de 1,5 vezes a maior demanda, capacidade de energia de armazenamento necessária (em MWh) e energia de despacho necessária do sistema de armazenamento (em kW). Uma descrição matemática detalhada desses indicadores é apresentada em [183]. Os resultados dos indicadores servem para avaliar a adequação de um determinado alvo FER e a relevância de tecnologias específicas para a matriz energética local e para definir um roteiro de quais instalações devem ser efetivamente construídas para atingir os objetivos desejados.

Uma interface de usuário baseada em GIS para o planejamento de redes de aquecimento urbano

A avaliação da viabilidade dos sistemas de aquecimento urbano é um dos tópicos tradicionalmente abordados com o uso de ferramentas SIG. Essas ferramentas servem para avaliar, por ex. a densidade da demanda de energia por metro de rede de aquecimento instalada, que é um parâmetro decisivo para a construção ou extensão das redes de aquecimento [140]. Normalmente, os cenários são construídos assumindo certo nível de renovação para o estoque de construção existente. Estes são úteis para prever até que ponto o aquecimento urbano é viável se os edifícios forem renovados. No entanto, usando as séries temporais de potenciais instalações de energia solar ativa e os dados de demanda de energia, é possível melhorar a análise. Um plug-in para o software QGIS de código aberto é implementado para estender a funcionalidade do EZP, uma ferramenta para planejar redes de aquecimento urbano que originalmente operava com dados em resolução anual [140]. Com a nova ferramenta, torna-se possível estudar o impacto da adoção de sistemas ST na viabilidade de uma rede de aquecimento urbano, calcular um perfil de despacho detalhado para a central de geração de calor e calcular o potencial de exploração das restantes áreas de cobertura para PV, bem como sua contribuição para cobrir a demanda local de eletricidade [180].

O plug-in, denominado EZP +, requer a irradiância solar espaço-temporal, os dados de demanda de energia térmica, as áreas potenciais do telhado adequadas para implantação PV e ST em cada edifício e os dados espaciais que foram necessários para executar o EZP original como entrada. Os últimos incluem dados vetoriais georreferenciados com parcelas e pegadas de edifícios, bem como a forma da rede potencial de aquecimento urbano dividida em uma rede principal (construída a partir de seções que correspondem aos nomes das ruas) e os links da rede para os edifícios. Além disso, as possíveis perdas de energia da rede e os rendimentos de energia PV / ST não são pré-calculados permitindo ao usuário definir vários parâmetros para as condições particulares da área de estudo. Se estiver disponível, o usuário pode fornecer dados específicos sobre a demanda média anual de eletricidade das residências, perfis de demanda de energia de edifícios não residenciais, perdas de energia da rede de aquecimento urbano e os parâmetros técnicos PV / ST, bem como o PV máximo desejado / Tamanho da instalação ST por família. O último parâmetro serve para considerar, por exemplo mecanismos de promoção econômica local para determinados tamanhos de sistemas PV / ST.

Depois de fornecer os dados e parâmetros de entrada, o usuário seleciona os edifícios que devem ser equipados com sistemas PV e ST. Os cálculos de rendimento dos respectivos sistemas são executados em tempo real para cada edifício selecionado. Para determinar o potencial fotovoltaico de cada edifício, é selecionada a parte do telhado com a maior radiação solar por ano. Se a área desta parte do telhado não for suficiente para acomodar um PV do tamanho definido pelo usuário do plug-in, outras partes do telhado com a próxima radiação solar mais alta por ano também são selecionadas até que a instalação PV possa ser acomodada. O limite de tamanho de instalação PV e ST é a soma das áreas de todas as partes adequadas do telhado. A área exigida por uma instalação fotovoltaica é calculada com base na capacidade instalada e na taxa de eficiência informada pelo usuário. Se houver mais de um domicílio no edifício, o tamanho da instalação fotovoltaica de um determinado edifício é multiplicado pelo número de domicílios.

O potencial ST de cada edifício é calculado e apresentado analogamente ao potencial PV. As usinas de ST são inicialmente instaladas na parte do telhado que produz a maior irradiação solar. Se um sistema fotovoltaico foi previamente selecionado para o edifício, a área disponível do telhado é reduzida. Da mesma forma que no caso do potencial fotovoltaico, a produção de energia das usinas é comparada de hora em hora com a necessidade de energia para aquecimento e / ou água quente dos edifícios selecionados (isso é apresentado na janela "Solar Térmico" solicitado pelo plug in. Um exemplo disso é apresentado na janela do lado direito da Fig. 6). A comparação pode ser realizada para um de três cenários possíveis: estado atual do edifício, edifício com remodelação básica ou edifício com remodelação avançada. Estes diferentes cenários de demanda de energia são pré-calculados no modelo de necessidade de energia para aquecimento e preparação de água quente com premissas de acordo com os dados fornecidos pelas tipologias de construção do projeto TABULA [181]. Além disso, a necessidade de energia por hora do edifício é reduzida pela produção da planta ST. A necessidade de energia restante é a base para calcular a carga horária, a necessidade total de energia e a densidade da demanda de calor (fator entre as necessidades de energia e o comprimento da rede) para cada edifício.

EZP +: captura de tela do plug-in EZP + QGIS: resultados da avaliação do aquecimento urbano em um local de demonstração. Os edifícios com instalações ST e a rede potencial de aquecimento urbano são destacados em amarelo [184]

Depois que todos os edifícios, nos quais os sistemas ST devem ser instalados, foram selecionados, a viabilidade de um sistema de aquecimento urbano é avaliada seguindo o conceito de EZP proposto em [140]. No EZP, o município é pré-dividido em subzonas definidas pelos nomes das ruas, em seguida, uma rede potencial de aquecimento urbano é desenhada seguindo o curso das ruas e conectando o centroide de cada edifício à rede principal. As subzonas a serem consideradas são selecionadas interativamente em um mapa vetorial, conforme apresentado no lado esquerdo da Fig. 6. O plug-in EZP + calcula o comprimento da rede selecionada e seus links correspondentes aos edifícios. O perfil de necessidade de energia restante (necessidade de energia de cada edifício menos a produção dos sistemas ST) de todos os edifícios conectados à rede teórica é resumido em uma base horária. Isto serve para calcular a quantidade de horas de funcionamento e a produção de energia necessária para cobrir a procura da rede de aquecimento urbano (no EZP, as horas de funcionamento da rede de aquecimento urbano foram fornecidas a priori e a procura de energia foi distribuída igualmente em todas as operações hora). Além disso, são calculadas a demanda total anual de energia por edifício e a densidade da demanda de calor. As perdas de calor são calculadas para os segmentos de rede e os links de rede para os edifícios e para o sistema como um todo. Todos esses resultados são resumidos e apresentados em uma janela chamada "resultados da avaliação do aquecimento urbano", como pode ser visto no centro da Fig. 6. Além disso, o perfil de carga de todas as subzonas selecionadas para o cenário de renovação selecionado é armazenado como um arquivo csv. A densidade da demanda de calor é armazenada na tabela de atributos de um mapa vetorial para cada grupo de edifícios correspondente a uma subzona. Se o processo de seleção de potenciais redes de aquecimento urbano for repetido para diferentes partes do município, é possível comparar a densidade da procura de calor de redes alternativas de aquecimento urbano. Os planejadores podem usar o mapa resultante e os indicadores calculados para avaliar a viabilidade econômica de potenciais redes de aquecimento urbano. Além disso, as séries temporais de demanda de eletricidade restantes e as séries temporais de geração de energia das superfícies não utilizadas dos telhados também são armazenadas como um arquivo csv. Esses dados são uma entrada adequada para o algoritmo de configuração do VPP. Também pode ser realizado um estudo do sistema de fornecimento de energia elétrica que considere as decisões tomadas sobre o sistema de fornecimento de calor.


Startup repensa bancos de dados para a era geoespacial em tempo real

Embora sistemas como Hadoop e Spark possam lidar com grandes quantidades de dados, suas ferramentas para analisar e analisar essas informações com eficiência e em tempo real ainda são limitadas. Uma startup de dois anos em Seattle, chamada SpaceCurve, lançará na terça-feira um novo sistema de banco de dados com o objetivo de acelerar o processo de análise de dados orientados à localização à medida que são gerados.

“Estamos em posição de fundir dados espaciais que são muito complexos e difíceis de trabalhar”, disse o CEO da SpaceCurve, Dane Coyer. O software pode “ingerir continuamente dados geoespaciais de alto volume” e permitir que os usuários consultem e monitorem as informações.

Cerca de 80% dos dados têm algum tipo de componente geoespacial, estima a empresa de analistas de TI Gartner. Ainda assim, poucas ferramentas de software corporativo estão equipadas para aproveitar ao máximo esses dados, disse Coyer.

Bancos de dados tradicionais e até mesmo sistemas de processamento de big data mais recentes não são realmente otimizados para analisar rapidamente esses dados, embora a maioria dos sistemas tenha algum suporte geoespacial. E embora não faltem sistemas de informações geográficas, eles não estão equipados para lidar com os imensos volumes de dados de sensores que podem ser produzidos por redes de sensores no estilo Internet das coisas, disse Coyer.

A equipe de desenvolvimento da SpaceCurve desenvolveu um conjunto de algoritmos computacionais geométricos que simplifica a análise de dados geográficos. Eles também criaram o mecanismo de banco de dados central do zero e o projetaram para ser executado em vários servidores em paralelo.

Como resultado, a SpaceCurve, ao contrário dos sistemas de big data como o Hadoop, pode realizar consultas em fluxos de dados em tempo real e fazer isso por uma fração do custo dos sistemas de análise em memória, como o TimesTen da Oracle, disse Coyer.

O software pode ter uma ampla gama de usos, disse Coyer. As empresas de telecomunicações poderiam usar a tecnologia para monitorar o movimento de seus usuários em tempo real. Também pode ser usado para gerenciar o tsunami de dados de sensores recebidos de sistemas remotos.

Como um exemplo das capacidades do sistema, Coyer mostrou como a SpaceCurve poderia apresentar uma exibição visual em tempo real do tráfego de veículos viajando pela cidade de Seattle, juntamente com resumos demográficos dos viajantes, usando informações de registro de torres de celular e comparando esses dados com o Censo dos EUA Estatísticas da agência.

SpaceCurve pode trabalhar com dados que foram empacotados de várias maneiras, incluindo REST (Representational State Transfer), JSON (JavaScript Object Notation) e formatos ArcGIS da Esri.

“Quando você considera qualquer tipo de tecnologia que permite usar informações geográficas para otimizar processos e criar eficiências, você terá muitos casos de uso com um retorno sobre o investimento muito bom”, disse Tom Petrocelli, que é um diretor de pesquisa que cobre aplicativos corporativos sociais, móveis e em nuvem para a empresa de análise Neuralytix.

Neste campo, o diferencial da SpaceCurve pode ser a combinação do volume de dados que o software pode manipular em conjunto com seus recursos de análise em tempo real. Um sistema desse tipo poderia preparar o terreno para campanhas de marketing móvel em grande escala que permitiriam a um indivíduo saber de uma venda quando ele ou ela passasse pela loja com os itens à venda, disse Petrocelli.

Não há falta de software e sistemas de banco de dados orientados geoespacialmente. O IBM InfoSphere Streams, por exemplo, também é comercializado para analisar grandes quantidades de dados orientados geoespacialmente em tempo real. Como essas tecnologias são tão novas, é muito cedo para determinar qual abordagem funciona melhor, disse Petrocelli.

A SpaceCurve já conquistou vários clientes em diferentes setores, incluindo o provedor de software governamental Socrata, o provedor de software de gerenciamento de desempenho de TI Dyn e o provedor de serviços de análise geoespacial Via Informatics.

A SpaceCurve foi fundada em 2009 e obteve investimentos de várias firmas de investimento diferentes, incluindo Reed Elsevier Ventures e Divergent Ventures. A SpaceCurve fez parceria com vários fornecedores de TI com experiência no espaço geoespacial, incluindo o analista de serviços sem fio AirSage, o integrador de sistema L3 e o provedor de software geoespacial Esri.

A SpaceCurve não revelou o custo de seu software, embora Coyer tenha notado que ele está na faixa da maioria dos pacotes de software corporativo. Ele requer Linux e pode ser executado em serviços de infraestrutura em nuvem, como o da Amazon.


Conclusão

Os resultados do estudo mostram uma fraca acessibilidade geográfica às instalações de saúde pública que fornecem serviços de teste de TB no POC em UER, Gana. Os resultados deste estudo forneceram informações baseadas em evidências para ajudar a planejar e melhorar os serviços de teste de TB direcionados às primeiras clínicas de APS rurais localizadas em áreas de acesso geográfico pobre na região. Viajar longas distâncias para acessar uma unidade de saúde para teste de TB fora de sua localização pode ser um fator limitante para a maioria dos pacientes com suspeita de TB e, portanto, pode afetar os sucessos atribuídos até agora à estratégia de TB final na região. Longas distâncias também podem resultar em diagnóstico tardio e tratamento, bem como piorar o custo catastrófico atualmente associado ao tratamento da TB em Gana. Para reduzir o impacto da infecção, diagnóstico, tratamento de TB e custos catastróficos relacionados em Gana e outros LMICs, a medição da acessibilidade geográfica é muito relevante para fornecer estratégias baseadas em evidências para melhorar o atendimento à TB. Gostaríamos de recomendar uma replicação deste estudo em regiões de alta prevalência em Gana e outros países de alta prevalência de TB. Também recomendamos a localização ativa de casos de TB em regiões de baixa prevalência, especialmente entre populações de alto risco, para facilitar o cumprimento da estratégia de fim de TB até 2035.


Referências

Balzter H, Braun PW, Köhler W (1998) Modelos de autômatos celulares para a dinâmica da vegetação. Ecol Model 107: 113-125

Barredo JI, Kasanko M, McCormick N, Lavalle C (2003) Modelagem de processos espaciais dinâmicos: simulação de cenários futuros urbanos por meio de autômatos celulares. Plano Urbano Landsc 64: 145-160

Batty M (1998) Evolução urbana na área de trabalho: simulação com o uso de autômatos celulares estendidos. Environ Plan A 30: 1943-1967

Batty M, Xie Y, Sun Z (1999) Modelando a dinâmica urbana por meio de autômatos celulares baseados em GIS. Comput Environ Urban Syst 23: 205-233

Buss TF (2001) O efeito dos incentivos fiscais estaduais no crescimento econômico e nas decisões de localização de empresas: uma visão geral da literatura. Econ Dev Q 15: 90-105

Caruso G, Rounsevell M, Cojocaru G (2005) Explorando um modelo espacial-dinâmico baseado em vizinhança de comportamento residencial na área periurbana de Bruxelas. Int J Geogr Inf Sci 19: 103–123

Chen Q, Mynett AE (2003) Efeitos do tamanho e configuração da célula na modelagem presa-predador baseada em autômatos celulares. Simul Model Pract Theory 11: 609–625

Chen M, Lu D, Zha L (2010) A avaliação abrangente da urbanização da China e os efeitos sobre os recursos e o meio ambiente. J Geog Sci 20: 17-30

Cho H, Swartzlander EE (2007) Adder projeta e analisa para autômatos celulares de pontos quânticos. Nanotecnol IEEE Trans 6: 374-383

Clarke KC, Gaydos LJ (1998) Loose-coupling a celular automaton model and GIS: long term urban growth prediction for San Francisco and Washington / Baltimore. Int J Geogr Inf Sci 12: 699–714

Clarke KC, Hoppen S, Gaydos L (1997) Um modelo de autômato celular auto-modificador de urbanização histórica na área da Baía de São Francisco. Plano Environ 24: 247-261

Cohen B (2004) Crescimento urbano em países em desenvolvimento: uma revisão das tendências atuais e uma cautela em relação às previsões existentes. World Dev 32: 23-51

Coppin P, Jonckheere I, Nackaerts K, Muys B, Lambin E (2004) Artigo de revisãoMétodos de detecção de mudança digital no monitoramento de ecossistema: uma revisão. Int J Remote Sens 25: 1565–1596

Couclelis H (1985) Cellular worlds: a framework for modelar micro-macro dinâmica. Plano Environ A 17: 585-596

Couclelis H (2000) Do transporte sustentável à acessibilidade sustentável: podemos evitar uma nova tragédia dos comuns? In: Janelle DG, Hodge DC (eds) Informações, lugar e ciberespaço. Avanços nas ciências espaciais, Parte IV. Springer, Berlin, Heidelberg, pp 341-356

Defries RS, Rudel T, Uriarte M, Hansen M (2010) Desmatamento impulsionado pelo crescimento da população urbana e comércio agrícola no século XXI. Nat Geosci 3: 178-181

Deutsch A, Dormann S (2007) Modelagem do autômato celular da formação de padrões biológicos: caracterização, aplicações e análise. Springer Science and Business Media, Berlim

Du H, Mulley C (2006) Relação entre acessibilidade de transporte e valor da terra: abordagem de modelo local com regressão geograficamente ponderada. Transp Res Rec J Placa Transp Res 197–205

EPA (2012) Agência de Proteção Ambiental (EPA) [Online]. Disponível: http://www.epa.ie/soilandbiodiversity/soils/land/corine/#.VbjfhflViko. Acessado em 15 de fevereiro de 2015

EPA (2015) Corine Land Cover Mapping, EPA [Online]. Environmental Agency Protection (EPA) Disponível: http://www.epa.ie/soilandbiodiversity/soils/land/corine/#.Vbo-2_lViko. Acessado em 20 de junho de 2015

Evans D (2006) Os habitats da diretiva de habitats da União Europeia. In: Biology and environment: Proceedings of the Royal Irish Academy, 2006. JSTOR, pp 167-173

Flache A, Hegselmann R (2001) As grades irregulares fazem diferença? Relaxando a suposição de regularidade espacial em modelos celulares de dinâmica social. J Artif Soc Soc Simul 4 (4)

Foley JA, Defries R, Asner GP, Barford C, Bonan G, Carpenter SR, Chapin FS, Coe MT, Daily GC, Gibbs HK, Helkowski JH, Holloway T, Howard EA, Kucharik CJ, Monfreda C, Patz JA, Prentice IC , Ramankutty N, Snyder PK (2005) consequências globais do uso da terra. Science 309: 570–574

Geertman S, Hagoort M, Ottens H (2007) Regras de vizinhança espacial-temporal específicas para modelagem de uso da terra em autômatos celulares. Int J Geogr Inf Sci 21: 547–568

Geurs KT, van Wee B (2004) Avaliação de acessibilidade de uso da terra e estratégias de transporte: revisão e direções de pesquisa. J Transp Geogr 12: 127-140

Gharbia SS, Gill L, Johnston P, Pilla F (2015) GEO-CWB: uma ferramenta de balanço hídrico dinâmico para gestão de água de captação. In: 5ª conferência internacional multidisciplinar sobre hidrologia e ecologia (HydroEco2015), em Viena, Áustria, 2015

Gharbia SS, Gill L, Johnston P, Pilla F (2016a) Desempenho de conjuntos Multi-GCM para projeção climática em uma plataforma GIS. Model Earth Syst Environ 2: 1-21

Gharbia SS, Gill L, Johnston P, Pilla F (2016b) Usando algoritmos baseados em GIS para avaliação de desempenho de GCMs. In: 18ª conferência eletrotécnica mediterrânea IEEE MELECON 2016. IEEE, Chipre

Herold M, Goldstein NC, Clarke KC (2003) A forma espaço-temporal do crescimento urbano: medição, análise e modelagem. Remote Sens Environ 86: 286–302

Herold M, Couclelis H, Clarke KC (2005) O papel das métricas espaciais na análise e modelagem das mudanças no uso do solo urbano. Comput Environ Urban Syst 29: 369–399

Iovine G, D’Ambrosio D, di Gregorio S (2005) Aplicação de algoritmos genéticos para calibrar um modelo de autômato celular hexagonal para a simulação de fluxos de detritos caracterizados por fortes efeitos inerciais. Geomorfologia 66: 287–303

Itami RM (1994) Simulando a dinâmica espacial: teoria dos autômatos celulares. Landsc Urban Plan 30 (1-2): 27-47

Jantz CA, Goetz SJ, Shelley MK (2004) Usando o modelo de crescimento urbano SLEUTH para simular os impactos de cenários de políticas futuras sobre o uso do solo urbano na área metropolitana de Baltimore-Washington. Plano Environ 31: 251-271

Jenerette GD, Wu J (2001) Análise e simulação da mudança do uso da terra na região central do Arizona-Phoenix, EUA. Landsc Ecol 16: 611-626

Jiao J, Boerboom L (2006) Métodos de elicitação de regras de transição para modelos de autômatos celulares urbanos. In: Van Leeuwen J, Timmermans HP (eds) Inovações em design e sistemas de apoio à decisão em arquitetura e planejamento urbano. Springer, Holanda

Jokar Arsanjani J, Helbich. M, Kainz W, Darvishi Boloorani A (2013) Integração de modelos de regressão logística, cadeia de Markov e autômatos celulares para simular a expansão urbana. Int J Appl Earth Obs Geoinf 21: 265–275

Kueppers L, Baer P, Harte J, Haya B, Koteen L, Smith M (2004) Uma abordagem de matriz de decisão para avaliar os impactos das atividades de uso da terra empreendidas para mitigar as mudanças climáticas. Clim Chang 63: 247–257

Lambin EF (1997) Modelagem e monitoramento de processos de mudança de cobertura da terra em regiões tropicais. Prog Phys Geogr 21: 375-393

Lau KH, Kam BH (2005) Um modelo de autômato celular para simulação de uso do solo urbano. Plano Environ 32: 247-263

Li C (2014) Monitoramento e análise do processo de crescimento urbano usando sensoriamento remoto, SIG e modelagem de autômatos celulares: um estudo de caso da cidade de Xuzhou. Universidade TU Dortmund, China

Li X, Yeh AG-O (2000) Modelagem de desenvolvimento urbano sustentável pela integração de autômatos celulares restritos e GIS. Int J Geogr Inf Sci 14: 131-152

Li X, Yeh G-O (2002) Integração de análise de componentes principais e autômatos celulares para tomada de decisão espacial e simulação urbana. Sci China, Ser D Earth Sci 45: 521–529

Li W, Packard NH, Langton CG (1990) Transition phenomena in cell automata rule space. Phys D 45: 77-94

Li X, Zhou W, Ouyang Z (2013) Quarenta anos de expansão urbana em Pequim: qual é a importância relativa dos fatores físicos, socioeconômicos e de vizinhança? Appl Geogr 38: 1-10

Liu Y (2008) Modelagem de desenvolvimento urbano com sistemas de informação geográfica e autômatos celulares. CRC Press (Taylor & amp Francis Group), Londres

Liu Y, Phinn SR (2003) Modelagem de desenvolvimento urbano com autômatos celulares incorporando abordagens de conjuntos difusos. Comput Environ Urban Syst 27: 637-658

Liu Y, HE J (2009) Desenvolvendo um modelo de autômato celular baseado na web para simulação de crescimento urbano. In: Simpósio internacional sobre análise espacial, modelagem de dados espaço-temporais e mineração de dados, 2009. Sociedade Internacional de Óptica e Fotônica, 74925C-74925C-8

Liu J, Zhan J, Deng X (2005) Padrões espaço-temporais e forças motrizes da expansão de terras urbanas na China durante a era da reforma econômica. AMBIO J Hum Environ 34: 450–455

Liu X, Li X, Liu L, He J, Ai B (2008) Uma abordagem de baixo para cima para descobrir regras de transição de autômatos celulares usando inteligência de formiga. Int J Geogr Inf Sci 22: 1247–1269

Lu D, Weng Q (2004) Análise da mistura espectral da paisagem urbana em Indianápolis com imagens Landsat ETM +. Photogramm Eng Remote Sens 70: 1053–1062

M‚nard A, Marceau DJ (2005) Exploração da sensibilidade à escala espacial em autômatos celulares geográficos. Plano Environ 32: 693-714

Malczewski J (2004) Análise de adequação do uso da terra baseada em GIS: uma visão crítica. Plano Prog 62: 3-65

May RM (1976) Modelos matemáticos simples com dinâmica muito complicada. Nature 261: 459-467

Meyer WB, Turner BL (1992) Crescimento da população humana e mudança global de uso / cobertura da terra. Annu Rev Ecol Syst 23: 39-61

Miller HJ (1999) Medindo os benefícios da acessibilidade no espaço-tempo nas redes de transporte: teoria básica e procedimentos computacionais. Geogr Anal 31: 1-26

Munshi T, Zuidgeest M, Brussel M, van Maarseveen M (2014) Regressão logística e modelagem baseada em autômatos celulares de desenvolvimento de varejo, comercial e residencial na cidade de Ahmedabad, Índia. Cidades 39: 68-86

Pijanowski BC, Brown DG, Shellito BA, Manik GA (2002) Usando redes neurais e GIS para prever mudanças no uso da terra: um modelo de transformação da terra. Comput Environ Urban Syst 26: 553–575

Portugali J, Benenson I (1995) Experiência de planejamento artificial por meio de um modelo heurístico de células-espaço: simulando a migração internacional no processo urbano. Environ Plan A 27: 1647-1665

Pratomoatmojo NA (2012) Modelagem de mudança de uso da terra sob cenário de enchente por meio de autômatos Markov-celulares no município de Pekalongan. Universitas Gadjah Mada, Yogyakarta

Pratomoatmojo NA (2016) LanduseSimPractice: modelagem espacial de povoamento e crescimento industrial por meio de autômatos celulares e Sistema de Informações Geográficas. Departamento de Planejamento Urbano e Regional, Instituto de Tecnologia Sepuluh Nopember, Surabaya

Preston SH (1979) Crescimento urbano em países em desenvolvimento: uma reavaliação demográfica. Popul Dev Rev, pp 195-215

Ratriaga ARN, Sardjito S (2016) Penentuan Rute Angkutan Umum Optimal Dengan Transport Network Simulator (TRANETSIM) de Kota Tuban. J Tek ITS 4: C87 – C91

Reilly MK, O’Mara MP, Seto KC (2009) De Bangalore à área da baía: comparando o transporte e a acessibilidade de atividades como impulsionadores do crescimento urbano. Plano Urbano Landsc 92: 24-33

Reinau KH (2006) Autômatos celulares e desenvolvimento urbano. In: Nordic GIS conference, 2006, pp 75-80

Rietveld P, Bruinsma F (2012) A infraestrutura de transporte é eficaz ?: infraestrutura de transporte e acessibilidade: impactos na economia espacial. Springer Science and Business Media, Berlim

Rounsevell M, Reginster I, Araújo MB, Carter T, Dendoncker N, Ewert F, House J, Kankaanpää S, Leemans R, Metzger M (2006) Um conjunto coerente de futuros cenários de mudança de uso da terra para a Europa. Agric Ecosyst Environ 114: 57-68

Serneels S, Lambin EF (2001) Impacto das mudanças no uso da terra na migração de gnus na parte norte do ecossistema Serengeti-Mara. J Biogeogr 28: 391

Shahumyan H, Twumasi BO, Convery S, Foley R, Vaughan E, Casey E, Carty J, Walsh C, Brennan M (2009) Preparação de dados para a aplicação do modelo MOLAND para a região metropolitana de Dublin. UCD Urban Institute Ireland, Working Paper Series

Shi W, Pang MYC (2000) Desenvolvimento de autômatos celulares baseados em Voronoi - um modelo dinâmico integrado para Sistemas de Informação Geográfica. Int J Geogr Inf Sci 14: 455–474

Sim LK, Balamurugan G (1991) Urbanization and urban water problems in Southeast Asia a case of insustentável desenvolvimento. J Environ Manag 32: 195–209

Simmie J, Martin R (2010) A resiliência econômica das regiões: em direção a uma abordagem evolucionária. Cambridge J Reg Econ Soc 3: 27-43

Singh A (1989) Artigo de Revisão Técnicas de detecção de mudanças digitais usando dados de sensoriamento remoto. Int J Remote Sens 10: 989-1003

Takeyama M, Couclelis H (1997) Dinâmica de mapas: integrando autômatos celulares e GIS através de Geo-Álgebra. Int J Geogr Inf Sci 11: 73-91

Tobler WR (1979) Cellular geography. In: Gale S, Olsson G (eds) Filosofia em geografia. Reidel Publishing Company, Dordrecht, Holanda, pp 379-386

Torrens PM (2000) Como funcionam os modelos celulares de sistemas urbanos (1. Teoria). CASA Working Papers 28. Center for Advanced Spatial Analysis (UCL), Londres, Reino Unido

Twumasi BO (2008) Recomendações para melhorias adicionais no modelo MOLAND. UCD Urban Institute Ireland Working Paper Series, UCD UII 08/01, University College Dublin

Verburg PH, de Nijs TC, van Eck JR, Visser H, de Jong K (2004a) Um método para analisar as características de vizinhança dos padrões de uso da terra. Comput Environ Urban Syst 28: 667-690

Verburg PH, de Nijs TCM, Ritsema Van J, Visser H, De Jong K (2004b) Um método para analisar as características de vizinhança dos padrões de uso da terra. Comput Environ Urban Syst 28: 667-690

Vezhnevets V, Konouchine V (2005) GrowCut: segmentação multi-label interativa de imagem ND por autômatos celulares. In: Proceedings of graphicon, 2005. Citeseer, pp 150–156

Wagner DF (1997) Autômatos celulares e sistemas de informação geográfica. Plano Environ 24: 219-234

White R (1998) Cidades e autômatos celulares. Discret Dyn Nat Soc 2: 111-125

White R, Engelen G (1993) Autômatos celulares e forma urbana fractal: uma abordagem de modelagem celular para a evolução dos padrões de uso do solo urbano. Environ Plan A 25: 1175-1199

White R, Engelen G, Uljee I (1997) O uso de autômatos celulares restritos para modelagem de alta resolução da dinâmica do uso do solo urbano. Plano Environ 24: 323-343

White R, Engelen G, Uljee I, Lavalle C, Enrlich D (1999) Desenvolvimento de um simulador de uso do solo urbano para cidades europeias. In: Anais do 5º Workshop EC-GIS. Stresa, Itália

Wolfram S (1983) Mecânica estatística de autômatos celulares. Rev Mod Phys 55: 601

Wolfram S (1984) Universalidade e complexidade em autômatos celulares. Phys D 10: 1-35

Wu F (1998) Um experimento sobre a policentricidade genérica do crescimento urbano em uma cidade celular automática. Environ Plan B Plan Des 25 (5): 731-752

Wu F, Webster CJ (1998) Simulação de desenvolvimento de terras por meio da integração de autômatos celulares e avaliação multicritério. Plano Environ 25: 103-126


Como usar o mapa Arcgis para offline (Android) e como fazer um arquivo .tpk para uso offline

Estou muito preso em um problema relacionado ao mapa, pois estou usando o mapa do Esri Arcgis offline para meu aplicativo Android e já usei todos os exemplos fornecidos pelo mapa do esri arcgis, mas finalmente descobri que .tpk pode ser usado para offline, mas estou não obtive nenhuma solução para criar o arquivo .tpk e sério eu não obtive nenhuma outra solução exceto a criação do arquivo .tpk. então eu pergunto se alguém sabe sobre isso e usou isso antes ou pode ter qualquer outra solução para o meu problema, pois será muito útil para mim

NOTA: moto é executar o mapa offline (sem conexão com a internet). desde já, obrigado


Métodos

Dois conjuntos de dados foram usados ​​na construção deste modelo: dados da rede de estradas e dados de localização do hospital. Os dados rodoviários para o metrô Vancouver, obtidos através do GIS Innovations [27], são altamente adequados para calcular o tempo de viagem, pois incorpora os limites de velocidade e impedâncias de viagem (ou seja, sinais de parada, semáforos, etc.) que, por sua vez, permitem precisão cálculo do tempo de viagem. Os dados também fornecem a capacidade de controlar os tempos de deslocamento e impedância. Isso é importante, pois o tempo de viagem de uma ambulância é diferente do de um veículo normal. O fato de que esses dados permitem o controle de tais variáveis ​​aumenta a precisão dos resultados. O conjunto de dados da rede de estradas usado neste estudo excluiu estradas vicinais e estradas de exploração para focar nas seções mais populosas da área de estudo. A exclusão dessas estradas menores também ajudou a reduzir o tamanho do banco de dados.

O segundo conjunto de dados utilizado neste estudo compreende as localizações dos hospitais participantes na região metropolitana de Vancouver. Além das localizações geocodificadas dos hospitais, o conjunto de dados do hospital também anexa atributos que descrevem a capacidade do hospital de receber pacientes no caso de um acidente em massa e o tipo de tratamento que um determinado hospital é capaz de fornecer (Tabela 1). Para serviços de trauma, a gama de serviços inclui UTI, neurocirurgia, ortopedia e cirurgia plástica. Os hospitais são representados como um conjunto de recursos de pontos GIS e são geocodificados o mais próximo possível do acesso ao pronto-socorro principal. Como grandes hospitais podem abranger vários quarteirões de ruas, a geocodificação da localização do pronto-socorro em vez do centróide do hospital pode produzir resultados de tempo de direção mais precisos.

Para obter resultados de forma mais imediata, este modelo utilizou tempos de condução pré-calculados de cada local da malha viária até cada hospital da área de estudo. Antes de pré-calcular os tempos de condução, os dados primeiro tinham que ser discretizados para um comprimento que minimizasse o efeito no cálculo do tempo de condução real. Ao restringir o comprimento dos segmentos de estrada discretizados a um máximo de 200 m, foi determinado que tempos de direção precisos poderiam ser alcançados sem afetar negativamente os resultados ou o tamanho do conjunto de dados da estrada. Os mesmos dados da estrada usados ​​para o cálculo do tempo de condução também foram usados ​​para criar os segmentos da estrada. Um exame atento dos dados do GIS Innovations [27] indicou que os segmentos de estrada dentro dos dados variaram drasticamente em comprimento, com segmentos muito menores e muito maiores do que 200 m. Após vários experimentos, descobriu-se que deixar todos os segmentos de estrada abaixo de 200 m inalterados e subdividir todos os segmentos de estrada maiores que 200 m até o máximo de 200 m funcionou de forma mais eficaz. Os segmentos de rua de 200 m proporcionaram tempos de direção precisos, ao mesmo tempo que mantinham o tamanho do banco de dados gerenciável. O conjunto de dados resultante contém segmentos de estradas de comprimentos variados, sem nenhum segmento maior que o máximo de 200 m.

Para calcular o tempo de condução de cada segmento de estrada para cada hospital, cada segmento de estrada foi convertido em um centróide. A função ODMatrix dentro do analista de rede ESRI ArcGIS foi então usada para calcular o tempo de condução para cada hospital. A função ODMatrix calcula o tempo de condução mais curto de cada ponto de origem até cada destino na rede rodoviária, produzindo uma tabela de 'Tempo de condução' que contém um ID único para cada centróide mais o tempo de condução em minutos para cada hospital [29]. Para obter maior precisão, um valor de tempo de impedância foi obtido de paramédicos experientes e atribuído aos sinais de parada (5 segundos) e semáforos (10 segundos). A tabela também produz uma identificação exclusiva de hospital para cada hospital de destino. Depois que essa tabela foi criada, o ID do centróide foi reatribuído ao seu segmento de estrada para que o usuário pudesse clicar no segmento de estrada e recuperar seu ID exclusivo (Figura 1). O conjunto de dados da estrada consistia em um arquivo de forma de segmento de estrada dentro do qual cada segmento estava relacionado à tabela de tempo de condução por meio de uma relação um-para-muitos.

Mostra o método de cálculo prévio dos tempos de condução para cada hospital na área de estudo. A rede rodoviária está dividida em segmentos de 200 m ou menos de comprimento. O tempo de condução para cada hospital é então calculado a partir de cada segmento de estrada na área de estudo.

A etapa final na preparação dos dados foi criar a lista de dados do hospital. Essa foi uma tarefa relativamente simples, pois todas as informações estavam prontamente disponíveis, os locais eram conhecidos e apenas um número relativamente pequeno de hospitais foi envolvido no estudo. Como parte da preparação dos dados, cada hospital recebeu uma identificação exclusiva correspondente à tabela de tempo de condução com uma relação muitos-para-um.

Construção do modelo

A construção do modelo foi dividida em duas partes distintas: criação da interface de mapeamento (o SDSS) e criação de um mecanismo de análise e processamento dos dados (modelo). A interface de mapeamento foi projetada para permitir ao usuário dar zoom em um local e clicar em um segmento de estrada e inserir um local no mapa. Para facilitar isso, os dados da estrada segmentada de 200 m foram carregados primeiro no servidor ArcGIS. Um bloco de código foi então escrito para permitir que os usuários cliquem em um segmento de estrada, insira uma localização MCI e recuperem o ID exclusivo do segmento de estrada. Uma vez recuperado, o ID exclusivo é usado para obter o tempo de direção para cada hospital a partir da tabela de tempo de direção pré-calculada. Esta parte do modelo foi construída usando a API do servidor ArcGIS, uma vez que fornece um rico conjunto de funcionalidades e ferramentas para interagir com os dados da estrada e permitir que os desenvolvedores construam aplicativos complexos de mapeamento baseados na web.

O segundo aspecto da construção do modelo envolveu a criação de um mecanismo para unir o ID exclusivo de cada segmento de estrada à tabela de tempo de direção pré-calculada, estabelecendo uma relação de banco de dados entre a tabela de tempo de direção e a tabela do hospital e analisando e visualizando os dados resultantes ( Figura 2). Para este propósito, o VB.NET [30] foi utilizado como a linguagem de script do lado do servidor, enquanto javascript foi usado como a linguagem de script do lado do cliente. O VB.NET [30] permite a interação com o banco de dados e fornece um conjunto de ferramentas de tomada de decisão para a análise e visualização dos resultados por meio de tabelas e gráficos. Mais especificamente, o VB.NET [30] é usado para compilar os dados e exibir os resultados com base na entrada do usuário. Todo o modelo, incluindo mapeamento e análise, foi construído no Visual Web Developer (VWD) 2008 express edition [31].

Ilustra a criação da mesa do hospital e seus atributos associados.