Mais

Por que REST LOD (escalas) são diferentes do WMTS Capabilities XML


Eu tenho um mapa da web do ArcGIS publicado internamente. O Nível de Detalhe (LOD) do Resto relata um número diferente para o XML de recursos do WMTS. Eu verifiquei alguns serviços públicos e descobri exatamente a mesma coisa ...

Por que esses números são diferentes. o que estou perdendo?

REST MapServer: USGS Topo MapServer

WMTS XML: USGS Topo MapServer WMTS XML

ff


É o DPI. Observe que é relatado como 96 para o serviço REST, mas é considerado como 90,7 para o WMTS. Veja a questão relacionada Matemática por trás da conversão de escala em resolução ?.


Experimentos usando tecnologias da Web Semântica para conectar portais de dados IUGONET, ESPAS e GFZ ISDC

A ciência eletrônica na Web desempenha um papel importante e oferece o que há de mais avançado em tecnologia para integração de sistemas de dados. Ele também disponibiliza dados para a pesquisa de aspectos cada vez mais complexos do sistema terrestre e além. O grande número de projetos de ciência eletrônica fundados pela União Europeia (UE), esforços japoneses orientados por universidades no campo de serviços de dados e desenvolvimentos institucionais ancorados para o aprimoramento de uma gestão de dados sustentável na Alemanha são prova da relevância e aceitação de e-ciência ou aplicações baseadas no ciberespaço como uma ferramenta significativa para o trabalho científico de sucesso. As atividades de colaboração relacionadas aos sistemas de dados de ciência do espaço próximo à Terra e os primeiros resultados no campo da ciência da informação entre o projeto financiado pela UE ESPAS, o projeto IUGONET japonês e as atividades de pesquisa e desenvolvimento baseadas no GFZ ISDC são o foco deste artigo. O objetivo principal da colaboração é o uso de uma abordagem de Web Semântica para o mashup dos sistemas de dados relacionados e até agora inoperantes do projeto. São abordados o desenvolvimento e o uso de vocabulários controlados por ciências geográficas e espaciais mapeados e / ou mesclados e a conexão de entidades em modelos de dados de domínio baseados em ontologia. Os vocabulários controlados desenvolvidos para a descrição de dados de ciências geo e espaciais e informações de contexto relacionadas, bem como as próprias ontologias de domínio com seus relacionamentos de domínio e entre domínios, serão publicados em Linked Open Data.

Mashup baseado na Web semântica dos sistemas e serviços de dados japoneses IUGONET, European Union ESPAS e GFZ ISDC relacionados à ciência espacial e terrestre.


Serviços de mapa hospedados por ArcGIS Online e Portal for ArcGIS

Os serviços de mapa hospedados pelo ArcGIS Online ou Portal for ArcGIS só podem retornar blocos do cache do servidor, eles não podem desenhar imagens dinamicamente, nem permitem a consulta dos recursos individuais por trás do mapa. Você pode oferecer suporte a consultas e janelas pop-up informativas em seus aplicativos usando serviços de feições em conjunto com seus serviços de mapas.

Consequentemente, alguns dos recursos, operações e propriedades mencionados nesta seção da documentação não se aplicam aos serviços de mapa hospedados pelo ArcGIS Online ou Portal for ArcGIS.


Resultados

Para facilitar nossas análises, construímos o primeiro conjunto de genoma de referência para Coelopa frigida usando uma combinação de sequenciamento de leitura longa (PacBio) e leituras vinculadas da tecnologia 10xGenomics. Um mapa de ligação de alta densidade (28.639 marcadores segregando em 6 grupos de ligação) nos permitiu ancorar e orientar mais de 81% do genoma em 5 grandes cromossomos (LG1 a LG5) e um pequeno cromossomo sexual (LG6). Este cariótipo era consistente com trabalhos citogenéticos anteriores em C. frigida (Aziz 1975) e com os 6 elementos Muller (UMA=LG4, B=LG5, C=LG2, D=LG3, E=LG1, F=LG6, Fig. S1), que geralmente são conservados em Diptera (Vicoso e Bachtrog 2015 Schaeffer 2018). A montagem final incluiu 6 cromossomos e 1.832 andaimes não ancorados com um N50 de 37,7 Mb para um tamanho total do genoma de 239,7 Mb. Esta referência teve um alto nível de completude, com 96% (metazoários) e 92% (artrópodes) de genes ortólogos universais de cópia única completamente montados. Foi anotado com um transcriptoma altamente completo (87% BUSCOs completos nos artrópodes) com base no sequenciamento de RNA de vários estágios ontogenéticos e incluindo 35.999 transcritos.

Para analisar a variação genômica em escala populacional, usamos baixa cobertura (

1,4X) sequenciamento do genoma completo de 1.446 moscas de 16 locais ao longo da costa atlântica da América do Norte (88-94 moscas adultas / local). Os locais amostrados abrangeram um gradiente Norte-Sul de 1.500km, mais de 10 ° de latitude, um pronunciado gradiente de salinidade no Estuário de São Lourenço e uma gama de habitats com composição de algas marinhas e características de fundo de destroços variáveis ​​(Fig. 1, Tabela S1). Após o alinhamento dos 1.446 indivíduos sequenciados ao genoma de referência, analisamos a variação genética dentro de uma estrutura probabilística responsável pela baixa cobertura (ANGSD, Korneliussen et al. 2014) e relatamos 2,83 milhões de polimorfismos de nucleotídeo único (SNPs) com frequências alélicas menores maiores que 5 % para análises de diferenciação.

Duas grandes inversões cromossômicas estruturam a variação genética intraespecífica

A decomposição das probabilidades do genótipo SNPs por meio de uma análise de componente principal (PCA) revelou que o 1º e o 2º componentes principais (PCs) continham uma grande fração de variância genética, respectivamente 21,6% e 3,9%, e nos permitiu exibir as 1.446 moscas como 9 grupos discretos (Fig 2A). Ao longo do PC1, os três grupos corresponderam a três genótipos da inversão Cf-Inv (1) (αα, αβ, ββ), conforme identificado usando dois SNPs de diagnóstico (Mérot et al. 2018) com concordância de 100% e 98,3%, respectivamente (Tabela S2). Ao longo do PC2, foram identificados três grupos distintos que não correspondiam ao sexo nem às origens geográficas e, portanto, possivelmente representavam três genótipos para outra inversão polimórfica.

(UMA) Análise de componentes principais (PCA) da variação do genoma inteiro. Os indivíduos são coloridos por cariótipos na inversão Cf-Inv (1), conforme determinado previamente com um marcador SNP (Mérot et al. 2018). As reticências indicam agrupamento secundário ao longo do PC2. (B) Desequilíbrio de ligação (LD) em LG1 e LG4. Os triângulos superiores incluem todos os indivíduos e os triângulos inferiores incluem homocariotos para o arranjo mais comum para cada inversão. As barras representam a posição das inversões. A escala de cores mostra o 2º percentil mais alto do valor R 2 entre SNPs resumido por janelas de 250kb (C) Ao longo do genoma, correlação entre as pontuações de PC1 de PCAs locais realizadas em janelas de 100 SNPs e as pontuações de PC1 de PCA realizadas em todo o genoma FST diferenciação entre os dois homocariotipos de Cf-Inv (1) em janelas deslizantes de 25kb e diversidade de nucleotídeos (π) dentro dos três grupos cariotípicos de Cf-Inv (1) suavizado para visualização. As linhas tracejadas representam os limites inferidos da inversão Cf-Inv (1) (D) Correlação entre as pontuações de PC1 de PCAs locais realizadas em janelas de 100 SNPs e as pontuações de PC2 de PCA realizadas em todo o genoma FST diferenciação entre os dois homocariotipos de Cf-Inv (4.1) em janelas deslizantes de 25kb e diversidade de nucleotídeos (π) dentro dos três grupos cariotípicos de Cf-Inv (4.1) suavizado para visualização. As linhas tracejadas representam os limites inferidos da inversão Cf-Inv (4.1).

Para avaliar quais regiões do genoma refletiram os padrões observados em todo o genoma PCA, realizamos o PCA local em janelas de 100 SNPs ao longo de cada cromossomo e avaliamos a correlação entre as pontuações do PC1 de cada PCA local e as pontuações dos PCs do PCA global (Fig. 2C). PC1 foi altamente correlacionado com uma região de 25,1 Mb no LG 1, indicando a posição genômica do grande Cf-Inv (1) inversão (Tabela 1). PC2 foi altamente correlacionado com uma região menor de 6,9 ​​Mb no LG4 (Fig. 2D), consistente com a hipótese de uma inversão, doravante denominada Cf-Inv (4.1). Várias outras características eram consistentes com a hipótese de que essas duas regiões são inversões. Primeiro, dentro dessas regiões, o desequilíbrio de ligação (LD) era muito alto quando considerados todos os indivíduos, mas baixo dentro de cada grupo de homocariotipos (Fig. 2B). Isso indica que a recombinação é limitada entre os arranjos, mas ocorre livremente em homocariotipos com o mesmo arranjo. Em segundo lugar, FST foi muito alto entre homocariotes na região invertida (Cf-Inv (1) αα vs. ββ: 0,75, Cf-Inv (4.1) AA vs. BB: 0,51, Fig. 2C) em comparação com valores baixos no resto do genoma (Cf-Inv (1) αα vs. ββ: 0,002, Cf-Inv (4.1) AA vs. BB: 0,001, Fig. 2D). Terceiro, o grupo intermediário no PCA foi caracterizado por uma proporção maior de heterozigotos observados para SNPs na região invertida do que os grupos extremos, confirmando que este é provavelmente o grupo heterocariotípico (Fig. S2).

Para inversões putativas, divergência absoluta de nucleotídeos (dXY) em regiões não codificantes foi calculado entre grupos homocariotípicos e corrigido pela média da diversidade de nucleotídeos (π) dentro de grupos homocariotípicos por janelas de 25 kb. Os números entre colchetes indicam intervalos de confiança traçados por janelas de bootstrap de 25kb.

A diversidade de nucleotídeos, medida por π, foi semelhante entre os grupos cariotípicos ao longo do genoma e maior nos heterocariotipos do que nos homocariotipos em regiões invertidas (Fig. 2C-D). Para ambas as inversões, a diversidade de nucleotídeos foi comparável entre homocariotos. A divergência absoluta de nucleotídeos entre os arranjos foi forte nas regiões invertidas (Tabela 1, Fig. S3). Supondo uma taxa de mutação comparável a Drosófila (5 × 10 −9 mutações por base por geração (Assaf et al. 2017)), e aproximadamente 5 a 10 gerações por ano, estimamos, assim, a partir da divergência absoluta em regiões não codificantes que os arranjos se dividem em pelo menos 180.000 a 376.000 anos atrás para Cf-Inv (1) e pelo menos 61.000 a 134.000 anos atrás para Cf-Inv (4.1).

C. frigida exibir outras regiões, incluindo blocos haplotípicos não recombinantes

Para examinar mais a fundo a heterogeneidade da estrutura genética ao longo do genoma, reanalisamos os PCAs locais usando um método baseado em escalonamento multidimensional (MDS) que identifica clusters de janelas de PCA exibindo um padrão comum. Este método foi usado anteriormente para identificar e localizar blocos haplotípicos não recombinantes (Li e Ralph 2019 Huang et al. 2020 Todesco et al. 2020). Além do citado Cf-Inv (1) e Cf-Inv (4.1) inversões, que causaram o 1º e 2º eixos do MDS, identificamos cinco regiões genômicas discrepantes entre os diferentes eixos do MDS (Fig.3, Fig. S4). Em todas as cinco regiões, uma grande proporção de variância foi capturada ao longo do primeiro PC (& gt50%), e o desequilíbrio de ligação foi alto (Fig. 3A).

(UMA) LD nos 5 principais cromossomos expressos como o 2º percentil mais alto do valor R 2 entre SNPs resumidos por janelas de 1Mb. (B) Taxa de recombinação (em cM / Mb) inferida do mapa de ligação, suavizada com uma função loess responsável por 10% dos marcadores. (C) Diversidade de nucleotídeos (π) por janelas deslizantes de 100 kb (etapa 20 kb) em média entre as diferentes populações geográficas. (D) Posicione ao longo do genoma de grupos de janelas PCA locais pontuadas como outliers (& gt4sd) ao longo de cada eixo do MDS, na extremidade superior em preto e na extremidade inferior em cinza. Retângulos coloridos indicam a posição das inversões e as regiões de interesse reunindo clusters atípicos ou inversões putativas. As linhas tracejadas representam seus limites inferidos em todos os gráficos. (E) PCA realizado em SNPs dentro de cada região de interesse. Para as duas regiões em LG4 que aparecem como duas inversões putativas ligadas (Cf-Inv (4.2) e Cf-Inv (4.3)), três clusters foram identificados com alta confiança e coloridos como supostos homocariotos e heterocariotas. As mesmas cores são usadas em ambas as regiões, uma vez que o cariótipo foi consistente em todos os indivíduos.

Duas regiões no LG4 representaram inversões putativas convincentes de 2.7Mb e 1.4Mb, respectivamente. Em ambas as regiões, o PCA exibiu três grupos de indivíduos com alta confiança de agrupamento, o grupo central continha uma alta proporção de heterozigotos e os grupos extremos foram diferenciados (Fig. 3E, Fig. S5). Dentro dessas duas regiões, a diversidade de nucleotídeos era comparável entre os grupos de haplogrupos e a divergência absoluta (dXY) entre homocariotipos foi menor do que para Cf-Inv (1) e Cf-Inv (4.1), sugerindo inversões mais jovens que poderiam ter divergido tão recentemente quanto 6.000 a 68.000 anos atrás. A atribuição do cariótipo era a mesma entre as duas inversões putativas, indicando que elas estão fortemente ligadas ou pertencem a uma única inversão. Duas linhas de evidência sustentam a hipótese de que essas são duas inversões. Em primeiro lugar, a alta densidade de marcadores de mapa de ligação e a taxa de recombinação não nula nesta área de 50 cM forneceram confiança na montagem do genoma e suportaram uma lacuna de 5 Mb entre as duas inversões. Além disso, trabalhos citogenéticos anteriores mostraram que um cromossomo de C. frigida exibe uma inversão polimórfica em um braço (possivelmente Cf-Inv (4.1)) e, por outro lado, duas inversões polimórficas que raramente se recombinam (Aziz 1975). Ambas as inversões foram posteriormente analisadas juntas e chamadas Cf-Inv (4.2) e Cf-Inv (4.3).

As outras três regiões, abrangendo 6,8 Mb no LG2, 6,3 Mb no LG3 e 16,7 Mb no LG5, representavam áreas complexas que se comportavam de maneira diferente do resto do genoma. A recombinação foi reduzida localmente, tanto no mapa de ligação quanto em populações selvagens, conforme indicado pelo forte desequilíbrio de ligação (Fig. 3A-B). Essas três regiões eram altamente heterogêneas dentro de cada região, a diversidade de nucleotídeos mostrou um padrão altamente contrastante entre as sub-regiões (Fig. 3C). Uma fração dessas sub-regiões exibiu baixa diversidade de nucleotídeos, que pode corresponder a regiões centroméricas ou pericentroméricas (Fig. 3C, Fig. S6), bem como uma alta densidade de elementos transponíveis, como LINEs ou LTRs (Fig. S7). No entanto, essas sub-regiões de baixa diversidade foram intercaladas com sub-regiões de alta diversidade, particularmente no LG5 (Fig. 3C). Algumas dessas sub-regiões de alta diversidade também corresponderam a grupos de janelas atípicas na análise de PCA local e apareceram como blocos haplotípicos não recombinantes de tamanho médio (1Mb-2Mb) em LD parcial (Fig. S8-S10). Na ausência de mais informações sobre os mecanismos por trás da redução na recombinação, consideramos essas três regiões do genoma como simplesmente "regiões de baixa recombinação" (posteriormente chamadas Cf-Lrr (2), Cf-Lrr (3), Cf-Lrr (5)) Assim, a fração do genoma subsequentemente chamada de "colinear" excluiu essas regiões e as inversões (Cf-Inv (1), Cf-Inv (4.1), Cf-Inv (4.2), e Cf-Inv (4.3)).

A estrutura geográfica mostra sinais distintos em regiões invertidas e de baixa recombinação

A geografia também desempenhou um papel importante na estruturação da variação genética. Nosso terceiro PC, que explicou 1,4% da variância, representou a variação genética ao longo do gradiente Norte-Sul (Fig. 4A). Diferenciação entre pares de populações, medida como FST em um subconjunto de SNPs podados por LD, também seguiu o gradiente Norte-Sul, mas foi globalmente fraco (FST = 0,003 a 0,016, Fig. S11)). Também detectamos um forte sinal de isolamento por distância (IBD) ao examinar a correlação entre distâncias genéticas e distâncias euclidianas entre as 16 populações (R 2 = 0,45, F = 97, p & lt0,001, Tabela S3). Considerando as distâncias de menor custo ao longo da linha costeira em vez das distâncias euclidianas entre os locais, o ajuste do modelo melhorou (R 2 = 0,63, F = 199, p & lt0,001, ΔAIC = 47, Tabela 2, Tabela S3). Isso apóia um padrão de isolamento por resistência (IBR, consulte Métodos), no qual a dispersão ocorre principalmente ao longo da costa e é limitada no continente ou no mar.

(UMA) 3º e 4º componentes principais de um PCA na variação do genoma inteiro. Os indivíduos são coloridos por sua região geográfica, como na Fig. 1 (B-C) Isolamento por resistência exibida como a associação entre distância genética (FST/ (1-FST) e a distância pelo caminho de menor custo ao longo da costa. As cores denotam o subconjunto de SNPs usados ​​para o cálculo do FST. Os resultados são exibidos em dois painéis com diferentes escalas y para melhor exibir os valores mais baixos. (D) Variação latitudinal de frequências de inversão.

Os números entre colchetes indicam os limites da distribuição de 95% do coeficiente de inclinação. A comparação com regiões colineares exibe a saída de um modelo completo comparando cada região ao genoma colinear, fornecendo a direção e a significância (*) do termo de interação.

Esses padrões IBD e IBR variaram significativamente ao longo do genoma. Ao considerar todos os SNPs, a diferenciação de pares foi mais heterogênea (FST= 0,002 a 0,021, Fig. 4B) e IBR era muito mais fraco, embora significativo (R 2 = 0,19, F = 29, p & lt0,001) do que quando se considera SNPs podados por LD ou SNPs colineares. Assim, calculamos F par a parST entre pares de populações com base em diferentes subconjuntos de SNPs, seja de cada inversão, de cada região de recombinação baixa ou do genoma colinear.

Todas as inversões exibiram diferenciação aumentada entre as populações em comparação com o genoma colinear (Tabela S3, Fig. S12). No entanto, os padrões geográficos globais diferiram entre as inversões. Na região invertida Cf-Inv (1), não houve associação entre distâncias genéticas e geográficas (Fig. 4B, Tabela 2), um resultado que contrasta significativamente com o genoma colinear (Fig. S13). Este resultado foi devido à diferenciação genética pareada altamente variável entre as populações na região invertida. Cf-Inv (1). Por outro lado, a diferenciação genética entre as populações geográficas nas regiões invertidas de LG4 mostrou padrões IBD / IBR significativos com uma inclinação significativamente mais íngreme de regressão entre as distâncias genéticas e geográficas em comparação com as regiões colineares (Fig. 4B-C, Tabela 2, Tabela S4, Fig. S13). A divergência entre as populações do norte e do sul foi espelhada por um cline latitudinal acentuado e significativo de frequências de inversão, variando de 0,27 a 0,75 para Cf-Inv (4.1) (GLM: z = -8,1, p & lt0,001, R 2 = 0,41) e de 0,02 a 0,26 para Cf-Inv (4.2 / 4.3) (GLM: z = -6,6, p & lt0,001, R2 = 0,37). A associação entre latitude e frequência de inversão foi significativamente mais forte do que para SNPs escolhidos aleatoriamente com frequências médias semelhantes (Fig. 4D, Fig. S14-S15).

Embora todo o genoma (com exceção da inversão Cf-Inv (1)) mostrou IBD e IBR, foi significativamente aumentado em duas das três regiões de baixa recombinação em comparação com as regiões colineares. Quando comparada com regiões colineares do mesmo tamanho, a inclinação da regressão entre as distâncias genéticas e geográficas foi significativamente mais acentuada para Cf-Lrr (2) e Cf-Lrr (5) mas não para Cf-Lrr (3) (Fig. 4C, Tabela 2, Tabela S4, Fig. S13). No geral, a diferenciação geográfica nas quatro regiões invertidas e duas regiões de baixa recombinação mostraram padrões diferentes do genoma colinear, indicando a influência de outros processos além do equilíbrio migração-deriva, possivelmente em diferentes escalas geográficas para Cf-Inv (1) vs. outros.

Diversidade adaptativa colocaliza com inversões e regiões de baixa recombinação

Para investigar padrões putativos de variação adaptativa em C. frigida, analisamos a associação entre as frequências SNP e as variáveis ​​ambientais em geral (gradiente latitudinal térmico e gradiente de salinidade no Estuário de St. Lawrence R.) e escalas espaciais locais (características abióticas e bióticas do habitat destruído) (Fig. 1, Fig. S16, Tabela S1). As análises com dois métodos diferentes de associação genótipo-ambiente (modelos mistos de fator latente e modelos bayesianos) mostraram resultados consistentes, destacando altos picos de associações ambientais e grandes clusters de SNPs atípicos nas regiões invertidas ou de baixa recombinação (Fig. 5A-E, Tabela 3 , Tabela S5, Fig. S17-18). No entanto, diferentes inversões foram implicadas dependendo do fator ambiental e da escala espacial. Consideramos SNPs consistentemente identificados como outliers em ambas as análises para serem supostamente adaptativos.

SNPs candidatos associados a (UMA) variação climática ao longo do gradiente Norte-Sul, (B) variação de salinidade ao longo do gradiente estuariano, (C) variações nas características abióticas do habitat destruído, (D-E) variação na composição de algas destruídas. O gráfico de Manhattan mostra o fator Bayesiano da análise de associação ambiental realizada em Baypass, controlando a estrutura populacional. (F) Candidatos a SNPs associados ao tamanho da asa. O gráfico de Manhattan mostra os valores p do GWAS. Os pontos são coloridos de acordo com a taxa de descoberta falsa (preto: & lt0.00001, vermelho: & lt0.0001, laranja: & lt0.001). As linhas tracejadas representam os limites inferidos de inversões e regiões de recombinação baixa.

Repartição dos SNPs candidatos associados a cada variação ambiental usando a combinação de dois métodos GEA. N é o número de SNPs de outliers em uma determinada região,% é a proporção de outliers encontrados nesta região e OR indica a razão ímpar. Os valores em negrito com uma estrela indicam excesso significativo de SNPs candidatos em um teste exato de Fisher. Os resultados obtidos para cada método GEA são apresentados na Tabela S5.

Em uma grande escala geográfica, associações com variação climática ao longo do gradiente latitudinal mostraram um forte excesso de SNPs outlier nas quatro inversões e nas regiões de baixa recombinação de LG2 e LG5. Essas regiões exibiram 2 a 5 vezes mais outliers do que o esperado ao acaso (Tabela 3) com picos particularmente fortes de associação ambiental (BF & gt50, Fig. 5A) e um sinal significativamente mais forte do que para blocos aleatórios de genoma colinear do mesmo tamanho ( Fig. S19). No entanto, este não foi o caso para Cf-Lrr (3). Esses resultados foram consistentes, independentemente de o modelo ser ou não controlado pela estrutura geográfica da população (Fig. S17-18). Variação de frequências de Cf-Inv (4.1) e Cf-In (4.2 / 4.3) também foram significativamente associados à variação climática, quando considerados como loci único (GLM: Cf-Inv (4.1): z = -7,76, p & lt0,001 Cf-Inv (4.2 / 4.3): z = -6,45, p & lt0,001, com o modelo explicando 36% e 37% da variância na frequência de inversão, Fig. S20). A variação ao longo do gradiente de salinidade, que também abrangeu a variação da amplitude da maré, foi significativamente associada a um número mais limitado de SNPs. Um grande excesso de tais outliers foi encontrado em Cf-Lrr (3) e Cf-Lrr (5) (Tabela 3), as únicas duas regiões em que o sinal de associação foi mais forte do que no genoma colinear (Fig. S19).

Em uma escala geográfica mais precisa, SNPs atípicos associados a características abióticas destruídas (profundidade, temperatura e salinidade) foram fortemente enriquecidos na região invertida Cf-Inv (1) com um odds ratio de 5, incluindo outliers com suporte muito forte (BF & gt20, Fig. 4C). As associações SNP com características abióticas destruídas foram mais fortes do que em regiões colineares em Cf-Inv (1), e mais marginal em Cf-Inv (4.2 / 4.3) (Fig. S19). Isso foi espelhado pelo Cf-Inv (1) frequência, que co-variou significativamente com o estrato (GLM, z = 3,5, p & lt0,001, R 2 = 0,26, Fig. S20). A variação na composição de algas do fundo de demolição, impulsionada pela abundância relativa de duas famílias dominantes de algas marinhas, Fucaceae ou Laminariaceae, foi significativamente associada a SNPs generalizados, embora a inversão Cf-Inv (1) foi super-representado por uma razão de chances de 1,4. As variações nos componentes secundários do substrato eram mais difíceis de interpretar, pois co-variavam com a latitude e a temperatura (Fig. S16). Apesar disso, esses componentes secundários também foram associados a um grande número de SNPs em Cf-Inv (1) e em Cf-Lrr (5) com odds ratio de 3,6 a 6 (Fig. 5E), e uma distribuição de pontuações de associação significativamente maior do que em blocos colineares (Fig. S19).

Associação genótipo-fenótipo

Como composição destruída e Cf-Inv (1) são conhecidos por influenciar o tamanho adulto (Butlin, Read, et al. 1982 Edward e Gilburn 2013), usamos um GWAS para descobrir a variação genética associada ao tamanho da asa. Entre os 124.701 SNPs candidatos identificados pelo GWAS, mais de 99,8% estavam localizados em Cf-Inv (1) (Fig. 5F). Quando a variação no cariótipo foi removida (executando a análise apenas com homocariotipos), não encontramos quase nenhum SNPs candidato associado à variação de tamanho (0 para indivíduos αα e até 3 SNPs quando o FDR foi reduzido para p = 0,01 para os indivíduos ββ , Fig. S21). Executamos ontologia genética usando dois conjuntos de dados: os candidatos identificados por GWAS e todos os genes presentes em Cf-Inv (1). Ambas as análises mostraram um enriquecimento em vários processos biológicos, todos consistentes com grandes diferenças no tamanho da asa e na história de vida, como morfogênese, desenvolvimento muscular ou desenvolvimento do sistema neural (Tabela S6-S7).

Dada a faixa de temperatura extrema habitada por C. frigida (temperado a subártico) também investigamos a adaptação térmica. Avaliamos o tempo de recuperação após um chill coma no F2s usado para construir o mapa de ligação. Resistência ao choque frio localizada em um QTL no LG4, o que explica cerca de 13% da variação (Fig. S22). O pico principal estava localizado no LG4 em torno de 25-28Mb. Este amplo QTL englobou múltiplos SNPs outliers associados à variação climática e múltiplos genes anotados, entre eles duas proteínas de choque térmico, que podem representar candidatos relevantes para adaptação térmica (Uniprot P61604 na posição 25.128.992 e P29844 na posição 26.816.283). Este pico estava localizado entre as duas inversões putativas Cf-Inv (4.2) e Cf-Inv (4.3), e houve um pico secundário de 8 MB, o ponto de interrupção putativo de Cf-Inv (4.1).


RESUMO:

Nisso documento, a Federal Communications Commission (Commission ou FCC) identificou bandas de espectro específicas acima de 24 GHz que parecem ser adequadas para o serviço móvel, e buscamos comentários sobre as regras de serviço propostas que autorizariam as operações móveis e outras nessas bandas. Este desenvolvimento de regras de serviço para a utilização móvel das bandas de ondas milimétricas (mmW) ocorre no contexto dos nossos esforços para desenvolver um quadro regulamentar que irá ajudar a facilitar os chamados serviços móveis de Quinta Geração (5G).


Abstrato

As evoluções recentes na ciência da computação e na tecnologia da web fornecem à comunidade ambiental recursos em contínua expansão para coleta e análise de dados que representam desafios sem precedentes para o design de métodos de análise, fluxos de trabalho e interação com conjuntos de dados. À luz do recente projeto piloto do Observatório Virtual Ambiental financiado pelo UK Research Council, este artigo oferece uma visão geral das implementações atualmente disponíveis relacionadas a tecnologias baseadas na web para o processamento de conjuntos de dados grandes e heterogêneos e discute sua relevância no contexto de processamento de dados ambientais, simulação e previsão. Descobrimos que o processamento dos conjuntos de dados simples usados ​​no piloto provou ser relativamente simples usando uma combinação de R, RPy2, PyWPS e PostgreSQL. No entanto, o uso de bancos de dados NoSQL e estruturas mais versáteis, como implementações baseadas no padrão OGC, podem fornecer um conjunto mais amplo e flexível de recursos que facilitam particularmente o trabalho com volumes maiores e fontes de dados mais heterogêneas.


Modelos de serviço em nuvem ArcGIS

Os principais modelos de serviço operacional se enquadram em quatro categorias:

  • IaaS fornece recursos de infraestrutura gerenciada (plataformas de servidor e armazenamento) para expandir seus recursos de data center hospedados na nuvem. O suporte de autoatendimento de TI padrão é necessário para manter os serviços implantados na infraestrutura em nuvem.
  • O SaaS fornece aplicativos e recursos de dados hospedados na nuvem. O ArcGIS Online fornece conteúdo de dados e recursos de autoatendimento para construir mapas e aplicativos publicados para colaboração e compartilhamento seguros com grupos definidos em seu ambiente de comunidade em nuvem.
  • O Portal for ArcGIS é um produto disponível para implementação no local do cliente para promover colaboração e compartilhamento em um ambiente privado seguro não conectado à Internet. Os dispositivos de dados estão disponíveis para implementação local compartilhando recursos semelhantes disponíveis no ambiente ArcGIS Online.
  • PaaS fornece uma plataforma ArcGIS for Developers para construir e compartilhar aplicativos ArcGIS.

Como você notou, para fazer uma imagem desfocada, primeiro é necessário fazer uma imagem e, em seguida, desfocá-la. Este sombreador faz (apenas) a segunda etapa, pegando uma imagem que foi gerada anteriormente e desfocando-a. É necessário haver código adicional em outro lugar para gerar a imagem original não desfocada.

Ele aplica um kernel de desfoque à imagem. tc_offset precisa ser inicializado corretamente pelo aplicativo para formar uma área 3x3 de pontos de amostragem em torno da coordenada de textura real:

(assumindo que x é a coordenada original). O deslocamento para o ponto de amostragem superior esquerdo seria -1 / largura, -1 / altura. O deslocamento para o ponto central precisa ser cuidadosamente alinhado ao centro de texel (o problema fora de 0,5). Além disso, o filtro bilinear de hardware pode ser usado para aumentar de forma barata a quantidade de desfoque (por amostragem entre texels).

O resto do shader dimensiona as amostras pela distância. Normalmente, isso também é pré-computado:

Uma maneira é gerar sua imagem original para renderizar em uma textura, não na tela. E então você desenha um quadrante de tela inteira usando este sombreador e a textura como entrada para pós-processamento da imagem.


Introdução

Ao lidar com dados espaciais, dependendo das características particulares do tipo de informação, pode ser mais apropriado representar essa informação (no nível lógico) usando um modelo de dados raster ou vetorial [1]. O avanço da sociedade digital está proporcionando um crescimento contínuo da quantidade de dados vetoriais disponíveis, mas o surgimento de aparelhos baratos equipados com GPS, como os smartphones, é responsável por uma explosão de big data, principalmente de trajetórias de objetos em movimento. O mesmo fenômeno pode ser encontrado em conjuntos de dados raster, onde os avanços no hardware são responsáveis ​​por um importante incremento do tamanho e da quantidade de dados disponíveis. Levando em consideração apenas as imagens adquiridas pelos satélites, vários terabytes de dados são gerados a cada dia [2], e estima-se que a quantidade de dados raster arquivados em breve atingirá a escala de zetabytes [3].

Esse grande aumento na variedade, riqueza e quantidade de dados espaciais também gerou novas demandas de informações. Hoje em dia, muitas áreas de aplicação requerem a combinação de dados armazenados em diferentes formatos [4] para executar análises complexas. Obviamente, combinar diferentes modelos de dados se torna mais difícil ao lidar com grandes quantidades de dados.

Embora exista um grande volume de pesquisas sobre o tamanho, a análise e a heterogeneidade dos dados, no caso dos dados espaciais, na maioria das vezes, essas pesquisas estão focadas no modelo vetorial ou no modelo raster separadamente. Os dois modelos raramente são manuseados juntos. Por exemplo, a solução usual para consultas que envolvem conjuntos de dados raster e vetoriais (juntos) é transformar o conjunto de dados vetoriais em um conjunto de dados raster e, em seguida, usar um algoritmo raster para resolver a consulta. Esta é a solução para a operação de estatística zonal de Map Algebra em, pelo menos, ArcGIS e GRASS [5, 6].

No entanto, algumas pesquisas anteriores abordaram o problema usando uma abordagem conjunta. In [4], a single data model and language is proposed to represent and query both vector and raster data at the logical level. Even a Join operator is suggested, which allows combining, transparently and interchangeably, vector datasets, raster datasets, or both. As an example, the authors propose the query “return the coordinates of the trajectory of an aircraft when it was over a ground with altitude over 1,000”. Unfortunately, no implementation details are given.

Other previous contributions deal with the implementation of query operators that are explicitly defined for querying datasets in different formats [7–10]. Some of them tackled the Join, or a close query, but in this case, these works suffer from limitations (data structures not functional enough, too restrictive join operations, size problems) that will be explained more in detail in the next section.

On the other hand, compression has been used traditionally with the aim of just reducing the size of the datasets in disk and during network transmissions. However, it has recently begun to be used as a way to obtain improvements in other dimensions, such as processing time or scalability [11]. In the last few years, several authors [12–15] have proposed the use of modern compact data structures [16] to represent raster datasets. Compact data structures use compression to reduce the size of the stored dataset, but with the novelty that the compressed data structure can be managed directly in compressed form, even in main memory. By saving main memory, we obtain a more scalable system, but at the same time, we take advantage of a better usage of the memory hierarchy, and thus obtain better running times. This strategy is sometimes called “in-memory” data management [17]. In addition, many compact data structures are equipped with an index that, in the same compressed space, speeds up the queries. This feature is known as “self-indexation”. One example of these compact data structures designed for raster data, and the one achieving the best space/time trade-offs [15], is the k 2 -raster [14], which will be used in this work, thus extending its functionality.

In this work, we propose to use a new framework to store and manage raster and vector datasets. The vector dataset is stored and indexed in a traditional way, using an R-tree [18]. For the raster data, instead, we propose to use a modern compact data structure, the k 2 -raster, which improves the performance of traditional methods.

The algorithms to manage independently each type of data and its corresponding data structure are well-known [14, 19]. However, as explained, the algorithms to process both types of data jointly have been much less studied. Therefore, our proposal requires the design of new algorithms. In this work, we present two new algorithms that are able to efficiently answer two operations having as input a vector dataset and a raster dataset. The first one is a spatial join between the two input datasets imposing a range restriction on the values of the raster dataset. The second algorithm obtains the top-K different objects of the vector dataset overlapping the highest (or lowest) values of the raster dataset.

Our proposal obtains important savings in disk space, which are mainly due to the use of a k 2 -raster for representing the raster data. In our experiments, the compressed raster data occupied between 9% and 73% of the disk space needed by the original uncompressed raster data. However, the main contributions of this paper are the algorithms for solving the aforementioned operations, which obtain savings also in main memory consumption and processing time. Apesar de k 2 -raster was designed to be used directly in compressed form, it is not trivial to save main memory while processing it. Thus, designing these algorithms becomes challenging, as the direct management of compressed data and indexes requires complex data structures and processes, which could negatively impact the results in main memory consumption and running time.


Note that there is a wide variation regarding the identified tasks in the literature (refer to Li (2009) for an overview). In this survey we focus on a faceted-oriented task analysis approach.

For example, instead of just displaying the number of books of an author on a particular topic, also show the average price of the author’s books.

One could adopt visualization approaches like in Kehrer and Hauser (2013) or techniques that derive overviews, like the top-k diagrams proposed in Fafalios and Tzitzikas (2014), but such works go beyond the scope of this paper.

Since cr3 does not participate to a madeBy property, an alternative approach that one might follow is to add an artificial value, say NonApplicable/Unknown , whose count would equal 1, for informing the user that one element of the focus has no value to the madeBy property.

This kind of transition is called existential selection in Oren et al. (2006).

TriQ (Arenas et al. 2014) is a datalog based QL that offers a general form of recursion, reasoning and navigational capabilities, that incorporates the main RDF QLs.

This “mapping” can be implemented over any web accessible RDF/S dataset by exploiting the SPARQL extension described in Fafalios and Tzitzikas (2015), even if no triplestore or SPARQL endpoint is installed.

Measurements performed b Michalis Mountantonakis


Grades of Accuracy and Grades of Generation for scan-to-BIM model process: specification proposal inheriting the representation scale concept

In this paragraph, the authors introduce the concept of scale in the model generation, demonstrating the importance of adopting new scan-to-BIM requirements and reference scales for the generation of 3D model as unique elements of their kind. The growing need to escape from a preconceived logic of BIM object libraries for new buildings has led to the definition of a method based on the following research objectives.

It was found that in the scan-to-BIM process, GOGs and GOA, and LOGs, are fundamental concepts introduced in the digitization process of the built heritage to improve multiple aspects such as:

the specifications required to define a generative process based on point clouds coming from surveying (terrestrial laser scanning or mobile techniques, photogrammetry),

the level of the information linked to each parametric object (new customized HBIM parameters, schedules, and BIM databases, including the scale of model generation),

a reliable HBIM models capable of orienting itself to different types of BIM-based analysis and uses (HBIM model export through open source and proprietary formats).

In this context, the definition of new scan-to-BIM modeling requirements, such as GOAs, is decisive for the generation of complex architectural elements in order to address the model generation following the GOG specifications. It overcomes the pre-set logic of BIM default libraries and simple objects (as generally followed for the creation of new buildings) that do not communicate the peculiarities (geometric and semantic) of such unique elements, in favor of ad hoc specification process.

For those reasons, in the next paragraph, an HBIM model specification is proposed starting from the commonly recognized concept of representation scales defining different level of details and tolerances indicators: the concepts of graphic error, tolerance and grades of generation, and accuracy, have been related to the final purpose of declaring the reliability of the scan-to-HBIM model at different scales of representation and tolerance.

How to evaluate a 3D model? It is the model committed at the scale 1:100 feasible for my purposes? What does it mean that a model has a 1:100 scale? If I have a model generated with the precision of a 1:100 scale, is it useful to understand the morphologic shape and the construction techniques, or the state of its conservation? To answer these questions, we have to start from a commonly shared specification that can be fixed for the different scales to different 3D models. Then, in the function of the thousands of variables of the constrain and decision context, every actor can associate a proper scale to generate a proper model. This way actors and users can decide if the model, coming from previous analysis, requires further integration or if the model needs to be simplified at a certain point of the data management (i.e., for energetic purposes using standard tools not enabled to manage complex model).

HBIM models, scales, and grades of 3D model accuracy: specifications, scales of representation, and tolerance

To reliably share a model, such as a vault BIM object, one needs to know the following: which was the commitment purpose and thus the required scale how it has been surveyed if the model has been generated in a congruent way that depends on the object level of complexity and the type of geometrical survey in order to generate an object model with the proper accuracy. This information should be included within the Level of Information of each object model in order to manage the different Level of Geometry within the different phases as described in the “A proposal for HBIM Levels of Geometry (100–500) as a function of the phases, the Levels of Development” section.

Some constraints, roles, and specifications need to be fixed to guarantee the needed accuracy in the model’s generation. The proposal is to inherit the surveying specification concept traditionally linked to the different map representation scales (as for the case of the scale 1:25.000 for territorial maps, i.e., IGM maps, Istituto Geografico Militare, the Geographic Military Institute in Italy, or the scale 1:10.000 and 1:5000 for the technical regional-scale maps, 1:2000, 1:1000 and 1:500 for the municipality technical maps, etc.), as standardized in the aero-photogrammetric process adopted in the cartographic world, and inherited by the architectural surveying specifications (1:100, 1:50, 1:20, 1:10, 1:1), now addressing them to the 3D HBIM model objects. Such requirements have been adopted for many decades in the tenders’ specifications at a worldwide level. In these cases, the simple basic role conventionally adopted is the minimum level of detail (the so-called Graphic Error, G.E.) and the related Tolerance (T). The choice of the “scale” depends on the survey’s objective and the type of use of the final product (Banfi 2019 Brumana et al. 2019): once defined, clear indicators allow to generate and to validate the output.

Given the conventional definition of Graphic Error fixing the smallest detail that can be represented at a given scale (G.E. = 0.2 mm,) and tolerance (T = 2 ÷ 3 G.E. value), we can apply such values to all the different scales obtaining an indicator of precision and domain usability. If we relate the minimum graphic details (pixel or vector) to the real object (the correspondent physical object, as in the case of the Terrain Pixel value), we derive the following proportion: “1: n = G.E.: x,” where “n” is the scale factor (20, 50, etc.) and “x” is the correspondent dimension of the G.E. on the ground or on the architectural object that can be a façade or a plan or section.

For example, at 1:50 scale, the G.E. value is 1 cm, and the admitted tolerance (T) is 2 ÷ 3 cm, while for the 1:20 scale, G.E. is 4 mm, and T is equivalent to a ranging value (8 ÷ 12 mm). The Grade of Accuracy is automatically associated with the chosen scale. Technical municipalities’ maps at the scale 1:1000 have G.E. = 200 mm and T = 400 ÷ 600 mm, as illustrated in the first 4 columns of Table 1. In the case of photogrammetric restitution (as rectified images or orthoimages), the minimum detail is fixed at half the G.E. value at the given scale, with a restrictive requirement in order to consider the whole data processing (third column).

The precision of the surveying instruments and restitution scale needs to be coherent with those values to make them reliable by the technical uses and users. For this matter, the specifications for tender of maps production as well as for large-scale architectural surveys are strictly related to the concept of scale or scales adopted (i.e., global surveying at 1:50 scale with some details at 1:20, others at 1:10, depending on the different purposes and specificity of the object). Every architect knows that a drawing of a window for its manufacturing or preservation requires 1:5 ÷ 1:10 scales to properly represent some specific details. The photogrammetric mosaic floor of the Basilica of San Marcus has been realized at a 1:1 scale to represent the “waving” floor for the maintenance purposes and intervention on the single “tessera” (Monti et al. 2006).Table 1 illustrates the concept of scales related to the HBIM 3D models object created by the generative process to respect the richness of detail and tolerance fixed in the given scale. A model generated at the common scale 1:50 implies a minimum detail equivalent to 10 mm and a tolerance contained among 20 ÷ 30 mm.

The scale index of an object model is here proposed to be explicated by the Grade of Accuracy (GOA10, GOA20, GOA50, GOA100) defines automatically the different minimum detail to be taken in account and tolerances admitted in the modeling generations (Table 1, columns 6 and 7). Thus, GOA 20 means that the model accuracy of vaults as well as other components (as the octagonal columns in the Basilica di Collemaggio) with respect to the cloud points needs to be contained within the tolerance at that scale (T 20 = 8 ÷ 12 mm). The precision of the surveying, as in the case of point clouds acquired with TLS (laser scanner FARO Focus 3D), allows the extraction of vertical and horizontal profiles with high accuracy (2 ÷ 5 mm), thus coherent to the scales GOA20 and GOA50. Obviously in case we choose model scale bigger than the surveying precision (as it happens when we require 1:20/1/10 scale for porfiles and out of plumbs analysis), it will work in favor of the object model that will be generated, not the opposite!

The selection of the proper scale of the object model is complementary to the orthoimage scale definition. It can also happen to define a lower model scale (i.e., GOA50 for the HBIM model) and a higher orthoimage scale (i.e., 1:20) for the model texturing, obviously, we will have different tolerances. And in the common praxis, it often happens: given the short distances of indoor contexts among the principal point of the digital camera and the object to be acquired, i.e., the vault intrados, the terrain pixel coming from the photogrammetric image block (conventionally set at G.E./2 for the different scales) ranges from 1 ÷ 2 mm dependently from the distances from the camera parameters and the object surface thus, the richness of the data acquired is coherent to scales that range from 1:20 to 1:10, without any additional effort (time and cost) in the surveying phase. The specification related to the adoption of the smallest detail of the pixel unit correspondent to half the G.E., inherited from the cartographic domain, takes into account the average of the “scale” of the photogrammetric images, with the different distances from the objects, the distortions, and the whole image data processing. Thus, the data entry quality concerning the whole process guarantees the output scale in terms of quality.

Once fixed the HBIM model scale with its indicators (G.E. and T), the second step to be clarified in the specification is how to guarantee a model generation coherent with the chosen scale as defined in the following paragraphs.

NURBS-based modeling and descriptive geometry are defined in the Grades of Generation (GOGs) 9 and 10, where the 3D architectural representation from point clouds meets the measurement value. Behind these concepts emerges the growing need to faithfully represent the detected artifact, thus ensuring its reliability for subsequent uses (Banfi 2020).

The following paragraphs describe the case of a Wall Object and Vaulted Object to guide the end-users across selecting the proper scale in the function of geometry, modeling and general objectives.

Cases of wall objects: scale models and model generation specifications

Different scales can be thus adopted in the same HBIM design project following the lesson learnt from the Basilica di Collemaggio in L’Aquila (Brumana et al. 2018a) adopting a global 1:50 GOA scale for the wall objects, and a GOA scale 1:20 for the most damaged South Wall with the Holy door without of plumb ranging from 10 ÷ 20 cm after the earthquake.

In the case of the Basilica di Sant’Ambrogio in Milan (Banfi et al. 2019), the particular curved waved wall (round 46 cm with respect to a virtual plane) adjacent to the left nave at the women gallery level has been modeled generating the wall object characterized by a double curvature at the scale 1:20 in order to analyze that specificity to carry on the hypothesis on the wall generation, transformation, and supposed reinforcing (Fig. 3). Given the complexity of the wall and the maximum range of the undulation, its simplification and degeneration to a single parallelopiped correspond to urban scales (GOA2000, T800 ÷ 1200 mm, clashing the arches, or GOA1000, T400 ÷ 600 mm keeping the arches in the model) and not to a 1:100 scale generally considered a simplified scale! In fact, a GOA100 would mean to take into account the deformation with respect to a virtual plan within 40 ÷ 60 mm. Obviously, it is a case limit but it is worth stressing the point.

Three possible models (GOA2000, 1000, 20) of the same wall. GOA can change according to project requirements, scales of representation, and tolerance. The Automatic Validation System (AVS), obtained at the end of the NURBS-based modeling, allows to understand the standard deviation of the surfaces from the cloud points (in case of a laser scanning survey)

GOAs 50 and 20 roles are hereafter described for the model generation.

Case of GOA50-wall object

Planarity check: standard deviation ≤ 20 ÷ 30 mm

Case of walls (or portions) with a standard deviation of the point clouds surveyed representing the physical object respect to the average plane surface in correspondence of the façade surfaces (internal and/or external) ≤ 20 ÷ 30 mm: the planarity check can be easily carried out using the available functionalities within modelers’ tools and/or BIM tools. In this case, a 1:50 scale (equivalent GOA50) is chosen: the objects can be modeled adopting simplified Grade of Generations 1–8 (Brumana et al. 2019).

Research of Plane Extraction Methods can be inherited to guide toward the proper scale selection with the support of automatic and semiautomatic point interpolations (Wang et al. 2016).

GOGs 1–8 define simplified functionalities (i.e., based on extrusion, subtraction, sweep, and other modeling functionalities). Where needed, it is possible to associate the different options to model sub-portions (as in the case of openings, or irregular plan profile with discontinuities coming from the transformation occurred across the centuries or others): the discretization of the overall object is made by subdividing its homogeneous elements, checking the planarity and modeling the different portions. Void and subtraction functions can be used to model the complexity of a historical stratified wall.

GOG 1–8: simplified solid model objects can be adopted for elements whose conceptual model (in this case planarity check) has standard deviation respect to the cloud points ≤ 20 ÷ 30 mm (i.e., vertical walls with non-planarity or out of plumbs ≤ 20 ÷ 30 mm).

Planarity check: standard deviation ≥ 20 ÷ 30 mm

Case of walls (or portions) with a standard deviation of the point clouds respect to the average plane surface in correspondence of the façade surfaces (internal and/or external) ≥ 20 ÷ 30 mm: if the planarity check gives back this range of values, it means that the wall within this scale cannot be considered a plan at the given 1:50 scale - thus the out of plumbs need to be checked for the structural analysis (as in the case of Collemaggio’s Basilica walls), or characterized by voluntary morphological shapes adopted in the construction phase, to be further decoded, as in this case.

GOG 9–10: NURBS-based model object built on the primitives (profiles) or on the cloud points together with the 3D border outline can be thus adopted for elements with standard deviation respect to the adopted conceptual simplified solid ≥ 20 ÷ 30 mm (i.e., vertical walls with standard deviation respect to the planarity check ≥ 20 ÷ 30 mm, or without of plumbs ≥ 20 ÷ 30 mm or pillars with standard deviation respect to the planarity check ≥ 20 ÷ 30 mm).

If this scale is not enough to understand the state of the art, it can be shifted toward a deeper scale 1:20 (equivalent GOA20): the objects are modeled adopting the GOGs 9–10 (NURBS-based object modeling), embodying the complexity of the shape to follow the geometry discretized by the point clouds.

Case of GOA20-wall object

Planarity check: standard deviation ≤ 8 ÷ 12 mm

GOG 1–8: simplified solid model objects can be adopted for elements whose conceptual model (in this case planarity check respect to the intrados and extrados a plane surface) has standard deviation respect to the cloud points ≤ 8 ÷ 12 mm.

Planarity check: standard deviation ≥ 8 ÷ 12 mm

GOG 9–10: NURBS-based model object can be adopted for elements whose conceptual model (in this case planarity check respect to the intrados and extrados plane surface or planes with different orientation as in the case of scarf walls) has standard deviation respect to the conceptual simplified solid ≥ 8 ÷ 12 mm.

HBIM of St. Bernard’s chapel star vault in the Plasy Monastery: model generation with different scales

A different GOA (200–100–50–20) adoption is illustrated for a complex vaulted system. Vaults generally have a more complex geometry than the typology classification based on simplified volumes and their intersection: detailed surveying of intrados and extrados, together with thermal images analysis, allows one to detect shapes that are different from the conceptual solids coming from the technical literature (Brumana et al. 2018b).

This paragraph describes the different scales and accuracy applied to different GOAs (GOA20, GOA50, and GOA10) to detect the geometry and the construction techniques, depending on the available information. In this case, intrados and extrados of St. Bernard’s chapel star vault were studied through on-site observations, geometric surveys, and photogrammetry.

At the intrados, the star vault can be schematically represented by a sphere interpreted by 8 lunettes that creates arches, while at the extrados, it is framed by radial Y-ribs.

A proper scale was defined for each component of the star vault, taking into account (i) the survey precision gained (and also surveying limitations due to the context and museum management), (ii) the geometric characteristics that could be evidenced adopting the proper scale, and the particularity of the surface finishing (i.e., the intrados stuccoes and the raw mortar finishing of the extrados). Each object model scale characterized by different tolerance factors has driven the model generation of the vault components.

In order to filter the stuccoes decoration at the intrados and to analyze the geometry of the framed ribs and of the lunettes, it has been chosen a 1:20 scale adopting a GOA20 in the modeling phase. The intrados surface has been surveyed and modeled at a 1:20 scale, generating an HBIM object at GOA20. Since the vault construction technique is an example of so-called frame vault (arches and lunettes), the HBIM model generation has been addressed to the segmentation of these two object elements.

Modeling the whole star vault object does not only require a reliable intrados model, adopting GOA20 to detect the geometry of the ribs and lunettes, but also an integration of the extrados textured model with GOA50. The extrados, due to surveying constraints and mortar cover irregularities given back from the photogrammetric orthoimage and point clouds, was modeled at a 1:50 scale, with a range tolerance of 20 ÷ 30 mm. However, from the extrados, it was possible to see the arrangement of the bricks, thus understanding the construction technique and the connection with the intrados. Thus, a detail of the Y-ribs was modeled at GOA10 to represent the arrangement of the bricks on the vault and lunette extrados surface (Fig. 4). The analysis made it possible to derive a more in-depth knowledge of the construction technique to better support the vault structural behavior and boost the preservation actions.

Intrados (vault and lunette) geometric analysis: (A) the longitudinal section of the vault is a segmental arch that has a deviation from a round arch of about 18 cm (worst case) (B) lunette profile is a segmental arch that deviates from the round one of about 18 cm (worst case) (C) lunette transversal section is a part of a round arch whose center is not at the same level of the end of the arch (D) lunette transversal section is a segmental arch that deviates from the round arch of about 10 cm (E) lunette profile is a curve that deviates from the line of about 6 cm

Model generations and specifications

HBIM model generation followed the specification steps for the generative model of complex shapes (Banfi 2019). It was then adapted to the different GOAs:

Extraction of primitives from point clouds to intercept the primary geometry: this process can be done manually or in a semi-automatic way. It should be stressed that the geometric interpretation of the collected data and the constructive analysis of the product depend totally on the modeler.

From the NURBS model to HBIM objects: thanks to NURBS algorithms, it was possible to apply GOG 10 where it was necessary. Through a semi-automatic procedure, simple points were turned into a model capable of accurately following the vault geometry, both at the intrados and the extrados. The upper and lower vault parts have been connected and georeferenced directly in a three-dimensional environment thanks to common points identified in the wall texture. In the generative phase, GOG 10 scan-to-BIM requirements, the scale of representation, and the amount of information included in the model had been considered. An accurate breakdown by structural elements consequently determined the level of information shared via BIM parameters, clouds, and databases. NURBS-based models have been generated with the intrinsic characteristic of being HBIM enabled parametric complex object.

The Grade of Accuracy and the scale of representation definition, validation, and communication of the object library (toward HBIM metadata enrichment): the definition of methods capable of validating and communicating the model reliability to the various users has been undertaken. Communicating the specific GOAs and the scale of representation adopted for each model component within the HBIM information properties, through known quantitative parameters, is vital for each phase of BIM uses after the HBIM model generation within the HBIM contest but also in the case of data sharing outside the single HBIM use. For this reason, the HBIM object, before being shared, must be verified connecting such values as a sort of metadata: an Automatic Verification System (AVS) has been applied to different scales of representation with the ultimate goal of demonstrating the level of accuracy, analyzing the quality level (Banfi 2019).

Implementation and development of new HBIM parameters enriching the object library: as briefly mentioned, the need to create a library of unique objects, such as St. Bernard’s chapel, required the development of new description parameters for communicating a series of contents, such as construction, materials, arrangements, family of workers, and geolocation with more specific information such as historical periods, descriptions, and historical documentation from the archives. External links could also redirect the collected data, such as orthophotos, texts, point clouds, 2D drawings, and historical reports.

GOA20—the intrados and the lunettes

The intrados and the lunettes structure of the star vault were modeled with GOA20 (a Grade of Accuracy of the model equivalent to 1:20 scale).

GOA20 means that the object model accuracy respect to the cloud points will be contained within the tolerance at that scale (T20 = 8 ÷ 12 mm). This factor implies that to model the object with such precision, it is required reliable modeling of the intrados. This object cannot be modeled at this scale with a sphere!

Such accuracy highlighted the complex typology and detected the creativity of the geometric design (Stanga et al. 2019). Thanks to the direct application of GOG 9 and 10, it has been possible to go beyond a simple 2D representation or simplified theoretical representation.

The analysis on the shape and dimension of vault sections and lunettes profiles was carried out (Fig. 4). The longitudinal section of the vault (A) is not a round arch but is a segmental arch. It slightly deviates from the round arch of about 18 cm (worst case). Considering the lunettes: B profile is a segmental arch that deviates from the round one of about 18 cm (worst case), C transversal section is a part of a round arch whose center is not at the same level of the end of the arch, D transversal section is a segmental arches that deviates from the round arch of about 10 cm, and E profile is a curve that deviates from the line of about 6 cm.

Santini would probably get inspiration from the pure solids for the design of the vault (a sphere), since he was keen onmathematics and geometry. Then, why those discrepancies between the conceptual model and the real vault? Many reasons could explain those deviations: problems during the construction process (a bad construction of the centering or problems during de-centering), the thickness of stuccos and paintings, settlement of the building across the centuries (the Monastery was built in the twelfth century on a water-land on 5100 oak piles to reinforced the swampy ground) or a voluntary adoption of curves characterized by multiple centers (polycentric arches).

Moreover, since the E profile of the lunettes is not a straight line, it means that the lunette surfaces are not built by the translation of the segmental arch. They are surfaces with double-curvature, which means that they were probably built without using a centering, or maybe using the groins of the lunette as a centering. This hypothesis could be possible, but the brick arrangement of the lunettes is longitudinal and it does not match the herringbone pattern, which is the usual pattern for free-hand vault (Wendland 2008). In the case the lunettes were built using a centering, it could be possible that they place some sand on it to give curvature to the E profile, perhaps due to aesthetic reason. To properly model such complex geometries, the modeling process of the lunettes and ribs at the intrados is illustrated adopting GOA20 with the result of modeling the curvature of the intrados not approximating a simple semi-circumference—as from the profile analysis—but the geometric curvature by extracting the primitives and the borders, thus obtaining the wireframe model as explained in Fig. 5.