Mehr

Warum unterscheiden sich REST LOD (Skalen) von WMTS Capabilities XML?


Ich habe eine intern veröffentlichte ArcGIS-Webkarte. Die Detailebene (LOD) des Rests meldet eine andere Zahl an die XML der WMTS-Funktionen. Ich habe mir ein paar öffentliche Dienste angesehen und genau das gleiche gefunden ...

Warum sind diese Zahlen unterschiedlich. Was vermisse ich?

REST-MapServer: USGS Topo MapServer

WMTS-XML: USGS Topo MapServer WMTS XML

ff


Es ist die DPI. Beachten Sie, dass für den REST-Dienst 96 gemeldet wird, für WMTS jedoch 90.7 angenommen wird. Siehe verwandte Frage Mathematik hinter der Umwandlung von Maßstab in Auflösung?.


Experimente mit Semantic-Web-Technologien zur Anbindung von IUGONET-, ESPAS- und GFZ-ISDC-Datenportalen

E-Science im Web spielt eine wichtige Rolle und bietet modernste Technologie zur Integration von Datensystemen. Es stellt auch Daten für die Erforschung immer komplexerer Aspekte des Systems Erde und darüber hinaus zur Verfügung. Die Vielzahl der von der Europäischen Union (EU) gegründeten E-Science-Projekte, universitätsgetriebene japanische Bemühungen im Bereich Datendienste und institutionell verankerte Entwicklungen zur Weiterentwicklung eines nachhaltigen Datenmanagements in Deutschland belegen die Relevanz und Akzeptanz von E-Science oder Cyberspace-basierte Anwendungen als wesentliches Werkzeug für erfolgreiches wissenschaftliches Arbeiten. Die Kooperationsaktivitäten im Zusammenhang mit erdnahen Weltraumdatensystemen und ersten Ergebnissen im Bereich der Informationswissenschaft zwischen dem EU-finanzierten Projekt ESPAS, dem japanischen IUGONET-Projekt und den GFZ ISDC-basierten Forschungs- und Entwicklungsaktivitäten stehen im Mittelpunkt dieses Beitrags. Das Hauptziel der Zusammenarbeit ist die Nutzung eines Semantic-Web-Ansatzes für das Mashup der projektbezogenen und bisher inoperablen Datensysteme. Sowohl die Entwicklung und Nutzung von kartierten und/oder zusammengeführten geo- und raumwissenschaftlichen kontrollierten Vokabularen als auch die Verbindung von Entitäten in ontologiebasierten Domänendatenmodellen werden angesprochen. Die entwickelten kontrollierten Vokabulare zur Beschreibung geo- und weltraumwissenschaftlicher Daten und zugehöriger Kontextinformationen sowie die Domänenontologien selbst mit ihren Domänen- und domänenübergreifenden Beziehungen werden in Linked Open Data veröffentlicht.

Semantisches Web-basiertes Mashup der erd- und weltraumwissenschaftlichen Datensysteme und -dienste des japanischen IUGONET, der Europäischen Union ESPAS und des GFZ ISDC.


Von ArcGIS Online und Portal for ArcGIS gehostete Kartenservices

Von ArcGIS Online oder Portal for ArcGIS gehostete Karten-Services können nur Kacheln aus dem Cache des Servers zurückgeben. Sie können keine Bilder dynamisch zeichnen und erlauben auch keine Abfrage der einzelnen Features hinter der Karte. Sie können Abfragen und Informations-Popup-Fenster in Ihren Anwendungen unterstützen, indem Sie Feature-Services in Verbindung mit Ihren Karten-Services verwenden.

Dementsprechend gelten einige der in diesem Abschnitt der Dokumentation erwähnten Ressourcen, Operationen und Eigenschaften nicht für Karten-Services, die von ArcGIS Online oder Portal for ArcGIS gehostet werden.


Ergebnisse

Um unsere Analysen zu erleichtern, haben wir die erste Referenzgenom-Assembly für Coelopa frigida mit einer Kombination aus Long-Read-Sequenzierung (PacBio) und Linked-Reads der 10xGenomics-Technologie. Eine hochdichte Kopplungskarte (28.639 Marker, die sich auf 6 Kopplungsgruppen verteilen) ermöglichte es uns, mehr als 81% des Genoms in 5 große Chromosomen (LG1 bis LG5) und ein kleines Geschlechtschromosom (LG6) zu verankern und auszurichten. Dieser Karyotyp stimmte mit früheren zytogenetischen Arbeiten zu C. frigida (Aziz 1975) und mit den 6 Muller-Elementen (EIN=LG4, B=LG5, C=LG2, D=LG3, E=LG1, F=LG6, Abb. S1), die üblicherweise in Diptera konserviert werden (Vicoso und Bachtrog 2015 Schaeffer 2018). Die Endmontage umfasste 6 Chromosomen und 1.832 nicht verankerte Gerüste mit einer N50 von 37,7 Mb für eine Gesamtgenomgröße von 239,7 Mb. Diese Referenz hatte ein hohes Maß an Vollständigkeit, mit 96 % (Metazoen) und 92 % (Arthropoden) der universellen orthologen Einzelkopie-Gene vollständig zusammengesetzt. Es wurde mit einem hochgradig vollständigen Transkriptom (87% vollständige BUSCOs in den Arthropoden) annotiert, basierend auf RNA-Sequenzierung mehrerer ontogenetischer Stadien und einschließlich 35.999 Transkripte.

Um die genomische Variation auf Populationsebene zu analysieren, verwendeten wir eine geringe Abdeckung (

1,4X) Sequenzierung des gesamten Genoms von 1.446 Fliegen von 16 Standorten entlang der nordamerikanischen Atlantikküste (88-94 adulte Fliegen/Standort). Die untersuchten Standorte umfassten ein Nord-Süd-Gefälle von 1.500 km über 10° Breite, einen ausgeprägten Salzgehaltsgradienten in der St.-Lorenz-Mündung und eine Reihe von Habitaten mit variabler Algenzusammensetzung und Wrackbetteigenschaften (Abb. 1, Tabelle S1). Nach dem Abgleich der 1.446 sequenzierten Individuen mit dem Referenzgenom analysierten wir die genetische Variation innerhalb eines probabilistischen Rahmens, der für eine geringe Abdeckung verantwortlich ist (ANGSD, Korneliussen et al. 2014) und berichteten über 2,83 Millionen Einzelnukleotidpolymorphismen (SNPs) mit geringeren Allelfrequenzen von mehr als 5 higher % für Differenzierungsanalysen.

Zwei große chromosomale Inversionen strukturieren die intraspezifische genetische Variation

Die Zersetzung der SNP-Genotyp-Wahrscheinlichkeiten durch eine Hauptkomponentenanalyse (PCA) ergab, dass die 1. und 2. Hauptkomponente (PCs) einen großen Anteil der genetischen Varianz enthielten, bzw. 21,6 % bzw. 3,9 %, und ermöglichte es uns, die 1.446 Fliegen als 9 display darzustellen diskrete Gruppen (Abb. 2A). Entlang PC1 entsprachen die drei Gruppen drei Genotypen der Inversion Vgl.-Inv(1) (αα, αβ, ββ), wie anhand von zwei diagnostischen SNPs (Mérot et al. 2018) mit 100 % bzw. 98,3 % Konkordanz identifiziert (Tabelle S2). Entlang PC2 wurden drei verschiedene Gruppen identifiziert, die weder dem Geschlecht noch der geografischen Herkunft entsprachen und somit möglicherweise drei Genotypen für eine weitere polymorphe Inversion darstellten.

(EIN) Hauptkomponentenanalyse (PCA) der Variation des gesamten Genoms. Individuen sind bei der Inversion durch Karyotypen gefärbt Vgl.-Inv(1), wie zuvor mit einem SNP-Marker bestimmt (Mérot et al. 2018). Ellipsen zeigen eine sekundäre Gruppierung entlang PC2 an. (B) Kopplungsungleichgewicht (LD) in LG1 und LG4. Die oberen Dreiecke umfassen alle Individuen und die unteren Dreiecke umfassen Homokaryoten für die gebräuchlichste Anordnung für jede Inversion. Balken repräsentieren die Position der Inversionen. Die Farbskala zeigt das 2. höhere Perzentil des R 2 -Werts zwischen SNPs, zusammengefasst in Fenstern von 250 kb (C) Entlang des Genoms, Korrelation zwischen PC1-Scores lokaler PCAs, die auf Fenstern von 100 SNPs durchgeführt wurden, und PC1-Scores der PCA, die auf dem gesamten Genom F . durchgeführt wurdenST Unterscheidung zwischen den beiden Homokaryotypen von Vgl.-Inv(1) in Schiebefenstern von 25kb und Nukleotiddiversität (π) innerhalb der drei karyotypischen Gruppen von Vgl.-Inv(1) zur Visualisierung geglättet. Gestrichelte Linien stellen die abgeleiteten Grenzen der Inversion dar Vgl.-Inv(1) (D) Korrelation zwischen PC1-Scores lokaler PCAs, die auf Fenstern von 100 SNPs durchgeführt wurden, und PC2-Scores der PCA, die auf dem gesamten Genom durchgeführt wurden FST Differenzierung zwischen den beiden Homokaryotypen von Vgl. Inv(4.1) in Schiebefenstern von 25kb und Nukleotiddiversität (π) innerhalb der drei karyotypischen Gruppen von Vgl. Inv(4.1) zur Visualisierung geglättet. Gestrichelte Linien stellen die abgeleiteten Grenzen der Inversion dar Vgl. Inv(4.1).

Um zu beurteilen, welche Regionen des Genoms die im gesamten Genom-PCA beobachteten Muster widerspiegeln, führten wir lokale PCA in Fenstern von 100 SNPs entlang jedes Chromosoms durch und bewerteten die Korrelation zwischen den PC1-Werten jedes lokalen PCA und den PCs-Werten des globalen PCA (Abb. 2C). PC1 war hochkorreliert mit einer Region von 25,1 Mb auf LG 1, was auf die genomische Position des großen Vgl.-Inv(1) Umkehrung (Tabelle 1). PC2 war hochkorreliert mit einer kleineren Region von 6,9 Mb auf LG4 (Abb. 2D), was mit der Hypothese einer Inversion übereinstimmt, im Folgenden als . bezeichnet Vgl. Inv(4.1). Mehrere andere Merkmale stimmten mit der Hypothese überein, dass diese beiden Regionen Inversionen sind. Erstens war innerhalb dieser Regionen das Kopplungsungleichgewicht (LD) sehr hoch, wenn man alle Individuen betrachtet, aber niedrig innerhalb jeder Gruppe von Homokaryotypen ( 2B ). Dies weist darauf hin, dass die Rekombination zwischen den Anordnungen begrenzt ist, aber bei Homokaryotypen, die dieselbe Anordnung tragen, frei auftritt. Zweitens, FST war sehr hoch zwischen Homokaryoten in der invertierten Region (Vgl.-Inv(1) αα vs. ββ: 0,75, Vgl. Inv(4.1) AA vs. BB: 0,51, Abb. 2C) im Vergleich zu niedrigen Werten im restlichen Genom (Vgl.-Inv(1) αα vs. ββ: 0,002, Vgl. Inv(4.1) AA vs. BB: 0,001, Abb. 2D). Drittens war die intermediäre Gruppe auf der PCA durch einen höheren Anteil beobachteter Heterozygoten für SNPs in der invertierten Region gekennzeichnet als die Extremgruppen, was bestätigt, dass dies wahrscheinlich die heterokaryotypische Gruppe ist (Abb. S2).

Für mutmaßliche Inversionen ist die absolute Nukleotiddivergenz (dXY) in nicht-kodierenden Regionen wurde zwischen homokaryotypischen Gruppen berechnet und durch den Mittelwert der Nukleotiddiversität (π) innerhalb homokaryotypischer Gruppen durch Fenster von 25 kb korrigiert. Zahlen in eckigen Klammern geben Konfidenzintervalle an, die durch Bootstrapping-Fenster von 25 KB erstellt wurden.

Die Nukleotiddiversität, gemessen durch , war zwischen karyotypischen Gruppen entlang des Genoms ähnlich und bei den Heterokaryotypen höher als bei den Homokaryotypen in invertierten Regionen ( 2C – D). Für beide Inversionen war die Nukleotiddiversität zwischen Homokaryoten vergleichbar. Die absolute Nukleotiddivergenz zwischen den Anordnungen war in invertierten Regionen stark (Tabelle 1, Abb. S3). Unter Annahme einer Mutationsrate vergleichbar mit Drosophila (5 × 10 −9 Mutationen pro Base pro Generation (Assaf et al. 2017)) und ungefähr 5 bis 10 Generationen pro Jahr, so schätzen wir aus der absoluten Divergenz in nicht-kodierenden Regionen, dass die Arrangements mindestens 180.000 bis 376.000 . aufteilen vor Jahren für Vgl.-Inv(1) und vor mindestens 61.000 bis 134.000 Jahren für Vgl. Inv(4.1).

C. frigida weisen andere Regionen auf, einschließlich nicht-rekombinierender haplotypischer Blöcke

Um die Heterogenität der genetischen Struktur entlang des Genoms weiter zu untersuchen, analysierten wir die lokalen PCA mit einer Methode, die auf multidimensionaler Skalierung (MDS) basiert, die Cluster von PCA-Fenstern identifiziert, die ein gemeinsames Muster aufweisen. Diese Methode wurde bereits früher verwendet, um nicht-rekombinierende haplotypische Blöcke zu identifizieren und zu lokalisieren (Li und Ralph 2019 Huang et al. 2020 Todesco et al. 2020). Neben den oben genannten Vgl.-Inv(1) und Vgl. Inv(4.1) Inversionen, die die 1. und 2. Achse des MDS verursachten, identifizierten wir fünf genomische Ausreißerregionen über die verschiedenen MDS-Achsen (Abb. 3, Abb. S4). In allen fünf Regionen wurde ein großer Varianzanteil entlang des 1. PC erfasst (>50%), und das Kopplungsungleichgewicht war hoch (Abb. 3A).

(EIN) LD über die 5 Hauptchromosomen, ausgedrückt als das 2. höhere Perzentil des R 2 -Werts zwischen SNPs, zusammengefasst durch Fenster von 1 MB. (B) Rekombinationsrate (in cM/Mb) abgeleitet aus der Kopplungskarte, geglättet mit einer Lössfunktion, die 10 % der Marker ausmacht. (C) Nukleotiddiversität (π) durch Schiebefenster von 100kb (Schritt 20kb), gemittelt über die verschiedenen geographischen Populationen. (D) Position entlang des Genoms von Clustern lokaler PCA-Fenster, die als Ausreißer (>4sd) entlang jeder Achse des MDS bewertet wurden, am oberen Ende in Schwarz und am unteren Ende in Grau. Farbige Rechtecke zeigen die Position der Inversionen und die interessierenden Bereiche an, die Ausreißer-Cluster oder mutmaßliche Inversionen sammeln. Gestrichelte Linien stellen ihre abgeleiteten Grenzen über alle Diagramme hinweg dar. (E) PCA durchgeführt an SNPs innerhalb jeder interessierenden Region. Für die beiden Regionen auf LG4, die als zwei verknüpfte mutmaßliche Inversionen erscheinen (Vgl. Inv(4.2) und Vgl. Inv(4.3)) wurden drei Cluster mit hoher Sicherheit identifiziert und als mutmaßliche Homokaryoten und Heterokaryoten eingefärbt. In beiden Regionen werden die gleichen Farben verwendet, da die Karyotypisierung bei allen Personen einheitlich war.

Zwei Regionen auf LG4 repräsentierten überzeugende mutmaßliche Inversionen von 2,7 MB bzw. 1,4 MB. In beiden Regionen zeigte die PCA drei Gruppen von Individuen mit hoher Clustersicherheit, die zentrale Gruppe enthielt einen hohen Anteil an Heterozygoten und die extremen Gruppen wurden differenziert (Abb. 3E, Abb. S5). Innerhalb dieser beiden Regionen war die Nukleotiddiversität zwischen den Haplogruppengruppen vergleichbar und die absolute Divergenz (dXY) zwischen Homokaryotypen war niedriger als für Vgl.-Inv(1) und Vgl. Inv(4.1), was auf jüngere Inversionen hindeutet, die noch vor 6.000 bis 68.000 Jahren divergiert haben könnten. Die Zuordnung des Karyotyps war zwischen den beiden mutmaßlichen Inversionen gleich, was darauf hindeutet, dass sie entweder eng miteinander verbunden sind oder zu einer einzigen Inversion gehören. Zwei Beweislinien stützen die Hypothese, dass es sich um zwei Umkehrungen handelt. Erstens lieferten die hohe Dichte an Kopplungskartenmarkern und die Nicht-Null-Rekombinationsrate über diesen Bereich von 50 cM Vertrauen in die Genomanordnung und unterstützten eine Lücke von 5 Mb zwischen den beiden Inversionen. Darüber hinaus zeigten frühere zytogenetische Arbeiten, dass ein Chromosom von C. frigida zeigt eine polymorphe Inversion an einem Arm (möglicherweise Vgl. Inv(4.1)) und am anderen Arm zwei polymorphe Inversionen, die selten rekombinieren (Aziz 1975). Beide Inversionen wurden anschließend gemeinsam analysiert und genannt Vgl. Inv(4.2) und Vgl. Inv(4.3).

Die anderen drei Regionen, die 6,8 Mb auf LG2, 6,3 Mb auf LG3 und 16,7 Mb auf LG5 umfassten, stellten komplexe Bereiche dar, die sich anders als der Rest des Genoms verhielten. Die Rekombination war sowohl in der Kopplungskarte als auch in Wildpopulationen lokal reduziert, wie durch ein starkes Kopplungsungleichgewicht angezeigt ( 3A – B). Diese drei Regionen waren alle innerhalb jeder Region sehr heterogen, die Nukleotiddiversität zeigte ein stark kontrastierendes Muster über die Unterregionen hinweg (Fig. 3C). Ein Teil dieser Unterregionen zeigte eine geringe Nukleotiddiversität, die zentromeren oder perizentromeren Regionen entsprechen kann (Fig. 3C, Fig. S6), sowie eine hohe Dichte an transponierbaren Elementen, wie LINEs oder LTRs (Fig. S7). Diese Subregionen geringer Diversität wurden jedoch mit Subregionen hoher Diversität durchsetzt, insbesondere auf LG5 (Fig. 3C). Einige dieser Unterregionen hoher Diversität entsprachen auch Clustern von Ausreißerfenstern in der lokalen PCA-Analyse und erschienen als nicht-rekombinierende haplotypische Blöcke mittlerer Größe (1 Mb-2 Mb) in partieller LD (Fig. S8-S10). In Ermangelung weiterer Informationen über die Mechanismen hinter der Reduktion der Rekombination betrachten wir diese drei Regionen des Genoms einfach als „low recombining regions“ (im Folgenden als . bezeichnet). Vgl.-Lrr(2), Vgl-Lrr(3), Vgl-Lrr(5)). Dementsprechend schloss der später als „kollinear“ bezeichnete Anteil des Genoms sowohl diese Regionen als auch die Inversionen aus (Vgl. Inv(1), Vgl. Inv(4.1), Vgl. Inv(4.2), und Vgl. Inv(4.3)).

Die geografische Struktur zeigt charakteristische Signale in invertierten und gering rekombinierenden Regionen

Auch die Geographie spielte eine wichtige Rolle bei der Strukturierung der genetischen Variation. Unser 3. PC, der 1,4 % der Varianz erklärte, repräsentierte die genetische Variation entlang des Nord-Süd-Gradienten (Abb. 4A). Differenzierung zwischen Populationspaaren, gemessen als FST auf einer Untermenge von LD-beschnittenen SNPs, folgte ebenfalls dem Nord-Süd-Gradienten, war aber global schwach (FST = 0,003 bis 0,016, Abb. S11)). Bei der Untersuchung der Korrelation zwischen genetischen Abständen und euklidischen Abständen zwischen den 16 Populationen (R 2 = 0,45, F = 97, p < 0,001, Tabelle S3) entdeckten wir auch ein starkes Signal der Isolation nach Distanz (IBD). Die Berücksichtigung der kostengünstigsten Entfernungen entlang der Küstenlinien anstelle der euklidischen Entfernungen zwischen den Standorten verbesserte die Modellanpassung (R 2 =0,63, F=199, p<0,001, ΔAIC=47, Tabelle 2, Tabelle S3). Dies unterstützt ein Muster der Isolation durch Widerstand (IBR, siehe Methoden), bei dem die Ausbreitung hauptsächlich entlang der Küste erfolgt und über das Festland oder das Meer begrenzt ist.

(EIN) 3. und 4. Hauptkomponenten eines PCA auf die Variation des gesamten Genoms. Personen sind nach ihrer geografischen Region gefärbt, wie in Abb. 1 (B-C) Isolation durch Resistenz, dargestellt als Zusammenhang zwischen genetischer Distanz (FST/(1-FST) und die Entfernung durch den kostengünstigsten Weg entlang der Küste. Farben bezeichnen die Teilmenge der SNPs, die für die Berechnung des F . verwendet wirdST. Die Ergebnisse werden in zwei Feldern mit unterschiedlichen y-Skalen angezeigt, um die unteren Werte besser darstellen zu können. (D) Breitenvariation der Inversionsfrequenzen.

Zahlen in eckigen Klammern geben die Grenzen der 95%-Verteilung des Steigungskoeffizienten an. Der Vergleich mit kollinearen Regionen zeigt die Ausgabe eines vollständigen Modells, das jede Region mit dem kollinearen Genom vergleicht, und liefert die Richtung und die Bedeutung (*) des Interaktionsterms.

Diese IBD- und IBR-Muster variierten signifikant entlang des Genoms. Betrachtet man alle SNPs, war die paarweise Differenzierung heterogener (FST=0,002 bis 0,021, Abb. 4B) und IBR war viel schwächer, wenn auch signifikant (R 2 =0,19, F=29, p<0,001) als bei der Betrachtung von LD-beschnittenen SNPs oder kollinearen SNPs. Damit berechneten wir paarweise F calculatedST zwischen Populationspaaren basierend auf verschiedenen Untergruppen von SNPs, entweder aus jeder Inversion, aus jeder Region mit niedriger Rekombination oder aus dem kollinearen Genom.

Alle Inversionen zeigten eine erhöhte Differenzierung zwischen den Populationen im Vergleich zum kollinearen Genom (Tabelle S3, Abb. S12). Die globalen geografischen Muster unterschieden sich jedoch zwischen den Inversionen. Im invertierten Bereich Vgl.-Inv(1), gab es keine Assoziation zwischen genetischen und geographischen Entfernungen (Abb. 4B, Tabelle 2), ein Ergebnis, das sich signifikant vom kollinearen Genom (Abb. S13) unterscheidet. Dieses Ergebnis war auf die hochvariable paarweise genetische Differenzierung zwischen Populationen in der invertierten Region zurückzuführen Vgl.-Inv(1). Umgekehrt zeigte die genetische Differenzierung zwischen geografischen Populationen in den invertierten Regionen von LG4 signifikante IBD/IBR-Muster mit einer signifikant steileren Regressionsneigung zwischen genetischen und geografischen Entfernungen im Vergleich zu kollinearen Regionen (Abb. 4B-C, Tabelle 2, Tabelle S4, Abb. S13). Die Divergenz zwischen nördlichen und südlichen Populationen wurde durch eine scharfe und signifikante Breitengradlinie der Inversionshäufigkeiten im Bereich von 0,27 bis 0,75 für . widergespiegelt Vgl. Inv(4.1) (GLM: z=-8.1, p<0.001, R 2 =0.41) und von 0.02 bis 0.26 für Vgl. Inv(4.2/4.3) (GLM: z = –6,6, p < 0,001, R 2 = 0,37). Der Zusammenhang zwischen Breitengrad und Inversionsfrequenz war signifikant stärker als bei zufällig ausgewählten SNPs mit ähnlichen Durchschnittsfrequenzen (Abb. 4D, Abb. S14-S15).

Obwohl das gesamte Genom (mit Ausnahme der Inversion Vgl.-Inv(1)) IBD und IBR zeigte, war sie in zwei der drei Regionen mit geringer Rekombination im Vergleich zu den kollinearen Regionen signifikant erhöht. Im Vergleich zu kollinearen Regionen gleicher Größe war die Steigung der Regression zwischen genetischen und geographischen Distanzen signifikant steiler für Vgl-Lrr(2) und Vgl. Lrr(5) aber nicht für Vgl.-Lrr(3) (Fig. 4C, Tabelle 2, Tabelle S4, Fig. S13). Insgesamt zeigte die geographische Differenzierung in den vier invertierten Regionen und zwei Regionen mit geringer Rekombination vom kollinearen Genom abweichende Muster, was auf den Einfluss anderer Prozesse als der Migrations-Drift-Bilanz hindeutet, möglicherweise auf unterschiedlichen geografischen Skalen für Vgl.-Inv(1) gegen andere.

Adaptive Diversität kolokalisiert mit Inversionen und Regionen mit geringer Rekombination

Um mutmaßliche Muster der adaptiven Variation in zu untersuchen C. frigidaanalysierten wir die Assoziation zwischen SNP-Frequenzen und Umweltvariablen auf breiter Ebene (thermischer Breitengradient und Salinitätsgradient in der St. Lawrence R. Mündung) und lokalen (abiotischen und biotischen Eigenschaften des Wrack-Lebensraums) räumlichen Skalen (Abb. 1, Abb. S16, Tabelle S1). Analysen mit zwei verschiedenen Genotyp-Umwelt-Assoziationsmethoden (gemischte Latent-Faktor-Modelle und Bayes-Modelle) zeigten konsistente Ergebnisse, wobei hohe Peaks von Umweltassoziationen und große Cluster von Ausreißer-SNPs in den invertierten oder gering rekombinierenden Regionen hervorgehoben wurden (Abb. 5A-E, Tabelle 3 .). , Tabelle S5, Bild S17-18). Je nach Umweltfaktor und räumlichem Maßstab wurden jedoch unterschiedliche Inversionen impliziert. Wir betrachteten SNPs, die in beiden Analysen durchweg als Ausreißer identifiziert wurden, als mutmaßlich adaptiv.

Kandidaten-SNPs in Verbindung mit (EIN) Klimavariation entlang des Nord-Süd-Gefälles, (B) Salzgehaltsvariation entlang des Mündungsgefälles, (C) Variationen der abiotischen Eigenschaften des Wrack-Lebensraums, (D-E) Variation in der Zusammensetzung der Wrackbettalgen. Das Manhattan-Diagramm zeigt den Bayes-Faktor aus der in Baypass durchgeführten Umweltassoziationsanalyse, die die Bevölkerungsstruktur kontrolliert. (F) Kandidaten-SNPs im Zusammenhang mit der Flügelgröße. Das Manhattan-Plot zeigt die p-Werte aus dem GWAS. Die Punkte werden entsprechend der Fehlerkennungsrate eingefärbt (schwarz: <0,00001, rot: <0,0001, orange: <0,001). Gestrichelte Linien stellen die abgeleiteten Grenzen von Inversionen und Regionen mit niedriger Rekämmung dar.

Aufteilung der Kandidaten-SNPs, die jeder Umgebungsvariation zugeordnet sind, unter Verwendung der Kombination von zwei GEA-Methoden. N ist die Anzahl der Ausreißer-SNPs innerhalb einer bestimmten Region, % ist der Anteil der in dieser Region gefundenen Ausreißer und OR gibt das ungerade Verhältnis an. Fettgedruckte Werte mit einem Stern zeigen einen signifikanten Überschuss an Kandidaten-SNPs in einem exakten Fisher-Test an. Die für jede GEA-Methode erhaltenen Ergebnisse sind in Tabelle S5 dargestellt.

Auf einem großen geographischen Maßstab zeigten Assoziationen mit klimatischen Variationen entlang des Breitengradienten einen starken Überschuss an Ausreißer-SNPs in den vier Inversionen und den Regionen mit geringer Rekombination von LG2 und LG5. Diese Regionen zeigten 2 bis 5 mal mehr Ausreißer als zufällig erwartet (Tabelle 3) mit besonders starken Peaks der Umweltassoziation (BF >50, Abb. 5A) und einem signifikant stärkeren Signal als für zufällige Blöcke kollinearen Genoms der gleichen Größe ( Abb. S19). Dies war jedoch nicht der Fall für Vgl.-Lrr(3). Diese Ergebnisse waren konsistent, unabhängig davon, ob das Modell von der geografischen Bevölkerungsstruktur kontrolliert wurde (Abb. S17-18). Variation der Frequenzen von Vgl. Inv(4.1) und Vgl. In(4.2/4.3) waren auch signifikant mit klimatischen Variationen verbunden, wenn sie als einzelne Loci betrachtet werden (GLM: Vgl. Inv(4.1): z=-7,76, p<0,001 Vgl. Inv(4.2/4.3): z=-6,45, p<0,001, wobei das Modell 36% und 37% der Varianz der Inversionsfrequenz erklärt, Abb. S20). Die Variation entlang des Salinitätsgradienten, die auch die Variation der Gezeitenamplitude umfasste, war signifikant mit einer begrenzteren Anzahl von SNPs verbunden. Ein großer Überschuss solcher Ausreißer wurde gefunden in Vgl.-Lrr(3) und Vgl. Lrr(5) (Tabelle 3), die einzigen beiden Regionen, in denen das Assoziationssignal stärker war als im kollinearen Genom (Abb. S19).

Auf einer feineren geographischen Skala waren Ausreißer-SNPs, die mit abiotischen Eigenschaften des Wrackbetts (Tiefe, Temperatur und Salzgehalt) verbunden sind, in der invertierten Region stark angereichert Vgl.-Inv(1) mit einem Odds Ratio von 5, einschließlich Ausreißern mit sehr starker Unterstützung (BF >20, Abb. 4C). SNP-Assoziationen mit abiotischen Wrack-Eigenschaften waren stärker als in kollinearen Regionen in Vgl.-Inv(1), und marginaler in Vgl. Inv(4.2/4.3) (Abb. S19). Dies wurde gespiegelt durch die Vgl.-Inv(1) Frequenz, die signifikant mit Wrackbett kovariierte (GLM, z=3,5, p<0,001, R 2 =0,26, Abb. S20). Variationen in der Algenzusammensetzung des Wrackbetts, getrieben durch die relative Häufigkeit von zwei dominanten Algenfamilien, Fucaceae oder Laminariaceae, waren signifikant mit weit verbreiteten SNPs verbunden, obwohl die Inversion Vgl.-Inv(1) war mit einer Odds Ratio von 1,4 überrepräsentiert. Variationen der Sekundärkomponenten des Substrats waren schwieriger zu interpretieren, da sie mit Breitengrad und Temperatur kovariierten (Abb. S16). Trotzdem waren diese Sekundärkomponenten auch mit einer großen Zahl von SNPs in . assoziiert Vgl.-Inv(1) und in Vgl. Lrr(5) mit Odds Ratio von 3,6 zu 6 (Abb. 5E) und einer signifikant höheren Verteilung der Assoziationspunkte als in kollinearen Blöcken (Abb. S19).

Genotyp-Phänotyp-Assoziation

Als Wrackkomposition und Vgl.-Inv(1) bekannt sind, die Größe von Erwachsenen zu beeinflussen (Butlin, Read, et al. 1982, Edward und Gilburn 2013), verwendeten wir ein GWAS, um genetische Variationen im Zusammenhang mit der Flügelgröße aufzudecken. Von den 124.701 von der GWAS identifizierten SNP-Kandidaten befanden sich mehr als 99,8 % in Vgl.-Inv(1) (Abb. 5F). Wenn die Variation des Karyotyps entfernt wurde (indem die Analyse nur mit Homokaryotypen durchgeführt wurde), fanden wir fast keine Kandidaten-SNPs, die mit einer Größenvariation verbunden waren (0 für αα-Individuen und bis zu 3 SNPs, wenn die FDR auf p=0,01 für die ββ-Individuen gesenkt wurde , Bild S21). Wir führten eine Genontologie mit zwei Datensätzen durch: die von GWAS identifizierten Kandidaten und alle in Vgl.-Inv(1). Beide Analysen zeigten eine Anreicherung in mehreren biologischen Prozessen, die alle mit großen Unterschieden in Flügelgröße und Lebensgeschichte übereinstimmen, wie Morphogenese, Muskelentwicklung oder Entwicklung des neuralen Systems (Tabelle S6-S7).

Angesichts des extremen Temperaturbereichs, in dem C. frigida (gemäßigt bis subarktisch) untersuchten wir auch die thermische Anpassung. Wir haben die Erholungszeit nach einem Kältekoma in den F2s ausgewertet, die zum Erstellen der Verknüpfungskarte verwendet wurden. Die Kälteschockresistenz lokalisierte sich auf einen QTL auf LG4, was etwa 13% der Variation erklärte (Abb. S22). Der Hauptpeak lag auf LG4 bei 25-28 MB. Dieser breite QTL umfasste mehrere Ausreißer-SNPs, die mit klimatischen Schwankungen assoziiert sind, und mehrere annotierte Gene, darunter zwei Hitzeschockproteine, die relevante Kandidaten für die thermische Anpassung darstellen könnten (Uniprot P61604 an Position 25.128.992 und P29844 an Position 26.816.283). Dieser Peak lag zwischen den beiden mutmaßlichen Inversionen Vgl. Inv(4.2) und Vgl. Inv(4.3), und es gab einen sekundären Peak bei 8 MB, dem mutmaßlichen Breakpoint von Vgl. Inv(4.1).


ZUSAMMENFASSUNG:

In diesem Dokument, Die Federal Communications Commission (Kommission oder FCC) hat bestimmte Frequenzbänder über 24 GHz identifiziert, die für den Mobilfunkdienst geeignet erscheinen, und wir bitten um Stellungnahme zu vorgeschlagenen Dienstregeln, die Mobilfunk- und andere Operationen in diesen Bändern zulassen würden. Diese Entwicklung von Dienstregeln für die mobile Nutzung der Millimeterwellen (mmW)-Bänder erfolgt im Zusammenhang mit unseren Bemühungen, einen Regulierungsrahmen zu entwickeln, der dazu beiträgt, die sogenannten Mobilfunkdienste der fünften Generation (5G) zu ermöglichen.


Abstrakt

Die jüngsten Entwicklungen in der Informatik und Webtechnologie bieten der Umweltgemeinschaft ständig wachsende Ressourcen für die Datensammlung und -analyse, die beispiellose Herausforderungen an das Design von Analysemethoden, Arbeitsabläufen und die Interaktion mit Datensätzen stellen. Im Lichte des kürzlich vom UK Research Council finanzierten Pilotprojekts des Environmental Virtual Observatory gibt dieses Papier einen Überblick über derzeit verfügbare Implementierungen in Bezug auf webbasierte Technologien zur Verarbeitung großer und heterogener Datensätze und diskutiert deren Relevanz im Kontext der Umweltdatenverarbeitung, Simulation und Vorhersage. Wir haben festgestellt, dass sich die Verarbeitung der im Pilotprojekt verwendeten einfachen Datensätze mit einer Kombination aus R, RPy2, PyWPS und PostgreSQL als relativ einfach erwies. Die Verwendung von NoSQL-Datenbanken und vielseitigeren Frameworks wie auf dem OGC-Standard basierenden Implementierungen kann jedoch einen breiteren und flexibleren Satz von Funktionen bereitstellen, die insbesondere die Arbeit mit größeren Mengen und heterogeneren Datenquellen erleichtern.


ArcGIS Cloud-Service-Modelle

Die primären Betriebsdienstleistungsmodelle lassen sich in vier Kategorien einteilen:

  • IaaS bietet verwaltete Infrastrukturressourcen (Serverplattformen und Speicher) zur Erweiterung Ihrer in der Cloud gehosteten Rechenzentrumsfunktionen. Für die Wartung von Diensten, die in der Cloud-Infrastruktur bereitgestellt werden, ist standardmäßiger IT-Self-Service-Support erforderlich.
  • SaaS bietet Anwendungen und Datenressourcen, die in der Cloud gehostet werden. ArcGIS Online bietet Dateninhalte und Self-Service-Ressourcen zum Erstellen von Karten und Anwendungen, die für eine sichere Zusammenarbeit und Freigabe mit Gruppen veröffentlicht wurden, die in Ihrer Cloud-Community-Umgebung definiert sind.
  • Portal for ArcGIS ist ein Produkt, das für die lokale Bereitstellung durch den Kunden verfügbar ist, um die Zusammenarbeit und die gemeinsame Nutzung in einer sicheren privaten Umgebung ohne Internetverbindung zu fördern. Daten-Appliances sind für die lokale Bereitstellung verfügbar und teilen sich ähnliche Ressourcen, die in der ArcGIS Online-Umgebung verfügbar sind.
  • PaaS bietet eine ArcGIS for Developers-Plattform zum Erstellen und Freigeben von ArcGIS-Anwendungen.

Wie Sie bemerken, müssen Sie, um ein unscharfes Bild zu erstellen, zuerst ein Bild erstellen und es dann verwischen. Dieser Shader macht (nur) den zweiten Schritt, indem er ein zuvor erzeugtes Bild aufnimmt und es unscharf macht. An anderer Stelle muss zusätzlicher Code vorhanden sein, um das ursprüngliche, nicht verschwommene Bild zu generieren.

Es wendet einen Unschärfekernel auf das Bild an. tc_offset muss von der Anwendung richtig initialisiert werden, um einen 3x3-Bereich von Abtastpunkten um die tatsächliche Texturkoordinate herum zu bilden:

(Angenommen, x ist die ursprüngliche Koordinate). Der Versatz für den oberen linken Abtastpunkt wäre -1/width,-1/height . Der Versatz für den Mittelpunkt muss sorgfältig auf die Texelmitte ausgerichtet werden (das Off-by-0.5-Problem). Außerdem kann der bilineare Hardwarefilter verwendet werden, um den Unschärfegrad (durch Abtasten zwischen Texeln) kostengünstig zu erhöhen.

Der Rest des Shaders skaliert die Samples nach ihrer Entfernung. Normalerweise wird dies auch vorberechnet:

Eine Möglichkeit besteht darin, Ihr Originalbild zu generieren, um eine Textur und nicht den Bildschirm zu rendern. Und dann zeichnen Sie ein Vollbild-Quad mit diesem Shader und der Textur als Eingabe, um das Bild nachzubearbeiten.


Einführung

Beim Umgang mit Geodaten kann es je nach den besonderen Merkmalen des Informationstyps angemessener sein, diese Informationen (auf logischer Ebene) entweder mit einem Raster- oder einem Vektordatenmodell darzustellen [1]. Der Fortschritt der digitalen Gesellschaft sorgt für ein kontinuierliches Wachstum der Menge an verfügbaren Vektordaten, aber das Aufkommen billiger Geräte mit GPS, wie Smartphones, ist für eine große Datenexplosion verantwortlich, hauptsächlich von Trajektorien sich bewegender Objekte. Das gleiche Phänomen ist bei Raster-Datasets zu beobachten, bei denen die Fortschritte in der Hardware für einen wichtigen Anstieg der Größe und Menge der verfügbaren Daten verantwortlich sind. Allein unter Berücksichtigung der von Satelliten aufgenommenen Bilder werden täglich mehrere Terabyte an Daten generiert [2], und es wird geschätzt, dass die archivierte Menge an Rasterdaten bald die Zettabyte-Skala erreichen wird [3].

Diese starke Zunahme der Vielfalt, des Reichtums und der Menge an Geodaten hat auch zu neuen Informationsanforderungen geführt. Heutzutage erfordern viele Anwendungsbereiche die Kombination von Daten, die in unterschiedlichen Formaten gespeichert sind [4], um komplexe Analysen durchzuführen. Offensichtlich wird die Kombination verschiedener Datenmodelle bei großen Datenmengen schwieriger.

Obwohl es eine große Menge an Forschung zu Größe, Analyse und Heterogenität der Daten gibt, konzentriert sich diese Forschung bei Geodaten in den meisten Fällen entweder auf das Vektormodell oder separat auf das Rastermodell. Die beiden Modelle werden selten zusammen gehandhabt. Die übliche Lösung für Abfragen, die (zusammen) Raster- und Vektor-Datasets beinhalten, besteht beispielsweise darin, das Vektor-Dataset in ein Raster-Dataset umzuwandeln und dann einen Raster-Algorithmus zum Lösen der Abfrage zu verwenden. Dies ist die Lösung für die zonale Statistikoperation von Map Algebra in zumindest ArcGIS und GRASS [5, 6].

Einige frühere Forschungen haben das Problem jedoch mit einem gemeinsamen Ansatz angegangen. In [4] wird ein einziges Datenmodell und eine einzige Sprache vorgeschlagen, um sowohl Vektor- als auch Rasterdaten auf logischer Ebene darzustellen und abzufragen. Sogar ein Beitreten operator is suggested, which allows combining, transparently and interchangeably, vector datasets, raster datasets, or both. As an example, the authors propose the query “return the coordinates of the trajectory of an aircraft when it was over a ground with altitude over 1,000”. Unfortunately, no implementation details are given.

Other previous contributions deal with the implementation of query operators that are explicitly defined for querying datasets in different formats [7–10]. Some of them tackled the Join, or a close query, but in this case, these works suffer from limitations (data structures not functional enough, too restrictive join operations, size problems) that will be explained more in detail in the next section.

On the other hand, compression has been used traditionally with the aim of just reducing the size of the datasets in disk and during network transmissions. However, it has recently begun to be used as a way to obtain improvements in other dimensions, such as processing time or scalability [11]. In the last few years, several authors [12–15] have proposed the use of modern compact data structures [16] to represent raster datasets. Compact data structures use compression to reduce the size of the stored dataset, but with the novelty that the compressed data structure can be managed directly in compressed form, even in main memory. By saving main memory, we obtain a more scalable system, but at the same time, we take advantage of a better usage of the memory hierarchy, and thus obtain better running times. This strategy is sometimes called “in-memory” data management [17]. In addition, many compact data structures are equipped with an index that, in the same compressed space, speeds up the queries. This feature is known as “self-indexation”. One example of these compact data structures designed for raster data, and the one achieving the best space/time trade-offs [15], is the k 2 -raster [14], which will be used in this work, thus extending its functionality.

In this work, we propose to use a new framework to store and manage raster and vector datasets. The vector dataset is stored and indexed in a traditional way, using an R-tree [18]. For the raster data, instead, we propose to use a modern compact data structure, the k 2 -raster, which improves the performance of traditional methods.

The algorithms to manage independently each type of data and its corresponding data structure are well-known [14, 19]. However, as explained, the algorithms to process both types of data jointly have been much less studied. Therefore, our proposal requires the design of new algorithms. In this work, we present two new algorithms that are able to efficiently answer two operations having as input a vector dataset and a raster dataset. The first one is a spatial join between the two input datasets imposing a range restriction on the values of the raster dataset. The second algorithm obtains the top-K different objects of the vector dataset overlapping the highest (or lowest) values of the raster dataset.

Our proposal obtains important savings in disk space, which are mainly due to the use of a k 2 -raster for representing the raster data. In our experiments, the compressed raster data occupied between 9% and 73% of the disk space needed by the original uncompressed raster data. However, the main contributions of this paper are the algorithms for solving the aforementioned operations, which obtain savings also in main memory consumption and processing time. Obwohl die k 2 -raster was designed to be used directly in compressed form, it is not trivial to save main memory while processing it. Thus, designing these algorithms becomes challenging, as the direct management of compressed data and indexes requires complex data structures and processes, which could negatively impact the results in main memory consumption and running time.


Note that there is a wide variation regarding the identified tasks in the literature (refer to Li (2009) for an overview). In this survey we focus on a faceted-oriented task analysis approach.

For example, instead of just displaying the number of books of an author on a particular topic, also show the average price of the author’s books.

One could adopt visualization approaches like in Kehrer and Hauser (2013) or techniques that derive overviews, like the top-k diagrams proposed in Fafalios and Tzitzikas (2014), but such works go beyond the scope of this paper.

Since cr3 does not participate to a madeBy property, an alternative approach that one might follow is to add an artificial value, say NonApplicable/Unknown , whose count would equal 1, for informing the user that one element of the focus has no value to the madeBy property.

This kind of transition is called existential selection in Oren et al. (2006).

TriQ (Arenas et al. 2014) is a datalog based QL that offers a general form of recursion, reasoning and navigational capabilities, that incorporates the main RDF QLs.

This “mapping” can be implemented over any web accessible RDF/S dataset by exploiting the SPARQL extension described in Fafalios and Tzitzikas (2015), even if no triplestore or SPARQL endpoint is installed.

Measurements performed b Michalis Mountantonakis


Grades of Accuracy and Grades of Generation for scan-to-BIM model process: specification proposal inheriting the representation scale concept

In this paragraph, the authors introduce the concept of scale in the model generation, demonstrating the importance of adopting new scan-to-BIM requirements and reference scales for the generation of 3D model as unique elements of their kind. The growing need to escape from a preconceived logic of BIM object libraries for new buildings has led to the definition of a method based on the following research objectives.

It was found that in the scan-to-BIM process, GOGs and GOA, and LOGs, are fundamental concepts introduced in the digitization process of the built heritage to improve multiple aspects such as:

the specifications required to define a generative process based on point clouds coming from surveying (terrestrial laser scanning or mobile techniques, photogrammetry),

the level of the information linked to each parametric object (new customized HBIM parameters, schedules, and BIM databases, including the scale of model generation),

a reliable HBIM models capable of orienting itself to different types of BIM-based analysis and uses (HBIM model export through open source and proprietary formats).

In this context, the definition of new scan-to-BIM modeling requirements, such as GOAs, is decisive for the generation of complex architectural elements in order to address the model generation following the GOG specifications. It overcomes the pre-set logic of BIM default libraries and simple objects (as generally followed for the creation of new buildings) that do not communicate the peculiarities (geometric and semantic) of such unique elements, in favor of ad hoc specification process.

For those reasons, in the next paragraph, an HBIM model specification is proposed starting from the commonly recognized concept of representation scales defining different level of details and tolerances indicators: the concepts of graphic error, tolerance and grades of generation, and accuracy, have been related to the final purpose of declaring the reliability of the scan-to-HBIM model at different scales of representation and tolerance.

How to evaluate a 3D model? It is the model committed at the scale 1:100 feasible for my purposes? What does it mean that a model has a 1:100 scale? If I have a model generated with the precision of a 1:100 scale, is it useful to understand the morphologic shape and the construction techniques, or the state of its conservation? To answer these questions, we have to start from a commonly shared specification that can be fixed for the different scales to different 3D models. Then, in the function of the thousands of variables of the constrain and decision context, every actor can associate a proper scale to generate a proper model. This way actors and users can decide if the model, coming from previous analysis, requires further integration or if the model needs to be simplified at a certain point of the data management (i.e., for energetic purposes using standard tools not enabled to manage complex model).

HBIM models, scales, and grades of 3D model accuracy: specifications, scales of representation, and tolerance

To reliably share a model, such as a vault BIM object, one needs to know the following: which was the commitment purpose and thus the required scale how it has been surveyed if the model has been generated in a congruent way that depends on the object level of complexity and the type of geometrical survey in order to generate an object model with the proper accuracy. This information should be included within the Level of Information of each object model in order to manage the different Level of Geometry within the different phases as described in the “A proposal for HBIM Levels of Geometry (100–500) as a function of the phases, the Levels of Development” section.

Some constraints, roles, and specifications need to be fixed to guarantee the needed accuracy in the model’s generation. The proposal is to inherit the surveying specification concept traditionally linked to the different map representation scales (as for the case of the scale 1:25.000 for territorial maps, i.e., IGM maps, Istituto Geografico Militare, the Geographic Military Institute in Italy, or the scale 1:10.000 and 1:5000 for the technical regional-scale maps, 1:2000, 1:1000 and 1:500 for the municipality technical maps, etc.), as standardized in the aero-photogrammetric process adopted in the cartographic world, and inherited by the architectural surveying specifications (1:100, 1:50, 1:20, 1:10, 1:1), now addressing them to the 3D HBIM model objects. Such requirements have been adopted for many decades in the tenders’ specifications at a worldwide level. In these cases, the simple basic role conventionally adopted is the minimum level of detail (the so-called Graphic Error, G.E.) and the related Tolerance (T). The choice of the “scale” depends on the survey’s objective and the type of use of the final product (Banfi 2019 Brumana et al. 2019): once defined, clear indicators allow to generate and to validate the output.

Given the conventional definition of Graphic Error fixing the smallest detail that can be represented at a given scale (G.E. = 0.2 mm,) and tolerance (T = 2 ÷ 3 G.E. value), we can apply such values to all the different scales obtaining an indicator of precision and domain usability. If we relate the minimum graphic details (pixel or vector) to the real object (the correspondent physical object, as in the case of the Terrain Pixel value), we derive the following proportion: “1: nein = G.E.: x,” where “nein” is the scale factor (20, 50, etc.) and “x” is the correspondent dimension of the G.E. on the ground or on the architectural object that can be a façade or a plan or section.

For example, at 1:50 scale, the G.E. value is 1 cm, and the admitted tolerance (T) is 2 ÷ 3 cm, while for the 1:20 scale, G.E. is 4 mm, and T is equivalent to a ranging value (8 ÷ 12 mm). The Grade of Accuracy is automatically associated with the chosen scale. Technical municipalities’ maps at the scale 1:1000 have G.E. = 200 mm and T = 400 ÷ 600 mm, as illustrated in the first 4 columns of Table 1. In the case of photogrammetric restitution (as rectified images or orthoimages), the minimum detail is fixed at half the G.E. value at the given scale, with a restrictive requirement in order to consider the whole data processing (third column).

The precision of the surveying instruments and restitution scale needs to be coherent with those values to make them reliable by the technical uses and users. For this matter, the specifications for tender of maps production as well as for large-scale architectural surveys are strictly related to the concept of scale or scales adopted (i.e., global surveying at 1:50 scale with some details at 1:20, others at 1:10, depending on the different purposes and specificity of the object). Every architect knows that a drawing of a window for its manufacturing or preservation requires 1:5 ÷ 1:10 scales to properly represent some specific details. The photogrammetric mosaic floor of the Basilica of San Marcus has been realized at a 1:1 scale to represent the “waving” floor for the maintenance purposes and intervention on the single “tessera” (Monti et al. 2006).Table 1 illustrates the concept of scales related to the HBIM 3D models object created by the generative process to respect the richness of detail and tolerance fixed in the given scale. A model generated at the common scale 1:50 implies a minimum detail equivalent to 10 mm and a tolerance contained among 20 ÷ 30 mm.

The scale index of an object model is here proposed to be explicated by the Grade of Accuracy (GOA10, GOA20, GOA50, GOA100) defines automatically the different minimum detail to be taken in account and tolerances admitted in the modeling generations (Table 1, columns 6 and 7). Thus, GOA 20 means that the model accuracy of vaults as well as other components (as the octagonal columns in the Basilica di Collemaggio) with respect to the cloud points needs to be contained within the tolerance at that scale (T 20 = 8 ÷ 12 mm). The precision of the surveying, as in the case of point clouds acquired with TLS (laser scanner FARO Focus 3D), allows the extraction of vertical and horizontal profiles with high accuracy (2 ÷ 5 mm), thus coherent to the scales GOA20 and GOA50. Obviously in case we choose model scale bigger than the surveying precision (as it happens when we require 1:20/1/10 scale for porfiles and out of plumbs analysis), it will work in favor of the object model that will be generated, not the opposite!

The selection of the proper scale of the object model is complementary to the orthoimage scale definition. It can also happen to define a lower model scale (i.e., GOA50 for the HBIM model) and a higher orthoimage scale (i.e., 1:20) for the model texturing, obviously, we will have different tolerances. And in the common praxis, it often happens: given the short distances of indoor contexts among the principal point of the digital camera and the object to be acquired, i.e., the vault intrados, the terrain pixel coming from the photogrammetric image block (conventionally set at G.E./2 for the different scales) ranges from 1 ÷ 2 mm dependently from the distances from the camera parameters and the object surface thus, the richness of the data acquired is coherent to scales that range from 1:20 to 1:10, without any additional effort (time and cost) in the surveying phase. The specification related to the adoption of the smallest detail of the pixel unit correspondent to half the G.E., inherited from the cartographic domain, takes into account the average of the “scale” of the photogrammetric images, with the different distances from the objects, the distortions, and the whole image data processing. Thus, the data entry quality concerning the whole process guarantees the output scale in terms of quality.

Once fixed the HBIM model scale with its indicators (G.E. and T), the second step to be clarified in the specification is how to guarantee a model generation coherent with the chosen scale as defined in the following paragraphs.

NURBS-based modeling and descriptive geometry are defined in the Grades of Generation (GOGs) 9 and 10, where the 3D architectural representation from point clouds meets the measurement value. Behind these concepts emerges the growing need to faithfully represent the detected artifact, thus ensuring its reliability for subsequent uses (Banfi 2020).

The following paragraphs describe the case of a Wall Object and Vaulted Object to guide the end-users across selecting the proper scale in the function of geometry, modeling and general objectives.

Cases of wall objects: scale models and model generation specifications

Different scales can be thus adopted in the same HBIM design project following the lesson learnt from the Basilica di Collemaggio in L’Aquila (Brumana et al. 2018a) adopting a global 1:50 GOA scale for the wall objects, and a GOA scale 1:20 for the most damaged South Wall with the Holy door without of plumb ranging from 10 ÷ 20 cm after the earthquake.

In the case of the Basilica di Sant’Ambrogio in Milan (Banfi et al. 2019), the particular curved waved wall (round 46 cm with respect to a virtual plane) adjacent to the left nave at the women gallery level has been modeled generating the wall object characterized by a double curvature at the scale 1:20 in order to analyze that specificity to carry on the hypothesis on the wall generation, transformation, and supposed reinforcing (Fig. 3). Given the complexity of the wall and the maximum range of the undulation, its simplification and degeneration to a single parallelopiped correspond to urban scales (GOA2000, T800 ÷ 1200 mm, clashing the arches, or GOA1000, T400 ÷ 600 mm keeping the arches in the model) and not to a 1:100 scale generally considered a simplified scale! In fact, a GOA100 would mean to take into account the deformation with respect to a virtual plan within 40 ÷ 60 mm. Obviously, it is a case limit but it is worth stressing the point.

Three possible models (GOA2000, 1000, 20) of the same wall. GOA can change according to project requirements, scales of representation, and tolerance. The Automatic Validation System (AVS), obtained at the end of the NURBS-based modeling, allows to understand the standard deviation of the surfaces from the cloud points (in case of a laser scanning survey)

GOAs 50 and 20 roles are hereafter described for the model generation.

Case of GOA50-wall object

Planarity check: standard deviation ≤ 20 ÷ 30 mm

Case of walls (or portions) with a standard deviation of the point clouds surveyed representing the physical object respect to the average plane surface in correspondence of the façade surfaces (internal and/or external) ≤ 20 ÷ 30 mm: the planarity check can be easily carried out using the available functionalities within modelers’ tools and/or BIM tools. In this case, a 1:50 scale (equivalent GOA50) is chosen: the objects can be modeled adopting simplified Grade of Generations 1–8 (Brumana et al. 2019).

Research of Plane Extraction Methods can be inherited to guide toward the proper scale selection with the support of automatic and semiautomatic point interpolations (Wang et al. 2016).

GOGs 1–8 define simplified functionalities (i.e., based on extrusion, subtraction, sweep, and other modeling functionalities). Where needed, it is possible to associate the different options to model sub-portions (as in the case of openings, or irregular plan profile with discontinuities coming from the transformation occurred across the centuries or others): the discretization of the overall object is made by subdividing its homogeneous elements, checking the planarity and modeling the different portions. Void and subtraction functions can be used to model the complexity of a historical stratified wall.

GOG 1–8: simplified solid model objects can be adopted for elements whose conceptual model (in this case planarity check) has standard deviation respect to the cloud points ≤ 20 ÷ 30 mm (i.e., vertical walls with non-planarity or out of plumbs ≤ 20 ÷ 30 mm).

Planarity check: standard deviation ≥ 20 ÷ 30 mm

Case of walls (or portions) with a standard deviation of the point clouds respect to the average plane surface in correspondence of the façade surfaces (internal and/or external) ≥ 20 ÷ 30 mm: if the planarity check gives back this range of values, it means that the wall within this scale cannot be considered a plan at the given 1:50 scale - thus the out of plumbs need to be checked for the structural analysis (as in the case of Collemaggio’s Basilica walls), or characterized by voluntary morphological shapes adopted in the construction phase, to be further decoded, as in this case.

GOG 9–10: NURBS-based model object built on the primitives (profiles) or on the cloud points together with the 3D border outline can be thus adopted for elements with standard deviation respect to the adopted conceptual simplified solid ≥ 20 ÷ 30 mm (i.e., vertical walls with standard deviation respect to the planarity check ≥ 20 ÷ 30 mm, or without of plumbs ≥ 20 ÷ 30 mm or pillars with standard deviation respect to the planarity check ≥ 20 ÷ 30 mm).

If this scale is not enough to understand the state of the art, it can be shifted toward a deeper scale 1:20 (equivalent GOA20): the objects are modeled adopting the GOGs 9–10 (NURBS-based object modeling), embodying the complexity of the shape to follow the geometry discretized by the point clouds.

Case of GOA20-wall object

Planarity check: standard deviation ≤ 8 ÷ 12 mm

GOG 1–8: simplified solid model objects can be adopted for elements whose conceptual model (in this case planarity check respect to the intrados and extrados a plane surface) has standard deviation respect to the cloud points ≤ 8 ÷ 12 mm.

Planarity check: standard deviation ≥ 8 ÷ 12 mm

GOG 9–10: NURBS-based model object can be adopted for elements whose conceptual model (in this case planarity check respect to the intrados and extrados plane surface or planes with different orientation as in the case of scarf walls) has standard deviation respect to the conceptual simplified solid ≥ 8 ÷ 12 mm.

HBIM of St. Bernard’s chapel star vault in the Plasy Monastery: model generation with different scales

A different GOA (200–100–50–20) adoption is illustrated for a complex vaulted system. Vaults generally have a more complex geometry than the typology classification based on simplified volumes and their intersection: detailed surveying of intrados and extrados, together with thermal images analysis, allows one to detect shapes that are different from the conceptual solids coming from the technical literature (Brumana et al. 2018b).

This paragraph describes the different scales and accuracy applied to different GOAs (GOA20, GOA50, and GOA10) to detect the geometry and the construction techniques, depending on the available information. In this case, intrados and extrados of St. Bernard’s chapel star vault were studied through on-site observations, geometric surveys, and photogrammetry.

At the intrados, the star vault can be schematically represented by a sphere interpreted by 8 lunettes that creates arches, while at the extrados, it is framed by radial Y-ribs.

A proper scale was defined for each component of the star vault, taking into account (i) the survey precision gained (and also surveying limitations due to the context and museum management), (ii) the geometric characteristics that could be evidenced adopting the proper scale, and the particularity of the surface finishing (i.e., the intrados stuccoes and the raw mortar finishing of the extrados). Each object model scale characterized by different tolerance factors has driven the model generation of the vault components.

In order to filter the stuccoes decoration at the intrados and to analyze the geometry of the framed ribs and of the lunettes, it has been chosen a 1:20 scale adopting a GOA20 in the modeling phase. The intrados surface has been surveyed and modeled at a 1:20 scale, generating an HBIM object at GOA20. Since the vault construction technique is an example of so-called frame vault (arches and lunettes), the HBIM model generation has been addressed to the segmentation of these two object elements.

Modeling the whole star vault object does not only require a reliable intrados model, adopting GOA20 to detect the geometry of the ribs and lunettes, but also an integration of the extrados textured model with GOA50. The extrados, due to surveying constraints and mortar cover irregularities given back from the photogrammetric orthoimage and point clouds, was modeled at a 1:50 scale, with a range tolerance of 20 ÷ 30 mm. However, from the extrados, it was possible to see the arrangement of the bricks, thus understanding the construction technique and the connection with the intrados. Thus, a detail of the Y-ribs was modeled at GOA10 to represent the arrangement of the bricks on the vault and lunette extrados surface (Fig. 4). The analysis made it possible to derive a more in-depth knowledge of the construction technique to better support the vault structural behavior and boost the preservation actions.

Intrados (vault and lunette) geometric analysis: (A) the longitudinal section of the vault is a segmental arch that has a deviation from a round arch of about 18 cm (worst case) (B) lunette profile is a segmental arch that deviates from the round one of about 18 cm (worst case) (C) lunette transversal section is a part of a round arch whose center is not at the same level of the end of the arch (D) lunette transversal section is a segmental arch that deviates from the round arch of about 10 cm (E) lunette profile is a curve that deviates from the line of about 6 cm

Model generations and specifications

HBIM model generation followed the specification steps for the generative model of complex shapes (Banfi 2019). It was then adapted to the different GOAs:

Extraction of primitives from point clouds to intercept the primary geometry: this process can be done manually or in a semi-automatic way. It should be stressed that the geometric interpretation of the collected data and the constructive analysis of the product depend totally on the modeler.

From the NURBS model to HBIM objects: thanks to NURBS algorithms, it was possible to apply GOG 10 where it was necessary. Through a semi-automatic procedure, simple points were turned into a model capable of accurately following the vault geometry, both at the intrados and the extrados. The upper and lower vault parts have been connected and georeferenced directly in a three-dimensional environment thanks to common points identified in the wall texture. In the generative phase, GOG 10 scan-to-BIM requirements, the scale of representation, and the amount of information included in the model had been considered. An accurate breakdown by structural elements consequently determined the level of information shared via BIM parameters, clouds, and databases. NURBS-based models have been generated with the intrinsic characteristic of being HBIM enabled parametric complex object.

The Grade of Accuracy and the scale of representation definition, validation, and communication of the object library (toward HBIM metadata enrichment): the definition of methods capable of validating and communicating the model reliability to the various users has been undertaken. Communicating the specific GOAs and the scale of representation adopted for each model component within the HBIM information properties, through known quantitative parameters, is vital for each phase of BIM uses after the HBIM model generation within the HBIM contest but also in the case of data sharing outside the single HBIM use. For this reason, the HBIM object, before being shared, must be verified connecting such values as a sort of metadata: an Automatic Verification System (AVS) has been applied to different scales of representation with the ultimate goal of demonstrating the level of accuracy, analyzing the quality level (Banfi 2019).

Implementation and development of new HBIM parameters enriching the object library: as briefly mentioned, the need to create a library of unique objects, such as St. Bernard’s chapel, required the development of new description parameters for communicating a series of contents, such as construction, materials, arrangements, family of workers, and geolocation with more specific information such as historical periods, descriptions, and historical documentation from the archives. External links could also redirect the collected data, such as orthophotos, texts, point clouds, 2D drawings, and historical reports.

GOA20—the intrados and the lunettes

The intrados and the lunettes structure of the star vault were modeled with GOA20 (a Grade of Accuracy of the model equivalent to 1:20 scale).

GOA20 means that the object model accuracy respect to the cloud points will be contained within the tolerance at that scale (T20 = 8 ÷ 12 mm). This factor implies that to model the object with such precision, it is required reliable modeling of the intrados. This object cannot be modeled at this scale with a sphere!

Such accuracy highlighted the complex typology and detected the creativity of the geometric design (Stanga et al. 2019). Thanks to the direct application of GOG 9 and 10, it has been possible to go beyond a simple 2D representation or simplified theoretical representation.

The analysis on the shape and dimension of vault sections and lunettes profiles was carried out (Fig. 4). The longitudinal section of the vault (A) is not a round arch but is a segmental arch. It slightly deviates from the round arch of about 18 cm (worst case). Considering the lunettes: B profile is a segmental arch that deviates from the round one of about 18 cm (worst case), C transversal section is a part of a round arch whose center is not at the same level of the end of the arch, D transversal section is a segmental arches that deviates from the round arch of about 10 cm, and E profile is a curve that deviates from the line of about 6 cm.

Santini would probably get inspiration from the pure solids for the design of the vault (a sphere), since he was keen onmathematics and geometry. Then, why those discrepancies between the conceptual model and the real vault? Many reasons could explain those deviations: problems during the construction process (a bad construction of the centering or problems during de-centering), the thickness of stuccos and paintings, settlement of the building across the centuries (the Monastery was built in the twelfth century on a water-land on 5100 oak piles to reinforced the swampy ground) or a voluntary adoption of curves characterized by multiple centers (polycentric arches).

Moreover, since the E profile of the lunettes is not a straight line, it means that the lunette surfaces are not built by the translation of the segmental arch. They are surfaces with double-curvature, which means that they were probably built without using a centering, or maybe using the groins of the lunette as a centering. This hypothesis could be possible, but the brick arrangement of the lunettes is longitudinal and it does not match the herringbone pattern, which is the usual pattern for free-hand vault (Wendland 2008). In the case the lunettes were built using a centering, it could be possible that they place some sand on it to give curvature to the E profile, perhaps due to aesthetic reason. To properly model such complex geometries, the modeling process of the lunettes and ribs at the intrados is illustrated adopting GOA20 with the result of modeling the curvature of the intrados not approximating a simple semi-circumference—as from the profile analysis—but the geometric curvature by extracting the primitives and the borders, thus obtaining the wireframe model as explained in Fig. 5.


Schau das Video: Advanced Geoserver: Tile Caching Basics. (Oktober 2021).