Mehr

Extrahieren mehrerer Werte aus einer Tabelle in ArcGIS ModelBuilder?


Ich führe das OLS-Werkzeug (Ordinary Least Squares) in meinem Modell aus und gebe eine Koeffiziententabelle aus. Jetzt muss ich die Steigungs- und Achsenabschnittswerte in der Koeffiziententabelle in einem Raster-Rechner verwenden. Ich habe versucht, die verschiedenen Iteratoren (Zeilenauswahl, Feldwerte) zu verwenden, aber sie geben jeweils nur einen Wert aus.

Weiß jemand, wie man "SearchCursor" -ähnliche Funktionen in ModelBuilder erhält?

Hier ein Bild des Modells:

und ein Bild von "coef_table":

Wie erhalte ich die beiden Werte in der Spalte Coef als separate Werte, die ich im Raster-Rechner verwenden kann?


Wenn Sie ModelBuilder verwenden und eine Werteliste erstellen möchten, verwenden Sie den Iterator für Feldwerte und senden Sie die Ausgabe an ein Werkzeug zum Sammeln von Werten. Machen Sie die Ausgabewerte als Parameter verfügbar und betten Sie dann dieses Untermodell in das Mastermodell ein.

Nachdem Sie Ihre Werteliste erstellt haben (in Ihrem Beispiel geben Sie nur zwei Werte zurück), können Sie sie mit dem Werkzeug Werte berechnen in ihre eigenen Variablen extrahieren, die Sie dann mit Inline-Ersetzung in Ihren Rasterberechnungen verwenden können.

Das Werkzeug Werte berechnen verwendet den folgenden Python-Code. Beachten Sie, dass ich in meinem Beispiel einen ganzzahligen Wert zurückgebe. Variable v1 ist Index 0 und v2 ist Index 1. Diese v1 und v2 verwenden Sie in Ihrer Rasterberechnung.


Extrahieren von Daten aus HTML mit BeautifulSoup

Heutzutage reden alle über Daten und wie sie helfen, versteckte Muster und neue Erkenntnisse zu lernen. Der richtige Datensatz kann einem Unternehmen helfen, seine Marketingstrategie zu verbessern und den Gesamtumsatz zu steigern. Und vergessen wir nicht das populäre Beispiel, bei dem ein Politiker die öffentliche Meinung vor Wahlen kennen kann. Daten sind mächtig, aber es gibt sie nicht umsonst. Das Sammeln der richtigen Daten ist immer teuer, denken Sie an Umfragen oder Marketingkampagnen usw.

Das Internet ist ein Datenpool und mit den richtigen Fähigkeiten kann man aus diesen Daten viele neue Informationen gewinnen. Sie können die Daten jederzeit kopieren und in Ihre Excel- oder CSV-Datei einfügen, aber das ist auch zeitaufwändig und teuer. Warum nicht einen Software-Entwickler engagieren, der die Daten in ein lesbares Format bringen kann, indem er einen Jiber-Jabber schreibt? Ja, es ist möglich, Daten aus dem Web zu extrahieren und dieser "jibber-jabber" heißt Web-Scraping.

Laut Wikipedia ist Web Scraping:

Web-Scraping, Web-Harvesting oder Web-Datenextraktion ist das Daten-Scraping, das zum Extrahieren von Daten von Websites verwendet wird

BeautifulSoup ist eine beliebte Bibliothek von Python zum Scrapen von Daten aus dem Web. Um das Beste daraus zu machen, braucht man nur grundlegende HTML-Kenntnisse, die im Handbuch behandelt werden.


Beispiel 1: Verwenden einer Wertetabelle

Ein paar Anmerkungen zu Beispiel 1

In diesem ersten Beispiel habe ich -2, 0 und 2 als meine x-Koordinaten gewählt.

Nachdem ich diese Werte in die Gleichung eingesetzt hatte: y = 2x +1, fand ich meine y-Werte zu: -3, 1 und 5.

Daher waren die geordneten Paare, die ich in meinem Diagramm gefunden habe: (-2,-3), (0,1) und (2,5).

Ich habe diese Punkte in mein Diagramm eingetragen.

Dann benutzte ich mein Lineal und zog eine gerade Linie durch diese Punkte. Dies ist die Gerade für die Gleichung, y = 2x +1.

Hätten Sie dieses Problem selbst gelöst, haben Sie mit Hilfe der Wertetabelle möglicherweise drei verschiedene Punkte gefunden. Das ist in Ordnung, denn selbst wenn Ihre drei Punkte unterschiedlich sind, sieht Ihre Linie immer noch genau gleich aus!

Wir können auch andere Lösungen für die Gleichung finden, indem wir einfach den Graphen lesen. Ich sehe, dass (3,7) ein Punkt in der Grafik ist. Wenn ich x durch 3 in die Gleichung einsetze, erhalte ich 7 als meine y-Koordinate.

Diese Linie geht ewig weiter, es gibt also unendlich viele Lösungen für die Gleichung.

Schauen wir uns ein anderes Beispiel an.


Extrahieren mehrerer Werte aus einer Tabelle in ArcGIS ModelBuilder? - Geografisches Informationssystem

Die Zuschüsse für die Straßenverkehrssicherheit von der National Highway Traffic Safety Administration (NHTSA) für das Geschäftsjahr (FY) 2013 wurden auf 𤙃 Millionen [ 1 ] geschätzt. Kraftfahrzeugunfälle sind in den Vereinigten Staaten von größter Bedeutung, und es werden enorme Ressourcen für die Sicherheit des Straßenverkehrs aufgewendet. Basierend auf statistischen Projektionen des Fatality Analysis Reporting System (FARS) der NHTSA stieg die Zahl der Verkehrstoten von 32.367 im Jahr 2011 auf 34.080 im Jahr 2012, ein Anstieg um 5,3%. Tatsächlich war 2012 das erste Jahr seit 2005, in dem die Zahl der Todesopfer von Jahr zu Jahr zugenommen hat, was darauf hindeutet, dass erhebliche Anstrengungen zur Verbesserung der Straßenverkehrssicherheit erforderlich sind [ 2 ].

Identifizierung von Standorten mit Potenzial für Sicherheitsverbesserungen,

Diagnose identifizierter Standorte zur Verbesserung der Sicherheit und Auswahl von Gegenmaßnahmen,

Schätzung der Kosten der Gegenmaßnahmen,

den Nutzen der Gegenmaßnahmen abzuschätzen.

Diese neuen Tools adressieren viele Einschränkungen herkömmlicher Sicherheitsanalysetools, einschließlich Verzerrungen im Zusammenhang mit Volumen, Segmentlänge und Regression auf den Mittelwert sowie falsche Modellformen und das Fehlen von Zuverlässigkeitsmaßen [ 4 – 9 ]. Um diesen Einschränkungen zu begegnen, verwenden hochmoderne Tools, einschließlich Safety Analyst, Analysemethoden, die umfassende Datensätze erfordern, um ausreichende Informationen bereitzustellen und komplizierte raumzeitliche Merkmale und Interaktionen im Verkehrssystem zu erfassen.

Nicht allen interessierten Gruppen ist die Verfügbarkeit von Daten in jedem Bereich bekannt.

Es gibt keine Konsistenz hinsichtlich der Art und Weise, wie die Informationen gespeichert und die Daten normalisiert werden.

Typischerweise werden die Datensätze entwickelt, ohne explizit die Bedürfnisse der verschiedenen Anwendungen zu berücksichtigen, die von verschiedenen Abteilungen verwendet werden.

Neue aufkommende Tools wie Safety Analyst erfordern die Erfassung von Daten aus mehreren Abteilungen. Darüber hinaus benötigen diese Tools Daten, die normalerweise nicht verfügbar sind.

Die Schulung von Verkehrssicherheitsingenieuren und -fachleuten im Umgang mit neuen Applikationen wie Safety Analyst setzt voraus, dass die entsprechenden Applikationen mit allen notwendigen Daten einsatzbereit sind.

Die Koordination mit anderen landesweiten Sicherheitsbehörden erfordert einen umfassenden Ansatz zur Integration und Ermöglichung des Zugriffs auf die Daten sowie zur Bereitstellung von Wartungsfunktionen.

Ein umfassender Ansatz unter Verwendung modernster Tools ist erforderlich, um Daten zu sammeln und den bestehenden Datenbedarf, der erheblich ist, zu verwalten sowie bessere Lösungen zu entwickeln. Die vorhandene Literatur ist mit Beispielen zu Datenerfassungs- und Integrationsmethoden für Verkehrsanwendungen gefüllt, einschließlich Frameworks für geografische Informationssysteme (GIS) [ 12 – 18 ], Datenbank-/Data-Warehouse-Systeme [ 19 – 24 ] und Visualisierung Werkzeuge [ 25 – 27 ]. Die meisten DOTs haben jedoch keinen Zugriff auf ein umfassendes Datenbanksystem, das es ihnen ermöglicht, alle Vorteile bestehender Tools, einschließlich Safety Analyst, zu nutzen. Mit einem solchen Datenbanksystem können Behörden möglicherweise Sicherheitsleistungsfunktionen (SPFs) entwickeln, die jurisionsspezifisch sind, damit sie Leistungsmaße genauer schätzen können. Frühere Studien zeigen, dass die Methoden zur Entwicklung solcher Systeme relativ begrenzt sind.

Viele staatliche DOTs haben große Datenmengen. Es ist jedoch eine Herkulesaufgabe, die Datenquellen zu identifizieren, die Systeme zu deren Integration zu entwickeln und die Datenbanken, Analysewerkzeuge und Visualisierungssysteme zu entwickeln. In dieser Studie wurden ein Datenbanksystem und Tools zum Verarbeiten, Integrieren, Prüfen und Laden der Daten erstellt und getestet, um Daten für mehrere Transportanwendungen bereitzustellen, wobei der Schwerpunkt auf Safety Analyst liegt. Die in dieser Studie entwickelten Werkzeuge können verwendet werden, um ähnliche Datenbanksysteme für jede Region zu erstellen und/oder bestehende Datenbanken zu erweitern. Eine kürzlich durchgeführte landesweite Umfrage [ 28 ] hat ergeben, dass die fehlende Verfügbarkeit umfassender Datenquellen sowie langwierige Methoden für den Datenimport und die Datenverarbeitung ein großes Hindernis für den Einsatz von Safety Analyst darstellen. Angesichts der erheblichen Ressourcen, die in die Entwicklung von Safety Analyst investiert wurden, sowie des erheblichen potenziellen Vorteils der Durchführung des Verkehrssicherheitsmanagements mit einem solchen Tool, sind die Beiträge dieser Studie daher aktuell und können die Nutzung und den Nutzen von Safety Analyst erleichtern.

Abbildung 1 veranschaulicht den konzeptionellen Rahmen für das vorgeschlagene Datenbanksystem, und ein begleitendes Visualisierungssystem mit entsprechenden Arbeiten wurde an anderer Stelle veröffentlicht [ 29 ]. Rohdaten wurden mit Datenverwaltungstools verarbeitet, um eine umfassende, normalisierte und optimierte Datenbank zu erstellen. View-Tools werden verwendet, um die von jeder Anwendung benötigten Daten im entsprechenden Format und in der entsprechenden Auflösung bereitzustellen. Visualisierungstools werden verwendet, um mehrere grafische Darstellungen der Ein- und Ausgaben für jede Anwendung bereitzustellen. Viele derzeit vorhandene Analysetools, einschließlich Safety Analyst, bieten keine Visualisierungsfunktionen. Angesichts der räumlichen Natur des Problems war dies eine erhebliche Einschränkung.

Konzeptioneller Rahmen für das in dieser Studie entwickelte umfassende Datenbank- und Visualisierungssystem.

Safety Analyst bietet eine Reihe von Analysetools zur Identifizierung und Verwaltung systemweiter Sicherheitsverbesserungen [ 5 ]. Safety Analyst verwendet eine empirische Bayesian (EB)-Methode als Alternative zu herkömmlichen Sicherheitsanalysemethoden, wie Häufigkeit, Rate, kritische Rate oder Crash-Index. Der EB-Ansatz bietet einen Mechanismus, der mit herkömmlichen Methoden nicht angegangen werden kann und der Probleme im Zusammenhang mit Verzerrungen, falscher Modellform und dem Fehlen eines Zuverlässigkeitsmaßes anspricht [ 4 – 10 ].

Safety Analyst besteht aus vier Tools: Verwaltung, Datenmanagement, Analyse und Umsetzung von Gegenmaßnahmen. Das Verwaltungstool umfasst Bundes-, Behörden- und Systemkomponenten [ 30 ]. Die föderale Komponente bietet Zugriff auf die standardmäßigen Standort-Subtypdefinitionen, das Management von Gegenmaßnahmen und die nationalen standardmäßigen Sicherheitsleistungsfunktionen (SPFs). Die Agenturkomponente bietet Zugriff auf verschiedene Vorgänge, einschließlich des Hinzufügens, Änderns und Entfernens von Datenattributen, mit Ausnahme von obligatorischen Datenattributen. Darüber hinaus ermöglicht diese Komponente die Modifikation nationaler SPFs mit behördenspezifischen SPFs. Die Systemkomponente verwaltet lokale oder entfernte Datenbanken und kombiniert die Datenbank mit Bundes- und Behördenkomponenten.

Lokale oder entfernte Datenbanken können mit dem Datenmanagement-Tool [ 30 ] importiert werden. Derzeit unterstützt Safety Analyst zwei grundlegende Mechanismen für den Datenimport: einen Dateiimport und eine Datenbank-zu-Datenbank-Zuordnung. Für DOTs, die einen vollständigen Datenbestand in einem Datenbankmanagementsystem (DBMS) verwalten, das mit der strukturierten Abfragesprache (SQL) kompatibel ist, ist der Datenbank-zu-Datenbank-Zuordnungsmechanismus die beste Alternative, um Daten in Safety Analyst zu laden. Die in dieser Studie entwickelten Ansichtswerkzeuge bieten diese Funktion. Für DOTs, die keine Datenbank mit allen erforderlichen Daten für Safety Analyst pflegen, können die in dieser Studie entwickelten Datenmanagement-Tools verwendet werden, um ein DBMS mit allen erforderlichen Daten zu generieren.

Der Dateiimport ist ein weniger wünschenswerter Mechanismus, da er nicht alle Möglichkeiten bietet, die Daten in einem DBMS zu haben. Safety Analyst unterstützt Datenbestandsdateien in umfangreichen Formaten für Markup Language (xml) und kommagetrennte Werte (csv). Die Inventardateien müssen jedoch ein bestimmtes Format erfüllen. Es ist unwahrscheinlich, dass DOTs über leicht verfügbare XML- oder CSV-Datensätze verfügen, die das erforderliche Format erfüllen. Daher wird die Entwicklung eines DBMS für Safety Analyst empfohlen.

Netzwerk-Screening-Modul: Dieses Modul identifiziert und ordnet Standorte nach der EB-Methode für potenzielle Sicherheitsverbesserungen.

Diagnose- und Auswahlmodul für Gegenmaßnahmen: Dies hilft bei der Diagnose von Sicherheitsproblemen an bestimmten Standorten, indem die vom Benutzer bereitgestellten Antworten auf eine Reihe von integrierten Fragen verwendet werden. Basierend auf der Diagnose kann der Benutzer Gegenmaßnahmen auswählen, um die Unfallhäufigkeit und -schwere an bestimmten Stellen zu reduzieren.

Ökonomisches Bewertungs- und Prioritätsranking-Modul: Dies bietet eine wirtschaftliche Bewertung einer bestimmten Gegenmaßnahme für einen bestimmten Standort oder mehrerer alternativer Gegenmaßnahmen für mehrere Standorte. Darüber hinaus bietet es eine Rangfolge von Standorten und vorgeschlagenen Verbesserungsprojekten basierend auf Nutzen- und Kostenschätzungen.

Modul „Implementierte Gegenmaßnahmen“ : Dieses Modul bietet Vorher-/Nachher-Bewertungen implementierter Sicherheitsverbesserungen. Es werden Daten für Bauvorhaben und eingeleitete Gegenmaßnahmen benötigt. Diese Daten können mit dem Tool zur Implementierung von Gegenmaßnahmen importiert werden.

Kritische Daten zur Durchführung von Verkehrssicherheitsstudien umfassen Unfall, Fahrbahn, Kontrolle und Verkehrsfluss. Ein umfassender Plan zur Datenerhebung wurde entwickelt, um verfügbare Daten von verschiedenen staatlichen Stellen in Nevada zu erhalten, basierend auf den Model Minimum Uniform Crash Criteria (MMUCC) und dem Model Inventory of Roadway Elements (MIRE) [ 31 , 32 ]. Basierend auf diesen Richtlinien waren für den Aufbau einer umfassenden Sicherheitsdatenbank ca. 150 Datenattribute notwendig. Nicht alle Daten wurden von Safety Analyst benötigt, jedoch wurde in dieser Studie ein Datenwörterbuch entwickelt, um die obligatorischen Daten für Safety Analyst explizit zu identifizieren [ 4 , 30 ], wie in Abbildung 2 gezeigt.

Obligatorische Datenelemente, die von Safety Analyst benötigt werden.

Die meisten Daten in Abbildung 2 sind aus verschiedenen DOT-Quellen verfügbar, darunter das Highway Performance Monitoring System (HPMS) des Highway Performance Monitoring System (HPMS) der linearen Referenzsysteme (LRS) von Straßennetzen, Reisenachfragemodellen (TDM) und Kreuzungs-, Verkehrsvolumen- und Crash-Datensätzen [ 26]. Für diese Studie wurden Daten für Fahrbahnsegmente und Rampen von LRS, HPMS und TDMs erhalten. Die Unfalldaten wurden vom Nevada Accident and Citation Tracking System (NCATS) erhalten. Der jährliche durchschnittliche tägliche Verkehr (AADT) wurde vom Traffic Records Information Access (TRINA) der NDOT erhoben.

Ein Straßennetz ist die Mittellinienkarte von Routen in einem GIS-LRS. Die meisten staatlichen DOTs haben zwei Ebenen von Straßennetzen, einen Datensatz auf Bundesebene (SDS) und einen Datensatz auf Kreisebene (CDS). Das SDS kann in Safety Analyst für Bundeshilfsstraßen und Bundesstraßen verwendet werden, und das CDS kann für Nebenstraßen auf Kreisebene sowie für Haupt- und Nebenstraßen verwendet werden. Normalerweise ähnelt ein SDS-Straßennetz einer HPMS-Routenschicht. Wenn sowohl SDS- als auch CDS-Straßennetze nicht verfügbar sind, kann der HPMS-Routen-Layer in LRS [ 33 ] mit einigen Modifikationen verwendet werden.

Für diese Studie wurde das CDS-Straßennetz in LRS verwendet, das ein zusätzliches System, die RouteMaster-Identifikation (RMID), eine eindeutige Kennung zur Referenzierung der Route im Straßennetz, beinhaltete. RMID verbessert die Möglichkeit, andere Datenquellen auf das Straßennetz zu verweisen. Zu den Straßennetzdaten gehören die Segment-ID, die RMID, der Straßentyp, der Landkreis, die Anfangs- und Endmeilenpfosten des Segments, die Himmelsrichtung (die Richtung, in der die Straße beginnt und endet) und die Länge des Segments.

Das Highway Performance Monitoring System ist ein System auf nationaler Ebene, das von der FHWA verwaltet wird und Daten zu Umfang, Zustand, Leistung, Nutzung und Betriebseigenschaften staatlicher und einiger nichtstaatlicher Autobahnen enthält [ 33 ]. Das HPMS-Datenmodell der FHWA, das sich in einem GIS-Framework befindet, liefert die räumlichen Beziehungen zwischen den Datenelementen. Die FHWA beauftragt die staatlichen DOTs, jedes Jahr vollständige, zeitnahe und genaue HPMS-Daten vorzulegen [33]. Daher können diese Daten, integriert mit anderen Datenquellen, für State DOTs für die für Safety Analyst erforderliche Datenbankentwicklung zur Verfügung stehen.

Für diese Studie wurden Nevada HPMS-Datenschichten verwendet, einschließlich Zugangskontrolle, Anlagentyp, funktionale Klassifizierung, Geschwindigkeitsbegrenzung, Durchgangsspuren, AADT und städtischer Code.

Normalerweise verfügen Stadtplanungsorganisationen (MPOs) über ein GIS-basiertes TDM für Verkehrsplanungs- und Verkehrsverbesserungsprogramme. Die Daten aus diesem Modell, wie z. B. Anzahl der Fahrspuren, Geschwindigkeitsbegrenzung, Zugangskontrolle, funktionale Klassifizierung, Vorwahl, Fahrtrichtung, Ein- oder Zweiweg und Rampenkonfiguration, können verwendet werden, wenn keine HPMS-Daten verfügbar sind. Wenn kein eindeutiges Straßennetz auf Kreisebene verfügbar ist, kann ein TDM-Straßennetz für Daten zu Straßenabschnitten, Rampenabschnitten, Längen und Meilenpfosten verwendet werden.

Für diese Studie wurde das TDM der Regional Transportation Commission of Southern Nevada (RTC-SN) verwendet, um Daten zu erhalten, die in den HPMS-Schichten nicht verfügbar sind.

Jedes Jahr gibt die NHTSA einen Großteil ihres Budgets für ihre Zuschüsse für die Straßenverkehrssicherheit für das Crash Data Collection Program [ 1 ] aus. Die Erhebung von Crash-Daten von Staaten muss auf MMUCC-Richtlinien basieren. Auch die von Safety Analyst geforderten Crash-Daten basieren auf den MMUCC-Richtlinien. In dieser Studie wurden Daten von NCATS für lokalisierte Crashs (Crashs mit Koordinaten) und Crash-Charakteristiken für die Jahre 2007 bis 2011 verwendet.

Safety Analyst erfordert AADT für alle Segmente, die in einer Analyse auf Netzwerkebene verwendet werden sollen. Häufig liegen diese Daten jedoch nicht für alle Fahrbahnklassen vor. Typischerweise sammeln staatliche DOTs Daten, um AADTs für hohe Funktionsklassen von Straßen, wie Autobahnen und Bundesstraßen, zu schätzen. Das Sammeln ähnlicher Daten für Ausfall- und Ortsstraßen ist ein umfangreicher und kostspieliger Prozess. Diese Studie verwendete ein simulationsbasiertes dynamisches Verkehrszuweisungsmodell, DynusT [ 34 , 35 ], um die AADT für die Standorte mit fehlender AADT für das letzte Jahr zu schätzen. Diese AADTs wurden für fünf Jahre projiziert, indem zeitliche Faktoren verwendet wurden, die aus langfristigen Zählungen entwickelt wurden.

Typischerweise verfügen Bezirksbehörden oder Stadtplanungsorganisationen (MPOs) über Daten für signalisierte Kreuzungen, einschließlich der Position und Art der Kontrollinformationen. Daten für stoppgesteuerte Kreuzungen sind jedoch nicht üblich und müssen erhoben werden. In dieser Studie wurden eine Methodik und ein Werkzeug entwickelt, um Stopp-Kontrolldaten effizient zu sammeln. Signalisierte Kreuzungsdaten wurden vom Freeway and Arterial System of Transportation (FAST), einer Abteilung von RTC-SN, erhalten.

Tabelle 1 zeigt die Quelldateien, die typischerweise in staatlichen DOTs und/oder MPOs verfügbar sind, sowie Daten in diesen Dateien, die von Safety Analyst benötigt werden. Mit diesen Informationen können Behörden mit dem Sammeln dieser Dateien beginnen, um eine Safety Analyst-Datenbank zu entwickeln. Behörden können entweder (1) HPMS-Dateien mit Daten für Straßennetze und Unfälle für Straßen, die von staatlichen DOTs verwaltet werden, oder (2) HPMS-Dateien mit Daten für Straßennetze, TDMs, Unfälle und Kreuzungen für Straßen auf Kreisebene wählen.

Quelldateien und deren Datenelemente zum Erstellen einer Sicherheitsdatenbank.

Zwischen GIS-Shape-Dateien verschiedener Datensätze wie HPMS, CDS-Straßennetz und TDM-Layern besteht eine räumliche Verschiebung/Lücke.

Zwischen HPMS-, CDS-Straßennetz- und TDM-Schichten sind keine gemeinsamen IDs vorhanden.

Die Segmentierungslängen unterscheiden sich in HPMS-Schichten und im CDS-Straßennetz.

Es gibt keine eindeutige RMID unter den Datensätzen.

Einige Daten werden falsch dargestellt, beispielsweise Rampenkonfigurationen und die Anzahl der Fahrspuren.

Bestimmte Probleme in den Datensätzen treten häufig auf, da es keine Konsistenz bei der Datenformatierung und -speicherung zwischen den Abteilungen oder Abteilungen gibt. Darüber hinaus können die gesammelten Daten im gleichen geographischen Format gespeichert worden sein oder nicht, wie etwa Kardinalmaße, Koordinatensysteme und Geometrie. ArcGIS ModelBuilder [ 36 ] wurde verwendet, um die automatisierten Werkzeuge zur Lösung dieser Probleme zu entwickeln, wie im folgenden Abschnitt erläutert wird.

3. Datenverwaltungstools 3.1. Datenerfassungstool

Obwohl mehrere Datenquellen existieren, die eine große Menge der erforderlichen Daten für Safety Analyst liefern, fehlten verschiedene Datenattribute oder waren unvollständig, darunter Rampentyp, Rampenkonfiguration und Art der Steuerung an Kreuzungen. Die meisten der fehlenden Daten wurden mit Google Earth gesammelt und die fehlenden Informationen wurden ebenfalls in Google Earth beobachtet und kodiert. Es wurde ein Datenerfassungstool entwickelt, um Daten zu extrahieren und ArcGIS-Shape-Dateien mit allen Informationen zu erstellen. Diese Fähigkeit erleichterte die Entwicklung und Integration der Datenbank.

Safety Analyst verlangte, dass alle gesammelten Daten unter Verwendung von (1) einer Route und einem Meilenposten (2) einer Route, einem Landkreis und einem Meilenposten (3) einer Route, einem Abschnitt und einer Entfernung oder (4) einem Abschnitt und einer Distanz integriert werden. Diese Studie verwendete einen Routen- und Meilensteinindex, um alle Daten zu integrieren, da einige der Datensätze diese Informationen enthielten. Obwohl verschiedene kommerzielle Methoden und Werkzeuge zur Integration der Daten verfügbar sind [ 12 – 18 ], wurden in dieser Studie Integrationswerkzeuge mit ArcGIS ModelBuilder entwickelt, um die vollständige Kontrolle über den Prozess zu erlangen und eine größere Automatisierung zu ermöglichen.

3.2. ArcGIS ModelBuilder-Tool

Ändern Sie Parameterwerte, z. B. Pufferradius oder Toleranzgrenzen, und führen Sie die Modelle erneut aus.

Fügen Sie weitere Prozesse hinzu, z. B. Komponenten für einen Puffer oder Schnittpunkt, sowie Daten.

Löschen Sie Prozesse und Zwischendaten.

Visualisieren und untersuchen Sie die Ergebnisse in ArcMap.

ein Mapping-Tool, das Straßennetzsegmente räumlich auf Datenelemente in HPMS abbildet, wenn es eine Geometrieverschiebung und kein gemeinsames Feld zwischen ihnen gibt

ein lineares Referenzierungswerkzeug, das für jeden Unfall einen Meilenpfostenindex in Bezug auf Fahrbahnsegmente, Rampen oder Kreuzungsmeilenpfosten erstellt

ein dynamisches Segmentierungstool, das die Segmente an den erforderlichen Stellen bricht/verbindet.

3.3. Schnittstelle für die Zuordnung von Datenattributen

Es wurde eine Schnittstelle für das Datenattribut-Mapping entwickelt, um die Datenbank mit Daten aus bestehenden Quellen zu füllen. Die Schnittstelle erstellte eine Zuordnung für jedes Attribut sowie Datenquellen von Benutzerdatei-Datenattributen zu entsprechenden Datenbankattributen in den Datenbanktabellen. Diese Schnittstelle ermöglicht die Verwendung vorhandener Datendateien ohne Änderungen. Die Schnittstelle verwendet eine Microsoft Excel-Tabelle (.xlsx), eine Metadatendatei mit vier Spalten. Die erste und zweite Spalte enthielten den Datenbanktabellennamen bzw. den Attributnamen. Diese Namen wurden festgelegt und mussten nicht geändert werden. Die dritte und vierte Spalte enthielten den Dateinamen des Benutzers (der Agentur) bzw. den Attributnamen.

Tabelle 2 veranschaulicht die Metadatendatei. Nur der Benutzerdateiname und der Benutzerdateiattributname müssen vom Benutzer ausgefüllt werden. Verschiedene DOTs speichern ihre Daten in verschiedenen Dateien und eine gemeinsame eindeutige ID bezieht diese Dateien und Attribute in Beziehung. Nevada hat beispielsweise Straßenattribute in Dateien wie CDS_Network, Las Vegas Median, HPMS�ss und HPMS_SpeedLimit. Sobald eine Metadatendatei ausgefüllt ist, wird die Datenattribut-Zuordnungsschnittstelle verwendet, um Daten aus der Benutzerdatei in die entsprechenden Datenbanktabellen und -attribute einzufügen und zu speichern.

Beispiel der Metadatendatei für die Datenzuordnung.

Eingaben in eine vorhandene Datenbank können entweder neue oder eine Aktualisierung zuvor eingefügter Daten sein. Zur Eingabe von Daten in die Datenbank wurde ein Tool zur Dateninstanziierung und -einfügung entwickelt, das die Abhängigkeiten der Daten berücksichtigt. Eingabedateien wurden gestreamt und mit einer einfachen Anwendungsprogrammierschnittstelle (API) für einen XML-Parser, auch bekannt als SAX, geparst, der verwendet wurde, um die Daten in einer Matrix zu speichern.

Wenn eine Zeile in der Matrix gelesen wird, wird eine “select”-Abfrage in der Datenbank ausgeführt, um die Existenz eines Objekts zu bestimmen. Wenn ein Objekt vorhanden ist, wird eine Aktualisierung durchgeführt: Ein Java-Objekt wird instanziiert und seine Felder werden mit den Werten in der Eingabedatei aktualisiert. Dann wird die Aktualisierungsmethode dieses Java-Objekts verarbeitet, um die Datenbank zu aktualisieren. Wenn kein übereinstimmendes Objekt vorhanden ist, wird ein neues Objekt instanziiert und in eine 𠇎ntityManager”-Klasse eingefügt. Nachdem alle Dateien geparst und alle Objekte instanziiert wurden, können die Daten in die Datenbank eingefügt werden.

Die Klasse 𠇎ntityManager” verarbeitet die Prioritäten der Tabellen automatisch, um Abhängigkeiten zwischen den Tabellen zu berücksichtigen. Die Eingabe von Daten ohne Verwendung von EntityManager kann aufgrund einer Verletzung der Tabellenabhängigkeiten zu einem Fehler beim Einfügen von Daten oder einer Beschädigung der Datenbank führen. Unfallfahrzeugdaten hängen beispielsweise von Unfalldaten ab, und es ist ein Mechanismus erforderlich, um diese Abhängigkeit zu berücksichtigen.

Das Datenbankschema stellt die Struktur eines DBMS bereit, die in einer formalen Modellierungssprache beschrieben wird. Aktuelle Datenbank-Modellierungssprachen umfassen das Entity-Relationship (ER)-Modell und die Unified Modeling Language (UML). ER ist ein konzeptionelles Datenmodell, das die reale Welt als Entitäten und Beziehungen betrachtet. Die grundlegenden Konstrukte in einem ER-Modell sind die Entitäten, Attribute und Beziehungen, die sich in einem ER-Diagramm befinden. Das ER-Modell konzentriert sich auf die konzeptionelle und logische Entwurfsphase der Datenbank. Es kann verwendet werden, um SQL-kompatible Datenbanksysteme zu entwickeln, die für Benutzer geeignet sind, die mit Datenbankoperationen nicht vertraut sind [ 37 ].

Die UML ist eine objektorientierte visuelle Modellierungssprache, die verwendet wird, um die Objekte eines Softwaresystems zu spezifizieren, zu visualisieren, zu analysieren und zu steuern. Es wird verwendet, um Informationen über Softwaresysteme zu verstehen, zu entwerfen, zu durchsuchen, zu konfigurieren, zu warten und zu kontrollieren [ 37 ]. In dieser Studie wurde das ER-Modell aus drei wichtigen Gründen verwendet. Erstens unterstützt Safety Analyst nur SQL-kompatible Datenbanken. Zweitens sind ER-Diagramme, die das Design der Datenbank aufzeigen, im Vergleich zu UML-Diagrammen leichter zu verstehen. Drittens sind die meisten Anwendungen, die Safety Analyst ähnlich sind, eher mit einem ER-Modell kompatibel.

Das physische Datenmodell für die Datenbank wurde unter Verwendung des ER-Modells erstellt, das angibt, wie Daten von einem DBMS wie Oracle, MySQL, SQLServer oder Derby dargestellt und gespeichert werden sollten [ 38 ]. In dieser Studie hatte der Anwender die Wahl zwischen MySQL oder Derby als umfassendes Datenbanksystem. Für die Safety Analyst-Ansicht wurde jedoch nur Derby aktiviert, da MySQL nicht mit Safety Analyst kompatibel ist. Beide Datenbanken sind SQL-kompatible Open-Source-DBMS und bieten alle erforderlichen Funktionen eines zuverlässigen, flexiblen und robusten DBMS. SQL-Skripte wurden entwickelt, um Datenbanktabellen und die Beziehungen zwischen ihnen in MySQL und Derby zu generieren.

Das physische Datenmodell für die Datenbank wurde erstellt und anschließend wurde die Datenbank mit Daten gefüllt. Das Einfügen von Daten ist ein Vorgang, der einmal, regelmäßig oder sporadisch erfolgen kann. Die Methodik zum Auffüllen der Datenbank wurde entwickelt, um die meisten möglichen Szenarien zu berücksichtigen, die auftreten können. Zum Beispiel wurden verschiedene leere Tabellen entworfen und erstellt für zukünftige Daten, die verfügbar und/oder wünschenswert werden könnten.

Ein vollständiges Entitätsbeziehungsdiagramm, einschließlich Tabellen, Primärschlüssel und Fremdschlüssel, der Datenbank wird in Abbildung 3 bereitgestellt. In dieser Studie wurde die Krähenfuß-Notation verwendet, um Entitäten und Beziehungen in der vorgeschlagenen Datenbank zu veranschaulichen. Eine Entität ist ein Datenspeichercontainer (Tabelle) mit einer Sammlung von Attributen. In Abbildung 3 ist ACCIDENT eine der Entitäten. Es hat eine mit PK markierte Primärschlüsselkennung, die eine Instanz einer Entität eindeutig identifiziert, und eine mit FK gekennzeichnete Fremdschlüsselkennung, die eine Reihe einer anderen Entität eindeutig identifiziert. Eine Beziehung stellt eine Assoziation zwischen zwei Entitäten dar und besteht aus Indikatoren der Geschäftsregeln. In Abbildung 3 wird die Beziehung zwischen den Entitäten in der Datenbank anhand der blauen Linien und Symbole für Anfangs- und Endindikatoren der Geschäftsregeln veranschaulicht. Die verwendeten Symbole sind zwei vertikale Linien für ȁKegel und nur ein”-Indikator, Kreis mit Krähenfüßen für “zero oder viele,” eine vertikale Linie mit Krähenfüßen für ȁKegel oder viele,” und Kreis mit einer vertikalen Linie für “zero oder einen Indikator.” Zum Beispiel sind in Abbildung 3 null oder viele “SEGMENT ID” von �IDENT” Entität mit der einzigen “SEGMENT ID” verknüpft. x201d von der Entität “ROADWAY SEGMENT”. Für weitere Details zum ER-Diagramm können sich die Leser auf die Datenmodellierung mit ER-Diagrammen von Riccardi [ 39 ] beziehen. Darüber hinaus veranschaulicht Abbildung 4 einen detaillierten Datenrahmen, der ein physisches Datenmodell verwendet, das Tabellen, Primär- und Fremdschlüssel und andere Attribute für die vorgeschlagene Sicherheitsdatenbank umfasst.

Entitätsbeziehungsdiagramm für die vorgeschlagene Sicherheitsdatenbank.

Ein physisches Datenmodell für die Sicherheitsdatenbank.

Solche Analysetools wie Safety Analyst benötigen Daten in einem bestimmten Format. Beispielsweise verlangt der Safety Analyst die Art der Unfallschwere in Form von “K” für tödliche, 𠇊” für schwere Verletzungen und “P” für Sachschäden. Es ist jedoch unwahrscheinlich, dass die Datenquellen dieselbe Formatierung verwenden. Die Anforderung, einer bestimmten Formatierung zu folgen, ist eines der Haupthindernisse für DOTs, Safety Analyst zu verwenden [ 28 ]. Die in dieser Studie entwickelte Datenbank speichert die Art der Unfallschwere in Form von tödlichem, verletztem oder Sachschaden.

Ein Ansichtstool für Safety Analyst wurde entwickelt, um eine Datenbankansicht bereitzustellen, die den Anforderungen von Safety Analyst entspricht. Tabelle 3 veranschaulicht einen Teil eines MS Excel-Blatts, das verwendet wird, um eine Zuordnung zwischen der allgemeinen Datenbankansicht und der Safety Analyst-Ansicht herzustellen. Datenbanktabellenname, Attributname und Attributwerte wurden zwischen den beiden Ansichten zugeordnet. In Tabelle 3 ist beispielsweise der Name der Datenbanktabelle �ident,” der Attributname ist “severity,” und die Attributwerte sind �tale Verletzung,” “schwere Verletzung,” und “nur Sachschäden.” Die entsprechenden Safety Analyst-Werte sind Unfall-Unfallschwere1 und K, A oder P. Das Back-End des Ansichtstools für Safety Analyst verfügt über einen MS Excel-Parser, der die Daten streamt, und speichert die Daten in einer Matrix. HashMaps werden erstellt und eine Beziehung zwischen der Datenbank und der Safety Analyst-Ansicht hergestellt.

Zuordnung zwischen einer allgemeinen und der Sicht eines Sicherheitsanalysten.

Die umfassende Datenbank sowie die Datenbankansicht von Safety Analyst für Clark County, Nevada, wurden mit den vorgeschlagenen Datenverwaltungstools entwickelt und unter Verwendung der zuvor beschriebenen Datenquellen befüllt. Mit den Datenverwaltungstools wurde die Datenbankansicht abgebildet, importiert und nachbearbeitet. Kalibrierungsfaktoren für verschiedene Standort-Subtypen waren (1) Stadtautobahnabschnitte mit vier und sechs Fahrstreifen (2) Stadtautobahnabschnitte in Kreuzungsbereichen mit vier und sechs Fahrstreifen (3) städtische signalisierte vier- und dreispurige Kreuzungen (4) städtische Haltestelle -gesteuert mit vier- und dreischenkligen Kreuzungen und (5) arteriellen Segmenten mit zwei, vier und sechs Fahrspuren. Diese Faktoren wurden durch Kalibrierung der staatlichen Standard-SPFs unter Verwendung von Nevada-Daten ermittelt. Die Netzwerk-Screening-Analyse wurde mit dem Analysetool in Safety Analyst durchgeführt, um Standorte mit dem größten Potenzial für Sicherheitsverbesserungen zu ermitteln.

die erwarteten und überhöhten Crash-Häufigkeiten, mit Peak-Suche auf Fahrbahnabschnitten unter Verwendung von Grenzwerten für den Variationskoeffizienten (CV) [ 8 , 30 , 40 ]

ein Schiebefenster auf Fahrbahnsegmenten

Korridorscreening [8, 30, 40].

Analyse von Fahrbahn- und Rampensegmenten und Kreuzungen

Analyse von Fahrbahnabschnitten anhand funktionaler Klassifikationen

Analyse signalisierter und haltekontrollierter Kreuzungen

Analyse von Rampensegmenten.

Um die Ergebnisse zu veranschaulichen, untersucht dieser Artikel zwei Fallstudien, die eine übermäßige Unfallhäufigkeit als Maß für die Sicherheitsleistung verwendeten, um zu sehen, ob die Unfälle reduziert wurden, wenn eine Sicherheitsverbesserung implementiert wurde [ 30 ]. In der ersten Fallstudie wurden die Top 5%-Standorte identifiziert, darunter Fahrbahn- und Rampensegmente sowie signalisierte und stoppkontrollierte Kreuzungen, die das Potenzial für Sicherheitsverbesserungen haben.

Es wurden zwei Analysen mit Standard- und kalibrierten SPFs durchgeführt. Die übermäßige Unfallhäufigkeit wurde für tödliche und alle Unfälle mit Personenschaden berechnet, wobei die Spitzensuche auf Straßenabschnitten Variationskoeffizienten (CV)-Grenzwerte für das gesamte Netzwerk aufwies. Der Screening-Typ mit Peaksuche wurde verwendet, weil er CV-Grenzwerte und eine minimale Fensterlänge von einem 0,1-mi-Segment aufwies. Daher konnte der genaue Abschnitt/Fenster des Standorts bestimmt werden, der das Potenzial für eine Sicherheitsverbesserung hatte, um eine Gegenmaßnahme zu ergreifen. Sieben von 10 Standorten unterschieden sich in den Spitzenrängen. Tabelle 4 zeigt die Ergebnisse der ersten Fallstudie, einschließlich der Top 10 Standorte (die ersten 10 Ränge) mit Potenzial für Sicherheitsverbesserungen. Diese Standorte bestanden aus zwei Standort-Subtypen, vierspurigen Abschnitten einer Stadtautobahn im Anschlussbereich (Standort-Subtyp 158) und mehrspurig geteilten Abschnitten einer städtischen Hauptverkehrsader (Standort-Subtyp 153). Standort-Subtyp 158 hatte einen niedrigeren Kalibrierungsfaktor von 0,17, was bedeutet, dass diese Straßen im Durchschnitt weniger Unfälle erfuhren als Straßen, die zur Entwicklung der Bundes-SPFs für Safety Analyst verwendet wurden. Umgekehrt hatte Standort-Subtyp 153 einen höheren Kalibrierungsfaktor von 4,27, was bedeutet, dass diese Straßen im Durchschnitt mehr Unfälle erfuhren als Straßen, die zur Entwicklung von Bundes-SPFs verwendet wurden. Daher spielt die jährliche Kalibrierung von SPFs eine bedeutende Rolle bei Screening-Standorten, die ein höheres Potenzial für Sicherheitsverbesserungen haben.

Ergebnisse des grundlegenden Netzwerk-Screenings mit Peak-Suche auf Straßensegmenten und CV-Tests von Sicherheitsanalysten für tödliche und alle Unfälle mit Verletzungen auf Straßen- und Rampensegmenten sowie Kreuzungen unter Verwendung von Standard- und kalibrierten SPFs.

Analysetyp Rang Site-Untertyp Route Standort mit höchstem Potenzial zur Sicherheitsverbesserung
Startort Endstandort Durchschnittlich beobachtete Abstürze ∗ Vorhergesagte Absturzhäufigkeit ∗ Übermäßige Absturzhäufigkeit
Überschreitung ∗ Abweichung ∗ ∗ Zahl der Todesopfer Anzahl der Verletzungen
Standard-Lichtschutzfaktor
Kalibrierfaktor (CF) = 1.0
1 158 IR15 40.223 40.323 267.05 21.49 219.41 408.32 2.04 312.21
2 153 SR589 3.311 3.411 154.14 4.63 139.86 149.66 1.51 211.41
3 158 IR15 41.386 41.486 173.08 27.10 133.70 609.28 1.24 190.24
4 158 IR15 35.112 35.768 142.14 23.27 107.04 451.76 0.99 152.32
5 153 SR612 4.605 5.124 114.01 5.28 102.18 182.06 1.10 154.46
6 153 SR593 0.889 1.574 103.06 9.51 90.25 544.53 0.97 136.42
7 153 SR159 29.664 30.193 101.96 8.06 90.19 396.04 0.97 136.33
8 153 SR612 5.124 5.633 98.84 2.63 86.57 53.97 0.93 130.86
9 153 SR593 3.784 6.361 94.92 3.99 84.30 107.53 0.91 127.42
10 153 Las Vegas Boulevard. 26.032 26.112 87.10 6.22 75.67 239.96 0.82 114.37
Kalibrierter SPF
Site-Subtyp 158 CF = 0,17
Site-Subtyp 153 CF = 4,27
1 158 IR15 40.223 40.323 291.56 20.43 238.49 379.89 2.21 339.36
2 158 IR15 41.386 41.486 189.06 25.76 147.70 558.06 1.37 210.18
3 153 SR589 3.311 3.411 156.48 19.18 135.02 2165.74 1.46 204.09
4 158 IR15 35.668 35.768 155.78 22.12 118.56 414.43 1.10 168.71
5 153 SR612 5.324 5.424 100.37 10.91 87.08 707.86 0.94 131.63
6 158 IR15 41.567 41.667 118.14 24.19 84.46 483.08 0.78 120.18
7 153 Decatur Blvd. 4.624 4.64 106.95 8.99 77.99 483.52 0.84 117.89
8 158 IR15 41.667 41.767 105.53 22.24 74.20 409.34 0.69 105.58
9 153 SR596 5.293 5.393 82.73 7.85 72.04 371.99 0.78 108.89
10 153 Maryland Pkwy. 9.794 9.894 82.69 11.22 69.51 745.94 0.75 105.07

∗ Abstürze/km/Jahr ∗ ∗ Abstürze/km 2/Jahr.

Unter Verwendung von Standard- und kalibrierten SPFs identifizierte die zweite Fallstudie Kreuzungsstellen mit Verbesserungspotenzial sowohl bei tödlichen als auch bei allen Verletzungen. Die zusätzliche Unfallhäufigkeit für tödliche und alle Unfälle mit Verletzungen wurde berechnet. Die Abbildungen 5(a) und 5(b) veranschaulichen die 10 wichtigsten Kreuzungsstellen (die ersten 10 Ränge), die ein Potenzial für Sicherheitsverbesserungen aufweisen. Bei der Analyse von Standard- und kalibrierten SPFs vertauschten zwei Sites (rot eingekreist) die Ränge 4 und 5. Dies lag daran, dass die Sites mit Rang 3 und 4 unterschiedliche Site-Subtypen aufwiesen und daher unterschiedliche Kalibrierungsfaktoren verwendet wurden.

(a) Ergebnisse eines grundlegenden Netzwerk-Screenings für tödliche und alle verletzten Unfälle an Kreuzungen unter Verwendung des Standard-SPF und (b) Ergebnisse eines grundlegenden Netzwerk-Screenings für tödliche und alle verletzten Unfälle an Kreuzungen unter Verwendung kalibrierter SPFs.

Die Top-10-Standorte bestanden aus zwei verschiedenen Standort-Subtypen, der städtischen viersträngigen signalisierten Kreuzung (Standort-Subtyp 253) und der städtischen dreisträngigen Kreuzung (Standort-Subtyp 254). Standort-Subtyp 253 hatte einen etwas höheren Kalibrierungsfaktor, 1,08, und erlebte mehr Abstürze als die Kreuzungen, die zur Entwicklung von Bundes-SPFs verwendet wurden. Der Standort-Subtyp 254 hatte einen niedrigeren Kalibrierungsfaktor von 0,64, was bedeutet, dass städtische dreisträngige signalisierte Kreuzungen weniger Abstürze erfuhren als die Kreuzungen, die für die Entwicklung von Bundes-SPFs solcher Standorte verwendet wurden.

In den Ergebnissen war die vorhergesagte Aufprallhäufigkeit im Vergleich zur beobachteten Aufprallhäufigkeit aufgrund des standardmäßigen SPF in Safety Analyst viel geringer. Die prognostizierte Crash-Häufigkeit war eines der wichtigen Maße bei der Berechnung der erwarteten oder übermäßigen Crash-Häufigkeit nach der EB-Methode. Aufgrund des städtischen Charakters des Untersuchungsgebiets verschlechterten höhere AADT-Werte (100.000𠂞r) diese Ergebnisse.

Erstellen Sie behördlich festgelegte Standortuntertypen mit unterschiedlichen AADT-Bereichen im Verwaltungstool und kalibrieren Sie die Koeffizienten neu.

Entwickeln Sie basierend auf den Daten separate Zählregressionsmodelle für Site-Subtypen und geben Sie die Koeffizienten in das Verwaltungstool ein.

Der Screening-Typ für die Peaksuche war kein guter Parameter für Segmente unter 0,1 mi. Es hat die erwarteten/überschüssigen Absturzhäufigkeiten für 0,1 mi proportioniert, wenn die Länge weniger als 0,1 mi betrug. In diesem Fall war ein gleitendes Fenster die bessere Wahl, da es das Fenster aggregiert und auf angrenzenden Segmenten für eine weitere Berechnung verschoben hat Die Länge der Site war kleiner als die Fensterlänge.

In Safety Analyst war die Peak-Suche besser, weil sie die Grenze des Variationskoeffizienten hatte, während das gleitende Fenster dies nicht tat.

Die Peaksuche war kein guter Parameter für längere Segmente. Die Spitzensuche lieferte einen Rang pro Website mit einer Fensterlänge von 0,1 mi. Andere Fenster mit den zweithöchsten erwarteten/überhöhten Aufprallhäufigkeiten wurden in zusätzlichen Fenstern bereitgestellt, wobei längere Segmente mehrere zusätzliche Fenster aufwiesen. Das gleitende Fenster lieferte jedoch aufeinanderfolgende Ränge für dieselbe Site mit verschiedenen Fenstern.

Für Websites mit einer höheren Anzahl von Abstürzen und einer großen Varianz könnten Analysten entweder erwartete oder übermäßige Absturzhäufigkeiten verwenden.

Für die gesamte Analyse wurde kein bestimmter Screeningtyp bevorzugt. Analysten werden ermutigt, eine bestimmte Site-Liste mit mehreren Kombinationen von Netzwerk-Screening zu analysieren, um gemeinsame Sites aus der Ausgabe zu finden. Wenn derselbe Standort mit mehreren Screening-Methoden identifiziert wird, unterstreicht dies, dass der Standort weitere Untersuchungen verdient [ 30 ].

6. Visualisierungstool für Sicherheitsanalysten

Die von Safety Analyst bereitgestellten Ausgabefunktionen sind auf Tabellen beschränkt, die die Ergebnisse in den Formaten HTML, PDF, RTF und CSV melden. Analysten müssen die Ergebnisse aus diesen umfangreichen Tabellen ableiten, ohne ein Bild der Site zu haben. Daher wurde ein Visualisierungstool entwickelt [ 29 ], um der Ausgabe eine bessere Bedeutung zu verleihen, mit erweiterten Möglichkeiten für räumliche, grafische und bearbeitbare Berichte. Um die Ergebnisse mit dem Visualisierungstool zu visualisieren, kann der Nutzer zwischen zwei alternativen Darstellungsmethoden wählen: Google Maps und ArcGIS.Der Vorteil der Verwendung von Google Maps ist seine Einfachheit und Verfügbarkeit der Vorteil von ArcGIS sind seine Modellierungs- und Rechenfähigkeiten.

Für die Google Maps-Oberfläche verfügt das Visualisierungstool über ein webbasiertes Frontend für die ArcGIS-Oberfläche, das Visualisierungstool ist eine eigenständige Anwendung auf Basis von ArcPy-Skripten. Beide Anwendungen bieten einfachen Zugriff auf mehrere Registerkarten. Die ersten beiden Registerkarten zeigen die tabellarischen Ergebnisse und eine Karte mit räumlichen Standorten an. Darüber hinaus kann der Benutzer mit der grafischen Anzeige interagieren, um grundlegende Operationen wie Vergrößern, Verkleinern und Auswählen von Sites durchzuführen. Auf der zweiten Registerkarte kann der Benutzer das Balkendiagramm für die Sicherheitsleistungskennzahlen auswählen, z. B. beobachtete, vorhergesagte und erwartete/übermäßige Unfallhäufigkeiten für mehrere Standorte.

Die Interpretation der Ergebnisse anhand von Grafiken ist einfacher als anhand von Tabellen. Der Benutzer kann räumliche Standort- und Leistungsmessbalkendiagramme in den bearbeitbaren Safety Analyst-Bericht auf der dritten Registerkarte einbeziehen. Die tabellarischen Ergebnisse des Netzwerk-Screenings in Tabelle 4 sind ohne das Visualisierungstool schwer zu verwenden. Die Abbildungen 5(a) und 5(b) veranschaulichen jedoch die räumlichen Lagen von Kreuzungen mit Hilfe des Visualisierungstools [ 29 ], bestimmt mittels Netzwerk-Screening.

Die Vorteile der Entwicklung und Nutzung eines umfassenden Datenbanksystems für Verkehrssicherheitsstudien sind beträchtlich. In dieser Studie wurde ein umfassendes Datenbanksystem entwickelt, das Daten für mehrere Anwendungen für die Verkehrssicherheitstechnik und andere potenzielle Anforderungen bereitstellen kann. Darüber hinaus lieferte es die Methodik und Anleitung zur Entwicklung einer Datenbank aus den vorhandenen, leicht zugänglichen Datenquellen staatlicher DOTs und/oder MPOs. Die zum Aufbau der umfassenden Datenbank und Ansicht für Safety Analyst entwickelten Tools können von anderen Behörden verwendet werden, da diese nichtkommerzielle Software verwenden. Dieses System ermöglicht den Einsatz modernster Verkehrssicherheitsinstrumente, um die Entwicklung von Bundesanforderungen zu unterstützen sowie bessere Verkehrssicherheitslösungen für bestehende und aufkommende Probleme zu entwickeln. Diese Tools bieten erhebliche Einsparungen in Bezug auf Zeit, Geld und Leben.

Insbesondere hat das vorgeschlagene Datenbanksystem die Fähigkeit, Daten an Safety Analyst, die hochmoderne Software für das Straßensicherheitsmanagement, bereitzustellen. Obwohl Safety Analyst enorme Analysemöglichkeiten bietet, nutzen nur wenige Agenturen diese Möglichkeiten, da die Software einen erheblichen Datenbedarf, eine komplexe Entwicklung der erforderlichen Eingaben und mangelnde Erfahrung und Kenntnisse bei der Erstellung der Eingaben sowie der Verwendung der Software erfordert [ 26 ]. Das vorgeschlagene Datenbanksystem bietet zusammen mit seinen Datenmanagement- und Visualisierungstools eine erhebliche Unterstützung bei der Umgehung dieser Hindernisse. Dieses Datenbanksystem kann verwendet werden, um jurisdiktionsspezifische SPFs zu entwickeln, um Leistungskennzahlen genauer und präziser zu schätzen.

Diese Studie könnte erweitert werden, um Tools zu entwickeln, die basierend auf den Daten in der Safety Analyst-Ansicht verschiedene Site-Subtypen erstellen. Für diese Standort-Subtypen könnten SPFs entwickelt werden, und die Koeffizienten könnten in das Verwaltungstool eingegeben werden, um bessere Vorhersagen für die Unfallhäufigkeit zu erhalten. Vorhersagemethoden in Teil C des Handbuchs zur Straßenverkehrssicherheit [ 10 ] könnten verwendet werden, um SPFs zu entwickeln. In diesem Fall sollten die Entwickler von Safety Analyst die Fähigkeiten eines Administrationstools erweitern, um die behördenspezifischen Multiparameter-SPFs und deren Koeffizienten zu berücksichtigen.


So verwenden Sie mehrere Datensätze in einer einzelnen Tablix-Region in SSRS

Es gibt viele Fälle, in denen Sie möglicherweise einen SSRS-Bericht mit zwei oder mehr Datensätzen erstellen müssen. Möglicherweise müssen Sie auch Informationen aus beiden Datensätzen in derselben Tabelle in Ihrem Bericht anzeigen. Bei SSRS-Berichten können Sie jedoch, sobald Sie einen Datensatz für Ihre Tabelle ausgewählt haben, nur Felder aus diesem Datensatz auswählen – nicht aus dem zweiten. Wie können Sie also Werte aus dem anderen Datensatz in diese Tabelle übernehmen? Im heutigen Beitrag beantworten wir diese Frage!

Glücklicherweise gibt es eine Möglichkeit, dies zu tun. Sehen wir uns am Beispiel unten an, wie es gemacht wird…

Nehmen wir an, wir haben die folgenden zwei Datensätze:

Beachten Sie, dass wir speichern Zustand Werte in Datensatz 1 und Region (neue Region) Werte in Datensatz 2. In unserem Beispiel müssen wir einen Bericht mit einer Tabelle erstellen, die Name, Land, Bundesland und Region anzeigt, was bedeutet, dass wir beide Datensätze kombinieren müssen. Wir machen es so:

1. Neues hinzufügen Tablix und beginnen Sie mit dem Hinzufügen von Werten aus Dataset 1. Fügen wir Name, Country und State hinzu. Unsere Tablix wird so aussehen:

2. Um die vierte Spalte, Region, aus Datensatz 2 in diesem hinzuzufügen Tablix, fügen Sie wie gezeigt einen neuen Ausdruck hinzu:

3. In unserem Ausdruck verwenden wir die "Lookup"-Formel, um die entsprechenden Region-Werte in Datensatz 2 zu finden.

Die Lookup-Funktion ist wie folgt eingerichtet: Lookup(source_expression, destination_expression, result_expression, dataset)

In unserem Beispiel, source_expression ist neuer Name aus Datensatz 1, Zielausdruck ist neuer Name aus Datensatz 2, result_expression ist neue region aus Datensatz 2, und Datensatz ist der zweite Datensatz, aus dem wir die Regionswerte abrufen möchten, also Datensatz2.

Unser Ausdruck sieht also so aus:

Sobald Sie diesen Ausdruck festgelegt haben, erhalten Sie Region Werte in der gleichen Tabelle!

Beachten Sie abschließend, dass wir sicherstellen müssen, dass der Datensatz, zu dem wir "nachschlagen", eindeutige Werte hat. Dann können wir einfach die Lookup-Funktion verwenden und Werte aus diesem Datensatz abrufen und mit Daten aus unserem ursprünglichen Datensatz kombinieren, den wir für unsere Tabelle ausgewählt haben.


Analysieren

"Amber" bezieht sich auf zwei Dinge: einen Satz molekularmechanischer Kraftfelder für die Simulation von Biomolekülen (Amber) und ein Paket von molekularen Simulationsprogrammen, das Quellcode und Demos enthält (AmberTools).

ArcGIS Desktop

ArcGIS Desktop ist eine Sammlung von Softwareprodukten zum Erstellen vollständiger geografischer Informationssysteme (GIS). produziert von Esri. ArcGIS Desktop 9 bietet ein integriertes GIS, das objektorientierte und herkömmliche dateibasierte Datenmodelle mit einer Reihe von Werkzeugen zum Erstellen und Arbeiten mit geografischen Daten kombiniert. Die folgenden drei Anwendungen umfassen die ArcGIS Desktop-Softwaresuite:

ESRI ArcGIS Explorer

ArcGIS Explorer ist ein Viewer für geografische Informationssysteme (GIS) zum Erkunden, Visualisieren und Freigeben von GIS-Informationen. Es bietet eine frei verteilbare Möglichkeit, Produkte zu teilen, die von den kommerziellen Produkten von ESRI hergestellt werden.

Es gibt zwei Versionen: eine für den Desktop, die andere online. Die Online-Version bietet Unterstützung für zeitgesteuerte Karten.

ESRI ArcGIS ModelBuilder

Die ArcGIS Desktop-Software von ESRI enthält ModelBuilder, ein Workflow-Tool, mit dem konsistente, wiederholbare Modelle erstellt und ausgeführt werden können, die aus einem oder mehreren Verarbeitungsschritten bestehen. ModelBuilder kann verwendet werden, um die Integrität eines bestimmten Modells oder einer Reihe analytischer Prozesse durch Modellieren, Speichern und Veröffentlichen komplexer Operationen und Workflows sicherzustellen. ModelBuilder-Workflows können sowohl auf dem Desktop als auch über das Web erstellt und ausgeführt werden.

ESRI ArcMap

ArcMap ist das Arbeitspferd für die Kartenanzeige und -bearbeitung für das Softwarepaket ESRI ArcGIS Geographical Information System (GIS). Es wird am häufigsten für die Kartenerstellung verwendet, verfügt jedoch auch über umfassende Funktionen zum Bearbeiten und Analysieren. Die in ArcMap verfügbare "Toolbox" bietet eine enzyklopädische Auswahl an GIS-Datenbearbeitungs- und Analysefunktionen für fast jede Anwendung.

Kohlenstoffrechner für den Forstsektor

Der Waldsektor-Kohlenstoff-Rechner ist ein Tool, mit dem Benutzer lernen können, wie sich die Kohlenstoffspeicher im Wald im Laufe der Zeit verändern.

FRAGSTATS: Räumliches Musteranalyseprogramm für kategoriale Karten

FRAGSTATS ist ein Computersoftwareprogramm, das entwickelt wurde, um mit Geodaten zu arbeiten, um dem Benutzer bei der Kategorisierung von Landschaftsmustern und -metriken zu helfen, und ist nützlich bei der Identifizierung von Gebieten, in denen Landnutzungsaktivitäten zu einer Fragmentierung der Landschaft geführt haben. Die aktuelle Version ist Version 3.3

Das Programm wird derzeit einer weiteren großen Überarbeitung unterzogen, die zur Veröffentlichung der Version 4.0 irgendwann im Jahr 2011 führen wird.

HDFql

HDFql steht für "Hierarchical Data Format query language". Es ist eine Hochsprache für den Umgang mit HDF5-Dateien.

HDFql bietet eine einfachere, sauberere und schnellere Schnittstelle für HDF5 in C, C++, Java, Python, C# und Fortran.

HDFView

HDFView ist ein visuelles Tool zum Durchsuchen, Anzeigen, Verwalten und Bearbeiten von HDF4- (Hierarchical Data Format) und HDF5-Binärdateien. HDF-Dateien sind so konzipiert, dass sie große Mengen numerischer oder anderer Daten enthalten.

Mit dem Tool können Sie die hierarchische Dateistruktur anzeigen, neue Dateien, Gruppen, Datensätze, Datensatzinhalte und Attribute der Daten erstellen und bearbeiten.

IMacros für Firefox

iMacros wurde entwickelt, um die sich am häufigsten wiederholenden Aufgaben im Web zu automatisieren. Mit iMacros können Sie schnell Webformulare ausfüllen, sich Passwörter merken, eine Webmail-Benachrichtigung erstellen, Informationen von anderen Sites herunterladen, das Web durchsuchen (Daten von mehreren Sites abrufen) und vieles mehr. Sie können die Makros für Ihren eigenen Gebrauch auf Ihrem Computer behalten oder sie mit anderen teilen, indem Sie sie auf Ihrer Homepage, Ihrem Blog, Ihrem Firmen-Intranet oder einem Social Bookmarking-Dienst einbetten.

BildJ

ImageJ ist ein Open-Source-, Java-basiertes Bildverarbeitungs- und Anzeigetool. Es kann Bilder in den Formaten GIF, JPEG, BMP, PNG, PGM, FITS, ASCII und TIFF lesen und schreiben. Die Bearbeitungsfunktionen umfassen Bildverbesserung (z. B. Glätten, Schärfen, Kantenerkennung, Medianfilterung und Schwellenwertbildung), Bildmanipulation (z. B. Zuschneiden, Skalieren, Größenänderung, Drehen und Spiegeln) und sogar Analysen (z. B. Flächenmessung, mittlere Helligkeit, Standardabweichung) , minimale und maximale Helligkeit und Messung von Längen und Winkeln).

IMSL Numerische Bibliotheken

Die numerischen IMSL-Bibliotheken bieten eine Vielzahl von mathematischen und statistischen Algorithmen, die in verschiedenen Programmiersprachen geschrieben wurden, um sie von Programmierern leicht zu integrieren. Es gibt Bibliotheken für C, Fortran, Java, .NET und Python (über Wrapper). Diese Algorithmen sind nicht nur für Desktop-Anwendungen nützlich, sondern können auch auf High Performance Computing (HPC) und High Throughput Computing (HTC) angewendet werden.

JHOVE2

JHOVE2 ist eine Open-Source-Software zur Charakterisierung digitaler Objekte. Die Charakterisierung erfasst die Informationen über ein digitales Objekt, die die wesentlichen technischen Eigenschaften dieses Objekts beschreiben. Bei einer digitalen Bilddatei kann JHOVE2 beispielsweise das genaue Dateiformat sowie die herausragenden technischen Eigenschaften der Datei wie Auflösung, Bittiefe und Farbraum identifizieren. Die Erfassung dieser Informationen unterstützt die Analyse der digitalen Langzeitarchivierung und die Entscheidungsfindung.

JMP ist ein von SAS entwickeltes Desktop-Softwarepaket zur dynamischen Datenvisualisierung und statistischen Datenexploration. JMP enthält einen interaktiven Diagrammgenerator, der eine Vielzahl von zwei- und dreidimensionalen Diagrammtypen unterstützt, und statistische Berichte werden zusammen mit Diagrammen zur Bewertung und Interpretation angezeigt. Daten können aus gängigen Desktop-Dateiformaten (z.

Mathematik

Mathematica ist eine Computerplattform, die von Wissenschaftlern, Ingenieuren und Mathematikern verwendet wird. Mathematica bietet Unterstützung für das Lösen von Gleichungen, die numerische Analyse sowie die grafische Darstellung und Visualisierung. Mathematica verfügt über Import- und Exportfilter für Tabellendaten, Bilder, Video, Ton, CAD, GIS-Dokumente und biomedizinische Formate. Es gibt Unterstützung für Data-Mining-Tools wie Clusteranalyse, Sequenzausrichtung und Mustervergleich sowie Text-Mining-Unterstützung.

MATLAB

MATLAB ist eine interaktive Datenanalyse- und Visualisierungsumgebung, die verwendet werden kann, um rechenintensive Operationen an großen Datensätzen effizient durchzuführen. MATLAB bietet auch eine High-Level-Programmiersprache, die eine schnelle Entwicklung von Workflow-Skripten und Anwendungen der grafischen Benutzeroberfläche unterstützt, um sich wiederholende Aufgaben zu automatisieren.

MetaMorph

MetaMorph ist eine branchenübliche Bildanalyse-Suite und Erfassungsplattform.

Die MetaMorph-Softwaresuite unterstützt eine breite Palette von Mikroskopen, Kameras und Präzisionstischen, die in der Bioforschung verwendet werden. Die Software bietet Erfassungs-, Verarbeitungs- und Analysefunktionen, die es Forschern ermöglichen, benutzerdefinierte Bildgebungssysteme zu entwickeln, um experimentelle Probleme bei der zellulären Bildgebung zu lösen.

National Instruments LabVIEW

National Instruments LabVIEW ist eine hochentwickelte Anwendung für die Erstellung und Verwaltung von technischen und wissenschaftlichen Mess-, Test-, Datenerfassungs- und Kontrollsystemen. LabVIEW enthält eine grafische Benutzeroberfläche, mit der externe Hardwaregeräte wie mechanische oder elektronische Sensoren mit "Point-and-Click"-Methoden konfiguriert und bedient werden können. Netzwerke von Sensoren und Verarbeitungsgeräten können über flussdiagrammartige "Draht"-Verbindungen miteinander verbunden werden.

KnotenXL

NodeXL ist eine kostenlose Open-Source-Vorlage für Excel 2007 und 2010, mit der Sie eine Netzwerk-Edge-Liste eingeben, auf eine Schaltfläche klicken und das Netzwerkdiagramm anzeigen können, alles im Excel-Fenster.

Oktave

GNU Octave ist eine Hochsprache, die hauptsächlich für numerische Berechnungen gedacht ist. Es bietet eine Befehlszeilenschnittstelle zum numerischen Lösen linearer und nichtlinearer Probleme und zum Durchführen anderer numerischer Experimente mit einer Sprache, die größtenteils mit MATLAB kompatibel ist. Es kann auch als Batch-orientierte Sprache verwendet werden.

OpenBUGS

OpenBUGS ist eine Software zum Ausführen von Markov Chain Monte Carlo (MCMC)-Simulationen nach der Bayesschen statistischen Theorie. Es ist eines von zwei Softwarepaketen, die für Bayesian Inference Using Gibbs Sampling oder BUGS erstellt wurden. OpenBUGS wird so genannt, weil es auf mehreren Betriebssystemen läuft. Die WinBUGS-Software kann mit Windows-Betriebssystemen verwendet werden (siehe WinBUGS-Tool in der DataONEpedia für Details).

Oriana

Oriana ist ein Tool zum Berechnen von Statistiken für kreisförmige oder radiale Daten (Winkel oder Richtungen gemessen in Grad, Tageszeit, Wochentag, Monat usw.). Es kann für Orientierungsdaten (von einem Punkt ausgehende Richtung), für die Beschreibung und den Vergleich von zeitlichen Verteilungen und Verbreitungsgebieten von Arten sowie für andere Arten von Daten verwendet werden, die in den meisten Statistikpaketen nicht direkt verarbeitet werden.

Panoply-Datenanzeige

Panoply ist eine plattformübergreifende Anwendung, die geo-gerasterte Arrays aus netCDF-, HDF- und GRIB-Datensätzen zeichnet. Es unterstützt die folgenden Operationen:

Projekt Dreizack

Project Trident ist eine wissenschaftliche Workflow-Workbench, mit der Benutzer Workflows visuell erstellen können, indem sie einen Katalog bestehender Aktivitäten und vollständiger Workflows verwenden. Die Workflow-Workbench bietet eine abgestufte Bibliothek, die die Komplexität verschiedener Workflow-Aktivitäten und -Dienste aus Gründen der Benutzerfreundlichkeit verbirgt. Trident unterstützt: Analyse- und Visualisierungsworkflows Komponieren, Ausführen, Katalogisieren von Experimenten als Workflows sowie Erfassen von Provenienzinformationen.

SAS Enterprise Miner

SAS Enterprise Miner rationalisiert den Data-Mining-Prozess, um prädiktive und beschreibende Modelle basierend auf der Analyse großer Datenmengen zu erstellen. Auf Daten kann von lokalen Dateien oder von entfernten Datenbankverbindungen zugegriffen werden. Die Data-Mining-Software von SAS verwendet eine interaktive Point-and-Click-Schnittstelle, um Arbeitsabläufe und Analysediagramme zu erstellen und diese dann auszuführen. SAS Miner kann Daten mithilfe von Filtern und statistischen Analysen transformieren und manipulieren, um gewünschte Daten aus großen Datensätzen zu extrahieren.

Wissenschaftliche Python-Entwicklungsumgebung (SPYDER)

SPYDER ist eine kostenlose Softwareumgebung für Visualisierung, numerische Berechnung und Datenanalyse. Es bietet eine grafische Entwicklungsumgebung für die Programmiersprache Python und nutzt viele wissenschaftliche und technische Pakete, darunter Matplotlib, NumPy und andere. Es ist unter Windows, Mac OS X und GNU/Linux verfügbar.

SpatiaLite

SpatiaLite ist eine Erweiterung der SQLite-Datenbank, die es ermöglicht, räumliche Daten zu unterstützen.

SpatiaLite entspricht den OpenGIS-Spezifikationen. Es hat die folgenden Funktionen:

SpotFire

Spotfire ist ein Datenanalyse- und Visualisierungstool. Es ermöglicht Benutzern, Ad-hoc-Analysen durchzuführen und benutzerdefinierte Analyseanwendungen zu erstellen. Es unterstützt Datenimporte aus Tabellenkalkulationen und relationalen Datenbanken sowie Echtzeit- und ereignisgesteuerte Daten. Neben der Visualisierung beinhaltet Spotfire auch Statistikfunktionen.

Spotfire-Bergmann

Spotfire Miner ist eine Software zum Data Mining großer Datensätze. Es wird kommerziell von TIBCO verkauft.

Benutzer können eine Verbindung zu entfernten oder lokalen Datensätzen herstellen, statistische und methodische Filter anwenden, die Daten bereinigen und transformieren und schließlich ein Modell anwenden, um die gewünschten Mining-Daten zu erzeugen. Statistische Modelle umfassen Clustering, Regressionsanalyse und Hauptkomponentenanalyse. Auf historischen Daten basierende Modelle können dann verwendet werden, um zukünftige Ergebnisse basierend auf neu gewonnenen Daten vorherzusagen.

SPSS ist ein Desktop-Statistik-Softwarepaket, das sich auf Modellierung und Statistik konzentriert. SPSS kann auf Daten aus vielen verschiedenen proprietären und Open-Source-Datensätzen zugreifen und verfügt über anständige Grafiken und sehr gute statistische Modellierungsfunktionen. Eine Schwäche (bis Version 17) ist die Darstellungsqualität von Grafiken. Andere Pakete machen einen viel besseren Job bei der Datenpräsentation.

SPSS Amos

IBM SPSS Amos ist ein Tool zur Modellierung von Strukturgleichungen. Es verfügt über Drag-and-Drop-Zeichenwerkzeuge und erstellt Grafiken der endgültigen Modelle zur Präsentation.

Amos verwendet Standardmethoden – einschließlich Regression, Faktorenanalyse, Korrelation und Varianzanalyse. Es kann verwendet werden, um Modelle zu erstellen, um Hypothesen zu testen und Beziehungen zwischen Variablen zu bestätigen.

Tableau

Tableau unterstützt die Analyse von Tabellendaten aus Tabellenkalkulationen und relationalen Datenbanken. Das Tool bietet eine visuelle Schnittstelle, die es Benutzern ermöglicht, Daten zu importieren und die Daten interaktiv durch Visualisierungen zu erkunden. Diese Visualisierungen werden über eine grafische Benutzeroberfläche erstellt, die es Benutzern ermöglicht, Abfragen durch Ziehen und Ablegen von Attributnamen aus Tabellen und Tabellenkalkulationen zu erstellen.

Tika Java-Klassenbibliothek verfügbar über die Apache-Gruppe. Es unterstützt die Medientyperkennung basierend auf Dateitypsignaturen, Metadatenextraktion sowie Textparsing und -extraktion.

Unterstützte Dokumentformate:

TMI-Orion QLEVER

TMI-Orion ist Hersteller von Datensensoren und Datenloggern. Sie verfügen über eine kundenspezifische Software namens QLEVER zum Konfigurieren, Testen, Aufzeichnen von Daten und Erstellen grundlegender Statistiken zu den von den Sensoren stammenden Datenströmen. Die Software kann die Sensoren (in einigen Fällen aus der Ferne) verwalten und die Batterielebensdauer und die technische Leistung des Sensors auswerten.

UCI-Netz

UCINET ist ein umfassendes Paket zur Analyse von Social-Network-Daten sowie anderen 1-Mode- und 2-Mode-Daten. Zu den Methoden der sozialen Netzwerkanalyse gehören Zentralitätsmessungen, Subgruppenidentifikation, Rollenanalyse, elementare Graphentheorie und permutationsbasierte statistische Analyse. Darüber hinaus verfügt das Paket über leistungsstarke Matrixanalyseroutinen, wie z. B. Matrixalgebra und multivariate Statistik.

Integriert in UCINET ist das Programm NetDraw zum Zeichnen von Diagrammen sozialer Netzwerke.

WEKA ist ein Data-Mining-Tool. Es ist eine Sammlung von Standardalgorithmen für maschinelles Lernen, die organisiert und dem Benutzer als Werkbank präsentiert werden.Die Algorithmen können direkt aus der Workbench auf einen Datensatz angewendet oder aus Java-Code aufgerufen werden. Neue Klassifikatoren, Filter usw. können über die GUI hinzugefügt werden.

WEKA ist in Java geschrieben und läuft auf Plattformen, die Java unterstützen. Es steht unter der GNU Public License (GPL).

WinBUGS

WinBUGS ist eine Software zum Ausführen von Markov Chain Monte Carlo (MCMC)-Simulationen nach der Bayesschen statistischen Theorie. Es ist eines von zwei Softwarepaketen, die für Bayesian Inference Using Gibbs Sampling oder BUGS erstellt wurden. WinBUGS wird so genannt, weil es auf Windows-Betriebssystemen läuft. Die OpenBUGS-Software kann auch auf anderen Betriebssystemen verwendet werden (siehe OpenBUGS-Eintrag).


2 Antworten 2

Verwenden Sie rasterToPoints - zum Beispiel:

Sie erhalten am Ende 86 Millionen Zeilen, obwohl Zellen mit NA nicht zurückgegeben werden.

Vielen Dank! Als Follow-up - um nur einen Teil der Karte (z. B. ein Polygon) zu extrahieren, habe ich ein Polygon mit polyTara <-SpatialPolygons(. ) erstellt. Wie würde ich dies anwenden, bevor ich die Punkte extrahiere?

Sie können raster::extract() verwenden, um die Rasterwerte aus einem beliebigen Spatial*-Objekt abzurufen. Extract(your_raster, your_polgon) gibt beispielsweise einen Datenrahmen der Pixelwerte zurück. Von hier aus ist es einfach, zusammenfassende Statistiken zu erstellen (wie die, die Sie von ArcGIS’s Zonal Statistics as Table erhalten würden).

Wie kann man einen Attributwert aus einem Raster von einem Punkt (lat/long) extrahieren?

Beispieldaten: Raster mit Attributtabelle - interessierender Wert ist die Temperatur

Ich habe eine Liste von Punkten mit Lat/Long-Werten, für die ich die Temperaturwerte extrahieren möchte. Das Raster enthält mehrere Attributwerte, temp ist nicht der "Pixel"-Wert

Dies beantwortet die Frage nicht wirklich. Wenn Sie eine andere Frage haben, können Sie diese stellen, indem Sie auf Frage stellen klicken. Sie können auch ein Kopfgeld hinzufügen, um mehr Aufmerksamkeit auf diese Frage zu lenken, sobald Sie genügend Ruf haben. - Aus Bewertung

Wenn Sie eine neue Frage haben, stellen Sie diese bitte, indem Sie auf die Schaltfläche Frage stellen klicken. Fügen Sie einen Link zu dieser Frage hinzu, wenn er den Kontext liefert. - Aus Bewertung


Tore

GIS-/Fernerkundungstechniken, die die Schüler in dieser Aufgabe lernen
Das Konvertieren von rohen .las-Dateien in Mehrpunktdateien Erstellen eines Terrains für den ersten und den letzten gibt das Konvertieren eines Terrains in ein Höhenraster zurück, das Herunterladen von Daten von einem GPS-Gerät und das Erstellen eines Shapefiles, das eine Linie in eine bestimmte Richtung für eine bestimmte Entfernung zu einer bestimmten XY-Koordinate zeichnet und Hinzufügen eines Punkts Bearbeiten eines Shapefiles, einschließlich Hinzufügen eines Punkts mit Koordinatenwerten, Löschen eines Datensatzes, Hinzufügen von Feldern (und Bestimmen von Feldtyp, Genauigkeit und Maßstab), Berechnen von Geometrien und Ausführen von Berechnungen mit dem Feldrechner Extrahieren von Werten zu Punkten mit Interpolation zu Erstellen Sie ein Raster aus einer Reihe von Punkten und zeigen Sie es in ArcScene mit Model Builder an.

Andere Inhalts-/Konzeptziele für diese Aktivität

Ziele für höhere Denkfähigkeiten für diese Aktivität
Qualitätsbewertung aller Daten und Bewertung der Gültigkeit verschiedener Interpolationstechniken Empfehlung, wo der nächste Brunnen gebohrt werden sollte, um den Grundwasserspiegel unter dem Campus genauer zu definieren.


Extrahieren mehrerer Werte aus einer Tabelle in ArcGIS ModelBuilder? - Geografisches Informationssystem

Vektoranalyse II: Topologische Überlagerung

Die topologischen Überlagerungsprozesse bilden den Kern der ursprünglichen ArcInfo-Toolbox. Tatsächlich wurde die topologische Überlagerung von ArcInfo und seinen Vorgängern wie Odyssey ursprünglich entwickelt. Die topologische Überlagerung ermöglicht es uns, Fragen zu stellen wie "Wo sind Standorte auf instabilen Böden, undmit einer Steigung im Bereich von 25-40%, unddie in den letzten 15 Jahren geerntet wurden, undauf Standorten mit geringer Produktivität und wie groß ist ihr Flächenanteil in Bezug auf das gesamte Einzugsgebiet??"

Topologische Überlagerung ist ein Prozess, bei dem separate Schichten mit derselben räumlichen Ausdehnung auf unterschiedliche Weise zusammengeführt werden. Der Landschaftsarchitekt Ian McHarg entwickelte eine analoge Methode, einen Vorläufer der digitalen Umsetzung innerhalb von GIS. Sein Ansatz bestand darin, auf Acetat- oder Mylar-Blättern gezeichnete Karten übereinander zu legen und den Stapel an ein Fenster oder auf einen Leuchttisch zu kleben. Überlappungsbereiche waren dunkler als nicht überlappende Bereiche. Das GIS funktioniert ähnlich, außer dass die Eingabe und Ausgabe genauer und präziser und einfacher zu verwalten ist.

Der Grund, warum diese Operationen als "topologische" Überlagerung bekannt sind, liegt darin, dass der Überlagerungsprozess die Wiederherstellung der topologischen Beziehungen beinhaltet, die die Schichten funktionieren lassen. Im GIS, wo sich Linien zwischen einem Layer und einem anderen schneiden, werden Scheitelpunkte erstellt. Wo Linien oder Punkte denselben Raum wie Polygone teilen, erben die Linien und Punkte die Attribute der räumlich entsprechenden Polygone. Es werden neue Layer gebildet, die die Attribute oder Koordinateneigenschaften von Eingabedatensätzen übernehmen können. Einige oder alle Features aus den Eingabedatensätzen werden an die Ausgabe weitergegeben. Attributwerte aus beiden Eingabedatensätzen werden an die Ausgabedatensätze weitergegeben.

Topologische Überlagerung unterscheidet sich von der Nach Ebene auswählen Operationen, die in der letzten Lektion beschrieben wurden. Bei den Operationen "Nach Layer auswählen" betrachtet ArcGIS nur die räumliche Überlappung der Features von zwei Layern und erstellt einen neuen ausgewählten Satz in einem dieser Layer. Es werden keine neuen Datasets erstellt und es werden keine Attributaktualisierungen vorgenommen. Im Topologische Überlagerung, werden neue Layer erstellt, deren Geometrie und/oder Attributstruktur geändert werden. Die topologische Überlagerung ermöglicht es uns, überlappende Merkmale zu finden und die Fläche oder Länge der Überlappung zu quantifizieren.

Pufferung ist ein separates Thema von topologischer Überlagerung, wird jedoch häufig mit Überlagerung gebündelt, da die Ergebnisse der Pufferung meistens in nachfolgenden Überlagerungsanalysen verwendet werden, um die Eigenschaften der Landschaft innerhalb einer Pufferfläche zu quantifizieren.

In ArcGIS sind Geoverarbeitungsvorgänge, einschließlich topologischer Überlagerungsvorgänge, über ArcToolbox zugänglich.

ArcToolbox ist als andockbares Fenster in allen anderen ArcGIS Desktop-Anwendungen (ArcMap, ArcCatalog, ArcGlobe, ArcScene) vorhanden. Die Overlay- und Proximity-Methoden für Feature-Classes (Shapefiles und Geodatabases) sind innerhalb der Analysetools Baum innerhalb von ArcToolbox:

Ein ähnlicher Satz von Operationen ist für ArcInfo-Coverage-Daten verfügbar:

Die folgenden Cartoon-Layer werden verwendet, um die Funktionalität jeder verschiedenen topologischen Überlagerungsoperation zu veranschaulichen. Die Probenschichten sind Ring und Box. Notiere dass der Ring Layer hat ein numerisches Attribut, während die Box Layer hat ein Textattribut. Wenn der numerische Wert undefiniert ist, platziert ArcGIS eine 0, wo der Zeichenfolgenwert undefiniert ist, gibt es überhaupt keinen Wert.

Jede der Überlagerungsoperationen führt zu neuen Datensätzen. Bei Ausgabe-Datasets wird die Feature-Geometrie fast immer geändert. In Fällen, in denen Geometrie geändert wird, ist es möglich, Geometrieattribute (z. B. Fläche, Umfang, Länge) zu aktualisieren. Die Neuberechnung der Geometrie sowie das Zusammenfügen von Benutzerattributen gibt den Überlagerungsoperationen die Macht.

Topologische Überlagerungstypen

Anhängen wird verwendet, um mehrere Datensätze zusammenzuführen, die dieselben thematischen Daten darstellen, aber zusammenhängend sind. Hier ist ein Beispiel, das zwei einzelne Shapefiles von öffentlichen Landvermessungsabschnitten zeigt. Im Bild unten sehen Sie die 2 Datensätze (Abschnitte_Nord und Abschnitte_süd Beachten Sie, dass die vollständigen Datensätze teilweise durch den Waldumriss verdeckt sind).

Nach dem Anhängen gibt es einen einzigen Datensatz (Abschnitte).

Wenn 2 Schichten sind Vereint, werden alle Features aus beiden Eingabe-Layern kombiniert. Alle Attributelemente aus dem Eingabe-Layer und dem Overlay-Layer werden in die Ausgabe eingeschlossen. Die Reihenfolge der Eingaben spielt keine Rolle.

Überall dort, wo Sie in der Ausgabe einen Schnittpunkt zwischen Linien sehen, befindet sich ein Knoten. Jeder umschlossene Bereich, den Sie sehen, ist ein separates Polygon mit eigenem Datensatz.

Beachten Sie, dass die Nullbereiche von jeder der Eingabeebenen entweder null (für ein Zeichenelement) oder 0 (für ein numerisches Element) sind. In der Ausgabe, außerhalb der Box, gibt es Nullwerte für das Textfeld. Außerhalb von Ring, gibt es Nullwerte für das numerische Feld. Beachten Sie auch, wie alle Eingabe-Features beibehalten wurden, aber neue Polygone an Schnittpunkten von Eingabe-Polygonen erstellt wurden. Attribute werden zusammengeführt, wo Überlappungsbereiche vorhanden sind. Wo es keine Überlappung gibt, werden nur die Eingabeattribute beibehalten.

Hier ist ein Beispiel für eine Vereinigung einiger Waldbestands- und Bodenpolygone.

Beachten Sie, wie alle Features aus beiden Original-Datasets im Ausgabe-Dataset erhalten bleiben. Überall dort, wo Überlappungsbereiche vorhanden sind, werden neue Polygone erstellt.

Eine Identifizierung eines der Polygone zeigt, dass das Ausgabe-Dataset Attribute von . enthält beide Eingabedatensätze (Bodenattribute in Grün und Bestandsattribute in Rot).

Das Identität -Funktion behält alle Features des Eingabe-Layers bei, übernimmt jedoch Features aus dem Identitäts-Layer, die sich mit dem Eingabe-Layer überschneiden. Die Koordinateneigenschaften des Ausgabe-Layers hängen davon ab, welche der Eingaben der Identitäts-Layer ist. Dies ist der Union-Funktion sehr ähnlich, enthält jedoch einen Clip an der Polygongrenze des Eingabe-Layers.

Eingabeschicht

Identitätsschicht

Ausgabeschicht

Eingabeschicht

Identitätsschicht

Ausgabeschicht

Beachten Sie, dass in der Identitätsfunktion die Rangfolge wichtig ist. An Stellen, an denen es zu Überschneidungen kommt, wurden alle Attribute zusammengefügt. Wo es keine Überschneidungen gibt, wurden nur Eingabeattribute beibehalten.

Hier ist ein Beispiel für eine Identität, die auf dem National Wetland Inventory (NWI) als Eingabeschicht mit Beständen als Identitätsschicht durchgeführt wurde. Der Ausgabe-Layer hat dieselbe räumliche Ausdehnung wie der ursprüngliche NWI-Layer, aber wenn Sie genau hinschauen, werden Sie feststellen, dass es zusätzliche Polygongrenzen gibt, die durch die Überlappung von Bestandspolygonen auf NWI-Polygonen gebildet werden.

Die Attribute sind auch in einer Identität verbunden, wie die Ergebnisse dieser Identifizierung zeigen:

Das Schneiden Die Operation ist ähnlich wie bei den anderen Overlay-Befehlen, aber nur die Bereiche, die zwischen den beiden Eingängen gemeinsam sind, werden in die Ausgabe aufgenommen. Im Gegensatz zur Identität spielt die Reihenfolge von Eingabeebene und Schnittebene keine Rolle.

Die einzigen Bereiche, die in der Ausgabe vorhanden sind, sind Bereiche, die in beiden Eingaben vorhanden sind (ähnlich einer Schnittmenge mathematischer Mengen). Für diese Bereiche bleiben alle Attribute aus beiden Eingaben erhalten.

Hier sind die gleichen Eingabedatensätze wie zuvor, mit einem Schnitt auf den Beständen und NWI-Schichten. Der Ausgabedatensatz (in Rosa) ist räumlich auf den gemeinsamen Bereich zwischen den Eingabeschichten beschränkt. Das Hellblau im Hintergrund ist der ursprüngliche NWI-Datensatz, aber Sie können sehen, dass der rosafarbene Datensatz vom Rand der Waldbestände abgeschnitten ist.

Die Schnittdaten weisen auch Attribute aus beiden Eingabedatensätzen auf.

Aktualisieren ersetzt überlappende Teile des Eingabe-Layers durch Features aus dem Update-Layer.

Wie bei Identität, Rangfolge ist wichtig mit Aktualisieren. In der Ausgabeschicht sind nur die Attribute der Eingabeschicht vorhanden. Wenn für bestimmte Felder keine Werte vorhanden sind, sind die Werte null (Nullwerte sind leer für Zeichenfolgenfelder, 0 für numerische Felder).

Hier wurden die Bodendaten durch die Seendaten aktualisiert. Der neue Layer enthält neue Polygone von hinzugefügten Beständen und überschrieben alle vorhandenen Bodenpolygone. Dieses Bild zeigt die ursprünglichen Bodendaten.

Und aktualisiert mit den Seen:

Hier wird eines der neuen Polygone ausgewählt. Tatsächlich gibt es aufgrund der Überlappung der Update-Polygone auf den ursprünglichen Böden zwei Polygone.

Clip schneidet Teile der Eingabeebene mit der äußeren Form der Clipebene aus. Nur Attribute aus der Eingabeschicht werden beibehalten.

Eingabeebene

Clip-Ebene

Ausgabeschicht

Eingabeschicht

Clip-Ebene

Ausgabeschicht

ClipAuch die Rangfolge von ' ist von Bedeutung, wie Sie oben an zwei Sätzen unterschiedlicher Bilder sehen können.

Hier ist der Satz von Dükerinventar-Polygonen, die zuvor für das Pack Forest-Gebiet erstellt wurden und durch die Verwaltungsgrenze abgeschnitten wurden. Nur die ursprünglichen Inventarbereichsattribute bleiben erhalten.

Sie sehen, dass innerhalb des Verwaltungsgebiets die internen Grenzen mit dem ursprünglichen Datensatz identisch sind, der neue Datensatz jedoch durch die Verwaltungsgrenze räumlich begrenzt ist.

Eine Kreuzung von Straßen und der Grenze hätte ein Dataset mit denselben räumlichen Eigenschaften wie diese Ausgabe erstellt, aber auch Grenzattribute wären in der Ausgabeattributtabelle platziert worden.

Erase entfernt Teile des Eingabe-Layer-Layers basierend auf den räumlichen Eigenschaften des Erase-Layers. Attribute von der Eingabeschicht werden an die Ausgabeschicht übergeben, und keines der Attribute der Löschschicht wird an die Ausgabe übertragen. Wie bei einigen anderen topologischen Überlagerungsoperationen spielt die Reihenfolge der Eingabe- und Löschschicht eine Rolle.

Eingabeebene

Ebene löschen

Ausgabeschicht

Eingabeschicht

Ebene löschen

Ausgabeschicht

Hier wird die Bodenschicht gelöscht, wobei die Seen als Radiergummi verwendet werden. Alle Bereiche in der Bodenebene, die sich mit Seenpolygonen überlappen, werden gelöscht. Die Ausgabeattributtabelle hat dieselbe Struktur wie die Eingabeattributtabelle (Boden).

Feature-Geometriewerte

Einer der Hauptgründe für die Durchführung jeglicher Art von topologischer Überlagerung besteht darin, quantitative Messungen der Überlappung zwischen Schichten zu erhalten. Die Länge von Linien-Features und Fläche und Umfang von Polygon-Features ist eine inhärente Eigenschaft der Features, aber diese Messungen sind nicht immer in Attributtabellen vorhanden, und nur in einigen Fällen werden die Geometriemessungen während der Overlay-Verarbeitung aktualisiert. Hier ist eine Zusammenfassung:


Hinweis: Dieser Beitrag ist ein Update aus dem Jahr 2013 zu meinem früheren Beitrag zum Thema GIS lernen und einen GIS-Job bekommen – einige Tipps und Tricks, der ursprünglich 2009 veröffentlicht wurde.

Im Jahr 2009 habe ich einen Beitrag darüber geschrieben, wie man einen GIS-Job erhält, der sich auf Wege zum Erlernen von GIS, kritische Fähigkeiten, die jeder GIS-Analyst kennen sollte, und Möglichkeiten zur Erweiterung traditioneller Lernwege konzentrierte, um Sie von anderen Stellenbewerbern abzuheben. Auch wenn dieser Beitrag weit über 3 Jahre alt ist, wird er immer noch von Leuten gelesen, die sich für das Thema interessieren und ich erhalte immer noch Kommentare.

Ich habe den Beitrag vor kurzem noch einmal gelesen und entschieden, dass ein Update in Ordnung ist. Die Software hat sich verändert und alte Fähigkeiten müssen durch neue Fähigkeiten ersetzt werden, um mit der sich entwickelnden GIS-Softwarebranche Schritt zu halten. Der Kürze halber habe ich mich in diesem neuen Beitrag auf Änderungen und Überarbeitungen der Empfehlungen in meinem früheren Beitrag konzentriert. Ich habe auch Links zu Ressourcen hinzugefügt und einige Themen erläutert, die ich beim letzten Mal vorgestellt habe. Bitte lesen Sie also diesen Beitrag vor diesem, damit Sie ein vollständiges Bild davon haben, was sich geändert hat.

Der Einfachheit halber habe ich mich auf die Fähigkeiten konzentriert, die für eine Position als GIS-Analyst/Spezialist erforderlich sind. GIS-Entwickler und GIS-Datenbankmanager verfügen über unterschiedliche Fähigkeiten, die sich mit einigen dieser Fähigkeiten überschneiden können, aber auch spezifische Fähigkeiten beinhalten, die nicht zum alltäglichen Toolkit von GIS-Analysten gehören und hier nicht enthalten sind.

Lernpfade

Es gibt eine Vielzahl von Gründen, warum Sie GIS lernen möchten. Sie sind möglicherweise in einem Nicht-GIS-Bereich beschäftigt und lernen GIS im Rahmen Ihres Jobs. Vielleicht wechseln Sie den Beruf oder bilden sich um, um einen neuen Job in der wachsenden Geoinformatik zu finden. Vielleicht sind Sie ein Student, der GIS lernen möchte, um Ihr Studienfach zu unterstützen, oder Sie sind ein Student mit einem Schwerpunkt in GIS oder Geographie mit dem Wunsch, einen Job im Bereich GIS zu bekommen.

Abhängig von Ihrem Ziel gibt es verschiedene Wege, um mit dem Erlernen von GIS zu beginnen:

Formaler GIS-/Geographie-Abschluss

Wenn Sie einen Bachelor- oder Master-Abschluss mit den Schwerpunkten GIS oder Geographie erwerben möchten, sollten Sie an einer Volkshochschule oder Universität beginnen, wo Sie akkreditierte GIS-Kurse belegen können, die Ihren Anforderungen entsprechen.

Beruflich, Weiterbildung

Wenn Sie GIS-Kenntnisse für Ihren aktuellen Job suchen oder sich für eine sofortige Anstellung umrüsten möchten, ist es möglicherweise besser, ein professionelles Zertifikatsprogramm in GIS an einer örtlichen Volkshochschule oder Universitätserweiterung zu finden. Diese Programme sind in der Regel nicht akkreditiert, was bedeutet, dass sie wahrscheinlich nicht zur Erfüllung der Anforderungen für einen formalen Abschluss in GIS zählen, aber sie sind eine großartige Möglichkeit, GIS schnell zu erlernen und leicht anwendbare Fähigkeiten zu erwerben, die Ihnen beim Eintritt in den Markt helfen. Darüber hinaus werden viele professionelle Zertifikatsprogramme von Fachleuten unterrichtet, die in diesem Bereich tätig sind, sodass Sie aus erster Hand Informationen darüber erhalten, wie GIS von den Menschen verwendet wird, die es täglich verwenden. Diese Programme sind auch fantastische Orte, um sich mit potenziellen zukünftigen Arbeitgebern zu vernetzen.

Wenn Sie den professionellen Zertifikatspfad benötigen, erkundigen Sie sich bei lokalen Community Colleges und Universitäten in Ihrer Nähe, ob diese über ein professionelles, erweitertes oder weiterführendes Zertifikatsprogramm in GIS oder Geowissenschaften verfügen. Wenn es in Ihrer Nähe keine Schule gibt, die Zertifikate oder Abschlüsse in GIS anbietet, stehen Ihnen heute eine Reihe hervorragender Online-Programme zur Verfügung, darunter:

Diese Liste ist keineswegs vollständig, wenn Sie also andere nicht aufgeführte Programme kennen, fügen Sie diese bitte als Kommentar zu diesem Beitrag hinzu.

Sowohl URISA als auch ESRI führen auch eine Liste von Universitäten, daher sollten Sie auch deren Websites überprüfen:

Es gibt auch eine Reihe von spezifischen kostenlosen Kurzkursen und technischen Workshops auf der ESRI Virtual Campus-Website.

Erfahren Sie, was Arbeitgeber wollen

Vertrauen Sie nicht unbedingt darauf, dass Ihr GIS-Zertifikat oder Ihr Studiengang Ihnen alle Fähigkeiten vermittelt, die Sie für einen GIS-Job benötigen. Ich habe zu viele Kandidaten interviewt, die ein GIS-Zertifikatsprogramm abgeschlossen haben, aber nur ArcGIS bedienen konnten. Obwohl ArcGIS-Kenntnisse eine wichtige Voraussetzung für einen GIS-Analysten sind, gibt es eine Reihe anderer Hard- und Soft Skills/Techniken, die Sie kennen sollten, um ein würdiger Jobkandidat zu sein.

Sie sollten mindestens mit der Verwendung der ESRI ArcGIS-Software (und Erweiterungen wie Spatial und 3D Analyst) vertraut sein und in der Lage sein, kartographisch ansprechende Ergebnisse zu erstellen. Von GIS-Analysten und -Technikern wird jedoch auch Folgendes erwartet:

  • Kartografische Produktion
  • Datenerstellung
  • Entwurf und Erstellung von Geodatenbanken
  • Datenbearbeitung
  • Topologie
  • Projektionen
  • GIS-Analyse
  • Geoverarbeitung
  • GPS-Datenerfassung
  • Luftbildinterpretation
  • Georeferenzierung
  • Datenkonvertierung
  • Metadatenimplementierung

Arbeitgeber erwarten von GIS-Analysten auch Erfahrung mit:

  • Mindestens ein nicht-räumliches Datenbankverwaltungssystem (Microsoft Access, Oracle, MySQL usw.)
  • Microsoft Office (Excel, Word, Outlook, PowerPoint und Access).

Schließlich verlangen die meisten Stellenausschreibungen von GIS-Analysten auch einen Bachelor-Abschluss in Geographie, Geographischen Informationssystemen (GIS), Kartographie, Informatik oder einer verwandten Disziplin. (Verwandte Disziplinen können Landschaftsarchitektur, Städtebau, Geologie etc. sein.). In vielen Fällen akzeptieren Arbeitgeber einen Abschluss in einem nicht verwandten Bereich mit Nachweis des Abschlusses eines GIS-Zertifizierungsprogramms oder nachweislicher Erfahrung mit GIS.Während GIS-Technikerpositionen oft nur sehr wenige Jahre Erfahrung erfordern, ist es typisch, dass Arbeitgeber mindestens 3 Jahre GIS-Erfahrung für GIS-Analysten benötigen. Lassen Sie sich von diesen Zahlen jedoch nicht davon abhalten, sich auf eine Stelle zu bewerben. In den meisten Fällen sind dies „gewünschte“ Qualifikationen für einen „perfekten“ Kandidaten. „Perfekte“ Kandidaten sind selten, daher akzeptieren Arbeitgeber häufig weniger qualifizierte Kandidaten, und hier können Sie mit Ihrer Erfahrung und Ihren Fähigkeiten glänzen.

Zusätzlich zu den Mindestqualifikationen werden die folgenden Fähigkeiten häufig in Ausschreibungen für GIS-Analyst-Positionen aufgeführt:

  • SQL
  • Programmierung/Skripting mit Python
  • ArcGIS Server / SDE
  • Modellbauer
  • Trimble Pathfinder
  • ArcGIS Mobile
  • AutoCAD und Integration von GIS und CAD
  • Adobe Photoshop
  • Adobe Acrobat Pro
  • Adobe Illustrator
  • Erfahrung in der Entwicklung von Webanwendungen (Net, Java, Python, PHP, HTML, JavaScript oder Flex)

Schließlich geht es nicht nur um technische Fähigkeiten, die Arbeitgeber suchen auch nach GIS-Mitarbeitern, die:

  • Kann neue Technologien, Fähigkeiten und Softwareplattformen/-erweiterungen schnell mit minimaler Aufsicht erlernen
  • Sind gut in der Problemlösung und Fehlersuche
  • Sie sind eigenmotiviert und proaktiv
  • Kann Multitasking betreiben und Prioritäten mit der Arbeitsbelastung ausgleichen
  • Kann flexibel an ungeplanten Projekten/Ereignissen arbeiten
  • Kann sowohl selbstständig arbeiten als auch in einer Teamumgebung gut funktionieren
  • Sind in der Lage, Einsteigern komplexe GIS-Konzepte zu vermitteln.
  • Zeigen Sie Liebe zum Detail und zum Prozess
  • Eigeninitiative zeigen, um effizient zu arbeiten und Arbeit zu suchen
  • Einen kundenorientierten/wertschöpfenden Ansatz haben
  • Sie verfügen über ausgeprägte mündliche und schriftliche Kommunikationsfähigkeiten

Domain-Know-how, seien Sie nicht nur ein GIS-Jockey, sondern wissen Sie, wie man es auf eine Regierung oder Industrie wie Umweltanalyse, Versorgungsunternehmen, Planung und Stadtentwicklung, Marketing usw . Dadurch werden Sie zu einer wertvolleren und interessanteren Person als nur zu jemandem, der mit ArcGIS vertraut ist.

Lesen Sie GIS-Magazine und Websites

GIS-Websiteportale und -Magazine sind eine großartige Möglichkeit, einen Eindruck davon zu bekommen, in welche Richtung sich die Branche bewegt, welche Themen angesagt sind und wie Menschen und Organisationen GIS implementieren. Sie sind auch nützlich, um über die neuesten GIS-bezogenen Nachrichten auf dem Laufenden zu bleiben. Erkunden Sie also einige der verfügbaren Zeitschriften und Websites. Zu den bekannteren Quellen gehören:

An Benutzergruppen-Meetings teilnehmen

Ich habe dies in meinem früheren Beitrag gesagt, aber ich sage es noch einmal, weil es wichtig ist: Fast jeder, den ich kenne, der im GIS arbeitet, hat seinen ersten oder nachfolgenden Job durch das Netzwerken bei einer lokalen oder regionalen Benutzergruppe bekommen. Finden Sie einen und besuchen Sie sie oft. Stellen Sie Fragen, sprechen Sie mit Menschen – das sind (oder werden) Ihre Kollegen und Kollegen.

Überprüfen Sie zunächst auf den folgenden Websites, ob es in Ihrer Nähe eine Benutzergruppe gibt:

Wenn es in Ihrer Nähe keine lokale oder regionale Benutzergruppe gibt, starten Sie eine. Es gibt wahrscheinlich viele GIS-Mitarbeiter in Ihrer Nähe, die gerne an einer Benutzergruppe teilnehmen würden. Dies ist eine großartige Möglichkeit, sehr schnell Kontakte in die GIS-Branche zu knüpfen. Viele Agenturen können ihre Besprechungsräume kostenlos nutzen. Die meisten lokalen Anbieter werden die Gelegenheit nutzen, ihr Produkt einem Raum voller potenzieller Kunden zu vermarkten, sodass Anbieter hilfreich sein können, um Präsentationsplätze zu besetzen und die Nachricht zu verbreiten. Mit ein wenig Fingerspitzengefühl können Sie normalerweise einen Verkäufer dazu bringen, Snacks zu sponsern, wenn sie präsentieren.

Holen Sie sich praktische Erfahrungen und bauen Sie ein Portfolio auf

In meinem früheren Beitrag habe ich die Notwendigkeit erwähnt, praktische Erfahrung zu sammeln, um Sie von anderen Bewerbern abzuheben, die nur über GIS-Kurserfahrung verfügen. Heute integrieren mehr Schulen GIS in ihre Lehrpläne, und mehr Schulen bieten GIS-Kurse und -Zertifikate an als noch vor einigen Jahren. Das bedeutet, dass potenziell mehr Leute mit Ihnen um einen GIS-Job konkurrieren. Was Sie also von den anderen unterscheidet, ist Ihre Erfahrung.

Holen Sie sich also praktische Erfahrungen und lesen Sie, was ich in meinem früheren Beitrag geschrieben habe, da es wichtig ist, reale Fähigkeiten zu entwickeln, die Sie von Ihrer Konkurrenz abheben.

Erstellen Sie außerdem ein Portfolio Ihrer Arbeit, das Sie zu Vorstellungsgesprächen mitnehmen können. Mein erstes Portfolio bestand aus gedruckten 8,5 x 11 Kopien von Karten, die ich erstellt hatte, Skripten, die ich geschrieben hatte, und Berichten oder Dokumenten, die ich entwickelt hatte. Ich packte diese Gegenstände in durchsichtige Plastikhüllen für einen 3-Loch-Ordner und brachte den Ordner zu Interviews mit. Später habe ich meine Karten, Berichte und Skripte als PDFs erstellt und auf CDs gebrannt, die ich potentiellen Arbeitgebern bei Vorstellungsgesprächen geben würde – aber ich habe immer noch meine Mappe mitgebracht, damit ich diese Gegenstände während des Vorstellungsgesprächs zeigen konnte.

Erstellen Sie also ein Portfolio und bringen Sie es zu Vorstellungsgesprächen mit. Es bietet eine großartige Möglichkeit, Ihre Erfahrungen zu diskutieren und Ihre kartografischen Fähigkeiten zu demonstrieren. Diese heben Sie von den meisten Mitbewerbern ab, die nur mit einer Kopie ihres Lebenslaufs zu einem Vorstellungsgespräch erscheinen.

Hilfsfähigkeiten

Heutzutage kann jeder, der sich für einen GIS-Auftrag bewirbt, ArcGIS Desktop verwenden. Tut mir leid, aber diese Fähigkeit allein macht dich nicht mehr zu etwas Besonderem (es macht mich auch nicht mehr besonders). Potenzielle Arbeitgeber werden also fragen, was Sie sonst noch tun können.

Jeder GIS-Experte weiß, wie man eine Datenbank einrichtet und verwaltet. Ob Microsoft Access, SQL Server, Oracle, MySQL oder PostGreSQL, wenn Sie nicht wissen, wie man eine Datenbank verwendet, lernen Sie es.

Wenn Sie mit Datenbanken nicht vertraut sind, lernen Sie Microsoft Access kennen. Es ist ein gutes Datenbanksystem, das einfach zu erlernen und zu verwenden ist. Außerdem verwenden viele Unternehmen es häufig und viele Leute haben es bereits auf ihren Computern – da es in vielen Versionen von Microsoft Office enthalten ist.

Wenn Sie keine Kopie von Microsoft Access besitzen und den Kauf nicht rechtfertigen können, bietet Open Office Base viele der gleichen Funktionen wie Microsoft Access und kann als geeigneter Ersatz für das Erlernen von Datenbanken dienen. Sie können Open Office herunterladen unter: http://www.openoffice.org/

Von dort aus können Sie zu Arbeitsgruppen- und Unternehmenssystemen wie Microsoft SQL Server, Oracle, MySQL, PostGreSQL usw. wechseln. Alle diese Datenbankverwaltungssysteme bieten kostenlose Versionen für die Entwicklung oder den persönlichen Gebrauch, die Sie herunterladen können, um Erfahrungen mit ihnen zu sammeln. Sehen Sie sich die Links unten für jede Softwareanwendung an:

Modellbauer

Es gibt viele Aktionen, die wir routinemäßig in GIS ausführen, die sich manuell wiederholen können. Betrachten Sie das Beispiel, in dem Sie eine Festplatte mit 100 Shapefiles erhalten, die sich in der WGS84-Projektion befinden, und Sie diese in Ihre GIS-Datenbibliothek (eine Geodatabase) importieren müssen. Dazu müssen Sie sie in das von Ihnen verwendete Koordinatensystem (NAD 83, UTM Zone 11) neu projizieren. Sie können dies manuell in ArcCatalog oder ArcMap tun, aber es wäre besser, einen Workflow zu erstellen, der den Prozess automatisieren und 100-mal ausführen könnte.

Model Builder ist perfekt für diese Art von Aufgabe. ModelBuilder ist eine Anwendung, die Sie zum Erstellen, Bearbeiten und Verwalten von Arbeitsabläufen verwenden, die Sequenzen von Geoverarbeitungswerkzeugen aneinanderreihen, wobei die Werkzeuge die Ausgabe eines Werkzeugs als Eingabe in ein anderes Werkzeug einspeisen. ModelBuilder ist eine visuelle Programmiersprache zum Erstellen dieser Workflows.

Warum es lernen? Model Builder ist eine wichtige Fähigkeit zur GIS-Analyse, weil:

  • Das Ausführen von Aktionen wie dem manuellen Importieren von 100 Shapefiles ist mühsam und nutzt Ihre Zeit nicht gut.
  • Komplizierte Analysen erfordern häufig viele Geoverarbeitungsaktionen, und Sie werden häufig feststellen, dass Sie eine Analyse möglicherweise wiederholen müssen. Wenn Sie erneut eine komplexe Analyse ausführen müssen und kein Modell erstellt haben, müssen Sie alle Ihre Geoverarbeitungsaufgaben manuell wiederholen und hoffen, dass Sie sich Ihre Verarbeitungsschritte wirklich gut notiert haben.
  • Wenn Sie mit großen Datasets arbeiten, können Geoverarbeitungsaufgaben lange dauern. In diesem Fall ist es am besten, ein Modell zu erstellen, um diese Aufgaben nach Stunden auszuführen, anstatt jede Aufgabe Schritt für Schritt (von Hand) zu erledigen und lange Zeit auf die Ausgabe zu warten.
  • Modelle können in ArcGIS Toolboxes integriert und einfach an andere Benutzer verteilt werden, damit diese eine Analyse schnell wiederholen können.
  • Modelle können auf ArGIS Server hochgeladen werden, um die Verarbeitung von Dateien auf einem Server oder in der Cloud zu ermöglichen.
  • Schließlich kennen versierte Arbeitgeber Model Builder und es wird in Stellenanzeigen entweder als erforderliche oder gewünschte Fähigkeit angezeigt.

Um mit dem Erlernen von Model Builder zu beginnen, besuchen Sie die folgenden Links:

ArcGIS-Server

Wenn Sie einen GIS-Auftrag in einer großen Organisation mit einem bestehenden GIS-Programm anstreben, besteht die Möglichkeit, dass Sie nach Ihren Erfahrungen mit dem ArcGIS Server-Produkt von ESRI gefragt werden. ArcGIS Server ist eine Webserver-Anwendung, mit der Sie GIS-Ressourcen (Karten, Globen, Werkzeuge, Geoverarbeitungs-Workflows usw.) über das Web freigeben können. Diese Ressourcen werden auf ArcGIS Serve gehostet, um die gemeinsame Nutzung von Daten zu erleichtern, die zentral verwaltet werden, mehrere Benutzer unterstützen und die aktuellsten Informationen enthalten.

ArcGIS Server-Kenntnisse sind heutzutage gefragt und sollten nach Möglichkeit unbedingt erworben werden. Das Erlernen von ArcGIS Server ist jedoch nicht einfach. Für die Installation, Verwaltung und den Betrieb von ArcGIS Server sind Kenntnisse über die Verwaltung eines Dateiservers und Webservers sowie Active Directory-Berechtigungen erforderlich. Realistisch gesehen ist die beste Möglichkeit, ArcGIS Server kennenzulernen, ein Kurs. Viele Präsenz- und Online-Programme bieten einen Kurs in ArcGIS Server an. ESRIs Virtual Campus bietet auch Kurse in ArcGIS Server an.

Wenn Sie mit ArcGIS Server nicht vertraut sind, besuchen Sie die folgenden Links, um eine allgemeine Einführung in ArcGIS Server und seine Funktionen zu erhalten.

Wenn Sie keine Erfahrung mit ArcGIS Server sammeln können, können Sie sich (zusätzlich zu den obigen Links) für ein kostenloses persönliches Konto auf www.arcgis.com registrieren. ArcGIS.com ist eine abonnementbasierte Online-Plattform für die gemeinsame Nutzung von geografischen Informationen und Karten. ESRI bietet ein kostenloses persönliches Konto, das eingeschränkten Zugriff auf Funktionen und 2 GB Speicherplatz bietet. Mit diesem Konto und einer Kopie von ArcGIS können Sie Daten und Karten auf ArcGIS.com hochladen und die Arbeit mit einem ArcGIS-Server aus Benutzersicht ein wenig erleben.

Darüber hinaus bietet die Überprüfung der Beispiele und Informationen zur ArcGIS Server-JavaScript-API einen Einblick in die Programmierung von Webanwendungen für ArcGIS Server.

Ja, es ist kein ESRI-Produkt, aber Microsoft Excel kann eine kritische Komponente Ihres Datenbereinigungsworkflows sein. Ich verwende es oft, um Daten anzuzeigen, zu bearbeiten und zu bereinigen, bevor ich sie in ArcGIS importiere, da es leistungsstark und schnell ist und verwendet werden kann, um viele Datenänderungen schnell und einfach vorzunehmen.

Beim Erlernen von GIS arbeiten wir mit vorbereiteten Datensätzen, die bereinigt und optimiert wurden, um in unseren Übungen mit minimalen Problemen zu arbeiten. In der realen Welt sind Daten unordentlich, sie enthalten eine Mischung von Werten in einer Vielzahl von Formaten. Zu wissen, wie man einen Datensatz schnell aufräumt, ist eine wesentliche GIS-Fähigkeit. Also verwende ich Excel, um Daten von GROSSBUCHSTABEN in Kleinbuchstaben zu ändern, um Datenteile durch andere Werte zu ersetzen, Daten zu trimmen und Daten zu kombinieren und aufzuteilen. Allerdings nehme ich diese Änderungen selten manuell vor. Stattdessen verwende ich leistungsstarke Funktionen in Excel, die diese Korrekturen über Zeilen und Spalten hinweg automatisieren.

Obwohl Excel viele Funktionen hat, verwende ich normalerweise nur einige für meine Datenbereinigung. Erfahren Sie also, wie Sie Funktionen in Excel verwenden, wie Sie sie schreiben, kopieren und einfügen. Beginnen Sie insbesondere mit den folgenden Funktionen, da diese am häufigsten zur Manipulation von Daten verwendet werden:

  • Verketten
  • Links
  • Recht
  • Mitte
  • Trimmen
  • Ersatz
  • Ersetzen
  • Oberer, höher
  • Niedriger

Um mehr über Excel-Funktionen zu erfahren, suchen Sie einfach bei Google oder Bing nach „Excel-Funktionen lernen“. Ein gutes Tutorial für den Einstieg finden Sie auch hier: http://blogs.mccombs.utexas.edu/the-most/2009/05/07/learn-excel-functions/

In meinem früheren Beitrag habe ich empfohlen, eine Skriptsprache zu lernen, da es praktisch ist, zu wissen, wie man ein Skript schreibt, wenn Sie riesige Datenbanken bereinigen oder Aktionen wie das Korrigieren von Adressen für eine bessere Geokodierungsgenauigkeit, das Neuformatieren von Daten, das Exportieren und Importieren großer Datensätze und anderes manuell ausführen müssen sich wiederholende Tätigkeiten, mit denen GIS-Mitarbeiter routinemäßig beauftragt werden.

Im Jahr 2009 schlug ich vor, dass Visual Basic for Applications (VBA) ein guter Einstieg ist. Seit diesem Post hat ESRI die Unterstützung für VBA in ArcGIS 10.x eingestellt und VBA ist nicht die bevorzugte Methode zum Skripten in seinen neuesten Produktlinien.

Heute dreht sich beim Skripting in ESRI alles um Python. Python ist eine kostenlose, plattformübergreifende Open-Source-Programmiersprache, die in den Open-Source- und esri-GIS-Umgebungen weit verbreitet ist und unterstützt wird. Es hat sich zur bevorzugten Skriptsprache für Geoverarbeitungsbenutzer entwickelt und ESRI hat Python für ArcGIS vollständig übernommen. Daher würde ich jedem in GIS, der Python nicht kennt, raten, Python zu lernen. Hier sind einige Links für den Einstieg in Python in ArcGIS:

Obwohl ESRI VBA möglicherweise nicht mehr unterstützt, wird VBA in der Office-Produktlinie von Microsoft immer noch häufig verwendet, obwohl es langsam durch Microsofts Visual Studio Tools for Applications ersetzt wird: http://msdn.microsoft.com/en-us/library/cc175562 (v=vs.90).aspx

Berichte für ArcGIS

In meinem vorherigen Beitrag habe ich über die Vorzüge des Erlernens von Crystal Reports geschrieben. Crystal Reports ist ein leistungsstarkes Berichterstellungstool, das Datenbanken und Tabellenkalkulationen lesen, Abfragen durchführen, Daten sortieren und zusammenfassen und professionell aussehende PDF- oder Live-Berichte erstellen kann. Crystal Reports war früher in ArcGIS Desktop enthalten, jedoch hat ESRI mit ArcGIS 9.3 die Einbeziehung des vollständigen Crystal Reports-Produkts eingestellt und der Crystal Reports-Assistent ist nicht mehr in ArcGIS 10.x enthalten.

Als Ersatz bietet ESRI jetzt eine in ArcGIS Desktop integrierte Berichterstellungsanwendung, die viele der gleichen Funktionen wie Crystal Reports bietet. Die Berichterstellungsanwendung kann jedoch außerhalb von ArcGIS Desktop nicht aufgerufen oder verwendet werden und muss über die ArcGIS Desktop-Benutzeroberfläche verwendet werden.

Sie fragen sich vielleicht, ob es noch wichtig ist, Reports for ArcGIS zu lernen. Ja, denn es geht nicht immer um die Karte, oft geht es gar nicht um eine Karte. Ich weiß, dass wir GIS-Leute mit GIS angefangen haben, weil wir gerne gut aussehende Karten erstellen, aber der Fehler, den wir machen, ist zu glauben, dass alle anderen auch Karten mögen. Als ich anfing, im staatlichen GIS zu arbeiten, war ich erstaunt, wie oft ich gebeten wurde, einen Bericht mit den Ergebnissen meiner Analysen zu erstellen (z eine geplante Entwicklung). Keine Karte, keine Polygone auf einem schönen Luftbild – nur eine Zahlentabelle, die die Ergebnisse einer geografischen Analyse darstellt. Es gab immer noch viele coole GIS-Analysen, die in die Erstellung des Berichts einflossen, aber das Endprodukt war keine Karte.

Auch wenn sich die Software möglicherweise geändert hat, ist dies nicht erforderlich, daher empfehle ich weiterhin, zu lernen, wie Sie Berichte zu Ihren GIS-Analysen entwerfen und erstellen. Heute würden wir dies mit Reports for ArcGIS erreichen. Informationen zur Verwendung der integrierten Berichtstools finden Sie unter den folgenden Links:

Fazit 2013

Obwohl ich diesen Beitrag im Zusammenhang mit dem Erwerb von Fähigkeiten geschrieben habe, die Sie für einen GIS-Job benötigen, sind dies gleichermaßen geeignete Fähigkeiten für diejenigen, die bereits im GIS-Bereich tätig sind. Die Branche verändert sich weiterhin schnell, und Sie können ziemlich schnell einrosten, wenn Sie nicht mithalten. Jede neue Softwareversion bringt neue Funktionen mit sich, die neue Möglichkeiten zum Erlernen einer neuen Fähigkeit oder zum Erweitern unserer bestehenden Wissensdatenbank bieten. Ich habe beispielsweise vor kurzem gelernt, wie man ArcObjects-Anwendungen im neuen Add-In-Framework von ESRI schreibt und bereitstellt, und plane, die Verwendung des neuen Python-Ad-In-Frameworks in ArcGIS 10.1 zu erlernen.

Das Erlernen dieser verwertbaren GIS-Kenntnisse ist auch eine sehr gute Investition. GIS-Jobs werden in den Aussichten für das Beschäftigungswachstum immer noch sehr hoch eingestuft – das Bureau of Labor Statistics listet ein erwartetes Beschäftigungswachstum von 35 % für „Geographen“ auf (http://www.bls.gov/ooh/life-physical-and-social- Wissenschaft/Geographen.htm). Egal, ob Sie nach Ihrem ersten GIS-Job suchen oder in ein neues Unternehmen wechseln möchten, diese Fähigkeiten machen Sie viel marktfähiger als Ihre typische Konkurrenz.

Schließlich habe ich versucht, die Fähigkeiten zu identifizieren, die ich für wichtig halte, um eine GIS-Position zu erhalten und zu behalten. Ich habe mich auch auf Fähigkeiten konzentriert, die ein GIS-Analyst oder -Spezialist kennen sollte. Wenn Sie dies gelesen haben und Ihnen andere wichtige Fähigkeiten einfallen, die ich nicht erwähnt habe, hinterlassen Sie bitte einen Kommentar, um der größeren Community zu helfen.