Mehr

Anzeige der geschätzten Rechenzeit beim Ausführen von Werkzeugen in ArcGIS for Desktop?


Ich bin fast sicher, dass ich Modelle eingerichtet habe, um die geschätzte Laufzeit/Rechenzeit für die Modelle/Tools in der Vergangenheit anzuzeigen, aber ich kann mich nicht erinnern, wie ich diese Option aktivieren soll. Ich habe vergeblich im Internet gesucht und würde gerne feststellen, ob dies überhaupt möglich ist.

Wenn es nicht möglich ist, die Option einfach zu aktivieren, gibt es Python-Code, mit dem ich diese Informationen abrufen kann?


Standardmäßig führen neuere Versionen von ArcGIS Werkzeuge im Hintergrund aus. Wenn Modelle im Hintergrund laufen, gibt es keinen raffinierten Fortschrittsbalken. Um den Fortschrittsbalken wiederherzustellen, müssen Sie die Hintergrund-Geoverarbeitung deaktivieren über:

Geoverarbeitung > Geoverarbeitungsoptionen > Hintergrundverarbeitung > Kontrollkästchen deaktivieren

Dies kann sich natürlich auf die Verarbeitungsleistung auswirken, also seien Sie sich dessen bewusst.


Öffnen Sie einfach das Ergebnisfenster (Menü Geoverarbeitung - Ergebnisse) und erweitern Sie Ihre aktuelle Sitzung. Den Ausführungszeitpunkt finden Sie unter den Meldungen.


Recherchetools

Nachfolgend finden Sie eine Liste häufig verwendeter Recherchetools innerhalb von UON. Sie ist auf forschungsbezogene Software beschränkt, die eines der folgenden Kriterien erfüllt:

  • unter einer Site-Lizenz kostenlos verfügbar (möglicherweise gelten Nutzungseinschränkungen)
  • verfügbar oder gekauft von Mitgliedern mehrerer Schulen, Zentren oder Fakultäten (es können zusätzliche Kosten oder Nutzungseinschränkungen anfallen)
  • Open-Source-Software mit IT-Services-unterstützter Installations- oder Bereitstellungsmethode verfügbar

Viele dieser Anwendungen können über das Software Center auf Ihrem UON-Computer selbst installiert werden, und einige sind auch für den Heimgebrauch durch Mitarbeiter oder Studenten verfügbar.

Sollte die Software, an der Sie interessiert sind, nicht aufgeführt sein, kontaktieren Sie uns bitte über das Webformular für benutzerdefinierte Rechercheanfragen, da es möglicherweise andere Benutzer innerhalb der Universität gibt und eine Kostenteilungsvereinbarung möglich ist.

Klicken Sie auf die folgenden Überschriften, um mehr über jede Software zu erfahren.


Herausforderungen und zukünftige Schritte – Ein Blick auf FEMA Flood Mapping

In erster Linie sind Daten das wichtigste Element der GIS-Kartierung – das Programm selbst erstellt lediglich eine visuelle Darstellung der eingegebenen Daten.[11] Ohne genaue Daten kann das Programm keine genauen Darstellungen der gewünschten Informationen oder Beziehungen zwischen ihnen erstellen. Die größte Herausforderung ist daher die Schwäche aktueller Daten bzw. der Mangel an Daten im Allgemeinen. Obwohl es sich derzeit verbessert, besteht auch ein Mangel an leicht verfügbarer GIS-Software und, was noch wichtiger ist, ein Fehler bei der Kommunikation/Nutzung des GIS und der Informationen, die es liefern kann.[12]

Angesichts der bedeutenden Rolle, die GIS bereits beim Notfallmanagement spielt, glaube ich, dass sowohl die Regierung als auch die Kommunalverwaltungen Mittel bereitstellen sollten, um jedes dieser drei Probleme zu verbessern. Erstens, um die Datensammlung zu erhöhen und die Genauigkeit vorhandener Daten zu verbessern, zweitens, um die Nutzung von GIS-Software durch Gemeinden zu fördern, und drittens, um die Zugänglichkeit und Kommunikation der erzeugten Informationen zu verbessern. In Bezug auf diese Aspekte möchte ich die laufende Hochwasserkartierung der Federal Emergency Management Agency (FEMA) im Rahmen des National Flood Insurance Program (NFIP) diskutieren.

Das NFIP wurde geschaffen, um Hausbesitzern eine Möglichkeit zu bieten, sich finanziell vor Hochwasserereignissen abzusichern – eine Hochwasserversicherung wird den Grundstückseigentümern angeboten, wenn die Gemeinde am NFIP teilnimmt und die von der FEMA festgelegten Auenverwaltungsverordnungen erfüllt.[13]

Das Hochwassergefahrenkartierungsprogramm der FEMA, Risk Mapping, Assessment and Planning (MAP), identifiziert Hochwassergefahren und bewertet Risiken in bestimmten Gebieten.[14] Diese Kartierung wird verwendet, um die Flood Insurance Rate Maps (FIRMs) zu erstellen, die Grundlage der NFIP-Vorschriften und Versicherungsanforderungen.[15] Die FIRMs werden dann verwendet, um Versicherungsprämien zu bestimmen und Mindeststandards für Überschwemmungsgebiete für Gemeinden auf der Grundlage der bewerteten Risiken des jeweiligen Standorts festzulegen.[16] Derzeit arbeitet die NFIP daran, die Genauigkeit der Hochwasserkarten zu aktualisieren und den Versicherungsnehmern Informationen zum besseren Verständnis des Programms bereitzustellen.[17]

1. Verbesserung der Genauigkeit von GIS-Daten

In der Kosten-Nutzen-Analyse hat sich die Gefahrenkartierung als positive Nettovorteile erwiesen, was darauf hindeutet, dass es von Vorteil ist, an der Verbesserung der Genauigkeit unserer Kartierung zu arbeiten.[18] Eine von der FEMA im Jahr 2000 durchgeführte Studie ergab, dass die Hochwasserkarten unter Berücksichtigung aller Kosten (Hochwasserdatenaktualisierung, Kartenpflege, neue Kartierung, Umstellung auf neue Standards und Kundenservice) einen Nutzen von 1,33 Milliarden Dollar bei Kosten von 799 . erbrachten Millionen.[19] Derzeit werden Hochwasserkarten schätzungsweise 30 Millionen Mal pro Jahr von Regierungsbehörden, FEMA-Auftragnehmern, Kreditgebern, Versicherungsagenten, Landentwicklern, Gemeindeplanern, Grundstückseigentümern, Maklern und anderen zur Risikobewertung, Landbewirtschaftung, Schadensbegrenzung und Katastrophen verwendet Antwort.[20] Vor diesem Hintergrund ist es klar, dass die Genauigkeit dieser Karten von entscheidender Bedeutung und für weit verbreitete Entscheidungen relevant ist.

Zum Beispiel wird vorhergesagt, dass sich die Verbesserung der Genauigkeit der Hochwasserkarten der FEMA direkt auf die Versicherungstarife und die Landnutzung auswirkt.[21] Genauere Schätzungen des Hochwasserrisikos ermöglichen die Berechnung angemessener Versicherungsprämien für bestimmte Gebiete und besondere Bauwerke.[22] Die Preisgenauigkeit kann auch das Verständnis und das Vertrauen in das Hochwasserrisiko erhöhen und daher den Versicherungsschutz fördern und sicherstellen.[23] Im Zusammenhang mit der Landnutzung spiegeln die korrekt bepreisten Versicherungsprämien das Risiko genau wider und reduzieren wiederum die Entwicklung von Land in Hochrisikogebieten.[24] Verbesserungen in der Genauigkeit können Beschränkungen für Grundstücke hinzufügen, die als gefährdet eingestuft werden sollten (Verringerung zukünftiger Verluste von Menschenleben und Eigentum) und umgekehrt Beschränkungen in Gebieten aufheben, die fälschlicherweise als gefährdet eingestuft wurden (Kostensenkung und obligatorische Verbesserungen, Ermöglichung der Landnutzung). anderweitig verwendet werden).[25] Tatsächlich bietet die Website der FEMA eine Option, um Überschwemmungsgrenzen anzufechten, wenn Hausbesitzer glauben, dass ihre Grundstücke in Hochrisikogebieten falsch identifiziert wurden – eine höhere Genauigkeit der Hochwasserkarten kann daher die Anfechtung von Grenzen reduzieren und Zeit, Geld und Mühe aller Parteien sparen.

Aus den Hochwasserkarten der NFIP und der FEMA können wir erkennen, dass es in der Tat von Vorteil ist, in die Datenerfassung für den GIS-Einsatz im Notfallmanagement zu investieren. Dies kann auf jeden Kontext angewendet werden, nicht nur auf Hochwasser und staatliche Hochwasserversicherungen – vielleicht auf Feuer- oder Erdbebenrisiken oder alles, was für die Planung einer Gemeinde relevant ist.

2&3. Förderung des Einsatzes von GIS-Software und Verbesserung der Risikokommunikation

Es wurde nur wenig geforscht, um zu zeigen, wie Risiken effektiv durch Gefahrenkarten an die Öffentlichkeit kommuniziert werden können.[26] Frühere Studien haben jedoch gezeigt, dass es insbesondere bei der Kommunikation über die FIRM-Hochwasserkarten der FEMA Probleme gibt.[27] Ich habe es auf mich genommen, die FEMA-Website zu untersuchen, und fand es sehr schwierig, zu navigieren und zu verstehen. Es gibt eine überwältigende Menge an Informationen und es ist unklar, wie oder von wem sie verwendet werden sollen. Über die Seite des Flood Map Service Centers „Suche nach Adresse“ kann ein Hausbesitzer einfach seine Adresse eingeben, um eine interaktive Hochwasserkarte, National Flood Hazard Layer (NFHL), aufzurufen. Hier wird die scheinbar einfache Aufgabe kompliziert. Ich lud die Karte meiner aktuellen Wohnungsadresse herunter, nur um festzustellen, dass ich absolut keine Ahnung hatte, was ich sah oder was die Daten bedeuteten. Dann gelang es mir, eine FAQ-Seite auf der Website zu finden, die ein 54-seitiges Dokument mit dem Titel „So lesen Sie eine Ratenkarte für Hochwasserversicherungen“ zum Download bereitstellte. Es ist durchaus möglich, dass ich nicht genug Zeit damit verbracht habe, die Anleitungen der FEMA-Webseite zu lesen und zu verstehen, aber es ist klar, warum ein Hausbesitzer oder eine Person mit wenig bis gar keiner Erfahrung in diesem Bereich die Auswirkungen der Daten nicht versteht .

Darüber hinaus steht die hauseigene Mapping-Software der FEMA, HAZUS, der Öffentlichkeit zum Download zur Verfügung. HAZUS, das GIS-Systeme verwendet, wird als „national anwendbare standardisierte Methode zur Schätzung potenzieller Verluste durch Erdbeben, Hurrikanwinde und Überschwemmungen“ beschrieben.[28] Als ich die Software herunterladen und untersuchen wollte, stellte ich fest, dass sie das ArcGIS-Programm von ESRI benötigt , und dass die FEMA-Site Benutzer zu ESRI leitet, wo es erworben werden kann. Daraus kann ich schließen, dass das HAZUS-Programm in erster Linie von Kommunalverwaltungen und nicht von Privatpersonen und Hausbesitzern genutzt und an sie gerichtet wird. Obwohl dies sinnvoll ist, schränkt es die Zugänglichkeit von unschätzbaren Informationen, die bereitgestellt werden können, ein – und sogar Kommunalverwaltungen können sich dafür entscheiden, die Kosten für die Analyse der öffentlichen Daten durch GIS-Kartierungen (Kosten des Programms und von Personen, die in der Nutzung des Programms geschult wurden) nicht zu tragen , Zeit zum Überlagern von Daten usw.).

Auch hier können wir allein anhand der FIRM-Karten und des HAZUS-Programms der FEMA sehen, dass die Zugänglichkeit von GIS-Programmen sowie die Kommunikation von Risikoinformationen in Frage gestellt werden. Wie von Susan Cutter, einer Geographie-Professorin an der University of South Carolina, vorgeschlagen, sollten Notfallmanager sich an Gemeinschaftspartner wie Universitäten wenden, um bei der Kartierung und Analyse zu helfen.[29] Aus eigener Erfahrung beschreibt sie die fortlaufende Partnerschaft zwischen der University of South Carolina und der South Carolina Emergency Management Division, die es beiden ermöglicht, auf ein gemeinsames Ziel hinzuarbeiten – Studenten können Erfahrungen sammeln, während die Organisation die produzierten Ressourcen nutzen kann.[30] Sie schlägt ferner vor, dass, wenn es um die Kosten des Programms oder die Möglichkeit zur Nutzung eines Programms geht (wie ESRI ArcGIS), andere Kartierungstools oder -plattformen verfügbar sein könnten.[31] Zum Beispiel habe ich QGIS heruntergeladen, ein kostenloses GIS-Programm und nicht das übliche, aber teure ArcGIS.


Software und Toolkits, die derzeit von ACE-Forschern verwendet werden

Die Open-Source-Plattform abcWirtschaft, entwickelt von Davoud Taghawi-Nejad für Agent-Based Computational Economics Anwendungen, ist eine Python-basierte Modellierungsplattform für Wirtschaftssimulationen. abcEconomics verfügt über Standardfunktionen, die eine bestandsflusskonsistente Simulation von Produktions-, Handels- und Konsumprozessen für Unternehmen und Verbraucher ermöglichen. abcEconomics ermöglicht es Modellierern, Agenten als gewöhnliche Python-Klassenobjekte zu programmieren, aber die resultierenden Programme, wenn sie groß sind (z. B. 10.000+ Agenten), können aus Geschwindigkeitsvorteilen leicht auf einem Mehrkern-/Prozessor-Computer ausgeführt werden. Ausführliche Informationen zum Herunterladen, Installieren und Programmieren mit abcEconomics finden Sie im Folgenden abcEconomics Dokumentationshandbuch.

Das Adaptiver Modellierer, entwickelt von Jim Witkam (Altreva, Inc.), erstellt agentenbasierte Marktsimulationsmodelle für die Preisprognose von realen Aktien, Währungen oder anderen am Markt gehandelten Wertpapieren. Das agentenbasierte Modell simuliert einen Finanzmarkt, der aus Tausenden von Agenten besteht, deren (technische) Handelsregeln sich durch eine spezielle adaptive Form der genetischen Programmierung entwickeln. Die Entwicklung der Handelsregeln in Kombination mit der Marktpreisdynamik treibt die Agentenpopulation dazu an, wiederkehrende Preismuster zu erkennen und zu antizipieren und sich gleichzeitig an sich änderndes Marktverhalten anzupassen. Prognosen können entweder auf dem Verhalten aller Agenten oder auf einer dynamischen Gruppe der Agenten mit der besten Leistung basieren. Für ACE-Forscher kann diese Anwendung von Interesse sein, um das Verhalten und die aufkommenden Vorhersagefähigkeiten eines agentenbasierten Marktmodells zu untersuchen, das Informationen aus einem realen Markt enthält. Mehrere Modellinitialisierungsoptionen sind enthalten, wie z. B. eine vom Benutzer konfigurierbare genetische Programmiermaschine zum Erstellen von Handelsregeln. Die Simulation von Zero Intelligence Trading wird ebenfalls unterstützt. Verschiedene Bevölkerungsstatistiken und andere Daten können in Echtzeit in Diagrammen, Verteilungshistogrammen und Streudiagrammen visualisiert werden. Die Daten können zur weiteren Analyse in anderen Anwendungen in CSV-Dateien exportiert werden. Eine kostenlose (nicht auslaufende) Testversion mit ausführlicher Dokumentation kann von der oben genannten Adaptive Modeler-Homepage heruntergeladen werden. Adaptiver Modellierer ist auf Windows-Plattformen ausgerichtet und erfordert eine Installation von Microsoft .Net 2.0 oder höher.

Von dem Cormas-Website: „Ressourcenmanagementsysteme sind komplex, wenn gemeinsame Ressourcen von mehreren Benutzern genutzt werden. Ökologische Dynamiken werden auf verschiedenen Ebenen ausgedrückt, dh individuell, Bevölkerung und Gemeinschaft. Soziale Dynamiken werden auf der Ebene von Einzelpersonen oder Organisationen ausgedrückt. In erneuerbaren Ressourcen Management müssen die Wechselwirkungen zwischen der Dynamik der Landwirtschaft und der Ressourcennutzung berücksichtigt werden. Computermodellierung erleichtert das Verständnis dieser Wechselwirkungen. . Cormas ist eine Multi-Agenten-Simulationssoftware für das Management erneuerbarer Ressourcen. Sie liefert den Rahmen für die Erstellung von Modellen der Interaktionen zwischen Individuen und Gruppen, die (erneuerbare) Ressourcen nutzen."

EuGH ist ein in Java geschriebenes evolutionäres Rechensystem für die Forschung. Es wurde so konzipiert, dass es sehr flexibel ist, wobei fast alle Klassen (und alle ihre Einstellungen) zur Laufzeit durch eine vom Benutzer bereitgestellte Parameterdatei dynamisch bestimmt werden. Alle Strukturen im System sind so angeordnet, dass sie leicht veränderbar sind. Trotzdem wurde das System auf Effizienz ausgelegt. ECJ wurde im ECLab Evolutionary Computation Laboratory der George Mason University entwickelt. Das Schwesterprojekt des EuGH ist MASON, ein Multi-Agenten-Simulationssystem, das gut mit dem EuGH verzahnt ist.

Gambit ist eine Bibliothek mit spieltheoretischer Software und Werkzeugen für die Konstruktion und Analyse endlicher Extensiv- und Normalformspiele, die derzeit von Forschern am Department of Economics der Texas A & M University gepflegt werden. Gambit enthält eine grafische Benutzeroberfläche, die Gambit-Befehlssprache und eine Bibliothek mit C++-Quellcode zur Darstellung von Spielen, die für die Verwendung in anderen Anwendungen geeignet sind. Der gesamte Gambit-Quellcode ist frei verfügbar und steht unter der GNU General Public License.

Vom Entwickler (Steve Phelps, U of Liverpool): The JASA (Java-Auktionssimulator-API) wurde auf die portiert Java Agent-Based Modeling (JABM) Toolkit. JABM enthält Funktionen zur Visualisierung der dynamischen Handelsnetzwerke, die entstehen, wenn Agenten in einem auftragsgesteuerten Markt miteinander handeln. Ein Video dieser Visualisierung finden Sie Hier. Weitere Details zum JABM-Toolkit finden Sie in einem Arbeitspapier mit dem Titel "Agentenbasierte Modellierung mit dem JABM-Toolkit".

Das Java-Tutorial: Ein praktischer Leitfaden für Programmierer, verwaltet von Sun Microsystems, Inc., ist ein praktischer Online-Leitfaden für Programmierer mit Hunderten von vollständigen Arbeitsbeispielen und zahlreichen Hinweisen auf grundlegende Informationen (Ausführen Ihres ersten Programms, Erste Schritte, Erlernen der Java-Sprache usw.). Das Tutorial ist in Gruppen von grundlegenden und spezialisierten Lektionen zu verschiedenen Themen unterteilt: zum Beispiel Erste Schritte mit dem Schreiben von Java-Applets wesentliche Java-Klassen Erstellen einer GUI mit benutzerdefinierten JFC/Swing-Netzwerk-2D-Grafiken und Java Beans. Hunderte von vollständigen Arbeitsbeispielen sind in diesen Lektionen enthalten.

Pietro Terna (Wirtschaftswissenschaften, Universität Turin, Italien) hat den Swarm-basierten Java Enterprise Simulator (jES). Ziel von jES ist es, den Aufbau von Simulationsmodellen sowohl für reale als auch für virtuelle Unternehmen (Firmen) zu ermöglichen. Der Simulator kann entweder ein einzelnes Unternehmen oder ein System von Unternehmen (z. B. innerhalb eines Bezirks oder innerhalb eines virtuellen Unternehmenssystems) modellieren. Die neueste Version von jES, zusammen mit einer vollständigen Benutzeranleitung, finden Sie Hier.

EIN Labor für Simulationsentwicklung (Lsd) wurde von Marco Valente (Universität L'Aquila) für die Evolutionssimulationsmodellierung entwickelt, wie das berühmte Nelson-Winter-Modell (1982) des Schumpterschen Wettbewerbs in einer Industrie oder Wirtschaft veranschaulicht. Lsd-Anwendungen verfolgen einen systemdynamischen (Differenz-/Differentialgleichungen)-Ansatz, der Replikatordynamiken verwendet, anstatt einen agentenbasierten Bottom-up-Ansatz, aber die zugrunde liegende Verwendung von C++ legt nahe, dass auch ein mehr agentenbasierter Ansatz möglich sein könnte. Für eine ausführliche Diskussion von Lsd siehe: M. Valente und E.S. Anderson, "Ein praktischer Ansatz zur Evolutionssimulation: Nelson-Winter-Modelle im Labor für Simulationsentwicklung", Das elektronische Journal für evolutionäre Modellierung und Wirtschaftsdynamik, Nr. 1003, Ausgabe 1, 15. Januar 2002.

Das Evolutionary Computation Laboratory and Center for Social Complexity der George Mason University verwaltet die Entwicklung der MASON Multiagenten-Simulations-Toolkit. MASON enthält sowohl eine Modellbibliothek als auch eine optionale Suite von Visualisierungswerkzeugen in 2D und 3D. MASON ist eine gemeinsame Anstrengung des ECLab (Evolutionary Computation Laboratory) der George Mason University und des GMU Center for Social Complexity und wurde von Sean Luke, Gabriel Catalin Balan und Liviu Panait mit Hilfe von Claudio Cioffi-Revilla, Sean Paus, Daniel . entworfen Kuebrich und Keith Sullivan. Eine SwarmFest04-Präsentation zu MASON kann abgerufen werden Hier.

MATLAB ist eine Hochleistungssprache für Technical Computing. Informationen zu MATLAB erhalten Sie beim MathWorks-Website. Warren Thorngate hat einen Artikel mit dem Titel Soziale Simulation mit MATLAB . lehren das erschien im online Zeitschrift für künstliche Gesellschaften und soziale Simulation, Volume 3, No. 1, 2000. In diesem Artikel erklärt Thorngate, warum MATLAB seine bevorzugte Programmiersprache ist, um Simulationsprogrammiertechniken für Simulationsneulinge zu unterrichten.

Modulco ist ein objektorientiertes modulares Framework, das entwickelt wurde, um soziale Phänomene mit mehreren Agenten wie Märkte, Organisationen, Netzwerkeffekte und Bevölkerungsdynamik zu simulieren. Die Entwickler sind Denis Phan und Antoine Beugnard. Weitere Informationen, einschließlich herunterladbarer Anwendungen und bibliografischer Informationen, finden Sie auf der oben genannten Moduleco-Website.

NetLogo, ein Nachkomme von StarLogo (siehe unten), ist eine plattformübergreifende Allzweck-Komplexitätsmodellierungs- und Simulationsumgebung des Center for Connected Learning and Computer-Based Modeling (CCL), Northwestern University, Evanston, Illinois. NetLogo wird mit einer großen Bibliothek von Beispielmodellen und Codebeispielen geliefert, die Anfängern den Einstieg in die Erstellung von Modellen erleichtern. NetLogo wird von Forschungslaboren und Universitätskursen in einer Vielzahl von Bereichen der Sozial- und Naturwissenschaften verwendet. Ein kostenloser Download sowie ein Benutzerhandbuch sind auf der oben genannten NetLogo-Website erhältlich.

PyABM ist ein Open-Source-Toolkit (GPL-lizenziert), das darauf abzielt, die Programmierung und Analyse von agentenbasierten Modellen, die in der Programmiersprache Python geschrieben sind, zu vereinfachen. Das Toolkit zielt darauf ab, die Modell- und Szenarioentwicklung zu standardisieren und die Dokumentation und Wiederholbarkeit der Modellergebnisse sicherzustellen. Die Entwicklung von PyABM ist im Gange.

Von der offiziellen Website für die Python-Sprache: "Python ist eine interpretierte, interaktive, objektorientierte Programmiersprache. Es wird oft mit Tcl, Perl, Scheme oder Java verglichen. Python kombiniert bemerkenswerte Leistung mit einer sehr klaren Syntax. Es verfügt über Module, Klassen, Ausnahmen, dynamische Datentypen auf sehr hoher Ebene und dynamische Typisierung. . Die Python-Implementierung ist portabel: Sie läuft auf vielen UNIX-Marken (und) auf Windows, DOS, OS/2, Mac, Amiga. ."

Die wichtigste Ressource für alles, was mit Python zu tun hat, einschließlich der neuesten Softwareversionen, ist die Python-Website. Forscher, die neu in Python sind, möchten vielleicht die Ratgeber für Anfänger. Eine weitere Ressource ist Anakonda, eine kostenlose Python-Distribution, die viele Pakete enthält. Ebenfalls, Jupyter ist eine integrierte Entwicklungsumgebung (IDE), die Python, R und andere Programmiersprachen unterstützt.

Darüber hinaus haben Claudius Grönlbner (Johannes Kepler University) und Torsten Heinrich (University of Oxford) verschiedene einführende Python-Installationsmaterialien zur Unterstützung eines Kurses mit dem Titel Komplexität: Theorie und Computermodelle. Diese Materialien umfassen: (i) eine Installationsanleitung für Python und erforderliche Pakete (Mac/Windows/Linux) (ii) allgemeine Anweisungen für die Installation eines Editors oder einer integrierten Entwicklungsumgebung (IDE) (iii) spezifische Anweisungen für die Installation der Jupyter IDE (Mac/Windows/Linux) und (iv) Testskript für Installationstests.

Repast (REcursive Porous Agent Simulation Toolkit) ist ein agentenbasiertes Simulationstoolkit, das speziell für sozialwissenschaftliche Anwendungen entwickelt wurde. Ursprünglich von Forschern der University of Chicago und des Argonne National Laboratory entwickelt, wird Repast heute von der gemeinnützigen Freiwilligenorganisation ROAD (Repast Organization for Architecture and Development) verwaltet. Repast wurde in den folgenden Versionen veröffentlicht: RepastJ (Java-basiert) RepastPy (basierend auf der Python-Skriptsprache) Repast.Net (in C# implementiert, aber jede .Net-Sprache kann verwendet werden) Repast S (Simphony, Java-basiert) und Repast HPC (High Performance Computing). Repast läuft auf praktisch allen modernen Computerplattformen (z. B. Windows, Mac OS und Linux). Die neuesten Repast-Releases sowie detaillierte technische Informationen zur Installation und Nutzung von RePast finden Sie unter RePast Sourceforge-Website.

Leigh Tesfatsion (Wirtschaftswissenschaften, Iowa State University, Ames, IA) hat eine RePast-Leitfaden zum Selbststudium um Neulingen den Einstieg in die Programmierung mit Repast in einer Java Integrated Development Environment (IDE) zu erleichtern. Zu den behandelten Themen gehören: Einführung in die agentenbasierte Modellierung Einführung in die agentenorientierte Programmierung Einführung in Java Kennenlernen der RePast-Programmierung mit RePast und möglichen Anwendungsgebieten der RePast-Modellierung. Umfangreiche Links zu Online-Ressourcenmaterialien werden bereitgestellt. Obwohl einige Vorkenntnisse in der Programmierung wünschenswert sind, setzt der Studienführer diese Erfahrung nicht voraus.

  • EIN Welt Definieren der virtuellen Umgebung, in der die Simulation stattfindet
  • Bevölkerungen von autonomen Agenten, die die Welt bewohnen
  • Programme das Verhalten der Agenten steuern
  • Genetische Mechanismen Nachahmung der natürlichen Selektion, die auf die Programme der Agenten einwirkt.

SimX ist eine von GitHub gehostete Bibliothek für die Entwicklung paralleler, ereignisdiskreter, verteilter Speichersimulationen in Python. SimX ist hauptsächlich in C++ geschrieben und bietet dem Simulationsmodellierer die Kernfunktionen, die in einer parallelen Simulationsbibliothek benötigt werden, wie Ereigniswarteschlangen, Zeitvorschub, Domänenpartitionierung, Synchronisierung, Objektserialisierung und Nachrichtenweitergabe. SimX-APIs werden Python ausgesetzt, was die schnelle Entwicklung und das Prototyping einer parallelen Simulation vollständig in Python ermöglicht. SimX ist freie Software, die unter der GNU LGPL-Lizenz erhältlich ist.

Thomas Maxwell, Ferdinando Villa und Robert Costanza, alle mit dem International Institute for Ecological Economics (Center for Environmental Science, University of Maryland System), haben eine integrierte Umgebung für leistungsstarke räumliche Modellierung namens called Räumliche Modellierungsumgebung (SME). Von der KMU-Homepage: "Diese Umgebung, die auf transparente Weise symbolbasierte Modellierungsumgebungen mit fortschrittlichen Computerressourcen verknüpft, ermöglicht es Modellierern, Simulationen in einer benutzerfreundlichen, grafischen Umgebung zu entwickeln, die keine Kenntnisse in der Computerprogrammierung erfordert. Automatische Codegeneratoren konstruieren (räumliche) ) Simulationen und ermöglichen die verteilte Verarbeitung über ein Netzwerk von parallelen und seriellen Computern, was einen transparenten Zugriff auf modernste Rechenanlagen ermöglicht.Die Umgebung erlegt die Einschränkungen der Modularität und Hierarchie beim Modellentwurf auf und unterstützt die Archivierung von wiederverwendbaren Modellkomponenten definiert in unserer Modularen Modellierungssprache (MML)."

StarLogo Nova ist eine visuell programmierbare Modellierungsumgebung zum Erkunden der Funktionsweise dezentraler Systeme, die speziell für K-12-Studenten benutzerfreundlich gestaltet wurde. StarLogo Nova kann verwendet werden, um viele reale Phänomene wie Vogelschwärme, Verkehrsstaus, Ameisenkolonien und einfache Marktwirtschaften zu modellieren. Umfangreiche Unterstützung (Tutorials, Demos, Diskussionsgruppe für Benutzer. ) wird auf der StarLogo Nova-Website bereitgestellt.

Schwarm ist im Wesentlichen eine Sammlung von Softwarebibliotheken, die in Objective C geschrieben wurden und von Forschern des Santa Fe Institute entwickelt wurden, um diskrete Ereignissimulationen komplexer Systeme mit heterogenen Elementen oder Agenten zu erstellen. Einige untergeordnete Bibliotheken, die mit Objective C verbunden sind, sind auch in Tk geschrieben, einer Skriptsprache, die grundlegende grafische Werkzeuge wie Grafiken, Fenster und Eingabe-Widgets implementiert.

Das in C++ (Open-Source) implementierte Trade Network Game (TNG) kombiniert evolutionäres Gameplay mit bevorzugter Partnerauswahl. Aufeinanderfolgende Generationen von Händlern mit eingeschränkten Ressourcen wählen und verweigern Handelspartner auf der Grundlage ständig aktualisierter erwarteter Auszahlungen, beteiligen sich an riskanten Geschäften, die als Zwei-Personen-Spiele modelliert sind, und entwickeln ihre Handelsstrategien im Laufe der Zeit weiter. Der modulare Aufbau des TNG-Frameworks erleichtert das Experimentieren mit alternativen Spezifikationen für Marktstruktur, Handelspartner-Matching, Erwartungsbildung und Handelsstrategieentwicklung. Der TNG-Rahmen kann verwendet werden, um die evolutionären Implikationen dieser Spezifikationen auf drei verschiedenen Ebenen zu untersuchen: Bildung von Handelsnetzwerken (wer handelt mit wem und mit welcher Regelmäßigkeit), Verhaltensweisen von Händlern in Handelspartnerbeziehungen und soziale Wohlfahrtsergebnisse. Der TNG-Quellcode und das Handbuch sowie Forschungsartikel zum TNG sind erhältlich bei der can TNG-Startseite.

Ventana Systems, Inc., Harvard, Massachusetts, wurde 1985 mit dem Ziel gegründet, groß angelegte Simulationsmodelle zu entwickeln, die sowohl geschäftliche als auch technische Elemente integrieren, um schwierige Managementprobleme zu lösen. Ventana Systems unterstützt jetzt eine eigene Simulationssprache namens Vensim. Von der Vensim-Homepage: "Vensim wird zum Entwickeln, Analysieren und Verpacken hochwertiger dynamischer Feedback-Modelle verwendet. Modelle werden grafisch oder in einem Texteditor erstellt. Zu den Funktionen gehören dynamische Funktionen, Subskription (Arrays), Monte-Carlo-Sensitivitätsanalyse, Optimierung, Datenverarbeitung, Anwendungsschnittstellen und vieles mehr. . Vensim PLE (Personal Learning Edition) ist eine Software, die Ihnen den Einstieg in die Systemdynamikmodellierung erleichtert und für den Bildungsbereich kostenlos und für den kommerziellen Einsatz kostengünstig ist. Vensim PLE ist ideal für den Einsatz im Klassenzimmer und für das persönliche Lernen der Systemdynamik."


Methodik

In diesem Abschnitt wird ein raumzeitlicher Modellierungsansatz vorgestellt, der die diskutierten Modelle integriert und weiterentwickelt, um die Planung der erneuerbaren Energieerzeugung auf kommunaler Ebene zu fördern und die im vorherigen Abschnitt aufgezählten Anforderungen erfüllt. Es werden Modelle zur Schätzung des EE-Potentials und des Strombedarfs und der Wärme in hoher räumlich-zeitlicher Auflösung für Kommunen sowie zwei alternative Nutzungspfade für die generierten Daten vorgeschlagen, um den Planungs- und Entscheidungsfindungsprozess zu unterstützen. Letztere beinhalten einen Entscheidungsbaum-Algorithmus und eine GIS-basierte Benutzeroberfläche. Die erste dient dazu, Stromerzeugungsanlagen mit der besten Anpassung an den Strombedarf auszuwählen und notwendige und optimale Stromspeicher zu dimensionieren. Die zweite bietet eine interaktive Umgebung für die Planung von Fernwärmenetzen, basierend auf dem Energiebedarf für die Beheizung einzelner Gebäude und der Reduzierung des Bedarfs (durch Nachrüstungsmaßnahmen) und der Einführung aktiver Solarenergie-Erntesysteme.

Die vorgeschlagene Methodik ist in Abb. 4 grafisch zusammengefasst, wird in den nächsten Unterabschnitten beschrieben und ihre vielfältigen Komponenten werden zusammen mit Fallstudien in [183,184,185,186] detailliert erläutert. Die verschiedenen Teile der Methodik und die Planungswerkzeuge wurden unter Verwendung der In-Memory-Array-Verarbeitungsumgebung von Python [187] und Numpy [188], der Pakete Scipy [189] und Pandas [190] sowie Open-Source-GIS-Tools einschließlich gdal . implementiert /ogr [191], GRASS GIS [192] und QGIS [193]. Für das Datenmanagement wurde TGRASS [157] verwendet, die raumzeitliche Datenbank von GRASS GIS.

Übersicht über die Methodik: Gesamtablauf der vorgeschlagenen Methodik

Energieerzeugungspotenzial fluktuierender erneuerbarer Energien in hoher räumlich-zeitlicher Auflösung

Drei aufeinanderfolgende Schritte werden vorgeschlagen, um das Potenzial fluktuierender RES in hoher räumlich-zeitlicher Auflösung zu berechnen. In einem ersten Schritt wird das Untersuchungsgebiet mithilfe eines GIS-basierten Verfahrens nur auf die Standorte reduziert, an denen möglicherweise EE-basierte Energieerzeugungsanlagen platziert werden könnten. Bei solaraktiven Technologien (PV und ST) stellen Dächer die bestmöglichen Standorte dar, da kein Konflikt mit anderen Nutzungen oder Ressourcen besteht. Es ist jedoch technisch nicht möglich, die gesamte Dachfläche für PV (zumindest mit den meisten verbreiteten PV-Technologien) oder ST-Anlagen zu nutzen. Daher müssen Objekte wie Gauben und Schornsteine ​​von der Analyse ausgeschlossen werden. Die Restflächen eines Daches werden nach den beiden wesentlichen Konstruktionsfaktoren, die die Leistung aktiver Solaranlagen beeinflussen, Neigung (Neigung) und Ausrichtung (Aspekt) klassifiziert [194]. Um diese Auswahl und Klassifizierung zu erzeugen, werden hochauflösende DSM- und Gebäudegrundrisse verwendet. Die Genauigkeit der Identifizierung jeder potentiellen Oberfläche hängt stark von der Qualität und Auflösung der Geodaten ab. Ein Beispiel für die Dachteile von drei Gebäuden, die nach acht verschiedenen Aspekten klassifiziert sind, ist in Abb. 5 dargestellt. Wie in [195] ausführlich diskutiert wurde, ist eine DSM-Auflösung von 25 cm (DSM0,25 in Abb. 5) der beste Kompromiss zwischen Genauigkeit und Datenmenge, um geeignete Oberflächen für aktive Solarsysteme nur anhand von Ausrichtung und Neigung zu identifizieren und zu klassifizieren.

DSM-Auflösungen für die Identifizierung von Dachflächen: Ergebnisse der Identifizierung und Klassifizierung von Dachflächen für DSMs mit Auflösungen von 1 cm × cm (DSM0.01) bis 1 m × 1 m (DSM1). Die LiDAR-Daten zur Generierung des DSM1 wurden vom Bayerischen Vermessungsamt (2014), http://geodaten.bayern.de, bereitgestellt. Die Daten und Methodik zur Generierung des restlichen DSM entsprechen denen in [195]

Bei der Auswahl von Gebieten für den Windkrafteinsatz ist das Verfahren nicht so einfach wie bei Solartechnologien. Dabei kommt ein GIS-basiertes Verfahren zum Einsatz, das ungeeignete Flächen aus rechtlichen und umwelttechnischen Gründen ausschließt. Da die für die meisten Fallstudien herangezogene Gemeinde in Bayern (Deutschland) liegt, entsprechen die umgesetzten Einschränkungen den Auslegungs- und Zulassungsempfehlungen von Windenergieanlagen in Bayern, wie in [196] beschrieben. Diese schließen aus:

(a) Standorte im Umkreis von 100 m von Bundesautobahnen, Eisenbahnen, Stromleitungen und Bundes-, Landes- und Landstraßen

(b) Standorte im Umkreis von 500 m um Flugverkehrsflächen, Industriebauten, Nationalparks, Landschaftsschutzgebiete, Vogelschutzgebiete, Biotope und Lebensräume für Flora und Fauna

(c) Flächen im Umkreis von 800 m von Wohngebäuden und Gebäuden auf gemischten Wohn- und Gewerbegebieten,

aus Windkraftnutzung. Diese Arten von Beschränkungen können jedoch weltweit an die lokalen Vorschriften eines bestimmten Studiengebiets angepasst werden.

Der zweite Schritt zur Berechnung des Potenzials fluktuierender erneuerbarer Energien in hoher raumzeitlicher Auflösung besteht darin, die Zeitreihen der Sonneneinstrahlung oder der verfügbaren Windressourcen für jeden im vorherigen Schritt identifizierten potenziellen Standort zu generieren. Diese Zeitreihen entsprechen entweder einem bestimmten Jahr oder einem typischen meteorologischen Jahr. Die Sonneneinstrahlung wird mit den Modulen r.horizon und r.sun von GRASS GIS in stündlicher oder innerstündlicher zeitlicher Auflösung für jeden Pixel innerhalb der geeigneten Flächen berechnet. r.sun ist ein Open-Source-Tool, das in reinen Raumstudien zu aktiven Solartechnologien weit verbreitet ist und ein flexibleres, effizienteres und zuverlässigeres Werkzeug zur Berechnung der Sonneneinstrahlung in hoher raumzeitlicher Auflösung für ganze Gemeinden ist als sein proprietäres Gegenstück. Solaranalytiker von ArcGIS [197]. Verschattungen auf den Oberflächen werden durch die Berechnung der Horizonte durch nahe und entfernte Objekte berücksichtigt, die mit r.horizon getrennt berechnet werden. Die Horizonte naher Objekte wie Nachbargebäude, Schornsteine ​​oder Gauben werden mit einem DSM mit der höchsten verfügbaren Auflösung berechnet. Horizonte durch entfernte Objekte, wie Berge, in einem Umkreis von 230 km 2 werden mit einem DSM gröberer Auflösung berechnet. Weitere atmosphärische Parameter (z. B. Linke-Trübungsfaktor) für die Clear-Sky-Berechnung werden aus Datenquellen mit globaler Abdeckung wie der SODA-Datenbank [198] abgerufen. Die erforderlichen Daten zur Schätzung der Sonneneinstrahlung unter realen Himmelsbedingungen werden entweder aus einzelnen Bodenmessungen, Testreferenzjahren, aus Satellitenbildern abgeleiteten Daten oder Reanalysedaten gewonnen. Bodenmessungen und Testreferenzjahre sind die genauesten Datenquellen, aber aus Satellitenbildern abgeleitete Daten und Reanalysedaten haben eine bessere Abdeckung und sind geeignete Datenquellen für Standorte mit einer geringen Dichte von Bodenstationen [199]. Schließlich werden die resultierenden Real-Himmel-Einstrahlungsdaten aller Pixel in einer bestimmten Oberfläche in einem einzigen Wert zusammengefasst. Dabei werden Zeitreihen von 1 Jahr mit einer Auflösung von mindestens 1 h Sonneneinstrahlung für jede geeignete Oberfläche erzeugt.

Für den Fall von Windressourcen werden Windgeschwindigkeitszeitreihen für jeden geeigneten Bereich für Windenergieanlagen unter Verwendung des Potenzgesetzes von logarithmischen Profilen zur Schätzung der Windgeschwindigkeit in Nabenhöhe berechnet. Dies erfordert bestimmte Windgeschwindigkeits-Referenzdaten (Bodenmessungen oder Reanalysedaten) und Informationen über die Länge der Oberflächenrauheit, die aus Landnutzungsdaten geschätzt werden können. Das Ergebnis sind stündliche oder innerstündliche Windgeschwindigkeits-Zeitreihen auf Nabenhöhe für jeden geeigneten Bereich für Windenergieanlagen.

Der dritte Schritt ist die Berechnung des Energieertrags jeder möglichen EE-Anlage. Die PV-Leistung wird basierend auf der im vorherigen Schritt berechneten Einstrahlungszeitreihe, dem Wirkungsgrad des Photovoltaikmoduls, einem Temperaturkorrekturfaktor, der Umgebungslufttemperatur, einem Reduktionsfaktor aufgrund der Installationsart, der Nennbetriebstemperatur und der verfügbaren Oberfläche berechnet. Bei ST-Systemen sind die relevanten Parameter auch die Einstrahlungszeitreihen, die Umgebungslufttemperatur, die Betriebstemperatur des Systems, der Wirkungsgrad und die verfügbare Oberfläche. Die Umgebungstemperatur kann aus Testreferenzjahren oder Reanalysedaten abgerufen werden. Bei Windenergieanlagen wird die abgegebene Leistung anhand einer Anlagenleistungskurve abgeschätzt, die von Kapazitätsfaktor, Einschaltwindgeschwindigkeit, Nennwindgeschwindigkeit, Abschaltwindgeschwindigkeit, Rotordurchmesser, Nennleistung und Luftmassendichte abhängt. Es wird angenommen, dass die momentane Leistung der Systeme in jedem Zeitschritt konstant bleibt (dies bedeutet, dass Einstrahlung, Temperatur und Windgeschwindigkeit während der betrachteten Zeitschrittlänge unverändert bleiben) und die endgültige Leistung sind die Energieerzeugungszeitreihen der jeweiligen Anlagen.

Energiebedarf für Strom, Heizung und Warmwasserbereitung in hoher räumlich-zeitlicher Auflösung

Zur Erzeugung von Strombedarfs-Zeitreihen wird ein weit verbreiteter Ansatz gewählt, der in der Literaturübersicht identifiziert wurde: Jahressummen des Strombedarfs der Kommune von lokalen Netzbetreibern werden mit den standardisierten Lastprofilen des Bundesverbandes für Energie in Zeitreihen transformiert und Wasserwirtschaft (BDEW- Bundesverband der Energie- und Wasserwirtschaft). Diese Lastprofile berücksichtigen sowohl tägliche als auch saisonale Schwankungen und sind in 15-Minuten-Zeitschritten für 11 verschiedene Benutzertypen verfügbar. Es wird davon ausgegangen, dass die tatsächlichen Anforderungen tendenziell den standardisierten Lastprofilen mit erhöhter Nutzerzahl (Abweichungen um ±10 %) [200] entsprechen und alle Nutzer Teil desselben Netzes sind. Für den Fall, dass nur Wohnnutzer untersucht werden, können Bevölkerungsdaten auch zur Berechnung des jährlichen Stromverbrauchs verwendet werden, der mit den standardisierten Lastprofilen in Zeitreihen überführt werden kann.

Zur Abschätzung des Energiebedarfs für Heizung und Warmwasserbereitung wird ein UBEM-Ansatz verwendet. Die in [179] vorgeschlagene Methodik wird um die Berücksichtigung ortsabhängiger Solarenergiegewinne erweitert, die mit der im vorigen Abschnitt beschriebenen Einstrahlungszeitreihe berechnet werden. Kern dieses UBEM-Ansatzes ist eine angepasste Version des einfachen Stundenberechnungsverfahrens der EN ISO 13790. Die Anpassung umfasst die Berücksichtigung nur einer Bauzone und die Reduktion der Eingangsdaten auf Informationen über die Gebäudequalität aus der Datenbank der TABULA-Projekt. Dieses thermische Modell wird für jedes Hauptgebäude in einem Untersuchungsgebiet verwendet (Nebengebäude wie Stallungen, Garagen oder Werkzeugdepots werden unter der Annahme, dass es sich um unbeheizte Gebäude handelt, weggelassen). Die Gebäudeklassifizierung erfolgt anhand georeferenzierter Vektordaten der Gebäude (LOD1) mit Nutzungsart, Baujahr, Geschossanzahl und Referenzfläche (berechnet aus Gebäudegrundriss und Geschossanzahl). Wohngebäude werden in die Typologien des TABULA-Projekts eingeordnet, während Nichtwohngebäude lediglich nach Baujahrklassen geordnet werden. Anschließend kommt für jedes Gebäude die kundenspezifische Version des einfachen Stundenberechnungsverfahrens der EN ISO 13790 zum Einsatz. Die Bauqualitätsdaten (z.B. du-Werte von Wänden und Fenstern) werden entweder aus der jeweiligen Gebäudetypologie oder aus einem durchschnittlichen Gebäude einer bestimmten Jahrgangsklasse ermittelt. Die Solarstrahlungsgewinne werden mit den gleichen Einstrahlungsdaten geschätzt, die für die PV- und ST-Systeme verwendet werden. Da das zugrunde liegende DSM 2,5D- und keine 3D-Auflösung hat und das r.sun-Tool ebenfalls nur in 2,5D arbeitet, sind für die Berechnung der Einstrahlung auf vertikalen Flächen Annahmen notwendig.Die georeferenzierten Daten werden verwendet, um Wände, die von anderen Gebäuden oder Objekten bedeckt sind, aus der Berechnung auszuschließen und einen Puffer von 1 m außerhalb der tatsächlich von der Sonneneinstrahlung getroffenen Wände zu bilden. Die durchschnittliche Bestrahlungsstärke auf diesen Oberflächen wird als Eingabe für die Berechnung der Sonnenenergiegewinne verwendet, die durch jede Wand kommen. Der Energiebedarf für die Warmwasserbereitung wird in Abhängigkeit von der in einem bestimmten Zeitschritt verbrauchten Warmwassermenge (abhängig von der Anzahl der aktiven Bewohner eines Gebäudes und ihrem gesamten Standard-Tageswarmwasserbedarf) und einer einfachen thermodynamischen Gleichung zur Ermittlung des berechnet Energiemenge, die benötigt wird, um die Wassermenge in einem bestimmten Zeitschritt auf die gewünschte Temperatur zu erhitzen. Zudem basiert das Besetzungsmodell im Vergleich zu [179] nicht auf einem stochastischen Modell, das auf Nutzungszeiterhebungen wie der in [201] beschriebenen beruht, sondern auf einer deterministischen Verteilung der Bewohnerzahl pro Wohnung, die abhängig ist von das Strombedarfsprofil. Dies impliziert, dass Wärmegewinne durch Belegung, Geräte und Beleuchtung mit dem prognostizierten Strombedarf korreliert sind. Die Ausgabe des UBEM ist die Zeitreihe des Energiebedarfs für Heizung und Warmwasserbereitung für jedes Gebäude in einer zeitlichen Auflösung von 1 h.

Planung dezentraler erneuerbarer Energiesysteme

Die Herausforderung nach der Erstellung der riesigen Menge an hochauflösenden raumzeitlichen EE-Potenzial- und Energiebedarfsdaten besteht darin, diese für Planungs- und Entscheidungsprozesse nutzbar zu machen. Um dies zu erreichen, werden zwei Analysealternativen vorgeschlagen. Diese werden in den nächsten Unterkapiteln kurz beschrieben und in [183] ​​und [184] ausführlich erläutert.

Dimensionierung verteilter erneuerbarer Energiesysteme

Es wird ein Entscheidungsbaum vorgeschlagen, um die beste Übereinstimmung zwischen den Stromerzeugungsprofilen mehrerer RES-Anlagen und dem Strombedarf einer Gemeinde (oder eines Teils davon) zu finden. Der Kern des Entscheidungsbaums ist ein Kriterium namens RichtigF (Gl. 1), die die Leistung jeder Anlage anhand der Menge der richtig zugeführten Energie (Gl. 2) und der Menge der überschüssigen Energie (Gl. 3) bewertet.

wo Exct = Menge überschüssiger Energie im Zeitschritt t

Dt = lokaler Strombedarf im Zeitschritt t

Et = Energieabgabe des Kraftwerks (Wind oder PV) im Zeitschritt t

PrSut = Menge der richtigen angebotenen Nachfrage im Zeitschritt t

Der Entscheidungsbaum beginnt mit der Bewertung jeder potenziellen EE-Installation anhand der lokalen Nachfrage mit ProperF. Das EE-Kraftwerk mit dem höchsten ProperF wird ausgewählt und seine Zeitreihen der Stromproduktion von der lokalen Bedarfslast abgezogen. Anschließend werden die verbleibenden EE-Kraftwerke erneut anhand des Restbedarfs bewertet. Basierend auf ProperF wird eine zweite EE-Energieanlage ausgewählt. Dieser Auswahlprozess wird fortgesetzt, bis die Summe der Energieabgaben der EE-Energieerzeugungsanlagen einer gewünschten RES-Penetrationsrate entspricht. Der Endertrag des Sets ausgewählter Anlagen dient der Dimensionierung und Berechnung des Ladezustands von Speichersystemen mit a priori definierten Größen, die darauf optimiert sind, möglichst viel genutzt zu werden oder den gesamten produzierten Strom aus dem Set ausgewählter Anlagen zu speichern . Durch Einstellen der Speicherkapazität auf einen bestimmten vordefinierten Wert kann der Einfluss der Einführung von Speichersystemen auf die lokale Energiematrix untersucht werden.

Der Beitrag des virtuellen Kraftwerks (bestehend aus dem Set der EE-Erzeugungsanlagen) zur lokalen Energiebilanz wird mit einem Indikatorenset bewertet. Dazu gehören die installierte Gesamtleistung (in kW), die Variabilität der Leistung (in kW), die gesamte nicht erfüllte Nachfrage (in MWh), die gesamte überschüssige Energie (in MWh), die gesamte ordnungsgemäß gelieferte Energie (in MWh), die Ausfallwahrscheinlichkeit der Stromversorgung (LPSP), Lieferstunden höher als die höchste Nachfrage, Lieferstunden höher als das 1,5-fache der höchsten Nachfrage, benötigte Speicherenergiekapazität (in MWh) und benötigte Dispatch-Leistung des Speichersystems (in kW). Eine detaillierte mathematische Beschreibung dieser Indikatoren findet sich in [183]. Die Ergebnisse der Indikatoren dienen dazu, die Eignung eines bestimmten EE-Ziels und die Relevanz bestimmter Technologien für die lokale Energiematrix zu bewerten und eine Roadmap zu definieren, welche Anlagen tatsächlich gebaut werden sollten, um die angestrebten Ziele zu erreichen.

Eine GIS-basierte Benutzeroberfläche zur Planung von Fernwärmenetzen

Die Bewertung der Wirtschaftlichkeit von Fernwärmesystemen ist eines der Themen, die traditionell mit GIS-Tools angegangen werden. Diese Tools dienen der Auswertung, z.B. die Energiebedarfsdichte pro Meter installierten Wärmenetzes, die ein entscheidender Parameter für den Auf- oder Ausbau der Wärmenetze ist [140]. In der Regel werden Szenarien unter der Annahme eines bestimmten Sanierungsgrades des bestehenden Gebäudebestands erstellt. Diese sind nützlich, um vorherzusagen, inwieweit Fernwärme rentabel ist, wenn Gebäude saniert werden. Anhand der Zeitreihen potenzieller aktiver Solarenergieanlagen und der Energiebedarfsdaten ist es jedoch möglich, die Analyse zu verbessern. Ein Plug-In für die Open-Source-Software QGIS wird implementiert, um die Funktionalität von EZP zu erweitern, einem Werkzeug zur Planung von Fernwärmenetzen, das ursprünglich mit Daten in Jahresauflösung betrieben wurde [140]. Mit dem neuen Tool wird es möglich, die Auswirkungen des Einsatzes von ST-Systemen auf die Rentabilität eines Fernwärmenetzes zu untersuchen, ein detailliertes Einsatzprofil für die Wärmeerzeugungsanlage zu berechnen und das Nutzungspotenzial der verbleibenden Dachflächen für PV sowie deren Beitrag zur Deckung des lokalen Strombedarfs [180].

Das Plug-in, genannt EZP+, benötigt die raumzeitliche Sonneneinstrahlung, die Wärmeenergiebedarfsdaten, die potenziellen Dachflächen, die für den PV- und ST-Einsatz in jedem Gebäude geeignet sind, und die Geodaten, die notwendig waren, um das ursprüngliche EZP als Eingabe zu betreiben. Letztere beinhalten georeferenzierte Vektordaten mit Flurstücken und Gebäudegrundrissen sowie die Form des potentiellen Fernwärmenetzes, das in ein Hauptnetz (zusammengebaut aus Abschnitten, die Straßennamen entsprechen) und die Netzverbindungen zu den Gebäuden unterteilt sind. Darüber hinaus werden die möglichen Energieverluste des Netzes und die PV/ST-Energieerträge nicht vorberechnet, so dass der Benutzer mehrere Parameter auf die besonderen Bedingungen des Untersuchungsgebiets einstellen kann. Sofern verfügbar, kann der Nutzer spezifische Daten über den durchschnittlichen Jahresstrombedarf der Haushalte, Energiebedarfsprofile von Nichtwohngebäuden, Energieverluste des Fernwärmenetzes und die technischen Parameter PV/ST sowie den maximal gewünschten PV . angeben /ST Installationsgröße pro Haushalt. Der letzte Parameter dient zur Berücksichtigung z.B. lokale Wirtschaftsförderungsmechanismen für bestimmte PV/ST-Anlagengrößen.

Nach Eingabe der Eingabedaten und Parameter wählt der Benutzer die Gebäude aus, die mit PV- und ST-Systemen ausgestattet werden sollen. Die Ertragsberechnungen der jeweiligen Systeme werden für jedes ausgewählte Gebäude on-the-fly durchgeführt. Um das PV-Potenzial jedes Gebäudes zu ermitteln, wird der Teil des Daches mit der höchsten Sonneneinstrahlung pro Jahr ausgewählt. Reicht die Fläche dieses Dachteils nicht aus, um eine PV der vom Plug-in-Nutzer definierten Größe aufzunehmen, werden auch weitere Dachteile mit der nächsthöheren Sonneneinstrahlung pro Jahr ausgewählt, bis die PV-Anlage untergebracht werden kann. Die Anlagengrößenbegrenzung PV und ST ist die Summe der Flächen aller geeigneten Dachteile. Der Flächenbedarf einer PV-Anlage wird auf Basis der vom Nutzer eingegebenen installierten Leistung und des Wirkungsgrades berechnet. Bei mehreren Haushalten im Gebäude wird die Größe der PV-Anlage für ein bestimmtes Gebäude mit der Anzahl der Haushalte multipliziert.

Das ST-Potenzial jedes Gebäudes wird berechnet und analog zum PV-Potenzial dargestellt. ST-Anlagen werden zunächst in dem Teil des Daches installiert, der die höchste Sonneneinstrahlung liefert. Wurde für das Gebäude zuvor eine PV-Anlage ausgewählt, reduziert sich die zur Verfügung stehende Dachfläche. Ähnlich wie beim PV-Potenzialfall wird die Energieabgabe der Anlagen stündlich mit dem Energiebedarf für Heizung und/oder Warmwasser der ausgewählten Gebäude verglichen (dieser wird im Fenster „Solarthermie“ angezeigt, das durch das Plug-In angezeigt wird). in. Ein Beispiel dafür ist im Fenster auf der rechten Seite von Abb. 6) dargestellt. Der Vergleich kann für eines von drei möglichen Szenarien durchgeführt werden: Ist-Zustand des Gebäudes, Gebäude mit Grundsanierung oder Gebäude mit fortgeschrittener Sanierung. Diese unterschiedlichen Energiebedarfsszenarien werden im Energiebedarfsmodell für Heizung und Warmwasserbereitung mit Annahmen entsprechend den Daten der Gebäudetypologien des TABULA-Projekts [181] vorberechnet. Außerdem wird der stündliche Energiebedarf des Gebäudes durch die Leistung der ST-Anlage reduziert. Der Restenergiebedarf ist die Grundlage zur Berechnung der Stundenlast, des Gesamtenergiebedarfs und der Wärmebedarfsdichte (Faktor zwischen Energiebedarf und Netzlänge) für jedes Gebäude.

EZP+ : Screenshot des EZP+ QGIS Plug-ins: Fernwärmebewertung führt zu einem Demostandort. Die Gebäude mit ST-Anlagen und das potenzielle Fernwärmenetz sind gelb markiert [184]

Nachdem alle Gebäude ausgewählt wurden, in denen ST-Systeme installiert werden sollen, wird die Machbarkeit eines Fernwärmesystems nach dem in [140] vorgeschlagenen Konzept von EZP bewertet. In der EZP wird die Gemeinde in durch Straßennamen definierte Unterzonen voreingeteilt, dann wird ein potentielles Fernwärmenetz gezeichnet, indem man dem Straßenverlauf folgt und den Schwerpunkt jedes Gebäudes an das Hauptnetz anschließt. Die zu berücksichtigenden Teilzonen werden interaktiv in einer Vektorkarte ausgewählt, wie auf der linken Seite von Abb. 6 dargestellt. Das EZP+ Plug-In berechnet die Länge des ausgewählten Netzes und die entsprechenden Verbindungen zu den Gebäuden. Das Restenergiebedarfsprofil (Energiebedarf jedes Gebäudes abzüglich der Leistung der ST-Anlagen) aller an das theoretische Netz angeschlossenen Gebäude wird stündlich aufsummiert. Dies dient zur Berechnung der Betriebsstunden und der notwendigen Energieleistung zur Deckung des Bedarfs des Fernwärmenetzes (im EZP wurden die Betriebsstunden des Fernwärmenetzes a priori bereitgestellt und der Energiebedarf wurde auf jeden Betrieb gleichmäßig verteilt Stunde). Darüber hinaus werden der jährliche Gesamtenergiebedarf pro Gebäude und die Wärmebedarfsdichte berechnet. Die Wärmeverluste werden für die Netzsegmente und die Netzverbindungen zu den Gebäuden und für das Gesamtsystem berechnet. Alle diese Ergebnisse werden zusammengefasst und in einem Fenster mit dem Namen „Fernwärmebewertungsergebnisse“ dargestellt, wie in der Mitte von Abb. 6 zu sehen ist. Außerdem wird das Lastprofil aller ausgewählten Teilzonen für das ausgewählte Sanierungsszenario als a . gespeichert csv-Datei. Die Wärmebedarfsdichte wird in der Attributtabelle einer Vektorkarte für jede Gebäudegruppe entsprechend einer Unterzone gespeichert. Wird der Auswahlprozess potenzieller Fernwärmenetze für verschiedene Teile der Gemeinde wiederholt, ist es möglich, die Wärmebedarfsdichte alternativer Fernwärmenetze zu vergleichen. Anhand der resultierenden Karte und der berechneten Kennzahlen können Planer die Wirtschaftlichkeit potenzieller Fernwärmenetze bewerten. Zusätzlich werden auch die verbleibenden Strombedarfszeitreihen und die Energieerzeugungszeitreihen der ungenutzten Dachflächen als csv-Datei gespeichert. Diese Daten sind eine geeignete Eingabe für den VPP-Konfigurationsalgorithmus. Es kann auch eine Studie des Elektrizitätsversorgungssystems durchgeführt werden, die die getroffenen Entscheidungen bezüglich des Wärmeversorgungssystems berücksichtigt.


Startup überdenkt Datenbanken für das Zeitalter der Echtzeit-Geodatenerfassung

Auch wenn Systeme wie Hadoop und Spark mit großen Datenmengen umgehen können, sind ihre Werkzeuge zur effizienten und in Echtzeit erfolgenden Analyse und Analyse dieser Informationen noch begrenzt. Ein zwei Jahre altes Startup aus Seattle namens SpaceCurve wird am Dienstag ein neues Datenbanksystem veröffentlichen, das den Prozess der Analyse standortbezogener Daten bei der Generierung beschleunigen soll.

„Wir sind in der Lage, Geodaten zu fusionieren, die sehr komplex und schwer zu verarbeiten sind“, sagte Dane Coyer, CEO von SpaceCurve. Die Software kann „kontinuierlich großvolumige Geodaten aufnehmen“ und es Benutzern ermöglichen, die Informationen abzufragen und zu überwachen.

Etwa 80 Prozent der Daten haben eine Art Geokomponente, schätzt das IT-Analystenunternehmen Gartner. Doch nur wenige Unternehmenssoftwaretools sind dafür ausgestattet, diese Daten optimal zu nutzen, so Coyer.

Herkömmliche Datenbanken und noch neuere Big-Data-Verarbeitungssysteme sind nicht wirklich für die schnelle Analyse solcher Daten optimiert, obwohl die meisten Systeme über eine gewisse Geodatenunterstützung verfügen. Und obwohl es keinen Mangel an geographischen Informationssystemen gibt, sind sie nicht dafür gerüstet, die immensen Mengen an Sensordaten zu verarbeiten, die von Sensornetzwerken im Internet-of-Things-Stil erzeugt werden könnten, sagte Coyer.

Das SpaceCurve-Entwicklungsteam hat eine Reihe von geometrischen Rechenalgorithmen entwickelt, die das Parsen von geografischen Daten vereinfachen. Sie haben auch die Kerndatenbank-Engine von Grund auf neu erstellt und so konzipiert, dass sie auf mehreren Servern parallel ausgeführt wird.

Infolgedessen kann SpaceCurve im Gegensatz zu Big-Data-Systemen wie Hadoop Abfragen in Echtzeit-Datenströmen durchführen, und dies zu einem Bruchteil der Kosten von In-Memory-Analysesystemen wie Oracle TimesTen, sagte Coyer.

Die Software könnte ein breites Anwendungsspektrum haben, sagte Coyer. Telekommunikationsunternehmen könnten die Technologie nutzen, um die Bewegungen ihrer Nutzer in Echtzeit zu überwachen. Es könnte auch verwendet werden, um den Tsunami eingehender Sensordaten von entfernten Systemen zu verwalten.

Als Beispiel für die Fähigkeiten des Systems zeigte Coyer, wie SpaceCurve eine visuelle Echtzeitanzeige des Fahrzeugverkehrs durch die Stadt Seattle zusammen mit demografischen Zusammenfassungen der Reisenden darstellen kann, wobei Protokollinformationen von Mobilfunkmasten verwendet und diese Daten mit der US-Volkszählung abgeglichen werden Statistik des Büros.

SpaceCurve kann mit Daten arbeiten, die auf verschiedene Weise gepackt wurden, darunter mit REST (Representational State Transfer), JSON (JavaScript Object Notation) und den ArcGIS-Formaten von Esri.

„Wenn Sie irgendeine Art von Technologie in Betracht ziehen, die es Ihnen ermöglicht, geografische Informationen zu verwenden, um Prozesse zu optimieren und Effizienz zu schaffen, werden Sie viele Anwendungsfälle haben, die eine ziemlich gute Kapitalrendite haben“, sagte Tom Petrocelli, Research Director für Enterprise-Social-, Mobile- und Cloud-Anwendungen für das Analyseunternehmen Neuralytix.

In diesem Bereich könnte das Unterscheidungsmerkmal von SpaceCurve die Kombination aus der Datenmenge sein, die die Software in Verbindung mit ihren Echtzeit-Analysefunktionen verarbeiten kann. Ein solches System könnte die Bühne für groß angelegte mobile Marketingkampagnen schaffen, die eine Person über einen Verkauf informieren könnten, wenn sie mit den angebotenen Artikeln am Geschäft vorbeigeht, sagte Petrocelli.

An raumbezogenen Datenbanksystemen und Software mangelt es nicht. IBM InfoSphere Streams wird zum Beispiel auch für die spontane Analyse großer Mengen georäumlich orientierter Daten vermarktet. Da diese Technologien so neu sind, ist es zu früh, um festzustellen, welcher Ansatz am besten funktioniert, sagte Petrocelli.

SpaceCurve hat bereits eine Reihe von Kunden aus verschiedenen Branchen gewonnen, darunter der Anbieter von Regierungssoftware Socrata, der Anbieter von IT-Performance-Management-Software Dyn und der Anbieter von Geoanalysen Via Informatics.

SpaceCurve wurde 2009 gegründet und hat Investitionen von einer Reihe verschiedener Investmentfirmen erhalten, darunter Reed Elsevier Ventures und Divergent Ventures. SpaceCurve hat sich mit einer Reihe von IT-Anbietern zusammengetan, die sich mit Geodaten auskennen, darunter der Mobilfunkanalyst AirSage, der Systemintegrator L3 und der Anbieter von Geodatensoftware Esri.

SpaceCurve hat die Kosten seiner Software nicht bekannt gegeben, obwohl Coyer feststellte, dass es im Bereich der meisten Unternehmenssoftwarepakete liegt. Es erfordert Linux und kann auf Cloud-Infrastrukturdiensten wie Amazon ausgeführt werden.


Fazit

Die Studienergebnisse zeigen eine schlechte geografische Erreichbarkeit von öffentlichen Gesundheitseinrichtungen, die TB-Testdienste am POC in UER, Ghana, anbieten. Die Ergebnisse dieser Studie haben evidenzbasierte Informationen geliefert, die bei der Planung und Verbesserung von TB-Testdiensten für die ersten ländlichen PHC-Kliniken in Gebieten mit schlechtem geografischen Zugang in der Region helfen. Für die meisten TB-Verdachtspatienten kann es ein limitierender Faktor sein, weite Wege zurückzulegen, um eine Gesundheitseinrichtung für TB-Tests außerhalb des eigenen Standorts zu erreichen, und könnte daher die bisherigen Erfolge der TB-Strategie in der Region beeinträchtigen. Lange Entfernungen können auch zu einer verspäteten Diagnose und Behandlung führen sowie die katastrophalen Kosten, die derzeit mit der TB-Behandlung in Ghana verbunden sind, verschlimmern. Um die Auswirkungen von TB-Infektion, Diagnose, Behandlung und den damit verbundenen katastrophalen Kosten in Ghana und anderen LMICs zu reduzieren, ist die Messung der geografischen Erreichbarkeit sehr wichtig, um evidenzbasierte Strategien zur Verbesserung der TB-Versorgung bereitzustellen. Wir möchten eine Replikation dieser Studie in Hochprävalenzregionen in Ghana und anderen TB-Hochprävalenzländern empfehlen. Wir empfehlen auch, in Regionen mit niedriger Prävalenz, insbesondere bei Hochrisikopopulationen, aktive TB-Fälle zu finden, um das Erreichen der TB-Endstrategie bis 2035 zu erleichtern.


Verweise

Balzter H, Braun PW, Köhler W (1998)Zelluläre Automatenmodelle für Vegetationsdynamik. Öko-Modell 107:113–125

Barredo JI, Kasanko M, McCormick N, Lavalle C (2003)Modellierung dynamischer räumlicher Prozesse: Simulation urbaner Zukunftsszenarien durch zelluläre Automaten. Stadtplan 64:145–160

Batty M (1998) Urbane Evolution auf dem Desktop: Simulation unter Verwendung erweiterter zellularer Automaten. Umweltplan A 30:1943–1967

Batty M, Xie Y, Sun Z (1999)Modellierung der Stadtdynamik durch GIS-basierte zelluläre Automaten. Computerumgebung Urban Syst 23:205–233

Buss TF (2001)Die Wirkung staatlicher Steueranreize auf das Wirtschaftswachstum und die Standortentscheidungen von Unternehmen: ein Überblick über die Literatur. Wirtschaftsentwicklung Q 15:90–105

Caruso G, Rounsevell M, Cojocaru G (2005)Untersuchung eines raumdynamischen, nachbarschaftsbasierten Modells des Wohnverhaltens im Stadtgebiet von Brüssel. Int J Geogr Inf Sci 19:103–123

Chen Q, Mynett AE (2003)Auswirkungen der Zellgröße und -konfiguration in der zellulären Automaten-basierten Beute-Raubtier-Modellierung. Simulmodell-Praxistheorie 11:609–625

Chen M, Lu D, Zha L (2010)Die umfassende Bewertung von Chinas Urbanisierung und Auswirkungen auf Ressourcen und Umwelt. J Geog Sci 20:17–30

Cho H, Swartzlander EE (2007)Adder entwirft und analysiert für zelluläre Quantenpunktautomaten. Nanotechnologie IEEE Trans 6:374–383

Clarke KC, Gaydos LJ (1998)Lockere Kopplung eines zellulären Automatenmodells und eines GIS: langfristige Vorhersage des Stadtwachstums für San Francisco und Washington/Baltimore. Int J Geogr Inf Sci 12:699–714

Clarke KC, Hoppen S, Gaydos L (1997)Ein selbstmodifizierendes zelluläres Automatenmodell der historischen Urbanisierung in der San Francisco Bay Area. Umweltplan 24:247–261

Cohen B (2004)Städtisches Wachstum in Entwicklungsländern: ein Überblick über aktuelle Trends und eine Vorsicht in Bezug auf bestehende Prognosen. Weltentwicklung 32:23–51

Coppin P, Jonckheere I, Nackaerts K, Muys B, Lambin E (2004)RezensionsartikelDigitale Veränderungserkennungsmethoden in der Ökosystemüberwachung: eine Übersicht. Int J Fernerkundung 25:1565–1596

Couclelis H (1985)Zelluläre Welten: ein Rahmen für die Modellierung der Mikro-Makro-Dynamik. Umweltplan A 17:585–596

Couclelis H (2000)Vom nachhaltigen Transport zur nachhaltigen Zugänglichkeit: Können wir eine neue Tragödie der Gemeingüter vermeiden? In: Janelle DG, Hodge DC (Hrsg.) Informationen, Orte und Cyberspace. Fortschritte in der Raumwissenschaft, Teil IV. Springer, Berlin, Heidelberg, S. 341–356

Defries RS, Rudel T, Uriarte M, Hansen M (2010)Entwaldung durch städtisches Bevölkerungswachstum und Agrarhandel im 21. Jahrhundert. Nat Geosci 3:178–181

Deutsch A, Dormann S (2007)Zelluläre Automatenmodellierung der biologischen Musterbildung: Charakterisierung, Anwendungen und Analyse. Springer Wissenschaft und Wirtschaftsmedien, Berlin

Du H, Mulley C (2006)Beziehung zwischen Verkehrserreichbarkeit und Bodenwert: lokaler Modellansatz mit geografisch gewichteter Regression. Transp Res Rec J Transp Res Board 197–205

EPA (2012) Umweltschutzbehörde (EPA) [Online]. Verfügbar: http://www.epa.ie/soilandbiodiversity/soils/land/corine/#.VbjfhflViko. Aufgerufen am 15. Februar 2015

EPA (2015) Corine Land Cover Mapping, EPA [Online]. Umweltschutzbehörde (EPA) Verfügbar: http://www.epa.ie/soilandbiodiversity/soils/land/corine/#.Vbo-2_lViko. Aufgerufen am 20. Juni 2015

Evans D (2006)Die Lebensräume der Habitatrichtlinie der Europäischen Union. In: Biologie und Umwelt: Proceedings of the Royal Irish Academy, 2006. JSTOR, S. 167–173

Flache A, Hegselmann R (2001) Machen unregelmäßige Raster einen Unterschied? Lockerung der Annahme der räumlichen Regularität in zellulären Modellen der sozialen Dynamik. J Artif Soc Soc Simul 4(4)

Foley JA, Defries R, Asner GP, Barford C, Bonan G, Carpenter SR, Chapin FS, Coe MT, Daily GC, Gibbs HK, Helkowski JH, Holloway T, Howard EA, Kucharik CJ, Monfreda C, Patz JA, Prentice IC , Ramankutty N, Snyder PK (2005)Globale Folgen der Landnutzung. Wissenschaft 309:570–574

Geertman S, Hagoort M, Ottens H (2007)Räumlich-zeitliche spezifische Nachbarschaftsregeln für die Landnutzungsmodellierung durch zelluläre Automaten. Int J Geogr Inf Sci 21:547–568

Geurs KT, van Wee B (2004)Zugänglichkeitsbewertung von Landnutzungs- und Verkehrsstrategien: Überprüfung und Forschungsrichtungen. J Transp Geogr 12:127–140

Gharbia SS, Gill L, Johnston P, Pilla F (2015)GEO-CWB: ein dynamisches Wasserbilanzinstrument für das Wassermanagement von Einzugsgebieten. In: 5. internationale multidisziplinäre Konferenz für Hydrologie und Ökologie (HydroEco2015), in Wien, Österreich, 2015

Gharbia SS, Gill L, Johnston P, Pilla F (2016a) Multi-GCM-Ensembles-Performance für die Klimaprojektion auf einer GIS-Plattform. Modell Earth Syst Environ 2:1–21

Gharbia SS, Gill L, Johnston P, Pilla F (2016b) Verwendung von GIS-basierten Algorithmen für die Leistungsbewertung von GCMs. In: 18. IEEE mediterrane elektrotechnische Konferenz MELECON 2016. IEEE, Zypern

Herold M, Goldstein NC, Clarke KC (2003)Die raumzeitliche Form des Stadtwachstums: Messung, Analyse und Modellierung. Remote Sens Umgebung 86:286–302

Herold M, Couclelis H, Clarke KC (2005)Die Rolle räumlicher Metriken bei der Analyse und Modellierung des städtischen Landnutzungswandels. Computerumgebung Urban Syst 29:369–399

Iovine G, D’Ambrosio D, di Gregorio S (2005)Anwenden genetischer Algorithmen zur Kalibrierung eines hexagonalen zellulären Automatenmodells zur Simulation von Murgängen, die durch starke Trägheitseffekte gekennzeichnet sind. Geomorphologie 66:287–303

Itami RM (1994)Simulation räumlicher Dynamik: zelluläre Automatentheorie. Landsc Urban Plan 30(1–2):27–47

Jantz CA, Goetz SJ, Shelley MK (2004)Verwendung des SLEUTH-Stadtwachstumsmodells zur Simulation der Auswirkungen zukünftiger politischer Szenarien auf die städtische Landnutzung in der Metropolregion Baltimore-Washington. Umweltplan 31:251–271

Jenerette GD, Wu J (2001)Analyse und Simulation von Landnutzungsänderungen in der Region Zentral-Arizona-Phoenix, USA. Landsc Ecol 16:611–626

Jiao J, Boerboom L (2006)Übergangsregel-Ermittlungsmethoden für urbane zelluläre Automatenmodelle. In: Van Leeuwen J, Timmermans HP (Hrsg.) Innovationen in Design- und Entscheidungsunterstützungssystemen in Architektur und Stadtplanung. Springer, Niederlande

Jokar Arsanjani J, Helbich. M, Kainz W, Darvishi Boloorani A (2013)Integration von logistischen Regressions-, Markov-Ketten- und zellulären Automatenmodellen zur Simulation der Stadterweiterung. Int J Appl Earth Obs Geoinf 21:265–275

Kueppers L, Baer P, Harte J, Haya B, Koteen L, Smith M (2004)Ein Entscheidungsmatrixansatz zur Bewertung der Auswirkungen von Landnutzungsaktivitäten zur Eindämmung des Klimawandels. Clim Chang 63:247–257

Lambin EF (1997)Modellierung und Überwachung von Landbedeckungsänderungsprozessen in tropischen Regionen. Prog Phys Geogr. 21:375–393

Lau KH, Kam BH (2005)Ein zelluläres Automatenmodell für die Simulation der urbanen Landnutzung. Umweltplan 32:247–263

Li C (2014)Überwachung und Analyse des städtischen Wachstumsprozesses mithilfe von Fernerkundung, GIS und zellulärer Automatenmodellierung: eine Fallstudie der Stadt Xuzhou. TU Dortmund, China

Li X, Yeh AG-O (2000)Modellierung einer nachhaltigen Stadtentwicklung durch die Integration von eingeschränkten zellulären Automaten und GIS. Int J Geogr Inf Sci 14:131–152

Li X, Yeh G-O (2002)Integration von Hauptkomponentenanalyse und zellulären Automaten für räumliche Entscheidungsfindung und Stadtsimulation. Wissenschaft China, Ser D Erde Wissenschaft 45:521–529

Li W, Packard NH, Langton CG (1990)Übergangsphänomene im zellulären Automatenregelraum. Physik D 45:77–94

Li X, Zhou W, Ouyang Z (2013)Vierzig Jahre Stadterweiterung in Peking: Welche relative Bedeutung haben physische, sozioökonomische und Nachbarschaftsfaktoren? Appl Geogr 38:1–10

Liu Y (2008)Modellierung der Stadtentwicklung mit geografischen Informationssystemen und zellularen Automaten. CRC Press (Taylor & Francis Group), London

Liu Y, Phinn SR (2003)Modellierung der Stadtentwicklung mit zellulären Automaten mit Fuzzy-Set-Ansätzen. Computerumgebung Urban Syst 27:637–658

Liu Y, HE J (2009)Entwicklung eines webbasierten zellulären Automatenmodells für die Simulation des Stadtwachstums. In: Internationales Symposium für räumliche Analyse, räumlich-zeitliche Datenmodellierung und Data Mining, 2009. International Society for Optics and Photonics, 74925C-74925C-8

Liu J, Zhan J, Deng X (2005)Raumzeitliche Muster und treibende Kräfte der städtischen Landexpansion in China während der Ära der Wirtschaftsreformen. AMBIO J Hum Umgebung 34:450–455

Liu X, Li X, Liu L, He J, Ai B (2008)Ein Bottom-up-Ansatz zur Entdeckung von Übergangsregeln zellulärer Automaten mithilfe von Ameisenintelligenz. Int J Geogr Inf Sci 22:1247–1269

Lu D, Weng Q (2004)Spektrale Mischungsanalyse der Stadtlandschaft in Indianapolis mit Landsat ETM + Bildern. Photogramm Ger Remote Sens 70:1053–1062

M'nard A, Marceau DJ (2005)Erforschung der räumlichen Skalenempfindlichkeit in geografischen zellulären Automaten. Umweltplan 32:693–714

Malczewski J (2004)GIS-basierte Landnutzungseignungsanalyse: ein kritischer Überblick. Programmplan 62:3-65

May RM (1976)Einfache mathematische Modelle mit sehr komplizierter Dynamik. Natur 261:459–467

Meyer WB, Turner BL (1992)Menschliches Bevölkerungswachstum und globale Landnutzungs-/Bedeckungsänderung. Annu Rev. Ecol Syst 23:39–61

Miller HJ (1999)Messung von Raum-Zeit-Zugänglichkeitsvorteilen in Verkehrsnetzen: grundlegende Theorie und Rechenverfahren. Geogr Anal 31:1–26

Munshi T, Zuidgeest M, Brussel M, van Maarseveen M (2014)Logistische Regression und zellulare Automaten-basierte Modellierung der Einzelhandels-, Gewerbe- und Wohnentwicklung in der Stadt Ahmedabad, Indien. Städte 39:68–86

Pijanowski BC, Brown DG, Shellito BA, Manik GA (2002)Verwendung neuronaler Netze und GIS zur Vorhersage von Landnutzungsänderungen: ein Landtransformationsmodell. Computerumgebung Urban Syst 26:553–575

Portugali J, Benenson I (1995)Künstliche Planungserfahrung mittels eines heuristischen Zellraummodells: Simulation internationaler Migration im urbanen Prozess. Umgebungsplan A 27:1647–1665

Pratomoatmojo NA (2012)Landnutzungsänderungsmodellierung unter Gezeitenflutszenario mit Hilfe von Markov-zellulären Automaten in der Gemeinde Pekalongan. Universitas Gadjah Mada, Yogyakarta

Pratomoatmojo NA (2016)LanduseSimPractice: Räumliche Modellierung von Siedlungen und industriellem Wachstum mittels zellulärer Automaten und geografischem Informationssystem. Abteilung für Stadt- und Regionalplanung, Sepuluh Nopember Institute of Technology, Surabaya

Preston SH (1979)Städtisches Wachstum in Entwicklungsländern: eine demografische Neubewertung. Popul Dev Rev, S. 195–215

Ratriaga ARN, Sardjito S (2016) Penentuan Rute Angkutan Umum Optimal Dengan Transport Network Simulator (TRANETSIM) von Kota Tuban. JTek ITS 4:C87–C91

Reilly MK, O’Mara MP, Seto KC (2009)Von Bangalore in die Bay Area: Vergleich von Transport- und Aktivitätszugänglichkeit als Triebkräfte des Stadtwachstums. Landsc Stadtplan 92:24–33

Reinau KH (2006)Zellulare Automaten und Stadtentwicklung. In: Nordische GIS-Konferenz, 2006, S. 75–80

Rietveld P, Bruinsma F (2012)Ist die Verkehrsinfrastruktur effektiv?: Verkehrsinfrastruktur und Zugänglichkeit: Auswirkungen auf die Weltraumwirtschaft. Springer Wissenschaft und Wirtschaftsmedien, Berlin

Rounsevell M, Reginster I, Araújo MB, Carter T, Dendoncker N, Ewert F, House J, Kankaanpää S, Leemans R, Metzger M (2006)Ein kohärenter Satz zukünftiger Landnutzungsänderungsszenarien für Europa. Agrarökosyst-Umwelt 114:57–68

Serneels S, Lambin EF (2001)Auswirkungen von Landnutzungsänderungen auf die Gnuwanderung im nördlichen Teil des Serengeti-Mara-Ökosystems. J Biogeogr 28:391

Shahumyan H, Twumasi BO, Convery S, Foley R, Vaughan E, Casey E, Carty J, Walsh C, Brennan M (2009)Datenvorbereitung für die MOLAND-Modellanwendung für den Großraum Dublin. UCD Urban Institute Ireland, Working Paper Series

Shi W, Pang MYC (2000)Entwicklung von Voronoi-basierten zellulären Automaten - ein integriertes dynamisches Modell für geografische Informationssysteme. Int J Geogr Inf Sci 14:455–474

Sim LK, Balamurugan G (1991)Urbanisierung und städtische Wasserprobleme in Südostasien ein Fall nicht nachhaltiger Entwicklung. J Environ Manag 32:195–209

Simmie J, Martin R (2010)Die wirtschaftliche Widerstandsfähigkeit von Regionen: hin zu einem evolutionären Ansatz. Cambridge J Reg Econ Soc 3:27–43

Singh A (1989) Übersichtsartikel Techniken zur Erkennung digitaler Veränderungen unter Verwendung von fernerfassten Daten. Int J Remote Sens 10:989–1003

Takeyama M, Couclelis H (1997)Kartendynamik: Integration von zellulären Automaten und GIS durch Geo-Algebra. Int J Geogr Inf Sci 11:73–91

Tobler WR (1979)Zellulare Geographie. In: Gale S, Olsson G (Hrsg.) Philosophie in der Geographie. Reidel Verlag, Dordrecht, Holland, S. 379–386

Torrens PM (2000) Wie zelluläre Modelle urbaner Systeme funktionieren (1. Theorie). CASA Working Papers 28. Centre for Advanced Spatial Analysis (UCL), London, UK

Twumasi BO (2008) Empfehlungen zur weiteren Verbesserung des MOLAND-Modells. UCD Urban Institute Ireland Working Paper Series, UCD UII 08/01, University College Dublin

Verburg PH, de Nijs TC, van Eck JR, Visser H, de Jong K (2004a) Eine Methode zur Analyse von Nachbarschaftsmerkmalen von Landnutzungsmustern. Computerumgebung Urban Syst 28:667–690

Verburg PH, de Nijs TCM, Ritsema Van J, Visser H, De Jong K (2004b) Eine Methode zur Analyse von Nachbarschaftsmerkmalen von Landnutzungsmustern. Computerumgebung Urban Syst 28:667–690

Vezhnevets V, Konouchine V (2005)GrowCut: interaktive Multi-Label-ND-Bildsegmentierung durch zelluläre Automaten. In: Proceedings of graphicon, 2005. Citeseer, S. 150–156

Wagner DF (1997)Zellulare Automaten und geografische Informationssysteme. Umweltplan 24:219–234

White R (1998) Städte und zellulare Automaten. Diskret Dyn Nat Soc 2:111–125

White R, Engelen G (1993)Zelluläre Automaten und fraktale Stadtform: ein zellulärer Modellierungsansatz für die Entwicklung städtischer Landnutzungsmuster. Umweltplan A 25:1175–1199

White R, Engelen G, Uljee I (1997)Die Verwendung eingeschränkter zellulärer Automaten für die hochauflösende Modellierung der urbanen Landnutzungsdynamik. Umweltplan 24:323–343

White R, Engelen G, Uljee I, Lavalle C, Enrlich D (1999)Entwicklung eines urbanen Landnutzungssimulators für europäische Städte. In: Tagungsband des 5. EC-GIS Workshops. Stresa, Italien

Wolfram S (1983)Statistische Mechanik zellulärer Automaten. Rev Mod Phys 55:601

Wolfram S (1984)Universalität und Komplexität in zellulären Automaten. Physik D 10:1–35

Wu F (1998)Ein Experiment zur generischen Polyzentrizität des Stadtwachstums in einer zellularen automatischen Stadt. Umgebung Plan B Plan Des 25(5):731–752

Wu F, Webster CJ (1998)Simulation der Landentwicklung durch die Integration von zellulären Automaten und multikriterielle Auswertung. Umweltplan 25:103–126


So verwenden Sie die Arcgis-Karte für Offline (Android) und erstellen eine .tpk-Datei für die Offline-Nutzung

Ich stecke schwer in einem Problem im Zusammenhang mit der Karte, da ich die Esri Arcgis-Karte offline für meine Android-App verwende und bereits alle von der Esri Arcgis-Karte bereitgestellten Beispiele verwendet habe, aber schließlich habe ich festgestellt, dass .tpk offline verwendet werden kann, aber ich bin keine Lösung zum Erstellen einer .tpk-Datei erhalten und im Ernst, ich habe keine andere Lösung als die Erstellung einer .tpk-Datei erhalten. Daher frage ich, ob jemand darüber Bescheid weiß und dies schon einmal verwendet hat oder eine andere Lösung für mein Problem hat, da es für mich sehr hilfreich sein wird

HINWEIS: Moto soll die Karte offline ausführen (ohne Internetverbindung). Danke im Voraus


Methoden

Bei der Konstruktion dieses Modells wurden zwei Datensätze verwendet: Straßennetzdaten und Krankenhausstandortdaten. Die von GIS Innovations [27] erhaltenen Straßendaten für die Metro Vancouver eignen sich hervorragend zur Berechnung der Reisezeit, da sie sowohl Geschwindigkeitsbegrenzungen als auch Reiseimpedanzen (dh Stoppschilder, Ampeln usw.) einbeziehen, die wiederum genaue Fahrzeitberechnung. Die Daten bieten auch die Möglichkeit, Weg- und Impedanzzeiten zu steuern. Dies ist wichtig, da sich die Fahrzeiten eines Krankenwagens von denen eines normalen Fahrzeugs unterscheiden. Die Tatsache, dass diese Daten die Kontrolle solcher Variablen ermöglichen, erhöht die Genauigkeit der Ergebnisse. Der in dieser Studie verwendete Straßennetzdatensatz schloss Nebenstraßen und Forststraßen aus, um sich auf die dichter besiedelten Abschnitte des Untersuchungsgebiets zu konzentrieren. Das Ausschließen dieser kleineren Straßen half auch, die Datenbankgröße zu reduzieren.

Der zweite Datensatz, der in dieser Studie verwendet wurde, umfasst die Standorte der teilnehmenden Krankenhäuser in der Metropolregion Vancouver. Zusätzlich zu den geokodierten Krankenhausstandorten fügt der Krankenhausdatensatz auch Attribute hinzu, die die Kapazität des Krankenhauses beschreiben, Patienten im Falle eines Massenunfalls zu empfangen, und die Art der Behandlung, die ein bestimmtes Krankenhaus anbieten kann (Tabelle 1). Bei den Trauma-Leistungen umfasst das Leistungsspektrum die Intensivstation, die Neurochirurgie, die Orthopädie und die plastische Chirurgie. Die Krankenhäuser werden als eine Reihe von GIS-Punktmerkmalen dargestellt und so nah wie möglich am Hauptzugang der Notaufnahme geokodiert. Da sich große Krankenhäuser über mehrere Straßenblöcke erstrecken können, kann die Geocodierung des Notaufnahmestandorts anstelle des Krankenhausschwerpunkts zu genaueren Fahrzeitergebnissen führen.

Um schneller Ergebnisse zu erhalten, wurden in diesem Modell vorberechnete Fahrzeiten von jedem Ort des Straßennetzes zu jedem Krankenhaus im Untersuchungsgebiet verwendet. Vor der Vorausberechnung der Fahrzeiten mussten die Daten zunächst auf eine Länge diskretisiert werden, die den Einfluss auf die tatsächliche Fahrzeitberechnung minimiert. Durch die Beschränkung der Länge der diskretisierten Straßenabschnitte auf maximal 200 m wurde festgestellt, dass genaue Fahrzeiten erreicht werden können, ohne die Ergebnisse oder die Größe des Straßendatensatzes negativ zu beeinflussen. Dieselben Straßendaten, die für die Fahrzeitberechnung verwendet wurden, wurden auch für die Erstellung der Straßenabschnitte verwendet. Eine genaue Untersuchung der Daten von GIS Innovations [27] zeigte, dass die Straßensegmente innerhalb der Daten drastisch in der Länge variierten, wobei die Segmente sowohl viel kleiner als auch viel größer als 200 m waren. Nach mehreren Experimenten wurde festgestellt, dass es am effektivsten war, alle Straßenabschnitte unter 200 m unverändert zu lassen und alle Straßenabschnitte, die größer als 200 m sind, auf das Maximum von 200 m zu unterteilen. Die 200 m langen Straßenabschnitte lieferten genaue Fahrzeiten bei gleichzeitig überschaubarer Größe der Datenbank. Der resultierende Datensatz enthält Straßensegmente unterschiedlicher Länge, wobei kein Segment größer als 200 m ist.

Um die Fahrzeit von jedem Straßenabschnitt zu jedem Krankenhaus zu berechnen, wurde jeder Straßenabschnitt in einen Schwerpunkt umgewandelt. Die ODMatrix-Funktion im ESRI ArcGIS Network Analyst wurde dann verwendet, um die Fahrzeit zu jedem Krankenhaus zu berechnen. Die ODMatrix-Funktion berechnet die kürzeste Fahrzeit von jedem Ausgangspunkt zu jedem Ziel im Straßennetz und erstellt eine 'drivingTime'-Tabelle, die eine eindeutige ID für jeden Schwerpunkt sowie die Fahrzeit in Minuten zu jedem Krankenhaus enthält [29]. Um eine höhere Genauigkeit zu erreichen, wurde ein Impedanzzeitwert von erfahrenen Sanitätern eingeholt und sowohl Stoppschildern (5 Sekunden) als auch Ampeln (10 Sekunden) zugeordnet. Die Tabelle erzeugt auch eine eindeutige Krankenhaus-ID für jedes Zielkrankenhaus. Nachdem diese Tabelle erstellt wurde, wurde die Schwerpunkt-ID ihrem Straßenabschnitt neu zugewiesen, sodass der Benutzer auf den Straßenabschnitt klicken und seine eindeutige ID abrufen konnte (Abbildung 1). Der Straßendatensatz bestand aus einem Straßensegment-Shapefile, in dem jedes Segment über eine Eins-zu-Viele-Beziehung mit der Fahrzeittabelle verknüpft war.

Zeigt die Methode der Vorausberechnung der Fahrzeiten zu jedem Krankenhaus im Untersuchungsgebiet. Das Straßennetz ist in Segmente von maximal 200 m Länge unterteilt. Die Fahrzeit zu jedem Krankenhaus wird dann von jedem Straßenabschnitt im Untersuchungsgebiet berechnet.

Der letzte Schritt bei der Datenaufbereitung war die Erstellung der Krankenhausdatenliste. Dies war eine relativ einfache Aufgabe, da alle Informationen leicht verfügbar waren, die Standorte bekannt waren und nur eine relativ kleine Anzahl von Krankenhäusern an der Studie beteiligt war. Im Rahmen der Datenaufbereitung erhielt jedes Krankenhaus eine eindeutige ID entsprechend dem Fahrplan mit einer n:1-Beziehung.

Modellbau

Der Aufbau des Modells gliederte sich in zwei unterschiedliche Teile: Erstellung der Mapping-Schnittstelle (SDSS) und Erstellung eines Mechanismus zur Analyse und Verarbeitung der Daten (Modell). Die Kartenschnittstelle wurde entwickelt, um es dem Benutzer zu ermöglichen, auf einen Standort zu zoomen, auf einen Straßenabschnitt zu klicken und einen Standort in die Karte einzufügen. Um dies zu erleichtern, wurden zunächst die 200 m segmentierten Straßendaten in den ArcGIS-Server hochgeladen. Anschließend wurde ein Codeblock geschrieben, der es Benutzern ermöglicht, auf einen Straßenabschnitt zu klicken, einen MCI-Standort einzufügen und die eindeutige ID des Straßenabschnitts abzurufen. Nach dem Abrufen wird die eindeutige ID verwendet, um die Fahrzeit zu jedem Krankenhaus aus der vorberechneten Fahrzeittabelle zu erhalten. Dieser Teil des Modells wurde mithilfe der ArcGIS-Server-API erstellt, da sie umfangreiche Funktionen und Werkzeuge für die Interaktion mit den Straßendaten bietet und Entwicklern die Erstellung komplexer webbasierter Kartenanwendungen ermöglicht.

Der zweite Aspekt bei der Konstruktion des Modells bestand darin, einen Mechanismus zu erstellen, um die eindeutige ID von jedem Straßenabschnitt mit der vorberechneten Fahrzeittabelle zu verknüpfen, eine Datenbankbeziehung zwischen der Fahrzeittabelle und der Krankenhaustabelle herzustellen und die resultierenden Daten zu analysieren und zu visualisieren Figur 2). Zu diesem Zweck wurde VB.NET[30] als serverseitige Skriptsprache verwendet, während Javascript als clientseitige Skriptsprache verwendet wurde. VB.NET[30] ermöglicht die Datenbankinteraktion und bietet eine Reihe von Entscheidungshilfen für die Analyse und Visualisierung von Ergebnissen mithilfe von Tabellen und Grafiken. Genauer gesagt wird VB.NET[30] verwendet, um die Daten zu kompilieren und die Ergebnisse basierend auf der Eingabe des Benutzers anzuzeigen. Das gesamte Modell, einschließlich Mapping und Analyse, wurde in Visual Web Developer (VWD) 2008 Express Edition erstellt [31].

Veranschaulicht die Erstellung einer Krankenhaustabelle und der zugehörigen Attribute.