Mehr

Beim Importieren einer CSV-Datei mit csvt-Daten in QGIS (2.8) wird den Feldern kein Typ "Datum" zugewiesen


Ich habe einen Datensatz (in CSV) und versuche, mehrere Felder mit Datumsinformationen hinzuzufügen, damit ich Punkte basierend auf diesen Daten filtern und Karten erstellen kann (in QGIS 2.8), die eine chronologische Reihe bilden. Um dies zu erreichen, habe ich Folgendes getan:

  • Ich habe meine ursprüngliche CSV-Datei genommen und vier Felder hinzugefügt (siehe unten für die endgültige CSV-Datei, Datumsdaten befinden sich in den Spalten 12-15, mit dem Titel award1-4).
  • Die Daten lagen ursprünglich im Format JJJJ-TT-MM vor, daher habe ich das praktische Befehlszeilentool csvfix verwendet, um alle Daten auf das ISO-Format (JJJJ-MM-TT) einzustellen.
  • Um die CSV-Datei zu begleiten, habe ich eine CSVT-Datei mit demselben Namen und Pfad wie meine CSV-Datei generiert, indem ich den Anweisungen im regelmäßig verlinkten Blog-Post von Anita Graser und den zugehörigen GDAL-Dokumenten gefolgt bin, sodass mein CSVT nur die folgenden Typen verwendet uses , "String","Integer","Real","Date" (der vierte davon ist der entscheidende)
  • Ich bin auch dem hilfreichen Vorschlag in diesem Thread von Underdark / Kristen gefolgt, Textwrangler zu verwenden, um sicherzustellen, dass die Zeichen standardmäßig sind, und das Entfernen einer zweiten Zeile und das Konvertieren von Anführungszeichen hat ein Problem in QGIS beim Importieren behoben.

Nachdem ich diese Schritte befolgt habe, importiert meine CSV-Datei problemlos in QGIS mit 'Getrennte Textebene hinzufügen', aber die Ebene hat nur Real (als "Double"), Int und String (als "Text"), wobei die Datumsfelder als "String" gerendert werden " auch. Ich möchte diese CSV-Datei mit diesen Datumsfeldern als Datentyp "Datum" in QGIS in QGIS importieren, damit ich Abfragen darauf ausführen kann. Ich würde auch gerne bei CSV als Format bleiben, da diese Daten irgendwann in einem offenen Repository abgelegt werden und ich möchte, dass andere Benutzer die Daten ohne QGIS anzeigen, aber auch relativ schmerzlos in ihr importieren können eigene Projekte.

Hat ein anderer Benutzer dies in QGIS erreicht, und noch wichtiger, welcher Schritt fehlt mir hier, damit diese Felder ordnungsgemäß als Felddatentyp "Datum" importiert werden.

Datenbeispiele sind wie folgt:

ECS-GIS-Standorte_2.4.csvt:

"Real","Real","Integer","String","String","String","String","String","String","String","Integer","Real","Date ","Datum","Datum","Datum","String","String","String","String","String"

ECS-GIS-Locations_2.4.csv (erste Zeilen):

"X","Y","Genauigkeitscode","Postleitzahl","unique-id","name","network","denomination","notes","website","awards","icon- size2","award1","award2","award3","award4","wildlife-biodiversity","solar","date-built","kirchen vertrauen URL","OS ref" "349344.8977"," 1053019.497","2","KW17 2BU","2203","St. Ann's, Papa Westray","Orkney-Inseln","C of S","","","4","3", "2003-10-09","2006-08-19","2009-07-07","2013-11-01","x","1841","http://www. scotlandschurchestrust.org.uk/church/st-anns-papa-westray","HY495516" "345691","1046915","3","KW17 2DB","2202","Westray Church","Orkney Islands" ,"C von S","","","4","3","2003-10-09","2006-08-19","2009-07-08","2013-11- 01","","","1846","http://www.scotlandschurchestrust.org.uk/church/westray-parish-kirk","HY457462" "272400.702","655262.3425","2", "ML3 7DT","2801","St. John's Church Of Scotland, Hamilton","South Lanarkshire","C of S","http://www.stjohnshamilton.org.uk","3" ,"2.5","2003-05-01","2006-03-05","2009-07-09","","","","1835","http://www.scotlandschurchestrust .org.u k/church/st-johns-church-hamilton","NS724553"

Der Grund muss irgendwo in QGIS oder in der GDAL-Version liegen, die es verwendet. Die direkte Verwendung von GDAL v.2.0-dev liefert mir ein erwartetes Ergebnis:

ogrinfo ECS-GIS-Locations_2.4.csv -al INFO: Öffnen von 'ECS-GIS-Locations_2.4.csv' mit Treiber 'CSV' erfolgreich. Layername: ECS-GIS-Locations_2.4 Geometrie: Keine Feature-Anzahl: 3 Layer SRS WKT: (unbekannt) X: Real (0.0) Y: Real (0.0) Genauigkeitscode: Integer (0.0) Postleitzahl: String (0.0) eindeutig -id: String (0.0) Name: String (0.0) Netzwerk: String (0.0) Denomination: String (0.0) Notizen: String (0.0) Website: String (0.0) Auszeichnungen: Integer (0.0) icon-size2: Real (0.0) ) award1: Datum (0.0) award2: Datum (0.0) award3: Datum (0.0) award4: Datum (0.0) Wildlife-Biodiversität: String (0.0) Solar: String (0.0) Baujahr: String (0.0) Kirchen vertrauen URL : String (0.0) OS Ref: String (0.0) OGRFeature(ECS-GIS-Locations_2.4)::1 X (Real) = 349344.8977 Y (Real) = 1053019.497 Genauigkeitscode (Integer) = 2 Postleitzahl (String) = KW17 2BU unique-id (String) = 2203 Name (String) = St. Ann's, Papa Westray Netzwerk (String) = Orkney Islands Bezeichnung (String) = C of S Notes (String) = Website (String) = Auszeichnungen (Integer) = 4 icon-size2 (Real) = 3 Auszeichnung1 (Datum) = 2003/10/09 Auszeichnung2 (Datum) = 2006/08/19 Auszeichnung3 (Datum) = 2009/07/07 Auszeichnung4 (D ate) = 2013/11/01 Wildlife-Biodiversity (String) = solar (String) = x date-built (String) = 1841 Kirchen vertrauen URL (String) = http://www.scotlandschurchestrust.org.uk/church/ st-anns-papa-westray OS Ref (String) = HY495516

Es gibt zwei Optionen, um .csv-Dateien in QGIS zu laden:

1_ "Getrennte Textebene hinzufügen" 2_ "Vektorebene hinzufügen"

Wenn Sie eine .csv mit einer .csvt laden, sollten Sie dies tun, indem Sie "Vektorebene hinzufügen" verwenden.


Optionale Parameter in QGIS Verarbeitungsskripten und Modellenamp

Erinnern Sie sich an die guten alten Zeiten, als alle Parameter in Processing obligatorisch waren?

Ein- und Ausgänge sind fixiert, optionale Parameter oder Ausgänge werden nicht unterstützt. [Graser & Olaya, 2015]

Seit QGIS 2.14 ist dies nicht mehr der Fall. Sowohl Skripte als auch Modelle können jetzt optionale Parameter haben. Hier ist, wie für QGIS 3:

Beim Definieren eines Verarbeitungsskriptparameters verwendet der Konstruktor des Parameters ein boolesches Flag, das angibt, ob der Parameter optional sein soll. Es ist standardmäßig falsch:

Ein Standardwerkzeug, das optionale Parameter verwendet, ist Autoinkrementelles Feld hinzufügen:

Von Python aus kann dieser Algorithmus mit oder ohne die optionalen Parameter aufgerufen werden:

Beim Erstellen eines Modells kann dem optionalen Parameter eine optionale Eingabe zugewiesen werden. Um eine optionale Eingabe zu erstellen, deaktivieren Sie die verpflichtend Kontrollkästchen am unteren Rand der Eingabeparameterdefinition:

Dann kann diese optionale Eingabe in einem Algorithmus verwendet werden. Hier zum Beispiel die numerische Eingabe optionaler_Wert wird an die weitergegeben Startwerte bei Parameter:

Sie können auf alle verfügbaren Eingaben zugreifen, indem Sie auf die Schaltfläche … neben dem klicken Startwerte bei Feld. In diesem Beispiel habe ich Zugriff auf Werte der Eingabeschicht sowie auf den optionalen Wert:

Sobald dies eingerichtet ist, sieht es so aus, wenn das Modell ausgeführt wird:

Sie können sehen, dass der optionale Wert tatsächlich ist Nicht eingestellt.


Beim Importieren einer CSV-Datei mit csvt-Daten in QGIS (2.8) wird den Feldern der Typ &ldquodate&rdquo nicht zugewiesen - Geographische Informationssysteme

Karp, Peter D. Paley, Suzanne Romero, Pedro

Die Bioinformatik erfordert wiederverwendbare Softwaretools zum Erstellen von Modellorganismus-Datenbanken (MODs). Pathway Tools ist eine wiederverwendbare Softwareumgebung in Produktionsqualität zum Erstellen eines MOD-Typs namens Pathway/Genom Database (PGDB). Eine PGDB wie EcoCyc (siehe http://ecocyc.org) integriert unser sich entwickelndes Verständnis der Gene, Proteine, des Stoffwechselnetzwerks und des genetischen Netzwerks eines Organismus. Dieses Papier bietet einen Überblick über die vier Hauptkomponenten der Pathway Tools: Die PathoLogic-Komponente unterstützt die Erstellung neuer PGDBs aus dem annotierten Genom eines Organismus. Der Pathway/Genome Navigator bietet Abfrage-, Visualisierungs- und Web-Publishing-Dienste für PGDBs. Die Pathway/Genom-Editoren unterstützen die interaktive Aktualisierung von PGDBs. Die Pathway Tools-Ontologie definiert das Schema von PGDBs. Pathway Tools verwendet das Ocelot-Objektdatenbanksystem für Datenverwaltungsdienste für PGDBs. Die Pathway Tools wurden verwendet, um PGDBs für 13 Organismen innerhalb von SRI und von externen Benutzern zu erstellen.

Ulbrich, Norbert Manfred Volden, Thomas R.

Eine einfach zu bedienende Benutzeroberfläche wurde in ein hochautomatisiertes Regressionsanalysetool implementiert. Die Benutzeroberfläche wurde von Anfang an so entwickelt, dass sie auf Computern läuft, die das Windows-, Macintosh-, Linux- oder UNIX-Betriebssystem verwenden. Viele Funktionen der Benutzeroberfläche wurden speziell so entwickelt, dass ein Anfänger oder unerfahrener Benutzer das Regressionsanalysetool sicher anwenden kann. Daher minimiert das Design der Benutzeroberfläche die interaktive Eingabe durch den Benutzer. Darüber hinaus werden den Analyseeinstellungen, die das Ergebnis der Regressionsanalyse beeinflussen, sinnvolle Standardkombinationen zugewiesen. Diese Standardkombinationen führen für die meisten experimentellen Datensätze zu einem erfolgreichen Ergebnis der Regressionsanalyse. Die Benutzeroberfläche gibt es in zwei Versionen. Die Version der Text-Benutzeroberfläche dient der Weiterentwicklung des Regressionsanalysetools. Die offizielle Version des Regressionsanalysetools hingegen verfügt über eine effizientere grafische Benutzeroberfläche. Diese grafische Benutzeroberfläche zeigt alle Eingabedateinamen, Ausgabedateinamen und Analyseeinstellungen für einen bestimmten Softwareanwendungsmodus auf einem einzigen Bildschirm an, was es einfacher macht, zuverlässige Analyseergebnisse zu generieren und Eingabeparameterstudien durchzuführen. Für die Entwicklung der grafischen Benutzeroberfläche wurde ein objektorientierter Ansatz verwendet. Diese Wahl hält zukünftige Softwarewartungskosten auf einem vertretbaren Limit. Beispiele sowohl der Textbenutzerschnittstelle als auch der grafischen Benutzerschnittstelle werden diskutiert, um den Gesamtentwurfsansatz der Benutzerschnittstelle zu veranschaulichen.

Colangelo, Christopher M. Chung, Lisa Bruce, Can Cheung, Kei-Hoi

Selective or Multiple Reaction Monitoring (SRM/MRM) ist eine Flüssigchromatographie (LC)/Tandem-Massenspektrometrie (MS/MS)-Methode, die die Quantifizierung spezifischer Proteine ​​in einer Probe durch Analyse von Vorläuferionen und der Fragmentionen ihrer ausgewählten . ermöglicht tryptische Peptide. Die Instrumentierungssoftware ist so weit fortgeschritten, dass Tausende von Übergängen (Paare von primären und sekundären m/z-Werten) in einem mit einem LC gekoppelten Triple-Quadrupol-Instrument durch eine gut durchdachte Planung und Auswahl von m/z-Fenstern gemessen werden können. Das Design eines guten MRM-Assays beruht auf der Verfügbarkeit von Peptidspektren aus früheren LC-MS/MS-Studien in der Entdeckungsphase. Der mühsame Aspekt der manuellen Entwicklung und Verarbeitung von MRM-Assays mit Tausenden von Übergängen hat die Entwicklung von Softwaretools zur Automatisierung dieses Prozesses vorangetrieben. Softwarepakete wurden für Projektmanagement, Assay-Entwicklung, Assay-Validierung, Datenexport, Peak-Integration, Qualitätsbewertung und biostatistische Analyse entwickelt. Kein einzelnes Tool bietet eine vollständige End-to-End-Lösung, daher überprüft dieser Artikel den aktuellen Stand und diskutiert zukünftige Richtungen dieser Softwaretools, um es Forschern zu ermöglichen, diese Tools für einen umfassenden zielgerichteten Proteomik-Workflow zu kombinieren. Copyright © 2013 Die Autoren. Herausgegeben von Elsevier Inc. Alle Rechte vorbehalten.

Colangelo, Christopher M. Chung, Lisa Bruce, Can Cheung, Kei-Hoi

Selective or Multiple Reaction Monitoring (SRM/MRM) ist eine Flüssigchromatographie (LC)/Tandem-Massenspektrometrie (MS/MS)-Methode, die die Quantifizierung spezifischer Proteine ​​in einer Probe durch Analyse von Vorläuferionen und der Fragmentionen ihrer ausgewählten . ermöglicht tryptische Peptide. Die Instrumentierungssoftware ist so weit fortgeschritten, dass Tausende von Übergängen (Paare von primären und sekundären m/z-Werten) in einem mit einem LC gekoppelten Triple-Quadrupol-Instrument durch eine gut durchdachte Planung und Auswahl von m/z-Fenstern gemessen werden können. Das Design eines guten MRM-Assays beruht auf der Verfügbarkeit von Peptidspektren aus früheren LC-MS/MS-Studien in der Entdeckungsphase. Der mühsame Aspekt der manuellen Entwicklung und Verarbeitung von MRM-Assays mit Tausenden von Übergängen hat die Entwicklung von Softwaretools zur Automatisierung dieses Prozesses vorangetrieben. Softwarepakete wurden für Projektmanagement, Assay-Entwicklung, Assay-Validierung, Datenexport, Peak-Integration, Qualitätsbewertung und biostatistische Analyse entwickelt. Kein einzelnes Tool bietet eine vollständige End-to-End-Lösung, daher überprüft dieser Artikel den aktuellen Stand und diskutiert zukünftige Richtungen dieser Softwaretools, um es Forschern zu ermöglichen, diese Tools für einen umfassenden zielgerichteten Proteomik-Workflow zu kombinieren. PMID:23702368

Tárraga, Joaquín Pérez, Mariano Orduña, Juan M. Duato, José Medina, Ignacio Dopazo, Joaquín

Die DNA-Methylierungsanalyse leidet unter einer sehr langen Verarbeitungszeit, da das Aufkommen von Next-Generation Sequencern den Flaschenhals der Genomstudien von den Sequenzern, die die DNA-Proben erhalten, auf die Software verlagert hat, die die Analyse dieser Proben durchführt. Die vorhandene Software zur Methylierungsanalyse scheint weder mit der Größe des Datensatzes noch mit der Länge der zu analysierenden Reads effizient zu skalieren. Da erwartet wird, dass die Sequenzer in naher Zukunft immer längere Reads liefern werden, sollte eine effiziente und skalierbare Methylierungssoftware entwickelt werden. Wir präsentieren ein neues Software-Tool namens HPG-Methyl, das effizient Bisulfit-Sequenzierungs-Reads auf DNA abbildet und die DNA-Methylierung analysiert. Die von dieser Software verwendete Strategie besteht darin, die Geschwindigkeit der Burrows-Wheeler-Transformation zu nutzen, um eine große Anzahl von DNA-Fragmenten (Reads) schnell abzubilden, sowie die Genauigkeit des Smith-Waterman-Algorithmus, der ausschließlich verwendet wird, um mit den zweideutigsten und kürzesten Lesevorgängen. Experimentelle Ergebnisse auf Plattformen mit Intel-Multicore-Prozessoren zeigen, dass HPG-Methyl sowohl bei der Ausführungszeit als auch bei der Empfindlichkeit moderne Software wie Bismark, BS-Seeker oder BSMAP insbesondere bei langen Bisulfit-Reads deutlich übertrifft. Software in Form von C-Bibliotheken und -Funktionen, zusammen mit Anweisungen zum Kompilieren und Ausführen dieser Software . Verfügbar per sftp an [email protected] (Passwort 'anonym'). [email protected] oder [email protected] © Der Autor 2015. Herausgegeben von Oxford University Press. Alle Rechte vorbehalten. Für Berechtigungen senden Sie bitte eine E-Mail an: [email protected]

Rey-Martinez, Jorge Batuecas-Caletrio, Angel Matiño, Eusebi Perez Fernandez, Nicolás

Die entwickelte Software (HITCal) kann ein nützliches Werkzeug bei der Analyse und Messung der sakkadischen Videokopfimpulstest (vHIT)-Antworten sein, und die Autoren schlagen vor, dass HITCal eine ausgezeichnete Methode zur verbesserten Untersuchung von vHIT-Ausgaben ist . Entwicklung einer (Software-)Methode zur Analyse und Untersuchung der vHIT-Reaktionen, hauptsächlich Sakkaden. HITCal wurde mit einem computergestützten Entwicklungsprogramm geschrieben die Funktion zum Zugriff auf eine vHIT-Datei wurde programmiert erweiterte Kopfimpulsexploration und Messwerkzeuge wurden erstellt und eine automatisierte Sakkadenanalyse mit einem experimentellen Algorithmus entwickelt. Für Pre-Release-HITcal-Labortests wurde eine Datenbank mit Kopfimpulstests (HITs) mit den retrospektiv in drei Referenzzentren erhobenen Daten erstellt. Diese HITs-Datenbank wurde von Menschen ausgewertet und auch mit HITCal berechnet. Die Autoren haben HITCal erfolgreich entwickelt und es wurde als Open-Source-Software veröffentlicht. Die entwickelte Software war voll funktionsfähig und alle vorgeschlagenen Eigenschaften wurden in die freigegebene Version integriert. Der in HITCal implementierte automatisierte Sakkadenalgorithmus stimmt gut mit der Einschätzung durch menschliche Beobachter überein (Cohen-Kappa-Koeffizient = 0,7).

Hintergrund Die Untersuchung und Analyse von Genexpressionsmessungen ist der Hauptfokus der funktionellen Genomik. Sobald Expressionsdaten verfügbar sind, stehen Biologen vor der Aufgabe, (neues) Wissen über das zugrunde liegende biologische Phänomen zu extrahieren. Um diese Aufgabe zu erfüllen, führen Biologen in den meisten Fällen statt einer einzelnen Analyseaktivität eine Reihe von Analyseaktivitäten an dem verfügbaren Genexpressionsdatensatz durch. Die Integration heterogener Tools und Datenquellen zu einer integrierten Analyseumgebung stellt eine anspruchsvolle und fehleranfällige Aufgabe dar. Die semantische Integration ermöglicht die Zuweisung eindeutiger Bedeutungen von Daten, die von verschiedenen Anwendungen in einer integrierten Umgebung gemeinsam genutzt werden, und ermöglicht so einen semantisch konsistenten und sinnvollen Datenaustausch. Diese Arbeit zielt darauf ab, eine ontologiebasierte Methodik für die semantische Integration von Werkzeugen und Datenquellen zur Genexpressionsanalyse zu entwickeln. Die vorgeschlagene Methodik stützt sich auf Software-Konnektoren, um nicht nur den Zugriff auf heterogene Datenquellen, sondern auch die Definition von Transformationsregeln für ausgetauschte Daten zu unterstützen. Ergebnisse Wir haben die unterschiedlichen Herausforderungen bei der Integration von Computersystemen und die Rolle von Softwarekonnektoren bei dieser Aufgabe untersucht. Wir haben auch eine Reihe von Genexpressionstechnologien, Analysewerkzeugen und verwandten Ontologien untersucht, um grundlegende Integrationsszenarien zu entwickeln und eine Referenzontologie für die Genexpressionsdomäne vorzuschlagen. Anschließend haben wir eine Reihe von Aktivitäten und zugehörigen Richtlinien definiert, die vorschreiben, wie die Entwicklung von Konnektoren durchgeführt werden soll. Schließlich haben wir die vorgeschlagene Methodik bei der Konstruktion von drei verschiedenen Integrationsszenarien angewendet, die den Einsatz verschiedener Werkzeuge zur Analyse verschiedener Arten von Genexpressionsdaten beinhalten. Schlussfolgerungen Die vorgeschlagene Methodik erleichtert die Entwicklung von Konnektoren, die in der Lage sind, verschiedene Werkzeuge zur Analyse der Genexpression semantisch zu integrieren

Miyazaki, Flávia A Guardia, Gabriela D A Vêncio, Ricardo Z N de Farias, Cléver R G

Die Untersuchung und Analyse von Genexpressionsmessungen ist der Hauptfokus der funktionellen Genomik. Sobald Expressionsdaten verfügbar sind, stehen Biologen vor der Aufgabe, (neues) Wissen über das zugrunde liegende biologische Phänomen zu extrahieren. Um diese Aufgabe zu erfüllen, führen Biologen in den meisten Fällen statt einer einzelnen Analyseaktivität eine Reihe von Analyseaktivitäten an dem verfügbaren Genexpressionsdatensatz durch. Die Integration heterogener Tools und Datenquellen zu einer integrierten Analyseumgebung stellt eine anspruchsvolle und fehleranfällige Aufgabe dar. Die semantische Integration ermöglicht die Zuweisung eindeutiger Bedeutungen von Daten, die von verschiedenen Anwendungen in einer integrierten Umgebung gemeinsam genutzt werden, und ermöglicht so einen semantisch konsistenten und sinnvollen Datenaustausch. Diese Arbeit zielt darauf ab, eine ontologiebasierte Methodik für die semantische Integration von Werkzeugen und Datenquellen zur Genexpressionsanalyse zu entwickeln. Die vorgeschlagene Methodik stützt sich auf Software-Konnektoren, um nicht nur den Zugriff auf heterogene Datenquellen, sondern auch die Definition von Transformationsregeln für ausgetauschte Daten zu unterstützen. Wir haben uns mit den unterschiedlichen Herausforderungen bei der Integration von Computersystemen und der Rolle von Software-Konnektoren bei dieser Aufgabe beschäftigt. Wir haben auch eine Reihe von Genexpressionstechnologien, Analysewerkzeugen und verwandten Ontologien untersucht, um grundlegende Integrationsszenarien zu entwickeln und eine Referenzontologie für die Genexpressionsdomäne vorzuschlagen. Anschließend haben wir eine Reihe von Aktivitäten und zugehörigen Richtlinien definiert, die vorschreiben, wie die Entwicklung von Konnektoren durchgeführt werden soll. Schließlich haben wir die vorgeschlagene Methodik bei der Konstruktion von drei verschiedenen Integrationsszenarien angewendet, die den Einsatz verschiedener Werkzeuge zur Analyse verschiedener Arten von Genexpressionsdaten beinhalten. Die vorgeschlagene Methodik erleichtert die Entwicklung von Konnektoren, die in der Lage sind, verschiedene Genexpressionsanalysetools und Datenquellen semantisch zu integrieren. Das

Ainsbury, Elizabeth A. Vinnikov, Volodymyr Puig, Pedro Maznyk, Nataliya Rothkamm, Kai Lloyd, David C

Eine Reihe von Autoren hat vorgeschlagen, dass ein Bayes-Ansatz für die Analyse von zytogenetischen Strahlendosimetriedaten am besten geeignet sein könnte. Im Bayesschen Rahmen wird die Wahrscheinlichkeit eines Ereignisses in Form von früheren Erwartungen und Unsicherheit beschrieben. Früher vorhandene oder frühere Informationen werden in Kombination mit experimentellen Ergebnissen verwendet, um Wahrscheinlichkeiten oder die Wahrscheinlichkeit abzuleiten, dass eine Hypothese wahr ist. Es hat sich gezeigt, dass der Bayes'sche Ansatz sowohl die Genauigkeit als auch die Qualitätssicherung von Strahlendosisschätzungen erhöht. Die neue Software CytoBayesJ wurde mit dem Ziel entwickelt, die Bayes-Analyse in die Laborpraxis der zytogenetischen Biodosimetrie zu bringen. CytoBayesJ verwendet eine Reihe von Bayes- oder „Bayes-ähnlichen“ Methoden, die in der Literatur vorgeschlagen wurden, und präsentiert sie dem Benutzer in Form einfacher benutzerfreundlicher Werkzeuge, einschließlich Tests auf das am besten geeignete Modell für die Verteilung von Chromosomenaberrationen und Berechnungen von Posterior-Wahrscheinlichkeitsverteilungen. Die einzelnen Tools werden detailliert beschrieben und relevante Anwendungsbeispiele der Methoden und die entsprechenden CytoBayesJ-Softwaretools werden gegeben. Auf diese Weise wird die Eignung des Bayesschen Ansatzes für die biologische Strahlendosimetrie hervorgehoben und seine breitere Anwendung durch die Bereitstellung einer benutzerfreundlichen Softwareoberfläche und eines Handbuchs in Englisch und Russisch gefördert. Copyright © 2013 Elsevier B.V. Alle Rechte vorbehalten.

Solernou, Albert Hanson, Benjamin S. Richardson, Robin A. Welch, Robert Read, Daniel J. Harlen, Oliver G. Harris, Sarah A

Fluctuating Finite Element Analysis (FFEA) ist ein Softwarepaket, das entwickelt wurde, um kontinuumsmechanische Simulationen von Proteinen und anderen globulären Makromolekülen durchzuführen. Es kombiniert konventionelle Finite-Elemente-Methoden mit stochastischem thermischem Rauschen und eignet sich für Simulationen großer Proteine ​​und Proteinkomplexe auf der Mesoskala (Längenskalen im Bereich von 5 nm bis 1 μm), wo derzeit nur wenige Modellierungswerkzeuge zur Verfügung stehen . Es erfordert volumetrische 3D-Informationen als Eingabe, die Strukturinformationen mit niedriger Auflösung wie Kryo-Elektronentomographie-(Kryo-ET)-Karten oder atomistische Koordinaten mit viel höherer Auflösung sein können, aus denen volumetrische Informationen extrahiert werden können. In diesem Artikel stellen wir unser Open-Source-Softwarepaket zur Durchführung von FFEA-Simulationen vor, das wir unter einer GPLv3-Lizenz veröffentlicht haben. Das Softwarepaket enthält eine C++-Implementierung von FFEA zusammen mit Tools, die den Benutzer bei der Einrichtung des Systems aus Elektronenmikroskopie-Datenbank (EMDB) oder Protein-Datenbank (PDB) unterstützen. Wir bieten auch ein PyMOL-Plugin zur Durchführung grundlegender Visualisierungen und zusätzliche Python-Tools für die Analyse von FFEA-Simulationstrajektorien. Dieses Manuskript bietet einen grundlegenden Hintergrund zur FFEA-Methode, beschreibt die Implementierung des mechanischen Kernmodells und beschreibt, wie intermolekulare Wechselwirkungen und die Lösungsmittelumgebung in diesen Rahmen einbezogen werden. Wir bieten potenziellen FFEA-Benutzern einen praktischen Überblick über die Einrichtung einer FFEA-Simulation mit Bezug auf unsere öffentlich verfügbaren Online-Tutorials und Handbücher, die dieser ersten Version des Pakets beiliegen.

Fluctuating Finite Element Analysis (FFEA) ist ein Softwarepaket, das entwickelt wurde, um kontinuumsmechanische Simulationen von Proteinen und anderen globulären Makromolekülen durchzuführen. Es kombiniert konventionelle Finite-Elemente-Methoden mit stochastischem thermischem Rauschen und eignet sich für Simulationen großer Proteine ​​und Proteinkomplexe auf der Mesoskala (Längenskalen im Bereich von 5 nm bis 1 μm), wo derzeit nur wenige Modellierungswerkzeuge zur Verfügung stehen . Es erfordert volumetrische 3D-Informationen als Eingabe, die Strukturinformationen mit niedriger Auflösung wie Kryo-Elektronentomographie-(Kryo-ET)-Karten oder atomistische Koordinaten mit viel höherer Auflösung sein können, aus denen volumetrische Informationen extrahiert werden können. In diesem Artikel stellen wir unser Open-Source-Softwarepaket zur Durchführung von FFEA-Simulationen vor, das wir unter einer GPLv3-Lizenz veröffentlicht haben. Das Softwarepaket enthält eine C++-Implementierung von FFEA zusammen mit Tools, die den Benutzer bei der Einrichtung des Systems aus Elektronenmikroskopie-Datenbank (EMDB) oder Protein-Datenbank (PDB) unterstützen. Wir bieten auch ein PyMOL-Plugin zur Durchführung grundlegender Visualisierungen und zusätzliche Python-Tools für die Analyse von FFEA-Simulationstrajektorien. Dieses Manuskript bietet einen grundlegenden Hintergrund zur FFEA-Methode, beschreibt die Implementierung des mechanischen Kernmodells und beschreibt, wie intermolekulare Wechselwirkungen und die Lösungsmittelumgebung in diesen Rahmen einbezogen werden. Wir bieten potenziellen FFEA-Benutzern einen praktischen Überblick über die Einrichtung einer FFEA-Simulation mit Bezug auf unsere öffentlich verfügbaren Online-Tutorials und Handbücher, die dieser ersten Version des Pakets beiliegen. PMID:29570700

Es wurde ein Workshop abgehalten, um den Zustand von Werkzeugen für eingebettete Systemsoftware zu bewerten und Richtungen für die Werkzeugentwicklung festzulegen. Es werden eine Zusammenfassung des Vortrags und die Schlüsselfiguren jeder Workshop-Präsentation sowie Zusammenfassungen der Vorsitzenden vorgestellt. Die Präsentationen deckten vier Hauptbereiche ab: (1) Tools und die Softwareumgebung (Entwicklung und Test) (2) Tools und Softwareanforderungen, Design und Spezifikation (3) Tools und Sprachprozessoren und (4) Tools und Verifikation und Validierung (Analyse und testen). Die Nützlichkeit und der Beitrag vorhandener Werkzeuge und Forschungsergebnisse für die Entwicklung und das Testen von Software für eingebettete Computersysteme werden beschrieben und bewertet.

Bezrouk, Aleš Fiala, Zdeněk Kotingová, Lenka Krulichová, Iva Selke Kopečná, Monika Vávrová, Kateřina

Haut- und Membranpermeationsexperimente sind ein wichtiger Schritt bei der Entwicklung einer transdermalen oder topischen Formulierung oder der toxikologischen Risikobewertung. Die Standardmethode zur Analyse dieser Daten beruht auf dem linearen Teil eines Permeationsprofils. Es ist jedoch schwierig, objektiv zu bestimmen, wann das Profil linear wird, oder die Versuchsdauer reicht möglicherweise nicht aus, um ein Maximum oder einen stationären Zustand zu erreichen. Hier präsentieren wir ein Software-Tool für die Analyse von Haut- und Membranpermeationsdaten, SAMPA, das einfach zu bedienen ist und mehrere dieser Schwierigkeiten überwindet. Die SAMPA-Methode und -Software wurden anhand von In-vitro- und In-vivo-Permeationsdaten an menschlicher, Schweine- und Rattenhaut und Modell-Stratum-Corneum-Lipidmembranen unter Verwendung von Verbindungen validiert, die von stark lipophilen polyzyklischen aromatischen Kohlenwasserstoffen bis hin zu stark hydrophilen antiviralen Wirkstoffen mit und ohne zwei Permeationen reichen Verstärker. Die SAMPA-Leistung wurde mit der Standardmethode unter Verwendung eines linearen Teils des Permeationsprofils und eines komplexen mathematischen Modells verglichen. SAMPA ist ein benutzerfreundliches Open-Source-Softwaretool zur Analyse der Daten aus Haut- und Membranpermeationsexperimenten. Es läuft auf einer Microsoft Windows-Plattform und ist als unterstützende Datei zu diesem Artikel frei verfügbar. Copyright © 2017 Elsevier Ltd. Alle Rechte vorbehalten.

Hintergrund Rationale Ansätze für Metabolic Engineering (ME) befassen sich mit der Identifizierung von Modifikationen, die die Produktionskapazitäten der Mikroben von Zielsubstanzen verbessern. Eine der größten Herausforderungen, die bei diesen ME-Problemen durch Dehnungsoptimierungsalgorithmen entsteht, ist die Interpretation der Änderungen, die zu einer gegebenen Überproduktion führen. Oft induziert ein einzelner Gen-Knockout Veränderungen in den Flüssen mehrerer Reaktionen im Vergleich zum Wildtyp, und es ist daher schwierig, die physiologischen Unterschiede der in silico-Mutante zu bewerten. Erschwerend kommt hinzu, dass Modelle auf Genomskala per se aufgrund der hohen Zahl der beteiligten Reaktionen und Metaboliten schwer zu visualisieren sind. Ergebnisse Wir stellen ein Software-Tool vor, die Topological Network Analysis for OptFlux (TNA4OptFlux), ein Plug-in, das die Open-Source-ME-Plattform OptFlux um die Möglichkeit erweitert, topologische Analysen über metabolische Netzwerke zu erstellen und durchzuführen. Einer der Hauptvorteile des Tools ist die Möglichkeit, diese Tools bei der Analyse und dem Vergleich simulierter Phänotypen zu verwenden, die aus den Ergebnissen von Stammoptimierungsalgorithmen stammen. Wir veranschaulichen die Fähigkeiten des Tools, indem wir es verwenden, um die Interpretation von zwei E. coli-Stämmen zu unterstützen, die in OptFlux für die Überproduktion von Succinat und Glycin entwickelt wurden. Schlussfolgerungen Neben der Erweiterung des OptFlux-Softwaretools um neue Funktionalitäten in Bezug auf die topologische Analyse erleichtern die TNA4OptFlux-Methoden die Interpretation nicht-intuitiver ME-Strategien erheblich, indem sie den Vergleich zwischen gestörten und nicht gestörten Stoffwechselnetzwerken automatisieren. Das Plug-in ist zusammen mit einer ausführlichen Dokumentation auf der Website http://www.optflux.org verfügbar. PMID:23641878

Bozzolo, Guillermo Morse, Jeffrey A. Noebe, Ronald D. Abel, Phillip B.

Eine Suite atomistischer Modellierungssoftware namens Alloy Design Workbench wurde von der Computational Materials Group am NASA Glenn Research Center und dem Ohio Aerospace Institute (OAI) entwickelt. Das Hauptziel dieser Software besteht darin, die experimentelle Materialforschung und -entwicklung durch die Entwicklung einer leistungsstarken und dennoch intuitiven Software zu leiten und zu erweitern, die eine grafische Benutzeroberfläche mit einem Betriebscode kombiniert, der für atomistische Echtzeitsimulationen von Mehrkomponentenlegierungssystemen geeignet ist. Die Schnittstelle richtet sich an Experimentatoren, ist unkompliziert und erfordert minimale Kenntnisse der zugrunde liegenden Theorie, sodass sich die Forscher auf die wissenschaftlichen Aspekte der Arbeit konzentrieren können. Das Herzstück der Alloy Design Workbench Suite ist das Modul adw Tools, das sich auf die atomistische Analyse von Oberflächen und massiven Legierungen mit beliebig vielen Elementen konzentriert. Ein zusätzliches Modul, adwParams, verarbeitet ab-initio-Eingaben für die in adw Tools verwendete Parametrierung. Zukünftige Module, die für die Suite geplant sind, umfassen adwSeg, das numerische Vorhersagen für Segregationsprofile zu Legierungsoberflächen und -grenzflächen liefert, und adwReport, das als Fenster in die Datenbank dienen wird und öffentlichen Zugriff auf die Parametrisierungsdaten und ein Repository bietet, in das Benutzer einreichen können ihre eigenen Erkenntnisse aus dem Rest der Suite. Die gesamte Suite ist für die Ausführung auf Desktop-Computern ausgelegt. Das Modul adw Tools enthält einen benutzerdefinierten, von OAI/Glenn entwickelten Fortran-Code basierend auf der BFS-Methode (Bozzolo-Ferrante-Smith) für Legierungen, Ref.-Nr. 1). Das Herzstück der Suite, dieser Code wird verwendet, um die Energetik verschiedener Zusammensetzungen und Konfigurationen von Atomen zu berechnen.

Die Software General Purpose Boundary Element Solution Technology (GPBEST) verwendet die Boundary-Element-Methode der Maschinenbauanalyse im Gegensatz zur Finite-Elemente-Methode. Es ist laut einem seiner Entwickler zehnmal schneller in der Datenaufbereitung und genauer als andere Methoden. Seine Verwendung führt zu kostengünstigeren Produkten, da die Zeit zwischen Design und Herstellung verkürzt wird. Als kommerzielles Derivat eines von der NASA entwickelten Computercodes wird es von der Best Corporation vermarktet, um Probleme bei der Spannungsanalyse, der Wärmeübertragung, der Flüssigkeitsanalyse und der Fließfähigkeit und Rissbildung von Feststoffen zu lösen. Andere Anwendungen umfassen die Entwicklung von Traktor- und Autoteilen, Haushaltsgeräten und akustische Analysen.

Im Laufe der Jahre haben sich viele Ingenieurdisziplinen entwickelt, darunter Chemie, Elektronik usw. Allen Ingenieurdisziplinen gemeinsam ist die Verwendung von Strenge, Modellen, Metriken und vordefinierten Methoden. Kürzlich ist eine neue Ingenieurdisziplin aufgekommen, die Software Engineering genannt wird. Seit über dreißig Jahren wird Computersoftware entwickelt und die Erfolgsbilanz ist nicht gut. Software development projects often miss schedules, are over budget, do not give the user what is wanted, and produce defects. One estimate is there are one to three defects per 1000 lines of deployed code. More and more systems are requiring larger and more complex software for support. As this requirement grows, the software development problems grow exponentially. It is believed that software quality can be improved by applying engineering principles. Another compelling reason to bring the engineering disciplines to software development is productivity. It has been estimated that productivity of producing software has only increased one to two percent a year in the last thirty years. Ironically, the computer and its software have contributed significantly to the industry-wide productivity, but computer professionals have done a poor job of using the computer to do their job. Engineering disciplines and methodologies are now emerging supported by software tools that address the problems of software development. This paper addresses some of the current software engineering methodologies as a backdrop for the general evaluation of computer assisted software engineering (CASE) tools from actual installation of and experimentation with some specific tools .

James, Jeffrey M. Sanderson, Penelope M. Seidler, Karen S.

As modern transport environments become increasingly complex, issues such as crew communication, interaction with automation, and workload management have become crucial. Much research is being focused on holistic aspects of social and cognitive behavior, such as the strategies used to handle workload, the flow of information, the scheduling of tasks, the verbal and non-verbal interactions between crew members. Traditional laboratory performance measures no longer sufficiently meet the needs of researchers addressing these issues. However observational techniques are better equipped to capture the type of data needed and to build models of the requisite level of sophistication. Presented here is SHAPA, an interactive software tool for performing both verbal and non-verbal protocol analysis . It has been developed with the idea of affording the researchers the closest possible degree of engagement with protocol data. The researcher can configure SHAPA to encode protocols using any theoretical framework or encoding vocabulary that is desired. SHAPA allows protocol analysis to be performed at any level of analysis , and it supplies a wide variety of tools for data aggregation, manipulation. The output generated by SHAPA can be used alone or in combination with other performance variables to get a rich picture of the influences on sequences of verbal or nonverbal behavior.

Hunt, Allen R. Foreman, William

AKELA has developed a software tool which uses a systems analytic approach to model the critical processes which support the acquisition of biological and chemical weapons by terrorist organizations. This tool has four major components. The first is a procedural expert system which describes the weapon acquisition process. It shows the relationship between the stages a group goes through to acquire and use a weapon, and the activities in each stage required to be successful. It applies to both state sponsored and small group acquisition. An important part of this expert system is an analysis of the acquisition process which is embodied in a list of observables of weapon acquisition activity. These observables are cues for intelligence collection The second component is a detailed glossary of technical terms which helps analysts with a non- technical background understand the potential relevance of collected information. The third component is a linking capability which shows where technical terms apply to the parts of the acquisition process. The final component is a simple, intuitive user interface which shows a picture of the entire process at a glance and lets the user move quickly to get more detailed information. This paper explains e each of these five model components.

The Toxicity Estimation Software Tool (TEST) was developed to allow users to easily estimate the toxicity of chemicals using Quantitative Structure Activity Relationships (QSARs) methodologies. QSARs are mathematical models used to predict measures of toxicity from the physical c.