Mehr

Probleme mit dem Clip- und Schnittwerkzeug


Ich habe ein Problem mit dem Clip und dem Schnittwerkzeug in QGIS Valmiera. Ich habe eine große Vektorkarte von Unterstandorten eines Landes und versuche, sie auf Bezirksebene zu beschneiden, da ich die Daten nicht für das gesamte Land benötige. Ich habe beide im Projekt CRS gespeichert und dies mehrmals getan. Als Projekt-CRS verwende ich den WRS 84/Pseudo Mercator (ich verwende das Openlayers-Plugin als geografische Referenz). Um I zu beschneiden, geht die große Karte in den Eingabevektorbereich, und ich habe ein Polygon erstellt, um den Bezirk darzustellen, den ich im Feld "Clip-Layer" hinzufüge. Wenn ich dann clippe (oder intersect verwende), wird nie etwas angezeigt. Der Layer wird erstellt, aber nirgendwo auf der Karte angezeigt, und die Attributtabelle enthält keine Werte, obwohl die Felder der großen Karte vorhanden sind.

Wie kann ich dieses Problem beheben?


Wenn die Ausdehnung des Clipping-Polygons sicher innerhalb der Ausdehnung des zu beschneidenden Layers liegt (was in Ihrem Fall der Fall ist), führt eine ungültige Geometrie (z. B. sich schneidende Segmente) des Clipping-Polygons zu einem leeren beschnittenen Layer.

Du kannst es testen mitVektor -> Geometriewerkzeuge -> Geometriegültigkeit prüfenoder indem Sie einfach das Clipping-Polygon beschriften (was auch nichts zurückgibt).


Ich hatte das gleiche Problem:

  1. Geoverarbeitungswerkzeuge " Clip - gab mir als Ergebnis ein leeres Shapefile - Grund: Clipping-Polygon innerhalb des zu beschneidenden Layers

  2. Die Verwendung von Geoverarbeitungswerkzeugen " Intersect - brachte mir das angeforderte Ergebnis, unabhängig davon, ob das Clipping-Shapefile vollständig in dem zu schneidenden Shapefile enthalten war.

Intersect kann zum "Zuschneiden" von Shapefiles verwendet werden, nachdem Sie ein Shapefile des zu beschneidenden Bereichs erstellt haben.


Anschauen die dokumente, so steht es geschrieben:

Diese Methode wurde in API-Ebene 26 eingestellt. Mit anderen Region.Op-Werten als INTERSECT und DIFFERENCE kann der Clip erweitert werden. Die Canvas-Clipping-APIs sollen den Clip nur als Ergebnis eines Wiederherstellungsvorgangs erweitern. Dies ermöglicht einem Ansichts-Elternteil, eine Leinwand zu beschneiden, um den maximalen Zeichenbereich seiner Kinder klar zu definieren. Die empfohlenen alternativen Aufrufe sind clipRect(RectF) und clipOutRect(RectF).

Also habe ich versucht, eine dieser Funktionen zu verwenden, aber beide verursachten Probleme mit der Zeichnung, wie sie früher war.

Wenn man sich die Veraltung ansieht, scheint es, dass die Funktion selbst markiert ist, aber nicht Region.Op.REPLACE :

Also vielleicht hat es nicht wirklich eine Alternative.


Klassifizierungen

PlanenCodeKlassifizierungswert
ASCED-Modul/Kompetenzeinheit Identifikator des Bildungsbereichs 031199 Geomatik, N.e.c.

Klassifizierungshistorie

PlanenCodeKlassifizierungswertAnfangsdatumEndtermin
ASCED-Modul/Kompetenzeinheit Identifikator des Bildungsbereichs 031199 Geomatik, N.e.c. 14.10.2016

Probleme mit dem Clip-and-Intersect-Tool - Geografische Informationssysteme

Minghua Qiu Miller, P. E.
Mitarbeiter Programm-Management-Ingenieur

E-Mail: [email protected]

Zimmer 503
Telefon: (501) 569-2481
Fax: (501) 569-2623

Dieser Abschnitt ist verantwortlich für:

Koordination lokaler Programme der Bundeshilfe
Unterstützung lokaler öffentlicher Einrichtungen im Projektentwicklungsprozess
Verfassen von Vereinbarungen
Koordination mit lokalen Projektsponsoren
Projekt Überwachung
Nachverfolgung des lokalen Projektbudgets
Plan- und Angebotsprüfung für lokale öffentliche Agenturprojekte Project

Die Verantwortung der Abteilung für lokale Projektverwaltung liegt in der Verwaltung des Partnering-Programms des Departments, des Surface Transportation Block Grant Program (STBGP) Attributable Program, Transportation Alternatives Program (TAP) Attributable Program, Intersection Improvement Program, Transportation Alternatives Program (TAP), Recreational Trails Program ( RTP) und das Arkansas Commercial Truck Safety and Education Program (ACTSEP).


Fünf Innovationen nutzen neue Technologien für Menschen mit Sehbehinderung, Blindheit

Während des Low Vision Awareness Month stellt das National Eye Institute (NEI), das zu den National Institutes of Health gehört, neue Technologien und Werkzeuge vor, die in Arbeit sind, um den 4,1 Millionen Amerikanern mit Sehbehinderung oder Blindheit zu helfen. Die Innovationen zielen darauf ab, Menschen mit Sehverlust dabei zu helfen, alltägliche Aufgaben leichter zu bewältigen, vom Navigieren in Bürogebäuden bis zum Überqueren einer Straße. Viele der Innovationen nutzen Computer Vision, eine Technologie, die es Computern ermöglicht, die komplexe Vielfalt von Bildern, Objekten und Verhaltensweisen in der Umgebung zu erkennen und zu interpretieren.

Sehschwäche bedeutet, dass Menschen auch mit Brille, Kontaktlinsen, Medikamenten oder Operationen Schwierigkeiten haben, alltägliche Aufgaben zu erledigen. Es kann viele Aspekte des Lebens beeinflussen, vom Gehen an überfüllten Orten bis hin zum Lesen oder Zubereiten einer Mahlzeit, erklärte Cheri Wiggs, Ph.D., Programmdirektorin für Sehbehinderten- und Blindheitsrehabilitation am NEI. Je nach Grad und Art des Sehverlusts variieren die Werkzeuge, die erforderlich sind, um an alltäglichen Aktivitäten beteiligt zu bleiben. Zum Beispiel führt ein Glaukom zu einem Verlust des peripheren Sehvermögens, was das Gehen oder Autofahren erschweren kann. Im Gegensatz dazu beeinträchtigt die altersbedingte Makuladegeneration das zentrale Sehen und erschwert Aufgaben wie das Lesen, sagte sie.

Hier ist ein Blick auf einige NEI-finanzierte Technologien in der Entwicklung, die darauf abzielen, die Auswirkungen von Sehschwäche und Blindheit zu verringern.

Co-Roboterstock can

Das Navigieren in Innenräumen kann für Menschen mit Sehbehinderung oder Blindheit eine besondere Herausforderung darstellen. Während vorhandene GPS-basierte Hilfsgeräte jemanden zu einem allgemeinen Standort wie einem Gebäude führen können, ist GPS keine große Hilfe bei der Suche nach bestimmten Räumen, sagte Cang Ye, Ph.D. von der University of Arkansas in Little Rock. Ye hat einen korobotischen Gehstock entwickelt, der Feedback zur Umgebung eines Benutzers liefert.

Der Co-Roboter-Gehstock enthält eine motorisierte Rollenspitze, die den Benutzer führt.

Der Gehstock-Prototyp von Yes verfügt über eine computergestützte 3D-Kamera, die im Namen des Benutzers „sehen“ kann. Es hat auch eine motorisierte Rollenspitze, die den Stock in Richtung einer gewünschten Stelle treiben kann, sodass der Benutzer der Richtung des Stocks folgen kann. Unterwegs kann der Benutzer in ein Mikrofon sprechen und ein Spracherkennungssystem interpretiert verbale Befehle und führt den Benutzer über einen drahtlosen Hörer. Der kreditkartengroße Computer des Stocks speichert vorinstallierte Grundrisse. Ye stellt sich jedoch vor, beim Betreten eines Gebäudes Grundrisse über WLAN herunterladen zu können. Der Computer wertet 3-D-Informationen in Echtzeit aus und warnt den Benutzer vor Fluren und Treppen. Der Gehstock misst die Position einer Person im Gebäude, indem er die Bewegung der Kamera mit einer Computer-Vision-Methode misst. Diese Methode extrahiert Details aus einem aktuellen Bild, das von der Kamera aufgenommen wurde, und gleicht sie mit denen aus dem vorherigen Bild ab, wodurch der Standort des Benutzers durch Vergleichen der sich fortschreitend ändernden Ansichten bestimmt wird, alle relativ zu einem Ausgangspunkt. Zusätzlich zur NEI-Unterstützung erhielt Ye kürzlich einen Zuschuss des Coulter College Commercializing Innovation Program des NIH, um die Kommerzialisierung des Roboterstocks zu untersuchen.

Roboterhandschuh findet Türgriffe, kleine Gegenstände

Bei der Entwicklung des korobotischen Gehstocks erkannte Ye, dass geschlossene Türen eine weitere Herausforderung für Menschen mit Sehbehinderung und Blindheit darstellen. „Wenn man den Türknauf oder -griff findet und die Tür öffnet, wird man langsamer“, sagte er. Um Menschen mit Sehschwäche zu helfen, kleine Objekte schneller zu finden und zu greifen, hat er ein fingerloses Handschuhgerät entwickelt.

Der fingerlose Handschuh von Yes verwendet eine Kamera, um kleine Objekte wie Türgriffe zu erkennen.

Auf der Rückseite befinden sich eine Kamera und ein Spracherkennungssystem, mit dem der Benutzer dem Handschuh Sprachbefehle wie „Türgriff“, „Becher“, „Schüssel“ oder „Wasserflasche“ geben kann. Der Handschuh führt die Hand des Benutzers über taktile Aufforderungen zum gewünschten Objekt. „Die Hand der Person nach links oder rechts zu führen ist einfach“, sagte Ye. „Ein Aktuator auf der Daumenoberfläche erledigt das auf sehr intuitive und natürliche Weise.“ Einen Benutzer aufzufordern, seine oder ihre Hand vorwärts und rückwärts zu bewegen und ein Gefühl dafür zu bekommen, wie man einen Gegenstand greift, ist eine größere Herausforderung.

Yes Kollege Yantao Shen, Ph.D., University of Nevada, Reno, entwickelte ein neuartiges hybrides taktiles System, das aus einer Reihe von zylindrischen Stiften besteht, die entweder einen mechanischen oder elektrischen Reiz senden. Der elektrische Reiz erzeugt ein elektrotaktiles Gefühl, d. h. er regt die Nerven auf der Haut der Hand an, um einen Tastsinn zu simulieren. Stellen Sie sich vier zylindrische Stifte vor, die über die Länge Ihres Zeigefingers ausgerichtet sind. Einer nach dem anderen, beginnend mit dem Stift, der Ihrer Fingerspitze am nächsten liegt, pulsieren die Stifte in einem Muster, das anzeigt, dass sich die Hand nach hinten bewegen sollte.

Eine Reihe kleiner zylindrischer Stifte fordert den Benutzer auf, seine Hand zu positionieren, um ein gewünschtes Objekt zu greifen.

Das Rückwärtsmuster zeigt die Notwendigkeit einer Vorwärtsbewegung an. Währenddessen verwendet ein größeres elektrotaktiles System auf der Handfläche eine Reihe von zylindrischen Stiften, um eine 3D-Darstellung der Form des Objekts zu erstellen. Nähert sich Ihre Hand beispielsweise dem Henkel einer Tasse, würden Sie die Form des Henkels in Ihrer Handfläche spüren, sodass Sie die Position Ihrer Hand entsprechend anpassen können. Wenn sich Ihre Hand in Richtung des Bechergriffs bewegt, werden leichte Winkelverschiebungen von der Kamera registriert und das taktile Gefühl auf Ihrer Handfläche spiegelt diese Veränderungen wider.

Fußgänger-App für Smartphones

Straßenkreuzungen können für Menschen mit Sehbehinderung besonders gefährlich sein. James Coughlan, Ph.D., und seine Kollegen am Smith-Kettlewell Eye Research Institute haben eine Smartphone-App entwickelt, die akustische Hinweise gibt, die den Benutzern helfen, den sichersten Kreuzungspunkt zu identifizieren und innerhalb des Zebrastreifens zu bleiben.

Die App nutzt drei Technologien und trianguliert sie. Ein globales Positionierungssystem (GPS) wird verwendet, um die Kreuzung zu lokalisieren, an der ein Benutzer steht. Computer Vision wird dann verwendet, um den Bereich nach Zebrastreifen und Fußgängerampeln zu scannen. Diese Informationen werden in eine Datenbank des geografischen Informationssystems (GIS) integriert, die ein durch Crowdsourcing erstelltes, detailliertes Inventar über die Eigenheiten einer Kreuzung enthält, wie etwa das Vorhandensein von Straßenbaustellen oder unebenem Bürgersteig. Die drei Technologien gleichen die Schwächen der anderen aus. Während Computervision beispielsweise die Tiefenwahrnehmung fehlt, die erforderlich ist, um einen Mittelstreifen in der Mitte der Straße zu erkennen, würde ein solches lokales Wissen in die GIS-Vorlage aufgenommen. Und während GPS den Benutzer angemessen an einer Kreuzung lokalisieren kann, kann es nicht erkennen, an welcher Ecke ein Benutzer steht. Computer Vision ermittelt die Ecke sowie die Position des Benutzers in Bezug auf den Fußgängerüberweg, den Status von Fußgängerampeln und Ampeln sowie die Anwesenheit von Fahrzeugen.

CamIO-System hilft, Objekte auf natürliche Weise zu erkunden

Stellen Sie sich ein System vor, das es sehbehinderten Biologiestudenten ermöglicht, ein anatomisches 3D-Modell eines Herzens zu erkunden, indem sie einen Bereich berühren und als Reaktion den „Aortenbogen“ hören. Das gleiche System könnte auch verwendet werden, um eine akustische Anzeige der Anzeige auf einem Gerät wie einem Glukosemonitor zu erhalten. Das Prototypsystem, das mit einer kostengünstigen Kamera, die an einen Laptop angeschlossen ist, entwickelt wurde, kann physikalische Objekte – von 2D-Karten bis hin zu digitalen Displays auf Mikrowellen – für Benutzer mit Sehbehinderung oder Blindheit vollständig zugänglich machen.

Das CamIO-System besteht aus einem Laptop-Computer und einer Kamera und ermöglicht es Benutzern, beliebige 3-D- oder 2-D-Objekte zu erkunden. Durch das Halten eines Fingers auf einem Objekt fordern Benutzer das System auf, ein Audio-Feedback zu geben.

Die CamIO (kurz für Camera Input-Output), ebenfalls in der Entwicklung von Coughlan, bietet Audio-Feedback in Echtzeit, wenn der Benutzer ein Objekt auf natürliche Weise erkundet, es dreht und berührt. Das Festhalten eines Fingers auf 3D- oder 2D-Objekten signalisiert dem System, ein akustisches Label des fraglichen Ortes oder ein verbessertes Bild auf einem Laptop-Bildschirm bereitzustellen. CamIO wurde von Joshua Miele, Ph.D., einem blinden Wissenschaftler bei Smith-Kettlewell konzipiert, der neuartige Sound-/Touch-Interfaces entwickelt und evaluiert, um Menschen mit Sehverlust zu helfen. Coughlan plant die Entwicklung einer Smartphone-App-Version von CamIO. In der Zwischenzeit steht Software für die Laptop-Version zum kostenlosen Download bereit. Um eine Demonstration des CamIO-Systems zu sehen, besuchen Sie http://bit.ly/2CamIO.

Hochleistungsprismen, Periskope für starken Tunnelblick

Menschen mit Retinitis pigmentosa und Glaukom können den größten Teil ihres peripheren Sehvermögens verlieren, was das Gehen an überfüllten Orten wie Flughäfen oder Einkaufszentren erschwert. Menschen mit starkem Verlust des peripheren Sehfelds können eine verbleibende zentrale Sehinsel haben, die nur 1 bis 2 Prozent ihres gesamten Gesichtsfelds ausmacht. Eli Peli, O.D., vom Schepens Eye Research Institute, Boston, hat Linsen entwickelt, die aus vielen benachbarten ein Millimeter breiten Prismen bestehen, die das Gesichtsfeld erweitern und gleichzeitig die zentrale Sicht erhalten. Peli entwarf ein Hochleistungsprisma, ein sogenanntes Multiplexing-Prisma, das das Sichtfeld um etwa 30 Grad erweitert. „Das ist eine Verbesserung, aber nicht gut genug“, erklärte Peli.

In einer Studie haben er und seine Kollegen Menschen, die an überfüllten Orten gehen, mathematisch modelliert und festgestellt, dass das Kollisionsrisiko am höchsten ist, wenn sich andere Fußgänger aus einem 45-Grad-Winkel nähern. Um diesen Grad an peripherem Sehen zu erreichen, verwenden er und seine Kollegen ein periskopartiges Konzept. Periskope, wie sie zum Beispiel verwendet werden, um die Meeresoberfläche von einem U-Boot aus zu sehen, basieren auf einem Paar paralleler Spiegel, die ein Bild verschieben und eine Ansicht ermöglichen, die sonst außer Sicht wäre. Mit einem ähnlichen Konzept, jedoch mit nicht parallelen Spiegeln, haben Peli und Kollegen einen Prototyp entwickelt, der ein 45-Grad-Sichtfeld erreicht. Ihr nächster Schritt besteht darin, mit optischen Labors zusammenzuarbeiten, um einen kosmetisch akzeptablen Prototyp herzustellen, der in eine Brille montiert werden kann. „Es wäre ideal, wenn wir magnetische Clip-On-Brillen entwickeln könnten, die sich leicht montieren und entfernen lassen“, sagte er.


Schau das Video: 006 Live Boolean Basics (Oktober 2021).