Freigeben über


Toucheingabe und Gesten in Xamarin.Android

Touchscreens auf vielen der heutigen Geräte ermöglichen Benutzern die schnelle und effiziente Interaktion mit Geräten auf natürliche und intuitive Weise. Diese Interaktion ist nicht nur auf einfache Toucherkennung beschränkt – es ist auch möglich, Gesten zu verwenden. Beispielsweise ist die Zusammendrücken-zu-Zoom-Geste ein sehr gängiges Beispiel dafür, indem ein Teil des Bildschirms mit zwei Fingern angeheftet wird, die der Benutzer vergrößern oder verkleinern kann. In diesem Leitfaden werden Fingereingaben und Gesten in Android untersucht.

Übersicht über die Toucheingabe

iOS und Android sind ähnlich wie bei der Behandlung von Toucheingaben. Beide können multitouch - viele Berührungspunkte auf dem Bildschirm - und komplexe Gesten unterstützen. In diesem Leitfaden werden einige Ähnlichkeiten in Konzepten sowie die Besonderheiten der Implementierung von Touch- und Gesten auf beiden Plattformen vorgestellt.

Android verwendet ein MotionEvent Objekt zum Kapseln von Touchdaten und Methoden für das View-Objekt, um auf Toucheingaben zu lauschen.

Zusätzlich zum Erfassen von Touchdaten bieten iOS und Android Mittel zum Interpretieren von Fingereingabemustern in Gesten. Diese Gestikerkennungen können wiederum verwendet werden, um anwendungsspezifische Befehle zu interpretieren, z. B. eine Drehung eines Bilds oder eine Drehung einer Seite. Android bietet eine Handvoll unterstützter Gesten sowie Ressourcen, um das Hinzufügen komplexer benutzerdefinierter Gesten zu vereinfachen.

Ganz gleich, ob Sie unter Android oder iOS arbeiten, die Wahl zwischen Toucheingaben und Gestikerkennungen kann verwirrend sein. In diesem Leitfaden wird empfohlen, dass die Gestikerkennung im Allgemeinen bevorzugt werden sollte. Gestikerkennungen werden als diskrete Klassen implementiert, die eine größere Trennung von Bedenken und eine bessere Kapselung bieten. Dies erleichtert das Freigeben der Logik zwischen verschiedenen Ansichten, wodurch die Menge des geschriebenen Codes minimiert wird.

Dieses Handbuch folgt einem ähnlichen Format für jedes Betriebssystem: Zunächst werden die Touch-APIs der Plattform eingeführt und erläutert, da sie die Grundlage für die Erstellung von Touchinteraktionen sind. Anschließend tauchen wir in die Welt der Gestenerkennungen ein – zuerst durch Erkunden einiger gängiger Gesten und Abschließen der Erstellung von benutzerdefinierten Gesten für Anwendungen. Schließlich erfahren Sie, wie Sie einzelne Finger mithilfe der Touchverfolgung auf niedriger Ebene nachverfolgen, um ein Fingerfarbenprogramm zu erstellen.

Abschnitte

Zusammenfassung

In diesem Leitfaden haben wir die Toucheingabe in Android untersucht. Für beide Betriebssysteme haben wir gelernt, wie Sie die Toucheingabe aktivieren und auf die Touchereignisse reagieren können. Als Nächstes haben wir über Gesten und einige der Gestenerkennungen erfahren, die sowohl Android als auch iOS bereitstellen, um einige der gängigeren Szenarien zu behandeln. Wir haben untersucht, wie benutzerdefinierte Gesten erstellt und in Anwendungen implementiert werden. In einer exemplarischen Vorgehensweise wurden die Konzepte und APIs für jedes Betriebssystem in Aktion veranschaulicht, und Sie haben auch erfahren, wie Einzelne Finger nachverfolgt werden.