Toucheingabe und Gesten in Xamarin.Android

Touchscreens auf vielen heutigen Geräten ermöglichen es Benutzern, schnell und effizient auf natürliche und intuitive Weise mit Geräten zu interagieren. Diese Interaktion ist nicht nur auf einfache Toucherkennung beschränkt, es ist auch möglich, Gesten zu verwenden. Beispielsweise ist die Geste zum Zusammendrücken zum Zoomen ein sehr häufiges Beispiel dafür, indem ein Teil des Bildschirms mit zwei Fingern eingeklemmt wird, die der Benutzer vergrößern oder verkleinern kann. In diesem Leitfaden werden Toucheingaben und Gesten in Android untersucht.

Übersicht über die Toucheingabe

iOS und Android ähneln sich im Umgang mit Toucheingaben. Beide können Multitouch - viele Berührungspunkte auf dem Bildschirm - und komplexe Gesten unterstützen. In diesem Leitfaden werden einige Ähnlichkeiten in Konzepten sowie die Besonderheiten der Implementierung von Toucheingaben und Gesten auf beiden Plattformen vorgestellt.

Android verwendet ein MotionEvent -Objekt zum Kapseln von Touchdaten und Methoden für das View-Objekt, um auf Berührungen zu lauschen.

Neben der Erfassung von Touchdaten bieten sowohl iOS als auch Android Mittel zum Interpretieren von Berührungsmustern in Gesten. Diese Gestenerkennungen können wiederum verwendet werden, um anwendungsspezifische Befehle zu interpretieren, z. B. eine Drehung eines Bilds oder ein Seitenwechsel. Android bietet eine Handvoll unterstützter Gesten sowie Ressourcen, um das Hinzufügen komplexer benutzerdefinierter Gesten zu vereinfachen.

Unabhängig davon, ob Sie mit Android oder iOS arbeiten, kann die Wahl zwischen Toucheingaben und Gestenerkennung verwirrend sein. In diesem Leitfaden wird empfohlen, dass Gestenerkennungen im Allgemeinen bevorzugt werden sollten. Gestenerkennungen werden als diskrete Klassen implementiert, die eine größere Trennung der Bedenken und eine bessere Kapselung ermöglichen. Dies erleichtert das Freigeben der Logik zwischen verschiedenen Sichten, wodurch die Menge an geschriebenem Code minimiert wird.

Dieses Handbuch folgt einem ähnlichen Format für jedes Betriebssystem: Zunächst werden die Touch-APIs der Plattform eingeführt und erläutert, da sie die Grundlage für touchinteraktionen bilden. Anschließend tauchen wir in die Welt der Gestenerkennung ein – zunächst untersuchen wir einige gängige Gesten und beenden die Erstellung benutzerdefinierter Gesten für Anwendungen. Schließlich erfahren Sie, wie Sie einzelne Finger mithilfe von Touchtracking auf niedriger Ebene nachverfolgen, um ein Finger-Paint-Programm zu erstellen.

Abschnitte

Zusammenfassung

In diesem Leitfaden haben wir die Toucheingabe in Android untersucht. Für beide Betriebssysteme haben wir gelernt, wie Sie die Toucheingabe aktivieren und auf die Touchereignisse reagieren. Als Nächstes haben wir mehr über Gesten und einige der Gestenerkennungen erfahren, die sowohl Android als auch iOS bieten, um einige der gängigeren Szenarien zu bewältigen. Wir haben untersucht, wie benutzerdefinierte Gesten erstellt und in Anwendungen implementiert werden. In einer exemplarischen Vorgehensweise wurden die Konzepte und APIs für jedes Betriebssystem in Aktion veranschaulicht, und Sie haben auch erfahren, wie Sie einzelne Finger nachverfolgen können.