Partager via


Interactions tactiles et mouvements dans Xamarin.Android

Les écrans tactiles sur de nombreux appareils actuels permettent aux utilisateurs d’interagir rapidement et efficacement avec des appareils de manière naturelle et intuitive. Cette interaction n’est pas limitée uniquement à la détection tactile simple : il est également possible d’utiliser des mouvements. Par exemple, le mouvement de pincement à zoom est un exemple très courant de ceci en pincer une partie de l’écran avec deux doigts que l’utilisateur peut effectuer un zoom avant ou arrière. Ce guide examine les interactions tactiles et les mouvements dans Android.

Vue d’ensemble de l’interaction

iOS et Android sont similaires de la manière dont ils gèrent l’interaction tactile. Les deux peuvent prendre en charge l’interaction tactile multiple ( de nombreux points de contact sur l’écran) et les mouvements complexes. Ce guide présente certaines des similitudes dans les concepts, ainsi que les particularités de l’implémentation des interactions tactiles et des mouvements sur les deux plateformes.

Android utilise un MotionEvent objet pour encapsuler des données tactiles et des méthodes sur l’objet View pour écouter les touches.

En plus de capturer des données tactiles, iOS et Android fournissent des moyens d’interpréter des modèles de touches dans des mouvements. Ces modules de reconnaissance de mouvement peuvent à leur tour être utilisés pour interpréter des commandes spécifiques à l’application, telles qu’une rotation d’une image ou un tour d’une page. Android fournit quelques mouvements pris en charge, ainsi que des ressources pour faciliter l’ajout de mouvements personnalisés complexes.

Que vous travailliez sur Android ou iOS, le choix entre les touches et les reconnaissances de mouvements peut être déroutant. Ce guide recommande que, en général, la préférence doit être donnée aux modules de reconnaissance des mouvements. Les modules de reconnaissance des mouvements sont implémentés en tant que classes discrètes, ce qui permet une séparation accrue des préoccupations et une meilleure encapsulation. Cela facilite le partage de la logique entre différentes vues, ce qui réduit la quantité de code écrite.

Ce guide suit un format similaire pour chaque système d’exploitation : tout d’abord, les API tactiles de la plateforme sont introduites et expliquées, car elles constituent la base des interactions tactiles générées. Ensuite, nous plongeons dans le monde des reconnaissances de gestes , d’abord en explorant certains mouvements courants et en terminant avec la création de mouvements personnalisés pour les applications. Enfin, vous verrez comment suivre des doigts individuels à l’aide du suivi tactile de bas niveau pour créer un programme de peinture de doigts.

Sections

Résumé

Dans ce guide, nous avons examiné les interactions tactiles dans Android. Pour les deux systèmes d’exploitation, nous avons appris à activer l’interaction tactile et à répondre aux événements tactiles. Ensuite, nous avons découvert les mouvements et certains des modules de reconnaissance des mouvements fournis par Android et iOS pour gérer certains des scénarios les plus courants. Nous avons examiné comment créer des mouvements personnalisés et les implémenter dans les applications. Une procédure pas à pas a montré les concepts et LES API pour chaque système d’exploitation en action, et vous avez également vu comment suivre les doigts individuels.