Сенсорные и жесты в Xamarin.Android

Сенсорные экраны на многих современных устройствах позволяют пользователям быстро и эффективно взаимодействовать с устройствами в естественном и интуитивно понятном виде. Это взаимодействие не ограничивается простой обнаружением сенсорного ввода. Кроме того, можно использовать жесты. Например, жест сжатия к масштабированию является очень распространенным примером этого путем закрепления части экрана двумя пальцами, которые пользователь может увеличить или уменьшить. В этом руководстве рассматриваются сенсорные и жесты в Android.

Обзор сенсорного ввода

iOS и Android похожи на способы обработки касания. Оба могут поддерживать много касание - многие точки контакта на экране - и сложные жесты. В этом руководстве представлены некоторые сходства в концепциях, а также особенности реализации сенсорных и жестов на обеих платформах.

Android использует MotionEvent объект для инкапсуляции сенсорных данных и методов в объекте View для прослушивания касаний.

Помимо записи сенсорных данных, iOS и Android предоставляют средства для интерпретации шаблонов касаний в жесты. Эти распознаватель жестов, в свою очередь, можно использовать для интерпретации команд для конкретного приложения, таких как поворот изображения или поворот страницы. Android предоставляет несколько поддерживаемых жестов, а также ресурсы для упрощения добавления сложных пользовательских жестов.

Независимо от того, работаете ли вы на Android или iOS, выбор между сенсорными и распознавателями жестов может быть запутанным. В этом руководстве рекомендуется использовать в целом предпочтение распознавателям жестов. Распознаватель жестов реализуется как дискретные классы, которые обеспечивают большее разделение проблем и более эффективное инкапсуляцию. Это упрощает совместное использование логики между различными представлениями, минимизируя объем написанного кода.

В этом руководстве описан аналогичный формат для каждой операционной системы: во-первых, интерфейсы API касания платформы представлены и объясняются, так как они являются основой, на которой создаются сенсорные взаимодействия. Затем мы рассмотрим мир распознавателей жестов, сначала изучая некоторые распространенные жесты и заканчивая созданием пользовательских жестов для приложений. Наконец, вы увидите, как отслеживать отдельные пальцы с помощью низкоуровневого отслеживания сенсорного ввода для создания программы рисования пальцев.

Разделы

Итоги

В этом руководстве мы рассмотрели касание в Android. Для обеих операционных систем мы узнали, как включить сенсорный режим и как реагировать на события касания. Далее мы узнали о жестах и некоторых распознавателях жестов, которые предоставляют android и iOS для обработки некоторых наиболее распространенных сценариев. Мы рассмотрели, как создавать пользовательские жесты и реализовывать их в приложениях. В пошаговом руководстве показано основные понятия и API для каждой операционной системы в действии, и вы также узнали, как отслеживать отдельные пальцы.