Я изучаю разработку нового метода ввода на платформе Android, который будет эмулировать сенсорный ввод экрана, можно ли создать службу, которая может прямо или косвенно взаимодействовать с сенсорным API для достижения это?Android-приложение, имитирующее сенсорный ввод
Спецификации: Взаимодействие будет осуществляться в виде отслеживания цвета с камеры, которая обрабатывается в координатах x/y и касается: 0/1 событий. Возможно ли, чтобы они взаимодействовали с сенсорным экраном так же, как если бы это касалось самого экрана?
Я понимаю, что могут возникнуть проблемы с разрешением этого подхода «управления впрыском» или с помощью конгруэнции?
Также это техническое упражнение для экспериментального отчета, а не распространяемое приложение/часть программного обеспечения, поэтому корень/модификации не являются проблемой.
Я искал безрезультатно по этому вопросу (по крайней мере, не на платформе Android), и я хотел бы узнать о целесообразности/сложности проекта, прежде чем начинать его, чтобы любой вход был высоко оценен!