用手势导航来操作移动设备的OS其实并没有那么便捷精准,现在的安卓OS就是如此,很多用户都反馈称,他们的设备经常会误解自己的手势,导致操作十分不方便。不过,要是手机能够尝试学习我们的手势到底代表着什么指令,那该有多好啊!谷歌也许能够实现这一点。
在XDA-Developers的论坛中,Quinny899找到了一个新的TensorFlow Lite模式,该模式可能会通过所收集到的滑动手势数据,来判断某个滑动手势究竟代表的是什么指令。
目前的手势灵敏度设置
有报道称,用户可以在Android 12 DP1中通过触发一个flag标识,来启动基于该模式的手势导航。不过,至于这一模式是否优于目前的手势灵敏度设置,我们还需要继续观望。