第673章 脑控升级测试,国家发现了什么?(1 / 2)

刘森直接把他的智能眼镜的原有的固定脑波操作模式关闭。

然后开始直接通过多应用协同,连接上了刚刚完成的脑波数据模型。

然后开始在眼前的虚拟屏幕上进行了相关操作。

屏幕上的鼠标在QS版广播体操的图标上,他想要打开屏幕上行另一边蓝星畅聊APP 。

只见那个鼠标明没有移动轨迹,而是突然就出现在了蓝星畅聊上,然后瞬间打开了蓝星畅聊APP。

“果然出现了非常明显的变化,原来如果想要打开蓝星畅聊软件,原来在QS广播体操上面的鼠标会慢慢的移动到另一边的蓝星畅聊上面。”

“现在的操作完全更加的快捷,而且精准。”

“原来虽然也是脑波操控,但是在底层操控逻辑上,完全不一样。”

“原来的操控是通过意识中给出移动的念头,然后鼠标进行对应移动,这一切完全原先设定好的程序。这中间有一个认为转化匹配的过程,这一切操控必须是原来已经提前设置好的。”

“一旦你的命令,超出原来设置的鼠标移动动作以外,那么便不会出现对应的响应。”

像是一开始,就给一段固定的脑波进行匹配,X\u003d向左移动1厘米。

我一旦发出X脑波,电脑后台就会自动识别出,X\u003d左移动1厘米,然后鼠标开始向左移动1厘米。

一旦我发出另一个指令,想要向左上方37角度位置,移动5厘米,而这个脑波Y,却无法进行相关识别。

只有我录入相关的37%角计算方法,计算出这个位置,然后才会进行移动。

其中存在无数的计算,和提前预设。

比如更加复杂的我想要桌面上的鼠标箭头,进行向左前空翻360°左旋体两周半,然后在进行俯卧撑10个。

这个命令出来,估计接收指令的CPU都能算烧掉,都弄不明白这个玩意。

毕竟没有设计过相关指令。

但是现在的最新脑波控制,却实进行100%的匹配精确控制。

我们发出这个命令的时候,一边脑海中都会出现这么一个想象,那么那个鼠标就会立刻按照你得脑海想象,明白这个指令。

于是立刻进行动作。

这就是两个模式底层逻辑的不一样。

并且因为之前的模式,所有动作都必须要预设,因此潜力较低,很多工作无法执行。

再加上那个模式有需要进行多重计算转化指令,因此相对于这新的操作模式就存在延迟。

越是复杂的动作延迟性越大。

很多时候,这相差0.1秒,都能决定了很多事情的成败。

比如两人站立进行持枪决斗,一个人发出指令抬枪,瞄准,扣动扳机射击。

而另一个人完全在抬枪的时候就能调整枪口瞄准,等枪抬起就是瞬间射击。

这其中的差别,可能是就是生命。

就是你把指令模拟的同另一个一模一样,那么计算反应,还是需要一个时间差,就是决定生死的那瞬间。

刘森有些高兴,于是立刻进行其他的测试。

他使用了蓝星畅聊同柳颖和殷丹她们进行了聊天,询问了学校建设规划情况。

他只是一个念头闪过。

“学校规划情况怎么样了,有没有困难?”

这句话瞬间出现在了对话框中,刘森扫了一样确认没有问题,接着信息便发了出去。

这其中省了很多步奏。

原来的脑控想要聊天输入信息,必须脑海中想向这一个个字,才会一个个出现。

甚至是需要不断的用意念一动鼠标在虚拟键盘