导语:美国标准手语(ASL)是聋哑人和听障人彼此交流的主要方式,但如果有一方无法理解这种基于视觉的语言,那交流又该如何进行呢?德克萨斯A&M大学的研究者现在就打算解决这个问题。
传感器系统
据介绍,A&M大学生物医学工程系助理教授兼首席研究员Roozbeh Jafari目前正在研发一种新的精密工具,来让所有人都可以去理解ASL。这套翻译系统目前还没有正式名称,但它的目标非常明确:为所有对话参与者提供一种更加精确、便携和可靠的方式来翻译ASL。
这套系统可将追踪到的视觉动作翻译成文字,但问题在于,它所使用的摄像头只能检测到足够精准的ASL手势,否则就会引发翻译错误,最终让交流无法顺利进行。
因此,Jafari放弃了摄像头,转而使用了外置动作传感器和可穿戴肌肉追踪传感器,这些传感器是基于肌动电流图(EMG)技术所研发的,可检测到运动神经元传输到肌肉的电信号,而EMG可以把这些信号转化成计算机和专业人士可以理解的数值。
目前,Jafari的团队已经制作出了可正常工作的概念验证原型机,下一步他们打算提高设备的敏感度和准确度。当所有的技术达到理想的工作状态时,ASL用户和他们的对话参与者将能从中获益良多。
可除此之外,Jafari的这套传感器系统还拥有更广阔的应用空间,比如智能家居设备的控制。
蛋君说:有了这款传感器系统,聋哑人和听障人之间的交流再也没任何障碍了。这套系统可以将视觉动作翻译成文字,即使是耳朵听不见或者嘴巴不能说,也能轻松进行对话。
评论 (0)