多点触控发展
多点触控技术始于1982年由多伦多大学发明的感应食指指压的多点触控屏幕。同年贝尔实验室发表了首份探讨触控技术的学术文献。1984年,贝尔实验室研制出一种能够以多于一只手控制改变画面的触屏。同时上述于多伦多大学的一组开发人员终止了相关硬件技术的研发,把研发方向转移至软件及界面上。同年,微软开始研究该领域。1991年Pierre Wellner对多点触控 “数码服务台”,即支持多手指的提案,研制出一种名为数码桌面的触屏技术,容许使用者同时以多个指头触控及拉动触屏内的影像。1999年,“约翰埃利亚斯”和“鲁尼韦斯特曼”生产了的多点触控产品包括iGesture板和多点触控键盘。在2005年,被苹果电脑收购。2006年,纽约大学的***研发的新型触摸屏可由双手同时操作,并且支持多人同时操作。2007年,“苹果”及“微软”分别发表了应用多点触控技术的产品及计划,令该技术开始进入主流的应用。
多点触摸的基本原理
传统触摸屏的本质是传感器,它由触摸检测部件和触摸屏控制器组成,常见的传感器包括电阻式和电容式触摸屏。而基于光学感应的多点触摸系统是用户通过触摸投影屏幕表面,影响光学感应成像设备的输入结果,成像设备将成像结果输入软件系统进行处理,一般经过3个步骤,首先是对原始输入图像进行包括矫正、滤波等预处理,然后通过光斑跟踪引擎对触点进行跟踪,并将其解释为各种输入状态,将输入位置、状态等信息发送给上层应用程序。应用程序处理结果被投射到显示屏幕表面上,从而与用户产生真正的所见即所得的交互效果。根据不同的光学感应原理,目前常见的多点触摸实现方式包括FTIR(受抑全内反射)、DI、LLP等技术。
多点触控技术
多点触控技术,能构成一个触摸屏(屏幕,桌面,墙壁等)或触控板,都能够同时接受来自屏幕上多个点的输入信息。在与传统的单点触摸屏技术相比,已经突破了传统的单一的鼠标左键功能,不在是单调的点击,可以实现多人一起操作,拥有更华丽的操作模式和丰富的素材内容。而多点触控系大屏幕边缘融合系统包含一组渲染子系统和一组图像采集子系统。图像采集子系统的硬件主要包含一个红外信号感应器,其功能是捕到观展者的动作对其进行分析与处理,并将处理结果发送给渲染服务器。渲染子系统主要包含一台投影仪,其功能是接收图像采集子系统的处理结果,生成相应的图像通过投影仪显示到屏幕上,从而实现自然的展示效果。所有的图像采集处理/渲染工作均在工作站上完成。这样的一来,多点平台的应用就不在被投影屏幕尺寸规格所限制,拥有更强大的展示方式。
版权所有©2025 产品网