首页 >> 计算机科学 >> 文章

1
看过这个视频吗?如果没看过,请先点击观看,并屏息静气,期待它可能带来的兴奋。

2
——好的工具是那些不需要学习就可以直接使用的工具,而电脑明显并不能算是其中一种。这个问题也许很快就会解决。

一只手握住鼠标,另一只手放在键盘上。鼠标指针在屏幕上从一个图标划到另一个。我们每天都在这么做。但是且慢……有什么不对劲?

仔细想想,鼠标其实是一种很怪异的东西。当你在一个水平面上移动鼠标的时候,指针会在另一个垂直平面上移动。还有比这更不合理的事情吗?

人们把我们和其他东西交互的途径叫做界面。我们用键盘鼠标来操作电脑,键盘鼠标和电脑上显示出来的东西就是界面;我们写字,笔尖划过纸面的沙沙声、纸张的质感和味道,也是界面;我们叫一只小狗来到我们身边的时候,我们的声音、动作和小狗做出的反应,都是界面。

如果这些输入和反馈符合我们的习惯,那就是好的界面。然而,电脑不是。

第一个商业软件程序员、“人性设计”的倡导者阿兰•库珀说,最好的界面是那些人们已经熟悉到几乎遗忘了的界面。

终极的用户界面就是没有界面。我们写字,看到一篇文章渐渐成型,我们手指的每一个动作马上都会得到反馈,看起来像是我们的想法直接流泻到了纸上一样。能想象我们写下几个字母,然后字母们在纸上啪嗒一声变成一个汉字么?

电脑的界面一直很差。如果一个原始人穿越到了现代,一定会认为我们都是巫师——我们做出奇怪的手势,面前的镜子上就会出现神秘的符号和画面。我们在一块板子上敲敲打打,另外一个地方却出现了变化。

这不自然。当有人要买一个钻头的时候,实际上他想要的是一个洞。而现在,我们在学习如何使用钻头这种新工具上花了太多的时间。

上个世纪80年代,尼古拉斯•尼葛洛庞帝在麻省理工学院创立了媒体实验室,致力于改变人们生活的方式——特别是和电脑交互的方式。1995年,他把写给《连线》杂志的专栏文章整理成了一本书,叫做《数字化生存》。他建议人们转移注意力,把电脑的发展方向转移到创建更好的界面上去。

虽然随后的互联网泡沫让这本书很快地过时,但是我们还是很庆幸地发现,许多企业开始把精力投入到研究更自然的界面当中。iPhone采用的多重触摸技术,让人们对电子设备的操作从单纯的指指点点转向一个更自然的方向。微软的“Surface”电脑试图把屏幕和桌子合二为一,当人们在其上比比划划时,它会给我们合适的反应。电影《007之量子危机》中,邦德在总部使用的那部超酷的大触摸屏电脑,就是基于“Surface”而设计的。

3
回到开头那个视频

08年2月,来自麻省理工学院媒体实验室的印度学生Pranav Mistry向世界展示了一种新设备,叫做“第六感”。
它的奇妙是,它“没有”界面。

初看上去,“第六感”并没有太特别的地方。它由市场上随处可见的摄像头、微型投影仪和智能手机组成,用一根绳子挂在使用者胸前。摄像头随时拍摄出图像,然后由手机中的软件对其进行处理,并且用投影仪将结果投影到任何地方——手上、白墙上、纸上,甚至别人的衣服上。

就是这样看起来平平无奇的小东西,赢得了《大众科学》杂志评选的2009年度创新奖。老牌杂志《计算机世界》在谈到它的时候居然打出了《未来冲击:2019年的计算机》的标题。当然,不需要到2019年,它就会出现在我们生活中。

它最创新也最迷人的地方,在于把一切不符合直觉的操作都隐藏了起来。使用“第六感”时,人们以最符合直觉的方式与虚拟世界互动。摄像头拍摄一切——只需要用两只手的食指和拇指比出一个取景框就可以拍照,只需要用手指指指点点就可以作画,只需要拿起一本书就可以在封面上看到亚马逊书店对这本书的评价,想把一段文字从书上输入到计算机中只需要用手指比划一下。它抛弃了过去六十多年来那些操作计算机的方式,让人们可以向操控真实世界的物体一样随时从数字世界中抓取自己需要的内容。一切尽在指尖。

“第六感”和微软的“Surface”比起来,就像是手机和固定电话的区别一样。

类似的东西,我们已经在科幻电影里看得太多,然而现在我们却依然不得不依赖键盘和鼠标这种生硬的界面,然后在其上建立起一种极为勉强的对应方式————这和我们在纸上书写的体验严重不符。

这就是 “第六感”装置如此吸引人的原因。它将真实与虚拟结合为一体,使用摄像头将真实世界的东西拖到虚拟世界当中,加以识别、判断,用一个摄像头做为眼睛,让软件和互联网成为大脑,并且用投影仪将其展示在任何平面上。它不像是我们熟知的计算机,更像是我们的第三只眼睛,和被延伸了的大脑。几部随处都可以看到的设备,加上一点点软件魔法,就成了一种潜力惊人的工具。

这样的创新看起来像是那种“啊,我怎么没想到”的类型。无数人拥有摄像头、投影机和功能强大得多的电脑,但是在Pranav之前,没有人意识到可以用这些来改变人们和机器对话的方式。

将几种技术结合起来所诞生的创新大抵都是这样。从电话到互联网,从移动通信到物联网,都只不过是将几种现有技术结合起来而获得的——然后在这样的新平台上,逐渐出现了更多纷至沓来的惊艳应用。

4
我们现在也许处在一个奇妙的时间点上。美国发明家Ray Kurzweil在上世纪七十年代提出的一种叫做“技术奇点”的理论,认为技术之间的结合和相互促进将会让人类技术文明以指数级持续加速发展——这一点已经被证明了,毋庸置疑。然而当前主流学界对这一理论持观望态度的原因在于,技术奇点理论认为当这种加速持续到某个时刻,将会产生一次彻底的变革。那可能是人工智能超越人的智能,也可能是人们可以直接以意识方便地和计算机沟通,以及由此引发的“智能大爆炸”。但是在智能大爆炸之后将会发生什么,没有人能够预测得出。这也是为什么他将这一理论命名为“技术奇点”的原因——在宇宙大爆炸理论中,我们对奇点也依然一无所知。

虽然这个理论听起来很有些科幻的味道,但是我们不得不承认,技术正在裹挟我们迅猛前行,未知的前路以越来越快的速度向我们迎面而来。为了应对这个正在飞速变化的世界,我们只能借助更多技术的帮助,而更多的技术只能带来更快的变化。这像是一个怪圈,一旦陷入,永远不能脱离。

但我们最少可以从“第六感”这样的设备中看出一些端倪。我们将会成为这个星球上首次在真实世界和数字世界中随意切换的一代人,也许我们将会不再严格地区分物理或者逻辑、字节或者原子。我们的地球甚至可能会变成一个类似《阿凡达》中的潘多拉星的地方:一切真实和虚拟都会无缝连接在一起,每个人都成为一个超级智能中的一部分。

5
关注第六感,到写这篇文章,花了大半年时间,期间一直在关注这种设备。虽然如此,但是在听到他说这将是一个开源项目之后,还是忍不住激动。

我个人认为,这种东西会改变我们使用互联网的方式……正如其他增强现实设备一样,我们已经有了能够将互联网和真实生活连接在一起的工具。在未来的一段时间内,这样的设备应该会越来越多,我们会有各种各样的可能性。

然而,我对第六感的了解还相当的不深入。在这篇文章里,我用“一点点软件魔法”来打了一个马虎眼,但是软件应该是这个系统中最为核心的部分。也许我们可以一起来揣测一下……您认为第六感的软件系统应该有什么样的结构?它的一些特征性的功能是如何实现的?或者,让我们畅想一下,这样的产品,也许还会发展出什么样的应用?

请在评论中留下您的观点吧。

编辑:姬十三

0
为您推荐

89 Responses to “"第六感",迈向虚拟未来”

  1. 蓝枫说道:

    沙❀~~~~

  2. 野草博客说道:

    野草最好奇的就是:既然这个软件系统是开源的,为什么国内至今还未看到有商业产品出售呢?

  3. 拼图者说道:

    我想可能要在眼球上连上传感器,在手上连上传感器。这样眼球到哪计算机就能迅速扫描到哪并给出有用的信息。手指到哪就能迅速的发出指令。这有点象科幻片里的机器人一样,扫描,锁定,搜索资料。呵呵

    • 猛犸说道:

      眼球上倒未必要连传感器……追踪眼动就好。在这个“第六感”里没有侦测眼动的模块,手指也没连上传感器,而是用了特定的颜色标记来区别。

      已经不是科幻了……

  4. laymanal说道:

    雷声大雨点小,只是一个概念而已,几年前就看过了,但一直没什么进展。

  5. laymanal说道:

    雷声大雨点小,只是一个概念而已,几年前就看过了,但一直没什么进展。这个东西理念并不算新,但最大特点是成本很低,如果能够实现确实是非常棒的。

    • 猛犸说道:

      的确像楼下说的那样,这是增强现实的应用。增强现实历史悠久,已经有二十年了吧。其他地方也有些类似应用,例如这里:https://songshuhui.net/archives/22556.html

  6. 晨风说道:

    脑海闪过四个字:增强现实

  7. fateholder说道:

    真正的第六感是与意识甚至潜意识接驳,慢慢等吧。。

  8. leoflyboy说道:

    的确,刚看见这个视频的时候被震惊了,原来虚拟世界同现实世界之间能够如此轻易连接起来!期待成熟的产品制作出来!

  9. 杨友三说道:

    “我们的地球甚至可能会变成一个类似《阿凡达》中的潘多拉星的地方:一切真实和虚拟都会无缝连接在一起,每个人都成为一个超级智能中的一部分。”

    的确如此!

  10. hahahah说道:

    如果是我来设计第六感的软件,
    第一层信息获取层,是从影像获取数据和事件,图像识别是其中最重要的技术。现在第六感不太自然的是,每一个手指必须戴一个色块,这是为了方便图像识别软件感知手指的动作,这显然不是一个自然的人机交互界面;
    第二层信息理解层,是数据、事件理解人要干什么,说得大一点儿,模糊推理、数据挖掘技术、机器学习、其他人工智能技术都能在里面发挥作用。当然就目前能做的小应用来说,模糊的人工智能的意味越少越好,确定的推理比如专家系统应该是比较现实的出路。
    第三层是应用层,理解人要干什么之后,由机器去干。这里根据应用可以有不同的关键技术,如文本OCR(用于将实体书上的文字转化为计算机字符)。
    第四层是视频输出,这里要将需要展示给用户的信息通过自然的方式呈现在投影仪的影像中。这里起关键作用的是人机交互理论。其实第四层和第一层恰好构成了一个循环,第四层的设计可以直接影响第一层信息获取的方式和正确率。

    举个例子,比如人要复制某本书上的某段话,动作是手指在书上某段上依次划过。
    在第一层,首先需要感知到人手做出了这样一个动作,并从图像中将与这个动作有关的所有信息提取出来,包括人手划动的方向、手势、范围、及范围内的内容,及一些相关信息,比如这是一本书。
    在第二层,通过分析、推理,从数据推理得到”识别文字、复制文字“的计算机能够理解并执行的确定的命令。
    在第三层,计算机执行识别文字、复制文字的命令。
    在第四层,展示一些提示或者以用户需要的方式将执行结果展示给用户。

    • 清风剑说道:

      且不说OCR和模式识别的难度,计算机本就是要和抽象符号打交道的。计算机是人用来处理复杂的抽象符号的,所有计算机能做到的东西,都经过了抽象,过度的追求直观,只会让人丧失思考的能力和需要,这也正是CLI派一直坚持命令行的原因。第六感能够让部分日常操作变得简单快捷(例如大段文字的输入),但我还没看到它将一个复杂任务变简单的能力,而这往往需要抽象思维的参与,期待更高级的人工智能可能是一个方向。

      • jamesr说道:

        支持。人工智能的路还很长,这套系统无非把现有的人工智能成果实物化了,离实用还有非常长的路。

  11. hahahah说道:

    上一条仅仅说的是纵向结构,如果是横向结构,更加复杂,我想第六感的软件不应该像现在的软件,用户调用什么软件,该软件才起作用。而是所有的软件都通过更加自然的方式默默的起作用。可能使用插件式软件架构是比较好的。不过在很复杂的应用中,插件相互影响非常大。

    • 猛犸说道:

      嗯,我觉得,可能是通过识别特定手势来启动特定程序的……插件式,或者干脆是一个操作系统上运行的一些独立软件,就像iPhone那样?

      • hahahah说道:

        如果把“自然”作为交互的标准的话,一个操作系统存在若干软件是不够自然的,因为不论是pc操作系统,还是iphone那样,都得人去“被动唤醒”某个程序,被动唤醒的前提是用户知道有这个程序的存在,并且大概知道这个程序能干什么。
        而更加自然的是用户不需要去“被动唤醒”某个程序,而是当用户在做一件事情的时候,程序默默的提供了某些帮助让用户更方便。
        比如,我在chrome里面安了一个叫做Google Quick Scroll的插件。这个插件在我使用google搜索的时候,进入搜索结果,即跳出一个提示框,让我方便的在搜索结果页面里定位到我搜索的内容。
        这个插件不是我被动唤醒的,而是我进行google搜索的时候,程序由于监测到浏览器的行为,而主动提供了帮助。
        这类主动的程序现在在浏览器插件上体现得比较充分,而在现有的操作系统软件上还比较少见。因为现有的PC架构上,运行一个软件是需要占用很大资源的,如果把所有软件运行起来,然后再开始工作,确实可以做到我说的主动软件的效果,但是这样资源就被浪费了,得不偿失。比如有几个人愿意为了不常放进DVD光驱的光盘可以自动启动播放器,而让一个播放器的自动启动程序保留在“启动”里?
        浏览器可以做到插件主动行为而又尽量少的占用系统资源,是因为浏览器行为是浏览器本身可以监控并由接口提供的。比如“进入Google页面”、在“google页面进行搜索”。需要插件工作的时候,浏览器的这些信息可以激活插件工作,插件工作完毕完全可以释放尽量多的系统资源。
        所以,我觉得“第六感”的软件,第一层图像识别应该是统一的,第二层人工智能程序和第三层应用层,应该是插件式的,可以无线扩展其功能,哪一个插件应该工作应该由图像识别出的数据驱动。

  12. 苏照影说道:

    个人认为这个“第六感”远远没达到那个变革的“点”,实际上21世纪更多的属于生物科技,完美的“第六感”应该可以不借助外物直接实现大脑与电脑的交流,所以还是期待人机结合技术吧

  13. overcash说道:

    在第一层,首先需要感知到人手做出了这样一个动作,并从图像中将与这个动作有关的所有信息提取出来,包括人手划动的方向、手势、范围、及范围内的内容,及一些相关信息,比如这是一本书。
    _____________________________________________________________
    现实中的二义性实在是太普遍了,同样的划动,机器如何判定被要求增强的是一本书而不是一个动物或者植物什么的,同一个现实场景中,如何判定主人感兴趣的是什么?除非机器能同意识接驳,那就根本不存在识别的问题,否则就算法而言识别基本上是不可能的.

    • hahahah说道:

      二义性确实普遍存在,这是不能回避的问题,但是对于特定应用来说,二义性对机器理解造成的困难是可以避免的,比如,现有的程序只能针对书,那么程序就会尽量去注重书和手的交互,而忽略手势含有的其他意思。
      另外,为什么二义性非要在第一层避免呢?第一层把手的位置和动作精确的从图像中挖掘出来,把背景信息也进行一定的数字化,然后不管是否包含二义性把这些数据通通交给第二层人工智能去处理,为什么不可以呢?呵呵
      在第二层人工智能程序那里,避免二义性就有更多的手段啦,比如语音识别里面用得比较成熟的机器学习之类的。

      • overcash说道:

        人工智能已经数十年没有本质性的突破,你说的那些现在已经成熟应用的模式识别其实都是很简单的应用,只能对特定的场景作特定的分析,这就好像程序中不使用泛型,针对实例来编写程序,这个应用的通用性及适用范围都大打折扣,现实增强就好像机甲一样,可以扩展人的能力,但主体还是人没必要将机甲变为有意识的机器人,同样也没必要将小小的第六感核心变得有人工智能,相比人工智能来说恐怕意识与机器接驳这条路还更有可能实现一些

  14. Metaverse说道:

    这套系统的关键在于光学识别和程序对运动目标的解读能力,实际效果表现为把输入输出设备的限制缩小了~~这个系统看上去似乎还很初级,手指上还需要戴上有颜色的指套,而且目标识别的范围还会受到摄像头视场大小的限制……这个离桥接神经的芯片那种有可能直接实现人机交换信息的真正第六感,有很大差别,不过能写出这样代码的人确实很牛……

    另外,这套系统的电池能撑多久?

  15. 宅在壳里的蜗牛说道:

    第一次看到,觉得很牛啊,想法很好。尤其是将真实世界的东西拖到虚拟世界中,或相反,让我想起了iron man 里面的一个场景,男主角从电脑里把3D铠甲拖到书桌上,在一个虚拟与现实结合的世界中进行修改,当时就被震到了。
    他的这种装置用到生活中,会觉得很fancy,那么手机应该是最关键的,要有高级的图像处理软件,能快速上网查讯息,还要有功能强大的搜索引擎。

    很好玩。:)

  16. 木遥说道:

    关于第一段,我想说,那种鼠标和鼠标指针的分离,并不像它看起来那样是一件不自然的事情。

    事实上,今天市面上已经有很多电脑(比如HP的某一款)支持直接在屏幕上触摸了,可是使用起来的效果一点也不好,原因很简单:我们平时用电脑的时候手的工作平面是水平的,眼睛的工作平面是垂直的,强行把这两者统一起来的结果,是这样的界面要么胳膊累,要么脖子累。谁能受得了工作的时候总举着手啊,又不是指挥员。

    这种手和眼的分离并不是发明鼠标的结果,而恰恰是它的原因。人在生物上手和眼就是截然分离的,一个正视前方,一个却在近处水平范围内有最好的灵活性。在机器发明之前,人们的工作不得不迁就其中一方,譬如劈柴或者缝纫的时候,手工作的地方就一定也要是眼注视的地方。这固然可以说更自然,但是实际上也更累。正是远程操纵装置──鼠标就是一个杰出的代表──解放了这一点。它固然不自然,但是其实要舒适得多。原始人不能理解这一点,恰恰说明了它的伟大之处。──我们干嘛一定要像原始人一样工作才自然呢?

    • Footfish说道:

      totally agree with 木遥 and hahahah. 6 sense is definitely interesting, but apparently over-hyped. It's far from what the article seems to imply: a revolutionary interface or technology singularity.
      What's a natural HCI? It depends on both parties connected by the interface. Different people will find different HCI to be natural. The key is not "natual-ness", but "adaptive-ness", one size doesn't fit all.

    • 猛犸说道:

      HP那款的确不怎么样……但是考虑一下wacom的那款压感和LCD结合起来的奇贵无比的东西吧……我觉得像Footfish所说的那样,每个人都有最适合自己的HCI,不过不同的工作也有不同的最适合的HCI。对大多数人来说,用鼠绘就没有用触摸板画图舒服吧。

      我觉得这可能和肌肉群有关,越细致的工作需要用到小肌肉群的精细运动,因此眼睛也要求注视着同一处吧。

      • 木遥说道:

        对,但是这恰恰说明,当人们真正需要手和眼其中一方迁就另一方的时候,更倾向于眼迁就手。而本文中的各种应用基本上都是手迁就眼。很容易注意到一件事情,就是视频中几乎所有的应用性场合,甚至包括第三节末尾的那个假想图里,人物都是站立着的,在这种情况下,手才会有更大的活动空间,也才更方便迁就眼睛。

        但是问题在于大多数脑力劳动是需要坐着进行的。且不说总让手指在身前活动会有多累,就假想一下这样一幅工作场景吧,一个办公楼里,每个格子间里的桌子前面都坐着一个工作者,他们并非埋头工作,而是两手在面前持续不停的挥舞,那才真像是巫术场面呢:)

        我对这个技术没有意见,事实上我也是大半年前就开始关注它了。我只是觉得,人们目前对于未来真正理想的人机界面了解的还是太少。就说文字输入吧,我看不出在脑机接口发明之前,还有什么界面的效率和舒适程度能胜过目前的键盘+屏幕,虽然这个界面确实很老土。

        • 猛犸说道:

          同期待脑机接口……

        • lalunasun说道:

          为什么不考虑把屏幕做成水平的呢?读书的时候不是也倾向于在水平方向上动眼吗?

        • 广木说道:

          这项技术更像是应用于日常生活的一个信息采集工具,便利我们能在生活中采集或者保存我们想即时的想法和反馈给我们即时的信息,我将其定义为根伟便利的随身工具,代替我们现在的手机系统。我是在平常时候看见想买的东西,手机马上上网查询相关信息,这个系统更便利。
          而相对于平常工作状态,我想更强大的上午平台是必要的,而且他的理念是开放的系统(严重怀疑上市后的商业行为),每个人可以打造适合于自己的应用平台。

    • badidodo说道:

      在TED的视频中 Pranav Mistry的哪种操作很别扭么?所有演示的操作都很自然,没有重复机械使人不适的操作。他提倡的理念是解放人们固有人机交互方式。就像苹果在发明鼠标以前人们都是依赖键盘与计算机打交道的。但进入了视窗时代,键盘操作就显得不合时宜了。鼠标的出现改变了人们对于人机交互的方式,这种方式更加友好。同理,时过境迁 人们期待着新的变革,就像iphone刚刚面世时,对于人们冲击力一样。Pranav Mistry更愿意人们称自己为设计师而不是工程师的原因你知道么?视频中演示的那些匪夷所思的交互方式无一例外都是精心设计、认真推敲的。人们在工作时大可以找一张纸将它变为平板电脑,回到我们熟知的传统操作方式。当胳膊累了的时候,胸前的投影同样可以将图像投射到桌面上。何必总是抬起手,请问将手搭在桌面上操作,与传统的平板电脑有什么区别?

  17. 黑白说道:

    非常好的东西,最牛的是所有技术都是现成的,我们需要的就是把它组合起来

    天才的设计

    现在需要的是一套可以准确辨别手语的软件,一个可以保持照射点稳定的自平衡摄像头,以及一点想象力而已

    很可怕,也许最终颠覆PC的东西要出现了

  18. RJ说道:

    我比较的悲观,现在连图片搜索引擎都没有解决的比较好,和谈这种虚拟与真实的交互

  19. funphy说道:

    我想问,现在模式识别有那么牛吗?

  20. bk201说道:

    我也觉得图像识别比较难搞,还是先期待这项技术有个突破比较好。以前看过个视频,里面PS CS4(还是CS5来着)的图像处理能力强大到无法理解,不知道是不是真的。关于技术奇点,我也同意脑机接驳才是那一点。

  21. danny wole说道:

    看完之后,无论如何都忘记不了,我年前的一个想法,所有的数字终端全部都在逐渐脱离单一的硬件维度,但冒出的也仅仅是3D实时无介质投影、简单的人与数字维度的互动而已~~~,可人家已经做出来了,这就不得不佩服这位小伙子的灵感和技术基础,难得的一个“匠才”,这项改变会促使整个IT界发生巨大的变化!!!再过几年,希望中国的原创构思能够达到这一级别!!加油!!

  22. LYF说道:

    载体放到眼镜上就是《电脑线圈》了。——这是我看完本文的最大感想

    这种交互方式的相关技术也都已经出现并越来越成熟,配合云技术和移动通信技术,十年内就能见到类似《电脑线圈》中的场景了吧。

    PS:去年那款用个摄像头和几张纸片就能调戏虚拟女仆的软件也属于这种交互界面的应用吧……

  23. 小姬说道:

    猛犸撰写,姬十三编辑。过年了,好高级呀。

  24. MF说道:

    看上去不难我想做一个。这么小的投影机从哪买到?

  25. 墨愚说道:

    三体II里的未来?

  26. 巴哈姆特说道:

    希望有生之年能看到量产后的世界状况~

  27. WALTER说道:

    概念很久以前就有,可惜的是硬件跟不上,软件好设计,可算法(或者说数学理论)没有突破,而硬件发展又乏力。咱不能背着一个机箱,但非要用模糊的成像仪和摄像头来进行输入输出吧,这样的话就舍本逐末了。而且这数据传输量,一般的无线网络不一定能搞定。想想,本来处理个文本word的,结果成为处理无数幅图像了,这算法和计算量实在太大,更不提之间的延迟有多么恼人(预想一下,你在玩赛车游戏,你看见急弯了的时候,已经延时1秒,你反应时间是1秒,操作传回电脑又1秒,3秒对200km/h的车来说就是180+m,想不撞有点难度@_@)。现在最靠谱的,我觉得就是Wii的体感,另外就是微软的NATAL计划。Wii利用传感器,现在相当风靡,而NATAL已经半年前就接近成品了。我觉得先期待微软的表现更实际些。

  28. 业余博士生说道:

    这个是基于RFID和图像识别技术的应用构想,之前的SR(stimulate reality)技术的主要攻关课题,带上了物联网的概念。不过n多的yy镜头有点让人反感……

  29. 王生说道:

    出了需要更便携的摄像头和投影仪外,基于云计算的高速无线互联网必不可少。

  30. vertigoblue说道:

    同意楼上,我也想到了Wii

  31. ipache说道:

    当虚拟与现实的界限不再明显的时候,那么谁才是决定社会发展方向的主导因素呢?

  32. cexxxx说道:

    这个东西和神经传递那个东西结合一下就牛逼死掉了。

  33. 西郭先生说道:

    我第一个印象最深的地方是他的思维过程,呵呵,感觉很强大,很震撼
    我个人认为这种科技离我们并不遥远,很快就会出现在我们身边

  34. keledoll说道:

    第一次在网上看到这个视频时就震撼了。
    完全改变了我们对互联网的想象~~~
    第一反应是我也想有一个!!
    不过其实这个东西的实现有一个前提,就是wifi无处不在。这个在中国貌似还是很多地方做不到的,是不是3G就是可以随时无线上网?
    我觉得对失明人士可能也会有帮助,出门就相当于带着GPS加电子阅读器。
    我比较想做的是在开会的时候,在老师的背上看小说,咔咔~~

  35. Soma说道:

    看的我泪牛满面啊....!!!希望能公布源代码

  36. lulitao说道:

    这样会不会像科幻片里的一样,导致人类的退化?

  37. lixkyx说道:

    这就是未来世界啊!

  38. 七夜罗宾说道:

    震惊,一打开电脑就看到这种让人震惊的东西
    我觉得这种设备在户外的使用还是有问题啊 在户外的太阳光下投影仪还有那么好的效果吗 看久了会很累的

  39. DevilMayCry说道:

    感受到未来科技的发展方向了!!!!真的被震撼到了~

  40. dipulaomo说道:

    还是比较虚,这东西做的人多了,每个技术细节都是一大块研究领域,这个demo做的这么炫倒是不容易

  41. LYS说道:

    经老师推荐来瞧瞧松鼠会,没想到第一次来就看到这么震撼人的视频!我只是一个计算机专业的大一新生,看到这东东让我对自己的专业充满期待!

  42. GSMOWNER说道:

    再好的创意、技术也要实用,旧时王谢堂前燕,飞入寻常百姓家才是王道。不过我相信科技改善生活的力量

  43. 疯子说道:

    其实我一直在想这样的一个问题~语言~现在的网络是构建在26个字母上和数字上~在换句话就是0和1~总体的量大~但是基本结构没有变化~所以我有一种设想~构建在中文语言上~或许这样的构想不能实现~但是我会努力实现构想~即使是几个汉字作为真正的基础~

  44. yangjing说道:

    同意楼下laymanal说的,只是一个概念而已。用五百美元打造的第六感与用几万美元换来的轻薄笔记本,提供的完全是不同的东西。譬如,高清播放在第六感上就不容易实现。

    所谓最好的工具就是不用学习就可以使用的工具,我也不敢苟同。事实上还没有哪种工具不需要学习,甚至包括人类最重要的工具之一——手。假如学习使用一种工具可以极大地增强我们的能力——比如脑力——付出学习的代价是值得的。需知工具也要分用途,对于日常应用来说,学习当然越少越好,但是对于科研一类的应用来说,为了取得强大的功能而增大学习难度的例子很多,比如著名的Vim和Emacs(Emacs和Vim?)。

  45. unigloria说道:

    别的就不说了,我只想要看外文书的时候,手指一点某个词,就有完善的词典翻译。划中某行字,就可以立即进入网络google它。用手指弄个取景框,电脑就会告诉我取景框内焦点建筑物的名称。。。。

  46. 猫脚三说道:

    毫无疑问很强大,但有点儿担心一旦普及,精神疾病的发病率、自杀率和社会犯罪率都可能会因此提升。真实与虚幻、世界与自我、寻找与迷失……界限都不再清晰,许多人会觉得自己像纳什一样,分不清真实和幻象。再带上3D眼镜儿,宅男宅女们就可以在卧室的白色墙壁上找到阿汤哥,然后自给自足地过一辈子了,跟风月宝鉴似的……婚姻问题,人口问题……啊,好怕怕,不想了

  47. 若飞说道:

    现在只能一步一步的发展,一步进入真正的第六感,难,但是我们可以一步一步看紧。向人性,智能发展。

  48. 陈超说道:

    想法很好,但是感觉还是没涉及到核心的算法问题。这不是有个摄像头投影仪就可以解决的。比如在纸上开赛车,这款游戏是手机上的,只是用投影仪把它游戏画面投影到了纸上,然后通过摄像头捕捉两个手的位置信息,如果左手比右手高,那么就返回一个右转的信号给手机,然后游戏中就能实现右转。但关键的问题就是,摄像头只能捕获一幅幅的图像,它如何从这一幅幅的图像中获取有用的信息?在这里,摄像头捕获的是一双手拿着一张纸的图像,而这幅图像中有用的信息就是双手的位置,而如何手的位置信息从图像的其他信息(比如颜色信息,其他物体的位置信息等等)中分离出来,才是这个应用的核心问题。

  49. 沈觅仁说道:

    我对于其中的图像识别的水平之高感到惊讶。而且普通的摄像头像素是很低的,对快速运动的物体捕捉也不好,如何从中进行识别,是一个问题。

    另外,他应该使用了云技术吧??图像信息传回服务器,处理完毕,在传送回来。那么像视频之类的应用需要较高的带宽(这还是分辨率比较低时),如何支撑呢?至少GPRS是铁定不够的。3G网络大约能够勉强支持。

    还有,不晓得电池续航时间多久??室外投影、摄像头实时采集并处理,多么耗费能量啊。。。

    • Poporange说道:

      关于你的几个问题的探讨:
      1.电力问题,相信会有多种供电方式,如“口袋电池”等更大容量的设备,不局限于传统意义的手机电池。
      2.云技术和本地运算结合,在HSPA下已经可以很好的支持目前AR系统的工作,相信随着WIMAX的演进会进一步满足。
      3.摄像头不是问题,高清摄像头及其数据处理技术早已进入实用阶段。

  50. Poporange说道:

    大约半年前看过这个视频,当时就被震惊了,然后查了很多资料 = =
    一开始我觉得这个系统相当完美,并完全凌驾于Layar之类的,以智能手机为平台的AR(增强现实)系统。 但现在想来,这套系统相比手机平台,至少有这么几个缺点。
    1.笨重,相比手机的轻巧,高度集成,这个系统至少需要2-3倍的重量.
    (参考,3M最新的Mpro150投影机重量);
    2.环境适应性,这个系统在阳光直射下将完全无法工作,除非高亮LED有进一步突破或采用激光投影。
    3.应用局限性 如果我想快速记录一段文字,一台全键盘智能手机也许是更好的选择(不过相信语音输入将在5年内成熟并实用);
    顺便提一句,目前我使用的AR系统是Layar,运行在我的Moto MileStone上

  51. 裤裤说道:

    看上去非常惊艳,但看的时候有几个疑点,当然可能这位同学已经解决了,那俺实在只有膜拜的份
    1.投射距离调整。 投影仪并不能知道自己跟平面的距离与角度,必须要手动调整投射距离,或者固定投射距离。也就是拿起那本书时,拿起的距离必须有限制。难道这一条已经被投影仪厂家以及摄像头完美解决了,或者那家伙的软件控制达到了如此出神入化的地步。。?

    2.模式识别。老问题。字体,颜色,背景,光线,什么都会影响到一幅图片的实际数据。在20w的灯泡下拿起那本书,跟在100w的灯泡下;书的标题是Arial,跟书的标题是大花体英文;灰色的书页vs红色的书页;甚至大拇指头在书上的位置。天,想想我就晕了。

    这个系统应该暂时还是粗糙的,但它提出的这种创新理念,的确让人叹为观止。期待哪一天问题可以得到比较完美的解决方案。不知道这个系统对模式识别这个老大难问题有什么贡献没。单看视频还看不出。

    • pascal说道:

      你的第一个问题, 现在已经有技术解决了, 有些投影仪会用反射回来的光计算出它的成像大小,位置, 上网可以找到这类投影,

  52. 硬蛋说道:

    我的理解:这个东西只是个概念性的,噱头远大于实质。

    他只是把现有的一些技术和概念堆砌起来形成他的一个设想,这个设想看起来很美,赚足了眼球。但不幸的是,仅仅是看上去很美。很多他应用的技术还没有成熟,起码不如他演示的那样稳定。毫不夸张地说,视频里有些东西是很难重复的,或者十次有五次能成功就不错了。如果让你去使用,你可能一分钟都受不了,因为那玩意根本就不稳定。

    最开始看到这个演示的时候,我对作者表示赞赏,他提出了对未来人机交互的一个很好的概念。但随着越来越多的媒体报道,我开始担心,大家千万不要以为视频里演示的内容就是现在科技发展的程度,远远不是。里面应用的很多计算机视觉技术还不是很成熟,去看看计算机视觉技术的发展现状吧,能够实用的技术少之又少,很多研究方向才刚刚起步没多久。大家看着乐呵乐呵就行了,可以对未来有很多期待,但千万不要以为这就是现实,这只是你的“第六感”。

  53. Diva说道:

    有过一个设想,在眼镜上装一个摄像头,弄一个无线开关,装到戒指上或者手表上,拍下或录下一切有用的东西——我可以“过目不忘”,当然,这需要每天做整理,我没学过数据库,我只知道加各种标签或者树形图。
    设想的初始只是我的记忆力不太好,尤其是对于人的长相……
    实现起来难度貌似不大,多花点钱定制一套能行,或者哪位大大将它量产化,恩能够送我一套就行了……

  54. avalon说道:

    这是所谓Augmented reality . 不过video里的东西,以目前的技术水准,要产品化,估计商业上很难运作。

    • 老秋说道:

      各位大虾,心动不与与行动,我出一道简单的题:投影仪把电脑上的东西投射到大银幕上,用一根木棒(当然,别的东西也行)点击银幕(就像鼠标电机电脑界面一样),木棒就能控制电脑。谁能解缺这个问题。

      • DoubleK说道:

        老秋可玩过电玩的生化危机?或者类似的游戏,那么就容易解决了,实现的方法就和这种游戏中枪(手柄)的方法一样...

  55. 粉丝俩说道:

    界面下面掩盖的是人机互动模式(键盘按钮鼠标、触碰、“第六感”),互动架构(操作系统)。特别是对移动终端来说,按钮式的方式正在被淘汰;在智能手机、平板电脑主导推动下,触碰式已经开始成为主流。在智能机淘汰功能机后,下一轮的竞争关键是基于触摸方式的操作系统,(平板)电脑甚至包括电子书也应如此。终极的用户界面就是没有界面,人机互动的输入输出方式将更加适应融入人体工程、人体生物构造。

  56. allensubaru说道:

    对 就是增强现实 我专业就是Augmented Reality 有看过他的视频 用手指上的那个彩色做追踪

  57. 白糖糖说道:

    LS: 是不是有iphone app做augmented reality的?哪个好些?

  58. dsfasfd说道:

    这东西和前面那个视网膜显示器结合在一起就是神器了

  59. LULU说道:

    我看到了魔法的黎明。

  60. lake说道:

    手指头上戴着几个方便视频识别的彩色套子

Leave a Reply