首页 >> 数学 >> 文章

木遥按:这是数学家陶哲轩在他自己的blog上写的一篇科普文章,讨论的是近年来在应用数学领域里最热门的话题之一:压缩感知(compressed sensing)。所谓压缩感知,最核心的概念在于试图从原理上降低对一个信号进行测量的成本。比如说,一个信号包含一千个数据,那么按照传统的信号处理理论,至少需要做一千次测量才能完整的复原这个信号。这就相当于是说,需要有一千个方程才能精确地解出一千个未知数来。但是压缩感知的想法是假定信号具有某种特点(比如文中所描述得在小波域上系数稀疏的特点),那么就可以只做三百次测量就完整地复原这个信号(这就相当于只通过三百个方程解出一千个未知数)。可想而知,这件事情包含了许多重要的数学理论和广泛的应用前景,因此在最近三四年里吸引了大量注意力,得到了非常蓬勃的发展。陶哲轩本身是这个领域的奠基人之一(可以参考《陶哲轩:长大的神童》一文),因此这篇文章的权威性毋庸讳言。另外,这也是比较少见的由一流数学家直接撰写的关于自己前沿工作的普及性文章。需要说明的是,这篇文章是虽然是写给非数学专业的读者,但是也并不好懂,也许具有一些理工科背景会更容易理解一些。

【作者 Terence Tao;译者 山寨盲流,他的更多译作在;校对 木遥】

最近有不少人问我究竟"压缩感知"是什么意思(特别是随着最近这个概念名声大噪),所谓“单像素相机”又是怎样工作的(又怎么能在某些场合比传统相机有优势呢)。这个课题已经有了大量文献,不过对于这么一个相对比较新的领域,还没有一篇优秀的非技术性介绍。所以笔者在此小做尝试,希望能够对非数学专业的读者有所帮助。

具体而言我将主要讨论摄像应用,尽管压缩传感作为测量技术应用于比成像广泛得多的领域(例如天文学,核磁共振,统计选取,等等),我将在帖子结尾简单谈谈这些领域。

相机的用途,自然是记录图像。为了简化论述,我们把图像假设成一个长方形阵列,比如说一个1024x2048像素的阵列(这样就总共是二百万像素)。为了省略彩色的问题(这个比较次要),我们就假设只需要黑白图像,那么每个像素就可以用一个整型的灰度值来计量其亮度(例如用八位整型数表示0到255,16位表示0到65535)。

接下来,按照最最简化的说法,传统相机会测量每一个像素的亮度(在上述例子中就是二百万个测量值),结果得到的图片文件就比较大(用8位灰度值就是2MB,16位灰度就是4MB)。数学上就认为这个文件是用超高维矢量值描绘的(在本例中就是约二百万维)。

在我开始讲“压缩感知”这个新故事之前,必须先快速回顾一下“老式压缩”的旧故事。(已经了解图像压缩算法的读者可以跳过这几段。)

上述的图片会占掉相机的很多存储空间(上传到计算机里还占磁盘空间),在各种介质之间传输的时候也要浪费时间。于是,相机带有显著压缩图像的功能就顺理成章了(通常能从2MB那么大压缩到十分之一——200KB的一小坨)。关键是尽管“所有图片”所构成的空间要占用2MB的“自由度”或者说“熵”,由“有意义的图片”所构成的空间其实要小得多,尤其是如果人们愿意降低一点图像质量的话。(实际上,如果一个人真的利用所有的自由度随机生成一幅图片,他不大可能得到什么有意义的图像,而是得到相当于电视荧屏上的静电雪花那样的随机噪声之类。)

怎么样压缩图像?方式多种多样,其中有些非常先进,不过我来试试用一种不太高科技的(而且也不太精确的)说法来描述一下这些先进技术。图像通常都含有大片无细节部分--比如在风景照里面,将近一半的画面都可能被单色的天空背景占据。我们假设提取一个大方块,比方说100x100像素,其中完全是同一颜色的——假设是全白的吧。无压缩时,这个方块要占10000字节存储空间(按照8位灰度算);但是我们可以只记录这个方块的维度和坐标,还有填充整个方块的单一颜色;这样总共也只要记录四五个字节,省下了可观的空间。不过在现实中,压缩效果没有这么好,因为表面看来没有细节的地方其实是有着细微的色差的。所以,给定一个无细节方块,我们记录其平均色值,就把图片中这一块区域抽象成了单色色块,只留下微小的残余误差。接下来就可以继续选取更多色彩可见的方块,抽象成单色色块。最后剩下的是亮度(色彩强度)很小的,肉眼无法察觉的细节。于是就可以抛弃这些剩余的细节,只需要记录那些“可见”色块的大小,位置和亮度。日后则可以反向操作,重建出比原始图像质量稍低一些,占空间却小得多的复制图片。

其实上述的算法并不适合处理颜色剧烈变动的情况,所以在实际应用中不很有效。事实上,更好的办法不是用均匀色块,而是用“不均匀”的色块——比方说右半边色彩强度平均值大于左半边这样的色块。这种情况可以用(二维)Haar小波系统来描述。后来人们又发现一种"更平滑的"小波系统更能够避免误差,不过这都是技术细节,我们就不深入讨论了。然而所有这些系统的原理都是相同的:把原始图像表示为不同“小波(类似于上文中的色块)”的线性叠加,记录显著的(高强度的)小波的系数,放弃掉(或者用阈值排除掉)剩下的小波系数。这种“小波系数硬阈值”压缩算法没有实际应用的算法(比如JPEG 2000标准中所定义的)那么精细,不过多少也能描述压缩的普遍原理。

总体来讲(也是非常简化的说法),原始的1024x2048图像可能含有两百万自由度,想要用小波来表示这个图像的人需要两百万个不同小波才能完美重建。但是典型的有意义的图像,从小波理论的角度看来是非常稀疏的,也就是可压缩的:可能只需要十万个小波就已经足够获取图像所有的可见细节了,其余一百九十万小波只贡献很少量的,大多数观测者基本看不见的“随机噪声”。(这也不是永远适用:含有大量纹理的图像--比如毛发、毛皮的图像——用小波算法特别难压缩,也是图像压缩算法的一大挑战。不过这是另一个故事了。)

接下来呢,如果我们(或者不如说是相机)事先知道两百万小波系数里面哪十万个是重要的,那就可以只计量这十万个系数,别的就不管了。(在图像上设置一种合适的“过滤器”或叫“滤镜”,然后计量过滤出来的每个像素的色彩强度,是一种可行的系数计量方法。)但是,相机是不会知道哪个系数是重要的,所以它只好计量全部两百万个像素,把整个图像转换成基本小波,找出需要留下的那十万个主导基本小波,再删掉其余的。(这当然只是真正的图像压缩算法的一个草图,不过为了便于讨论我们还是就这么用吧。)

那么,如今的数码相机当然已经很强大了,没什么问题干吗还要改进?事实上,上述的算法,需要收集大量数据,但是只需要存储一部分,在消费摄影中是没有问题的。尤其是随着数据存储变得很廉价,现在拍一大堆完全不压缩的照片也无所谓。而且,尽管出了名地耗电,压缩所需的运算过程仍然算得上轻松。但是,在非消费领域的某些应用中,这种数据收集方式并不可行,特别是在传感器网络中。如果打算用上千个传感器来收集数据,而这些传感器需要在固定地点呆上几个月那么长的时间,那么就需要尽可能地便宜和节能的传感器——这首先就排除了那些有强大运算能力的传感器(然而——这也相当重要——我们在接收处理数据的接收端仍然需要现代科技提供的奢侈的运算能力)。在这类应用中,数据收集方式越“傻瓜”越好(而且这样的系统也需要很强壮,比如说,能够忍受10%的传感器丢失或者各种噪声和数据缺损)。

这就是压缩传感的用武之地了。其理论依据是:如果只需要10万个分量就可以重建绝大部分的图像,那何必还要做所有的200万次测量,只做10万次不就够了吗?(在实际应用中,我们会留一个安全余量,比如说测量30万像素,以应付可能遭遇的所有问题,从干扰到量化噪声,以及恢复算法的故障。)这样基本上能使节能上一个数量级,这对消费摄影没什么意义,对传感器网络而言却有实实在在的好处。

不过,正像我前面说的,相机自己不会预先知道两百万小波系数中需要记录哪十万个。要是相机选取了另外10万(或者30万),反而把图片中所有有用的信息都扔掉了怎么办?

解决的办法简单但是不太直观。就是用非小波的算法来做30万个测量——尽管我前面确实讲过小波算法是观察和压缩图像的最佳手段。实际上最好的测量其实应该是(伪)随机测量——比如说随机生成30万个“滤镜”图像并测量真实图像与每个滤镜的相关程度。这样,图像与滤镜之间的这些测量结果(也就是“相关性”)很有可能是非常小非常随机的。但是——这是关键所在——构成图像的2百万种可能的小波函数会在这些随机的滤镜的测量下生成自己特有的“特征”,它们每一个都会与某一些滤镜成正相关,与另一些滤镜成负相关,但是与更多的滤镜不相关。可是(在极大的概率下)2百万个特征都各不相同;更有甚者,其中任意十万个的线性组合仍然是各不相同的(以线性代数的观点来看,这是因为一个30万维线性子空间中任意两个10万维的子空间极有可能互不相交)。因此,基本上是有可能从这30万个随机数据中恢复图像的(至少是恢复图像中的10万个主要细节)。简而言之,我们是在讨论一个哈希函数的线性代数版本。

然而这种方式仍然存在两个技术问题。首先是噪声问题:10万个小波系数的叠加并不能完全代表整幅图像,另190万个系数也有少许贡献。这些小小贡献有可能会干扰那10万个小波的特征,这就是所谓的“失真”问题。第二个问题是如何运用得到的30万测量数据来重建图像。

我们先来关注后一个问题。如果我们知道了2百万小波中哪10万个是有用的,那就可以使用标准的线性代数方法(高斯消除法,最小二乘法等等)来重建信号。(这正是线性编码最大的优点之一——它们比非线性编码更容易求逆。大多数哈希变换实际上是不可能求逆的——这在密码学上是一大优势,在信号恢复中却不是。)可是,就像前面说的那样,我们事前并不知道哪些小波是有用的。怎么找出来呢?一个单纯的最小二乘近似法会得出牵扯到全部2百万系数的可怕结果,生成的图像也含有大量颗粒噪点。要不然也可以代之以一种强力搜索,为每一组可能的10万关键系数都做一次线性代数处理,不过这样做的耗时非常恐怖(总共要考虑大约10的17万次方个组合!),而且这种强力搜索通常是NP完备的(其中有些特例是所谓的“子集合加总”问题)。不过还好,还是有两种可行的手段来恢复数据:

• 匹配追踪:找到一个其标记看上去与收集到的数据相关的小波;在数据中去除这个标记的所有印迹;不断重复直到我们能用小波标记“解释”收集到的所有数据。

• 基追踪(又名L1模最小化):在所有与录得数据匹配的小波组合中,找到一个“最稀疏的”,也就是其中所有系数的绝对值总和越小越好。(这种最小化的结果趋向于迫使绝大多数系数都消失了。)这种最小化算法可以利用单纯形法之类的凸规划算法,在合理的时间内计算出来。

需要注意到的是,这类图像恢复算法还是需要相当的运算能力的(不过也还不是太变态),不过在传感器网络这样的应用中这不成问题,因为图像恢复是在接收端(这端有办法连接到强大的计算机)而不是传感器端(这端就没办法了)进行的。

现在已经有严密的结果显示,对原始图像设定不同的压缩率或稀疏性,这两种算法完美或近似完美地重建图像的成功率都很高。匹配追踪法通常比较快,而基追踪算法在考虑到噪声时则显得比较准确。这些算法确切的适用范围问题在今天仍然是非常热门的研究领域。(说来遗憾,目前还没有出现对P不等于NP问题的应用;如果一个重建问题(在考虑到测量矩阵时)是NP完备的,那它刚好就不能用上述算法解决。)

由于压缩传感还是一个相当新的领域(尤其是严密的数学结果刚刚出现),现在就期望这个技术应用到实用的传感器上还为时尚早。不过已经有概念验证模型出现了,其中最著名的是Rice大学研制的单像素相机。

最后必须提到的是,压缩传感技术是一种抽象的数学概念,而不是具体的操作方案,它可以应用到成像以外的许多领域。以下只是其中几个例子:

• 磁共振成像(MRI)。在医学上,磁共振的工作原理是做许多次(但次数仍是有限的)测量(基本上就是对人体图像进行离散拉东变换(也叫X光变换)),再对数据进行加工来生成图像(在这里就是人体内水的密度分布图像)。由于测量次数必须很多,整个过程对患者来说太过漫长。压缩传感技术可以显著减少测量次数,加快成像(甚至有可能做到实时成像,也就是核磁共振的视频而非静态图像)。此外我们还可以以测量次数换图像质量,用与原来一样的测量次数可以得到好得多的图像分辨率。

• 天文学。许多天文现象(如脉冲星)具有多种频率震荡特性,使其在频域上是高度稀疏也就是可压缩的。压缩传感技术将使我们能够在时域内测量这些现象(即记录望远镜数据)并能够精确重建原始信号,即使原始数据不完整或者干扰严重(原因可能是天气不佳,上机时间不够,或者就是因为地球自传使我们得不到全时序的数据)。

• 线性编码。压缩传感技术提供了一个简单的方法,让多个传送者可以将其信号带纠错地合并传送,这样即使输出信号的一大部分丢失或毁坏,仍然可以恢复出原始信号。例如,可以用任意一种线性编码把1000比特信息编码进一个3000比特的流;那么,即使其中300位被(恶意)毁坏,原始信息也能完全无损失地完美重建。这是因为压缩传感技术可以把破坏动作本身看作一个稀疏的信号(只集中在3000比特中的300位)。

许多这种应用都还只停留在理论阶段,可是这种算法能够影响测量和信号处理中如此之多的领域,其潜力实在是振奋人心。笔者自己最有成就感的就是能看到自己在纯数学领域的工作(例如估算傅立叶子式的行列式或单数值)最终具备造福现实世界的前景。

0
为您推荐

53 Responses to “[小红猪]压缩感知与单像素照相机”

  1. angelachen说道:

    啊,沙发~~

  2. walle1982说道:

    苹果

  3. fdgfdgfd说道:

    完全看不懂

  4. aj说道:

    陶哲轩就是那个华裔天才吧

  5. 思无邪说道:

    我很早以前似乎提醒过 compressed sensing不是压缩感知 如果是感知的话 文章应该与大脑 感受器什么的有关系 这篇文章实际上说的是一种新型的获取和处理图像信息的方法 与大脑、感受器什么的生理问题没有关系 怎么可以翻译成感知?

    • 苹果酱说道:

      我看后面翻译都是“压缩传感”了

      • 木遥说道:

        那是忘了改了。。。应该统一称为压缩感知的。。。

      • photoxu说道:

        感觉compressed sensing翻译成“压缩感知”/“压缩传感”都不是很准确,容易引起误解。是不是翻译成“压缩感测”更好些。

    • 木遥说道:

      压缩感知是目前的通译,为了保持一致,似乎目前以维持通译为最好的选择。也有翻译成压缩传感的,但是传感更加不准确,因为这里讨论的问题和“传”没有关系,只有“感”。

    • 不懂不懂说道:

      遥感就翻译成遥远的感知
      传感器接受信号的过程就叫成感知了
      不是人的感知,是传感器的感知

  6. vivi说道:

    要是配上图片也许能看懂一点

  7. stdlogic说道:

    简单理解一下:一张普彩照片,每个像素点可能是65535种颜色的其中一种,用来确定1个像素的颜色所用的比特数是16比特,普通的压缩方法是,首先采集所有数据(每个像素16比特),然后再按照某些原则寻找特征进行压缩。
    现在的做法,直接以特征去采集数据,比如就用红绿蓝三色传感器去采集,每个传感器只对该颜色敏感,采集到0或者1(无,或者有),这样1个像素所采集到的数据就是3个比特,然后再用这个数据去恢复数据。当然这只是个例子,用这个例子回复出的图片会很垃圾。

    • suosi说道:

      怎样找出三原色之外的但却非常重要的其他元素是难点,文中最后似乎没有太多说明,没怎么懂。

  8. 小易说道:

    其实我觉得,能否对于文中大量提到"小波"概念给一下解释,在文中提到的技术中怎么应用的。。。

    不懂专业数学,算个小爱好者吧

    • obtuseSword说道:

      小波确实是个相对比较深奥又非常有用的东西,虽萌芽于上世纪初,但真正发扬光大并杀入应用领域则始于上世纪80年代。
      要完全搞清楚小波,一般得学习一些数学专业课,比如傅里叶分析。
      小波主要是用来对一些数据做变换的,比如图像,经小波变换后,就被分解成很多分量,每个分量携带三种信息,一个是他在图像中的位置,二是他的尺度(可以直观理解为图像的分辨率),三是该分量的取值,值越大则表明这个分量对图像影响越大。这里尺度是比较关键的东西,尺度大的分量保存了图像的整体特征,而尺度小的分量保存了图像的细节特征。
      图像压缩的基本原理就是把那些取值接近于零的分量直接看成0,这样新的图像就减少了信息,但由于他减少的信息本来就对图像没多大影响,所以对人眼来说差别不大,于是就实现了有效的压缩。

    • 臆疯说道:

      弄懂小波,该有博士水平了就,理解成对信号进行处理的函数,算子什么的就行了.总之我是这么理解的,没学过小波,傅立叶拉普拉斯什么的还没弄懂呢.....

  9. Sysci说道:

    好技术的帖

  10. 思无邪说道:

    邮件我已收到 嘿嘿

  11. fwjmath说道:

    subset sum国内通译是“子集和问题”吧~~~

  12. cc21说道:

    汗,
    吓了一跳,还以为真的解1000个未知数不用解1000个方程。

    还有,线性空间的任意2个子空间都会相交的,不过看文章意思作者应该是说2个子空间极大概率没有非平凡的交。

  13. 2ddcfg说道:

    好贴!!!!!!!!!!

  14. extrudire说道:

    很遗憾的不是很懂,但是还是坚持看完了。飘……

  15. Lewind说道:

    想到一个可能的应用。现在在网络上实时传输视频(或音频)时,如果网络状态不好,总会出现卡壳的情况:某一个数据包“堵”在路上了,后面的数据包到了也没用,只能干等着。也就是说,即使采用了压缩技术,总体上仍是时域的传输。如果把视频信号按一定周期(周期之间还要交替覆盖)处理成为频域信号再打包,那么即使有数据包丢失或者“迟到”,其它数据包仍能重建流畅的视频或音频,只是质量有所下降罢了。反之,如果不丢失数据,应该在同等带宽的前提下得到比现有网络传输更高质量的视频。

    不知道我这样理解对不对?

    另外,有这篇牛文垫底,我应该可以写写结构生物学了,应用的正是文中提到的X光变换,呵呵。

    • 荷花说道:

      你这是小波变换在可分级编码(scalable coding)上的应用。

    • Leeoz说道:

      “反之,如果不丢失数据,应该在同等带宽的前提下得到比现有网络传输更高质量的视频。”请问,这个结论是怎么得到的?

      • Ding,Li说道:

        现有的网络传输都是压缩的。

      • Lewind说道:

        "此外我们还可以以测量次数换图像质量,用与原来一样的测量次数可以得到好得多的图像分辨率。"
        我抄来的结论……
        因为频域压缩应该会比现在的按帧压缩的信号量更小,这样在带宽相同的情况下可以把省出来的信号量用于提高采样的分辨率。

        • Leeoz说道:

          我的理解是,相对于一般压缩而言,压缩感知并不能帮助提高压缩量(当然是在相同的图像质量前提下),因为需要传输的数据量是被图像的熵值所下限的,压缩感知并不能打破这个瓶颈。

          而压缩感知相对于先全面采样,再做一般压缩的方法,优势在于不需要一开始做这么多次的采样(这样相机CCD就不用这么多的感应器,降低了成本)。压缩感知一开始获得的gain,在一般压缩的后期也可以得到。

          此外还涉及到的一个问题,一般做频域变换需要搜集一定时间的数据再做变换,如果时间太长了,造成的延时是实时视频传输不能容忍的。

          • aliang说道:

            我觉得是不是可以考虑滑动平均的那种模式? 也即对整个FIFO缓存区下的数据进行处理.
            比如第一次用N~N+i的数据来处理,第二次来用N+1~N+i+1来处理,这样整个数据流会控制在一个恒定的延时内.

          • Lewind说道:

            这个问题我也想到了,所以就有个先天缺陷——总要有一定的滞后……不爽

          • aliang说道:

            这个延时是肯定会有的吧,就好象网络传输延时一样,如果小于10~20ms的话我感觉一般人是不会注意到的.

    • aliang说道:

      其实现在的GSM系统已经有用到了交织的技术了,也即打乱数据片的顺序,来避免万一由于多径或干扰而丢失数据片造成的语音完全丢失.
      如果只有一个包或者数量极少的包丢失了,往往可以通过前后帧的冗余校验数据(前向纠错)中得到复原的数据.

  16. Sandro说道:

    以前看过一点这方面的文章,其实这是小波技术的进一步发展。现实中的大多数信号都是有意义的,也就是可压缩的。只要选择合适的基函数,可以使得大多数基函数的系数为0或者接近于0。这样,即使信号在传输过程中受到干扰,只要我们能够解出最稀疏的解,仍然能够还原信号。

  17. liubing说道:

    非常好的文章,压缩感测实际上是将传统信号获取的采样和存储阶段变成了一个阶段,采样和存储一起完成。不知道篇文章是谁翻译的,牛人啊!

  18. paulyinxl说道:

    图像理解,模式识别也有很多的应用,但这东西理解起来太难,实在不是一般的大脑所能接受的!

  19. maoqiukun说道:

    永远会是鱼与熊掌不可兼得

  20. shunfeng说道:

    请问这个基函数是如何选择呢?

  21. elise_cc说道:

    看到标题想不会是TCX吧

    没想到真的是

  22. changyouyu说道:

    压缩传感 确实太难于理解了

  23. 金色葡萄说道:

    看到了略感面熟的Radon变换,在matlab里面讲得好。
    我去看matlab的help去

  24. [...] 原文见此,译者,山寨盲流。其他译作,这这那。 [...]

  25. lzs216说道:

    obtuseSword 说的对,一个信号经过小波变换后,它的两个参数,一个是关于频率信息,另一个是关于时域信息,其取值表示分量大小。换句话说,告诉我们信号在该时间含有该频率的分量有多少。
    Lewind 的问题和压缩感知没什么关系,那是后期信号传输方面的一些技术。
    我个人认同Leeoz的观点,压缩传感将信号的压缩在采样阶段实现,这一点在某些方面非常重要,比如卫星信号,军事方面等等。

  26. [...] 压缩感知是近年来极为热门的研究前沿,在若干应用领域中都引起瞩目。关于这个题目,松鼠会已经翻译了两篇文章,一篇来自于压缩感知技术最初的研究者陶哲轩(链接),一篇来自威斯康辛大学的数学家艾伦伯格(本文正文)。这两篇文章都是普及性的,但是由于作者是专业的研究人员,所以事实上行文仍然偏于晦涩。因此我不揣冒昧,在这里附上一个画蛇添足的导读,以帮助更多的读者更好了解这个新颖的研究领域在理论和实践上的意义。 [...]

  27. Ray说道:

    拙知浅见:这篇文章的翻译大体上还可以,但是很多涉及理解上的关键点翻译的含糊或者不准确。可能翻译者不是专业人士。比如:
    原文:It is possible to measure a single coefficient by applying a suitable “filter” or “mask” to the image, and making a single intensity measurement to what comes out.
    译文:在图像上设置一种合适的“过滤器”或叫“滤镜”,然后计量过滤出来的每个像素的色彩强度,是一种可行的系数计量方法。
    个人意见:通过对图像应用一种合适的“滤波器”或“遮罩”并且输出单个亮度测量值,可以测量单个系数

  28. Roger Wang说道:

    这个文章我之前看过。启发很大。能用到我的研究上。但需要的数学超出我的水平太多,所以现在在恶补。

  29. 周周说道:

    我表示没有看懂测量那块,感觉讲的有点深奥~~~求助~~

  30. luu说道:

    基追踪,L1最小范数下最优化问题

  31. [...] 原文地址:http://songshuhui.net/archives/11006 [...]

  32. [...] 所以压缩感知理论是信号处理领域一次颠覆性的飞跃,它提出了一种新的信号采集或者测量方式:在信号满足稀疏性假设的前提下,可以以低于Nyquist标准对其采样,并且有一种算法可以足够精确地恢复出原始信号,即信号的采集可以突破Nyquist频率的限制。 最后收集了一些压缩感知的资料,要狂补数学TT: 1. Rice大学的Compressive Sensing Resources,最权威最全面的Compressive Sensing资源主页 2. An Introduction to Compressed Sensing,Emmanuel Candes在斯坦福的课程 3. Emmanuel Candes教授“21世纪计算”大会演讲:压缩感知,信号采集的重大突破 4. 陶哲轩的compressive sensing课程 5. Igor Carron收集的Compressive Sensing: The Big Picture, Compressed Sensing Listing, Compressive Sensing Videos, Compressive Sensing Codes 6. cvchina压缩感知的系列文章,包括CMU关于Compressive sensing的课件 7. 松鼠会科普文章:压缩感知与单像素照相机,填补空缺——压缩感知 [...]

  33. gongdewei说道:

    之前对小波理论有一定的了解,感觉压缩传感理论确实更加有效,就像陶讲的,关键问题还在于,如何知道哪些分量有用,然后怎样利用这些数据重建信号。真是有挑战性~~这段科普真好!!