首页 > 思路, 信息论 > 量子信息论和语义信息论

量子信息论和语义信息论

这两者之间其实有很近的关系

一个量子比特(qubit)是多个纯态(pure state)的叠加。例如|s>= 0.707 |0> + 0.707 |1> 就是说 |s>以概率0.707*0.707=0.5为|0>,以概率0.5为|0> 。也就是,如果进行100次测量,那近似 50次得到|0>。

在语义信息论中,一个消息,也即是一个逻辑的表达式,代表多个模型。每个模型有自己出现的概率。例如,假如模型的集合是一个一个的人,其中20%是小孩,20%是老人。那消息“小孩或老人”的逻辑概率是40%,其中一半的可能是小孩,另一半是老人。

也就是,单个模型对应量子信息论中的基态。可写为

|小孩或老人> = 0.707 |小孩> + 0.707 |老人>

注意,在经典信息论中,如果{0,1}的分布概率是{0.5,0.5}这个信源没有冗余,(香农)熵是1比特。在量子信息论中,如果{|0>,|1>}的分布概率是{0.5,0.5},它的(冯诺伊曼)熵要比1比特小,因为在所有的可能输出中(现在有无穷多种), 0.707 |0> + 0.707 |1>出现的概率最大。

由于语义信息论中,一个消息可能对应多个不同的模型,这本身包含了语义歧义性(semantic ambiguity)。所以,语义信源的平均语义熵,必然的小于信源的模型熵(model entropy,也即是把模型本身当作消息时,计算的经典香农熵)。也就是,平均语义熵对应于冯诺伊曼熵。这个熵小于模型熵,但是可能大于或者小于信源的语法熵。这提供了语义压缩的可能。

注意,Bennett & Shor 1998说(我的翻译):

若经典数据由于数字位的不等频率或数字位间的相关,是冗余的,可以利用某些技术如Huffman编码压缩。量子数据具有以上两种冗余,但还有第三种方式:若数据流中的状态是非正交的(例如 一水平和45度 对角光子的随机流),作为物理态不能完全区分。这样的数据流不能用经典方法压缩,因为发送站在试图读数据时可能会产生干扰。然而 在对输入的n个状态的数据块进行幺正变换后,量子编码可以(无须对状态有任何了解)将其所包含的信息压缩到较少的量子比特,在接收端通过相反的变换可以几乎完全重建原始信号。

利用量子纠缠进行量子压缩,对应于利用语义模糊进行语义压缩。

Reference

参: Seminar on Quantum Compression. Ofer Shayevitz

中文资料参: 量子信息讲座(中国科学院量子信息重点实验室)

我以前翻译的量子信息论文章(1999):
http://www.cs.iastate.edu/~baojie/acad/past/past.htm#quantum
原文是 Charles H. Bennett, Peter W. Shor: Quantum Information Theory. IEEE Transactions on Information Theory 44(6): 2724-2742 (1998)

Advertisements
分类:思路, 信息论
  1. 还没有评论。
  1. 2011/05/28 @ 12:39

发表评论

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / 更改 )

Twitter picture

You are commenting using your Twitter account. Log Out / 更改 )

Facebook photo

You are commenting using your Facebook account. Log Out / 更改 )

Google+ photo

You are commenting using your Google+ account. Log Out / 更改 )

Connecting to %s

%d 博主赞过: