27 Jul

科学空间:2011年8月重要天象

夏秋之交的八月,天象剧场依然是精彩纷呈。其中最受关注的要属英仙座流星雨,这也是天文爱好者每年最热衷观测的项目。虽然几颗较亮的行星在本月观测条件都较为一般,但海王星将在8月23日冲日,有兴趣的朋友可以借助望远统来对它进行观测。而小有名气的45P/Honda-Mrkos-Pajdusakovva彗星也将在8月16日过近地点逐渐进入较佳的观测时段。

点击阅读全文...

27 Aug

科学空间:2011年9月重要天象

秋高气爽的九月,天象剧场也逐渐热闹起来。秋分前后的夜晚,是一年中偶发流星出现最为频繁的时段。尤其是到了后半夜,如果赶上晴天,每小时看到二三十颗偶发流星都不成问题。与此同时,秋夜星空也不乏看点,美丽的仙女座星系M31肉眼可见,三角座星系M33等深空天体也是天文爱好者热衷的观测目标。除此之外,天王星将于本月迎来冲日,观测条件较好。

9月12日,我们又会迎来今年最重要的节日之一——中秋节。届时,不论您是身在他乡为“异客”,或是在家陪伴着亲人,BoJone都愿与你一起“举头望明月”。在此提前预祝大家中秋快乐、美满、团圆!

点击阅读全文...

26 Dec

费曼路径积分思想的发展(一)

注:这是郝刘祥前辈的一篇论文,98年的时候发表在《自然辩证法通讯》上,里边讲述了费曼以及路径积分的相关故事。我从网上下载下来,原文是很粗糙的pdf文件,我特意将它转化为网页文件,供大家欣赏。有些公式很模糊,所以我已经到图书馆查找了原文,但是由于作者非理论物理专业人员,还不确定部分公式是否正确,请读者慎读。原文较长,将分开几篇来发。如果涉及到版权问题,请作者告之(bojone@spaces.ac.cn),我将会尽快处理掉。

自然辩证法通讯(JOURNAL OF DIALECTICS OF NATURE)
第二十卷总115期,1998第3期

郝刘祥

摘要:该文首先阐述了 Richard Feynman为解决经典电动力学的发散问题而做的艰苦努力,进而论述了这种努力的副产品何以使他偏爱作用量表述,以及他是如何在Dirac文章的启发下得到非相对论量子力学的第三种形式--作用量量子化方案的。文章的第三部分叙述了费曼将其方案推广到相对论情形的尝试和费曼图的由来。最后,该文试图就路径积分方法在量子场论等领域中的广泛应用以及费曼对量子场论的重大疑惑作一简要的说明。

关键词:费曼,作用量,几率幅,路径积分

点击阅读全文...

22 Jul

《虚拟的实在(4)》——质量是什么

笔者很少会谈到定义性的东西,原因很简单,因为我也不见得会比大家清楚,或者说也未必比大家所知道的准确。不过,刚刚与同好讨论过与质量相关的问题,就跟大家分享一下。

最初的问题是能量能不能转化为物质,我觉得根据$E=mc^2$,是显然可以的,例子嘛,我首先想到在量子场论中的真空是会不断产生和湮灭正负电子对的,因此这可以作为一个证据。但是这个感觉上太遥远了,所以我在互联网搜索了一下,不过搜到的内容大同小异:

当辐射光子能量足够高时,在它从原子核旁边经过时,在核库仑场作用下,辐射光子可能转化成一个正电子和一个负电子,这种过程称作电子对效应。
正负电子对效应

点击阅读全文...

12 Sep

【中文分词系列】 5. 基于语言模型的无监督分词

迄今为止,前四篇文章已经介绍了分词的若干思路,其中有基于最大概率的查词典方法、基于HMM或LSTM的字标注方法等。这些都是已有的研究方法了,笔者所做的就只是总结工作而已。查词典方法和字标注各有各的好处,我一直在想,能不能给出一种只需要大规模语料来训练的无监督分词模型呢?也就是说,怎么切分,应该是由语料来决定的,跟语言本身没关系。说白了,只要足够多语料,就可以告诉我们怎么分词。

看上去很完美,可是怎么做到呢?《2.基于切分的新词发现》中提供了一种思路,但是不够彻底。那里居于切分的新词发现方法确实可以看成一种无监督分词思路,它就是用一个简单的凝固度来判断某处该不该切分。但从分词的角度来看,这样的分词系统未免太过粗糙了。因此,我一直想着怎么提高这个精度,前期得到了一些有意义的结果,但都没有得到一个完整的理论。而最近正好把这个思路补全了。因为没有查找到类似的工作,所以这算是笔者在分词方面的一点原创工作了。

语言模型

首先简单谈一下语言模型。

点击阅读全文...

26 Jan

SVD分解(二):为什么SVD意味着聚类?

提前祝各位读者新年快乐,2017行好运~

这篇文章主要想回答两个“为什么”的问题:1、为啥我就对SVD感兴趣了?;2、为啥我说SVD是一个聚类过程?回答的内容纯粹个人思辨结果,暂无参考文献。

为什么要研究SVD?

从2015年接触深度学习到现在,已经研究了快两年的深度学习了,现在深度学习、数据科学等概念也遍地开花。为什么在深度学习火起来的时候,我反而要回去研究“古老”的SVD分解呢?我觉得,SVD作为一个矩阵分解算法,它的价值不仅仅体现在它广泛的应用,它背后还有更加深刻的内涵,即它的可解释性。在深度学习流行的今天,不少人还是觉得深度学习(神经网络)就是一个有效的“黑箱”模型。但是,仅用“黑箱”二字来解释深度学习的有效性显然不能让人满意。前面已经说过,SVD分解本质上与不带激活函数的三层自编码机等价,理解SVD分解,能够为神经网络模型寻求一个合理的概率解释。

点击阅读全文...

8 Jun

互怼的艺术:从零直达WGAN-GP

前言

GAN,全称Generative Adversarial Nets,中文名是生成对抗式网络。对于GAN来说,最通俗的解释就是“伪造者-鉴别者”的解释,如艺术画的伪造者和鉴别者。一开始伪造者和鉴别者的水平都不高,但是鉴别者还是比较容易鉴别出伪造者伪造出来的艺术画。但随着伪造者对伪造技术的学习后,其伪造的艺术画会让鉴别者识别错误;或者随着鉴别者对鉴别技术的学习后,能够很简单的鉴别出伪造者伪造的艺术画。这是一个双方不断学习技术,以达到最高的伪造和鉴别水平的过程。 然而,稍微深入了解的读者就会发现,跟现实中的造假者不同,造假者会与时俱进地使用新材料新技术来造假,而GAN最神奇而又让人困惑的地方是它能够将随机噪声映射为我们所希望的正样本,有噪声就有正样本,这不是无本生意吗,多划算~

另一个情况是,自从WGAN提出以来,基本上GAN的主流研究都已经变成了WGAN上去了,但WGAN的形式事实上已经跟“伪造者-鉴别者”差得比较远了。而且WGAN虽然最后的形式并不复杂,但是推导过程却用到了诸多复杂的数学,使得我无心研读原始论文。这迫使我要找从一条简明直观的线索来理解GAN。幸好,经过一段时间的思考,有点收获。

点击阅读全文...

19 Nov

更别致的词向量模型(五):有趣的结果

最后,我们来看一下词向量模型$(15)$会有什么好的性质,或者说,如此煞费苦心去构造一个新的词向量模型,会得到什么回报呢?

模长的含义

似乎所有的词向量模型中,都很少会关心词向量的模长。有趣的是,我们上述词向量模型得到的词向量,其模长还能在一定程度上代表着词的重要程度。我们可以从两个角度理解这个事实。

在一个窗口内的上下文,中心词重复出现概率其实是不大的,是一个比较随机的事件,因此可以粗略地认为
\[P(w,w) \sim P(w)\tag{24}\]
所以根据我们的模型,就有
\[e^{\langle\boldsymbol{v}_{w},\boldsymbol{v}_{w}\rangle} =\frac{P(w,w)}{P(w)P(w)}\sim \frac{1}{P(w)}\tag{25}\]
所以
\[\Vert\boldsymbol{v}_{w}\Vert^2 \sim -\log P(w)\tag{26}\]
可见,词语越高频(越有可能就是停用词、虚词等),对应的词向量模长就越小,这就表明了这种词向量的模长确实可以代表词的重要性。事实上,$-\log P(w)$这个量类似IDF,有个专门的名称叫ICF,请参考论文《TF-ICF: A New Term Weighting Scheme for Clustering Dynamic Data Streams》。

点击阅读全文...