奈落落

这一篇不讲武功,只讲想法。

前几天看了一篇 NIPS 2017 的文章<Deep Hyperspherical Learning>。很显然,作者也想到了 S^{n-1} 上的内积和测地线的性质。看到这篇文章的第二节的前两段的时候,我觉得自己不用再写这些东西,直接抱大腿、用现成的模型就行。但作者紧接着只是介绍自己提出的 SphereConv 这个卷积层。

(这个作者在 NIPS 2018 又有一篇文章 <Learning towards Minimum Hyperspherical Energy>。作者又想了一个电子分布能量的概念,其实就是类比电场的多体问题的稳态解。然而这种东西只是一种根据问题的语义自定义的而不是空间本身的性质。)

很多从无到有的事情还是要自己做。

超重当

有了“测地线”的概念,就可以在 S^{n-1} 上解释一些模型的行为,比如位置语言模型 (Positional Language Model)。

白山桃

U,V \in S^{n-1},求连接 UV 的测地线(geodesic)的长度。

扇沟流

有很多的检索模型,都使用这样的策略:首先使用一种简单的检索模型(比如 LM, BM25 和 TF-IDF)找出最接近 query 的前 N 个结果(比如 top 100/500/1000),然后再使用自己的模型重新对这些结果打分并排序(rerank)。

琴月

V  在 S^{n-1} 均匀分布,U 是其上的固定点, U \cdot V \sim ?