NASDAQ:AMD 基本面分析2019

2016:https://lxsay.com/archives/249

2017:https://lxsay.com/archives/697

声明:本文内容仅供参考。因消息来源有限,可能存在错误。因为阅读本文后进行相关投资引起的损益,本人不负任何责任。

在过去的一年,AMD 发布了全新的 Ryzen、EPYC、ThreadRipper 系列处理器,以及 Radeon 系列显卡,成功实现了市场关注度和业绩的双丰收。用流行的话说就是“农企翻身了!”。

现在 AMD 的股价大概在 20~24 美元左右每股。说实话,两年前写下这些文章的时候,正是 AMD 的历史最低谷:Ryzen 将出未出,市场充满怀疑,股价震荡,每个月都能看到机构操盘收割散户的悲惨场面。Intel 和 NVIDIA 为所欲为,没有人相信奇迹。即使我有坚强的意志,看到过山车一般的行情,也不免怀疑自己的预测只是一厢情愿。所幸,最后我们都挺过来了。

分析:

利:1、通过正确的营销策略和渠道建设,大幅提升了市场占有率。营收可观。

2、专注 PC、高性能计算和服务器市场研发,产品线务实,进展稳健。

3、中国大陆游戏市场的解禁带来 PC 业务的大幅增长。

4、个人预测,对超极本、轻薄本、游戏笔记本业务的建设将在未来显现其极端重要性。

5、Intel 的 10nm 工艺遭遇困难

 

弊:1、显卡方面与英伟达的竞争仍然处于劣势。

2、Jim Keller 跳槽到 Intel。

3、人工智能市场进展缓慢。虽然有 ROCm 平台,但是响应者寥寥。事实上这方面需要强大的推广和渠道建设,并且有一定的自发性。AMD 没必要花大价钱和英伟达恶战,但应该建立自己的存在感。目前没看到务实有效的策略。其实AMD的显卡在 AI 方面的优势在于消费市场的显卡产品价格很低,而且显存很大。RX500 系列的显卡顶配版本一般都有 8G,这正好能达到家用计算机运行神经网络的最大需求。放弃追求适配所有流行框架的想法,转而只支持一款产品(比如 TensorFlow 或 PyTorch)就已经足够。比较讨巧的办法是开发出一个基于 AMD AI 平台 的、并且使用简单的桌面级消费类应用(图像、视频处理、游戏体验优化等等),然后以此为噱头大肆宣传。

4、2019 年前后被一部分人认为是经济周期理论中“经济周期”的最低点,这虽然无法改变世界的运转,但会显著降低不少人对市场的预期。

最后预测股价,短线在 15 美元 ~ 30 美元之间震荡。长线看到 30 美元每股。如果忽略经济周期的影响,长线看到 45 美元每股。

模仿我的人都是我的影子

这一年发现了一个有趣的现象。每次开会,描述我的方法,之后的几星期,偶尔能看到隔壁桌上出现了一些和我说的东西非常类似的文章。一开始没有在意这些事情,因为现在 IR 的思路实在太受限制,撞车是经常发生的事情。看这几年的文章,感觉大家都一副办法不多的样子:要么自己创造数据集,既当裁判又当运动员;要么就是靠 “change problem setting” 曲折求生。(顺便说一下,CIKM18 那篇研究 “Entity Attribute Identification” 的文章的作者,你们也许应该阅读一下或者引用 “CUIS team for NTCIR-13 AKG task” ,原因自己想。想到第三作者曾经对困境中的我给与了无私的帮助,并且这篇文章用更好的框架描述了这种方法,just let it go)

然后呢,就是渐渐看到“XX+smoothing”、“XX+type information”、“XX+data augmentation+LTR” 之类的新文章出现。虽然这些文章在方法上和我的那一套东西可能有明显的区别,但是如此相似的方法论着实让我心生忧虑。怪自己过于平庸,只能想到这些烂大街的东西,而且还手慢总是做不出来。

看懂了我想说什么的人可能会觉得作者神经病。但是作者想说的是,

 

是时候去寻找自己想要的尊重和真实了。

Comment on EYRE’18

EYRE’18 就是 “1st International Workshop on EntitY REtrieval (EYRE ’18)”

因为我那天在都灵睡过头了,错过了一些 presentation,所以只谈几个我感兴趣的。

1. Graph Analytical Re-ranking for Entity Search. Takahiro Komamizu

文章和之前评论的内容差不多,我甚至有点怀疑作者是看了我的评论才把这个方法叫做 “Personalized Pagerank based score distribution”。这个方法是否本质有效,不想说了,最近心情不好。

(说点不好听的吧,这其实是我三年前玩过的东西,研究我的 github 项目的人会发现,我的框架里面总有一个 createGraph 模块,就是给这个东西用的。为什么我没写文章讲这件事呢?自己想想吧)

Anyway, consider entities together 是有价值的想法。

2.Annotating Domain-Specific Texts with Babelfy: A Case Study. Michael Färber, Kristian Noullet and Boulos El Asmar

对文章内容不评价。讲一些趣闻:年初我参加 ECIR2018 找 Adam Jatowt 尬聊 NTCIR AKG 的时候看到 Michael 也在旁边,当时还以为他是 Adam 的学生,抢占了他几分钟时间,真是抱歉。。。个人看好这个小帅哥,感觉他是个比较踏实的人。

3.Graph-based Reranking Approach for DBpedia Entity Search. Bo Ma, Yating Yang, Tonghai Jiang, Xi Zhou and Lei Wang

我个人认为,作者提出来的方法本质是借鉴 Discounted Cumulative Gain 的思想来 rerank 所有结果。当然,他在 slides 里面说 “more links, more important”这种解释也还算说得过去,其实和 DCG 的思想是一样的。不过比较讽刺的是这个模型在 QALD2 和 SemSearch 上的结果很差,有点违背了他的解释。

为什么大部分模型都会有 “results are dataset specific” 的情况呢? 不想说了,最近心情不好。

update 2019/03. 最近考虑了一下,感觉更像是从 pagerank 这类基于重要性的模型中得到灵感。NDCG 作为一种评价方式和 pagerank 有一些形式上的相同,这反而让我觉得有些意思。

4.Exploring Summary-Expanded Entity Embeddings for Entity Retrieval. Shahrzad Naseri, John Foley, James Allan and Brendan T. O’Connor

训练了一个 word-entity 的 embedding,embedding 的分数和 FSDM 的分数加权平均。不想说什么。

 

我觉得最不高兴的点就是这些人好像根本没有注意到 term-based retrieval model 的地位。另外好像也没读我的 ECIRICTIR 的文章,更别说引用了。(这并不是说我的文章有多么好或多么重要,而是在你准备做相关的研究的时候至少应该看看最近这个领域的人在谈论什么。)

总的来说这次研讨会的 entity search 部分就像一个大型民科自嗨现场,没有特别有效的进展。不过 Prof. Gong Cheng 花了很多时间尽力让这个会议变得正式和专业,作为开拓者劳苦功高,什么都干不了的小弟在此表示衷心感谢和敬意。期待下次变得更好。

Comment on SEMIR X CJ YAO

在之前的一篇文章里,我对CJ YAO的设计风格提出了一些自己的看法。最近,森马推出了和CJ YAO的联名款,并且去纽约时装周参展。这个展让我有写点东西的冲动。

首先是CJ YAO的衣服“越往下越宽大”(这样描述比较土,但是很真实。。)的特点依然存在,但是在SEMIR的运动气质的限制下,这种特性的弊病受到制约,并保留了优点。

具体来说,一是使用配色和几何形状体现oversize的嘻哈风

二是使用柔软轻薄闪亮的材质

本人不是很清楚这个系列的定位,如果按照一件运动休闲服的标准来看,这些在功能性的基础上有所施展的设计非常优秀,不会像她自家衣服那样经常不知道穿了有什么意义,适合去哪种地方。

第二个我比较喜欢的是这个系列的颜色。具体来说一是衣服上用了多个颜色拼贴而不是单色(仍然比较土的描述。。),二是使用了浓重的红色、天蓝色、黑色,加深衣服视觉上的冲击力(我感觉两年前她家的用色都是很清淡怀旧的少女风,经常让人觉得有点矫情)。三是那件银色连帽衫/风衣还有红白黑的衣服效果很不错。

整个系列风格有点日系,但是又带有国产运动服土土的特质,综合起来反而觉得有点可爱,像一个幻想在城市冒险的少年….很年轻,很有想象力,属于博主会考虑买一件的那类作品。对设计师来说,这可能不是她想要的设计,但是博主认为这会取得商业上的成功。这个系列在国内算是很不错了,但是要说“时尚”的话还差得挺远的。。。

最后就是设计师的颜值好像又变高了….如果我是hater的话会花这么多时间冒着被人喷的风险写这些我不太熟悉的领域吗,都是满满的爱啊!

Information need & supply

For a fixed  retrieval model that satisfies users’ information need to some extent

Margin: a unit of incremental data size may increase the “dimension” of the data, which makes it more difficult for the model to handle. Thus non-positive margin.

 

For a fixed data producing model that provides “information supply”.

Margin: a unit of incremental data size may increase the “dimension” of the data. In this situation, a new “basis” can be used to generate more “new deep” data. Thus non-negative margin.

 

Intersection: the best performance(utility) bound for a fixed retrieval model and data generator.

塑料老化发粘的解决办法

塑料、塑胶件经常应用于电子产品和汽车内饰当中,时间长了以后可能出现发臭、发粘的现象。最近整理家里的东西,发现有些东西就出现了这些现象,用酒精、水擦洗无法清除。

经过尝试,发现如下办法最有效:

1.把大量厨房洗洁精倒在待清洁的物品上,使用干抹布(不能用沾水的,否则无效)反复擦拭。

2.静置一段时间后,用湿抹布擦去洗洁精。重复上述步骤,反复三次左右

清洗过后物体表面不会再发臭、发粘,但是触感变得很差,有很强的阻尼感。这是因为物体表面氧化的塑胶没有被完全清除,并且原来表面的结构被破坏了。这个时候可以使用“塑胶还原剂”擦拭物体并静置半天左右,之后表面会形成保护层,因此触感会变得比较滑润。“塑胶还原剂”是一种汽车用品,常用来保养汽车内饰,可以在汽车用品店买到。

Comment On Recent Progress Of Ad-Hoc Entity Retrieval 2

我写文章的时候只引用那些我已经消化过的论文。我引用新文章的时候比较谨慎,因为没时间去了解具体的内容。暌违一年,重新在 google scholar 上浏览了一下最近都有哪些新东西。

Comment On Recent Progress Of Ad-Hoc Entity Retrieval 1 在这里: https://lxsay.com/archives/591

Exploiting Entity Linking in Queries for Entity Retrieval

(ICTIR 2016. Faegheh Hasibi, Krisztian Balog, Svein Erik Bratsberg)

这篇文章把语义标注 (semantic annotation) 整合进了 Markov Random Field 这个框架内,简单的来说就是统计语义标注 在 pseudo document 中的频率,然后通过一个平滑函数 (smoothing based feature function) 来刻画 semantic annotation 的分数。

但我觉得这篇文章更重要的在于它暗示了 Knowledge-based Question Answering 和 entity search 的联系。 这个模型在 Fielded Sequential Dependence Model 的基础上使用了一个称为 “Selective Top Fields” 的技巧:给定一个 query,模型首先会通过计算 query term 的 mapping based probabilities across the whole collection 然后选择分数最高的top-k fields计算 query 和 entity profile 之间的分数。这其实是 graph-based question answering 的方法:给定一个问题,Knowledge graph 中每个关系的权值定义为该问题和该关系的语义相似度,最后选择一条权值最优的路径输出作为答案。 这篇文章提出的模型可以看成是能处理 1-hop 关系的 retrieval-based question answering model.

Ranking Entities for Web Queries Through Text and Knowledge

(CIKM 2015. Michael Schuhmacher, Laura Dietz, Simone Paolo Ponzetto)

当信息检索的研究者说他们对 “knowledge graph” 感兴趣的时候,他们所指的 “knowledge graph” 其实是以下三种的组合:

  1. Knowledge graph = Freebase
  2. Knowledge graph = Freebase or DBpedia or Yago or …
  3. Knowledge graph = Wikipedia

这篇文章考虑的是第2种和第3种的组合,使用基于 learning to rank 的方法。特征主要分成 query-mention features, query-entity features, entity-entity features 还有 knowledge base retrieval. 这个框架既考虑了 knowledge graph 的结构(比如考虑 entity mention 到 candidate entity 的路径),也考虑了文本的内容,水准不俗。比较可惜的是这些特征只停留在“统计个数”这样的层面,没有进一步地理解查询的语义(比如说查询“面积最大的国家”就需要理解“最大”的概念,很多 question answering 的模型都可以做到这点)。这篇文章的引用次数不是很多,没有得到应有的关注,个人觉得很可惜。

Michael Schuhmacher 是少数几位懂得运用 Knowledge graph structure 帮助提升 information retrieval performance 的研究者。其他人也有尝试,但我觉得都只能算是浅尝辄止,顾左右而言他。能够把 Graph Algorithm 和 IR 结合得这么好的人屈指可数(中国大陆的 Gong Cheng 也是一位善于使用图论方法的研究者,但是现在这方面的文章比较少,还看不出成熟的思路)。这也显示出德国人在方法论上面深受欧陆古典哲学的影响:重视整体和理性。第二作者的加入弥补了这篇文章过于注重结构忽视文本信息的弱点。

“Exploiting Entity Linking in Queries for Entity Retrieval” 的作者认为这篇文章的结论 “somewhat inconclusive”。我觉得情有可原,因为 2015 年的时候 entity search 的 benchmark dataset 还比较少。说实话这个模型很值得在现在的数据集上复现。

Intent-Aware Semantic Query Annotation

(SIGIR 2017. Rafael Glater,  Rodrygo L. T. Santos and Nivio Ziviani)

基于 learning to rank 的方法。测试数据用的是 DBpedia-Entity v1,因为 sigir 2017 那个时候 v2 还没有发布。这篇文章比 “an empirical study of learning to rank for entity search” 好的地方在于考虑了语义标注的信息 (semantic annotations),简单的说就是统计了 query 和 entity profile 里面出现了多少 knowledge graph 里面的 type 和 relation 的信息,然后当成特征输入 learning to rank 的框架。本质上还是 term-based (word as a term / semantic annotation as a term) 的语言模型方法,对复杂的查询无能为力。但是我觉得这个框架的设计不错,有启发。作者没有开源,本人准备自己实现一个当作以后的 baseline 。

最后想说下(和这篇文章无关), learning to rank 虽然是实证有效的方法,但也分好坏。好的 letor 框架能够精细的处理输入,让整体锦上添花;坏的 letor 框架缺乏对具体问题的洞察(insight),堆砌特征,好像是在指挥一堆垃圾为它们自己建一个垃圾厂。

Interpreting Fine-Grained Categories from Natural Language Queries of Entity Search

(DASFAA 2018. Denghao Ma,  Yueguo Chen, Xiaoyong Du, Yuanzhe Hao)

这篇文章的框架和 “Improving Context and Category Matching for Entity Search” (Yueguo Chen et. al. ) 里面提出的没什么区别,但是用到的语言模型感觉受到了 “Query modeling for entity search based on terms, categories, and examples” 这篇文章的影响。其次更新了一些处理 Wikipedia Category Tree 的细节,定义了一些新的特征。另外在新的数据集上面更新了一下结果。

Leveraging Fine-Grained Wikipedia Categories for Entity Search

(WWW 2018. Denghao Ma, Yueguo Chen, Kevin Chang and Xiaoyong Du)

这篇文章的框架和 “Improving Context and Category Matching for Entity Search” (Yueguo Chen et. al. ) 里面提出的没什么区别,但是用到的语言模型感觉受到了 “Query modeling for entity search based on terms, categories, and examples” 这篇文章的影响。其次更新了一些处理 Wikipedia Category Tree 的细节,定义了一些新的特征。另外在新的数据集上面更新了一下结果。  (灌水小能手:)

可能是受到了自己导师的影响,这篇文章的作者还是主要在 INEX 2009 之类比较老的数据集上面进行测试。如果能转到 DBpedia-Entity v2 上就更好了(不过这样的话需要和 “On Type-Aware Entity Retrieval” 正面比较,感觉比较悬)。

中国人民大学的这个研究小组这几年对 entity search 问题有独到的贡献,比如用提取维基百科的分类标签(category)的关键词和描述词,并把它们按照自己偏序重新组合成 category tree。但我还是感觉他们使用的方法过于复杂,虽然目前在他们的文章里表现不错,但如果换一个测试数据集的话,很难做出针对性的调整。换句话说,工巧但是略欠“大局观”。BM25 和 sequential dependence model 广受欢迎不是因为它们总能够达到最好的结果,而是设计足够鲁棒,足够简单。在不同的问题上都可以做出针对性的调整。

RWRDoc: Random Walk with Restart based Entity Documentation

(ESWC 2018. Takahiro Komamizu)

这篇文章提出了一种新的表示 Entity profile 的方式。每个 entity 的文本都可以表示成一个 bag-of-words vector 或者 TF-IDF vector,考虑到 entity 在 knowledge graph 中与其他 entity 相连,所以它们的文本应该会有一些相关性,于是作者认为每个 entity 的向量表示都是自身与相关 entity 的向量的线性加权和。我认为,作者把这个建模为随机游走是因为如果想要求解这个大型线性方程的话必须假定这样的表示法能够收敛。这种思想来源于 relevance propagation/page rank 这些传统的方法论,不同的是这篇文章传递的是 entity 的 bag-of-words vector 而不是 relevance score。

另外,这篇文章上所有 baseline 的结果都是从 DBpedia-Entity v2 的发布论文里面复制过来的。这其实提出了一个问题:每个人的建的 index 质量都不一样,于是 baseline 的结果也变得有好有坏。这个领域是否需要一个公开的 standard index 让研究者可以比较不同的方法呢?

对微博美食博主的分析

免责声明:因为资料来源有限而且可能有错漏,本文内容仅供参考。若要引用请自行修正,本人不对由此产生的任何社会影响负责。

微博上有很多饮食自媒体人出没,三教九流。这里讨论的“微博美食博主”是指那些经常放出做菜教程的博主。比如几年前比较火的“薄灰”、到现在打出名气的“美食家大雄”、“厨男王一刀”、“李子柒”等等。(顺便说一下,除了“薄灰”以外,以上提到的这几个账号好像都和一个叫“鲜城”的饮食自媒体营销号关系密切,所以某种意义上说这些人更像是“厨艺演员”而不是那种一边持家一边直播日常生活的普通人。)

这些美食博主的工作流大概有三个阶段:

第一阶段主要是每周按时放出一些比较热门的家常菜的教程,这个阶段博主一般会展示自己作为“厨艺素人”不断成长的状态,以便拉近自己和观众的距离,获得好感。

第二阶段主要是巩固自己的粉丝群体,并且开始针对特定人群推出一些专题性的内容,比如“留学生做菜系列”、“学生早餐系列”之类。接着流量增大的机会,也会开始推销一些自己的产品,比如厨具之类的。一般博主会宣称这类东西是好朋友推出来的工厂尾货或者瑕疵品,现在低价甩卖。其实随便在淘宝上比较一下同类产品就能发现这些东西并不能便宜多少,而且售后是一个很大的问题。大概就是省下了售后的钱。

第三阶段主要是著书立说、开淘宝店或者开始办一些访谈类节目提升自己的形象。淘宝店卖的东西从书到原料都有。

这类美食博主的宣传动机或者诉求一般有:

1、自己做饭有乐趣和满足感

2、自己做饭比较安全,外面餐馆的餐饮卫生堪忧

3、自己淘宝店卖的原材料是乡下亲戚种的,不加农药,纯天然(一般还会放上手捧蔬菜的真人照片展示农民的憨厚老实。。。。。。。)

总的来说这些动机都多少有一些反食品工业的倾向,这是我一直觉得比较荒谬的地方。这是食品工业的发展和矛盾变化的体现。早期生产力不发达的时候,人们可能会对食品工业的生产力产生一种崇拜敬畏的心态,就如同古代中国某些地方的“耕牛崇拜”。现在需求基本满足以后,在对“工业社会的反思”这样一种背景下,食品工业反而成为一种反人道反天然的存在。并且生产力的发展使得个人产生以一己之力挑战食品工业的心态,而这“一己之力”,就是这些美食博主所追求的“天然”。比较典型的就是“厨男王一刀”和“李子柒”,这两个账号的内容基本都是展示在类似农村的环境下,自己采集材料和烹调,做出来某种食物。其实这种烹调的环境是十分肮脏的,但是“一己之力”和“天然”的概念被最大限度的强化,使得受众暂时忘记食品安全的顾虑,沉醉在自媒体带来的虚幻的田园之乐当中。

当然如果观众能从这些自媒体当中学到一些烹调的技巧用来改善自己的生活,这是最好的。至于其他的东西,见仁见智,各取所需。

语言模型的偏移

为了描述文档中词的分布,之前的研究者提出了很多的语言模型(比如 N-gram)。

一方面来说,这些模型只是近似地描述了一类分布,所以通过求解这类模型得到的分布只能说是基于对应的语言模型假设下最佳的结果。

另一方面,实践中经常会遇到这类情况,我们选定了一个语言模型来描述特定的文档集合的词的分布。但是有时候,工程人员并不完全依照这些模型的经典形式,而是喜欢在模型里面加入一些微扰项作为某种“分布在当前数据集上的偏移”,以便取得更好的结果。 这种现象反映了语言模型作为信息检索的核心的某些深层次问题。

夜话

Min Flag
痛苦中被迫浮现的字
用有限的时间做无限的事

Min Flag
竖一杆大旗让勇士们绝地起义
精彩的程度让场下观众都全体起立

——— MINSTA <Min Flag>

 

1. 唱过什么歌

最近去参加了学校图书馆和研究生院办的研究海报展览。22幅海报里面,只有我这张海报是来自工程学院的学科,其他都是生物医学社科。参加活动只是走走过场没什么可说的。虽然已经尽力把海报做到“让傻逼也能看懂”的程度,毕竟隔行如隔山,很多IR的精髓难以向普通观众描述。有趣的是图书馆的主管看了海报以后很激动,这两天打了好几通电话想找我做项目。具体来说,就是根据论文的摘要把每篇论文打上标签,这些标签构成一个 Type Taxonomy。这其实是一个简单的 Type Taxonomy classification 问题,之前的知乎“看山杯”和最近 sigir 18 e-commerce workshop 都提到了非常类似的任务。简单的字符级别当作输入的神经网络或者 fasttext 之类现成的分类器就能有合理的结果。(当然我之前想过一个结构平滑的办法,但是老板一贯地觉得我的方法 “cannot publish”,等到 ictir 和  e-commerce workshop 狂发邮件催稿的时候已经来不及了) 我的“研究”能够启发普通人解决一些耗费人力的工作,略感欣慰。 另外,图书馆的工作氛围很轻松,这里的人像是中文大学的“中产阶级”,衣着还算讲究,说话比较有礼貌。不像工程学院的不少人一副又猥琐又没礼貌的样子,走路的时候遇到人总是把头低下去好像囚犯见到监狱的工作人员。

从中学到大学到现在,我遇到了一些hater. 因为我总是用简单的方式揭示他们的愚蠢,总是用愚蠢的方法超越他们的想象。现在 haters 都在期待我延毕或者混不下去滚蛋,这辈子他们也许能看到本人失败一到两次。我在一个比较恶劣的环境下工作,research topic 的局限性明显很难发展,没有同行,计算资源有限,ra很难帮到。如果我哪天受不了拿个硕士学位走人,我也能骄傲地面对我的过去:没有抱大腿认爹,没有靠关系,独立完成,完全原创而不是东拉西扯一堆东西打包。

我的“entity retrieval 三部曲”还剩最后一篇文章没发表,在过去的两篇里面,我让那些快要进棺材的模型可以借着 knowledge graph 的风潮续命,炒了一盘冷饭。至于最后一篇做到了什么程度,不想评价。写完以后打算继续做 TREC Complex Answer Retrieval。今年 sigir 有篇文章讲到了这个task,还引用了我的文章当作baseline吊打。我才发现原来去年我们除了一个不战而胜的第一还有一个第二名(Deepanway, in the end we win a lot and get cited ……. you can write it in your cv now)。其实我那时对 sequential dependence model 的理解和实现都是错的,居然还有这样的成绩。 今年就用结构平滑 bring back the glory 吧.

 

2. ecir 2018

今年三月底去法国的格勒诺布尔参加了 ECIR 2018. 这次会议我认为有几个动向值得注意:

1、高度重视模型的可复现性,国内有一篇在 squad 数据集上做问答的文章因为作者拒绝透露实现细节被参会者口诛笔伐,大家认为这种不可复现的文章应该直接拒稿。

2、信息检索的隐私和公平性问题,这是开幕式上 keynote speaker 的发言主题。

3、结构主义的苗头:这次会议有一些打着 “path aware”, “hierarchical”这样旗号的文章,依托 Knowledge Graph 的结构做一些简单的工作,总的来说结果都不是很好。其实这类方法都可以拓展到一般的语料库上面。

4、neural IR 的发展。其实IR现在最需要发展的是收集标注数据的方法论。最近几个会议上有好几个这方面背景的 keynote speaker ,可惜响应的人很少,因为数据都在大公司手里,而且数据归属权受到法律约束,不能明目张胆地收集和研究。如果再不重视这个问题的话,大家都得完蛋。。。

 

最后,我很幸运遇见了一个女生,我们算是半个同行。相信我们都会找到自己的路。我们还会再见。你在车站送给我的小瓶子还留着:)