要搞清楚“如何在2.0的架构里消费信息”这样一个问题,就要先看一看在2.0之前信息消费是怎么回事。其实网络上的字节本就是信息,互联网本就是媒体,说消费信息的方式也会触及互联网的本质。
互联网到今天大致有三个时代。
第一个时代,整合。集大成者Yahoo/新浪。信息查询方式是目录式的,逐级细分,跟在传统图书馆找一本书差不多。
因此其盈利方式大都是CPM,照搬传统广告方式。或向发表信息方收张贴费,与传统方式无异。革新之处在于,阅读的时间和空间限制降低,导致眼球量激增。
第二个时代,搜索。上网的信息越来越多,目录式管理难当大任,搜索登场开始重构互联网资讯。信息查询方式是直接到达。集大成者是Google.
盈利方式是AdWords,命中率更高的一对一广告方式。革新之处在于激活了长尾,像AdSense这样的杀手应用令全网络的资讯皆能产生价值。
第三个时代,社交网络,正扑面而来。当搜索算法已把单纯的信息本身的匹配做到极致,人开始登场了。人际交互将再次重构互联网信息。信息的查询方式是以人际为传输渠道,每点资讯都附加了人的意义。人越真实,越有价值。
构建出最有生命力的人际网络是Facebook.盈利方式比如Beacon,含有人际推荐含义的广告形式。革新之处在于,使每个人的每次行动这个信息本身都有商业价值,或者是广告,或者是其它。
谈到人际交互将再次重构互联网信息,先看看两大实名社交网络:LinkedIn和Facebook的尝试。
LinkedIn会根据你所在的行业和你朋友的阅读偏好给你提供相应的新闻。根据你所在的行业提供新闻,大体还是关键词搜索完成的;根据你朋友的阅读偏好提供新闻,这就是人际交互实现的。
LinkedIn和商业周刊的合作是:当你阅读商周新闻的时候,能知道所读到的每一家公司里有哪些人是你在LinkedIn上的朋友;所读到的每一个人,你就知道可以通过LinkedIn里的哪些朋友到达这个人。
所谓重构,就是所有的信息,都被赋予了人的含义。LinkedIn选择的方式,是自身的人际体系去与商业周刊这样的外部系统嫁接。在我看来,可以定义为机械型的重构。而Facebook做的不太一样。
Facebook上有这样几点含有深意:
第一,NewsFeed.你的朋友每天做了什么,这些动作本身,不同于以往的新闻和资讯性质的新性质的信息,会自动提交到你面前。这是信息消费的一大步革新。这会导致信息量再一次激增。
第二,几乎所有已经存在的网络应用,都被嫁接进来,并被辅之以在朋友间分享和交流的功能。比如BlogFriend,就是把博客搜索嵌入。MyBlog,自动引入在其它地方的博文。LeapTag,按关键词推送新闻。ShopIt,开设网店。几乎所有强者也都把自己的应用嫁接进来:YahooStocks/GoogleNews/LinkedInContacts/Twitter/iTunes.
当然,这些东西都跟LinkedIn做的事情属同一层次,偏机械。
第三,很多社交性很强的应用,是要基于一个成熟的SN才方便开展的。比如Testimonials,请朋友给你打分点评,构成推荐体系。Hobnob,向外界传达一个诉求或一个问题,通过人际关系拓展。Wikimono,朋友间协作完成一个项目。
如上的大部分功能都是通过Widget实现的。
在回到“如何在Facebook的架构里消费信息”这个问题之前,先考虑一个我认为很相关的问题:Widget为什么到来?为什么像Facebook这样的大户容忍Widget分享自己的数据和用户?
因为生活本身是无比丰富的,在线生活的开始使互联网由标准化进入到个性化,这就是Facebook们在干的事情。一个公司一套班子很难满足个性化和现实化的海量需求,所以号召大家一起上。
但为什么Facebook会放心把数据和用户开放给第三方?推理可能是:这些开放的数据和用户信息不是Facebook未来的核心,所以它不担心。它的核心会是什么?我认为是人与人交错联系在一起的这个底层系统,以及每两个人之间在不同维度(比如学识,性格,相貌,职业等等等)上的亲疏远近,这是一个多维的无比复杂的一个图。这个图客观存在,以前只有上帝知道,现在,Facebook可能通过运算几千万用户的网上活动来一点点还原这幅图。
在上面跑的应用越多,生活的原貌越逼真,还原这幅图的可能性就越大,而难度也越大。在上面跑的应用越多,想通过其中一种或者几种应用的分析还原这幅图的可能性也就越小。
现在我觉得可以尝试为开头的问题做回答:
如果把信息定义成狭义的,即传统的新闻和资讯,那在2.0的架构和流程里消费信息无非遵照两个原则:第一,一个信息是否应该被阅读,取决于一套算法,这套算法综合进你和相关朋友的参数,比如职业,公司,状态,年龄,以及读过什么,评过什么,交过什么朋友,参加过什么活动,等等等。这个相对简单。
第二,信息消费无处不在。就是在社交网络的人际交互链条上的任何合适点,都可以消费信息。举两个简单的应用,今天A朋友请你帮忙推荐个人加入他的公司,那么自动推送A朋友所在公司的相关新闻。你今天看了一个电影,那么自动推送相关论坛里对该电影最切合你口味的评论,以及其它看了该电影的可能和你相似的人。
如果把信息定义成广义的,包括每个人的每个行动,那在facebook的架构里消费信息就是一个空前空白和空前庞杂的课题。你的某朋友Y,它应该出现在你的朋友列表第几位?有个陌生人,它最有可能成为你的好朋友;另一个陌生人,它最有可能成为你的结婚对象;想认识他们吗?同学A在X网站看了一篇文章并且参与了激烈争论,这一信息应该被同学A的100个朋友中的哪些人获悉?并且这条信息应该出现在当天同学B的待浏览信息库里的第几条?
不能小看这些东西,比如若能通过人的网上活动检测出谁是最适合你的结婚对象,那现在的这些本质上就是名录列表的婚恋网站通通靠边站。就凭一个人写的两句交友箴言或者喜欢什么电影,如何能鉴别清楚这个人?还是要用QQ聊,吃饭、泡吧,慢慢了解。
如能回答这些问题,那么就为浩如烟海的人类网上活动信息构建了一套识别系统。其意义有如Google之于汗牛充栋的网页。差别在于,后者是冷的,死的,前者是热的,活的。其实归根结底还是一套算法,一种解决方案,当然不再只是工程师对字节的分析这么单纯,而要添加入对人的理解,对人际交互的跟踪,对社会网络的分析。
而要完成这一宏愿,对三个方面的要求应该是非常之高。即对海量数据的处理技术,对人际交互的社会学理解,以及把信息和人这二者结合起来的进化逻辑。
正巧前一段号称“QQ跟Facebook是殊途同归”的马化腾,透露的信息正好为如上三点做下注脚:第一,腾讯很早就成立研究院进行基础研究,其中包括数据的挖掘与分析。第二,QQ要为用户提供结构化的管理工具,把错综复杂的社交关系、社交属性串起来,达到多维和互动的管理。第三,要根据人的年龄、性别、兴趣等不同类型建立分众式的数据库,并且打通形成一个超级数据库。