天池大数据比赛结束之后数据就被封掉吗

在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。
标签:至少1个,最多5个
一直想总结一下这次的比赛,拖啊拖。。。一直等到现在,趁着现在要找实习,好好总结一下。
比赛的官方网站在这,。
这次比赛的题目是给定 2015 年 7 ~ 11 月份的用户在不同地点口碑购买记录,以及 2015 年 7 ~ 11 月淘宝上用户的购物行为数据,来预测 12 月这一整月用户来到一个地点之后会光顾哪些口碑商铺。这个比赛有一个很有意思的地方,就是它关注的是一个用户来到一个他之前没有去过的新地点之后,他会去哪些店铺消费,有一点像推荐系统中经典的冷启动问题。比赛提供的数据也有这个特点:
在测试集中,只有 10 % 的用户用之前使用口碑的记录;
有 5 % 的用户虽然有之前使用口碑的记录,但是在测试集中,这些用户来到了新的地点;
所有用户都有他们淘宝购物的行为数据。
如果题目只是这样的,其实还不算奇怪,奇怪的是题目的评价标准上加上了 budget 这个神奇的东西,先来看看评价指标:
$$P = \frac{\sum_i min(|S_i \cap S_i^*, b_i|)}{\sum_i| S_i^* |}$$
$$R = \frac{\sum_i min(|S_i \cap S_i^*, b_i|)}{\sum_i min(|S_i, b_i|)}$$
$$F_1 = \frac{2 \ast P \ast R}{P + R}$$
最后考核的目标是 F1 值。简单来说一下这个 budget:
我们的目标是在用户来到一个地点之后,给他推荐他可能会去的店铺。这里,把问题转换一下,我们要给很多店铺来推荐可能会来这里购物的人。这里推荐的人数要受到
budget 的限制,即不能超过店铺的最大承载量以及口碑提供给这家店铺的优惠券的个数。
先详细介绍一下比赛提供的数据格式:
Online user behavior before Dec. 2015. (ijcai2016 taobao.csv)
2015 年 7 ~ 11 月淘宝上用户的购物行为数据,包括用户的点击、购买,购买物品种类等属性。
Users shopping records at brick-and-mortar stores before Dec. 2015. (ijcai2016 Koubei train.csv)
2015 年 7 ~ 11 月份的用户在不同地点口碑购买记录,数据格式:(user_id, loc_id, merchant_id, time_stamp)
Merchant information (ijcai2016 merchant info.csv)
不同口碑商铺的位置分布情况,有的商铺有连锁店,数据格式:(merchan_id, loc_id1:loc_id2:...)
Prediction result. (ijcai2016 Koubei test.csv)
最后要提交的数据格式
user_id, loc_id, merchant_id1:merchant_id2...
对于这个问题,我们的想法是,要充分利用每一个用户和每一个口碑商铺的历史数据。更准确的说,我们要从训练集中提取足够的可训练的特征,然后利用一些经典的模型,比如 Xgboost 来构建分类模型。同时最需要注意的是,我们要时刻考虑 budget 的影响。
如何来利用历史数据 ?
我们分析了题目所给的训练集,然后将数据切分为两部分,第一部分是 2015 年 11 月 23 号之前的数据,我们把这当做本地训练集;另一部分是 2015 年 11 月 23 号之后的数据,我们把这当做本地测试集。通过对这些数据的整理和分析,我发现几条条重大的规律:
如果地点确定的话,对于一个用户,他最有可能去的是他曾经光顾过的店。
从口碑店铺的角度来讲,如果这家店铺曾经的销量很好,那么它也将在未来吸引更多的顾客去消费。
从这两条观察出来的规律来看,我们将探索数据的方向划分为两条道路:一条是从用户的角度出发;另外则是从口碑商店的角度出发。
从用户的历史信息来看
基于我们的观察,当一个人来到一个他之前去过的地点,他们更倾向于去之前购物过的商店消费。因此,一个在过去的一段时间内在一家商铺的消费次数能够在很大程度上影响我们的推荐质量。频率越高,越能代表这个人在未来会再次来到这家店消费。
我们做了一个统计,如果一个用户在过去曾经关顾过一家口碑店铺超过 6 次的话,当我们在之后再向这位用户推荐这家店的话,我们会得到超过 90 % 的准确率。
不过从另一方面说,每一家口碑店铺都有 budget 限制,这意味着,如果按照用户之前光顾过哪家店铺来推荐的话,肯定会有部分店铺的 budget 超标。
我们在用户的数据中找寻这样一个键值对 (user, location, merchant),通过计算这样一个键值对出现的频率,我们可以统计出 (user, location, merchant, frequency) 的键值对,将这个键值对按照 frequency 来从高到低排序,然后按照这个顺序,从高到低来给 (user, query) 这样一个查询来推荐店铺,直到这家店铺的 budget 耗尽为止。
经过统计发现,平均每一个用户在一个地点只会关顾 1.3 个商家,所以在这里我们限制最大的推荐个数为 4。
从商家的历史信息来看
经过之前的分析,我们发现不同的店铺有着不同的“受欢迎度”。举个例子,“820”这个商家在整个训练集中几乎出现 1/4。问题是我们怎么定义这个“受欢迎度”呢?
为了解决这个问题,我们首先定义,在不同地点的同一家口碑商铺是不一样。因为在题目给定的数据中,存在大量的连锁商铺,但是这些连锁店铺在不同地点的“受欢迎度”是完全不同的。
接下来我们设想这样一种情况,90 % 来到地点 A 的人都会去 商铺 B 消费,在这种情况下,如果我们给所有的来地点 A 的人都推荐 B 商铺的话,我们就能得到 90 % 的准确率。所以,在一个地点某家店铺消费的总人数占该地点所有人数的比例,我们称之为该店铺的 “受欢迎度” (Popularity)。
因此我们将所有店铺按照 Popularity 从大到小来进行排序,依次推荐来到该地点的所有用户,直到超过 budget。经过一些线下的实验,我们取这个 Popularity 的值的阈值为 0.25。
引入淘宝数据来提升推荐质量
我们之前的推荐完全没有用到每个人的特征,相当于无法做到“千人千面”。于是接下来我们就想办法,如何利用淘宝的数据来提升推荐质量。
从直观上而且,淘宝的数据应该很有帮助,比如,在淘宝上经常浏览或者购买电子产品的人往往不太会去关顾口碑商铺里面那些卖女式服装的。受到这个的启发,我们就建立了一个这样的表:如果存在这样一条记录,一个用户在淘宝上浏览或者购买的商铺 A;同时也在线下口碑上的商铺 B 消费,我们就把 (A, B) 这个关系链表放入表中。基于这样的表,我们对那些之前没有口碑消费记录的新用户,如果他们曾在淘宝上购买或浏览了商铺 A, 那么我们就只给他推荐在关系链表中与 A 相连的口碑商铺。线上的结果证明,我们的预测质量提升了。
引入机器学习模型
目前为止我们都没有怎么用机器学习模型,用普通的规则就可以在天池上面排一个不错的名次。但是为了取得更好的成绩,我们尝试着去探寻每一个用户、地点和商铺的各种各样可能的特征。下面我将详细介绍这些我们的做法。
我们将这个问题看成是一个二分类问题。我们的方法是对每一个店铺建模,比如说,在数据集中,用户 u 在地点 l 的店铺 m 消费了。我们可以产生一个三元组 (u, l, m)。对应于这个三元组,我们可以产生一些训练数据,首先,对于我们而言,正样本即是那些消费过的用户,即 (u, l, m) 是 True;第二,我们的负例是那些同样是这个地点的其他商铺,比如说 m‘,我们将 (u, l, m') 定义为 False。按照这个方法,我们可以产生供二分类的训练集。根据这个道理,对于赛题要我们预测的用户来到一个地点之后会去哪些店铺的情况,我们也可以根据这个三元组,产生一个每一个店铺的预测概率。
这么做其实负样本是很多的。。。为了避免正负样本不平衡的问题,我们采取采样的方法去提取负样本。
特征工程对应机器学习来说十分重要,俗话说,特征是模型的上限。我们观察到,有些用户喜欢关顾那些他们之前去过的店,有些喜欢光顾该地点上最热门的店铺,有些则喜欢去那些刚开张的店铺。
所以,针对 (u, l, m) 这样一个三元组,我们试图找寻关于他们其中任意一个的特征。
我们找寻的特征如下:
键值对 (u, l, m) 出现的次数,即 frequence,用户关顾这家店的频率。
键值对 (u, l, m) 是否出现过,True or False。
user_id 的 onehot 编码。
merchant_id 编码。
(l, m) 出现次数,即这个地点这个商店的总销量。
open_interval:店铺的开业时间。
用户 u 在淘宝上购物的次数
用户 u 在淘宝上浏览的次数
用户 u 在淘宝上购买过的商品的种类的 onehot 编码
用户 u 在淘宝上购买过的商铺的 id 的 onehot 编码
用户 u 在淘宝上购买的比例 (购买数 / (购买 + 点击)
用户 u 在淘宝上购买的次数
用户 u 在淘宝上点击的次数
通过 SVD 算出来的用户 u 的潜在矩阵
通过 SVD 算出来的商店 m 的潜在矩阵
之前的规则可以得出一个结果,之后的模型也可以得出一个结果,在比赛的最后阶段,我们对模型进行融合,尝试各种不同的参数,达到了这个名次。
0 收藏&&|&&4
你可能感兴趣的文章
13 收藏,2.8k
11 收藏,2.7k
本作品采用 知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议 进行许可
分享到微博?
我要该,理由是:
在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。
标签:至少1个,最多5个
@Author : Jasperyang@School : BUPT
这篇文章同时在知乎里放着~
Kaggle的数据挖掘比赛近年来很火,以至于中国兴起了很多很多类似的比赛,做了两个这种类型的比赛了,Jdata用户商品购买预测和用户位置精准预测,积累了相当多的比赛经验了,虽然两次成绩都不是特别好,59/4590 和 179/2844 。这些比赛的套路从根本上都是一毛一样的,我下面可以和大家探讨一个大致的做题套路以及怎么往高分走的方向,但是总结来说这就是个拼体力的任务,和智力无关。(虽然锻炼了动手能力,极大强化了我在sklearn和pandas上的技能熟练度...)
PART 1 : 怎么开始
首先是看题目,是个什么样类型的预测?回归?二分类?多分类?每种类型的预测会有一点点不同,个人觉得西瓜书还是需要快速看一遍的,不一定说每个公式都要仔仔细细去推导(推导公式对你做比赛基本没有什么帮助),你要知道什么是监督,半监督,非监督等等。
关于多分类我有个入门blog,可以快速浏览一遍
然后就是繁复的特征工程了
一般这种比赛都有个这么样的流程:
最重要的是在特征工程上,基本你会花上60%的时间在这里,因为在这里你需要做的是数据清洗,异常处理,变换,构造新特征等等,这一套有很详细的教程,给大家贴两个传送门(先别急着看)
看完这两篇后,基本你就能做到得心应手地处理数据。
但是,其实在做特征工程之前,你应该先去了解数据,怎么去了解数据呢?这就需要你熟练掌握pandas这个工具了,提到怎么熟悉这个工具,我想offer你下面这个学习流程。
安装anaconda,这个很简单,网上一搜就有(这个科学研究工具包含了基本所有你需要的,jupyter,pandas,numpy等等)当然你要做深度学习就需要tensorflow,pytorch之类的还得另外装。
由于后面我们需要用到xgboost这款神器当模型,所以最好你的系统是ubuntu,因为在ubuntu中安装xgboost只需要pip install就行,在别的系统装起来可能你会想打人。
ok,有了环境,就用anaconda/bin/jupyter 来运行一个jupyter工作环境吧,在这个环境里你可以随心所欲为所欲为所欲为...(主要就是因为jupyter可以保存你之前执行的结果,很方便做实验,详细的你可以google)
学习pandas很简单,因为它就是像数据库对表操作一样。初学直接就看看官网的教程:,之后你要merge,concat,join等等复杂的操作再去一点点查,一点点啃。慢慢熟练了你就能对你的数据做任何你想要的变换,比如找出某些年份的大于某些数值的数据。
为什么需要去了解数据呢?因为数据有分布,有不同的业务意义,你通过整理做图可以更加深入理解某些属性的意义,然后构造或是提取出有用的特征。
在我看来,这算是特征工程的一部分,也是最最重要的一部分,你将会在这里花大量的时间!!(所谓特征就是feature,也就是你的训练数据集中除去label以外的所有列)打个比方,比如一个商品预测的比赛,你可以将特征分成三类,从三种角度去整理分析。(感谢的图片数据)
这种特征构造提取的过程对于每一种比赛都不一样,我这里就不详细讲了,如果你需要更多的启发的思维,建议你去搜索大量别人怎么从各种角度思考的资料。
在这里提及一句,一般来讲,涉及时间的都会需要设计时间窗口这么一个东西,这个东西说复杂不复杂,但是实践起来很费精力。简单来讲就是你需要对你的数据按照一定的时间划分。比如我之前的比赛用前五天的数据预测后一天的,但是总的数据集是两个月的,这时候你需要划分你的数据集分好训练集和验证集。
上面的1,2,3是三个训练集,后面带的小框是验证集,等于你需要训练好几个模型。同时你可以想啊,更早之前的数据肯定对现在的预测影响会更小,所以会有个权重的问题,也就是你得到了十个模型,最接近预测日的算model_0,最远的算model_9,那么给model_0权重0.7,给model_9的权重0.05。
你需要知道什么是训练集,验证集,测试集!!
有时候训练集的类别很不均衡这个时候需要欠采样或是过采样。
欠采样 某个数据比较多的类别随机减少掉一些训练数据
过采样 找那些数据少的类别使用smote方法插值添加数据
其实数据不平衡的处理也是特征工程的一部分,我这里只是提出来强调了一下,类别不平衡的处理其实还有很多,但是都不常用,大家可以去大概了解了解。
每个特征你都应该取好名字,以防乱了。
另外,由于做模型融合时需要有特征多样性这么一说,所以也许你需要不同的特征簇输入到不同的模型中,所以做好你的文件管理十分重要!!!
我建议你的比赛工程文件如下。
result里面你需也要分好文件夹放不同的结果,这样方便后面模型融合时我们用投票器的方式。
experiment里面是你的jupyter实验文件,因为这类文件你会创建很多,所以最好有一个专门的文件夹来管理。
是不是很简单并且清晰明了,当你学会了sklearn中的pipeline之后,你就可以搭建一个可以轻易修改并给别人看讨论思考过程的工程代码。但是不能完成的是做成一个可以轻易复用到各种比赛的框架。因为每个比赛的数据大不相同。不再多言。
OK!! 走过上面的流程,我们现在进入到part 2的训练阶段吧,这个阶段是最激动人心的,因为你将在这里遇见你特征工程以及模型的不足,然后调优,看着成绩慢慢提高~!
模型阶段,在这里,你需要对各种模型都有很清晰的了解,最好是你能够推导公式,不能也算了。
Logistic Regression
Naive Bayes
Xgboost (这个可以说是最有用的)
Adaboost 等等
熟读西瓜书吧,里面从基础开始会让你懂很多,最好是李航的统计学习方法看一遍,这本书比较薄,涵盖的内容却很全,推导也好理解。
然后这些模型很高兴的是,一个都不用你去写~都有现成的库,而且基本集中在sklearn中。除了 lightGBM。
先看一下这篇简单调用: python sklearn常用分类算法模型的调用,你会发现模型用起来好容易好方便~是的,但是这只是开始,别忘记要保存模型哦,另外保存结果也要严格按照规定的文件路径,不然后面你就乱了。
sklearn的编程方式博大精深,但是api使用还是很简单,你只需要花点时间好好学学,就能很熟练了,推荐 ,这个比好看懂,毕竟是中文的嘛...流汗~
再来你还需要去对这些算法调参,这些我就不再谈了,我想着重提一下xgboost,这是一个可以并行运算的回归树,在现在的比赛中用的十分频繁而且有效。
我翻译的官网的原理解释 :
看懂了后你就会知道为什么这个东西这么牛逼了,当然前提是你需要知道决策树,随机森林的原理。
再说一句,安装xgboost在ubuntu系统上很方便,但别的系统真的很难受,自己体会吧,不想浪费时间最好都弄成ubuntu
xgboost运行后的效果一般就很好了,但是这不是最终的,因为xgboost有很多的参数,怎么去调参使得结果更优很重要。
调参也是个体力活,望各位保重身体!~
好了,part 2 也就讲到这里了,其实把这前两个部分好好做,就能取得好的成绩了,第三个部分是后期往上窜一窜的手段,当然不可不用。
模型融合得看你是做什么样的预测,不同的预测结果有不同的融合方式。bagging,voting,stacking都是ensembling的一种。
一般都是讲回归的,voting具体的方法没有讲,我这里有一段代码,你看看就懂怎么做voting。
def file_name(file_dir):
filename = []
for root, dirs, files in os.walk(file_dir):
filename.append(files)
return filename\n",
filename = file_name('./result/all_result/')[0]
['result_0.002_no_0.03_8steps_0.8964.csv',
'result_TL_ten_0.002_no_0.03_0.9062.csv',
'result_0.001_0.8917 .csv',
'result_LT_ten__0.001_no_0.03_0.9092.csv',
'result_LT_ten_0.0015_no_0.03_0.9051.csv',
'result_0.1.csv',
'result_AdaB_0.31.csv',
'result_feature_delexcep_0.002_tree.csv',
'result_rf_0.001_0.03_0.86.csv',
'result_lr_0.60.csv',
'result_rf_0.87.csv',
'result_0.002_no_0.03_6steps_0.8951.csv',
'result_0.002_no_0.03_0.9058.csv',
'result_gdbt_0.79.csv',
'result_xgb_91.csv',
'result_0.002__0.9046.csv',
index = list(re.iloc[:,0])
result = []
voting = [9,10,9,10,10,10,3,9,8,4,8,9,10,6,11,10,9]
for t in list(re.iloc[:,0]):
dic[t] = {}
for i,shop in enumerate(list(re[re.row_id == t].iloc[0,1:])):
# 建立字典
if shop not in dic[t].keys():
dic[t] = {re[re.row_id == t].iloc[0,1] : voting[i]}
dic[t][shop] += voting[i]
# 选出最高票者 , 得票相同的选后者
for x,y in dic[t].items():
if y & score:
result.append(x)
re = pd.DataFrame({'row_id':index,'shop_id':result})"
关于模型融合这一块就看你想怎么弄了,多标签分类这种比较局限,就是投票器,回归的话花样就多了,还能分层搞,所以不怕你想不到,就怕你不尝试。
为了加深你对模型融合的理解和使用,另外推荐三篇:
最后我讲两个trick吧。(没什么道理性的,有时候行,有时不行)
找比赛leak,这个就是钻空子吧。通过分析测试集的一些特性找出golden feature(就是一下子能把成绩提高老多的feature)我听大牛的分享里有讲到但是我做比赛时没有想到,很惭愧。
利用GDBT或是XGBoost的叶子节点的信息创建出新的特征,一般来讲能提高成绩,但是训练起来贼慢,像我借了好几台电脑,把训练集分散到不同电脑上跑。累死了...
有人说跟一遍kaggle上的kernel一套就都会了,我觉得挺好的,但是看了我的这篇呕心沥血的文章后,我想你的知识才是系统的!~
好了,终于到收官了,说实在的,这类型的比赛我暂时是不想参加了,我们学校的大牛硬是打了10场,然后拿了两次冠军,我这参加了两次,成绩不好,但是已经身心俱疲了,没信心拿到奖了。况且,我认为深度学习才是现在的王道,我已经在图像识别和image caption中遨游了好些日子。有意思多了。
到此,祝大家好运。
11 收藏&&|&&14
你可能感兴趣的文章
141 收藏,7.1k
6 收藏,1.3k
分享到微博?
我要该,理由是:
在 SegmentFault,学习技能、解决问题
每个月,我们帮助 1000 万的开发者解决各种各样的技术问题。并助力他们在技术能力、职业生涯、影响力上获得提升。阿里天池大数据竞赛相关的博客
深度学习时代,网络的加深使得对训练数据集规模的依赖更胜以往。学术界较成功的大规模数据集通常围绕基础性的一般认知问题,离有日常有体感的应用场景较远。时尚与人们日常生活息息相关,但行业大量内容仍然依赖人工编辑。通过引入人工智能技术来提升效率,让机器来认知时尚将是一
作者表示当时在电信实习的时候,一个做了三年的项目年底上线了。当然我去的时候,其实就做好了!我认识了一位贵人,就是老大!!所以项目做完来年,他就撤了!走之前他叫我定了一个十年的职业规划,因为想做数据分析,所以选择了数据挖掘或者说是机器学习! 所以在临近转正的时
深度学习本质上是深层的人工神经网络,它不是一项孤立的技术,而是数学、统计机器学习、计算机科学和人工神经网络等多个领域的综合。深度学习的理解,离不开本科数学中最为基础的数学分析(高等数学)、线性代数、概率论和凸优化;深度学习技术的掌握,更离不开以编程为核心的动手
云栖大会的第一天,阿里巴巴达摩院成立,科技行者做了第一手的报道,在今日头条上,科技行者关于达摩院的报道收获了几百条评论,有的网友说,应该把金庸先生请到云栖大会;有的网友说,有了达摩院,藏经阁还远吗;还有的网友说,震撼,霸气,这是中国最亮丽的名片。 是的,达摩
阿里天池大数据竞赛相关问题集
竞赛小程序,我不太会写,求大神教我
这个题目不太会写,求大神教思路给源码??????????????????????????
求助,C++程序设计竞赛题目
Time Limit: MS (C++)
土豪YZK在一块小岛上有着一大片n
...并向相关单位提交了查询。
根据《全国大学生数学建模竞赛参赛规则》第五条:“抄袭是严重违反竞赛规则的行为,有抄袭行为的参赛队在全国和赛区评阅时视为严重违反竞赛纪律;竞赛开始后参赛队员不能以任何方式(包括...
一个ACM竞赛题,关于凸多边形内某点到各顶点距离最远的问题,想求代码。
很久以前,在世界的某处有一个形状为凸
阿里天池大数据竞赛相关基础文章
...派创门人逍遥子所创.庄子&逍遥游&云:&穷发之北有冥海者天池也.&北冥神功以积蓄历史动作为第一要义.在使用Fireworks时,常常会有许多重复的动作,学会记录这些动作,可以帮助提高作图效率,创建复杂图像.   心法:
  1.选择菜...
  我们知道在许多竞赛中选手的成绩都是现场打分,并且几乎选手成绩出来的同时选手的最后得分及名次也显示出来了,这样使观众看了有一种很强的现场感和刺激性。其实我们在平时单位举行的各类竞赛中完全可以实现这个...
  4.如您是家长,可点击主面板的
  安全知识竞赛
  全新的参赛方式,最流畅的答题体验!省市参赛自动定位,竞赛类型更全面。
  进入竞赛大厅,选择所在省市。
  答完题如有遇到不会的难题可使...
SecretSum 是本次 google 竞赛中第二轮淘汰赛的一道分值为 500 分竞赛题。事实上,这道题目反而比同轮比赛中的那道 1000 分值的RecurringNumbers 难(RecurringNumbers 的难度水准充其量不过是道初一学生奥数竞赛
阿里天池大数据竞赛相关资料
...梦回唐朝、天下无双
  活动简介
  活动时间:帮派竞赛在每周的周二、周四晚间举行。20:30-21:00为帮派竞赛准备阶段,21:00-22:00为帮派竞赛正式阶段。
  任务形式:组队或单人
  等级限制:达到50级
  任务描述:2级...
1.剑灵新版本增加的玄武帝八卦箱1号需要什么道具兑换?
答案:A.月夜花
2.玄武帝八卦箱1号需要多少数量的道具可以兑换?
答案:C.5朵
3.新增道具大地牌用于交换什么?
答案:D.八卦牌
4.用大地八卦加什么道具可以兑换玄...
...发布版块,否则尽量不要采用这种方式。
二十二、运用竞赛。
你可以在网站上设计一个竞赛,奖品要能够吸引那些你最希望获得的那类客户。比如将奖品设计为你的产品或一定的购买折扣等等。运用竞赛可以有效的吸引更多访...
...ACM SIGCOMM) 担任评委。
阿里巴巴资深技术专家、阿里云大数据计算平台资深架构师林伟,他负责大数据平台整体架构的规划、设计和优化,具有十多年大型分布式系统的架构设计经验。
阿里巴巴研究员、日本丰桥技术科学大学...
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效率,降低...
凝聚阿里巴巴多年来在无线业务安全防御的成功经验和技术成果,并面向开发者和企业提供安全扫描、应用加固、...
一站式提供企业即时通讯、销售管理、协同办公。
基于深度学习技术及阿里巴巴多年的海量数据支撑, 提供多样化的内容识别服务,能有效帮助用户降低违规风险...了解更多,请关注天池微信您还没有登录,快捷通道只有在登录后才能使用。 还没有帐号? 赶紧

我要回帖

更多关于 阿里天池大数据 的文章

 

随机推荐