dupre analyticss能不能停止运行

Flurry Analytics翻译--Flurry用于实时收集Android程序运行情况47
上亿文档资料,等你来发现
Flurry Analytics翻译--Flurry用于实时收集Android程序运行情况47
欢迎您,文林|您的个人资料|登出;公司名称:北京大学|管理;所有应用zhaofi的AndroidSDK;已成功创建新应用程序“zhaofi”;您的独特应用的关键是:;3XK3SL4IS8VS8QJ692LB;下载Android的发行说明的乱舞SDK(V2.;整合与您的应用程序的SDK;添加FlurryAgent.jar到应用的cla;如果你使用的是Eclip
欢迎您,文林
|登出公司名称:北京大学
|管理 所有应用
的Android SDK已成功创建新应用程序“zhaofi”。您的独特应用的关键是:3XK3SL4IS8VS8QJ692LB下载Android的 发行说明的乱舞SDK (V2.2)整合与您的应用程序的SDK。需要不到五分钟 。添加FlurryAgent.jar到应用的classpath如果你使用的是Eclipse ,修改您的Java Build Path路径,并选择“Add External JAR...如果你直接使用SDK 工具,拖放到你的库文件夹和ant任务将它捡起来。配置的AndroidManifest.xml所需的权限:android.permission.INTERNET所需的分析数据发送回乱舞服务器可选权限:android.permission.ACCESS_COARSE_LOCATION或android.permission.ACCESS_FINE_LOCATION如果您的应用程序位置的权限,analytics会跟踪您的应用程序正在使用。没有这一点,只有国家一级的位置信息将可用。要禁用详细的位置报告,甚至当你的应用程序的权限 ,调用FlurryAgent.setReportLocation(false)前调用FlurryAgent.onStartSession ()并没有详细的位置信息将被 发送。在清单中指定一个versionName属性,有根据该版本的名称报告的数据。调用onStartSession和onEndSession插入调用FlurryAgent.onStartSession(Context, String),它传递一个引用到上下文对象(如活动或服务),和您的应用程序的API密钥[ 3XK3SL4IS8VS8QJ692LB ]。我们建议使用onStart 在您的应用程序中的每个Activity的方法,并传递Activity (or Service)的Context对象本身-通过全球的应用程序上下文是不推荐使用。public void onStart(){ super.onStart(); FlurryAgent.onStartSession(this,“3XK3SL4IS8VS8QJ692LB”);/ /你的代码}当一个会话完后,插入调用FlurryAgent.onEndSession(Context)。我们建议使用onStop在您的应用程序中的每个Activity的方法。确保匹配调用onEndSession为每个调用onStartSession,在相同的上下文对象,用来调用传递onStartSession public void onStop(){
super.onStop();FlurryAgent.onEndSession(本);/ /你的代码}只要有任何称为上下文onStartSession但不onEndSession,会话将继续进行。此外,如果一个新的上下文要求在10秒最后上下文调用onEndSession onStartSession的,那么,这个会话将被收回,而不是创建一个新的会话 。会议长,使用频率,事件和错误,将继续作为同一会话的一部分跟踪。这确保了一个用户从一个活动转换到另一个在您的应用程序,他们不会有一个单独的session对每项活动进行跟踪,但将有一个单独的的会议上,跨越许多活动。如果你想跟踪活动的使用情况,我们建议使用onEvent,如下所述。如果你想改变在一个会话就可以恢复的窗口,调用FlurryAgent.setContinueSessionMillis(长毫秒)前的首先调用 到FlurryAgent.onStartSession 。大功告成! 这是所有你需要做的,开始接受基本的度量 数据。 高级功能/自定义报告额外的数据,您可以使用下列方法:FlurryAgent.onEvent(String eventId, Map&String, String& parameters) 使用onEvent期间来跟踪用户会话的事件发生。您可以跟踪每个事件发生多少次,什么秩序的事件发生,以及最常用的参数为每个事件,用户往往采取各种行动, 这可用于测量非常有用,或行动,他们 通常执行序列 每个应用程序支持最多的100个事件,每个事件ID,参数关键,参数值必须不超过255个字符的长度。每一个事件可以有不超过10个参数。参数参数是可选的, 可以为null 。 FlurryAgent.onError(String errorId, String message, String errorClass)使用的OnError报告应用程序错误。乱舞将报告的第10个错误发生在每届会议。FlurryAgent会也以同样的方式通知未捕获的异常。如果你想禁用此行为,呼吁前onStartSession setCaptureUncaughtExceptions(假)。FlurryAgent.onPageView()使用onPageView报告页面查看次数。每当一个新的页面显示给用户增量总数时,你应该调用此方法。“网页”视图中分别跟踪的事件。要禁用FlurryAgent日志调用FlurryAgent.setLogEnabled(假)。FlurryAgent.setUseHttps(boolean useHttps)使用setUseHttps更改默认的会议上提出报告请求从HTTP到HTTPS。 跟踪人口统计学FlurryAgent.setUserID(String)使用此日志在您的系统为用户分配的ID或用户名。FlurryAgent.setAge(int)使用此登录用户的年龄。有效的输入为1和109之间。FlurryAgent.setGender(byte)使用此登录用户的性别。有效的输入Constants.MALE或Constants.FEMALE。 潜水!支持
查看所有的应用程序 ? 2011乱舞,INC。 包含各类专业文献、高等教育、外语学习资料、幼儿教育、小学教育、各类资格考试、应用写作文书、Flurry Analytics翻译--Flurry用于实时收集Android程序运行情况47等内容。
 Flurry Analytics翻译--... 3页 3下载券喜欢...当任何程序 的代码需要执行其他程序时,Android 就...或者它也可以通过网络获取数据,或者 收集数据并提供...  透过专门的数据分析,Flurry Analytics 这项报告显示,美国智能手机用户(仅计 算 iOS 与 Android,样本数达 220 万台),平均每天花费 2 小时 38 分钟使用程序手 机...  首先,Flurry 计算在过去 30 天内通过 iOS 和 Android 设备使用应用程序 的用户数量,最后得出目前潜在目标市场的排名。在这轮测试中,美国居首位, 共有 1.09 亿人...  虽然本次调查针对的是只是美国地区,但是对于其它地区来说也具有一定的参 考价值。通过 FlurryAnalytics 提供的数据表,我们得知美国地区的 iOS 用户在晚上 9 点时...  专家表示,iOS 应用商店中的应用程序往往会比那些 Android 智能手机的应用程序更贵, 这也可能有助于提高 iPhone 应用程序的购买量。根据 Flurry Analytics,2013 年 ...  (210 万/300 万)上搜集 着资料,大约 500 名开发...超过 1500 个 Android 程序加入了 Flurry Analytics...他们的官方 Blog 里说“目前已经有 12 款 Android...origin运行战地3的那个网址打不开啊,怎么办_战地3吧_百度贴吧
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&签到排名:今日本吧第个签到,本吧因你更精彩,明天继续来努力!
本吧签到人数:0可签7级以上的吧50个
本月漏签0次!成为超级会员,赠送8张补签卡连续签到:天&&累计签到:天超级会员单次开通12个月以上,赠送连续签到卡3张
关注:113,022贴子:
origin运行战地3的那个网址打不开啊,怎么办
战地3网页打不开怎么回...
本门派镇楼 图侵删
打算配一台机器玩4,当...
PBA,PBB进程都有,居然...
看见别的基佬各种战地3...
兼容性和需要的驱动都弄...
没有服务器,没有太多拘...
楼主想升级老爷机,但后...
游戏修复都做了还是进...
你们有这样的问题吗
哪个脑残想出来的跨服战...
打开路径C:\Windows\System32\drivers\etc 对hosts文件 用打开。清空里面所有内容,然后添加下面这些 IP 网址:#EA origin219.76.10.155 akamai.219.76.10.155
battlelog-23.77.27.8 23.77.27.9 download.219.76.10.155
eaassets-a.akamaihd.net219.76.10.155
static.68.232.44.121 www.</64.233.166.116 127.0.0.1 127.0.0.1 connect.facebook.net127.0.0.1 127.0.0.1 127.0.0.1 www.然后关闭保存
谷歌也打不开。。。。
要用火狐浏览器打开
内&&容:使用签名档&&
保存至快速回贴
为兴趣而生,贴吧更懂你。&或HPVerticaAnalyticsPlatform评测
1.vertica概念
面向数据分析的数据仓库系统解决方案
2.vertica关键特性
? 标准的SQL接口:可以利用已有的BI、ETL、Hadoop/MapReduce和OLTP环境
? 高可用:内置的冗余也提升了查询速度
? 自动化数据库设计:数据库自动安装、优化、管理
? 高级压缩:十多种压缩算法最多可节省90%的空间
? 大规模并行处理:运行于低成本的x86型Linux节点上的原生DB感知集群
? 列式存储、混合模型:无磁盘I/O瓶颈,载入和查询同时进行
? 灵活部署:普通硬件、虚拟环境、云平台
3.vertica安装使用
使用社区版的vertica:免费、无功能和时间限制,最多允许1TB的数据、最多允许三个节点的集群。在A、B、C三台Linux服务器上(CentOS5系统)安装配置包含三个节点的可保证高可用的最基本的vertica cluster。
特定于平台的vertica安装包,这里下载的是
vertica-7.0.1-0.x86_64.RHEL5.rpm
创建专门用于vertica管理的用户和组
sudo groupadd verticaAdmin
sudo useradd -g verticaAdmin verticaAdmin
sudo passwd verticaAdmin
在其中一台主机,比如A主机先安装vertica
sudo rpm -ivh vertica-7.0.1-0.x86_64.RHEL5.rpm
安装完成后可在A主机运行/opt/vertica/sbin/install_vertica命令与其他主机搭建vertica cluster
sudo /opt/vertica/sbin/install_vertica &hosts B,C - -rpm /pathto/vertica-7.0.1-0.x86_64.RHEL5.rpm--dba-user verticaAdmin --dba-group verticaAdmin --dba-user-password password--dba-user-home /home/ verticaAdmin --data-dir /data/vertica
3.2几个问题
首先要保证root用户可以通过SSH登录到集群内的所有主机
另外应允许vertica管理员用户,例如上述步骤创建的verticaAdmin,无密码SSH至集群内其他主机(该步骤会在安装过程中自动进行(之所以要保证root用户能SSH到集群内所有主机正是为了此目的),我们只需保证系统设置允许无密码登录即可)
vertica对I/O调度策略、vertica管理员用户的时区设置、磁盘Readahead的值、文件系统、CPU主频扩展策略等方面有特殊要求。如果你不确定你的系统是否符合这些要求也没关系,只要运行一下上述配置cluster的命令便会自动检测并给出提示,只需按提示一步步解决掉问题重新就可以了。
3.3此次安装过程遇到的问题及解决办法
(涉及的文件名、路径、磁盘名称等视你的具体情况而定)
设置I/O调度策略:
sudo sh -c &#39;echo deadline &/sys/block/sda/queue/scheduler&#39;
并将echo deadline & /sys/block/sda/queue/scheduler写进/etc/rc.local
更新tzdata包,设置时区:
sudo yum update tzdata
在 .profile 或.bashrc /etc/profile中添加export TZ=&Asia/Shanghai&
安装pstack、mcelog、sysstat:
yum install pstack
yum install mcelog
yum install sysstat
设置Readahead
sudo blockdev --setra 2048 /dev/sda
sudo blockdev --setra 2048/dev/mapper/VolGroup00-LogVol00
并将命令写进/etc/rc.local
查看和设置CPU频率扩展:
sudo yum install cpufreq-utils
cpufreq-info
sudo cpufreq-set -c CPU序号1,CPU序号2,&& -g performance
配置/etc/ssh/sshd_config中PermitRootLogin为yes并重启(一定要重启)sshd服务:
sudo vim /etc/ssh/sshd_config
/etc/init.d/sshd restart
安装成功后便可以用admintools来管理vertica了,可以使用admintools命令行模式也可以使用图形界面模式。也可以使用vsql客户端来连接、查询。若想卸载vertica也很简单,逐台服务器运行sudo rpm -e vertica-7.0.1-0即可。
3.4一些基本命令:
? admintools: 运行图形界面,根据界面上的内容和提示进行操作。
? admintools &help: 显示可用的命令
? admintools &help_all: 显示更详尽的可用命令帮助
? admintools &t +具体可用的命名: 使用特定的命令
? vsql:连接到vertica
? vsql db:连接到具体数据库
? 使用vsql创建好连接至vertica的回话后\h用户显示帮助。
4.vertica评测
4.1单节点模式下测试环境准备
数据库、schema、table
最初只启用了一个节点A(也即没有搭建cluster),使用admintools在该节点创建不使用密码的数据库 testVertica,使用vsql连接至testVertica数据库,在public这个schema下创建表trace_htlorder、sbtest。
CREATE TABLE trace_htlorder (
TextDataLONG VARCHAR,
TransactionID bigint DEFAULT NULL,
HostNamevarchar(256) DEFAULT NULL,
ApplicationName varchar(256) DEFAULT NULL,
LoginNamevarchar(256) DEFAULT NULL,
SPID intDEFAULT NULL,
Durationbigint DEFAULT NULL,
StartTimedatetime DEFAULT NULL,
EndTimedatetime DEFAULT NULL,
Readsbigint DEFAULT NULL,
Writesbigint DEFAULT NULL,
CPU intDEFAULT NULL,
Successint DEFAULT NULL,
ServerName varchar(256) DEFAULT NULL,
EventClass int DEFAULT NULL,
Error intDEFAULT NULL,
ObjectName char(256) DEFAULT NULL,
DatabaseName varchar(256) DEFAULT NULL,
DBUserName varchar(256) DEFAULT NULL,
RowCountsbigint DEFAULT NULL,
XactSequence bigint DEFAULT NULL,
hashcodebigint DEFAULT NULL,
filtertinyint DEFAULT NULL
CREATE TABLE sbtest (
idint NOT NULL,
kint NOT NULL DEFAULT &#39;0&#39;,
cchar(120) NOT NULL DEFAULT &#39;&#39;,
padchar(60) NOT NULL DEFAULT &#39;&#39;,
PRIMARYKEY (id)
注意:vertica不支持vertica不支持MySQL中的``、int(N)、comment、text类型、unsigned、AUTO_INCREMENT、KEY k(k)&
两个测试文本:
sbtest.txt-17G-包含如下格式的数据2亿行(数据来自于sysbench自动创建)
1*2000*&aaaaaaaaaaabbbbbbbbbbccccccccccdddddddddd&*&ddddddddddccccccccccbbbbbbbbbbaaaaaaaaaa&
trace_order_less.txt-20G-包含如下格式的数据3千万行(数据来自与真实的生产环境)
&SELECT costrate FROM FltOrderDB..O_Flight(nolock) WHERE OrderID=&*0*&VMS01760&*&.NetSqlClient DataProvider&*&uws_W_AppleOrder&*172*0*&0:00:00&*&0:00:00&*4*0*0*0*&&*0*0*&&*&FltOrderDB&*&&*1*0*
4.2 单节点vertica与infobright数据载入测试
单点的社区版vertica
copy public.sbtest from &#39;/tmp/sbtest.txt&#39;DELIMITER &#39;*&#39; ENCLOSED BY &#39;&&#39;DIRECT;
Time: First fetch (1 row):
ms. Allrows formatted:
数据被压缩为3.8G
copy public.trace_htlorder from&#39;/data/tmp/trace_order_less.txt&#39; DELIMITER &#39;*&#39; ENCLOSED BY &#39;&&#39; DIRECT;
Time: First fetch (1 row):
ms. All rowsformatted:
数据被压缩为1.4G
数据载入过程中vertica会使用到比原始数据文件大得多的磁盘空间, 20G的数据文件LOAD过程中最多的时候会占用到40G的空间
copy 命令三个参数
? AUTO 将数据载入WOS,WOS满后直接载入到ROS。适用于&100MB的文件
? DIRECT 将数据直接载入到ROS。适用于100MB以上的数据
? TRICKLE 适用于增量式的批量插入数据,直接把数据载入到WOS,WOS满后报错,整个载入过程回滚。
社区版infobright
创建数据库和表
create database testInfobright;
use testInfobright;
CREATE TABLE `trace_htlorder` (
`TextData` text,
`TransactionID` bigint(20) DEFAULT NULL,
`HostName` varchar(256) DEFAULT NULL COMMENT &#39;lookup&#39;,
`ApplicationName` varchar(256) DEFAULT NULL,
`LoginName` varchar(256) DEFAULT NULL COMMENT &#39;lookup&#39;,
`SPID`int(11) DEFAULT NULL,
`Duration` bigint(20) DEFAULT NULL,
`StartTime` datetime DEFAULT NULL,
`EndTime`datetime DEFAULT NULL,
`Reads`bigint(20) DEFAULT NULL,
`Writes`bigint(20) DEFAULT NULL,
`CPU`int(11) DEFAULT NULL,
`Success`int(11) DEFAULT NULL,
`ServerName` varchar(256) DEFAULT NULL COMMENT &#39;lookup&#39;,
`EventClass` int(11) DEFAULT NULL,
`Error`int(11) DEFAULT NULL,
`ObjectName` varchar(256) DEFAULT NULL COMMENT &#39;lookup&#39;,
`DatabaseName` varchar(256) DEFAULT NULL COMMENT &#39;lookup&#39;,
`DBUserName` varchar(256) DEFAULT NULL,
`RowCounts` bigint(20) DEFAULT NULL,
`XactSequence` bigint(20) DEFAULT NULL,
`hashcode`bigint(20) DEFAULT NULL,
`filter`tinyint(4) DEFAULT NULL
) ENGINE=BRIGHTHOUSE DEFAULT CHARSET=utf8
CREATE TABLE `sbtest` (
`id`bigint(10) NOT NULL,
`k`int(10) NOT NULL DEFAULT &#39;0&#39;,
`c`char(120) NOT NULL DEFAULT &#39;&#39;,
`pad`char(60) NOT NULL DEFAULT &#39;&#39;
同样的两个数据文件sbtest.txt、trace_order_less.txt
load data infile &#39;/data/tmp/sbtest.txt&#39; intotable testInfobright.sbtest FIELDS TERMINATED BY &#39;*&#39; OPTIONALLY ENCLOSED BY&#39;&&#39; ;
rows affected (40 min 38.89sec)
数据被压缩为2.8G
load data infile &#39;/data/tmp/trace_order_less.txt&#39;into table testInfobright.trace_htlorder FIELDS TERMINATED BY &#39;*&#39; OPTIONALLYENCLOSED BY &#39;&&#39; ;
rows affected (11 min 13.68sec)
数据被压缩为0.45G
Infobright
Infobright
导入文件类型
sysbench压测工具生成的格式化数据,每行的文本内容具有基本相同的长度和内容
生产环境DB实际产生的trace信息,包含各种不同的调用语句,文本长度和内容都各异
原始文件大小(GB)
导入后大小(GB)
导入时间(sec)
导入速度(MB/sec)
4.3单点的vertica与infobright数据查询测试
trace_htlorder表6千万行数据
#常用查询 WHERE BETWEEN AND LIKE ORDER BY
sql01 = &SELECTTextData,StartTime,EndTime,DatabaseName,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCodeFROM trace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime& &#39; 02:00:00 &#39; AND TextData LIKE &#39;%GROUP BY%&#39; ORDER BY StartTime&
total: 457.
#常用查询 WHERE BETWEEN AND LIKE GROUP BY
sql02 = &SELECTTextData,StartTime,EndTime,DatabaseName ,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCodeFROM trace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime& &#39; 02:00:00 &#39; AND TextData LIKE &#39;%GROUP BY%&#39; GROUP BY TextData,StartTime,EndTime,DatabaseName,ObjectName,HostName,ApplicationName,LoginName,Duration,Reads,Writes,CPU,RowCounts,Error,HashCode&
total: 278.
#全字段,无条件 一千万行
sql03 = &SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder limit 100000&
total: 60.
total: 26.
#个别字段,无条件 一千万行
sql04= &SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder limit100000&
#全字段,WHERE BETWEEN AND LIKE GROUP BY
sql05 = &SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime &&#39; 02:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; GROUP BY TextData,TransactionID ,HostName
,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCounts,XactSequence,hashcode,filter&
total: 58.
#个别字段,WHERE BETWEEN AND LIKE GROUP BY
sql06 = &SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39; 02:00:00&#39; AND TextData LIKE &#39;%GRUOP BY%&#39; GROUPBY HostName ,ApplicationName,ServerName,DatabaseName,DBUserName&
total: 53.
total: 987.&
#全字段,WHERE BETWEEN AND LIKE ORDER BY 分别按不同字段排序DESC/ASC
sql07 = &SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime &&#39; 02:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDER BY Duration DESC&
total: 39.
total: 984.
sql08 = &SELECT TextData,TransactionID,HostName ,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes,CPU ,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime &&#39; 02:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDER BY Duration ASC&
total: 40.
total: 984.4428339
sql09 = &SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName, DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROMtrace_htlorder WHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime &&#39; 02:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDER BY SPID DESC&
total: 39.
total: 984.
sql10 = &SELECT TextData,TransactionID,HostName,ApplicationName,LoginName,SPID,Duration,StartTime,EndTime,Reads,Writes ,CPU,Success,ServerName,EventClass,Error,ObjectName,DatabaseName,DBUserName,RowCoun
ts,XactSequence,hashcode,filter FROM trace_htlorderWHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39;2:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDER BY SPID ASC&
total: 39.
total: 984.
#个别字段,WHERE BETWEEN AND LIKE ORDER BY 分别按不同字段排序DESC/ASC
sql11 = &SELECTHostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorderWHERE StartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39;2:00:00 &#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDER BY Duration DESC;&
total: 48.
total: 990.
sql12 = &SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39; 02:00:00&#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDERBY Duration ASC&
total: 48.
total: 990.
sql13 = &SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39; 02:00:00&#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDERBY SPID DESC&
total: 48.
total: 990.
sql14 = &SELECT HostName,ApplicationName,ServerName,DatabaseName,DBUserName FROM trace_htlorder WHEREStartTime &= &#39; 00:00:00 &#39; AND StartTime & &#39; 02:00:00&#39; AND TextData LIKE &#39;%GRUOP BY%&#39; ORDERBY SPID ASC&
total: 48.
total: 990.
total为无间断连续运行十次的总时间,上边为vertica的值,下边为infobright的值
14条语句各运行十遍的总时间:
vertica:3
infobright:9
对于包含like、groupby、order by等条件的数据 ,vertica查询速度明显快于infobright。最快可达20倍以上。对于没有查询条件的语句两者相当,查询列为全部字段时vertica劣于infobright。查询列为部分字段时vertica略优于infobright。
vertica中 longvarchar 不支持 LIKE操作,只有char,varchar,binary,varbinary支持,所以需先将原long varchar改为varchar
alter table trace_htlorder alter column TextDataset data type varchar(65000);
infobright SQL 中不能包含关键字 如 database,host,writes,reads等,关键字需用反引号括起来,若是在linux shell里直接以命令方式执行还需对反引号转义,否则会被解析为命令。
4.4测试包含三个节点的verticacluster(k-safety设置为1)导入数据
查看cluster状态
dmintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
查看cluster中的节点
admintools -t list_
Node | Host | State | Version | DB
------------------------+---------------+-------+-------------------+-------------
v_testvertica_node0001 | 192.X.X.A | UP | vertica-7.0.1.000 | testVertica
v_testvertica_node0003 | 192.X.X.B | UP | vertica-7.0.1.000 | testVertica
v_testvertica_node0004 | 192.X.X.C | UP | vertica-7.0.1.000 | testVertica
测试用的数据库表
databases:testVertica
schema:public
table:sbtest、trace_htlorder
测试只在v_testvertica_node0001节点导入数据后的数据分布情况
数据:sbtest.txt -17G-2亿行
copy public.sbtest from &#39;/data/tmp/sbtest.txt&#39; onv_testvertica_node0001 DELIMITER&#39;*&#39; ENCLOSED BY &#39;&&#39; DIRECT;
Time: First fetch (1 row):
ms. Allrows formatted:
原来单节点时时间的一般左右,数据被压缩后各节点上大约有2.5G总共2.5*3=7.5G刚好是原来3.8G的两倍左右,证明vertica在cluster内存储了两个副本以保证值为1的k-safety
数据:trace_order_less.txt -20G-3千万行
copy public.trace_htlorder from &#39;/data/tmp/trace_order_less.txt&#39;on v_testvertica_node0001 DELIMITER&#39;*&#39; ENCLOSED BY &#39;&&#39; DIRECT;
Time: First fetch (1 row):
ms. Allrows formatted:
原来单节点时时间的一般左右,数据被压缩后各节点上大约有1G总共1*3=3G刚好是原来1.4G的两倍左右,证明vertica在cluster内存储了两个副本以保证值为1的k-safety
测试在v_testvertica_node0001、 v_testvertica_node0003、 v_testvertica_node0004多节点并行导入
数据:sbtest.txt -17G-2亿行,分别存在于A、B、C三个节点中
copy public.sbtest from &#39;/data/tmp/sbtest.txt&#39; onv_testvertica_node0001,&#39;/tmp/sbtest.txt&#39; on v_testvertica_node0003,&#39;/tmp/sbtest.txt&#39;on v_testvertica_node0004 DELIMITER &#39;*&#39; ENCLOSED BY &#39;&&#39; DIRECT;
Time: First fetch (1 row):
ms. Allrows formatted:
6亿行数据被导入cluster用时6.3分钟
数据:trace_order_less.txt -20G-3千万行,别存在于A、B、C三个节点中
copy public.trace_htlorder from&#39;/data/tmp/trace_order_less.txt&#39; onv_testvertica_node0001,&#39;/tmp/trace_order_less.txt&#39; onv_testvertica_node0003,&#39;/tmp/trace_order_less.txt&#39; on v_testvertica_node0004DELIMITER &#39;*&#39; ENCLOSED BY &#39;&&#39;DIRECT;
Time: First fetch (1 row):
ms. Allrows formatted:
9千万行数据被导入cluster用时105分钟
vertica cluster故障恢复测试
先检查数据
select count(*)
select count(*) from trace_
查看cluster状态
dmintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
关闭B上的vertica,并查看状态
admintools -t stop_node -s 192.X.X.B
admintools -t view_cluster
DB | Host | State
-------------+---------------+-------
testVertica | 192.X.X.A | UP
testVertica| 192.X.X.B | DOWN
testVertica | 192.X.X.C | UP
重新检查数据发现数据并未丢失,还是原来的数目
select count(*)
select count(*) from trace_
重启B上的vertica,并查看状态
admintools -t restart_node -d testVertica -s 192.X.X.B
admintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | UP
整个集群恢复原状
逐次关闭B、C上的vertica,并查看状态
admintools -t stop_node -s 192.X.X.B
admintools -t stop_node -s 192.X.X.C
admintools -t view_cluster
DB | Host | State
-------------+------+-------
testVertica | ALL | DOWN
发现我们虽然只关闭了两个节点,还有一个节点没有手工关闭,但vertica已经非常智能的关闭了整个cluster,因为这时一个node已经不能保证高可用了,该node一旦异常down掉数据便会损失,所以vertica干脆关掉整个cluster。
重启整个cluster
admintools &t start_db &d testVertica
/docs/7.0.x/HTML/index.htm
http://ftp.gnu.org/gnu/time/
vertica的python连接器:vertica-python-0.2.0的安装
require:2.7、zlib-devel、openssl-devel、pytz、python-dateutil、pip、psycopg2
python-dateutil
require:six
require: postgresql-devel
yum install zlib-devel
yum install openssl-devel
yum install postgresql-devel
cd Python2.7-&./configure --with-zlib -&make -& sudo make install
cd pytz -&sudo python2.7 setup.py install
cd six -&sudo python2.7 setup.py install
cd python-dateutil -&sudo python2.7 setup.pyinstall
cd pip -&sudo python2.7 setup.py install
cd psycopg -&sudo python2.7 setup.py install
cdvertica-python -&sudo python2.7 setup.py install#encoding:utf-8
使用SQL命令运行DBD(DatabaseDesigner)
selectDESIGNER_CREATE_DESIGN(&#39;testVerticaDesigner&#39;);
select DESIGNER_SET_DESIGN_KSAFETY(&#39;testVerticaDesigner&#39;,1);
SELECTDESIGNER_SET_OPTIMIZATION_OBJECTIVE(&#39;testVerticaDesigner&#39;,&#39;QUERY&#39;);
SELECTDESIGNER_SET_DESIGN_TYPE(&#39;testVerticaDesigner&#39;,&#39;INCREMENTAL&#39;);
SELECTDESIGNER_ADD_DESIGN_QUERIES(&#39;testVerticaDesigner&#39;,&#39;/home/op1/testVertia/querys.sql&#39;,&#39;true&#39;);
SELECTDESIGNER_ADD_DESIGN_TABLES(&#39;testVerticaDesigner&#39;,&#39;public.trace_htlorder&#39;,&#39;true&#39;);
SELECTDESIGNER_RUN_POPULATE_DESIGN_AND_DEPLOY(&#39;testVerticaDesigner&#39;,&#39;/home/op1/testVertia/vertica_design_files/vertica_design_DDL&#39;,&#39;/home/op1/testVertia/vertica_design_files/vertica_design_deployment_scripts&#39;);
SELECTDESIGNER_WAIT_FOR_DESIGN(&#39;testVerticaDesigner&#39;);
SELECTDESIGNER_OUTPUT_ALL_DESIGN_PROJECTIONS(&#39;testVerticaDesigner&#39;);
SELECTDESIGNER_OUTPUT_DEPLOYMENT_SCRIPT(&#39;testVerticaDesigner&#39;)
SELECTDESIGNER_CANCEL_POPULATE_DESIGN(&#39;testVerticaDesigner&#39;)
SELECTDESIGNER_DROP_DESIGN(&#39;testVerticaDesigner&#39;)

我要回帖

更多关于 web analytics 的文章

 

随机推荐