使用arctoolbox工具处理栅格,处理成功后,不能在arcmap 栅格数据裁剪中显示是什么原因?

Arcgis空间分析模块怎么加载?_百度知道
Arcgis空间分析模块怎么加载?
我用的英文版的arcmap,需要在dem上做坡度分析,请问在哪里找到坡度分析用的功能呢?叠置分析在哪里呢?
提问者采纳
我非常佩服楼上的,搜索能力太强了,但我想你一定不是GIS专业的了!1.要加载使用“空间分析模块”,首先得在ArcMap中执行菜单命令&Tools&-&extensions&,在扩展模块管理窗口中, 将“空间分析(spatial analyst)”前的检查框打勾。然后,在ArcMap 工具栏的空白区域点右键,在出现的右键菜单中找到“空间分析(spatial analyst)”项,点击该项,在ArcMap中显示“空间分析”工具栏。2.至于破度分析,同1所述,加载[3D分析]模块,打开[3D分析]工具栏,执行菜单命令 3Danalysis---表面分析(Surface analysis)----坡度(slope)3.至于“叠置分析”,即Overlay Analysis,打开arctoolbox---Analysis Tools---Overlay.以上这些都是在arcgis9.2当中的操作,如果你没有找到相应内容,那你得确定你是否“完全安装”了arcgis软件。我是武汉理工GIS专业的,希望以后多多交流哦!
提问者评价
写的很清楚,我武汉理工gis06级的,用arcgis还不是很熟练。非常感谢你。以后很请多多指教哦
参考资料:
个人专业知识
其他类似问题
为您推荐:
其他3条回答
ArcGIS9.0是ArcGIS系统中的一个重要的版本。ArcGIS9.0将主要在GeoProcessing(地理处理),3D可视化和开发工具(ArcGis Engine)等方面来扩展现有的平台。
在ArcGIS 9,ArcToolbox变成ArcMap、ArcCatalog、ArcScene、ArcGlobe中一个可停靠的窗口。ArcToolbox的空间处理框架可以跨ArcView、ArcEditor和ArcInfo环境,与ArcGIS桌面可伸缩的设计思想相一致。不同的只是每个产品中提供的工具的数量不同:ArcView和ArcEditor包含大约30个工具、ArcInfo包含大约200个工具。ArcGIS扩展,如ArcGIS 3D Analyst和ArcGIS Spatial Analyst扩展了ArcToolbox,提供了超过200个额外的工具。
下列内容是ArcGIS9.0产品中的关键的增强:
ArcGIS桌面产品(ArcView,ArcEditor,和ArcInfo)
新的地理处理框架:新的地理处...
ArcGIS9.0是ArcGIS系统中的一个重要的版本。
工具--扩展--空间分析
您可能关注的推广
arcgis的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁ArcMap栅格数据矢量化及使用ArcScan矢量化_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
评价文档:
ArcMap栅格数据矢量化及使用ArcScan矢量化
阅读已结束,如果下载本文需要使用
想免费下载本文?
你可能喜欢CityEngine施用栅格数据制作三维专题图_iOS跟android游戏纹理优化和内存优化(cocos2d-x)_ROS施用笔记本自带USB摄像头运行pi_face_tracker,进行人脸识别__脚本百事通
稍等,加载中……
^_^请注意,有可能下面的2篇文章才是您想要的内容:
CityEngine施用栅格数据制作三维专题图
iOS跟android游戏纹理优化和内存优化(cocos2d-x)
ROS施用笔记本自带USB摄像头运行pi_face_tracker,进行人脸识别
CityEngine施用栅格数据制作三维专题图
CityEngine使用栅格数据制作三维专题图在ArcScene中,对栅格数据进行拉伸处理,就可以显示出三维的效果。如果我想把这种效果放到Web端分享给别人怎么办?CityEngine 2012新增了发布Web场景的功能,可以通过本地的Web Scene Viewer打开,也可以发布到ArcGIS Online云端进行共享。所以利用CityEngine 2012,就可以创建这样的Web应用,将三维效果的栅格地图进行在线的展示。1 栅格数据准备(1)下图中的点代表城市,我们基于城市点的某一个属性值(比如某类人员数量)。 在ArcMap中使用核密度工具(ArcToolbox—&空间分析—&密度分析中)进行密度分析,计算结果如下图所示,这是个栅格数据。 进行符号化设置以后,可直观的看到下图中表示空间分布密度的二维地图。 (2)将图3中的栅格图层导出为栅格文件,用于在CityEngine中进行符号化显示(即纹理)。关闭其它图层,点击File菜单—&Export Map,设置如下,点击保存。这里,需要注意的一点就是,要勾选“Write World File”,用于记录坐标位置的。
(3)将图2中的栅格图层导出为栅格文件,用于在CityEngine中进行高程上的显示(类似于DEM)。在导出地图之前,先修改数据框的背景颜色,右键数据框选择属性,点击Frame选项卡,修改Background颜色为黑色。 点击File菜单—&Export Map,设置如下,点击保存。
(4)接下来,为了便于栅格数据在CityEngine中显示流畅,需要减小栅格数据。使用重采样工具(ArcToolbox—&数据管理—&栅格—&栅格处理中)对步骤2、4中的结果进行处理,设置如下,注意修改像元大小。
2 制作三维地图(1)打开CityEngine 2012,新建CityEngine工程。选择File菜单—& New,选择CityEngine Project,点击下一步,然后为工程命名,点击完成。
这时在导航窗口中,可以看到被创建的工程,它下面包含了很多文件夹。 (2)建立CityEngine场景。在导航窗口中,找到刚刚创建的工程,在scenes处右键—&New—&CityEngine Scene,然后为场景命名。设置坐标系统,选择完成。 (3)导入地图文件。将环节1中准备的栅格文件数据,拷贝到工程文件下的|“Maps”文件夹下(存储工程文件路径C:\Users\Administrator\CityEngine2012\GISers)。 回到导航窗口,在maps处右键点击Refresh,便可以看到刚刚导入进来的地图文件了。 (4)创建地图图层。在Layer菜单下点击New Map Layer,选择图层类型,这里选择Terrain,点击下一步。 设置高程文件和纹理文件并点击完成,如下图所示。这时,分别设置两个文件时,下方的Bounds应该是不变的,否则会出现高程数据与纹理数据叠加后显示偏移的现象。 (5)三维地图显示。如果Terrain图层没有显示到视图当中时,可以点击应用界面左下方的Terrain图层右,键选择Frame Layer,就会把刚刚创建的图层显示到视图中心位置。可以通过鼠标左键和滚轴对地图平移和放大缩小,还可以通过ALT键+鼠标左键转换地图的可视化视角。 此时,双击Terrain图层,在应用界面右侧的图层属性中,通过调整Bounds参数缩小地图显示范围,通过调整高程值以达到较好的三维效果(如果高程距离差异小,那么三维的效果会不明显)。
3 快速发布地图(1)导出模型。File菜单下点击Export Models。选择CityEngine Web Scene,点击下一步。 这时需要注意的是,Misc选项设置中,需要点击“Center”以重新计算地图范围。 Terrain图层的纹理质量选择Low即可,点击完成,此时便开始创建场景,这个过程可能需要几分钟的时间。 (2)浏览在线三维效果。在工程文件的models处右键点击Refresh,便会看到刚刚创建完成的场景包了(.3ws)。在场景包处右键选择Open With点击3D Web Scene Viewer(offline),便可以通过浏览器查看三维专题图了。打开时,需要使用火狐或谷歌浏览器(IE不支持)。
对于制作完成的场景包.3ws,也可以将它分享给别人。通过简单的几步部署操作,同样可以在本地打开Web场景(即使没有安装CityEngine 2012),具体步骤可详见http://blog.3snews.net/space.php?uid=53325&do=blog&id=65604。
iOS跟android游戏纹理优化和内存优化(cocos2d-x)
iOS和android游戏纹理优化和内存优化(cocos2d-x)(未完成)
1、2d游戏最占内存的无疑是图片资源。
2、cocos2d-x不同平台读取纹理的机制不同。ios下面使用CGImage,android和windows下是直接调用png库。我测试了下,使用png库直接读取png会比CGImage还要节约1mb左右内存(图片所占内存4mb)但是速度要比CGImage慢一倍。时间和空间如何取舍就看实际情况了。不过最佳的选择似乎是pvr(即使android版本,即使不使用pvrtc4)。
3、一般来说,我们可以直接使用
w * h * bpp得到一张纹理所占的内存,比如一张格式为argb8888,那么他所占的内存就是=4mb。之前看到有博客提到jpg会开辟3倍与此的内存(先转换为png,然后解析png),但是新的ios系统似乎没有这个问题。jpg与png所消耗的内存几乎相同,并且jpg解析速度更快(几乎都是4mb解析+4mb纹理数据,而jpg解析时间是png的一半),但是这样反而很怪异,因为jpg是没有透明色的,一个像素最多3字节,而png一个像素4字节,jpg纹理应该占用内存更小才对,后来看了下cocos2d的ios加载图片的代码,它把所有纹理转换成rgba8888格式,所以无论是jpg还是png,占用的都是4字节。正因cocos2d对其他纹理支持不够好,pvr才会显得那么高效。
4、pvr格式可以被显卡所认可,而不需要开辟临时内存来读取,所以即便同为argb8888格式的图片,pvr也会比png有效率,虽然不会节约程序稳定运行时的内存,但是会避免加载大量图片时的内存暴涨。
并且如果是ios设备的话,可以使用pvrtc4格式的图片,这个格式相当于windows下的dds图片,是可以被显卡直接支持的。它是有损压缩,一个像素只占4位,不过如果不是有渐变半透明色的话,一般效果可以接受,而其节约的内存和cpu时间非常非常显著。
5、pvr也不是万金油。android设备下虽然可以使用pvr格式,但是不能使用pvrtc4,希望通过pvr像ios设备上一样真正减少游戏内存是不太可行的。
6、pvr.ccz其实就是pvr图片zip打包下,程序读的时候还是先解压出pvr资源,然后再读取pvr。不过由于压缩下可以极大的减小图片体积,所以虽然多了解压过程也不会有特别多的cpu消耗。
7、一张jpg图片实际加载过程内存消耗,以一张 argbk的jpg图片为例: a.读取图片文件(消耗图片大小内存,500k)
b、解析jpg数据(cgimage, 4mb) c、释放500k的图片内存
d、opengl纹理数据(4mb)
e、释放cgimage的4mb内存。
注意,这个过程不是必然的顺序执行,释放cgimage内存的实际是有系统决定的,会很快,但是不一定是立即执行。
所以内存会瞬间飙升9mb左右,然后减少5mb,稳定到4mb左右
png图片的加载过程与此相同
pvr图片可以节约解析图片数据到纹理这一步的消耗。也就是说读取pvr图片资源(等价于解压pvr.ccz到内存,如果是 argb8888格式的话,那么图片大小就是4mb,ccz压缩后图片1mb左右)消耗4mb,将pvr图片数据提交给显卡消耗4mb。然后释放文件数据4mb。这么看似乎跟Png从内存占用上相比也不是非常有优势。(注意这里说的pvr是指pvr封装的argb8888,与pvrtc4的性能有天壤之别)
8、由于最终消耗内存的都是纹理数据,所以只要纹理数据格式是一定的,无论图片是什么格式消耗的内存都是一样的。比如使用Png8图片,体积会减少70%,但是内存占用与png24/png32是等价的(读取的时候会内部把调色板还原成真彩色,也就是说,虽然png8是一个像素只占8位,但是读取到内存中的时候会将调色板颜色还原,依然需要开辟字节的空间存放纹理数据)。 当然有无透明色,cocos2d的处理还是有区别的。如果是无透明色,可以使用png24,那么所需开辟的纹理空间就是3mb。
这里还有一点需要说明,一般我们处理windows下的dds纹理的时候,都习惯将其按2的整次幂对其,虽然图片内容只有900*900,但是图片大小却是。那我们读取这个图片所消耗的内存就是4mb,按2的整次幂对其是有助于提高运行效率的,但是不是非常必须的。ios和android的设备都支持非2的整次幂的纹理。所以如果是png图片,那么它该多大就多大。此时消耗的内存就只有900*900*4=3mb。
9、不要过于迷信所谓的去除alpha通道以节约内存。这个还要实际分析下具体结果。
我测试过(分别用cocos2d-x和鬼火3d引擎),rgba8888和rgb888格式的png图片显示所消耗的内存是一样的。24位图片虽然读取的时候开辟的内存只有3mb(,注意如果是用CGImage读取的话,那这个值就是4mb),但是glTexImage2D提交给显卡后依然会增加4mb内存。可能跟显卡的数据对齐有关。
这里我测试还有一个诡异的地方,如果是用pvr的npot图片的话,rgb888要比rgba8888所消耗的内存要小,但是pot图片两者又是一样的(png图片两种情况都是一样的)。可能是powervr显卡有特殊处理。
10、rgb565和rgb5551的图片所消耗的内存是rgba8888的一半,如果没有透明渐变的话,视觉上也看不出什么区别。一些大的背景图可以优先选择这种格式。
11、pvr图片加载速度要比png和jpg快3~5倍(同样 argb8888),png消耗的时间可能是700ms左右,但是pvr只需要100ms左右。如果是pvr.ccz压缩下,消耗的时间是200ms左右。可见pvr在加载速度上还是有非常大的优势的。这个应该是因为png和jpg需要把图片数据还原为rgba,但是pvr可以直接把图片数据传递给显卡。pvrtc4的图片是可以被powervr显卡直接支持的。
1、最终决定图片占用内存的是它的像素格式和大小,与其扩展名无关。png8
png32 jpg pvr只要其像素格式都是argb8888,那么最终图片占用的内存是一样的。
2、如果不是pvrtc4的格式,那么不要扩展成2的整次幂,因为图片越小,占用内存越小
3、单单去除透明通道不会减少图片所消耗的内存,png和jpg图片也无法减少图片体积,所以不推荐rgb888的格式。替代选择rgb565和rgb5551。
5、小心加载图片时临时开辟的纹理数据造成的内存飙高,可以考虑加入内存池,及时的开辟和释放缓冲区。
6、如果是为了减少图片体积可以选择:1、jpg--压缩比最高,质量较好,但是不支持半透明
2、png8--同样图片会比jpg略大一些,使用ImageAlpha进行转换,视觉上几乎看不出差别。
这两种图片格式都可以极大的减少图片体积(减少70%~80%),但是无助于减少内存
7、如果是为了减少内存可以选择:1、没有透明色的图片统一转换为rgb565格式,这个时候无法使用png8了,所以png和pvr.ccz图片大小几乎相同,pvr.ccz速度更快,所以推荐pvr.ccz的rgb565格式
2、如果透明色仅仅是进行关键色标注,而没有渐变混合,那么推荐rgb5551 (r5_a1)的pvr.ccz格式
8、可以考虑写个打包系统,统一把资源文件打包,而不是单个文件用pvr.ccz进行zip压缩,这样可以获得更高的效率。(比如我封装了下暴雪的mpq打包,其读取速度与本地文件读取速度相当,这样就可以获得最佳的读取效率)
最后附上我测试的数据日志,图片是一张的图片,实际图片内容大小为960*700。测试设备iphone4,png jpg等图片加载代码修改为windows版本。tex后面是图片的加载时间。 over后面的括号里面是图片加载所消耗的内存。
14:28:54.614 HelloCpp[] cocos2d: surface size: 960x640
Cocos2d: cocos2d: cocos2d-2.1beta3-x-2.1.0
Cocos2d: cocos2d: GL_VENDOR:
Imagination Technologies
Cocos2d: cocos2d: GL_RENDERER:
PowerVR SGX 535
Cocos2d: cocos2d: GL_VERSION:
OpenGL ES 2.0 IMGSGX535-63.24
Cocos2d: cocos2d: GL_MAX_TEXTURE_SIZE: 2048
Cocos2d: cocos2d: GL_MAX_TEXTURE_UNITS: 8
Cocos2d: cocos2d: GL supports PVRTC: YES
Cocos2d: cocos2d: GL supports BGRA8888 textures: NO
Cocos2d: cocos2d: GL supports NPOT textures: YES
Cocos2d: cocos2d: GL supports discard_framebuffer: YES
Cocos2d: cocos2d: GL supports shareable VAO: YES
Cocos2d: cocos2d: compiled with Profiling Support: NO
map_001_BG.pvr
map_001_BG.pvr
proess:11.0mb (4.0mb)
free:274.6mb
map_001_BG_rgb.pvr
map_001_BG_rgb.pvr
proess:15.0mb (4.0mb)
free:270.6mb
map_001_BG.jpg
map_001_BG.jpg
proess:19.1mb (4.1mb)
free:266.7mb
map_001_BG_rgb.jpg
map_001_BG_rgb.jpg
proess:23.1mb (4.0mb)
free:262.6mb
map_001_BG.png
map_001_BG.png
proess:27.1mb (4.1mb)
free:258.7mb
map_001_BG_rgb.png
map_001_BG_rgb.png
proess:31.1mb (4.0mb)
free:254.3mb
map_001_BG.pvr.ccz
map_001_BG.pvr.ccz
proess:35.1mb (4.0mb)
free:250.4mb
map_001_BG_rgb.pvr.ccz
map_001_BG_rgb.pvr.ccz
proess:39.2mb (4.0mb)
free:246.5mb
map_001_BG_rgb565.pvr
map_001_BG_rgb565.pvr
proess:41.2mb (2.0mb)
free:244.6mb
map_001_BG_rgb565.png
map_001_BG_rgb565.png
proess:45.2mb (4.0mb)
free:241.1mb
map_001_BG_rgba8888f.png
map_001_BG_rgba8888f.png
proess:47.8mb (2.6mb)
free:238.3mb
map_001_BG_rgba8888f.jpg
map_001_BG_rgba8888f.jpg
proess:49.7mb (1.9mb)
free:236.5mb
map_001_BG_rgba8888f.pvr
map_001_BG_rgba8888f.pvr
proess:52.4mb (2.7mb)
free:234.1mb
map_001_BG_rgb888f.png
map_001_BG_rgb888f.png
proess:55.1mb (2.7mb)
free:231.2mb
map_001_BG_rgb888f.jpg
map_001_BG_rgb888f.jpg
proess:57.0mb (1.9mb)
free:229.4mb
map_001_BG_rgb888f.pvr
map_001_BG_rgb888f.pvr
proess:59.0mb (2.0mb)
free:227.8mb
第二个日志是ios版本的图片加载,其他与上一个相同,可以看到速度要比windows版本的png加载快一倍,但是内存消耗更高
15:36:10.330 HelloCpp[] cocos2d: surface size: 960x640
Cocos2d: cocos2d: cocos2d-2.1beta3-x-2.1.0
Cocos2d: cocos2d: GL_VENDOR:
Imagination Technologies
Cocos2d: cocos2d: GL_RENDERER:
PowerVR SGX 535
Cocos2d: cocos2d: GL_VERSION:
OpenGL ES 2.0 IMGSGX535-63.24
Cocos2d: cocos2d: GL_MAX_TEXTURE_SIZE: 2048
Cocos2d: cocos2d: GL_MAX_TEXTURE_UNITS: 8
Cocos2d: cocos2d: GL supports PVRTC: YES
Cocos2d: cocos2d: GL supports BGRA8888 textures: NO
Cocos2d: cocos2d: GL supports NPOT textures: YES
Cocos2d: cocos2d: GL supports discard_framebuffer: YES
Cocos2d: cocos2d: GL supports shareable VAO: YES
Cocos2d: cocos2d: compiled with Profiling Support: NO
map_001_BG.pvr
map_001_BG.pvr
proess:11.0mb (4.0mb)
free:275.8mb
map_001_BG_rgb.pvr
map_001_BG_rgb.pvr
proess:15.0mb (4.0mb)
free:271.9mb
map_001_BG.jpg
map_001_BG.jpg
proess:19.3mb (4.3mb)
free:267.6mb
map_001_BG_rgb.jpg
map_001_BG_rgb.jpg
proess:23.5mb (4.2mb)
free:263.8mb
map_001_BG.png
map_001_BG.png
proess:28.7mb (5.3mb)
free:258.7mb
map_001_BG_rgb.png
map_001_BG_rgb.png
proess:34.0mb (5.3mb)
free:253.6mb
map_001_BG.pvr.ccz
map_001_BG.pvr.ccz
proess:38.0mb (4.0mb)
free:249.6mb
map_001_BG_rgb.pvr.ccz
map_001_BG_rgb.pvr.ccz
proess:42.0mb (4.0mb)
free:245.2mb
map_001_BG_rgb565.pvr
map_001_BG_rgb565.pvr
proess:44.0mb (2.0mb)
free:243.2mb
map_001_BG_rgb565.png
map_001_BG_rgb565.png
proess:48.9mb (4.9mb)
free:238.2mb
map_001_BG_rgba8888f.png
map_001_BG_rgba8888f.png
proess:52.8mb (3.9mb)
free:234.2mb
map_001_BG_rgba8888f.jpg
map_001_BG_rgba8888f.jpg
proess:55.7mb (2.9mb)
free:231.7mb
map_001_BG_rgba8888f.pvr
map_001_BG_rgba8888f.pvr
proess:58.3mb (2.7mb)
free:228.8mb
map_001_BG_rgb888f.png
map_001_BG_rgb888f.png
proess:62.2mb (3.9mb)
free:225.3mb
map_001_BG_rgb888f.jpg
map_001_BG_rgb888f.jpg
proess:65.1mb (2.9mb)
free:222.7mb
map_001_BG_rgb888f.pvr
map_001_BG_rgb888f.pvr
proess:67.0mb (1.9mb)
free:220.7mb
ROS施用笔记本自带USB摄像头运行pi_face_tracker,进行人脸识别
ROS使用笔记本自带USB摄像头运行pi_face_tracker,进行人脸识别人脸识别在机器人应用当中算是一个热门的应用,在网上找了一些Haar算法的例子,在opencv下面跑都能正常识别,打算在ros中也跑一跑,在网上找了一下,找到了pi_face_tracker这个例子,它是Pi robot里的一个应用,Pi robot是以TurtleBot为基础做的一个带机器手的移动机器人,很适合我这种机器人爱好者(网站http://www.pirobot.org/)。
例子里提示可以安装uvc_cam或者kinect两种视频设备
安装uvc_cam package
$ git clone /ericperko/uvc_cam.git
$ rosdep install uvc_cam
$ rosmake uvc_cam
$ svn co http://pi-robot-ros-/svn/trunk/pi_vision
4 rosdep install pi_vision
$ rosmake pi_vision
装完以后运行
$ roslaunch ros2opencv uvc_cam.launch
提示报错,说没有找到设备,我机器上没有安装uvc_cam,只有自带的USB摄像头,所以就只能用自带的摄像头了。重新在网上搜了一下,发现在ros里面驱动USB摄像头需要另外安装usb_cam的包,所以重新装了一下过程如下(http://pharos.ece.utexas.edu/wiki/index.php/How_to_Use_a_Webcam_in_ROS_with_the_usb_cam_Package)。
$ sudo apt-get install ros-electric-bosch-drivers
$ svn co https://bosch-ros-pkg.svn.sourceforge.net/svnroot/bosch-ros-pkg/trunk/stacks/bosch_drivers
$ rospack profile
$ roscd usb_cam
$ rosmake --rosdep-install
安装完成后,测试是否驱动
新开一个窗口,编辑usb_cam-test.launch,内容如下:
&node name="usb_cam" pkg="usb_cam" type="usb_cam_node" output="screen" &
&param name="video_device" value="/dev/video0" /&
&param name="image_width" value="640" /&
&param name="image_height" value="480" /&
&param name="pixel_format" value="mjpeg" /&
&param name="camera_frame_id" value="usb_cam" /&
&param name="io_method" value="mmap"/&
&node name="image_view" pkg="image_view" type="image_view" respawn="false" output="screen"&
&remap from="image" to="/usb_cam/image_raw"/&
&param name="autosize" value="true" /&
保存以后,运行
$ roslaunch usb_cam-test.launch
结果报错,发现是pixel_format的值不对,需要修改为yuyv
再次运行,就可以显示图像了。接下将usb摄像头作为输入到人脸识别人的uvc_cam.launch中,需要做如下修改
1、修改usb_cam-test.launch,删除"image_view" 这个节点。
2、修改face_tracker_uvc_cam.launch文件,修改&remap from="input_rgb_image" to="/camera/image_raw" /&这一句为&remap from="input_rgb_image" to="/usb_cam/image_raw" /&
3、运行roslaunch uvc_cam-test.launch
4、运行roslaunch pi_face_tracker face_tracker_uvc_cam.launch
好了,你可以看到你摄像头里的头像,你的脸被识别出来了。
第二种方法是用kinect作为输入设备。
这个比较简单,接好kinect 设备后,按步骤就可以完成。
$ roslaunch ros2opencv openni_node.launch
$ roslaunch pi_face_tracker face_tracker_kinect.launch
如果您想提高自己的技术水平,欢迎加入本站官方1号QQ群:&&,&&2号QQ群:,在群里结识技术精英和交流技术^_^
本站联系邮箱:

我要回帖

更多关于 arcmap 栅格计算器 的文章

 

随机推荐