如何添加谷歌账户户出现这玩意什么意思

谷歌网络账户登录失败请检查网路设置是什么意思
谷歌网络账户登录失败,请检查网路设置是什么意思,怎么办啊?
09-12-05 &匿名提问
一般是系统问题,你从装下系统就行,我以前也出现过那样情况.
请登录后再发表评论!Google Glass 使用了哪种显示技术?具体是怎么实现的?
Google Glass 很酷,但是它是如何显示的呢?看起来和一般的 HUD (Head-up display) 技术很不一样。HUD 是利用光學反射的原理,將重要的飛行相關資訊投射在一片玻璃上面。這片玻璃位於座艙前端,文字和影像被投射在鍍膜鏡片(析光鏡)並平衡反射進飛行員的眼睛。飛行員透過 HUD 往前方看的時候,能夠輕易的將外界的景象與 HUD 顯示的資料融合在一起。()A typical HMD (Head-mounted display) has either one or two small displays with lenses and semi-transparent mirrors embedded in a helmet, eye-glasses (also known as data glasses) or visor. The display units are miniaturised and may include CRT, LCDs, Liquid crystal on silicon (LCos), or OLED. Some vendors employ multiple micro-displays to increase total resolution and field of view. (Via )
按投票排序
--------日更新国外高富帅拆机,和更新3D图--------文章首发于zhihu,作者谢煜(xyxygood at gmail dot com),转载请注明基本上这篇文章[1](谢谢
)可以证实所有的东西了,当然还有很多硬件方面的,英文好的同学直接看原文,海量原汁原味信息(不得不感叹老外拆机的专业配置,而且给的图是原始分辨率!),否则看国内转载[2][3](谢谢)。先放一个最终拆解的图之前我没怎么注意到Glass镜片上有个缺口,原来是脸部传感器(眼部传感器还更贴切,负责识别“眨眼”命令)用的,文章里面说虽然Glass目前不支持近视眼镜,但是本着实证精神,老外还是拆下来后绑在近视眼镜上试了下,Glass可以正常工作,但因为脸部传感器(应该是受到镜片直接反射LED 发出的红外光造成的干扰)工作非常不稳定。所以这和之前的分析一致,其实不是本身Glass显示不支持近视,实际上原理上是支持的,而是为了照顾脸部传感器正常工作而不支持,当然如果支持最好肯定是Glass除去镜架单独出售,随便你怎么整。因为近视的人要看清楚Glass投射的图像,肯定需要有近视眼镜,所以可能的妥协就是:1) 眼镜片上传感器区域,镀对应红外波长的增透膜,把反射减小到百分之一以下,应该干扰就可以解决了。人眼可看做一个球体,传感器应该是探测刚好正对着探测器反射的光线在眨眼时的强度上升下降沿得到眨眼动作的(你是说,小眼睛不容易探测到眨眼?),镜片反射干扰小了,应该可以稳定工作了吧。当然这样的话,要么是各位把自己的近视眼镜给Google镀膜,作为购买Glass的可选服务。或者就再配一幅Google 近视Glass;2) 用户换成隐形眼镜, 查不到证实的信息,不过应该可以。对于戴眼镜更好看的同学来说,自己取舍哈;3) Glass提供眨眼命令的设置,可以替换成别的动作,比如点头、摇头(支持20连击!)或者其它的,这样就不存在被传感器被干扰的问题了,但眨眼这个轻便隐蔽的特性也就没了;4) 传感器移动到无论近视与否都没有镜片的地方,但保持可以探测眨眼的能力(当然更难了),或许通过现在的方案或者其它方案,比如探测眨眼相关的肌肉动作什么的。。。。。。之前的分析对于RGB LED的导光没分析对,其实是用类似于液晶背光的网点导光板,当时应该想到的,这么通用的东西。更新了3D模型,LED紧接着网点导光板LD,需要注意的是导光板出射的光线是垂直于其表面的,这样才可以在光线方向上很薄:下图这个角度看到网点导光板DF和反射镜RF,把漏到另外一面的光线再反射回来,提高利用效率,增加续航。这玩意很耗电的。手机屏幕亮度降低-&续航增加。另外画了个F字母来让大家更明白这个反射投射的几何逻辑。好了,搞定。这个投影的原理很清楚了。下图这个角度看到网点导光板DF和反射镜RF,把漏到另外一面的光线再反射回来,提高利用效率,增加续航。这玩意很耗电的。手机屏幕亮度降低-&续航增加。另外画了个F字母来让大家更明白这个反射投射的几何逻辑。好了,搞定。这个投影的原理很清楚了。从工程的角度来讲,真的很佩服这样的设计,虽然说我们从现在来看已有方案,觉得很多东西也很自然啊,没有特别难的啊,就应该是这样的嘛,但是时间退回去一年两年或者几年,刚开始做的时候(可以参照之前的答案有以前版本的原型),肯定不知道怎么做甚至可能连做成什么样都不是很清楚(这个答案经历了约两个半月到现在这个程度),而且很难知道Glass最后会是这样子的。体积这么小,功能这么好。但一旦开始去做Glass,随着时间推进,可能的方案的解集就会逐渐收敛到目前的方案(或几个较好的方案),中间我觉得最重要的是在一定的判据下,快速不断的迭代得到更优的原型和产品(反正砸的起钱么)。Google很多产品都是靠快速迭代赶上/超越对手的,Chrome,android,等等。火云邪神:“天下武功,唯快不破”。如果大家起点差不多,造成最后结果差别的,就是上升的斜率。
The END参考参考[1] [2] [3] -------日更新国外拆机和硬件分析,和完整3D图-------关于Google Glass(GG) 的消息持续在产生中。软硬件都有,我们一起来看下。因为开发者已经陆陆续续拿到机器,就有更深入的信息了。先放出基本的硬件配置&[1][2][3][4][5],很多地方都有这些信息呢,CPU: TI OMAP4430RAM: 682 MB显示分辨率: 640 * 360内部存储: 16 GB传感器:Invensense MPU9150,包含: Invensense MPU6050 三轴陀螺仪+三轴加速度计 和 Asahi Kasei AKM8975 三轴地磁探测器(罗盘); 脸部接近传感器 LiteON LTR-506ALS另外,GG有外部控制器通过I2C和CPU通信,可以实现“眨眼”命令,而且支持最多20次眨眼(壮哉我大google支持20连击!)!原文作者说“Looks like someone didn't learn their lesson with triple and quadruple mouse-clicks designs.”看起来他们没用吸取鼠标三击和四击的教训。哈哈。这个功能也可以拿来做驾驶员疲劳瞌睡探测。软件上[6],explorer(XE)版本的XE5版的软件包含更多的命令,如,说出take a note则会记下语音/文字转语音的笔记,这个功能挺实用。read aloud大声读出。还有多语言支持。会不会正式开卖的时候就直接支持几十国语言呢。然后我们看看Bill Detwiler(cnet和techrepublic)的拆机&[1][5](特别关注的童鞋可能看过了。。。). 这哥们拿到GG后就想跟大家分享里面的配置了,但是XE版的GG不容易拆解/更换零件。最后这哥们也没有完全拆解开(提前剧透。。。。),但我们还是可以获得一定有价值的信息。他打开外壳之后,可以看到棱镜,摄像头模组,转轴,写了数字的应该是柔性连接线。我最想知道的投影系统仍然没有看到,Bill说不能冒(破坏GG的)险来打开更多的部分,刚好这就是我最想看到的,就在二维码里面的狭小空间内。不过看不到,我们仍然可以分析得到一个接近实际的还原。从上面更真切的看,摄像头很小呢,为了防尘和照顾整体形状前面做了个窗口。跟预想不一样的是摄像头如此小,使得背部还有2-3mm空间可以用,摄像头的PCB后面垫着绝缘垫,标志着摄像头到此为止后面就不是了。可能是单纯的机械支撑。看到打孔那里,向右上方延伸的零件看起来是一个整体。摄像头装配的时候应该是从侧面也就是左下方滑进去的,然后点胶粘住(摄像头和支撑零件连接地方一片8字形亮的图像就是粘胶的反光)。从上面更真切的看,摄像头很小呢,为了防尘和照顾整体形状前面做了个窗口。跟预想不一样的是摄像头如此小,使得背部还有2-3mm空间可以用,摄像头的PCB后面垫着绝缘垫,标志着摄像头到此为止后面就不是了。可能是单纯的机械支撑。看到打孔那里,向右上方延伸的零件看起来是一个整体。摄像头装配的时候应该是从侧面也就是左下方滑进去的,然后点胶粘住(摄像头和支撑零件连接地方一片8字形亮的图像就是粘胶的反光)。翻过来可以看到连接线,从左下角眼镜架上面过来,分成几路(见上图有数字的连接线往左边进入眼镜架),包括脸部接近传感器(rear-facing sensor(RFS) )金色的部分,摄像头连接,显示器连接,LED连接脸部接近传感器特写,下面是发送上面是接受,探测人脸距离。其后两个金属色的是显示器连接(左,它的左边还有个PCB)和摄像头连接(右,连接里面有深黄色的柔性PCB,手机摄像头典型的连接方式),LED的连接在第一个图中找,正面,靠近棱镜的地方,有一块金属色的其后有黑色垫子的那块,我想是因为直接靠着外壳所以需要垫子,显示器摄像头不直接接触外壳。下面这个看到脸部接近传感器的连接是从上面走的。这几个连接像是手掌一样握住整个部分,也是常用的方式,先把里面装配好之后,该插上的插上就可以了。电子产业进化很快的真的是。注意显示器连接的那块PCB和对应前面的位置那个LED连线(参考到第一个图),我认为应该他们是面对面的,中间有个分光镜(可参考以前的答案)脸部接近传感器在没有拆掉外壳的样子。脸部接近传感器在没有拆掉外壳的样子。这个图可以看到棱镜的尺寸大于后端零件尺寸,零件不是含着棱镜的,而是棱镜端面粘在零件上的。这个图可以看到棱镜的尺寸大于后端零件尺寸,零件不是含着棱镜的,而是棱镜端面粘在零件上的。好了,下面是独家放送:根据以上的信息,我重建了一个3D模型,包含了上面看得到的主要部件,如图。蓝色是连接线,红色是转轴,灰色是镜架,其余的都有文字标注了哈。参照以前的答案就可以看懂啦。嗯。除了绿色部分内部结构还没得到证实,其它基本上都证实了。好了,下面是独家放送:根据以上的信息,我重建了一个3D模型,包含了上面看得到的主要部件,如图。蓝色是连接线,红色是转轴,灰色是镜架,其余的都有文字标注了哈。参照以前的答案就可以看懂啦。嗯。除了绿色部分内部结构还没得到证实,其它基本上都证实了。好吧技术分析就到这先,等着不差钱的高富帅拆开里面看投影系统吧。好吧技术分析就到这先,等着不差钱的高富帅拆开里面看投影系统吧。加一个图[7],可以看到画面中间是时间8:05,旁边其实不是完全黑的,不是不想做到,而是因为显示器件的透光比不够高,做不到完全隔断光线,所以显示器件的工作区域总是有点光漏出来。形成人眼中半透明的背景。就像。。。。。就像下面这个图[8] 的显示效果那样,用相机透过GG的棱镜拍照,这就是看到的。就像下面这个图[8] 的显示效果那样,用相机透过GG的棱镜拍照,这就是看到的。好吧,再加一(ji)个(ge)图(tu),老外Pundit Proves戴着GG去洗澡,证明其是防水的好吧,再加一(ji)个(ge)图(tu),老外Pundit Proves戴着GG去洗澡,证明其是防水的老外强力吐槽! 佩戴一个月以后的样子[10],和一个新词, glasshole[11], A person who constantly talks to their Google Glass, ignoring the outside world. 其实戴多了也不会这样的啦, 人又不是变色龙两只眼睛可以分开看东西. 要斜两个都斜嘛.老外强力吐槽! 佩戴一个月以后的样子[10],和一个新词, glasshole[11], A person who constantly talks to their Google Glass, ignoring the outside world. 其实戴多了也不会这样的啦, 人又不是变色龙两只眼睛可以分开看东西. 要斜两个都斜嘛.最后最后放一个图[13], 一个澳大利亚的geek因为拿不到GG,就自己做了一个,叫做Flass(说是"fake" and "glass."哈哈),用一个三星i9000,带TVout功能,一个蓝牙键盘和蓝牙耳机,显示器是用的Vuzix Smartglass M100, 大部分工作已经完成了其实。只是改变了图像来源。帖子可以进去看看。最后最后放一个图[13], 一个澳大利亚的geek因为拿不到GG,就自己做了一个,叫做Flass(说是"fake" and "glass."哈哈),用一个三星i9000,带TVout功能,一个蓝牙键盘和蓝牙耳机,显示器是用的Vuzix Smartglass M100, 大部分工作已经完成了其实。只是改变了图像来源。帖子可以进去看看。好吧,其实已经写完了,检查的时候,看着上面8:05的那个图,想,能不能根据图算出显示器尺寸,再根据尺寸找到显示器型号呢。google了下,很快就找到答案了哈哈哈哈哈哈哈哈哈哈哈哈哈我仰天长笑~~~谜底揭晓!!!!!Google Glass用的是Himax的Color Sequential LCOS显示器,型号HX7309[15],分辨率640x360 ,RGB彩色,显示区尺寸4.8*2.7毫米,下图是典型工作图,由于本身不带CF,所以需要用RGB全彩LED,这个推论可以用最上面第三个图佐证,看到LED的连接线的阴影,如果是白色LED只需要两根线,这里居然有4~5跟线,和RGB需要的最少4根线(共阴极)一致, 也同时解释了8:05下面的那个图可以是由于曝光时间较短比如1/200秒,当时只显示R通道的图像造成看起来是红色的。根据这个结构,我修改了下原来的3D图(不知道是这个型号情况下,显示器尺寸原来是画成4.95 mm,偏差约3%!)。然后。。。。得到下面的图,显示的工作方式是在一个刷新周期内,GG将一个周期分成3个子周期,分别对应RGB(或者是RGBRGB,RRGGBB,RRGGBBGG?官网给出的[15]),每次同时点亮该颜色LED和送入该颜色的图像。形成时间序列的图像叠加在一起看到彩色,同时也产生运动中的RGB分离。光线从LED发出后,因为RGB的LED需要3个芯片,位置不一样,所以可能会需要一个DiFfuser来平滑光线达到均匀的出射. 然后经过PBS, 一般的PBS透过方向是水平方向偏振光&--&,就透过去一半的光线,达到LCoS上,偏振方向根据单个通道的灰度值扭曲至给定方向,反射回去到PBS,在分光面产生反射,反射的时候只有部分反射光被反射,取决于反射光偏振方向,一般的,出射时还经过一个POlarizer偏振片, 消除第一次偏振分光的反射光造成的不好影响. 然后出射到棱镜的入射面,然后到达最左端曲面反射面,到达BS2,往下出射,进入人眼,看到影像.
由于视觉暂留,不同时间的不同颜色图像叠加在一起形成彩色图像。得到下面的图,显示的工作方式是在一个刷新周期内,GG将一个周期分成3个子周期,分别对应RGB(或者是RGBRGB,RRGGBB,RRGGBBGG?官网给出的[15]),每次同时点亮该颜色LED和送入该颜色的图像。形成时间序列的图像叠加在一起看到彩色,同时也产生运动中的RGB分离。光线从LED发出后,因为RGB的LED需要3个芯片,位置不一样,所以可能会需要一个DiFfuser来平滑光线达到均匀的出射. 然后经过PBS, 一般的PBS透过方向是水平方向偏振光&--&,就透过去一半的光线,达到LCoS上,偏振方向根据单个通道的灰度值扭曲至给定方向,反射回去到PBS,在分光面产生反射,反射的时候只有部分反射光被反射,取决于反射光偏振方向,一般的,出射时还经过一个POlarizer偏振片, 消除第一次偏振分光的反射光造成的不好影响. 然后出射到棱镜的入射面,然后到达最左端曲面反射面,到达BS2,往下出射,进入人眼,看到影像.
由于视觉暂留,不同时间的不同颜色图像叠加在一起形成彩色图像。解答下为啥没有小镜头在PBS和Prism之间, 正如我刚刚所说,用上面那个8:05参考[7]的那个图,可以计算出显示的图像大小,把图保存后,旋转到水平,框选住整个棱镜高度169像素,框选住显示的图像边缘高度40像素,棱镜高度11.4 mm,简单一个比例一算40/169*11.4= 2.6982 mm,标称值2.7!如果假设这样测测量误差是1个像素(边缘不好框,加之还存在物距造成的放大率偏差),计算出来的尺寸区间是2.1,包含了2.7的标称值,所以可以认为是没有放大或缩小,看到的就是LCoS显示器投影出来的光。而如果有镜头的话,不会是尺寸不变的,而且不仅是左右颠倒,还要加上旋转180度(这点以前怎么没想到)。所以,里面是没有小投影镜头的。到了这里,终于比较完整的交叉验证推论得到题主所问的问题的答案。我也在回答过程中学到很多,俗话说,自己会不算真的会,把别人教会才是真的会。所以,谢谢题主!写到最后那种条条线索一致的串成一张网的时候,心理那个舒坦啊。后面高富帅完全拆机的话,再来验证![1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] ------------日20:00:19 更新,稍微扩展了该问题------------ok,就在今天,刚好看到了Google给开发者的讲座视频#[1],Timothy Jordan主讲,关于Glass的功能和api之类的。有些新的信息可以补充。包括功能,操控方式,编程方式等他将一个Glass 连接了一个数据线可以传图像到电脑到投影仪(演示用,一般不可以). 一开始,先说,佩戴上Glass之后它在我们视线上方,因为不想挡住视线,如果这个是设计时候就提出的,就决定了Glass的投影图像只能位于视野上方,------我的分析分割线-----我补充下面的几个图(眼睛的图参考了#[2]),第一个3D透视图,然后是侧视图,然后是前视图,还有镜头工作原理图,分别为1/2/3/4,这些图可以用后面Sergey Brin的戴着GG的图片交叉验证为什么图像看起来在下方。而拍照时候他是正对着我们的。这里面和后面的图稍微不一样的是(大红是显示屏,蓝色四方形是光导,灰色方体是LED,偏白色的是反射镜,绿色(图3)是分光镜,蓝色是投影镜头,大的绿色立方体当然就是棱镜了,棱镜里面还有个红色的分光面和端面的镀膜反射面,紫色的是光线路径),由于需要不挡住人眼,就需要把显示屏的中心和投影镜头的中心偏离(详见图4#[3]),相当于只用上半部的镜头视场,这样光线出射镜头之后就会朝下传播,射出镜头后就是棱镜反射了会保持朝下的方向(速度是矢量),分光之后我们就看到如照片里面的,亮的像是在棱镜下部而不是中上。然后进入眼睛的光线会成像在视网膜下部,不要忘了,大脑理解人眼的感受图像是上下左右颠倒的#[4]。然后我们就看到图像是在视野上方了,至于右方,跟这个类似,只需要光线是左右斜着入射到眼睛的就行了(这里没有画,举一反三即可),还有这里镀膜反射面画成平的,因为这里要说明的只是斜入射。其它就简化了。另外,LED经过反光镜再到分光镜的这个结构,由于显示屏的离轴放置,变得可以继承在显示屏旁边进一步缩小体积。这也是为什么最下面的最近的GG产品体积如此之小,而更新答案中的原型都不同程度的存在器件突出棱镜的情况。当然,也可能使用投射型显示屏,光源就在显示屏左边了。考虑到现在的显示屏的体积,这个方案也是非常可能的。确定这两者之一需要数量分析了。这里定性分析已经不够精确。上图可以示意的看半边投影镜头的用法,屏幕在最左边,出射在右边,红色和蓝色光线分别为显示器件的上边缘和下边缘。就可以得到朝下的光线,GG的上图可以示意的看半边投影镜头的用法,屏幕在最左边,出射在右边,红色和蓝色光线分别为显示器件的上边缘和下边缘。就可以得到朝下的光线,GG的实际应用中可能只有绿色和红色表示的光线,没有水平的蓝色这部分因为人眼基本上收不到。光源很宝贵不能浪费O(∩_∩)O------回到视频的分割线--------操作方式,语音,触摸手势,基本的头部运动方式:1,下图手指位置是一个触摸板,戴上之后碰一下会到GG的home 屏幕,home屏幕再下图,只有时间和“ok glass” 提示,这句提示可以语音进入到执行命令的语句里面。然后手指沿着触摸板从上往下滑就可以划掉home屏幕,就像android手机里面的back按钮2,触摸一下后激活home屏幕,可以进行语音识别,语音以ok glass开头,然后从home屏幕跳转到下面显示,给出了类似子菜单一样的命令列表,直接读出选择的哪一项,就可以进入类似于手机中的语音识别界面,并给出答案。并且他说GG可以有语音反馈,目前不知道GG是不是云端返回数据还是可以本地识别。有个有意思的是,他在看GG中图像的时候,要保持眼睛朝右上角看过去,也就是说,图像并没有比如书本之类的容易识别,需要投入一定注意力。熟悉之后可能好了吧2,触摸一下后激活home屏幕,可以进行语音识别,语音以ok glass开头,然后从home屏幕跳转到下面显示,给出了类似子菜单一样的命令列表,直接读出选择的哪一项,就可以进入类似于手机中的语音识别界面,并给出答案。并且他说GG可以有语音反馈,目前不知道GG是不是云端返回数据还是可以本地识别。有个有意思的是,他在看GG中图像的时候,要保持眼睛朝右上角看过去,也就是说,图像并没有比如书本之类的容易识别,需要投入一定注意力。熟悉之后可能好了吧3,戴着GG朝上看比如3,戴着GG朝上看比如45度同样会激活home屏幕,这次他选拍照,然后就停在下图姿势3秒钟,然后就看到图了。拍照之后图片停1秒后消失,可以唤醒屏幕后朝前滑动触摸板查看刚刚的照片,比较有意思的是,看的时候,如果你做了一个点头的动作,比如遇见了一个人,点头致意,然后照片就会消失。如果在查看照片的时候单触(单次触摸触摸板,下同),弹出卡片选项,当然,sns当道的今天,share当然是第一个选项啦。这时候前后滑(在触摸板上前后滑,下同)可以浏览选项。单触选择选项,share默认当然是Google+,下面有进度条。4,你在GG上面的操作,是一种timeline的操作,可以前滑查看过往的卡片,例如刚刚搜索的日语。继续滑动到home屏幕还可以往前,就进入Google now的卡片(Google真的可以把很多东西都整合)如下图,可以单触激活右上角的折叠按钮,得到更多选项,这里是3天天气预报,下滑回到原来界面。4,你在GG上面的操作,是一种timeline的操作,可以前滑查看过往的卡片,例如刚刚搜索的日语。继续滑动到home屏幕还可以往前,就进入Google now的卡片(Google真的可以把很多东西都整合)如下图,可以单触激活右上角的折叠按钮,得到更多选项,这里是3天天气预报,下滑回到原来界面。Google Mirror API,基于云的API用来开发Glass的app,下图是结构示意图(接下来若干分钟适合做软件的同学观看),Google可以同步其它你关注的用户的timeline,见图,times新闻有折叠按钮,可以展开,可见推送到Glass上面的新闻都是进行优化过的。字大,配图Oyeah,然后给了软件业最常见的hello world的代码。。。。Oyeah,然后给了软件业最常见的hello world的代码。。。。和插入图像的方法。。。。和插入图像的方法。。。。还有rich html还有rich html和多页的card显示,就是有折叠按钮的和多页的card显示,就是有折叠按钮的还有一些不一一在这里说明了。可以update,delete,自定义单触的动作,系统动作有回复,大声读出等,基本上都是和云端的互动,看来没有高速无线连接是不行的。。。。。加油啊。。。移动联通电信。。。。还有一些不一一在这里说明了。可以update,delete,自定义单触的动作,系统动作有回复,大声读出等,基本上都是和云端的互动,看来没有高速无线连接是不行的。。。。。加油啊。。。移动联通电信。。。。还有subscription订阅,这样Google才可以同步和推送信息给Glass,第三方服务也需要通过这样的流程来进入Glass然后就进入Guideline, 如下图,短互动比较好,不要过于干扰用户。Glass是及时交互的产品,聚焦在用户现在在做的事情,最新鲜的事情。时间大概是just now。还要避免意外,因为用户是戴着Glass的,容易信息过载然后进入new york times的应用,背景是每天工作中没有时间坐下来看报纸,就想Glass每次推送新闻标题和主题图片,有兴趣才进去看,如下图,ps,下图的工作场景太屌了!!!!!太屌了啊!!!!!我也想要!!!!然后单触可以大声读出,应该是不仅是标题,应该有正文。然后单触可以大声读出,应该是不仅是标题,应该有正文。实现方式是插入一个多页的timeline card,有合适的交互选项。另一个是Gmail应用,回复全部用语音识别(嗯其实现在已经做得很好了语音识别)!!!!!然后自动发送然后进入Evernote+ skitchGlass随时拍照的特性非常重要,开会的时候配合Evernote可以很方便的记录和分析,标记。过程大约是拍图之后点击share到skitch,然后Google会知道,Google通知skitch,skitch推送消息到用户手机或者平板或其它设备。用户修改后,自动同步到云端。然后是Path,可以smile或者其它动作(我没用过哈)。然后就是这次的小结,挺好的这个流程,就是演讲者语言略显拖沓,有时候长达几秒钟都没有声音。。。。。披露的信息还挺多的。--------- 日18:36:39 更新--------------好吧,今天看了下Google Glass相关的视频,发现其中的显示器件应该不是OLED,还是LCD+LED背光的方式。特更新下。声明,视频不是我拍的,我不拥有版权,如有侵权请联系。起因是看Sergey Brin在TED上的视频**[1](视频位于U2B),在某些时候他转头且摄像机比较近的时候,会看到有不同颜色的拖影,这一般不是OLED的特性因为OLED大多数可以直接集成RGB像素在一个芯片上,不同颜色的拖影,类似于DLP+色轮引起的效应,如下图**[2],同一个时刻只有一个颜色的图像,因为DLP速度比较快,不同时刻的图像叠加在一起就可以看到完整的彩色图像。但是可以通过一个方法来验证,正常位置看着投影出来的画面的时候,眼睛快速转动,比如从左到右,如果投影仪是这样的原理眼睛就会看到色彩分离,或者拿一张白纸在投影屏幕前面快速移动,眼睛跟着移动,也会看到类似现象。作为对比,可以对着液晶屏幕做相同快速眼睛转动,不会看到这个现象。类似的,3LCD的投影仪例如某些Sony的型号因为是同时混色,也是看不到的。视频截图如下,下图是他头部转动的比较快,摄像机对的比较近的时候(吐槽下TED这个视频都不上传个HD的)就看到颜色分离了。在一个曝光时间内多次对摄像机进行曝光(面部都模糊掉了),这里不同的颜色和颜色之间的暗部就对应了显示屏在不同时刻的图像,可以看到在这个光带的右部,从右数起有BRGBR....的顺序,后面可能是因为速度变化了,显示帧率和摄像机帧率的关系不能很好的拍到RGB的分离吧,基本上就可以确认是顺序RGB颜色图像来投影了。然后呢,我又找到了另外一个视频**[3],这个视频将一个哥们跟GG的设计人员沟通和介绍的。内容很详实,包括早期的prototype的图都有。很具有参考价值。其中有几个值得分析的地方,如下:然后呢,我又找到了另外一个视频**[3],这个视频将一个哥们跟GG的设计人员沟通和介绍的。内容很详实,包括早期的prototype的图都有。很具有参考价值。其中有几个值得分析的地方,如下:看到GG的棱镜的镀膜反光面,反射率非常高,基本上达到镜面反射的程度,可以清楚的看到反射的物体,这个图还不是最绝的,最绝的是下面那个图。这个图把摄影师的影子看了个真真切切啊(我把指尖附近的图放大放到左上角了),摄影师拿着相机的姿势,手,头部都可辨,另外也交叉验证了原答案中关于镀膜反射面是曲面的说法,是凸出来的所以人像看起来小。这个图把摄影师的影子看了个真真切切啊(我把指尖附近的图放大放到左上角了),摄影师拿着相机的姿势,手,头部都可辨,另外也交叉验证了原答案中关于镀膜反射面是曲面的说法,是凸出来的所以人像看起来小。下面这个图是棱镜那里的局部图,可见棱镜中间的分光面/镜和旁边的摄像头。下面这个图是棱镜那里的局部图,可见棱镜中间的分光面/镜和旁边的摄像头。然后,设计师Maj Isabelle Olsson出场(后文提到的专利的第一申请人,工业设计师,GG发布会上也有出现),拿出了早期的GG原型(芊芊玉手啊),然后。。。。。然后,设计师Maj Isabelle Olsson出场(后文提到的专利的第一申请人,工业设计师,GG发布会上也有出现),拿出了早期的GG原型(芊芊玉手啊),然后。。。。。然后她就戴上了,可以看到硕大的电路板,黄色的LCD显示连接线。当然还有美女O(∩_∩)O,然后。。。然后她就戴上了,可以看到硕大的电路板,黄色的LCD显示连接线。当然还有美女O(∩_∩)O,然后。。。镜头拉近原型机摆在桌子上,可以清晰看到电路板,电路板右侧的那个疑似摄像头的小盒子,黄色的LCD数据线,还有两根线,我认为是LED光源的线镜头拉近原型机摆在桌子上,可以清晰看到电路板,电路板右侧的那个疑似摄像头的小盒子,黄色的LCD数据线,还有两根线,我认为是LED光源的线然后可以看到对棱镜部分的特写图,这样的结构应该是类似于微型投影仪的结构,上面是LED光源,应该是白光,两根线,下面是LCD的软排线,且LCD前后应该有彩色滤光片,否则不能得到单色光来进行投影。由于中间空间还应该有5mm左右才到棱镜,几乎可以肯定中间空的有个小镜头。然后可以看到对棱镜部分的特写图,这样的结构应该是类似于微型投影仪的结构,上面是LED光源,应该是白光,两根线,下面是LCD的软排线,且LCD前后应该有彩色滤光片,否则不能得到单色光来进行投影。由于中间空间还应该有5mm左右才到棱镜,几乎可以肯定中间空的有个小镜头。然后为了找到支持,Google了下,找到一个和我有类似关注点,但是研究比我更深入的人,他的博客, 他应该是做显示行业的,一些分析也很给力,下面引用他的一些结果。大体结果和我的分析类似,但他比我更懂各个显示器件的优势和劣势,做出的推测我个人认为非常接近现实-----------下面引用Karl Guttag博客的分析**[4],英文为原作者,中文为我的说明------------Google Glass Prototype Using Color Filter LCOS......What caught my eye was that there were only two wires going to the LED illumination (in a white package — see picture above) which was indicative of a white LED. A field sequential device would have to have separate wires for each LED (or laser). To get a color display starting with a white light source, the device had to have color filters on it and so by a process of elimination, it had to be a color filter LCOS device.这里作者也是先看到了我看到的那个视频和图(几乎一样的截图),然后他知道Himax有做LCOS(Liquid crystal on silicon硅基液晶),就Google了下Himax的LCOS产品,结果,发现2010年10月香港电子展有一个图跟GG的非常类似,如上图,"the panel in the Google prototype is a perfect match",红色箭头是安装孔位置,蓝色绿色箭头是PCB上面的丝印,都符合的很好。他查到这个显示分辨率为320x240像素并用最近的GG图片做佐证。他还看到另外的文章,这个设计不同之处在于显示器方向转了90度,可见Google跟苹果一样,一款产品原型是不断改进的。可以看到下图白色LED那里是相对于棱镜更突出来的,而实际产品不是,所以可以推测下图也只是中间的一个原型(到底有多少个原型。。。。。。)。在另一篇文章里,他谈到了还有更多的更早的设计,如下图,上面是IBM在2000年(2000年。。。给跪了。。。)的专利,好吧这里的图显示不出来,请到 去看。IBM的专利设计可以通过旋钮调节对焦的远近,从18 inch到无限远。他通过和我不一样的视频,也确认了是分时分颜色投影,如下图(再次给跪了。。。。。。他说他并没有下载视频(我是下载下来MPC单帧播放找到的。。。。。),就是通过播放暂停得到的。。。。。),类似的老大在动,顺序投影,产生不同颜色的图像。他还说,不是OLED的原因是因为OLED目前的像素太大了,会造成尺寸很大,也不是DLP,类似原因,也不是LBS 激光束扫描因为不仅大,而且贵。还谈到了Himax的股价变化。有兴趣的朋友可以去他博客看看,很有意思。然后针对这种显示器件,我按照各方面的信息更细化了进入棱镜前的光路图。LED发出光线后经过光导汇聚和平均,打到分光镜上,一部分反射到LCoS显示器上,然后反射出来到Lens镜头上,然后进入棱镜,后面跟下面的分析一样了。LED和光导不一定是这个位置。好,更新完毕,基本上这个问题回答的够全面了吧。好,更新完毕,基本上这个问题回答的够全面了吧。PS:为什么很多好的产品都是从设计师开始的呢?我们做技术的是不是有时候思维太放不开了?----------- 16:57 更新----------@Fan ,(不好意思@之后没有看到你,不知道可以@到你不,希望你可以看到), 不好意思表达有点烂哈, 完整而简要的流程是:OLED显示----(很可能有的微型非球面透镜组,见下图*[1])----棱镜54的入射面----分光镜----棱镜54的镀膜反射面----分光镜----棱镜54的侧面出射面---(隐形眼镜/太阳镜,如有)----进入眼睛---聚焦到视网膜上----感受到叠加在物体上的半透明实像。你提到的自动对焦目前其实是由人眼完成,因为对不对焦只有你自己知道,而你并没有将对焦与否或对焦好坏的信号反馈回Google Glass,所以自动对焦在这个流程中逻辑在上不能实现,其实不一定在设计上就是对准无限远的,但一般是无限远,这样便于长期观看,并且避免一些来回对焦导致的安全问题,比如走路的时候看GG上面的信息,设计图像在你前方1米处,你聚精会神的看,忽然有车子朝你开来,这时候你的眼睛从对焦到前方1米到对焦到车子(比如5米),需要零点几秒(当然你不需要看清才知道躲开),40千米/小时的速度,零点几秒就可以撞到你了,万幸的是,你没看清的时候就已经开始躲,且司机不是酒驾,你逃过一劫,痛骂Google烂设计的同时下次再也不在路上用GG了。
上图一个典型的手机摄像头镜头,至少包含4个非球面,最右边是传感器,高度只有几毫米
上图一个典型的手机摄像头镜头,至少包含4个非球面,最右边是传感器,高度只有几毫米--------------下面是原答案---------------- 之前都是看的多(实际上也有个xd在zhihu上面邀请我回答关于Google Glass原理的问题,当时没时间就没回答,不好意思了),正好有时间就研究了下相关技术问题,并作出第一次认认真真的完整长篇回答,谢谢zhihu上各种好玩的人-------------------正式开始的分割线-------------
头戴显示器其实不是最近的事情了,不过Google Glass(下面简称GG)确实掀起了可穿戴电子的热潮吧,GG的设计个人觉得确实很好(技术角度),配合各种服务可以做很多事情,可以说,可能性几乎无限啊. 下面从GG的图入手结合专利文件和网上各种图来分析其结构和显示原理.
先看一张来自GG网站的截图[1],可以看到最明显的就是沿着镜框突出来的光学元件。光线的路径和各部分的作用图上已经标明。光线1由显示器件OLED发出经过棱镜的入射面(可以不是平面,在外壳之内),入射到棱镜内,然后打到分光面上,在这里,光线1分成两部分,2和3, 3当然就出射到外面了,2继续走就到了镀膜反射面,这个面可以是球面或者非球面的,2碰到镀膜反射面被分成两部分,透射光4和反射光5,透射光当然就出射出去了,反射光5继续走又回到了分光面,又被分成两部分6和7,6最终进入人眼,人眼看到图像等效在无限远,7射入回去没什么影响,这部分光线很少了。下面是这个判断的支持信息:1,为什么是OLED不是其他
最重要的是OLED的主动发光特性可以得到典型10000:1的器件对比度[2],当然还可以更高,LCD的器件对比度一般才1000:1,是结合了动态光源技术才能达到今天大家看到的多少万的对比度。这对于GG这类产品特别重要(增强现实而不是虚拟现实),因为图像是叠加在人眼看到的物体上的而不是完全阻断人眼看到的物体,如下图Sony这款虚拟现实产品[3]就完全阻断,直接虚拟一个景给你。对于GG,任何一丁点的不需要的光线进入人眼都会造成视觉干扰。大家肯定不想GG不显示有用信息的时候还看到有个矩形的虚影在眼前晃 (摔!),请参考LCD的漏光现象。当然LCD配合LED背光可以完全关断得到这样的效果,但毕竟结构比OLED复杂嘛,平白无故多了个背光进去。而且OLED响应时间快,不会出现拖影。很适合用在这里。2,一个典型的分光棱镜如下图[4],需要说明的是,只要有光学界面,就不可避免的有反射和透射。差别在于比例而已。对照前面的图1和下面Google大佬戴GG的照片,可以看到如上所说的光线3造成的前向出射光形成的像,就是棱镜前端眼睛上部看起来蓝色方形部分。3,为什么棱镜入射面可以不是平面,为什么镀膜反射面不一定是球面,为什么看到图像等效在无限远?
这是基于目镜的光学设计中“出射是平行光”和像差校正的要求。完全是平的就像镜子,不会产生汇聚作用,所以需要有曲面来完成光线折射,而产生了汇聚作用并不等于图像质量好,还需要校正主要的像差,校正像差的时候,自由度越多校正效果一般越好。所以,很可能棱镜的前入射面和镀膜反射面都不是球面的,且更有可能的是在OLED屏和棱镜之间还有一个小镜头(现在非球面手机镜头都很小的随便塞进去),如下图是富士微单的电子取景器的光路图[5],OLED发光经过透镜再经过两个球面透镜和蓝色的非球面透镜出射为平行光,等效于无限远物,对于正常人眼,这样的观察条件最放松。4,专利文件[6]部分说明如下:
50显示单元,54棱镜,32摄像头,70触摸输入和里面的主板,80电池,其余部分跟一般的眼镜区别不大。50的显示采用如LCD,CRT和OLED和一个镜头,如有必要。54棱镜可调节位置。80还有配重的作用。其中显示单元爆炸视图,64孔套入62,66用来固定52,54套入52,54棱镜形状/材料可变来达到成像要求,有接收光线面58和朝人眼的60观察面。最后,这个设计很精巧实用,很佩服。希望自己有一天也可以想到和设计出这么好的产品。另外,觉得回答好的点个赞同什么的。。。。有问题也欢迎交流。。。。参考[1] [2] 打断链接mail.co.uk/i/pix//article-DA44C-117_634x451.jpg[3][4] 打断链接/打断链接images/catalog/1006878.gif[5] 打断链接.com/x-e1/common/images/about/p02_ph03.jpg[6] US wearable device with
input and output structures--------------补充参考---------*[1] -------------再次补充参考-------**[1]**[2] 打断/ForBusiness/PresentationProducts/ProfessionalProjectors/XGPH80Series/~/media/Images/Home/ForBusiness/PresentationProducts/ProfessionalProjectors/ContentPageImages/pro_xgph80series_dlp_chip.ashx?w=532&h=193&as=1**[3] I used Google Glass
**[4] ----------再再次补充参考--------#[1] #[2] 打断ysics.phy-astr.gsu.edu/hbase/vision/eyescal.html#[3] 打断lution.co.kr/images/en-dt/Image/telecentric_LCD_Projection_lens.gif#[4]
刚在另一个问题下回答了,顺便看到这个,也过来留一句。参见我另一个问题下的回答
从专利上看,Google Glass 更可能用的是菲涅尔凹面镜 据我所知,Google Glass 目前只是一个框架,对于有视力缺陷的人而言,本来戴什么眼镜就戴什么眼镜即可,外面套上 Google Glass 就行了
根据Google Glass发布会,以及公司公布的相关消息(后面有Cite),目前使用的是抬头显视(HUD,Head-up display)技术,可惜目前出来的原型机所使用HUD,与飞机上的投影反射不同,只是一个透明的AMOLED显示器。这样有扩展数据显示在屏幕上的做法称作增强现实(AR,augmented reality)。例:下图是可应用在汽车玻璃上的透明OLED,用于代替仪表盘显示部分数据。························结论来自以下一系列来源及分析···························· 中提到,Google's glasses superimpose what's known as a head's up display (HUD) over your visual field.此消息中提及,目前还是用HUD技术。 中提到GG第一代原型机使用的是HUD替代传统的镜片。The first Project Glass demo resembles a pair of normal eyeglasses where the lens is replaced by a head-up display.Google的一项专利(美国专利商标局206338号)也显示,目前使用的是HUD,但是下一代可能会采用头戴式显示器(HMD,head mounted display)。注:HMD就是看起来跟普通眼镜一样,但是可以在整个镜片上叠加,区域更大更实用,也是当初设计的一个梦想。 中对这个专利相关也进行了分析,Creating a heads-up display (HUD) where a single
computer generated image (CGI) is superimposed over a user’s field of vision to create the effect known as augmented reality, as Google has with the first version of Glass, is impressive enough. 目前使用的是抬头显视(HUD):通过计算机生成图像(GUI),叠加在用户视野中,这样的效应成为增强现实(AR),而这样的技术已经令人觉得很牛X了,以后的改进以后再说。Update:有人提出对于近视人使用,以及远近互换的对焦常常变换的问题,Google未来的想法是通过佩戴专用的双滤镜隐形眼镜来解决。
不会是一个简单的透明显示器。我刚才用自己的手指头做了个测试,发现我的眼睛难以看清10cm之内的物体。所以,如果Google Glass (GG) 只是把一个显示器放在眼睛前面,那么我是不可能看得清它的,我相信,在那么近的距离,大多数人都看不清。所以,如果GG真的要用类似于OLED的东西做显示,那一定要在OLED的前面在放一个能起到透镜的作用的东西,这个东西最好也是平的,那样厚度就可以更小一些。什么?平的透镜?没有错,比如。我把wiki的图贴过来了,下图的1就是菲涅耳透镜,2是普通透镜。至于HUD,它是即使很近也能看得清的,因为它发出的光是平行光(中文wiki上也管HUD叫平视显示器)。简单的说就是投影仪中射出的光经过透镜的折射和显示屏的反射之后变成了平行光。在下面这个“比較舊型的平视显示器”(也来自wiki)中可以明显看到透镜的存在。但是,从Head-up display这个名字来看,新的HUD也完全可能采用其它显示技术来做,因为只要是能够实现“抬着头能看到”这个功能的显示器,都可以叫HUD。不过,不管怎样,都不是单单一个小一点的显示器或者投影仪能做成的事情。另外,考虑到那么多近视(远视)的人的存在,GG如果不能调焦,那么我们就要像配眼镜一样去配GG了,到时候大街小巷的眼镜店就要打出一个新招牌:专业配GG镜片。话说回来,在GG正式发布之前,也只能做这么点猜测而已。
根据 Google 提交的专利申请,裏面描述,那就是一块透明屏幕。跟一些古老的飞机或汽车上面的反射性 HUD 不同,Google Glass 使用的是 OLED 彩色透明屏幕:An electronic device, comprising: a frame configured to be worn on the head of a user, the frame including a bridge configured to be supported on the nose of the user, [...] wherein the bridge is adjustable for selective positioning of the brow portion relative t a generally transparent display; means for affixing the display to the frame such that display is moveable with respect to the frame through rotation about a first axis that extends parallel to the first brow portion ...透明 OLED 只具有透明的组件(基层、阳极、阴极),并且在不发光时的透明度最高可达基层透明度的 85%。当透明 OLED 显示器通电时,光线可以双向通过。透明 OLED 显示器既可采用被动矩阵,也可采用主动矩阵。过去几年有过配置这样显示屏的消费电子产品,如:Sony Ericsson Xperia PurenessLenovo S800 phoneSamsung 22-inch Transparent Showcase PanelVuzix reality Smart Glasses 猜测 Google 的合作供应商应该是 TDK,他们在 2011 年就有了量产能力。----以上图片来源:
根据已经放出来的谷歌眼镜的产品来判断,谷歌眼镜的显示技术用的是LCOS显示技术。我对谷歌眼镜这方面的专利比较有兴趣,不知道有没有同学愿意一起来研究一下他。上次跟谷歌开发者的王政聊了一下,他觉得现在谷歌眼镜的瓶颈在于那个显示器(指在美国),在大陆技术瓶颈就多了,比如,骨传感技术.,电池续航能力。等等
LOCS是通过反射外来光显示的,OLED是自发光显示的
谷歌眼镜为何用HX7309而不是像素高的HX7308,前者是640*360而后者是。难道后者不能当成第二块手机屏幕使用?
GLGLASS采用波导技术的一种—反射波导(reflective waveguide)显示技术

我要回帖

更多关于 魅族怎么添加谷歌账户 的文章

 

随机推荐