21岁的江苏女子李某月,独自前往西双版纳遭遇不测,真相却是男友与他人合谋所为,将其诱骗至深山老林……案发之后,李爸无助地说:“只希望法律公正地判决!”李某月失联的这段时间里,牵动着网友们的心,很多人希望李某月能平安归来,只是一时赌气想图个安静。但噩耗传来,又一个似花似玉的女大学生就这样走了,让人又气愤又惋惜,她怎么会遭到男友的毒手,又怎么会看上社会的闲散人员?更令人难以置信的是,两人是在地铁邂逅的... https://t.cn/A6UME91W
华为开发者大会在即,聊一下AI。
AI被翻译成人工智能。也就是说,把智能赋予一个不智能的东西。
我们来举个例子,比如说车座是不智能的,驾校教你绕车一周后,上车就要调整座椅。
那么你想赋予椅座智能,你可以加上一组简单的控制器件,然后把座椅模式在汽车中控里存成不同驾驶员的设置。这样你是A驾驶员,上车调一下A的座椅模式,座椅就能自动调整到你上次的设置状态。
这样足够智能了吗?还是不够。因为要你动手。那么如果连在HUD上的驾驶员监测系统,能把信号传到汽车CA上进行人脸识别,嗯,汽车识别出了驾驶员,那么很快就会调整到设置模式。
以上三种状态,第一种是零AI,要人类自己动手。第二种是智能辅助,人类给出指令,设备响应。第三种才是智能化,在你发现需求之前,需求已经被满足。请记住这三个状态,后面有用。
在前几年,语音识别技术被视为AI的代名词,因为这个事情能为大多数人所理解,且投产的产品都很廉价,所以普及比较快。但实际上,很多连自然语言的理解都达不到基础要求。
语音识别类,如果我们从上面的三种状态来看,还是第二种,是必须人类给出指令,设备才响应的。这在很多场景是不适用的。
看官可能不服,我来举个例子。你在一个趴体看上了一个姑娘,你能大声喊:姑娘姑娘(唤醒词),你有没有看上我啊?不能这么喊吧?那你怎么知道她有没有看上你呢对一下眼神不就知道了吗?所以,AI的高阶入口不是语音,而是AI镜头。
大家可能对AI镜头不理解。没关系,我们从手机开始理解。比方说,我们好几年前做手机,断定home键是要没掉的。所以会有两条路线,一条是屏下指纹,一条是人脸。屏下不聊哈今天。人脸这个,从3D到TOF,其演化的结果是,就是当你的手机前置摄像头对着一张脸,手机就会进入识别状态。比照前面的三个阶段,人类把脸给镜头,镜头开始识别,这是第二阶段。
那么第三阶段是什么样的呢?海淀区政务有这么一个方案。窗口工作人员早上上班,进入办公区时,工作台上的电脑会自动启动。看官要抬杠,说那他要先开会,不就白开电脑了吗?难不倒,引入一个工作日程即可,甚至可以是整个办事机构的甘特图。
那么这种第三阶段的东西,可以哪哪都能用吗?
当然可以,首先你要完成信息化基础建设。企业要上云,不管你是上阿里云,还是上华为云。不管你是用X86还是用鲲鹏,总之你要先上云。
然后端侧的所有设备,都要连进系统,新产生的数据,要和历史数据结合,进行大数据处理,得到一个预处理结果。能够识别处理的,在系统中通过AI推理识别来处理。不能处理的,提交到AI训练平台上人工处理。人工处理的训练结果,存储到边缘云中,边缘侧便不断地升级AI处理能力。
这么说很绕,来个例子。
比如你小区门口的摄像头,之前是连到中控,由一个瞌睡保安看的。
那么现在我给你上云,有昇腾AI集群来处理。昇腾AI本身部署在全国各地的小区,能识别绝大多数的情况。有异常再叫人工处理。这就上升到第二种状态了。
那么现在要疾控了,要多一个是否戴口罩的识别。那么就要人工训练一下,那些是戴口罩,哪些是不戴口罩的。然后摄像头就能识别了。
再进一步,要出入证了。那出入资格能不能人脸识别呢?戴着口罩能不能人脸识别呢?好,有这个算法了,但这个算法更新到哪里呢?在云上吗?不是的,在边缘云即可。这就到第三种状态了。
你看,一个瞌睡保安的工作,最后变成了一个AI摄像头的工作。
所以我前面说了,在人机交互上,语音不是终极AI,机器视觉才是。机器视觉的终极状态是,机器能明白人在看什么,能“对眼神”。
而机器视觉,也只是昇腾AI这种平台的应用之一而已。
昇腾这种平台,是鲲鹏向全商业场景的有机延伸。有一个教授,用昇腾AI平台做了荒漠化场景的自动植树机。机器可以自己去探测沙土湿度看是否适合种植,然后自己挖坑,种树,按照湿度条件去浇水,可以日以继夜地工作。
类似这样的应用不计其数,在华为开发者大会上,会看到更多。
所以,鲲鹏是工业原料生产,昇腾AI是基于这些原料的产品研发和生产。 计算是一个全新的智能化产业生态。
AI被翻译成人工智能。也就是说,把智能赋予一个不智能的东西。
我们来举个例子,比如说车座是不智能的,驾校教你绕车一周后,上车就要调整座椅。
那么你想赋予椅座智能,你可以加上一组简单的控制器件,然后把座椅模式在汽车中控里存成不同驾驶员的设置。这样你是A驾驶员,上车调一下A的座椅模式,座椅就能自动调整到你上次的设置状态。
这样足够智能了吗?还是不够。因为要你动手。那么如果连在HUD上的驾驶员监测系统,能把信号传到汽车CA上进行人脸识别,嗯,汽车识别出了驾驶员,那么很快就会调整到设置模式。
以上三种状态,第一种是零AI,要人类自己动手。第二种是智能辅助,人类给出指令,设备响应。第三种才是智能化,在你发现需求之前,需求已经被满足。请记住这三个状态,后面有用。
在前几年,语音识别技术被视为AI的代名词,因为这个事情能为大多数人所理解,且投产的产品都很廉价,所以普及比较快。但实际上,很多连自然语言的理解都达不到基础要求。
语音识别类,如果我们从上面的三种状态来看,还是第二种,是必须人类给出指令,设备才响应的。这在很多场景是不适用的。
看官可能不服,我来举个例子。你在一个趴体看上了一个姑娘,你能大声喊:姑娘姑娘(唤醒词),你有没有看上我啊?不能这么喊吧?那你怎么知道她有没有看上你呢对一下眼神不就知道了吗?所以,AI的高阶入口不是语音,而是AI镜头。
大家可能对AI镜头不理解。没关系,我们从手机开始理解。比方说,我们好几年前做手机,断定home键是要没掉的。所以会有两条路线,一条是屏下指纹,一条是人脸。屏下不聊哈今天。人脸这个,从3D到TOF,其演化的结果是,就是当你的手机前置摄像头对着一张脸,手机就会进入识别状态。比照前面的三个阶段,人类把脸给镜头,镜头开始识别,这是第二阶段。
那么第三阶段是什么样的呢?海淀区政务有这么一个方案。窗口工作人员早上上班,进入办公区时,工作台上的电脑会自动启动。看官要抬杠,说那他要先开会,不就白开电脑了吗?难不倒,引入一个工作日程即可,甚至可以是整个办事机构的甘特图。
那么这种第三阶段的东西,可以哪哪都能用吗?
当然可以,首先你要完成信息化基础建设。企业要上云,不管你是上阿里云,还是上华为云。不管你是用X86还是用鲲鹏,总之你要先上云。
然后端侧的所有设备,都要连进系统,新产生的数据,要和历史数据结合,进行大数据处理,得到一个预处理结果。能够识别处理的,在系统中通过AI推理识别来处理。不能处理的,提交到AI训练平台上人工处理。人工处理的训练结果,存储到边缘云中,边缘侧便不断地升级AI处理能力。
这么说很绕,来个例子。
比如你小区门口的摄像头,之前是连到中控,由一个瞌睡保安看的。
那么现在我给你上云,有昇腾AI集群来处理。昇腾AI本身部署在全国各地的小区,能识别绝大多数的情况。有异常再叫人工处理。这就上升到第二种状态了。
那么现在要疾控了,要多一个是否戴口罩的识别。那么就要人工训练一下,那些是戴口罩,哪些是不戴口罩的。然后摄像头就能识别了。
再进一步,要出入证了。那出入资格能不能人脸识别呢?戴着口罩能不能人脸识别呢?好,有这个算法了,但这个算法更新到哪里呢?在云上吗?不是的,在边缘云即可。这就到第三种状态了。
你看,一个瞌睡保安的工作,最后变成了一个AI摄像头的工作。
所以我前面说了,在人机交互上,语音不是终极AI,机器视觉才是。机器视觉的终极状态是,机器能明白人在看什么,能“对眼神”。
而机器视觉,也只是昇腾AI这种平台的应用之一而已。
昇腾这种平台,是鲲鹏向全商业场景的有机延伸。有一个教授,用昇腾AI平台做了荒漠化场景的自动植树机。机器可以自己去探测沙土湿度看是否适合种植,然后自己挖坑,种树,按照湿度条件去浇水,可以日以继夜地工作。
类似这样的应用不计其数,在华为开发者大会上,会看到更多。
所以,鲲鹏是工业原料生产,昇腾AI是基于这些原料的产品研发和生产。 计算是一个全新的智能化产业生态。
1、一件件我以前根本不会看的款式,一件件在飞人身上显得这样的好看(保持理智我穿不会好看的有些款!
2、现在是:【本来觉得还行结果因为恼怒(也不是)自己老画这么单一的图想再画的好点结果画出了满意的草稿现在返回去看上一张图就真的很单一导致至今不好意思回复评论以防止图在超话中被顶上去】 的这种心理。
感谢大家我又在脑内回复过了(被揍
等我爬起床继续画完,谢天谢地周末又到了赶完作业又有空摸鱼了(没赶完
2、现在是:【本来觉得还行结果因为恼怒(也不是)自己老画这么单一的图想再画的好点结果画出了满意的草稿现在返回去看上一张图就真的很单一导致至今不好意思回复评论以防止图在超话中被顶上去】 的这种心理。
感谢大家我又在脑内回复过了(被揍
等我爬起床继续画完,谢天谢地周末又到了赶完作业又有空摸鱼了(没赶完
✋热门推荐