分类
未分类

芯片上的大脑:英国科学家将类人脑干细胞编织在芯片上



  新智元报道  

来源:外媒

编辑:LQ

【新智元导读】人类大脑一直给研究者提供灵感,神经形态计算就是受到人脑低功耗和快速计算的启发而出现的,但其发展受到传统电子学固有局限的阻碍,最近英国阿斯顿大学研究人员发起项目,计划通过研究复杂的人脑回路来克服目前机器学习方法的局限。


人脑一直给研究者提供灵感,神经形态计算受到人脑的低功耗和快速计算特点启发而出现,它或许会是超大规模机器和人工智能应用(如自动驾驶)未来的基石。
 
神经形态芯片的最初思想可以追溯到加州理工学院的Carver Mead 教授在1990年发表的一篇论文。


Mead在论文中提出,模拟芯片能够模仿人脑神经元和突触的活动,与模拟芯片的二进制本质不同,模拟芯片是一种输出可以变化的芯片。


但是目前,神经形态计算的发展受到传统电子学固有局限的阻碍。
 
最近,由英国阿斯顿大学研究人员发起的一个新项目「Neu-ChiP」,展示了如何通过教授在微芯片上培育的人类脑干细胞来解决数据问题,从而为机器学习技术的「范式转变」奠定基础。


该项目为期3年,获得了欧盟委员会的「未来与新兴技术」(Future and Emerging Technologies,FET)项目350万欧元(约2700万人民币)的资助;
 
英国、法国、西班牙、瑞士和以色列的高校和机构也参与其中,包括英国罗浮堡大学、巴塞罗那大学、法国国家科学研究中心、以色列理工学院和3Brain AG 公司。

芯片上的大脑


在Neu-ChiP项目中,研究小组将把类似于人类大脑皮层的干细胞网络分层放在微芯片上。然后通过向细胞发射不断变化的光束模式来刺激细胞。

 
项目利用先进的3D电脑模型可以观察细胞发生的任何变化,了解他们的适应能力如何。
 
这模仿了人类大脑的可塑性,可以迅速适应新的信息。
 
据悉,该项目将在培养皿中设计神经元回路并训练它们进行数据分析的能力,将为大脑如何计算信息并找到解决方案提供新的见解。
 
开发的技术甚至可能有助于设计独特的人机界面。
 
而且,该项目不仅要建立一个由许多非常复杂的人类神经细胞组成的系统模型,研究人员还将尝试超越这个模型,将神经系统驱动到一个能够进行非平凡计算的状态。

芯片上的大脑:致力于突破人工智能的界限(cr: 3Brain AG)

项目的生物学专家表示,这个项目将致力于寻求建立神经形态电路,并将新兴的电子设备与生物神经元结合起来。
 
在合成生物学的背景下,看到活细胞中的计算是如何从数字化通过模拟进化到神经形态计算范式,这将会令人印象深刻。
 
阿斯顿大学数学教授David Saad说: 「我们的目标是利用人类大脑无与伦比的计算能力,极大地提高计算机帮助我们解决复杂问题的能力。我们相信,这个项目有可能突破目前处理能力和能源消耗的局限,从而带来机器学习技术的范式转变。」
 
 

参考链接:

https://eurekalert.org/pub_releases/2021-01/au-sca012621.php

https://futurism.com/the-byte/scientists-weaving-human-brain-cells-microchips



分类
未分类

2023年超过1000量子比特!IBM公布量子计算开发路线图



  新智元报道  

来源:Venturebeat

编辑:LQ

【新智元导读】为了在5年内实现量子计算商业应用,IBM称,它有具体方案来提升其量子硬件的功率和可靠性。IBM的Qiskit的开源量子编程框架将帮助应用程序实现「100倍」加速,这样,目前需要花费几个月时间处理的工作可以在几小时内完成。


围绕量子计算的炒作仍在继续,有声音质疑那些权威的预测,同时也有越来越多的风险资本涌入这个领域。
 
一直走在规划前沿的IBM在2020年9月公布了一份量子计算发展路线图,强调IBM有信心将在量子计算方面产生重大影响。
 
 
为了在5年内实现量子计算商业应用,IBM称,它有一个可以实现的时间表来提升其量子硬件的功率和可靠性。
 
接下来的挑战是如何让公司和开发人员开始尝试编写应用程序,使他们能够利用这种能力。
 
IBM 负责量子生态系统开发的副总裁Bob Sutor说: 「目前还没有人在商业上使用量子计算。」
 
 
「这将发生在2025年左右。但这不是睡了一觉第二天醒来就能成为专家的事情。所以,看到的是,该领域的前沿领导会转向新技术,并开始对其进行试验,研发新技术。」
 
Bob Sutor是IBM研发的20年老将、量子技术方面的专家,曾经出过一本书《与量子比特共舞》(Dancing with Qubits)
 
 
IBM 在研发量子计算方面一直非常积极。
 
2016年,该公司推出了Q网络,允许公司通过公司的云服务开始量子计算机实验。
 
根据 Sutor 的说法,现在应用Q网络的有超过135个组织,包括摩根大通和埃克森美孚这样的公司,还有大学和初创公司。
 
根据 IBM 的量子硬件路线图,该公司希望今年达到100量子位(量子计算机处理能力的计量单位) ,明年达到400量子位,到2023年达到1000量子位。
 
尽管要使量子计算优于传统计算还有很大的科学障碍需要克服,但Sutor说IBM在克服这些障碍方面处于强有力的位置。
 
 
「这意义重大,因为它代表着我们现在在科学和工程上已经有信心,我们能够突破只拥有小系统的束缚,进入到更大的系统,我们需要量子计算能够比传统系统做的更好。」他说。
 

量子计算的下一步


这使人们更加关注公司将如何利用这种新的计算能力,以及如何让他们参与进来的问题,比如设定多高的期望值。
 
「当我们谈论量子计算时,你要记住的第一件事是,它不是传统计算机的批发替代品,」Sutor 说。「我们不会扔掉传统电脑。量子计算机需要传统系统才能工作。」
 
Sutor说,量子计算机最适合用于卸载某些特定任务。量子更强大计算将使自然科学和化学,问题优化,以及人工智能的一些部分等最有前途的领域获益。
 
在这些应用场景中,可以想象一个开发者正在他们的笔记本电脑上运行一个应用程序,但是在特定的阶段通过云将一个请求发送到量子计算机执行计算,然后返回到那台笔记本电脑。
 
为了使这个方程的量子部分更容易理解,IBM创建了一个名为Qiskit的开源量子编程框架。说,Qiskit将帮助应用程序实现「100倍」加速,这样,目前需要花费几个月时间处理的工作可以在几小时内完成。
 
 

Big tech的量子霸权之争

 

量子计算领域的主流玩家有IBM,谷歌,英特尔、微软以及亚马逊,这些big tech一直在争夺「量子霸权」。
 
2019年10月,谷歌正式在Nature发表了相关论文,称其量子计算机在200秒内完成了特定任务的计算。
 
 
根据实验中的测量结果,而世界上最快的超级计算机需要10000年才能产生类似的结果,由此,Google宣布率先实现了「量子优越性」。
 
但是第二天IBM马上站出来揭短:该计算机是宣传性哗众取宠产品,运作方式依然没有超出目前量子科技范围,其只在特定条件特定问题下的一种实验问题结果,而传统计算机只要更换算法就能达到同样效果,成本还更低、正确率更高,这被科技期刊称为「量子门」争议事件。
 
不过论文还是发表了,谷歌CEO 皮采回应道:「人类历史第一架飞机仅仅飞行了12秒钟,没有实用价值,但它证明了飞机是可以飞的」,这也让Google在量子计算上取得了一定的领先优势。
 
2019年2月,AWS推出了量子计算服务Braket的预览版,并成立了AWS量子计算中心和量子解决方案实验室;
 
2018年1月,英特尔展示了49量子位的超导量子测试芯片「Tangle Lake」;
 
同年11月,微软发布了云上的量子计算工具,企业用户可以使用它加强传统计算机的算力……
 
此外还有我国潘建伟团队光量子计算系统「九章」。
 
 
根据现有理论,其速度比目前世界排名第一的超级计算机日本「富岳」快一百万亿倍,比去年谷歌发布的53个超导比特量子计算原型机「悬铃木」快一百亿倍。
 
2017年,中国科大潘建伟、陆朝阳团队用一种共振激发的量子点光源,能产生确定性的高品质单光子,此外,他们自主设计研发了高效率的线性光学网络。
 
「九章」实现了76个量子位的计算,这比去年谷歌发布的量子计算机,其算法运行在一个由53个量子位组成的量子芯片上,在量子数量上超出了近50%,实现了所谓「量子霸权」的突破。
 
不过,量子计算仍在非常早期的阶段,目前巨头们争夺的不只是市场份额,而是量子计算领域的话语权甚至未来的定义权,而这注定是一场持续「烧钱」,且短期内看不到金钱回报的战争。
 


参考链接:
https://venturebeat.com/2021/02/03/ibm-quantum-computing-development-roadmap-envisions-applications-running-100-times-faster/
https://www.ibm.com/blogs/research/2021/02/quantum-development-roadmap/
https://tech.sina.com.cn/it/2020-01-10/doc-iihnzhha1493330.shtml



分类
未分类

印度天才数学家拉马努金留下的3000+神奇公式,交给AI来「证明」!



  新智元报道  

编辑:Q
【新智元导读】近日,《自然》杂志上发表了一个项目,有研究人员建立了一个AI算法项目 ,可以产生新的数学公式,且其中一些公式很难证明是否是正确的。这个项目以印度传奇数学家拉马努金(Srinivasa Ramanujan)命名。

 

2016年4月,著名投资人尤里·米尔纳 (Yuri Milner) 在自己家中举行了一场小规模的晚宴,到场的嘉宾包括Google CEO 皮查伊、创始人布林、Facebook CEO 扎克伯格及其他数十位硅谷领袖等。

 

米尔纳当晚放映了一部传记体电影——《知无涯者》,而影片讲述的正是传奇数学家拉马努金的一生。

 

 

据报道,宴会结束后,扎克伯格等人是红着眼眶走出来的,他们当即宣布将联手成立一项新基金,以纪念拉马努金。

 

 

拉马努金是二十世纪最传奇的数学家之一:他独立发现了近3900个数学公式和命题,几乎没受过正规的高等数学教育的他,却能凭直觉写出不平凡的定理和公式,且往往被证明是正确的。同时还留了世人很多自己的笔记,引发了后来的大量研究。

 

 

其中几个由他发现的神奇公式如下:

 

拉马努金圆周率公式:

 

 

拉马努金常数(几乎是一个整数):

 

 

拉马努金连根式:

 

 

拉马努金余弦立方根公式:

 

 

正是这些美妙的数学公式,让激起了研究人员的兴趣。

 

设计 Ramanujan 机器的目的是产生计算重要数学常数(如 π 或 e)数字的新方法,其中许多常数是无理数,这意味着它们有无数个不重复的小数。

 

像 e 和 π 这样的基本常数在不同的科学领域无处不在,包括物理学、生物学、化学、几何学和抽象数学。然而,几个世纪以来,与基本常数有关的新的数学公式很少,而且通常是凭借数学直觉或创造力偶尔发现的。

 

Ramanujan 机器可以从众所周知的公式开始计算数字,例如 π 的前几千位数字。从这些数据中,该算法试图预测一个新的表达式,这个表达也可以做同样的计算得到相同的结果。

 

 

这个过程会产生一个很好的猜测(conjecture),然后就要靠人类数学家来证明这个表达式是否能够正确地计算出整个数字。

 

 

该团队在2019年开始就在该项目的网站上公开这些推测,研究人员已经证明了其中的一些猜测是正确的。

 

但有些问题仍有待解决,其中一个是关于 Apery 常数的问题,Apery 常数在物理学中有重要应用。最后一个结果,也是最令人兴奋的一个,但是没有人知道如何证明」,物理学家 Ido Kaminer 说,但是算法自动创造的推测可以指引数学家们找到人们不知道存在的数学分支之间的联系

 

连分数(Continued fractions)

 

拉马努金机器目前的应用还十分有限: 到目前为止,算法只能生成一个特定类型的式子,称为连分数。这些分数表示一个数字为一个无限的分数序列,这些分数嵌套在彼此的分母中。

 

团队人员已经尝试了一系列算法来寻找连分数,并将它们应用到各种概念上重要的数字上。其中一个是加泰罗尼亚常数(Catalan’s constant),这个数字起源于十九世纪比利时数学家欧仁 · 加泰罗尼亚的研究。

 

 

加泰罗尼亚常数大约为0.916,但它是如此神秘,以至于没有人知道它是否是有理的,也就是说它是否可以表示为两个整数的分数。

 

数学家们能做的最好的事情就是证明它的非理性指数」——用有理数来近似一个数字的难度的度量,这个值至少是0.554。证明加泰罗尼亚常数是无理的等价于证明其非理性指数大于1。而由拉马努金机器生成的公式,使卡米纳的团队在最好的人类结果上略有改善,使指数达到0.567。

 

增加复杂性(Increasing complexity)


自动生成猜测并不是计算机帮助推动数学发展的唯一领域。

 

计算机辅助计算在几个引人注目的结果的证明中发挥了关键作用。最近,一些数学家在人工智能方面取得了进展,人工智能不仅能进行重复的计算,还能自己做出证明。另一个正在发展的领域是软件,它可以检查人类写的数学证明,并检查它是否正确。

 

「最终,人类将会被淘汰」,Zeilberger 说,他是证明自动化领域的先驱,并且帮助证实了 Ramanujan 机器的一些猜想,随着人工智能产生的数学的复杂性增加,数学家们将只能粗略地理解计算,他补充道。

 

不过,尽管计算机可能能够提出数学陈述,甚至证明它们是正确的,但是如果没有人类的干预,目前还不清楚它们是否能够区分深刻的,有趣的陈述,还是仅仅从技术上是正确的而已。

 

如果感兴趣的话,你可以在下面的链接中运行 Ramanujan 算法来发现新的数学猜想,如果能够证明是正确的,那么发现的新猜想将以你的名字命名!

 

 

参考链接:

http://www.ramanujanmachine.com/

Github项目链接:

https://github.com/AnonGit90210/RamanujanMachine



分类
未分类

重磅推荐!我在Github上找到一个超级轻量、灵活的SQL工具

开源最前线(ID:OpenSourceTop) 猿妹综合整理

综合自:https://github.com/HVF/franchise


今天,猿妹和大家推荐一款轻量级但功能强大的 SQL 工具,带有 notebook 界面。无需安装和注册,即可快速安全地使用数据——Franchise



目前,Franchise在Github上标星 3.7K,累计分支 243。(Github地址:https://github.com/HVF/franchise


Franchise主要功能特性特性



如果你的数据是CSV、JSON或XLSX文件,加载它就像将文件放到Franchise中一样简单。如果你想在浏览器中运行SQLite引擎的一个版本,所有的处理都在本地进行。



如果你想要连接到PostgreSQL, MySQL或BigQuery,在你终端上运行一个命令建立数据库桥,它将会通过你的计算机直接连接到你的数据库,但是你的数据永远不会进入SQLite的服务器。



Franchise还为时间序列数据构建了许多可视化工具——散点图、柱状图、折线图、地图等等。


Franchise运行方式

Franchise有在线运行版本,链接地址:https://franchise.cloud/,以下是在开发模式下运行Franchise的方法:

1.打开一个终端并运行

git clone --depth 1 https://github.com/HVF/franchise.git


2.cd进入项目目录


cd franchise


3.安装项目依赖项


yarn install


4.启动开发服务器


yarn start


5.打开浏览器并转到 http://localhost:3000

6.在franchise/src里面编辑文件,保存后,浏览器会自动重新加载

7.添加功能并发送PR。




分类
未分类

如何打造一个高性能的前端智能推理引擎

上图的相机的智能识别是怎么做到的呢?请往下看。


什么是前端智能推理引擎


在前端智能推理引擎之前,我们先来说一下什么是”端智能”

端智能(On-Device Machine Learning)是指把机器学习的应用放在端侧做。这里的“端侧”,是相对于云服务而言的。它可以是手机,也可以是 IOT 设备等。

传统的机器学习,由于模型大小、机器算力的问题,很多是放在服务端做的。比如 Amazon AWS 有“Amazon Rekognition Service”,Google 有 “Google Cloud Vision Service”。而随着以手机为代表的端侧设备算力的提高,以及模型设计本身的演进,大小更小、能力更强的模型逐渐能够部署到端上运行。

–参考自《https://www.infoq.cn/article/m5m93qyadscnyil3kprv

相比云端部署的方式,APP端拥有更直接的用户特征,同时具备如下优势:
  • 实时性高,端侧处理可节省数据的网络传输时间。
  • 节省资源,充分利用端侧算力和存储空间。
  • 隐私性好,产生数据到消费数据都在端侧完成,避免传输引起的隐私泄露风险

这些是端智能的优势,但它不是万金油,仍然存在一些局限性:
  • 设备资源有限,端侧算力、存储是有限的,不能做大规模高强度的持续计算。
  • 算法规模小,端侧算力小,而且单用户的数据,在算法上并不能做到最优。
  • 用户数据有限,端侧数据不适合长期存储,同时可用数据有限。

同理,前端智能是指将机器学习的应用放到前端上(web、h5、小程序等).

所以,什么是前端智能推理引擎呢?

如下图:
前端智能推理引擎实际上就是利用前端上算力去执行模型的那个东西。


业界现有的前端推理引擎


这里列出三个常见的推理引擎
  • tensorflow.js(下面简称为tfjs)
  • ONNX.js
  • WebDNN

对于一个端上推理引擎来说,最重要的是什么?当然是性能了!性能越好,也代表在端上的应用场景也会越多,下面我们来看下这三个推理引擎的性能对比:

(下面数据使用模型为MobileNetV2分类模型)

cpu(js计算)



可以看到,在纯JS环境下进行计算,仅仅做一次分类都要1500ms以上。设想一下如果一个相机需要实时对拍摄的物体做分类预测(比如预测拍摄的对象是猫还是狗),那么每预测一次需要1500ms,这样的性能是无法忍受的。

WASM



在WASM环境下,性能最佳的ONNX.js达到了135ms的性能,也就是7fps左右,已经到了勉强能用的程度了。而tfjs却是糟糕的1501ms。这里是因为onnx.js利用了worker进行多线程加速,所以性能最好。


WebGL(GPU)



最后是GPU环境,可以看到tfjs和ONNXjs的性能都达到了比较好的性能水平,而WebDNN表现较为糟糕。

除了上面这三种引擎,目前国内还有百度的paddle.js以及淘宝的mnn.js等,这里不做讨论。

当然,在选择一个合适的推理引擎时,除了性能以外,还有生态、引擎维护情况等等一系列的考虑。从综合的方面来说,tfjs是当下市场上最适合的前端推理引擎。因为tfjs可以依靠tensorflow的强大的生态、google官方团队的全职维护等。相比之下ONNX框架比较小众,且ONNXjs已经有近一年没有维护了。WebDNN性能及生态都没有任何竞争力。


前端上的高性能计算方案



从上一章节其实能看到,在前端上做高性能计算一般比较普遍的就是WASM和基于WebGL的GPU计算,当然也有asm.js这里不做讨论。


WASM


WASM大家应该是比较熟悉的,这里只做下简短的介绍:

WebAssembly是一种运行在现代网络浏览器中的新型代码,并且提供新的性能特性和效果。它设计的目的不是为了手写代码而是为诸如C、C++和Rust等低级源语言提供一个高效的编译目标。

对于网络平台而言,这具有巨大的意义——这为客户端app提供了一种在网络平台以接近本地速度的方式运行多种语言编写的代码的方式;在这之前,客户端app是不可能做到的。

而且,你在不知道如何编写WebAssembly代码的情况下就可以使用它。WebAssembly的模块可以被导入的到一个网络app(或Node.js)中,并且暴露出供JavaScript使用的WebAssembly函数。JavaScript框架不但可以使用WebAssembly获得巨大性能优势和新特性,而且还能使得各种功能保持对网络开发者的易用性。–《摘自MDNWebAssembly概念


WebGL


啥?WebGL不是做图形渲染的吗?不是做3D的吗?为啥能做高性能计算?

可能一些同学听说过gpgpu.js这个库,这个库就是利用webgl做通用计算的,具体的原理是怎么样的呢?(为了能够继续往下阅读,请先快速浏览下这篇文章):《利用WebGL2 实现Web前端的GPU计算》。



将推理引擎的性能进行极致优化



好了,目前我们知道在前端上的两种高性能计算方式了,那么如果现有的框架(tfjs、onnxjs)性能上就是不满足我们的需求怎么办呢?怎么样才能进一步提升引擎性能,并落地生产环境呢?

答案是:手撕源码,优化性能。对,就是这么简单粗暴。以tfjs为例(其他的框架原理上是一致的),下面给大家介绍下如何用不同的姿势去优化引擎性能。

在去年年初时候,我们团队和google的tfjs团队做了一次深入交流,google那边明确表示tfjs后面的发展方向以WASM计算为主、webgl计算不做新的feature以维护为主。但是现阶段各浏览器、小程序对WASM的支持并不完整(例如SIMD、Multi-Thread等特性),所以WASM暂时无法在生产环境落地。所以,现阶段还是需要依赖webgl的计算能力。糟糕的是,此时tfjs的webgl性能在移动端上表现依旧差强人意,尤其在中低端机上的性能完全达不到我们的业务要求。没办法,只能自己硬着头皮进去优化引擎。所以以下的内容都是针对于webgl计算进行介绍。


优化 WebGL 高性能计算的n种姿势


姿势一:计算向量化


计算向量化是指,利用glsl的vec2/vec4/matrix数据类型进行计算,因为对于GPU来说,最大的优势就是计算并行化,通过向量去计算能够尽可能地达到并行化的效果。

例如一次矩阵乘法:
c = a1 * b1 + a2 * b2 + a3 * b3 + a4 * b4;
可以改为
c = dot(vec4(a1, a2, a3, a4), vec4(b1,b2,b3,b4));

向量化的同时也要配合内存布局的优化;


姿势二:内存布局优化


如果读了上面《利用WebGL2 实现Web前端的GPU计算》这篇文章的同学应该了解到,在GPU内所有的数据存储都是通过Texture的,而Texture本身是一个 长n * 宽m * 通道(rgba)4 的东西,如果我们要存一个3 * 224 * 224 * 150的四维矩阵进去要怎么办呢?肯定会涉及到矩阵的编码,即以一定的格式把高维矩阵存进特性形状的Texture内,而Texture的数据排布又会影响计算过程中的读存性能。例如,举一个较简单的例子:


如果是常规内存排布的话,计算一次需要按行或者案列遍历矩阵一次,而GPU的cache是tile类型的,即n*n类型的缓存,根据不同芯片n有所不同。所以这种遍历方式会频繁造成cache miss,从而成为性能的瓶颈。所以,我们就要通过内存排布的方式进行性能优化。类似下图:




姿势三:图优化


由于一个模型是一个一个的算子组成的,而在GPU内每个算子被设计成一个webgl program,每次切换program的时候会造成较多的性能损耗。所以如果有一种手段能够减少模型的program数量,对性能的提升也是十分可观的。如下图:



我们将一些可以融合的节点在图结构上进行融合(nOP -> 1OP),基于新的计算结点实现新的OP。这样一来大大减少了OP的数量,进而减少了Program的数量,所以提升了推理性能。在低端手机上效果尤为明显。

姿势四:混合精度计算


以上所有的计算都是基于常规浮点数计算,也就是float32单精度浮点数计算。那么,在GPU内是否能实现混合精度的计算呢?例如float16、float32、uint8混合精度的计算。答案是可以的,在GPU内实现混合精度计算的价值是在于提升GPU的bandwidth。由于webgl的texture每一个像素点包含rgba四个通道,而每个通道最高为32位,我们可以在32位内尽可能存储更多的数据。如果精度为float16,那么可以存储两个float16,bandwidth就是之前的2倍,同理uint8的bandwidth是之前的4倍。这个性能的提升就是巨大的。还是上图说话吧:


姿势n:…


优化的手段还有很多,这里就不一一列举了。



引擎落地的场景



目前,基于我们深度优化的引擎已经落地蚂蚁集团及阿里经济体多个应用场景,比较典型的就是文章开头演示的宠物识别,还有卡证识别、碎屏相机等等等场景。

业界的有之前比较火的虚拟试妆小程序等。


读到这篇文章的朋友们也可以打开你们的脑洞,挖掘出更多更好玩的智能场景。


未来展望



随着市面是机型的更新换代及引擎的深入优化,我相信tfjs会在更多富交互的场景上大放异彩,例如拥有AI能力的前端游戏、AR、VR等等场景。现在我们要做的就是静下心来,站在巨人的肩膀上持续打磨我们的引擎,愿等花开。





电子书免费下载

《2021前端热门技术解读》



阿里巴巴前端委员会重磅推荐!阿里巴巴前端技术专家为你解读前端技术新趋势以及2021你需要关注的技术热点,覆盖前端安全生产、跨端技术、Node.js(Serverless)以及多样化的前端技术四大方向,是2021不容错过的前端学习手册。


关注 Alibaba F2E 公众号

回复 电子书 马上下载


分类
未分类

Docker 的底层原理,了解它只需要 5分钟~

一位同学曾给我打比方:宿主机就好比一间大房子,docker 把它成了N个小隔断。在这些小隔断之间,有独立的卫生间、小床、电视…

麻雀虽小,五脏俱全,这个比喻非常的贴切。Linux 提供了非常全面的隔离机制,使得每个小隔间互不影响。即使隔壁小间满室春光,我的小房间一样的冷清,对我毫无影响。

Docker 能实现这些功能,依赖于 chroot、namespace、cgroup 等三种老技术。我们本篇文章,就先聊一下 namespace 方面的东西。毕竟隔离是容器的第一要素。

Linux 的内核,提供了多达8种类型的 Namespace。在这些独立的 Namespace 中,资源互不影响,隔离措施做的非常好。

1. 8种类型

我们先来看一下,Linux都支持哪些Namespace。可以通过 unshare 命令来观察到这些细节。在终端执行 man unshare,将会出现这些 Namespace 的介绍。

  1. Mount(mnt) 隔离挂载点

  2. Process ID (pid) 隔离进程 ID

  3. Network (net) 隔离网络设备,端口号等

  4. Interprocess Communication (ipc) 隔离 System V IPC 和 POSIX message queues

  5. UTS Namespace(uts) 隔离主机名和域名

  6. User Namespace (user) 隔离用户和用户组

另外,Linux 在 4.6 版本,5.6 版本,分别加入了 cgroups 和 Time 两种隔离类型,加起来就有8种。
  1. Control group (cgroup) Namespace 隔离 Cgroups 根目录 (4.6版本加入)
  2. Time Namespace 隔离系统时间 (5.6版本加入)

2. 1个例子

通过unshare命令,可以快速建立一些隔离的例子,我们拿最简单直观的pid namespace来看一下它的效果。
众所周知,Linux 进程号为1的,叫做systemd进程。但在 Docker 中,我们通过执行ps命令,却只能看到非常少的进程列表。

执行下面的命令,进入隔离环境,并将 bash 作为根进程:

unshare --pid --fork --mount-proc /bin/bash
效果如图所示。可以看到,我们的 bash,已经成为了1号进程,而宿主机和其他隔离环境的进程信息,在这里是不可见的。

先在隔离环境中,执行sleep 1000。再开一个终端,在宿主机上执行pstree,我们将会看到这个隔离环境的进行信息。

接下来,在宿主机上,把 sleep 对应进程的命名空间信息,和宿主机的命名空间信息作一下对比。可以看到,它们的pid namespace,对应的数值是不同的。

下面给出其他 namespace 的实验性命令,你可以实际操作一下。

3. 试验一下

unshare --mount --fork /bin/bash

创建mount namespace,并在每个不同的环境中,使用不同的挂载目录。

unshare --uts --fork /bin/bash

uts 可以用来隔离主机名称,允许每个 namespace 拥有一个独立的主机名,你可以通过hostname命令进行修改。

unshare --ipc --fork /bin/bash
IPC Namespace 主要是用来隔离进程间通信的。Linux 的进程间通信,有管道、信号、报文、共享内存、信号量、套接口等方式。使用了 IPC 命名空间,意味着跨 Namespace 的这些通信方式将全部失效!不过,这也正是我们所希望的到的。
unshare --user -r /bin/bash
用户命名空间,就非常好理解了。我们可以在一个 Namespace 中建立 xjjdog 账号,也可以在另外一个 Namespace 中建立 xjjdog 账号,而且它们是相互不影响的。
unshare --net --fork /bin/bash
net namespace,这个就非常有用了。它可以用来隔离网络设备、IP 地址和端口等信息。

End

可以看到,通过各种 Namespace,Linux 能够对各种资源进行精细化的隔离。Docker本身也是一个新瓶装旧酒的玩具。Docker 的创新之处,在于它加入了一个中央仓库,并封装了很多易用的命令。

你可能会发现,到目前为止,我们并没有对 Cpu和内存的资源使用进行隔离,也没有对应的 Namespace 来解决这些问题。

资源限制的功能,是使用Cgroups进行限额配置来完成的,和Namespace没什么关系。我们将在后面的文章,介绍 Cgroups 这项技术。

最后,附上 Docker 的一张生命周期图。来源(http://docker-saigon.github.io/post/Docker-Internals/ )。有需要的同学可以加我的好友获取。

Docker 发展到现在,应用工具链已经非常成熟了,很多同学已经驾轻就熟,如果你对容器技术非常感兴趣,不如多看一下最底层的原理。这样,不管是谷歌推自己的容器,还是继续使用 docker,都能快速把它掌握。
来源:本文转自公众号小姐姐味道(xjjdog),点击查看原文
近期好文:

一文理解 Kubernetes 的存储系统机制

“高效运维”公众号诚邀广大技术人员投稿,

投稿邮箱:jiachen@greatops.net,或添加联系人微信:greatops1118.
点个“在看”,一年不宕机
分类
未分类

10 个 GitHub 上超火和超好看的管理后台模版,后台管理项目有着落了

Web 开发中几乎的平台都需要一个后台管理,但是从零开发一套管理后台模版并不容易,幸运的是有很多开源免费的管理后台模版可以给开发者使用。

那么有哪些优秀的开源免费的管理后台模版呢?

我在 GitHub 上收集了一些优秀的管理后台模版,而且是还在不断更新和维护的项目,并总结得出 Top 10。

1. vue-Element-Admin

vue-element-admin 是一个后台前端解决方案,它基于 vue 和 element-ui实现。

它使用了最新的前端技术栈,内置了 i18n 国际化解决方案,动态路由,权限验证,提炼了典型的业务模型,提供了丰富的功能组件,它可以帮助你快速搭建企业级中后台产品原型。

同时配套了系列教程文章,如何从零构建后一个完整的后台项目。

  • 手摸手,带你用 vue 撸后台 系列一(基础篇)
  • 手摸手,带你用 vue 撸后台 系列二(登录权限篇)
  • 手摸手,带你用 vue 撸后台 系列三 (实战篇)
  • 手摸手,带你用 vue 撸后台 系列四(vueAdmin 一个极简的后台基础模板)
  • 手摸手,带你用 vue 撸后台 系列五(v4.0新版本)
  • 手摸手,带你封装一个 vue component
  • 手摸手,带你优雅的使用 icon
  • 手摸手,带你用合理的姿势使用 webpack4(上)
  • 手摸手,带你用合理的姿势使用 webpack4(下)

该项目还在一直维护中。

而且也是配有使用文档的,很不错。

Github Star 数 62.2K, Github 地址:

https://github.com/PanJiaChen/vue-element-admin

2. iview-admin

iView Admin 是基于 Vue.js,搭配使用 iView UI 组件库形成的一套后台集成解决方案,由 TalkingData 前端可视化团队部分成员开发维护。

iView Admin 遵守 iView 设计和开发约定,风格统一,设计考究,并且更多功能在不停开发中。

不过该项目已经一年多没有更新维护了,估计是在等出了配合 Vue3 相关的 iView UI 库再更新了吧。

而且也是配有使用文档的,很不错。

Github Star 数 15.3K,Github 地址:

https://github.com/iview/iview-admin

3. vue-admin-template

这是一个极简的 vue admin 管理后台。它只包含了 Element UI & axios & iconfont & permission control & lint,这些搭建后台必要的东西。

目前版本为 v4.0+ 基于 vue-cli 进行构建,若你想使用旧版本,可以切换分支到 tag/3.11.0,它不依赖 vue-cli

极简版,就是 vue-Element-Admin 的简化版,功能简单一点,方便快速开发用的。

而且也是配有使用文档的,很不错。

Github Star 数 12K,Github 地址:

https://github.com/PanJiaChen/vue-admin-template

4. ant-design-pro

开箱即用的中台前端 / 设计解决方案。

Ant Design Pro 是基于 Ant Design 和 umi 的封装的一整套企业级中后台前端/设计解决方案,致力于在设计规范和基础组件的基础上,继续向上构建,提炼出典型模板/业务组件/配套设计资源,进一步提升企业级中后台产品设计研发过程中的『用户』和『设计者』的体验。

随着『设计者』的不断反馈,我们将持续迭代,逐步沉淀和总结出更多设计模式和相应的代码实现,阐述中后台产品模板/组件/业务场景的最佳实践,也十分期待你的参与和共建。

Ant Design Pro 在力求提供开箱即用的开发体验,为此我们提供完整的脚手架,涉及国际化,权限,mock,数据流,网络请求等各个方面。

为这些中后台中常见的方案提供了最佳实践来减少学习和开发成本。

而且也是配有使用文档的,很不错。

Github Star 数 27.2K,Github 地址:

https://github.com/ant-design/ant-design-pro

5. ngx-admin

基于Angular 10+ 的可定制管理仪表板模,还拥有 6 个惊人的视觉主题。

Github Star 数 21.7K,Github 地址:

https://github.com/akveo/ngx-admin

6. vue-admin-beautiful

vue-admin-beautiful 是一款基于 vue+element-ui 的绝佳的中后台前端开发管理框架(基于 vue/cli 4 最新版,同时支持电脑,手机,平板)。

vue-admin-beautiful-pro 拥有四种布局(画廊布局、综合布局、纵向布局、横向布局)四种主题(默认、海洋之心、绿茵草场,荣耀典藏),共计 16 布局主题种组合,满足所有项目场景。

已支持常规 bug 自动修复,前端代码自动规范,代码一键生成等众多功能,可以在完全不依赖后台的情况下独立开发完成项目,以及接口自动模拟生成,支持 JAVA、PHP、NODE、.NET、Django 等常用所有后台对接,甚至完全放弃 JAVA 等常规后端开发,内置 node 服务支持直接操作数据库进行增删改查,支持当前流行的 unicloud、serverless 云开发。

该项目还在不断更新和维护中,不错。

https://github.com/chuzhixin/vue-admin-beautiful

7. vuestic-admin

这是一个免费与美妙 Vue.js 管理模板,包括 38 以上个定制用户界面组件。

响应布局 | 图表(Charts.js) | 进度表 | 表格 | 选辑 | 日期选择器 | 复选框和单选框 | 静态表与数据表 | medium editor | 平滑设计字体 | 按钮 | 塌缩 | 颜色选择器 | 时间线 | 土司通知 | 工具提示 | 弹窗 | 图标 | 自旋体 | 模式 | 文件上传 | 厚切薯条通知 | 树 | 卡片 | 等级 | 滑动器 | 聊天系统 | 地图(Google, Yandex, Leaflet, amMap) | 登录/注册页模板 | 404页模板 | i18n

Github Star 数 7.6K,Github 地址:

https://github.com/epicmaxco/vuestic-admin

8. antd-admin

一套优秀的中后台前端解决方案。

特性

  • 国际化,源码中抽离翻译字段,按需加载语言包
  • 动态权限,不同权限对应不同菜单
  • 优雅美观,Ant Design 设计体系
  • Mock 数据,本地数据调试

而且也是配有使用文档的,很不错。

https://github.com/zuiidea/antd-admin

9. eladmin

一个简单且易上手的 Spring boot 后台管理框架

技术栈

使用 SpringBoot、Jpa、Security、Redis、Vue 等前后端前沿技术开发。

模块化

后端采用按功能分模块开发方式,提升开发,测试效率。

高效率

项目简单可配,内置代码生成器,配置好表信息就能一键生成前后端代码。

分离式

前后端完全分离,前端基于 Vue,后端基于 Spring boot。

响应式

支持电脑、平板、手机等所有主流设备访问。

易用性

几乎可用于所有 Web 项目的开发,如 OA、Cms,网址后台管理等。

前后端都有,还是挺不错的。

https://github.com/elunez/eladmin

10. AdminLTE

AdminLTE 是一个完全响应的管理模板。基于 Bootstrap 4.5 框架以及 JS / jQuery 插件。

高度可定制且易于使用。适合从小型移动设备到大型台式机的多种屏幕分辨率。

AdminLTE 的所有 JS,SCSS 和 HTML 文件均经过精心编码,并带有清晰的注释。SCSS 已用于提高代码的可定制性。

ui 风格也不偏向于外国吧,比较简结。

好的地方是还一直在更新和维护,最大的不足就是还依赖于 jQuery 这个旧时代的产物,唉。

Github Star 数 36.8K 也非常高 , Github 地址:

https://github.com/almasaeed2010/AdminLTE




分类
未分类

马斯克脑机接口下一步:让大猩猩用脑电波玩视频游戏,今年人体试验!



  新智元报道  

来源:外媒

编辑:小匀、LQ

【新智元导读】火星计划怎么样了?脑机接口进展又如何?语出惊人的马斯克又来了,近期采访中他又放下狠话:五年半内登火星,还透露说,Neuralink想要造出一只通灵的猴子能打电脑游戏。


人类还有多久能登陆火星?
 
十年?百年?
 
马斯克表示,没那么长!
 
近期,这位疯狂的企业家做客一档电台节目,大谈当下的几大热点,信息量很大,所谈内容都站在现在与未来的焦点。
 
他还透露自己的近期计划,其中包括公布脑机接口进展和他那雄心勃勃的火星计划
 
采访音频戳:https://www.youtube.com/watch?v=wF2TrKF6HEY
 

2026年登火星


NASA的Artemis计划2033年左右登陆火星,而马斯克的SpaceX 2026年就可以实现登陆火星。
 
不仅5年半内登火星,往返火星和地球之间的时间也大大缩短——一个月,而此前天文学家预测的是6个月。
 
据马斯克介绍,接下来5年里,SpaceX将会致力于开发人类往返太阳系里第三、第四块「石头」所需的技术。
 
 
虽然还有几项重大技术需要实现突破,但马斯克表示5年的时间也已经足够做好准备。
 
马斯克还表示,SpaceX需要完善可重复使用的火箭,将成本降到最低。如果能做到这一点,地球和火星之间的飞行可以每两年进行一次
 
马斯克表示,人类是生命的媒介,即使地球上发生了灾难——人为的或是自然的——看化石就可以知道此前发生过的物种灭绝,我们都有义务确保地球上的生物继续生存下去
 
如果能够在火星实现推进剂生产食品生产和发电,那么人类就可以在火星建立自给自足的城市,实现行星间穿行,这是实现人类意识长期存在所要做的最重要的事情之一。
 

玩电脑游戏的猩猩


昨天,马斯克发推帮自家公司Neuralink招人,访谈中他也提到了最近Neuralink的工作。
 
 
继脑机接口之后,马斯克想要造出一只通灵的猴子能打电脑游戏
 
Neuralink在寻找将传感器植入动物大脑,使动物之间可以产生互动,据马斯克介绍,Neuralink已经成功将无线传感器植入一只猩猩的大脑
 
据了解,植入大脑的传感器很小,并不会伤害动物
 
接下来,马斯克想让Neuralink在另一只猩猩的大脑中植入芯片,然后让这两只猩猩互动,主要是精神层面的互动。
 
马斯克想通过芯片植入让这两只猩猩的大脑能够玩模拟乒乓球游戏Pong.
 
 
「我们正在试图弄清楚的一件事是,是否可以让猩猩们在精神上互相打乒乓球 …… 那会很酷的。」
 
电影中有不少赋能大猩猩的桥段,但这似乎都不是一个好主意,虽然马斯克的想法是让大猩猩玩电脑游戏,并不会统治世界,但这也引起一些人的担心,只希望实验对象中没有叫「凯撒」的猩猩。
 
 

一字万金的男人


上周五,马斯克改了自己的推特简介,新简介只有一个词:Bitcoin.


还发了一条推文:回顾过去,这是不可避免的

推文发出后,比特币的价格迅速上涨,达到了37,803美元的峰值,在略微下跌之前,涨幅超过了17% . 目前 BTC 的价格为36,965美元



而上周,金融市场上最轰轰烈烈的是GameStop事件,Reddit网站上的散户大军「抱团」,靠着一只股票——GameStop,一家苦苦挣扎的视频游戏零售商,接连打败了多家大型投资机构。

在接受Clubhouse采访时,马斯克表示,我来晚了,但我支持比特币

然后他又转向了狗狗币,这个加密货币因为首富「突如其来」的关注上涨了3倍,周四达到了历史新高。


但马斯克觉得狗狗币很滑稽,他开玩笑说:「可以说,最有趣的结果,最具讽刺意味的结果是狗狗币将成为未来地球的货币」

在马斯克发表评论后,加密货币追踪软件 CoinDesk 立即显示狗狗币的价格有小幅下跌

马斯克代表一种未来


这是典型的马斯克意识流,时长约90分钟。谈话的节奏很激烈,也有一丝混乱,但当马斯克讲话时,人们似乎愿意倾听,因为你永远不知道事情的结局会怎样。
 
马斯克是除了名的精力旺盛,大脑总是充满了想法,精神从来没有休息过。
 
身体可以休息,想法永不止步。
 
某种意义上来说,马斯克的某些观点很哲学,代表着一种对未来的看法。
 
例如,他不止一次提到,他坚信世界只是「矩阵模拟」!人们也能进入大脑矢量空间。
 
时间要从2018年说起,那时马斯克参加了由喜剧演员Joe Rogan主持的The Joe Rogan Experience节目中,他比较全面的阐述了他自己的价值观,他坚信「我们活在模拟(simulation)中」
 
 
我们知道,这是一种很前卫的想发,但马斯克对此有更为古老的理论解释:宇宙已经存在了138亿年,而人类出现在地球上的历史才不到一万年,所以这段时间足够其他文明兴起。
 
马斯克根据的是宇宙历法,这是一种将宇宙年表可视化的方法,将宇宙目前的年龄138亿年缩放为一年,以帮助直观地进行科学评估。
 
在这个可视化中,大爆炸发生在1月1日午夜的开始,而现在的时刻映射到12月31日午夜前的结束在这个比例下,每秒有437.5年,每小时有175.5万年,每天有3780万年。
 
宇宙历的图形视图,包括一年的月份、十二月的天数和最后一分钟(来源:wikipedia)
 
这个概念被卡尔-萨根在他的《伊甸园之龙》(1977年)一书中和他的电视连续剧《宇宙》(Cosmos)中普及开来。

萨根继续用表面积来扩展比较,他解释说,如果把宇宙历法按比例放大到一个足球场的大小,那么「所有的人类历史将占据一个手掌大小的区域」
 
 
因此,马斯克相信,更古老的文明很有可能是我们的造物主,并将现实生活比作是过去数十年间游戏的进步。
 
这不是马斯克第一次分享这个想法,早在2016年的Recode’s annual Code Conference上,他就说过:
 
「鉴于我们明显处于与现实无法区分的游戏的轨道上,并且这些游戏可以在任何机顶盒或PC以及其它任何东西上播放,而且可能存在数十亿台这样的计算机或设备,那么我们在基础现实中的概率只有数十亿分之一。」
 
「40年前,我们有Pong,就是两个矩形和一个点。这就是游戏的开始。40年后,我们有了3D模拟,以及几百万人的在线游戏。而技术仍在发展,我们很快就会拥有VR和AR世界。」
 
 
虽然可以想象我们所有人都可能实际生活在一个巨大且先进的计算机游戏中,但物理学家们的确被这样的想法所吸引,并且从理论上讲,它至少可以算是一种可能性。
 
 
最近,他又谈及了他坚信不疑的「矩阵模拟假设」,他从压缩(降维)角度对机器学习进行有趣的物理学类比,认为物理模拟宇宙,最终你就会有感知能力
 
「神经网络主要是从现实中获取大量信息,很多来自无源光学方面,并创建矢量空间,本质上将大量光子压缩成矢量空间。」近日,他又在一组视频里谈到了这个问题。
 
人们是否能够进入大脑的矢量空间呢?
 
马斯克认为,「可以。」

他提到,运用压缩的类比方法,我们是可以进入大脑的矢量空间的。

大脑过滤很多信息,只留下相关的部分,这只是原始信息很小的一部分,但却可以根据矢量空间的决策做决定。

这实际上就是大规模的压缩与解压缩过程,就像物理学公式一样,因为公式就是对现实生活的压缩算法。
 
他还说到,如果我们对宇宙进行一个物理学意义上的模拟,就需要大规模的计算,如果有足够的时间,就会产生知觉。
 
这也并非空谈,著名的德雷克方程就可以作为理论依据,支持马斯克的想法。
 
德雷克公式又称「绿岸公式」,是用来推算银河系及可观测宇宙能与我们进行无线电通信的高智能文明数目。

由美国天文学家德雷克于1960年代在绿岸镇提出。通过估计我们银河系中可能存在的其他智慧文明的数量,计算出我们在宇宙中并不孤单的可能性。
 
 
不过,德雷克方程虽然简单,但却无法求解

该方程还有很多不确定项,比如发展出智慧生命的行星的比例;还有一些可能我们永远都不会知道,比如在被发现之前自我毁灭的比例。
 
看来马斯克并非只有金钱头脑,他的知识水平和思考维度也是非常广的。
 
最后不得不提一句,这次马斯克是在一款名为Clubhouse 的音频社交产品上进行的,很多知名风投、企业家和文娱界明星也入驻了这里,全是高质量用户,就像国内的知乎一样。

 



参考链接:

https://www.cnet.com/news/elon-musk-talks-mars-monkey-brain-implants-and-bitcoin-in-clubhouse-interview/
https://comicbook.com/irl/news/elon-musk-says-humans-on-mars-by-2026/



分类
未分类

斯坦福新书《决策算法》发布,全文400多页PDF免费下载!



  新智元报道 

来源:外媒

编辑:keyu

【新智元导读】最近,斯坦福大学发布了一则新书《决策算法》,该书主要阐述了不确定性决策的算法,面向的是高年级本科生、研究生和专业人员,全书PDF资源都可免费下载哦!


最近,斯坦福大学发布了一部新书:《决策算法》( Algorithms for Decision Making),该书主要由Mykel J.Kochenderfer教授编撰


Mykel J.Kochenderfer教授带领的斯坦福智能系统实验室(SISL)实验室,每年在计算机领域各大顶级会议和期刊上收获颇丰,仅在2021年这一个月里,实验室已经有9篇论文于AAAI2021,AAMAS2021,AIAA Journal等顶级会议和期刊上发表。

 

在这里简单介绍下,斯坦福智能系统实验室(SISL)的研究主要是关于用于设计鲁棒决策系统的先进算法和分析方法

 

其中,实验室特别感兴趣的细分领域有:系统的空中交通管制,无人驾驶飞机和其他需要在不确定动态环境下,在保持安全和效率的同时,需要做决策的航空航天应用。

 

SISL主要集中在对高效的计算方法的研究上,重点关注如何从高维、概率的问题中推导出最优的策略决策。


图:SISL成员合照


这本新书《决策算法》主要介绍了在不确定情况下的最优决策算法

 

该书涵盖了与决策相关的各种主题,介绍了问题中隐含的数学公式以及解决它们的算法。此外,本书中添加了许多举例和练习题,来传达各种方法下蕴含的直觉。



此书是为高年级本科生和研究生以及专业人员准备的。要学习这本书的内容,阅读者需要有一定的数学功底,并接触过多变量微积分,线性代数,和概率的概念

 

这本教科书的基础是算法,并都用Julia编程语言实现。除此之外,附录中还提供了一些复习材料。

 

从这本书受益最大的学科有数学、统计学、计算机科学、航空航天、电气工程和运筹学。


先对本书的部分章节进行详解:


第一章:概率推理


主要讲述了概率推理(Probabilistic Reasoning),主要包括以下小节:

 

  • 表示(Representation)
  • 推理(Inference)
  • 参数学习(Parameter Learning)
  • 结构学习(Structure Learning)
  • 简单决策(Simple Decisions)
 
从讨论如何用概率分布表示不确定性开始,作者将讨论如何构建模型,如何使用模型进行推断,以及如何从数据中学习模型的参数和结构


之后,作者介绍了效用理论的基础,并展示了它是如何在不确定性下形成理性决策的。效用理论可以被纳入概率图形模型,形成所谓的决策网络。该章节将重点放在单步决策上,对连续决策问题的讨论将留到本书的下一部分。
 

第二章:序列问题


书的第二章主要讲述了序列问题(Seqential Problems),主要包括以下小节:
  • 确切解决方法(Exact Solution Methods)
  • 近似值函数(Approximate Value Functions)
  • 在线规划(Online Planning)
  • 策略搜索(Policy Search)
  • 策略梯度估计(Policy Gradient Estimation)
  • 策略梯度优化(Policy Gradient Optimization)
  • Actor-Critic算法(Actor-Critic Methods)
  • 策略验证(Policy Validation)
 
此前的章节都假设在某个时刻所需要做的是单一的决定,但许多重要的问题需要我们做出一系列的决定。
 
在此情况下,最大期望效用原则仍然适用,但是在序列环境下的最优决策需要对未来的序列操作和观察进行推理。
 
这本书的这一章节将讨论随机环境中的顺序决策问题。作者将在模型已知和环境完全可观察的假设下,关注顺序决策问题的一般公式。在之后的章节中,作者将会放松这两个假设。


本章的讨论将从引入序列决策问题的标准数学模型——马尔可夫决策过程开始,主要讨论了几种求精确解的方法、离线和在线近似解决方法的集合,以及一种涉及直接搜索参数化决策策略空间的方法。
 

第三章:模型不确定性


主要讲述了模型不确定性(Model Uncertainty),主要包括以下小节:
  • 探索和利用(Exploration and Exploitation)
  • 基于模型的方法(Model-Based Methods)
  • 脱离模型的方法(Model-Free Methods)
  • 模仿学习(Imitation Learning)
 
在讨论顺序决策问题时,本书假设转移模型和报酬模型是已知的。然而,在许多问题中,这些模型并不是完全已知的,而且代理必须通过经验学会进一步的操作。
 
通过观察状态转换奖励形式的行为结果,代理选择能够最大化其长期奖励积累的行为,解决这种存在模型不确定性的问题是强化学习领域的主题,也是本书这一部分的重点。

在该章中,作者讨论了解决模型不确定性的几个挑战:


首先,代理必须谨慎地掌握探索环境和利用基于经验的知识的平衡

第二,奖励可能是在重要决定做出很久之后才得到的,所以较晚的奖励必须分配给较早的决定。

第三,代理必须从有限的经验中进行概括。对此,作者回顾了解决这些挑战的理论和一些关键的算法。
 

第四章:状态不确定性

 

主要讲述了状态不确定性(State Uncertainty),主要包括以下小节:
  • 信念(Beliefs)
  • 确切信念状态规划(Exact Belif State Planning)
  • 离线信念状态规划(Offline Belief State Planning)
  • 在线信念状态规划(Online Belif State Planning)
  • 控制器抽象(Controller Abstractions)
 
前几章包括了过渡函数中的不确定性,包括结果状态和模型中的不确定性。在本章中,作者将不确定性扩展到状态领域


第19章展示了如何根据过去的观察和行动序列更新信念的分布。第20章概述了优化策略的精确方法。

第21章回顾了各种离线逼近方法,它们在处理更大的问题时比精确的方法有更好的伸缩性。

第22章扩展了在线近似方法以适应部分可观测性。

第23章介绍了有限状态控制器,来表示优化策略和方法。
 

第五章:多代理系统


主要讲述了多代理系统(Multiagent Systems),主要包括以下小节:
  • 多代理推理(Multiagent Reasoning)
  • 序列问题(Squential Problems)
  • 状态不确定性(State Uncertainty)
  • 协作代理(Collaborative Agents)
 
到目前为止,本书主要是从单个代理的角度来进行决策。现在,讨论的核心概念将会扩展到涉及多个代理的问题

在多代理系统中,我们可以将其他代理模拟为潜在的盟友或对手,并随着时间的推移相应地进行调整


第24章介绍了博弈中的多代理推理,并概述了如何从简单的交互作用中计算均衡。

第25章讨论了如何为随着时间的推移而交互的多个主体设计算法,描述了偏向于理性适应而非均衡收敛的学习算法。
 
第26章表明,状态不确定性显著增加了问题的复杂性,并强调了这些领域的独有的挑战和困难。

第27章重点介绍了协作代理的各种模型和算法。
 
以上就是全书大概的介绍啦,感兴趣的小伙伴可以去探索一下,还可以下载全书哦,下面是网站链接:
https://mykel.kochenderfer.com/textbooks/




分类
未分类

冯氏集团与 IBM 签署多年混合云及 IT 服务协议,大力投资数字化转型

关注并星标「IBM中国」




冯氏集团将借助 IBM 的服务向云端迁移,实现 IT 现代化,创建灵活易用的 IT 基础架构,为其全球领先的供应链实现未来工作新模式。


2021年 1月 29日,IBM 与冯氏集团宣布签署一项长达多年的协议,以便为全球供应链领导者冯氏集团的 IT 基础架构转型提供支持。该基础架构将借助混合云实现,并由 IBM 全球信息科技服务部(Global Technology Services)提供支持。





冯氏集团致力于塑造未来的供应链,其业务遍布 40多个经济体,并涵盖整个消费品市场的全球供应链管理,包括贸易、物流、分销及零售。为推动这一愿景,冯氏集团正借助 IBM 的混合云功能整合、现代化及优化其 IT 基础架构,打造一个敏捷的“IT 即服务”(IT-as-a-Service)技术架构,助其实现长远的业务转型。


IBM 全球信息科技服务部将通过安全、开放的混合云模式,帮助冯氏集团快速把握数字经济下的机遇,转向以业务和用户为中心的灵活、可扩展且安全的 IT 运维。此举将有助于冯氏集团通过全面采用云及成本结构转型,提高其敏捷度与灵活性,从而推动业务增长。IBM 还将为冯氏集团分布于 280个办事处的 30,000名员工提供持续的 IT 支持。 


新的协议建立在 IBM 与冯氏集团的长期合作关系上。冯氏集团自 2019年起已使用 IBM IT 服务台解决方案(IBM IT Service Desk function),近期该集团旗下公司更与 IBM 签署了一项协议,利用 IBM 的应用程序管理服务(Application Management Services,简称 AMS)提升其企业资源规划能力。这家公司将利用 IBM 的 AMS 解决方案优化两套现有的企业资源规划应用程序——SAP 与 Microsoft Dynamics。该解决方案覆盖香港、欧洲和美国等地区,利用 IBM Watson 的认知和自动化能力处理简单或重复的工作,例如自动复制数据完成常规数据报告、让员工可以集中处理价值更高的工作,从而提高应用程序维护工作的效率和准确性。


冯氏集团董事总经理何百川表示:“冯氏集团计划通过供应链生态系统数字化,实现战略性转型,以适应现今不断变化的市场动态。IBM 对于这一转型计划有着充分的了解,其混合云网络和增强的基础架构服务及营运模式,提供了一个更灵活敏捷的基础架构,可以帮助我们进一步迈向塑造未来零售与供应链的愿景。我们深信,IBM 拥有足够的技术、经验、远见及技能,能帮助我们实现和优化 IT 基础架构的现代化,助力冯氏集团实现宏大的转型计划。”


IBM 大中华区信息科技服务部总经理郑军表示:“冯氏集团是全球领先的供应链策划者,拥有逾 114年的发展历史,他们对于愿景的大力投资令人振奋。数字经济为冯氏集团带来了不少机会,而通过整合 IT 资源,拥抱混合云技术,并利用 IBM 的技能与经验,冯氏集团能够更专注于核心业务。我们很荣幸能够与冯氏集团合作,并期待从现在到未来,特别是 IBM 分拆出 NewCo 基础架构服务业务后,都能一同建立富有活力的合作关系。”


关于 IBM

如需进一步了解 IBM,请访问:

www.ibm.com/news

www.ibm.com/news/cn/zh/  


关于冯氏集团

冯氏控股(1937)有限公司总部设于香港,是一家私人全资拥有的跨国集团。冯氏控股是冯氏集团的主要股东,集团的核心业务涵盖消费品市场的整个全球供应链管理,包括采购、物流、分销及零售。冯氏集团在全球逾 40个国家和地区聘用超过 30,000名员工。冯氏集团的发展历程源远流长。集团始创于 1906年,由经营出口贸易业务发展成全球供应链管理业务,集团见证了香港与珠三角地区蜕变为当今世界生产及贸易重地之一的光辉历史。今天,集团聚焦于创造未来的供应链,协助品牌和零售商在数字经济中驰骋,并在全球各地为品牌创造新机遇、开拓新产品类别和拓展新市场。


如需进一步了解了解冯氏集团,请访问:

www.funggroup.com





END


往期回顾

→ IBM 在行动,寻找 “三位一体”的未来科技! 

→ 解读最新趋势:供应链领袖企业的创新马达


点击“阅读原文”,了解更多