算力调度与AI
在人工智能领域,摩尔定律已经成为了一个耳熟能详的术语。它指的是随着半导体工艺技术的不断发展,集成电路上可容纳的晶体管数目每隔18-24个月就会翻一倍,而价格不变的情况下,计算能力也会随之提升一倍。
这个规律被广泛应用于计算机硬件的发展之中,也同样适用于其他领域。然而最近几年来,摩尔定律开始失效了:
一方面是计算能力的瓶颈——硅芯片上的晶体管数量已经无法继续增加;另一方面则是成本的限制——在摩尔定律失效之后,芯片的制造成本反而上升了。因此人们不得不重新思考计算力的获取方式。目前来看,有两种主要的方案:一种是通过云端进行大规模并行计算,另一种则是在本地通过GPU等加速器实现。这两种方案的优劣势如下:云端的优势在于可以快速获得大量的计算资源,缺点是对于一些需要高性能计算的场景来说并不适用;而在本地使用GPU等加速器则能够满足大部分场景下的计算需求,但缺点是需要占用更多的物理空间和能源。
那么有没有一种既能充分利用闲置的计算资源又能避免浪费的方法呢?答案就是“弹性算力”。弹性算力是指根据实际需求动态调整计算资源的供给,以达到最优的资源利用率。举个例子,如果一个企业正在招聘大量数据分析师,但是只有两台服务器,一台用于存储数据和处理简单的数据,另一台用于复杂的运算,那么这两台机器显然不能够同时提供足够的服务能力;如果将第二台服务器降级为简单的计算任务,转而将一部分计算能力分配给数据分析师们,就可以大大提高整个系统的效率。