Julia 入门教程 Julia 代码性能优化

2024-02-25 开发教程 Julia 入门教程 匿名 15

代码性能优化

以下几节将描述一些提高 Julia 代码运行速度的技巧。

避免全局变量

全局变量的值、类型,都可能变化。这使得编译器很难优化使用全局变量的代码。应尽量使用局部变量,或者把变量当做参数传递给函数。

对性能至关重要的代码,应放入函数中。

声明全局变量为常量可以显著提高性能:

const DEFAULT_VAL = 0

使用非常量的全局变量时,最好在使用时指明其类型,这样也能帮助编译器优化:

global x
y = f(x::Int + 1)

写函数是一种更好的风格,这会产生更多可重复和清晰的代码,也包括清晰的输入和输出。

使用 @time来衡量性能并且留心内存分配

衡量计算性能最有用的工具是 @time宏。下面的例子展示了良好的使用方式 :

julia> function f(n)
s = 0
for i = 1:n
s += i/2
end
s
end
f (generic function with 1 method)
julia> @time f(1)
elapsed time: 0.008217942 seconds (93784 bytes allocated)
0.5
julia> @time f(10^6)
elapsed time: 0.063418472 seconds (32002136 bytes allocated)
2.5000025e11

在第一次调用时 (@time f(1)), f会被编译. (如果你在这次会话中还 没有使用过 @time, 计时函数也会被编译.) 这时的结果没有那么重要. 在 第二次调用时, 函数打印了执行所耗费的时间, 同时请注意, 在这次执行过程中 分配了一大块的内存. 相对于函数形式的 tictoc, 这是 @time宏的一大优势.

出乎意料的大块内存分配往往意味着程序的某个部分存在问题, 通常是关于类型 稳定性. 因此, 除了关注内存分配本身的问题, 很可能 Julia 为你的函数生成 的代码存在很大的性能问题. 这时候要认真对待这些问题并遵循下面的一些个建 议.

另外, 作为一个引子, 上面的问题可以优化为无内存分配 (除了向 REPL 返回结 果), 计算速度提升 30 倍 ::

julia> @time f_improved(10^6)
elapsed time: 0.00253829 seconds (112 bytes allocated)
2.5000025e11

你可以从下面的章节学到如何识别 f存在的问题并解决。

在有些情况下, 你的函数可能需要为本身的操作分配内存, 这样会使得问题变得 复杂. 在这种情况下, 可以考虑使用下面的 :ref:工具​ 之一来甄别问题, 或者将函数拆分, 一部分处理内存分配, 另一部分处理算法 (参见 :ref:​预分配内存)。

工具

Julia 提供了一些工具包来鉴别性能问题所在 :

  • profiling)可以用来衡量代码的性能, 同时鉴别出瓶颈所在。对于复杂的项目, 可以使用 ​ProfileView ​扩展包来直观的展示分析结果.
  • 出乎意料的大块内存分配, -- ​@time​, ​@allocated​, 或者 -profiler - 意味着你的代码可能存在问题. 如果你看不出内存分配的问题, -那么类型系统可能存在问题. 也可以使用 ​--track-allocation=user​ 来 -启动 Julia, 然后查看​*.mem​ 文件来找出内存分配是在哪里出现的.
  • TypeCheck ​_ 扩展包可以指出程序一 些问题.

避免包含一些抽象类型参数

当运行参数化类型时候,比如 arrays,如果有可能最好去避免使用抽象类型参数。 思考下面的代码:

a = Real[] # typeof(a) = Array{Real,1}
if (f = rand()) x = [1 2; 3 4]
2x2 Array{Int64,2}:
1 2
3 4
julia> x[:]
4-element Array{Int64,1}:
1
3
2
4

这种给数组排序的约定在许多语言中都是常见的,比如 Fortran , Matlab ,和 R 语言(举几个例子来说)。以列为主序的另一选择就是以行为主序,其它语言中的 C 语言和 Python 语言(​numpy​)就是选用了这种方式。记住数组的顺序对数组的查找有着至关重要的影响。要记住的一个查找规则就是对于基于列为顺序的数组,第一个指针是变化最快的。这基本上就意味着如果在一段代码中,循环指针是第一个,那么查找速度会更快。

我们来看一下下面这个人为的例子。假设我们想要实现一个功能,接收一个 ​Vector ​并且返回一个方形的 ​Matrix​,且行或列为输入矢量的复制。我们假设是行还是列为数据的复制并不重要(或许剩下的代码可以相应地更容易的适应)。我们可以想到有至少四种方法可以实现这一点(除了建议的回访正建的 ​repmat ​功能):

function copy_cols{T}(x::Vector{T})
    n = size(x, 1)
    out = Array(eltype(x), n, n)
    for i=1:n
        out[:, i] = x
    end
    out
end
function copy_rows{T}(x::Vector{T})
    n = size(x, 1)
    out = Array(eltype(x), n, n)
    for i=1:n
        out[i, :] = x
    end
    out
end
function copy_col_row{T}(x::Vector{T}) n = size(x, 1)
    out = Array(T, n, n)
    for col=1:n, row=1:n
        out[row, col] = x[row]
    end
    out
end
function copy_row_col{T}(x::Vector{T}) n = size(x, 1)
    out = Array(T, n, n)
    for row=1:n, col=1:n
        out[row, col] = x[col]
    end
    out
end

现在我们使用同样的输入向量 ​1​ 产生的随机数 10000​ 给每个功能计时:

julia> x = randn(10000);
julia> fmt(f) = println(rpad(string(f)*": ", 14, ' '), @elapsed f(x))
julia> map(fmt, {copy_cols, copy_rows, copy_col_row, copy_row_col});
copy_cols: 0.331706323
copy_rows: 1.799009911
copy_col_row: 0.415630047
copy_row_col: 1.721531501

注意到 ​copy_cols ​比​copy_rows​快很多。这是意料之中的,因为 ​copy_cols ​遵守 ​Matrix​`界面的基于列的存储,并且一次就填满一列。除此之外,​copy_col_row​比 ​copy_row_col ​快很多,因为它符合我们的查找规则,即在一段代码中第一个出现的元素应该是与最内部的循环相联系的。

输出预先分配

如果你的功能返回了一个 Array 或其它复杂类型,它可能不得不分配内存。不幸的是,时常分配和它的相反事件,垃圾区收集,是有实质性瓶颈的。

有时候,你可以在访问每个功能时通过预先分配输出来避开分配内存的需要。作为一个很小的例子,比较一下

function xinc(x)
    return [x, x+1, x+2]
end
function loopinc()
    y = 0
    for i = 1:10^7
        ret = xinc(i)
        y += ret[2]
    end y
end

function xinc!{T}(ret::AbstractVector{T}, x::T)
    ret[1] = x
    ret[2] = x+1
    ret[3] = x+2
    nothing
end
function loopinc_prealloc()
    ret = Array(Int, 3)
    y = 0
    for i = 1:10^7
        xinc!(ret, i)
        y += ret[2]
    end
    y
end

计时结果:

julia> @time loopinc()
elapsed time: 1.955026528 seconds (1279975584 bytes allocated)
50000015000000
julia> @time loopinc_prealloc()
elapsed time: 0.078639163 seconds (144 bytes allocated)
50000015000000

预先分配有其他好处,比如,允许访问者通过算法控制“输出”类型。在上面的例子中,我们可以按照自己希望的,通过一个​SubArray ​而不是 ​Array​。

按着最极端的来想,预先分配可以让你的代码看起来丑点,所以需要一些表达方式和判断。

避免输入/输出时的串插入

把数据写入文件(或者其他输入/输出设备)时,中间字符串的形成是额外的开销。而不是:

println(file, "$a $b")

使用:

println(file, a, " ", b)

第一种代码形成了一个字符串,然后把它写入了文件,而第二种代码直接把值写入了文件。同样也注意到在某些情况下,字符串的插入很难读出来。考虑一下:

println(file, "$(f(a))$(f(b))")

对比:

println(file, f(a), f(b))

处理有关舍弃的警告

被舍弃的函数,会查表并显示一次警告,而这会影响性能。建议按照警告的提示进行对应的修改。

小技巧

注意些有些小事项,能使内部循环更紧致。

  • 避免不必要的数组。例如,不要使用 ​sum([x,y,z])​,而应使用 ​x+y+z
  • 对于较小的整数幂,使用 ​*​ 更好。如 ​x*x*x​ 比 ​x^3​ 好
  • 针对复数 ​z​ ,使用 ​abs2(z) ​代替 ​abs(z)^2 ​。一般情况下,对于复数参数,尽量用 ​abs2​ 代替 ​abs
  • 对于整数除法,使用 ​div(x,y)​ 而不是 ​trunc(x/y)​, 使用 ​fld(x,y)​ 而不是 ​floor(x/y)​, 使用 ​cld(x,y)​ 而不是 ​ceil(x/y)​.

性能注释

有时你可以设定某些项目属性来获得更好的优化。

  • 在检查公式时,使用 ​@inbounds​来消除数组界限。一定要在这之前完成。如果下标越界了,你可能会遇到崩溃或不执行的问题。
  • 在 ​for​循环之前写上 ​@simd​,这个可以帮你检验。这个特征是试验性的而且在之后的 Julia 版本中可能会改变会消失。

这里有一个包含两种形式审定的例子:

function inner( x, y )
    s = zero(eltype(x))
    for i=1:length(x)
        @inbounds s += x[i]*y[i]
    end
    s
end
function innersimd( x, y )
    s = zero(eltype(x))
    @simd for i=1:length(x)
        @inbounds s += x[i]*y[i]
    end
    s
end
function timeit( n, reps )
    x = rand(Float32,n)
    y = rand(Float32,n)
    s = zero(Float64)
    time = @elapsed for j in 1:reps
        s+=inner(x,y)
    end
    println("GFlop = ",2.0*n*reps/time*1E-9)
    time = @elapsed for j in 1:reps
        s+=innersimd(x,y)
    end
    println("GFlop (SIMD) = ",2.0*n*reps/time*1E-9)
end
timeit(1000,1000)

在配有 2.4GHz 的 Intel Core i5 处理器的电脑上,产生如下结果:

GFlop = 1.9467069505224963
GFlop (SIMD) = 17.578554163920018

@simd for​ 循环应该是一维范围的。缩减变数是用于累积变量的,比如例子中的 ​s​。通过使用 ​@simd​,你可以维护循环的几种性能:

  • -有缩减变数的特殊考虑后,在任意的或重叠的顺序中执行迭代都是安全的。
  • 减少变量的浮点操作可以被重复执行,但是可能会比没有 ​@simd​ 产生不同的结果。
  • 不会有一个迭代在等待另一个迭代,以实现前进。

使用 ​@simd​ 仅仅是给了编译器矢量化的通行证。它是不是真的会这样做还取决于编译器。要真正从当前的实现中获益,你的循环应该有如下额外的性能:

  • 循环必须是内部循环。
  • 循环主题必须是无循环程序。这就是为什么当前所有的数组访问都需要 ​@inbounds​的原因了。
  • 访问必须有一个跨越模式,而且不能“聚集”(随机指针读取)或者“分散”(随机指针写入)。
  • 跨越应该是单元跨越。
  • 在一些简单的例子中,例如一个 2-3 数组访问的循环中,LLVM 自动矢量化可能会自动生效,导致无需​@simd​ 的进一步加速。