Unity下XLua方案的各值类型GC优化深度剖析

Gad 2017-02-14
Unity下的C#GC Alloc(下面简称gc)是个大问题,而嵌入一个动态类型的Lua后,它们之间的交互很容易就产生gc,各种Lua方案也把这作为性能优化的重点。这些优化说穿了其实不复杂。

元凶在这里

先看看这两个函数
  1. int inc1(int i)
  2. {
  3.     return i + 1;
  4. }

  5. object inc2(object o)
  6. {
  7.     return (int)o + 1;
  8. }
复制代码

window下实测inc1的性能是inc2的20倍!

差距为什么那么大?主要原因在其参数及返回的类型,inc2参数是object类型,意味着一个值类型传入(比如整数)需要boxing,具体一点就是在堆上申请一块内存,把类型信息,值拷贝进去,要使用的时候需要unboxing,也就是从刚刚那堆内存拷贝到栈上,等函数执行完毕后,这个堆内存被gc检测到已经没引用,释放该堆内存。

20倍差距是一个参数一个返回的情况,随着这样的参数加多,差距更大。而且更糟糕的是:GC比较难控制,Unity的手游项目,GC往往是卡顿的元凶。

目前所有lua方案针对lua和c#间交互的gc优化,或者值类型优化,其实都是在做一件事:避免inc2的情况。

C#调用Lua避免inc2

Lua是一门动态类型语言,它的函数可以接受任意类型,任意个数的参数,返回值也是任意类型,任意个数。如果希望以一个通用接口去访问lua函数,情况会比inc2更糟糕:为了支持任意类型任意个数参数,我们可能得用可变参数;为了支持任意类型多返回值,这个接口可能需要返回一个object数组,而不是一个object。因而我们还多了两个数组要分配及释放。函数原型大致如下:

  1. object[]Call(params object[] args)
复制代码

因为以上原因,大多方案虽然都提供了这种方式(因为方便),但又不推荐使用。有的方案会提供无GC的用法,例如ulua如果要避免gc,得这么来:

  1. var func = lua.GetFunction("inc");
  2. func.BeginPCall();
  3. func.Push(123456);
  4. func.PCall();
  5. int num = (int)func.CheckNumber();
  6. func.EndPCall();
复制代码

思路是把lua的栈操作api暴露出来,一个个参数的压栈,调用完一个个返回值的取。这些压栈和取返回值的接口都是确定类型的,换句话也就是inc1的接口。

上面只是单参数,单返回值的情况,大多数情况代码会更繁琐。

而slua没有找到相关的方案。

xLua的解决办法的核心思想是:只要你告诉我要用什么参数调用,我帮你优化。
  1. [CSharpCallLua]
  2. public delegate int Inc(int i);
  3. Inc func= luaenv.Global.Get("inc");
  4. int num =  func(123456);
复制代码

1、按你所需声明一个delegate,打上CSharpCallLua标签;

2、执行生成代码;

3、用Table的Get接口把inc函数映射到func委托;

4、接下来就可以愉快的使用这个delegate了。

多复杂的参数都是和上面一样:声明,获取,使用。仅比带gc的Call接口多了一步声明,使用上和Call接口一样简单,甚至处理返回值方面更简单些,而且还额外带来强类型检查的好处。

如果lua函数有多个返回值怎么办?

多返回值将会映射到C#的返回值以及各输出参数,从左往右一一映射。

除此之外,xLua还支持一个lua table映射到一个C# interface,对这个interface的属性访问会访问到lua table的对应字段,成员方法调用会调用到lua table里头的对应函数。同样的,无gc。

这是如何做到的呢?说起来也不复杂,以lua函数映射到c# delegate为例,xLua会对声明了CSharpCallLua的delegate生成一段代码,比如Inc的生成代码会类似这样:

  1. public int SystemInt32(int x)
  2. {
  3.     //...init
  4.     LuaAPI.lua_getref(L, _Reference);
  5.               
  6.     LuaAPI.xlua_pushinteger(L, x);
  7.     int __gen_error = LuaAPI.lua_pcall(L, 1, 1, err_func);

  8.     //...error handle
  9.     int __gen_ret = LuaAPI.xlua_tointeger(L, err_func + 1);
  10.     LuaAPI.lua_settop(L, err_func - 1);
  11.     return  __gen_ret;
  12. }
复制代码

Get方法返回的委托将会指向这个方法。从这段代码来看,和ulua无gc代码类似,不同的是,别人家得手写,而且由于xLua少了一层封装,直接调用Lua的api,应该也更高效些。

复杂值类型优化

从C#到lua的复杂对象传递说起

lua虚拟机,对于.net就是非托管代码,要传递对象过去,得解决几个问题:

1、lua使用该对象期间,该对象不能被gc;

2、如果非托管代码(lua)回调托管代码(c#),当回传该对象的引用时,应该正确找到对应的对象;

3、重复传递一个对象,在unmanaged code测的引用表示最好是一致的;

问题1和问题2 官方给的方案是pined对象,实测pined一个对象以及释放的性能大致和Dictionary的Set/Get相当,而问题1和问题2可以优化为数组操作,性能可以比Pined方案高4~5倍:接受一个对象,在一个数组上找到一个空位置放进去,返回数组的下标作为对象引用。通过链表组织空位置,空位置查找可以优化成O(1)操作,而通过引用找对象当然也是O(1)。

问题3没啥好的解决办法,用Dictionary建立对象到引用的索引。

复杂值类型的困境

C#一切都是对象,自然也包括值类型,也能沿用上面的方案,这功能上没问题,性能却遭遇了滑铁卢:

每一次值类型放入对象池(指的是前面一节中提到的为了解决3个问题而做的一套机制)中就会碰到inc2的情况,会boxing成一个新对象,还有入池的一系列操作。有人会问用pined方案会不会没这问题,其实是一样的,值类型是在栈上,而pined了之后要从栈转到堆上,栈转堆还是会有类似的过程:分配堆内存,拷贝,用完释放。

这问题比前面那问题影响面更广,只要C#往lua传递一个复杂值类型就会出现,比如普普通通的Vector3四则运算会产生大量的gc。

ulua和slua思路是一样的,对特定的几个U3D值类型(Vector2, Vector3,Vector4,Quaternion)做硬编码优化,以Vector3为例:

1、用lua重新实现了Vector3的所有方法;

2、C#的Vector3传入lua:是先在lua侧建一个luatable,把待传入Vector3的x,y,z设置为对应字段;设置该table的metatable为1的方法实现;

3、lua回传Vector3到C#:C#构建一个Vector3后,取出对应table的x,y,z字段赋值到Vector3;

xLua的复杂值类型优化

上面的优化存在一些问题:需要增加一种新的值类型十分困难,所以目前为止采用这种方案能支持的值类型手指头就能数得过来,用户自定义的struct就更不可能支持了,核心代码深度耦合这几个类型也是不合理的。还有个比较严重的问题:xLua作者比较抗拒硬编码这种行为。

让我们思考一下,ulua和slua那种优化能避免gc的本质是什么?还有简单值类型从C#传递到lua也没产生gc,原因是什么?

答案就是:值拷贝!

ulua和slua的复杂值类型优化,从C#传递到lua本质上是把Vector3值拷贝到lua table,避免了入池进而避免了inc2;简单值类型也是,一个c#的int传入lua,也是直接把int值拷贝到lua的栈上。

明白了这个思路就开阔很多,xLua设计了一套新的值类型方案,只要一个struct里头只包含值类型,可嵌套struct,当然,要求被嵌套的struct也只包含值类型,该方法都适用。

原理也不复杂:

1、生成struct的值拷贝代码,用于把struct里头各字段拷贝到一块非托管内存(Pack函数),以及从非托管内存拷贝出各字段的值(UnPack函数);

2、c#传struct到lua:调用lua的api,申请一块userdata(对于c#来说是非托管代码),调用Pack把struct打包进去;

3、lua回传到给c#:调用UnPack解出struct;

4、struct的方法还是沿用c#原本的实现;

说穿了,就和pb类似,把c#的数据结构序列化到一块内存以及从内存反序列化回来。

先说这方案的缺点:

缺点源于这个方案调用struct的方法还是调用原来C#的实现。从lua经C语言,再经pinvoke调用到C#,这个适配的成本已经远远大于一些简单方法执行的开销。当然,xLua只是默认调用C#的实现,也不是必须的,xLua提供了不经过C#,在C就直接读取更改struct字段的API,比较勤快的童鞋利用这API,可以尝试把需要高性能的地方用Lua实现,这就避免了lua和C#间的适配成本。

PS一下:网上很流行的lua方案性能用例,用Vector3.Normalize来测试lua调用c#静态函数的性能,甚至Unity官方发的测评都用这个用例。由前面的分析可以知道,这是不对的,这些被测方案的Vector3.Normalize都仅在lua里头跑,压根没测试到“lua调用c#静态函数”。

这方案优点:

1、支持的struct类型宽泛的多,用户要做的事情也很简单,声明一下要生成代码即可(GCOptimize),之所以要声明,主要是避免生成代码过多;

2、相比table方案更省内存,只是struct的大小加上一个头部,而64位下空table就80字节+,实际测试Vector3的userdata方案的内存占用是table方案三分之一;

其它值类型GC优化

下面大多数优化都只在xLua有效,可以在其05_NoGc示例看到用法,生成代码后运行在profiler看你效果。

1、枚举类型传递无GC;

2、decimal不丢失精度而且无GC;

3、所有无GC的类型,它的数组访问没有GC,这个貌似大多数方案都做到;

4、能被GCOptimize优化的struct,在Lua可以直接传一个对应结构的table,无GC;

5、LuaTable提供一系列泛化Get/Set接口,可以传递值类型而无GC;

6、一个interface加入到CSharpCallLua后,可以用table来实现这个interface,通过这interface访问table无GC;

这些优化和前面介绍的两大思路一脉相承,可以通过源代码看其实现,这就不分析了。

via:Gad

声明:游资网登载此文出于传递信息之目的,绝不意味着游资网赞同其观点或证实其描述。

最新评论
暂无评论
参与评论

商务合作 查看更多

编辑推荐 查看更多