add custom onnx export config

#46
by ltcs15 - opened

currently only support for batch=1 and use_past=False;
and need to fix several model structure to support export into ONNX

写了一份参考代码,你可以尝试一下 https://github.com/K024/chatglm-q

https://huggingface.co./K024/ChatGLM-6b-onnx-u8s8
效果不太好,算子 GPU 支持很差

写了一份参考代码,你可以尝试一下 https://github.com/K024/chatglm-q

https://huggingface.co./K024/ChatGLM-6b-onnx-u8s8
效果不太好,算子 GPU 支持很差

https://github.com/K024/chatglm-q/examples里面的 onnx_export.py针对int8模型导出后,使用https://huggingface.co./K024/ChatGLM-6b-onnx-u8s8 里面的代码加载,启动成功,但是问题回答不正确
环境:
centos7,cuda11.7,Python 3.10.9
image.png
运行结果:

image.png

onnx模型导出列表:

image.png

@K024 帮忙看看是什么问题

@boriszhang78 数值问题挺难说的,你先确认下模型在torch下的输出,然后考虑关掉onnxruntime默认优化试试看吧

Ready to merge
This branch is ready to get merged automatically.

Sign up or log in to comment