科技资讯 安卓机上 4G 内存跑 alpaca,欢迎试用轻量级 LLM 模型推理框架 InferLLM 2023-05-08 13400℃ 鉴于此,MegEngine 团队开发了 InferLLM 工程,主要目的有两个:提供一个比 llama.cpp 更简单更容易上手的本地部署框...