IT之家 3 月 7 日消息,AMD 公司今天发布公告,表示用户可以本地化运行基于 GPT 的大语言模型(LLM),从而构建专属的 AI 聊天机器人。
AMD 表示用户可以在包括采用 AMD 新 XDNA NPU 的 Ryzen 7000 和 Ryzen 8000 系列 APU,以及内置 AI 加速核心的 Radeon RX 7000 系列 GPU 设备上,本地运行 LLM 和 AI 聊天机器人。
AMD 在公告中详细介绍了运行步骤,例如运行 70 亿参数的 Mistral,搜索并下载“TheBloke /OpenHermes-2.5-Mistral-7B-GGUF”;如果运行 70 亿参数的 LLAMA v2,搜索并下载“TheBloke / Llama-2-7B-Chat-GGUF”。