<?xml version="1.0" encoding="UTF-8"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>AppleSilicon | 杜叔叔网盘</title><description/><link>https://du.hmng.de</link><item><title>JANG: 面向 Apple Silicon 的 MLX 混合精度量化格式• 针对 MoE 与超大模型做按张量分配比特宽度，在接近 MLX 体积下优先保留 attention 与 router 精度，低比特场景下稳定性和效果更强• 支持 Qwen、Nemotron、MiniMax、DeepSeek 等架构，部分模型可在 16 GB 或 64 GB Mac 上运行，甚至实现 397B 级模型在 128 GB Mac 上推理• 原生兼容 MLX 生态，提供推理模式、VLM 支持、bfloat16 自动检测和开发者集成方案，适合在 Apple Silicon 上部署高压缩本地模型</title><link>https://du.hmng.de/posts/341</link><guid isPermaLink="true">https://du.hmng.de/posts/341</guid><pubDate>Wed, 25 Mar 2026 04:51:15 GMT</pubDate><content:encoded>&lt;u&gt;JANG: 面向 Apple Silicon 的 MLX 混合精度量化格式&lt;/u&gt;&lt;br /&gt;&lt;br /&gt;• 针对 MoE 与超大模型做按张量分配比特宽度，在接近 MLX 体积下优先保留 attention 与 router 精度，低比特场景下稳定性和效果更强&lt;br /&gt;&lt;br /&gt;• 支持 Qwen、Nemotron、MiniMax、DeepSeek 等架构，部分模型可在 16 GB 或 64 GB Mac 上运行，甚至实现 397B 级模型在 128 GB Mac 上推理&lt;br /&gt;&lt;br /&gt;• 原生兼容 MLX 生态，提供推理模式、VLM 支持、bfloat16 自动检测和开发者集成方案，适合在 Apple Silicon 上部署高压缩本地模型&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;https://github.com/jjang-ai/jangq&quot; target=&quot;_blank&quot;&gt;https://github.com/jjang-ai/jangq&lt;/a&gt;&lt;br /&gt;&lt;br /&gt;&lt;a href=&quot;/search/%23AppleSilicon&quot;&gt;#AppleSilicon&lt;/a&gt; &lt;a href=&quot;/search/%23MLX&quot;&gt;#MLX&lt;/a&gt; &lt;a href=&quot;/search/%23%E6%A8%A1%E5%9E%8B%E9%87%8F%E5%8C%96&quot;&gt;#模型量化&lt;/a&gt; &lt;a href=&quot;/search/%23%E6%B7%B7%E5%90%88%E7%B2%BE%E5%BA%A6%E9%87%8F%E5%8C%96&quot;&gt;#混合精度量化&lt;/a&gt; &lt;a href=&quot;/search/%23%E6%9C%AC%E5%9C%B0%E5%A4%A7%E6%A8%A1%E5%9E%8B&quot;&gt;#本地大模型&lt;/a&gt; &lt;a href=&quot;/search/%23MoE&quot;&gt;#MoE&lt;/a&gt; &lt;a href=&quot;/search/%23%E6%8E%A8%E7%90%86%E4%BC%98%E5%8C%96&quot;&gt;#推理优化&lt;/a&gt; &lt;a href=&quot;/search/%23Mac&quot;&gt;#Mac&lt;/a&gt; &lt;a href=&quot;/search/%23AI&quot;&gt;#AI&lt;/a&gt; &lt;a href=&quot;/search/%23GitHub&quot;&gt;#GitHub&lt;/a&gt;&lt;a href=&quot;https://github.com/jjang-ai/jangq&quot; target=&quot;_blank&quot;&gt;
  
  &lt;div&gt;GitHub&lt;/div&gt;
  
  &lt;div&gt;GitHub - jjang-ai/jangq: JANG — GGUF for MLX. YOU MUST USE JANG_Q RUNTIME. Adaptive Mixed-Precision Quantization + Runtime for…&lt;/div&gt;
  &lt;div&gt;JANG — GGUF for MLX. YOU MUST USE JANG_Q RUNTIME. Adaptive Mixed-Precision Quantization + Runtime for Apple Silicon - jjang-ai/jangq&lt;/div&gt;
&lt;/a&gt;</content:encoded></item></channel></rss>