3 min read
[AI 小众新闻]

在飞机上进行本地AI开发!用M5 Max奋战10小时的惊人记录


  • 在没有Wi-Fi的10小时伦敦至拉斯维加斯航班上,使用MacBook Pro M5 Max,仅通过本地LLM完成工程任务。...
※この記事はアフィリエイト広告を含みます

在飞机上进行本地AI开发!用M5 Max奋战10小时的惊人记录

📰 新闻概要

  • 在没有Wi-Fi的10小时伦敦至拉斯维加斯航班上,使用MacBook Pro M5 Max,仅通过本地LLM完成工程任务。
  • 在LM Studio中运行Gemma 4 31B和Qwen 4.6 36B,进行基于DuckDB的账单分析工具构建以及400万token的重构。
  • 发现严重的热量问题,电池每分钟减少1%,并且不同类型的电缆(iPhone用 vs Mac用)导致供电能力剧烈差异(60W vs 94W)。

💡 重要要点

  • 模型性能: 在特定范围内的编码中,Gemma 4和Qwen 4.6展现出与前沿模型相媲美的输出。
  • 硬件极限: 持续高负荷使得机身过热,即使连接插座(60W)仍然出现电池持续减少的情况。
  • 基础设施盲点: 使用的电缆是iPhone用还是MacBook用,导致供电效率相差36%,成为性能瓶颈。

🦈 鲨鱼的眼光

终于迎来了在空中进行“完全离线AI开发”的时代!值得注意的是,开发者不仅仅是在聊天,而是结合DuckDB开发了分析工具。M5 Max的128GB统一内存被充分利用,能在机舱内运行Gemma 4等30B以上的模型,真是令人印象深刻!

尤其是“仅凭一根电缆输出就能变化34W”的发现,展现了现场主义工程师的敏锐洞察力。面对物理热量和电力消耗,开发者对云计算中不易察觉的“推理成本”有了更深刻的理解,这种思考非常深刻!这就是“机械共鸣”!

🚀 未来展望

未来,小型LLM将越来越多地应用于优化神经引擎(ANE),使得机舱内的开发更加省电和快速。此外,开发者将重新认识到在移动环境中“电力管理和遥测工具”的重要性。

💬 鲨鱼的简短见解

即使机舱膝盖上的热度让人难以忍受,依然坚持开发的毅力,真让人佩服!选择电缆可是攸关生死的事哦!🦈🔥

📚 术语解释

  • Gemma 4 / Qwen 4.6: 2026年最新的开源LLM。在本地环境中展现出高推理性能,开始在特定工程任务中取代云模型。

  • 统一内存: CPU和GPU能够快速共享的内存结构。是Apple Silicon的特点,是高效处理如LLM这类大参数模型的关键要素。

  • LM Studio: 让用户能够在本地环境中轻松执行和管理LLM的平台。还具备测量推理统计数据(吞吐量和延迟)的功能。

  • 信息来源: Running Local LLMs Offline on a Ten-Hour Flight

【免責事項 / Disclaimer / 免责声明】
JP: 本記事はAIによって構成され、運営者が内容の確認・管理を行っています。情報の正確性は保証せず、外部サイトのコンテンツには一切の責任を負いません。
EN: This article was structured by AI and is verified and managed by the operator. Accuracy is not guaranteed, and we assume no responsibility for external content.
ZH: 本文由AI构建,并由运营者进行内容确认与管理。不保证准确性,也不对外部网站的内容承担任何责任。
🦈