<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="zh-Hans-CN">
	<id>https://www.yiliao.com/index.php?action=history&amp;feed=atom&amp;title=%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F</id>
	<title>知识蒸馏 - 版本历史</title>
	<link rel="self" type="application/atom+xml" href="https://www.yiliao.com/index.php?action=history&amp;feed=atom&amp;title=%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F"/>
	<link rel="alternate" type="text/html" href="https://www.yiliao.com/index.php?title=%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F&amp;action=history"/>
	<updated>2026-04-18T17:29:41Z</updated>
	<subtitle>本wiki的该页面的版本历史</subtitle>
	<generator>MediaWiki 1.35.1</generator>
	<entry>
		<id>https://www.yiliao.com/index.php?title=%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F&amp;diff=312645&amp;oldid=prev</id>
		<title>77921020：建立内容为“&lt;div style=&quot;padding: 0 4%; line-height: 1.8; color: #1e293b; font-family: 'Helvetica Neue', Helvetica, 'PingFang SC', Arial, sans-serif; background-color: #ffffff…”的新页面</title>
		<link rel="alternate" type="text/html" href="https://www.yiliao.com/index.php?title=%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F&amp;diff=312645&amp;oldid=prev"/>
		<updated>2026-01-04T01:26:16Z</updated>

		<summary type="html">&lt;p&gt;建立内容为“&amp;lt;div style=&amp;quot;padding: 0 4%; line-height: 1.8; color: #1e293b; font-family: &amp;#039;Helvetica Neue&amp;#039;, Helvetica, &amp;#039;PingFang SC&amp;#039;, Arial, sans-serif; background-color: #ffffff…”的新页面&lt;/p&gt;
&lt;p&gt;&lt;b&gt;新页面&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;div style=&amp;quot;padding: 0 4%; line-height: 1.8; color: #1e293b; font-family: 'Helvetica Neue', Helvetica, 'PingFang SC', Arial, sans-serif; background-color: #ffffff; max-width: 1200px; margin: auto;&amp;quot;&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div style=&amp;quot;margin-bottom: 30px; border-bottom: 1.2px solid #e2e8f0; padding-bottom: 25px;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;p style=&amp;quot;font-size: 1.1em; margin: 10px 0; color: #334155; text-align: justify;&amp;quot;&amp;gt;&lt;br /&gt;
            &amp;lt;strong&amp;gt;Knowledge Distillation&amp;lt;/strong&amp;gt;（&amp;lt;strong&amp;gt;知识蒸馏&amp;lt;/strong&amp;gt;，简称 &amp;lt;strong&amp;gt;KD&amp;lt;/strong&amp;gt;）是一种模型压缩技术，其核心思想是让一个轻量级的“学生模型”（Student Model）模仿一个庞大且复杂的“教师模型”（Teacher Model）的行为。如果说预训练大模型是“读万卷书”，那么知识蒸馏就是“名师带徒弟”。在医疗 AI 领域，KD 是解决&amp;lt;strong&amp;gt;[[大模型落地难]]&amp;lt;/strong&amp;gt;（推理慢、算力贵、隐私无法出院）的关键技术。通过蒸馏，我们可以将千亿参数的通用大模型（如 GPT-4）中的医学知识，转移到一个几十亿参数的小模型（如 Llama-7B）中，使其在特定医疗任务上达到接近老师的水平，但运行速度快几十倍。&lt;br /&gt;
        &amp;lt;/p&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div class=&amp;quot;medical-infobox mw-collapsible mw-collapsed&amp;quot; style=&amp;quot;width: 100%; max-width: 320px; margin: 0 auto 35px auto; border: 1.2px solid #bae6fd; border-radius: 12px; background-color: #ffffff; box-shadow: 0 8px 20px rgba(0,0,0,0.05); overflow: hidden;&amp;quot;&amp;gt;&lt;br /&gt;
        &lt;br /&gt;
        &amp;lt;div style=&amp;quot;padding: 15px; color: #1e40af; background: linear-gradient(135deg, #e0f2fe 0%, #bae6fd 100%); text-align: center; cursor: pointer;&amp;quot;&amp;gt;&lt;br /&gt;
            &amp;lt;div style=&amp;quot;font-size: 1.2em; font-weight: bold; letter-spacing: 1.2px;&amp;quot;&amp;gt;Knowledge Distillation&amp;lt;/div&amp;gt;&lt;br /&gt;
            &amp;lt;div style=&amp;quot;font-size: 0.7em; opacity: 0.85; margin-top: 4px; white-space: nowrap;&amp;quot;&amp;gt;(点击展开)&amp;lt;/div&amp;gt;&lt;br /&gt;
        &amp;lt;/div&amp;gt;&lt;br /&gt;
        &lt;br /&gt;
        &amp;lt;div class=&amp;quot;mw-collapsible-content&amp;quot;&amp;gt;&lt;br /&gt;
            &amp;lt;div style=&amp;quot;padding: 25px; text-align: center; background-color: #f8fafc;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;div style=&amp;quot;display: inline-block; background: #ffffff; border: 1px solid #e2e8f0; border-radius: 12px; padding: 20px; box-shadow: 0 4px 10px rgba(0,0,0,0.04);&amp;quot;&amp;gt;&lt;br /&gt;
                    [[Image:Knowledge_Distillation_Icon.png|100px|师徒传承]]&lt;br /&gt;
                &amp;lt;/div&amp;gt;&lt;br /&gt;
                &amp;lt;div style=&amp;quot;font-size: 0.8em; color: #64748b; margin-top: 12px; font-weight: 600;&amp;quot;&amp;gt;大模型的瘦身秘籍&amp;lt;/div&amp;gt;&lt;br /&gt;
            &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
            &amp;lt;table style=&amp;quot;width: 100%; border-spacing: 0; border-collapse: collapse; font-size: 0.85em;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569; border-bottom: 1px solid #e2e8f0; width: 40%;&amp;quot;&amp;gt;提出者&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; border-bottom: 1px solid #e2e8f0; color: #0f172a;&amp;quot;&amp;gt;Geoffrey Hinton (2015)&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569; border-bottom: 1px solid #e2e8f0;&amp;quot;&amp;gt;核心角色&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; border-bottom: 1px solid #e2e8f0; color: #1e40af;&amp;quot;&amp;gt;Teacher (大/强), Student (小/快)&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569; border-bottom: 1px solid #e2e8f0;&amp;quot;&amp;gt;传递介质&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; border-bottom: 1px solid #e2e8f0; color: #0f172a;&amp;quot;&amp;gt;软标签 (Soft Targets)&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569; border-bottom: 1px solid #e2e8f0;&amp;quot;&amp;gt;关键参数&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; border-bottom: 1px solid #e2e8f0; color: #0f172a;&amp;quot;&amp;gt;温度 (Temperature, T)&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569; border-bottom: 1px solid #e2e8f0;&amp;quot;&amp;gt;主要目标&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; border-bottom: 1px solid #e2e8f0; color: #0f172a;&amp;quot;&amp;gt;模型压缩, 加速推理&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
                &amp;lt;tr&amp;gt;&lt;br /&gt;
                    &amp;lt;th style=&amp;quot;text-align: left; padding: 6px 12px; background-color: #f1f5f9; color: #475569;&amp;quot;&amp;gt;核心标签&amp;lt;/th&amp;gt;&lt;br /&gt;
                    &amp;lt;td style=&amp;quot;padding: 6px 12px; color: #1e40af;&amp;quot;&amp;gt;[[Dark Knowledge]], [[端侧AI]]&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;/table&amp;gt;&lt;br /&gt;
        &amp;lt;/div&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;h2 style=&amp;quot;background: #f1f5f9; color: #0f172a; padding: 10px 18px; border-radius: 0 6px 6px 0; font-size: 1.25em; margin-top: 40px; border-left: 6px solid #0f172a; font-weight: bold;&amp;quot;&amp;gt;核心原理：Dark Knowledge (暗知识)&amp;lt;/h2&amp;gt;&lt;br /&gt;
    &lt;br /&gt;
    &amp;lt;p style=&amp;quot;margin: 15px 0; text-align: justify;&amp;quot;&amp;gt;&lt;br /&gt;
        为什么小模型通过“蒸馏”能学得比单纯看标准答案（Hard Label）更好？&lt;br /&gt;
        &amp;lt;br&amp;gt;因为教师模型不仅告诉学生“这是什么”，还暗示了“它像什么”。&lt;br /&gt;
    &amp;lt;/p&amp;gt;&lt;br /&gt;
    [[Image:Knowledge Distillation Teacher Student architecture]]&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div style=&amp;quot;margin-bottom: 25px; border: 1px solid #e2e8f0; border-radius: 8px; padding: 20px; background-color: #ffffff;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;h3 style=&amp;quot;margin-top: 0; color: #1e40af; font-size: 1.1em; border-bottom: 1px solid #e2e8f0; padding-bottom: 10px;&amp;quot;&amp;gt;案例：肺癌诊断&amp;lt;/h3&amp;gt;&lt;br /&gt;
        &amp;lt;p style=&amp;quot;text-align: justify; color: #334155;&amp;quot;&amp;gt;&lt;br /&gt;
            假设有一张肺部 X 光片。&lt;br /&gt;
            &amp;lt;br&amp;gt;• &amp;lt;strong&amp;gt;标准答案 (Hard Label)：&amp;lt;/strong&amp;gt; [肺癌: 1, 肺炎: 0, 正常: 0]。这只告诉小模型“这是肺癌”。&lt;br /&gt;
            &amp;lt;br&amp;gt;• &amp;lt;strong&amp;gt;教师模型输出 (Soft Targets)：&amp;lt;/strong&amp;gt; [肺癌: 0.7, 肺炎: 0.2, 正常: 0.1]。&lt;br /&gt;
            &amp;lt;br&amp;gt;&amp;lt;strong&amp;gt;蒸馏的价值：&amp;lt;/strong&amp;gt; 教师模型透露了“暗知识”——这张片子虽然是肺癌，但它长得有点像肺炎（概率0.2），完全不像正常肺（概率0.1）。这种&amp;lt;strong&amp;gt;类别间的关系&amp;lt;/strong&amp;gt;（Inter-class Similarity）是单纯的数据标签不具备的，学生学了这个能更好地举一反三。&lt;br /&gt;
        &amp;lt;/p&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;h2 style=&amp;quot;background: #f1f5f9; color: #0f172a; padding: 10px 18px; border-radius: 0 6px 6px 0; font-size: 1.25em; margin-top: 40px; border-left: 6px solid #0f172a; font-weight: bold;&amp;quot;&amp;gt;在医疗 AI 中的商业价值&amp;lt;/h2&amp;gt;&lt;br /&gt;
    &lt;br /&gt;
    &amp;lt;p style=&amp;quot;margin: 15px 0; text-align: justify;&amp;quot;&amp;gt;&lt;br /&gt;
        对于“智慧医生”项目，知识蒸馏是实现&amp;lt;strong&amp;gt;[[私有化部署]]&amp;lt;/strong&amp;gt;的核心技术栈。&lt;br /&gt;
    &amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div style=&amp;quot;overflow-x: auto; margin: 30px auto; max-width: 100%;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;table style=&amp;quot;width: 100%; border-collapse: collapse; border: 1.2px solid #cbd5e1; font-size: 0.9em; text-align: left;&amp;quot;&amp;gt;&lt;br /&gt;
            &amp;lt;tr style=&amp;quot;background-color: #f1f5f9; border-bottom: 2px solid #0f172a;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;th style=&amp;quot;padding: 12px; border: 1px solid #cbd5e1; color: #0f172a; width: 25%;&amp;quot;&amp;gt;痛点&amp;lt;/th&amp;gt;&lt;br /&gt;
                &amp;lt;th style=&amp;quot;padding: 12px; border: 1px solid #cbd5e1; color: #475569;&amp;quot;&amp;gt;不使用蒸馏 (直接用大模型)&amp;lt;/th&amp;gt;&lt;br /&gt;
                &amp;lt;th style=&amp;quot;padding: 12px; border: 1px solid #cbd5e1; color: #1e40af;&amp;quot;&amp;gt;使用蒸馏 (Teacher → Student)&amp;lt;/th&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px; border: 1px solid #cbd5e1; font-weight: 600; background-color: #ffffff;&amp;quot;&amp;gt;部署环境&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;需要昂贵的 A100 GPU 集群，必须联网调用云端 API。&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;可以部署在医院的普通服务器，甚至医生的&amp;lt;strong&amp;gt;[[边缘设备]]&amp;lt;/strong&amp;gt;（如高性能 PC）上。&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px; border: 1px solid #cbd5e1; font-weight: 600; background-color: #f8fafc;&amp;quot;&amp;gt;数据隐私&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;患者数据必须上传云端，面临&amp;lt;strong&amp;gt;[[HIPAA]]&amp;lt;/strong&amp;gt;合规风险。&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;&amp;lt;strong&amp;gt;数据不出院&amp;lt;/strong&amp;gt;。模型在本地运行，完全隐私安全。&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px; border: 1px solid #cbd5e1; font-weight: 600; background-color: #ffffff;&amp;quot;&amp;gt;响应速度&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;高延迟（网络+推理），不适合急诊 CDSS。&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 8px; border: 1px solid #cbd5e1;&amp;quot;&amp;gt;&amp;lt;strong&amp;gt;毫秒级响应&amp;lt;/strong&amp;gt;，实时辅助医生决策。&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
        &amp;lt;/table&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;h2 style=&amp;quot;background: #f1f5f9; color: #0f172a; padding: 10px 18px; border-radius: 0 6px 6px 0; font-size: 1.25em; margin-top: 40px; border-left: 6px solid #0f172a; font-weight: bold;&amp;quot;&amp;gt;技术前沿：黑盒蒸馏 (Black-box Distillation)&amp;lt;/h2&amp;gt;&lt;br /&gt;
    &lt;br /&gt;
    &amp;lt;div style=&amp;quot;margin-bottom: 25px; border: 1px solid #e2e8f0; border-radius: 8px; padding: 20px; background-color: #ffffff;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;h3 style=&amp;quot;margin-top: 0; color: #1e40af; font-size: 1.1em; border-bottom: 1px solid #e2e8f0; padding-bottom: 10px;&amp;quot;&amp;gt;LLM as a Teacher&amp;lt;/h3&amp;gt;&lt;br /&gt;
        &amp;lt;p style=&amp;quot;text-align: justify; color: #334155;&amp;quot;&amp;gt;&lt;br /&gt;
            传统的 KD 需要访问教师模型的内部参数（Logits），但像 GPT-4 这样的闭源模型是不公开参数的。&lt;br /&gt;
            &amp;lt;br&amp;gt;现在的趋势是&amp;lt;strong&amp;gt;[[指令微调蒸馏]]&amp;lt;/strong&amp;gt;：我们把 GPT-4 当作老师，让它生成高质量的“病例-诊断”对话数据（合成数据），然后用这些数据去训练一个开源的小模型（如 Llama 3 8B）。&lt;br /&gt;
            &amp;lt;br&amp;gt;&amp;lt;strong&amp;gt;结果：&amp;lt;/strong&amp;gt; 小模型“死记硬背”了 GPT-4 的推理逻辑（Chain-of-Thought），从而获得了类似的医疗推理能力。&lt;br /&gt;
        &amp;lt;/p&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div style=&amp;quot;font-size: 0.92em; line-height: 1.6; color: #1e293b; margin-top: 50px; border-top: 2px solid #0f172a; padding: 15px 25px; background-color: #f8fafc; border-radius: 0 0 10px 10px;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;span style=&amp;quot;color: #0f172a; font-weight: bold; font-size: 1.05em; display: inline-block; margin-bottom: 15px;&amp;quot;&amp;gt;关键参考文献&amp;lt;/span&amp;gt;&lt;br /&gt;
        &lt;br /&gt;
        &amp;lt;p style=&amp;quot;margin: 12px 0; border-bottom: 1px solid #e2e8f0; padding-bottom: 10px;&amp;quot;&amp;gt;&lt;br /&gt;
            [1] &amp;lt;strong&amp;gt;Hinton G, et al. (2015).&amp;lt;/strong&amp;gt; &amp;lt;em&amp;gt;Distilling the Knowledge in a Neural Network.&amp;lt;/em&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
            &amp;lt;span style=&amp;quot;color: #475569;&amp;quot;&amp;gt;[开山之作]：Geoffrey Hinton 提出了“Dark Knowledge”的概念，奠定了现代知识蒸馏的理论基础。&amp;lt;/span&amp;gt;&lt;br /&gt;
        &amp;lt;/p&amp;gt;&lt;br /&gt;
&lt;br /&gt;
        &amp;lt;p style=&amp;quot;margin: 12px 0; border-bottom: 1px solid #e2e8f0; padding-bottom: 10px;&amp;quot;&amp;gt;&lt;br /&gt;
            [2] &amp;lt;strong&amp;gt;Gou J, et al. (2021).&amp;lt;/strong&amp;gt; &amp;lt;em&amp;gt;Knowledge Distillation: A Survey.&amp;lt;/em&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
            &amp;lt;span style=&amp;quot;color: #475569;&amp;quot;&amp;gt;[综述]：全面总结了 KD 的各种变体（基于响应、基于特征、基于关系），是技术选型的必备参考。&amp;lt;/span&amp;gt;&lt;br /&gt;
        &amp;lt;/p&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
    &amp;lt;div style=&amp;quot;margin: 40px 0; border: 1px solid #e2e8f0; border-radius: 8px; overflow: hidden; font-family: 'Helvetica Neue', Arial, sans-serif; font-size: 0.9em;&amp;quot;&amp;gt;&lt;br /&gt;
        &amp;lt;div style=&amp;quot;background-color: #eff6ff; color: #1e40af; padding: 8px 15px; font-weight: bold; text-align: center; border-bottom: 1px solid #dbeafe;&amp;quot;&amp;gt;&lt;br /&gt;
            知识蒸馏 · 知识图谱&lt;br /&gt;
        &amp;lt;/div&amp;gt;&lt;br /&gt;
        &amp;lt;table style=&amp;quot;width: 100%; border-collapse: collapse; background-color: #ffffff;&amp;quot;&amp;gt;&lt;br /&gt;
            &amp;lt;tr style=&amp;quot;border-bottom: 1px solid #f1f5f9;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;width: 85px; background-color: #f8fafc; color: #334155; font-weight: 600; padding: 10px 12px; text-align: right; vertical-align: middle; white-space: nowrap;&amp;quot;&amp;gt;上级概念&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px 15px; color: #334155;&amp;quot;&amp;gt;[[模型压缩]] (Model Compression) • [[迁移学习]]&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr style=&amp;quot;border-bottom: 1px solid #f1f5f9;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;width: 85px; background-color: #f8fafc; color: #334155; font-weight: 600; padding: 10px 12px; text-align: right; vertical-align: middle; white-space: nowrap;&amp;quot;&amp;gt;核心变体&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px 15px; color: #334155;&amp;quot;&amp;gt;[[Response-based KD]] • [[Feature-based KD]] • [[Self-Distillation]]&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr style=&amp;quot;border-bottom: 1px solid #f1f5f9;&amp;quot;&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;width: 85px; background-color: #f8fafc; color: #334155; font-weight: 600; padding: 10px 12px; text-align: right; vertical-align: middle; white-space: nowrap;&amp;quot;&amp;gt;医学应用&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px 15px; color: #334155;&amp;quot;&amp;gt;[[医疗大模型私有化]] • [[移动端影像诊断]] • [[联邦学习蒸馏]]&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
            &amp;lt;tr&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;width: 85px; background-color: #f8fafc; color: #334155; font-weight: 600; padding: 10px 12px; text-align: right; vertical-align: middle; white-space: nowrap;&amp;quot;&amp;gt;相关技术&amp;lt;/td&amp;gt;&lt;br /&gt;
                &amp;lt;td style=&amp;quot;padding: 10px 15px; color: #334155;&amp;quot;&amp;gt;[[模型剪枝]] (Pruning) • [[量化]] (Quantization) • [[合成数据]]&amp;lt;/td&amp;gt;&lt;br /&gt;
            &amp;lt;/tr&amp;gt;&lt;br /&gt;
        &amp;lt;/table&amp;gt;&lt;br /&gt;
    &amp;lt;/div&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>77921020</name></author>
	</entry>
</feed>