<feed xmlns="http://www.w3.org/2005/Atom"> <id>https://hewang234.github.io/HeBlog/</id><title>HeWang</title><subtitle>Beijing Institute of Technology</subtitle> <updated>2026-04-25T14:48:15+00:00</updated> <author> <name>HeWang</name> <uri>https://hewang234.github.io/HeBlog/</uri> </author><link rel="self" type="application/atom+xml" href="https://hewang234.github.io/HeBlog/feed.xml"/><link rel="alternate" type="text/html" hreflang="zh-CN" href="https://hewang234.github.io/HeBlog/"/> <generator uri="https://jekyllrb.com/" version="4.2.2">Jekyll</generator> <rights> © 2026 HeWang </rights> <icon>/HeBlog//assets/img/favicons/favicon.ico</icon> <logo>/HeBlog//assets/img/favicons/favicon-96x96.png</logo> <entry><title>Ai 工程</title><link href="https://hewang234.github.io/HeBlog/posts/AI-%E5%B7%A5%E7%A8%8B/" rel="alternate" type="text/html" title="Ai 工程" /><published>2026-04-23T00:00:00+00:00</published> <updated>2026-04-25T14:48:02+00:00</updated> <id>https://hewang234.github.io/HeBlog/posts/AI-%E5%B7%A5%E7%A8%8B/</id> <content src="https://hewang234.github.io/HeBlog/posts/AI-%E5%B7%A5%E7%A8%8B/" /> <author> <name>HeWang</name> </author> <summary> AI 工程 架构 模型 -》 推理层 -》 中间服务层 -》 应用层 在典型 LLM 系统里有三层： 1）推理层（Inference Layer） 负责： • 加载模型权重（如 Hugging Face） • 执行前向推理（GPU/CPU） • 管理显存、batch、并发 例如： • Ollama • transformers / vLLM ⸻ 2）中间服务层（API Layer） 负责： • 提供 HTTP 接口（类似 OpenAI API） • 统一调用方式 ⸻ 3）应用层（Application Layer） 负责： • ... </summary> </entry> <entry><title>Ai prompts</title><link href="https://hewang234.github.io/HeBlog/posts/AI-prompts/" rel="alternate" type="text/html" title="Ai prompts" /><published>2026-03-19T00:00:00+00:00</published> <updated>2026-04-25T14:48:02+00:00</updated> <id>https://hewang234.github.io/HeBlog/posts/AI-prompts/</id> <content src="https://hewang234.github.io/HeBlog/posts/AI-prompts/" /> <author> <name>HeWang</name> </author> <summary> AI prompts 帮我详细的列举和说明这个项目主要的功能和模块，并帮我找一下这个项目有什么亮点？ 帮我看一下这个项目，如果我面试，面试官可能会问什么相关的问题？帮我解答一下。有哪些是重点，我需要着重看一下？有哪些是亮点？ 当前上下文已经过长，我将开启一个新的会话继续这项工作。请你输出一份写给下一位 AI Agent 的交接摘要，让它即使看不到当前完整上下文，也能尽快理解现状并继续推进工作。 </summary> </entry> <entry><title>论文阅读笔记-金融</title><link href="https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E9%87%91%E8%9E%8D/" rel="alternate" type="text/html" title="论文阅读笔记-金融" /><published>2024-08-14T00:00:00+00:00</published> <updated>2025-02-15T13:18:21+00:00</updated> <id>https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E9%87%91%E8%9E%8D/</id> <content src="https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E9%87%91%E8%9E%8D/" /> <author> <name>HeWang</name> </author> <category term="Research" /> <summary> 美国衰退的判断依据与历史经验 陈刚-CICC 2024 经济衰退（Economic recession）是指经济活动严重、广泛且长期的低迷。美国关于衰退的阶段划分长期以来由国家经济研究局（National Bureau of Economic Research，NBER）认定，主要考察的指标包括扣除转移支付后的个人实际收入、非农就业、家庭调查就业、实际个人消费支出、实际制造与贸易销售、以及工业产出。NBER在认定衰退时，会综合考虑深度（depth）、广度（diffusion）、以及持续时间（duration）。 发现触发因素可大体归结为货币紧缩、财政减支、高杠杆、股市大跌、及外部冲击这五种情形的一种或多种。 行业表现：日常消费及防御板块在回撤期间跌幅普遍较小，符合防御板块特征；但房地产、金融服务、媒体、公用事业、保险等板块在深度衰退期间跌幅更为剧烈，意味着此类板块对于衰退程度... </summary> </entry> <entry><title>金融知识</title><link href="https://hewang234.github.io/HeBlog/posts/%E9%87%91%E8%9E%8D%E7%9F%A5%E8%AF%86/" rel="alternate" type="text/html" title="金融知识" /><published>2024-02-19T00:00:00+00:00</published> <updated>2026-04-13T09:12:29+00:00</updated> <id>https://hewang234.github.io/HeBlog/posts/%E9%87%91%E8%9E%8D%E7%9F%A5%E8%AF%86/</id> <content src="https://hewang234.github.io/HeBlog/posts/%E9%87%91%E8%9E%8D%E7%9F%A5%E8%AF%86/" /> <author> <name>HeWang</name> </author> <category term="Finance" /> <summary> MLF、LPR：中期借贷便利（Medium-term Lending Facility，简称MLF）利率或“市场报价利率”。现在贷款市场报价利率（Loan Prime Rate，简称LPR，英文直译为“贷款基准利率”）主要是由中期借贷便利利率（MLF），加点形成。https://finance.sina.com.cn/zl/china/2022-05-20/zl-imcwipik0899962.shtml#:~:text=%E5%A4%AE%E8%A1%8C%E6%94%BF%E7%AD%96%E5%88%A9%E7%8E%87%EF%BC%8C%E6%98%AF,%E5%B7%A5%E5%85%B7%E5%92%8C%E5%88%A9%E7%8E%87%E6%B0%B4%E5%B9%B3%E3%80%82 沪金主连、黄金9999、黄金T+D、mAu(T+D)： https://x... </summary> </entry> <entry><title>论文阅读笔记-多模态</title><link href="https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E5%A4%9A%E6%A8%A1%E6%80%81/" rel="alternate" type="text/html" title="论文阅读笔记-多模态" /><published>2024-02-01T00:00:00+00:00</published> <updated>2026-02-11T08:45:09+00:00</updated> <id>https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E5%A4%9A%E6%A8%A1%E6%80%81/</id> <content src="https://hewang234.github.io/HeBlog/posts/%E8%AE%BA%E6%96%87%E9%98%85%E8%AF%BB%E7%AC%94%E8%AE%B0-%E5%A4%9A%E6%A8%A1%E6%80%81/" /> <author> <name>HeWang</name> </author> <category term="Research" /> <summary> MergeNet: Knowledge Migration across Heterogeneous Models, Tasks, and Modalities 项目地址 解读文章 现有的知识转移方法主要有两种：知识蒸馏和迁移学习。 知识蒸馏通过训练一个紧凑的学生模型来模仿教师模型的 Logits 或 Feature Map，提高学生模型的准确性。迁移学习则通常通过预训练和微调，将预训练阶段在大规模数据集上学到的知识通过骨干网络共享应用于下游任务。 知识蒸馏、骨干共享和 MergeNet 的比较 MergeNet 框架 MUST: An Effective and Scalable Framework for Multimodal Search of Target Modality -Yunjun Gao -Zhejiang University 将图实体转... </summary> </entry> </feed>
