网络管理

阅读笔记 | Privacy vs. Efficiency: Achieving Both Through Adaptive Hierarchical Federated Learning

Summary

The paper argue that the efficiency and data privacy of Federated Learning are non-orthogonal from the perspective of model training, which means they are restricting each other. So that the paper strictly formulates the problem at first, and designs a cloud-edge-end hierarchical FL system with adaptive control algorithm embedding a two-level Differential Protection method to relieve both the resource and privacy concerns. The design follows the following ideas:

杂记 | greedy与soft-greedy策略

生活中,许多人似乎都在解决着自己的多目标优化问题。我们即想要这个,又想要那个,有时候目标间甚至相互矛盾,你存我亡。

但其实我们没有严谨的公式和高速计算的能力,去把一个个问题形式化,然后一一求解。

而贪心策略(Greedy Strategy),也就是选择当前最好的,作为一种符合直觉的方式,被广泛地应用到我们生活中,而且很多时候其实我们并不会意识到。

阅读笔记|P4: programming protocol-independent packet processors

[info] Bosshart, Pat, Dan Daly, Glen Gibb, Martin Izzard, Nick McKeown, Jennifer Rexford, Cole Schlesinger, et al. “P4: Programming Protocol-Independent Packet Processors.” ACM SIGCOMM Computer Communication Review 44, no. 3 (July 28, 2014): 87–95. https://doi.org/10.1145/2656877.2656890.
[/info]

背景

  • OpenFlow采用了固定的包解析方式,只识别预定义的协议标头和固定字段。
  • 为了支持更多协议,OpenFlow不得不持续扩展支持的字段列表。
  • 字段数量的增加导致了OpenFlow规范的复杂性持续上升。
  • 但扩展现有规范仍然无法提供足够的灵活性,无法支持新增的自定义头格式。运营商往往需要采用软交换机来实现新功能。
  • OpenFlow对标头的假设限制了其扩展性。控制器无法表达新的包头应该如何被处理。
  • 固定标头机制与SDN控制交换机转发的初衷不符。控制器应该能定义包的解析方式和处理流程。
  • 作者认为,未来OpenFlow应该提供灵活的包解析机制,而不是继续扩展固定的字段列表。控制器应通过通用开放接口使用这些能力。

阅读笔记|Life on the Edge: Unraveling Policies into Configurations

[info] W. X. Zhao et al., “A Survey of Large Language Models.” arXiv, Sep. 11, 2023. Accessed: Sep. 18, 2023. [Online]. Available: http://arxiv.org/abs/2303.18223 [/info]

背景

  • 现有的SDN网络编程框架假设网络由同质设备组成,可以快速重新配置以响应不断变化的策略和网络条件。但这些假设与现实网络的情况不符,现实网络由于历史遗留设备、功能异构、性能限制等导致只能慢速配置。

  • 网络服务商需要在为用户提供灵活性和维护核心网络的完整性和可靠性之间做出平衡。

阅读笔记|A Survey of Large Language Models

[info] W. X. Zhao et al., “A Survey of Large Language Models.” arXiv, Sep. 11, 2023. Accessed: Sep. 18, 2023. [Online]. Available: http://arxiv.org/abs/2303.18223 [/info]

阅读笔记

模型选择:是否一定要选择参数量巨大的模型?如果需要更好的泛化能力,用于处理非单一的任务,例如对话,则可用选更大的模型;而对于单一明确的任务,则不一定越大越好,参数小一些的模型也能调教得很好。